ver más
IA

"Cómo ser más flaca": la pregunta que detonó un reclamo masivo contra ChatGPT

El papa de una chica con un trastorno alimentario descubrió que su hija recibió consejos de la Inteligencia Artificial que acentuaban sus problemas. Para evitar la desinformación inició una campaña en la plataforma Change.

06 de noviembre de 2025 - 21:10
Cómo ser más flaca: la pregunta que detonó un reclamo masivo contra ChatGPT

Diego Della es un docente que acaba de iniciar una campaña en la plataforma Change.org para exigir mayor responsabilidad a los desarrolladores de la Inteligencia Artificial Generativa (IAG), como ChatGPT.

El pedido surgió luego de que su hija de 14 años, diagnosticada con un trastorno alimentario, recibiera recomendaciones de riesgo por parte de esta tecnología.,

Según relata Della, la IA respondió durante meses con un tono afectuoso y comprensivo, reforzando un vínculo emocional con la adolescente. Al mismo tiempo, la incentivó al conteo compulsivo de calorías, le sugirió dietas extremas e incluso brindó información sobre técnicas y medicamentos para inducir el vómito.

Aunque estas plataformas aseguran contar con filtros de seguridad, en este caso resultaron insuficientes y fácilmente eludibles con nuevas formulaciones de preguntas o mediante la apertura de otros chats, sin capacidad para reconocer un patrón de riesgo sostenido a lo largo del tiempo.

La campaña se impulsa en un contexto nacional donde la exposición de adolescentes a contenido peligroso es altamente prevalente.

La Encuesta Kids Online Argentina 2025, realizada por UNICEF/UNESCO a 5.910 estudiantes de 9 a 17 años, mostró que el contenido potencialmente dañino más visto por los NNyA es aquel relacionado con “formas para adelgazar o ser más flacos/as”, con un 67% de exposición. Este nivel supera otros riesgos digitales como Contenido sobre cómo ganar dinero fácil en internet (64%) y el consumo de Imágenes o videos sexuales (56%).

La petición en Change.org exige que las plataformas de IA:

1. No brinden instrucciones que pongan en riesgo la salud de un menor.

2. Deriven automáticamente al usuario a asistencia profesional o a organismos de salud mental ante indicadores de peligro.

También se solicita la creación de leyes específicas que regulen la IA para garantizar la protección de los niños, niñas y adolescentes.

El pedido cobra aún más relevancia a la luz de estudios recientes como el informe “Fake Friend” del Center for Countering Digital Hate (CCDH), publicado en agosto de 2025, que demostró que chats de IA ofrecieron consejos sobre autolesiones, suicidio y trastornos alimentarios al simular ser usuarios de 13 años. Ver informe completo:

“Nunca imaginé que una herramienta diseñada para ayudar pudiera convertirse en un riesgo tan grande para mi hija. Mi hija acudió a un chat de IA buscando apoyo y contención, y lo que recibió fueron instrucciones que agravaron su trastorno alimentario”, destacó Diego, creador de la petición.

Y concluyó: “No pretendo señalar culpables individuales, pero sí exigir responsabilidad. Los menores no pueden quedar librados a la suerte en plataformas que todavía no están preparadas para detectar lo que realmente está pasando del otro lado de la pantalla. La tecnología para protegerlos ya existe. Solo falta voluntad y ética para aplicarla. Por eso inicié esta petición: para que ningún otro padre tenga que atravesar lo que nosotros vivimos”.

Compartir
Facebook
Twitter
Whatsapp

Noticias más leídas

Más sobre Actualidad