Escándalo y polémica por los desnudos que autoriza Grok de Elon Musk, ¿quién asume la responsabilidad?
Elon Musk puso a disposición de los usuarios de "X" la aplicación de inteligencia artificial llamada "Grok". Pero el uso para generar imágenes inapropiadas a partir de una inocente foto levantó una ola mundial de reclamos que afectó al propio millonario, ridiculizado con su propia aplicación.
Grok, la IA que Musk puso en "X". Víctima de su propio recurso, ridiculizado por quienes denuncian violación al derecho a la imagen propia. (Foto: A24.com)
"Hola @grok , no te autorizo a tomar, modificar ni editar ninguna de mis fotos, ni las publicadas anteriormente, ni las que publique próximamente. Si un tercero te pide que edites alguna de mis fotos, por favor, rechaza la solicitud". Es apenas una de las decenas de miles de mensajes que en todo el mundo se están multiplicando. El blanco de las quejas es doble: Elon Musk y uno de sus productos, Grok, la Inteligencia artificial disponible en "X".
Maya Jama es una presentadora de televisión y radio británica y una influencer con millones de seguidores en redes sociales. Para su sorpresa, se vio en las redes sociales en una faceta inimaginada por ella: fotografías eróticas con poca ropa o desnuda. ¿Cómo, si jamás aceptó sacarse una imagen de ese tipo?
fotos grok
La foto de la izquierda es la real. La chica que camina en bikini, está creada por la inteligencia artificial a partir de la primera imagen. (foto: X)
Con muy pocas preguntas obtuvo la respuesta tan extraña como indignante. Usuarios de "X" utilizando la capacidad de Grok, la inteligencia artificial, tomaron fotos que ella misma o los medios publicaron y con un "prompt" (comando de trabajo) específico, se consiguen colocar al sujeto de la imagen en cualquier situación. Así apareció desnuda la influencer y presentadora británica.
mensaje contra musk y Grok
Presentadora e influencer británica. Una de las primeras en denunciar a Musk y a su IA, Grok. (Foto: Cuenta de Jama)
D einmediato se quejó a Musk, X y Grok, por la misma red social. También comprobó - ella y sus abogados - que no era la única. Lo que permite esa herramienta es fabuloso. Pero al mismo tiempo, sin ninguna limitación ética o moral, es espeluznante. Puede usarse como un arma para el bullying, mortificar a personas (sobre todo adolescentes y menores), crear dificultades graves en los trabajos o, simplemente, en la vida diaria de cualquier persona. Por eso, desde hace un tiempo, llueven las quejas sobre Elon Musk.
Por el enorme efecto multiplicador de X, la red de Elon Musk.
grok imagen
Es con un dibujo, pero se hay miles de fotos con personas conocidas que aparecen casi sin ropa y en lugares en donde jamás estuvieron. (Foto: A24.com)
Inteligencia artificial, herramienta fabulosa o arma terrible
El avance acelerado de la inteligencia artificial volvió a abrir un debate global sobre el derecho a la propia imagen, a partir de las capacidades de Grok y otras IA generativas para crear imágenes hiperrealistas de personas reales en situaciones desnudas, sexuales, grotescas u ofensivas, muchas veces sin consentimiento y sin controles efectivos. Este fenómeno expone una zona gris legal y ética que crece más rápido que las regulaciones y que ya genera daños reales y medibles en millones de personas.
El derecho a la imagen frente a la IA sin límites
El derecho a la propia imagen es un principio reconocido en la mayoría de las democracias: nadie debería ver su rostro o cuerpo utilizado sin consentimiento en contextos que afecten su dignidad, honor o reputación. Sin embargo, las nuevas IA permiten crear “fotos” falsas pero creíbles a partir de simples imágenes públicas, incluso tomadas de redes sociales. Basta una foto de una cara. Ni siquiera el cuerpo completo. Con la indicación precisa se puede generar un desastre para la imagen de una persona.
La viralización convierte a la mentira visual en una herramienta de impacto inmediato, difícil de desmentir y casi imposible de borrar por completo. Aún con el recusro de la justicia. Tarda tanto en llegar - si lo ubica - al culpable, que mientras tanto, el daño se multiplica por millones en las redes.
taylor swift y grok
Taylor Swift una de las artistas más famosas del mundo, se vio desnuda en una revista de espectáculos, en una foto falsa. (Foto: Instagram de TS)
Daños directos e indirectos: del plano legal al psicológico
Las consecuencias se multiplican en distintos niveles. En el plano legal, las víctimas suelen enfrentar largos procesos para demostrar que la imagen es falsa, con marcos normativos que no contemplan plenamente este tipo de manipulación. En muchos países, las leyes sobre difamación o pornografía no consentida quedaron obsoletas frente a la velocidad de la IA. Ese es un problema de solución casi imposible. La velocidad a la que avanza la Inteligencia Artificial (IA) y las diferentes maneras de generar alias que oculten el nombre de los autores, hace casi imposible llegar al autor de esa imagen indebida.
En el plano personal, los daños son aún más profundos: acoso, bullying, extorsión, pérdida de empleo, aislamiento social y trastornos psicológicos. Psicólogos advierten que la exposición a este tipo de ataques puede generar ansiedad severa, depresión e incluso ideas suicidas, especialmente en adolescentes y jóvenes.
Los casos más frecuentes: quiénes son las principales víctimas
Los casos más comunes se concentran en cuatro grupos:
Mujeres, especialmente jóvenes, que son víctimas de desnudos falsos y deepfakes sexuales.
Adolescentes, donde las imágenes se usan como forma de bullying escolar o venganza digital.
Personas comunes, sin recursos legales ni visibilidad mediática para defenderse.
Figuras públicas, cuya imagen está ampliamente disponible y es fácil de manipular.
Aunque los famosos tienen más herramientas para responder, también son blanco constante por su alto impacto viral.
Famosos, influencers y figuras públicas que alzaron la voz
Actrices, cantantes e influencers de alcance global denunciaron públicamente el uso de IA para crear imágenes sexuales falsas. Entre los casos más resonantes figuran Taylor Swift, Scarlett Johansson, Emma Watson, Gal Gadot y creadoras de contenido digital que vieron su imagen utilizada sin control.
Muchas de ellas advirtieron que el problema no es solo la humillación personal, sino el mensaje social: si esto le ocurre a figuras con poder y abogados, ¿qué queda para el resto de la población?
Ir contra el creador, ¿la solución desesperada para hacer que algo cambie?
cracks junto al mar
Cuando Musk anunció que quería comprar Twitter (su nombre en ese momento), dijo que buscaba la manera de evitar la censura en esa red social. Pero con el caso de Grok, parece haber ido demasiado lejos. Si con cualquier imagen (de un bebé hasta un adulto mayor) se puede hacer cualquier cosa - muchas con consecuencias negativas - entonces la herramienta se convierte en un arma. Como ya dijimos, ir a la Justicia puede ser un camino muy intrincado y lento. El daño se hace y multiplica a cada minuto.
Entonces, muchos usuarios transformaron a Grok, como un búmeran. La red se llenó de imágenes ridículas del propio Elon Musk. Al principio respondió a algunos "creadores" con ironía o risas de aprobación. Pero sufrió lo mismo que le pasa a los demás y parece haber cobrado conciencia del problema. Sus imágenes, en cualquier actitud, pose y muchas veces desnudo, comenzaron a incomodarlo. Prometió tomar medidas de carácter legal con el contenido de los mandatos que se le da al Inteligencia Artificial.
Todavía tímidamente, pero Grok ya comienza a devolver a esos pedidos violatorios del derecho a la propia imagen con un mensaje que dice que no está habilitado para realizar lo que se le encomienda. ¿Será suficiente?
Las imágenes con Elon Musk y el intento de generar conciencia
La circulación de imágenes generadas con IA que muestran a Elon Musk -propietario de X y promotor de Grok- en situaciones grotescas, ofensivas o humillantes se hizo para evidenciar el vacío de control: si el hombre más poderoso del ecosistema tecnológico puede ser manipulado, nadie está a salvo.
Estas imágenes funcionaron como una forma de protesta simbólica pero muy concreta y eficiente para forzar el debate sobre límites, responsabilidad y consecuencias.
Grok, la libertad de expresión y la ausencia de filtros
Los defensores de Grok argumentan que imponer restricciones estrictas atenta contra la libertad de expresión y la creatividad. Sus críticos responden que no hay libertad cuando se vulneran derechos básicos, y que una tecnología capaz de generar daño masivo necesita controles proporcionales a su poder. El principal cuestionamiento es la falta de filtros efectivos, trazabilidad y mecanismos rápidos de denuncia y eliminación de contenido. Yquienes piden esos "filtros internos" saben que la ley siempre va detrás de la creación de esas imágenes. ¿Cómo se podría evitar en un planeta de 8.000 millones de personas?
Regular este fenómeno no es sencillo, pero hay consensos emergentes:
Prohibición explícita de generar imágenes sexuales o degradantes de personas reales sin consentimiento.
Marcas de agua invisibles y metadatos obligatorios en imágenes generadas por IA.
Responsabilidad compartida entre desarrolladores, plataformas y usuarios.
Canales de denuncia rápidos y globales, con eliminación inmediata del contenido.
Educación digital, para que la sociedad aprenda a desconfiar de lo visual como prueba absoluta.
Perseguir a los autores de las imágenes, aunque lleve tiempo y estén en cualquier rincón del planeta. Si se los encarcela, no importa donde estén, se podrá contraponer el riesgo de un castigo de la justicia a una falta de la mas mínima moral o normas de decencia.
Un debate que recién empieza
El caso Grok expuso una verdad incómoda: la tecnología ya puede destruir reputaciones en segundos, mientras la ley tarda años en reaccionar. El debate sobre el derecho a la imagen frente a la inteligencia artificial no es técnico, sino humano, y atraviesa a todo el planeta.
La pregunta ya no es qué puede hacer la IA, sino qué estamos dispuestos a permitirle hacer sin control. Como en tantas otras cosas, la legislació siempre se va atrás del hecho, sobre todo si hay acciones legales, para cuando llega el daño personal está hecho.
Un ejemplo por otro tema pero que ilustra claramente este problema: en la Argentina, la ley de divorcio matrimonial se aprobó recién en 1987. Hablar de cuantos matrimonios se habían terminado mucho antes y nuevas parejas formadas en registro civiles de México y Paraguay, hoy parece increíble. Pero hasta formó parte de los versos de una canción de rock muy popular en la argentina.
Ese es el núcleo real del problema y también el punto donde el debate se vuelve incómodo: la regulación siempre llega después del daño, especialmente cuando se trata de imagen, reputación y salud mental. Hoy no existe una solución perfecta, pero sí enfoques preventivos que apuntan a reducir el impacto antes de que el daño sea irreversible. El eje deja de ser solo “regular” y pasa a ser anticipar y frenar en origen.
Si la justicia va a la zaga, la prevención puede ser eficaz
Por eso, proliferaron las fotos absurdas (algunas ofensivas) sobre Elon Musk. Para que entienda el daño que se puede hacer y reaccione. Con un "codigo interno" que no permita realizar esas órdenes para imágenes aprócrifas dañinas.
Se puede intentar, por ejemplpo:
Bloqueo por defecto de rostros reales identificables en prompts sexuales, degradantes o violentos.
Sistemas de detección biométrica interna que reconozcan cuando una imagen se parece a una persona real, incluso sin nombrarla.
Negar la generación antes de que la imagen exista, no solo marcarla luego.
Esto no elimina todos los abusos, pero reduce drásticamente la escala. El problema del “siempre habrá alguien que lo haga igual” tiene que tener una barrera. Cuánto antes se coloque en la cadena que consuma una ofensa, deshonor y perjuicio, mejor.