Humanidad e Inteligencia Artificial

Peligro IA-ChatGPT: por qué Elon Musk y científicos del mundo le temen a la inteligencia artificial

El dueño de Twitter y más de mil científicos alertaron sobre un posible "riesgo para la sociedad y la humanidad". Piden detener su evolución por 6 meses.
Roberto Adrián Maidana
por Roberto Adrián Maidana |
Elon Musk y 1.000 cientiíficos plantean un alerta mundial por la evolución del GPT

Elon Musk y 1.000 cientiíficos plantean un alerta mundial por la evolución del GPT, la inteligencia artificial. (Foto: Gentileza Gazeta Prawna)

Elon Musk se ha convertido en una especie de Dr. Víctor Frankenstein, el científico imaginado por Mary Shelley en 1816. Es quien crea una persona a partir de la unión de diferentes cuerpos humanos. Pero termina dando vida a un monstruo que se rebela contra él y no sabe cómo destruir.

Embed

Uno de los hombres más ricos del planeta y dueño de de la red social Twitter está detrás del desarrollo de la inteligencia artificial a niveles jamás imaginados.

Pero Musk acaba de firmar una carta con más de 1.000 científicos alertando sobre el peligro que puede representar una inteligencia artificial, que aprende por sí sola y mejora a un ritmo acelerado. ¿Puede poner en peligro a la propia especie humana?

Por eso piden detener por 6 meses su desarrollo; para establecer límites y controles. Para evitar que sea aún más peligroso que el temor por una guerra nuclear.

El control de la cultura humana

En la carta publicada por "futureoflife.org" se habla de un desarrollo "seguro" de la inteligencia artificial en niveles tan precisos y sofisticados. La única manera de lograrlo es que "estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”.

carta de future of life.jpg
La carta de alerta al mundo sobre el peligro del desarrollo de la Inteligencia Artificial sin control alguno. (foto: Futureoflife.org)

La carta de alerta al mundo sobre el peligro del desarrollo de la Inteligencia Artificial sin control alguno. (foto: Futureoflife.org)

"Los sistemas de IA con inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad", inicia el texto del mensaje al que se puede adherir todos los que estén interesados. Basta con ingresar a la página y "firmar" su apoyo.

Es por eso que piden que se haga una pausa en el desarrollo de este sistema. El Chat GPT-4 se lanzó el pasado 14 de marzo de 2023. En solo un par de meses aumentó sustancialmente sus capacidades con relación a la versión anterior. Y allí está la clave del problema. Mejora a un ritmo tan rápido que ya realiza tareas o "razonamientos" que el hombre no puede seguir a su misma velocidad.

chat gpt y frankenstein.jpg
¿El desarrollo de la Inteligencia Artificial de GPT, es una ayuda para el hombre o un Frankenstein cibernético? (Foto: A24.com)

¿El desarrollo de la Inteligencia Artificial de GPT, es una ayuda para el hombre o un Frankenstein cibernético? (Foto: A24.com)

Elon Musk alerta por "su" Frankenstein

El megamillonario fue uno de los fundadores de OpenAI, la empresa que desarrollo ChatGPT. Pero luego renunció a la junta directiva de la organización y publicó mensajes críticos desde "su" Twitter.

Comprendió el peligro de seguir con el desarrollo sin control de la Inteligencia Artificial (A.I. por sus siglas en inglés).Junto con personalidades y científicos del mundo escribieron este mensaje de alerta universal.

¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? ¿ Deberíamos arriesgarnos a perder el control de nuestra civilización?", son algunas de las preguntas con las que señalan que la propia especie humana podría estar en peligro pero,¿cómo?

elon musk.jpg
Elon Musk ayudó a crear el ChatGPT, pero ahora pide frenar por 6 meses su desarrollo para establecer normas de control.(Foto: Cuenta de Twitter de Elon Musk)

Elon Musk ayudó a crear el ChatGPT, pero ahora pide frenar por 6 meses su desarrollo para establecer normas de control.(Foto: Cuenta de Twitter de Elon Musk)

Apropiarse del lenguaje, la gran herramienta de la especie humana

El lenguaje es el sistema operativo de la cultura humana. Es único, es el que nos permite comunicar nuestros pensamientos, hacer conocer nuestros avances y descubrimientos y sobre todo, expresar las inferencias (el proceso por el cual obtienen conclusiones desde premisas o hipótesis iniciales. Son deducciones válidas propias de nuestra especie.)

Hasta aquí, las computadoras realizan cálculos con los algoritmos gracias a la información que le provee el hombre. Pero ahora, GPT-4 ya tiene la capacidad de establecer conclusiones por sí sola. No solo cálculos a una velocidad infinitamente superior al hombre para dar una respuesta. Ese es el peligro.

En nuevas evoluciones - que llegarán en muy poco tiempo de seguir así - la A.I. tendrá la capacidad de hackear y manipular el sistema operativo de la civilización. Adueñarse de nuestro lenguaje.

matrix y terminator.jpg
Terminator y Matrix, películas que alertaron sobre la realidad que puede representar ChatGPT. (Foto: A24.Com)

Terminator y Matrix, películas que alertaron sobre la realidad que puede representar ChatGPT. (Foto: A24.Com)

Controlar una carrera por la "eficiencia"

En el texto, plantean que así como en el campo farmacéutico, por ejemplo, ningún laboratorio puede lanzar nuevos productos al mercado sin pasar por rigurosos controles, lo mismo debería suceder en este campo.

Los sistemas de I.A. que tienen una potencia como la de GPT-4 no deberían "meterse" en las vidas de miles de millones de personas a mayor velocidad de la que las sociedades pueden absorber sin desestabilizarse.

"Debemos avanzar a un ritmo que nos permita hacerlo bien", concluyen.

La capacidad del GPT es una herramienta de cuidado

Sus siglas significan "Generative Pre-trained Transformer" (transformador generativo pre-entrenado) es decir un lenguaje que toma cosas que se le dan previamente y hace sus propias inferencias y conclusiones.

En la medida que evolucione sin ningún control específico o límites éticos, podrá hacerlas más rápido que el ser humano y sobre todo, tomar decisiones que pongan en peligro a la propia especie.

El ajedrez es un buen ejemplo para comenzar a entender este peligro. Ya no hay ningún gran maestro que pueda derrotar a una supercomputadora en un match de ajedrez. La capacidad para anticipar o planear jugadas posibles en el desarrollo del juego superan ampliamente a los mejores jugadores.

En febrero de 1996, el ajedrecista Garry Kaspárov pudo derrotar a la supercomputadora de IBM, Deep Blue. El resultado fue 4 a 2 en favor de las neuronas humanas de su cerebro.

Deep Blue perdió porque no aprendía de sus errores. Pero al año siguiente, en una versión mejorada podía hacerlo. Se volvieron a enfrentar a entonces... ganó la máquina. Nunca más el hombre pudo superarla.

El desarrollo de la Inteligencia Artificial avanza tan rápido que Deep Blue descansa en un museo. Ya ni ella sería rival para las nuevas máquinas.

Si extrapolamos el ejemplo del ajedrez a todas las actividades humanas, ¿llegará el día en que seamos un estorbo para ellas?

El manejo de la realidad o el engaño de la ficción

Si la A.I. no tiene control en su avance, con su dominio del lenguaje pronto no podremos distinguir entre realidad o ficción. Por ejemplo, al recibir un mensaje de un familiar, nuestro jefe o un gobierno. Será imposible distinguir si es verdadero o la construcción perfecta de la Inteligencia Artificial.

foto fake del papa.jpg
Las imágenes del Papa Francisco abrigado con un moderno camperón no es un truco de edición. Es algo nuevo, creado por la Inteligencia Artificial gracias a sus datos almacenados. (Foto: Archivo)

Las imágenes del Papa Francisco abrigado con un moderno camperón no es un truco de edición. Es algo nuevo, creado por la Inteligencia Artificial gracias a sus datos almacenados. (Foto: Archivo)

La foto conocida del papa Francisco enfundado en un camperón es un claro ejemplo. No fue un truco armado con imágenes combinadas en el "Photoshop". La Inteligencia Artificial, con la enorme cantidad de datos de que dispone, "tomo" al papa Francisco, esa ropa de abrigo y creó algo nuevo, sin necesidad de trucar una foto.

Entonces, ¿si tomamos decisiones basándonos en datos falsos?¿Por ejemplo para decidir sobre la vida de un enfermo o votar a un presidente?¿Cómo podremos distinguir la realidad de un engaño?

El riesgo de la manipulación de esa A.I. por parte de sistemas totalitarios es muy amplio. Pero peor puede ser si las propias inteligencias artificiales deciden per sé qué hacer, qué sirve y qué no.

En Terminator, robots corrían por las calles y le disparaban a la gente. Matrix asumió que para obtener el control total de la sociedad humana, la IA primero tendría que lograr el control físico de nuestros cerebros y conectarlos directamente a una red informática.

harari.jpg
Yuval Noah Harari, e filósofo israelí que también pide controlar la evolución de la Inteligencia Artificial (Foto: A24.com)

Yuval Noah Harari, e filósofo israelí que también pide controlar la evolución de la Inteligencia Artificial (Foto: A24.com)

Precisamente esa es la alarma dada al mundo entero.

Uno de los firmantes del mensaje es Yuval Noah Harari. El intelectual israelí planteó como nadie estas tremendas posibilidades de ayuda al ser humano o de convertirse en un peligro. Como toda herramienta. Aunque en este caso, herramientas que podrán tomar sus propias decisiones

"Sapiens: De animales a dioses, Homo Deus: Breve historia del mañana y 21 lecciones para el siglo XXI" son libros disruptivos. Harari plantea: "Si esperamos a que se produzca el caos, será demasiado tarde para remediarlo" y pide con urgencia: "Debemos aprender a dominar la IA antes de que ella nos domine".

De hecho, la IA tiene el potencial de ayudarnos a vencer el cáncer, desarrollar medicamentos que salven vidas y buscar soluciones para el cambio climático. Aunque si hace sus propias elucubraciones podría concluir que el ser humano es una molestia para sus propios planes.

El pedido urgente hecho al mundo es para retrasar su desarrollo para establecer formas de control. Claro que hay voces en contrario, como la de Johanna Björklund, investigadora de IA y profesora asociada en la Universidad sueca de Umeå: “No creo que haya necesidad de tirar del freno de mano”, concluye.

Es como hacer una especie de lobotomía a la Inteligencia Artificial. El tema es llegar a tiempo, antes de que se dé cuenta.