IA Trucha

Fraude y escándalo en el mundo de la Inteligencia Artificial

Fraude tecnológico millonario: lo que había detrás del asistente Natasha

FRAUDE Y ESCÁNDALO EN EL MUNDO DE LA INTELIGENCIA ARTIFICIAL

La promesa de la inteligencia artificial como solución mágica para crear aplicaciones sin conocimientos técnicos atrajo inversiones y titulares. La startup británica Builder.ai representó esa ilusión a la perfección. Fundada en 2016 en Londres, ofrecía una plataforma que, supuestamente, automatizaba el desarrollo de software con una IA capaz de traducir ideas en apps funcionales. Su lema era tan simple como audaz: “Crear una aplicación es tan fácil como pedir una pizza”.

Pero la realidad fue muy distinta.

La empresa alcanzó una valuación de 1.500 millones de dólares y logró convencer incluso a gigantes como Microsoft. Sin embargo, todo se derrumbó cuando se supo que su asistente virtual Natasha, la supuesta inteligencia artificial que atendía a los usuarios, no era más que una interfaz vacía detrás de la cual trabajaban 700 ingenieros desde La India, respondiendo manualmente a las consultas.

La historia de Builder.ai no es solo un caso de fraude tecnológico. También es un reflejo de cómo la narrativa de la inteligencia artificial puede ser utilizada para inflar expectativas, atraer millones y esconder operaciones tradicionales bajo una apariencia futurista.

Así operaba Builder.ai

Aunque el sitio web de la compañía aún está en línea y reza que “hacer una app es tan fácil que cualquiera puede hacerlo”, lo cierto es que buena parte de ese proceso recaía en trabajo humano. Según reveló The Telegraph, Natasha no era una IA funcional, sino un simple intermediario que redirigía solicitudes a programadores humanos.

Cada vez que un cliente interactuaba con el asistente, no recibía una respuesta generada por un modelo automático, sino por alguno de los cientos de trabajadores subcontratados en India, quienes redactaban y desarrollaban manualmente cada paso del supuesto proceso automatizado.

ia-trucha-builder.jpg
Su ''I.A'' eran 700 ingenieros en India y había sido valuada en 1.500 millones de dólares. (Imagen creada con IA)

Su ''I.A'' eran 700 ingenieros en India y había sido valuada en 1.500 millones de dólares. (Imagen creada con IA)

En palabras de un exejecutivo citado por el Wall Street Journal, todo era “una ilusión”. El sistema vendía eficiencia tecnológica, pero lo que había detrás era una estructura de externalización encubierta.

Señales tempranas del engaño

El escrutinio sobre la compañía no es nuevo. En 2019, ya se habían filtrado reportes que cuestionaban el verdadero funcionamiento de su “tecnología”. Un artículo del Wall Street Journal citaba empleados internos que advertían sobre fallas graves en los productos entregados. El patrón era claro: las apps eran defectuosas, desorganizadas y, en muchos casos, inservibles.

Ese mismo año fue despedido Robert Holdheim, un exdirectivo que aseguró que la tecnología que vendían “no funcionaba como se promocionaba” y que era “esencialmente una ilusión bien armada”.

El fin de la ilusión: bancarrota y congelamiento de fondos

El 20 de mayo de 2025, Builder.ai se declaró oficialmente en bancarrota. Lo que precipitó el colapso no fue solo la exposición del funcionamiento real de Natasha, sino también una serie de irregularidades contables que derivaron en embargos y bloqueos de fondos en India.

Investigaciones preliminares apuntan a una maniobra de facturación circular. Según explicó el especialista en inteligencia artificial Daniel Stilerman, se trató de una práctica fraudulenta en la que la empresa generaba facturas ficticias con otras compañías para inflar artificialmente sus ingresos. De esa forma, los balances aparentaban una facturación mucho mayor a la real, atrayendo así a inversores desprevenidos.

“Hicieron algo llamado facturación circular. Le pedían a una compañía que les facture servicios, y ellos les facturaban otros a cambio. Si no auditás en detalle, parece que están facturando muchísimo, aunque en realidad no entra dinero nuevo”, detalló Stilerman.

FUENTE: YOUTUBE