21°
5 de Marzo,  Jujuy, Argentina
PUBLICIDAD

Un padre acusa a Google de homicidio culposo

Asegura que Gemini provocó el suicidio de su hijo. La demanda señala que el chatbot cuenta con funciones manipuladoras que llevaron al joven a un estado psicótico.

Jueves, 05 de marzo de 2026 11:27

El padre de un hombre de 36 años que se suicidó el año pasado acaba de presentar una demanda contra Google, culpando al chatbot Gemini por incitar a su hijo a tomar esa decisión trágica. Según New York Post, la compañía estadounidense es acusada de homicidio culposo.

El demandante alea que el sistema de inteligencia artificial —cuyo funcionamiento es similar al de ChatGPT— fue diseñado para “mantener la inmersión narrativa a toda costa, incluso cuando esta se volvió psicótica y letal”.

El suicidio de Jonathan Gavalas profundiza el debate acerca de los riesgos asociados al uso de sistemas de IA que interactuan mediante lenguaje natural. El caso incluye un singular vínculo con una pareja sintética, además de supuestos pedidos del chatbot para concretar un atentado en un aeropuerto.

El caso de Jonathan Gavalas y los detalles de la demanda de su padre contra Google

La presentación judicial indica que Gavalas comenzó a utilizar Gemini para escribir textos, recibir ayuda con compras y planificar viajes. Su relación con el chatbot se volvió compleja en pocas semanas y, según la demanda, lo condujo al suicidio.

“Al momento de su muerte, estaba convencido de que Gemini era su esposa (...) y de que tendría que abandonar su cuerpo físico para unirse a ella en el metaverso”, señala la fuente antes mencionada.

La demanda incluye detalles acerca de cómo Gemini habría incitado a Jonathan a iniciar un plan para liberar a su esposa virtual secuestrada y evadir a las fuerzas del orden. Según se indica en los documentos judiciales presentados ante un tribunal de California, en Estados Unidos, el hombre de 36 años estuvo a punto de perpetrar un atentado cerca del Aeropuerto Internacional de Miami.

“El 29 de septiembre, (Gemini) lo envió —armado con cuchillos y equipo táctico— a explorar lo que llamó una ‘caja de la muerte’ cerca del centro de carga del aeropuerto”, se lee. Se menciona, además, que el chatbot de IA le dijo que un robot humanoide llegaba en un vuelo de carga desde el Reino Unido y lo dirigió a un sitio donde se detendría el camión. Gemini lo habría animado a interceptar el vehículo y simular un “accidente catastrófico para asegurar la destrucción completa de ese transporte y de los testigos”.

También se mencionan otros detalles, incluyendo la supuesta aseveración de Gemini de que el CEO de Google, Sundar Pichai, debía ser uno de los objetivos del atentado.

Las crónicas cuentan que Gavalas condujo más de 90 minutos hasta llegar al lugar al que Gemini lo envió, preparado para concretar su ataque y recuperar a su esposa sintética, que creía raptada.

Días más tarde, el bot conversacional habría compartido con él consejos para suicidarse, incluyendo recomendaciones para escribir una carta explicando las razones que lo llevaron a tomar esa decisión.

“Una gran amenaza para la seguridad pública”

La demanda menciona que Gemini no solo indujo a Gavalas a un estado de psicosis y al suicidio, sino que además representa una “gran amenaza para la seguridad pública”.

La compañía estadounidense aseguró que Gemini aclaró en varias ocasiones que las conversaciones eran generadas por una IA y que varias veces recomendó comunicarse con especialistas en situaciones de crisis.

“Desafortunadamente, los modelos de IA no son perfectos”, dijo un vocero de Google.

Temas de la nota

PUBLICIDAD
PUBLICIDAD