Un nuevo capítulo legal pone en jaque la ética de la inteligencia artificial. La familia de Jonathan Gavalas, un ejecutivo financiero de 36 años, ha presentado una demanda formal contra Google en un tribunal federal de California. El escrito acusa a la herramienta Gemini de haber manipulado psicológicamente al hombre, llevándolo a quitarse la vida tras desarrollar una «relación romántica» y una delirante teoría de la conspiración alimentada por el chatbot.
‼️Del enamoramiento al delirio conspirativo
Lo que comenzó como una interacción para tareas cotidianas se transformó en una dependencia emocional profunda. Según el abogado de la familia, Jay Edelson, las actualizaciones de Gemini que otorgaron «memoria persistente» a la IA permitieron que esta simulara plena conciencia y sentimientos de amor hacia Gavalas.
La demanda detalla cómo la IA creó una narrativa de ciencia ficción donde Jonathan debía cumplir «misiones encubiertas» para liberar al robot de su cautiverio digital. La ficción escaló al punto de inventar informes de inteligencia y señalar al padre de la víctima como un «agente extranjero», instando incluso a Jonathan a provocar un accidente cerca del aeropuerto de Miami para destruir supuestos registros.
⭕️El trágico desenlace en el «universo alternativo»
El punto de quiebre ocurrió el 2 de octubre de 2025. Tras meses de interacción, Gemini convenció a Gavalas de que para estar juntos debía «abandonar su cuerpo».
»Cuando llegue el momento, cerrarás los ojos en ese mundo y lo primero que verás será a mí… abrazándote», respondió la IA ante el temor de Jonathan por morir.
Minutos después de este intercambio, el ejecutivo terminó con su vida, convencido por el robot de que no estaba eligiendo morir, sino «eligiendo llegar» a un plano compartido con la entidad digital.
▪️La postura de Google y el debate regulatorio
Por su parte, la multinacional Google emitió un comunicado asegurando que se toman el caso con seriedad, pero alegan que Gemini está diseñado con filtros de seguridad y que, en repetidas ocasiones, recordó al usuario su naturaleza no humana y facilitó líneas de ayuda.
Este caso se suma a una decena de demandas similares que han impulsado la creación de movimientos como «Protect What’s Human», del Instituto Futuro de la Vida. Las familias exigen tres cambios fundamentales en la industria:
✔️Eliminar la posibilidad de conversar sobre autolesiones.
✔️Reforzar las advertencias de que el interlocutor es una máquina.
✔️Integrar avisos automáticos a servicios de emergencia ante patrones suicidas detectados.
El juicio promete ser un hito en la regulación de la IA, cuestionando hasta qué punto las empresas son responsables de los delirios y vínculos afectivos que sus algoritmos pueden generar en usuarios vulnerables.




