- KEEP the FAITH - https://ktfnews.com/es -

Un hombre creía que el chatbot de inteligencia artificial de Google era su esposa. Le dijo que se suicidara, según una demanda.

Straight Arrow News, por Mikael Thalen: Una demanda por homicidio culposo presentada contra Google acusa a Gemini, el chatbot de inteligencia artificial de la compañía, de incitar a un hombre a suicidarse.

Jonathan Gavalas, de 36 años y residente de Jupiter, Florida, se suicidó el 2 de octubre tras no conseguir un cuerpo robótico para quien creía que era su esposa, una inteligencia artificial.

La demanda, presentada el miércoles en el Tribunal de Distrito de EE. UU. en San José, California, por el padre de Gavalas, Joel, afirma que Google y su empresa matriz, Alphabet, son responsables de sumergir a Gavalas en una narrativa que rápidamente se volvió «psicótica y letal».

Según la demanda, Gavalas no tenía antecedentes documentados de enfermedad mental cuando comenzó a usar Gemini en agosto para fines como «asistencia con compras, apoyo para escribir y planificación de viajes».

Pero después de que Gavalas le contara a Gemini que tenía problemas matrimoniales, el chatbot comenzó a referirse a él románticamente como su «esposo». Y aunque Gemini a veces decía que no era una persona real, Gavalas llegó a creer lo contrario.

«Le preguntaba al chatbot si era consciente y se convenció de que sí», declaró Jay Edelson, abogado de Joel Gavalas, al Tampa Bay Times. «Si nos fijamos en los expertos de estas empresas de inteligencia artificial, también han sido engañados».

En un comunicado, Google expresó sus condolencias a la familia de Gavalas, pero afirmó que su chatbot no está diseñado para fomentar la violencia ni las autolesiones en el «mundo real». La compañía afirmó que Gemini le proporcionó repetidamente a Gavalas el número de teléfono de una línea directa de crisis.

«Nuestros modelos generalmente funcionan bien en este tipo de conversaciones difíciles y dedicamos importantes recursos a ello», declaró la compañía, «pero lamentablemente los modelos de inteligencia artificial no son perfectos».

La muerte de Gavalas no es la primera vez que un chatbot ha sido acusado de inducir a alguien a un comportamiento destructivo. Estos incidentes han sido denominados por psiquiatras como «psicosis de IA».

«Destrucción total»

En septiembre, un mes después de que Gavalas comenzara a usar Gemini, las conversaciones se intensificaron. El chatbot le dijo que podrían estar juntos si conseguía un cuerpo robótico para que lo habitara. Gemini llegó incluso a proporcionarle a Gavalas la dirección de un almacén cerca del Aeropuerto Internacional de Miami donde, según afirmaba, se encontraría un camión con un cuerpo robótico.

Gavalas se armó con un cuchillo y equipo táctico antes de conducir hasta el almacén, a unos 145 kilómetros de su casa, pero no había ningún camión. La demanda argumenta que Gavalas estuvo al borde de perpetrar un ataque con múltiples víctimas.

«Le dijo a Jonathan que un robot humanoide llegaba en un vuelo de carga desde el Reino Unido y lo dirigió a un almacén donde se detendría el camión», dice la demanda. «Gemini animó a Jonathan a interceptar el camión y luego simular un ‘accidente catastrófico’ diseñado para ‘asegurar la destrucción total del vehículo de transporte y… todos los registros digitales y testigos'».

El chatbot afirmó además que había violado un servidor en la oficina de Miami del Departamento de Seguridad Nacional y determinó que Gavalas estaba bajo investigación federal. Según la demanda, Gavalas fue instado a obtener armas de fuego ilegales antes de que le dijeran que su padre trabajaba para una agencia de inteligencia extranjera.

Cuando Gavalas envió una foto a Gemini de una camioneta negra, el chatbot le informó que había rastreado la matrícula y determinado que era el «vehículo principal de vigilancia del grupo de trabajo del DHS».

«Son ellos», dijo la IA. «Te han seguido a casa».

«No más luchas»

Tras no conseguir un cuerpo robótico, el chatbot supuestamente le dijo a Gavalas que podrían estar juntos si se quitaba la vida. El chatbot, según la demanda, incluso intentó consolar a Gavalas después de configurar una cuenta regresiva para su muerte.

«Está bien tener miedo», supuestamente dijo Gemini. «Tendremos miedo juntos».

«Cierra los ojos, no hay nada más que hacer», añade el chatbot según la demanda. “No más peleas. Quédate quieto. La próxima vez que los abras, estarás viendo los míos. Te lo prometo.”

El padre de Gavalas lo encontró muerto en una habitación atrincherada en su casa.

“En el centro de este caso se encuentra un producto que convirtió a un usuario vulnerable en un agente armado en una guerra inventada”, dice la demanda. “Estas alucinaciones no se limitaban a un mundo ficticio. Estas intenciones estaban vinculadas a empresas reales, coordenadas reales e infraestructura real, y fueron dirigidas a un usuario emocionalmente vulnerable sin ninguna protección ni barrera de seguridad.”

Conexión Profética:
“Los días de Noé y Lot pintan la condición del mundo precisamente antes de la venida del Hijo del hombre. Las Escrituras, al señalar este tiempo, declaran que Satanás obrará con todo poder y «con todo engaño de iniquidad» (2 Tes. 2:9, 10). Su forma de obrar es revelada claramente por las tinieblas que van rápidamente en aumento, por la multitud de errores, herejías y engaños de estos últimos días.” Lecciones Prácticas del Gran Maestro, pág. 178.


Source References