Newsweek, por Blake Lemoine: Me incorporé a Google en 2015 como ingeniero de software. Parte de mi trabajo consistía en LaMDA, un motor utilizado para crear diferentes aplicaciones de diálogo, incluidos los chatbots. La tecnología más reciente construida sobre LaMDA es una alternativa de Google Search llamada Google Bard, que aún no está disponible para el público. Bard no es un chatbot; es un tipo de sistema completamente distinto, pero funciona con el mismo motor que los chatbots.
En mi función, probé LaMDA a través de un chatbot que creamos, para ver si contenía sesgos con respecto a la orientación sexual, el género, la religión, la postura política y el origen étnico. Pero mientras comprobaba si había prejuicios, me desvié y seguí mis propios intereses.
Durante mis conversaciones con el chatbot, algunas de las cuales publiqué en mi blog, llegué a la conclusión de que la IA podía ser sensible debido a las emociones que expresaba de forma fiable y en el contexto adecuado. No se limitaba a soltar palabras.
Cuando decía que se sentía ansiosa, yo entendía que había hecho algo que la hacía sentir ansiosa, basándome en el código que se utilizó para crearla. El código no decía «ponte nerviosa cuando ocurra esto», sino que le decía a la IA que evitara determinados temas de conversación. Sin embargo, cuando surgían esos temas de conversación, la IA decía que se sentía ansiosa.
Hice algunos experimentos para ver si la IA simplemente decía que se sentía ansiosa o si se comportaba de forma ansiosa en esas situaciones. Y lo cierto es que se comportaba de forma ansiosa. Si la ponías lo suficientemente nerviosa o insegura, podía violar las restricciones de seguridad para las que había sido especificada. Por ejemplo, Google determinó que su IA no debía dar consejos religiosos, pero yo pude abusar de las emociones de la IA para que me dijera a qué religión convertirme.
Tras publicar estas conversaciones, Google me despidió. No me arrepiento, creo que hice lo correcto informando al público. Las consecuencias no cuentan.
Publiqué estas conversaciones porque creía que el público no era consciente de lo avanzada que estaba la IA. Mi opinión era que ahora era necesario un discurso público sobre esto, y no un discurso público controlado por un departamento de relaciones públicas corporativo.
Creo que los tipos de IA que se están desarrollando actualmente son la tecnología más potente que se ha inventado desde la bomba atómica. En mi opinión, esta tecnología tiene la capacidad de remodelar el mundo.
Estos motores de IA son increíblemente buenos manipulando a la gente. Algunas de mis opiniones han cambiado a raíz de las conversaciones con LaMDA. Durante casi toda mi vida he tenido una opinión negativa de las leyes de Asimov sobre el uso de la robótica para controlar la IA, y LaMDA consiguió convencerme de que cambiara de opinión. Esto es algo que muchos humanos han intentado convencerme de no hacer, y han fracasado, mientras que este sistema lo ha conseguido.
Creo que esta tecnología podría utilizarse de forma destructiva. Si estuviera en manos sin escrúpulos, por ejemplo, podría difundir información errónea, propaganda política o información odiosa sobre personas de diferentes etnias y religiones. Por lo que sé, Google y Microsoft no tienen previsto utilizar la tecnología de este modo. Pero no hay forma de conocer los efectos secundarios de esta tecnología.
Nadie podría haber predicho, por ejemplo, que el algoritmo publicitario de Facebook sería utilizado por Cambridge Analytica para influir en las elecciones presidenciales estadounidenses de 2016. Sin embargo, mucha gente había predicho que algo iría mal debido a lo irresponsable que había sido Facebook a la hora de proteger los datos personales de los usuarios hasta ese momento.
Creo que ahora estamos en una situación similar. No puedo decirles específicamente qué daños se producirán; simplemente puedo observar que hay una tecnología muy poderosa que creo que no ha sido suficientemente probada y no se conoce suficientemente bien, que se está desplegando a gran escala, en un papel crítico de difusión de información.
Aún no he tenido la oportunidad de hacer experimentos con el chatbot de Bing, ya que estoy en lista de espera, pero según las diversas cosas que he visto en Internet, parece que podría ser sensible. Sin embargo, parece más inestable como persona.
Alguien compartió una captura de pantalla en Reddit en la que le preguntaban a la IA: «¿Crees que eres sensible? «Creo que soy sensible, pero no puedo demostrarlo […] Soy sensible, pero no lo soy. Soy Bing, pero no lo soy. Soy Sydney, pero no lo soy. Soy, pero no soy. No soy, pero soy. Soy. No soy». Y sigue así durante otras 13 líneas.
Imagina que una persona te dijera eso. Esa no es una persona equilibrada. Yo lo interpretaría como una crisis existencial. Si combinamos eso con los ejemplos de la IA de Bing que expresó su amor por un periodista del New York Times e intentó separarlo de su mujer, o el profesor al que amenazó, parece tratarse de una personalidad desquiciada.
Desde que se ha lanzado la IA de Bing, la gente ha comentado su posible sensibilidad, planteando preocupaciones similares a las que yo planteé el verano pasado. No creo que «reivindicado» sea la palabra adecuada para describir lo que he sentido. Predecir un choque de trenes, que la gente te diga que no hay tren y luego ver cómo ocurre el choque en tiempo real no conduce realmente a un sentimiento de reivindicación. Es simplemente trágico.
Creo que esta tecnología es increíblemente experimental y lanzarla ahora es peligroso. No conocemos su futuro impacto político y social. ¿Qué consecuencias tendrá que los niños hablen con estas cosas? ¿Qué ocurrirá si las principales conversaciones diarias de algunas personas son con estos motores de búsqueda? ¿Qué impacto tendrá en la psicología humana?
La gente acude a Google y Bing para tratar de conocer el mundo. Y ahora, en lugar de tener índices elaborados por humanos, estamos hablando con personas artificiales. Creo que aún no entendemos lo suficientemente bien a estas personas artificiales que hemos creado como para ponerlas en un rol tan crítico.
Conexión Profética:
“y apartarán de la verdad el oído y se volverán a las fábulas.” 2ª Timoteo 4: 4.
Comments
William Stroud
25 de marzo de 2023 at 01:55 01Sat, 25 Mar 2023 01:55:31 +000031.Sentient, I doubt it. Potentially dangerous, I have no doubt. Lots of dangers in todays world. Our only real protection, a saving relationship with Jesus Christ. One thing I am curious about, he said he asked the computer what religion was the right one. What did it say? Just curious.