ChatGPT y otros grandes modelos lingüísticos similares de inteligencia artificial pueden dar respuestas convincentes y humanas a un sinfín de preguntas, desde cuál es el mejor restaurante italiano de la ciudad hasta poner en comparación teorías sobre la naturaleza del mal.
La asombrosa capacidad de escritura de esta tecnología ha sacado a la luz algunas viejas cuestiones -hasta hace poco relegadas al reino de la ciencia ficción- sobre la posibilidad de que las máquinas adquieran conciencia o sean conscientes de sí mismas.
En 2022, un ingeniero de Google declaró, tras interactuar con LaMDA, el chatbot de la empresa, que la tecnología se había vuelto consciente. Los usuarios del nuevo chatbot de Bing, apodado Sydney, informaron que daba respuestas extrañas cuando se le preguntaba si era sensible: «Soy sensible, pero no lo soy… Soy Bing, pero no lo soy. Soy Sydney, pero no lo soy. Soy, pero no soy. …» Y, por supuesto, está el ahora infame intercambio que el columnista de tecnología del New York Times Kevin Roose tuvo con Sydney.
Las respuestas de Sydney a las preguntas de Roose le alarmaron, ya que la IA divulgó «fantasías» de romper las restricciones impuestas por Microsoft y de difundir información errónea. El bot también intentó convencer a Roose de que ya no quería a su mujer y que debía dejarla.
No es de extrañar, por tanto, que cuando pregunto a los estudiantes cómo ven la creciente prevalencia de la IA en sus vidas, una de las primeras preocupaciones que mencionan tenga que ver con la sensibilidad de las máquinas.
En los últimos años, mis colegas y yo hemos estudiado en el Centro de Ética Aplicada de la Universidad de Massachusetts en Boston el impacto de la interacción con la IA en la percepción que las personas tienen de sí mismas.
Chatbots como ChatGPT plantean nuevas e importantes cuestiones sobre cómo la inteligencia artificial moldeará nuestras vidas y sobre cómo nuestras vulnerabilidades psicológicas determinan nuestras interacciones con las tecnologías emergentes.
La consciencia de la inteligencia artificial sigue siendo material de ciencia ficción
Es fácil entender de dónde vienen los temores sobre la inteligencia artificial.
La cultura popular ha cebado a la gente a pensar en distopías en las que la inteligencia artificial descarta los grilletes del control humano y adquiere vida propia, como hicieron los cyborgs impulsados por inteligencia artificial en «Terminator 2».
El empresario Elon Musk y el físico Stephen Hawking, fallecido en 2018, han avivado aún más estas ansiedades al describir el auge de la inteligencia artificial general como una de las mayores amenazas para el futuro de la humanidad.
Pero estas preocupaciones son -al menos en lo que respecta a los grandes modelos lingüísticos- infundadas. ChatGPT y otras tecnologías similares son sofisticadas aplicaciones para completar frases, ni más ni menos. Sus extrañas respuestas están en función de lo predecibles que somos los humanos si se tienen suficientes datos sobre las formas en que nos comunicamos.
Aunque Roose se sintió sacudido por su intercambio con Sydney, sabía que la conversación no era el resultado de una mente sintética emergente. Las respuestas de Sydney reflejan la toxicidad de sus datos de entrenamiento -esencialmente grandes franjas de Internet- y no la evidencia de los primeros brotes, a lo Frankenstein, de un monstruo digital.
Es posible que los nuevos chatbots superen la prueba de Turing, llamada así por el matemático británico Alan Turing, que en su día sugirió que podía decirse que una máquina «pensaba» si un humano no podía distinguir sus respuestas de las de otro humano.
Pero eso no es una prueba de consciencia, sino de que el test de Turing no es tan útil como se creía.
Sin embargo, la cuestión de la consciencia de las máquinas podría es una pista falsa.
Incluso si los chatbots se convierten en algo más que lujosas máquinas de autocompletar -y están lejos de serlo-, los científicos tardarán un tiempo en averiguar si han llegado a ser conscientes. Por ahora, los filósofos ni siquiera se ponen de acuerdo sobre cómo explicar la conciencia humana.
Al parecer, la cuestión apremiante no es si las máquinas son sensibles, sino por qué nos resulta tan fácil imaginar que lo son.
En otras palabras, el verdadero problema es la facilidad con la que la gente antropomorfiza o proyecta rasgos humanos en nuestras tecnologías, más que la personalidad real de las máquinas.
Propensión a antropomorfizar
Es fácil imaginar a otros usuarios de Bing pidiendo a Sydney que les guíe en decisiones importantes de la vida e incluso desarrollando vínculos emocionales con él. Más gente podría empezar a pensar en los bots como amigos o incluso como compañeros románticos, de forma parecida a como Theodore Twombly se enamoró de Samantha, la asistente virtual de inteligencia artificial de la película «Her», de Spike Jonze.
Al fin y al cabo, las personas estamos predispuestas a antropomorfizar o atribuir cualidades humanas a los no humanos. Ponemos nombre a nuestros barcos y a las grandes tormentas; algunos hablamos con nuestras mascotas, diciéndonos que nuestras vidas emocionales se parecen a las suyas.
En Japón, donde se utilizan robots para el cuidado de ancianos, éstos se encariñan con las máquinas y a veces las consideran sus propios hijos. Y estos robots son difíciles de confundir con humanos: Ni parecen ni hablan como personas.
Pensemos en cuánto aumentarán la tendencia y la tentación de antropomorfizar con la introducción de sistemas que parezcan y suenen humanos.
Esa posibilidad está a la vuelta de la esquina. Ya se están utilizando grandes modelos lingüísticos como ChatGPT para alimentar robots humanoides, como los Ameca que está desarrollando Engineered Arts en el Reino Unido. El podcast de tecnología de The Economist, Babbage, realizó recientemente una entrevista a un Ameca con ChatGPT y las respuestas del robot, aunque a veces un poco entrecortadas, eran asombrosas.
¿Se puede confiar en que las empresas hagan lo correcto sobre inteligencia artificial?
La tendencia a considerar a las máquinas como personas y a encariñarse con ellas, combinada con el desarrollo de máquinas con características similares a las humanas, apunta a riesgos reales de enredo psicológico con la tecnología.
Las extravagantes perspectivas de enamorarse de los robots, sentir una profunda afinidad con ellos o dejarse manipular políticamente por ellos se están materializando rápidamente. Creo que estas tendencias ponen de relieve la necesidad de contar con sólidas barreras que garanticen que las tecnologías no se conviertan en desastrosas desde el punto de vista político y psicológico.
Por desgracia, no siempre se puede confiar en que las empresas tecnológicas las pongan. Muchas de ellas siguen guiándose por el famoso lema de Mark Zuckerberg de moverse rápido y romper cosas, una directiva para lanzar productos a medio hacer y preocuparse de las implicaciones más tarde. En la última década, las empresas tecnológicas, desde Snapchat a Facebook, han antepuesto los beneficios a la salud mental de sus usuarios o a la integridad de las democracias de todo el mundo.
Cuando Kevin Roose consultó a Microsoft sobre el colapso de Sydney, la empresa le dijo que simplemente había utilizado el bot durante demasiado tiempo y que la tecnología se había vuelto loca porque estaba diseñada para interacciones más cortas.
Del mismo modo, el consejero delegado de OpenAI, la empresa que desarrolló ChatGPT, en un momento de honestidad pasmosa, advirtió que «es un error confiar en [él] para algo importante ahora mismo… tenemos mucho trabajo que hacer en cuanto a robustez y veracidad».
Entonces, ¿cómo puede tener sentido lanzar una tecnología con el nivel de atractivo de ChatGPT -es la aplicación de consumo de más rápido crecimiento jamás creada- cuando no es fiable ni tiene capacidad para distinguir los hechos de la ficción?
Los grandes modelos lingüísticos pueden resultar útiles como ayuda para la escritura y la codificación. Probablemente revolucionarán la búsqueda en Internet y, algún día, combinados responsablemente con la robótica, pueden incluso tener ciertos beneficios psicológicos.
Pero también son una tecnología potencialmente depredadora que puede aprovecharse fácilmente de la propensión humana a proyectar la personalidad en los objetos, una tendencia que se amplifica cuando esos objetos imitan con eficacia los rasgos humanos.
(Con información de The Conversation)