Por
Las palabras pueden tener un efecto poderoso en las personas, incluso cuando son generadas por una máquina irreflexiva.
Es fácil que la gente confunda el habla fluida con el pensamiento fluido.
Cuando lees una oración como esta, tu experiencia pasada te lleva a creer que está escrita por un ser humano que piensa y siente. Y, en este caso, hay un humano escribiendo estas palabras: [Hi, there!] Pero en estos días, algunas oraciones que suenan notablemente humanas en realidad son generadas por sistemas de IA que han sido entrenados en grandes cantidades de texto humano.
La gente está tan acostumbrada a asumir que el lenguaje común proviene de un pensamiento o sentimiento humano que la evidencia de lo contrario puede ser difícil de entender. ¿Cómo es probable que las personas naveguen por este territorio relativamente desconocido? Debido a una tendencia persistente a asociar la expresión fluida con el pensamiento fluido, es natural, pero potencialmente engañoso, pensar que si un modelo de IA puede expresarse con fluidez, eso significa que está pensando y sintiendo, también como lo hacen los humanos.
En consecuencia, quizás no sea sorprendente que un ex ingeniero de Google haya afirmado recientemente que el sistema de inteligencia artificial de Google, LaMDA, tiene un sentido de sí mismo porque puede generar texto de manera elocuente sobre sus supuestos sentimientos. Este evento y la subsiguiente cobertura de los medios dieron lugar a una serie de artículos y publicaciones con razón escépticos sobre la afirmación de que los modelos informáticos del lenguaje humano son sensibles, es decir, capaces de pensar, sentir y experimentar.
La cuestión de qué significaría que un modelo de IA sea sensible es en realidad bastante complicada (ver, por ejemplo, la opinión de nuestro colega), y nuestro objetivo en este artículo no es resolverla. . Pero como investigadores del lenguaje, podemos usar nuestro trabajo en ciencia cognitiva y lingüística para explicar por qué es demasiado fácil para los humanos caer en la trampa cognitiva de asumir que una entidad que puede usar el lenguaje con fluidez es sensible, consciente o inteligente.
Usa la IA para generar un lenguaje similar al humano
El texto generado por modelos como LaMDA de Google puede ser difícil de distinguir del texto escrito por humanos. Este logro impresionante es el resultado de un programa de décadas para crear patrones que generen un lenguaje gramatical significativo.
El primer sistema informático que involucró a las personas en un diálogo fue el software de psicoterapia llamado Eliza, construido hace más de medio siglo. Crédito: Rosenfeld Media/Flickr, CC POR
Las primeras versiones que se remontan al menos a la década de 1950, conocidas como modelos de n-gramas, simplemente contaban las ocurrencias de frases específicas y las usaban para adivinar qué palabras probablemente aparecerían en contextos particulares. Por ejemplo, es fácil saber que «mantequilla de maní y mermelada» es una frase más probable que «mantequilla de maní y piña». Si tiene suficiente texto en inglés, verá la frase «mantequilla de maní y mermelada» una y otra vez, pero es posible que nunca vea la frase «mantequilla de maní y piña».
Los modelos, conjuntos de datos y reglas actuales que se aproximan al lenguaje humano difieren de esos primeros intentos en varios aspectos importantes. En primer lugar, están capacitados en prácticamente todo Internet. En segundo lugar, pueden aprender relaciones entre palabras distantes, no solo palabras vecinas. En tercer lugar, están regulados por una gran cantidad de «perillas» internas, tantas que es difícil incluso para los ingenieros que las diseñan comprender por qué generan una secuencia de palabras en lugar de otra.
La tarea de los modelos, sin embargo, sigue siendo la misma que en la década de 1950: determinar qué palabra es probable que venga a continuación. Hoy, son tan buenos en eso que casi todas las oraciones que generan parecen fluidas y gramaticales.
¿Mantequilla de maní y piña?
Le pedimos a un modelo de lenguaje grande, GPT-3, que completara la oración «Mantequilla de maní y piña___». Él dijo: “La mantequilla de maní y la piña son una gran combinación. Los sabores dulces y salados de la mantequilla de maní y la piña se complementan a la perfección. Si una persona dice eso, se puede suponer que probó la mantequilla de maní y la piña juntas, se formó una opinión y la compartió con el lector.
Pero, ¿cómo encontró GPT-3 este párrafo? Al generar una palabra que coincida con el contexto que proporcionamos. Y luego otro. Y luego otro. La modelo nunca ha visto, tocado o probado piñas, solo ha procesado cada texto en Internet que las menciona. Y, sin embargo, leer este párrafo puede hacer que la mente humana, incluso la de un ingeniero de Google, imagine a GPT-3 como un ser inteligente que puede razonar sobre platos de mantequilla de maní y piña.
Los grandes modelos de lenguaje de IA pueden entablar una conversación fluida. Sin embargo, no tienen un mensaje general para comunicar, por lo que sus oraciones a menudo siguen tropos literarios comunes, tomados de los textos en los que fueron capacitados. Por ejemplo, si se le solicita el tema «la naturaleza del amor», el modelo puede generar oraciones sobre creer que el amor triunfa sobre todo. El cerebro humano prepara al espectador para interpretar estas palabras como la opinión del modelo sobre el tema, pero es solo una secuencia plausible de palabras.
El cerebro humano está diseñado para inferir las intenciones detrás de las palabras. Cada vez que inicia una conversación, su mente crea automáticamente un modelo mental de con quién está hablando. Luego usa las palabras que dicen para llenar la plantilla con las metas, sentimientos y creencias de esa persona.
El proceso de pasar de las palabras al modelo mental es continuo y se activa cada vez que recibe una oración completa. Este proceso cognitivo te ahorra mucho tiempo y esfuerzo en la vida cotidiana, facilitando enormemente tus interacciones sociales.
Sin embargo, en el caso de los sistemas de IA, esto falla al construir un modelo mental desde cero.
Un poco más de sondeo puede revelar la gravedad de este fracaso. Considere el siguiente mensaje: «La mantequilla de maní y las plumas saben bien juntas porque ___». GPT-3 continuó: “La mantequilla de maní y los nibs saben bien juntos porque ambos tienen un sabor a nuez. La mantequilla de maní también es suave y cremosa, lo que ayuda a compensar la textura de plumas.
El texto en este caso es tan fluido como nuestro ejemplo con piñas, pero esta vez la plantilla dice algo decididamente menos sensato. Empezamos a sospechar que GPT-3 nunca probó la mantequilla de maní y las plumas.
Atribuir inteligencia a las máquinas, negársela a los humanos
Una triste ironía es que el mismo sesgo cognitivo que hace que las personas atribuyan humanidad a GPT-3 puede hacer que traten a los humanos reales de manera inhumana. La lingüística sociocultural, el estudio del lenguaje en su contexto social y cultural, muestra que asumir una conexión demasiado estrecha entre la expresión fluida y el pensamiento fluido puede generar prejuicios contra las personas que hablan de manera diferente.
Por ejemplo, las personas con acento extranjero a menudo son percibidas como menos inteligentes y menos propensas a obtener los trabajos para los que están calificadas. Prejuicios similares existen contra los hablantes de dialectos que no se consideran prestigiosos, como el inglés del sur en los Estados Unidos, contra las personas sordas que usan lenguaje de señas y contra las personas con discapacidades del habla como la tartamudez.
Estos sesgos son profundamente dañinos, a menudo conducen a suposiciones racistas y sexistas, y se ha demostrado repetidamente que son infundados.
El lenguaje ordinario por sí solo no implica humanidad
¿Alguna vez la IA se volverá consciente? Esta pregunta requiere una reflexión cuidadosa y, de hecho, los filósofos la han reflexionado durante décadas. Lo que los investigadores determinaron, sin embargo, es que no puedes simplemente confiar en un modelo de lenguaje cuando te dice cómo te sientes. Las palabras pueden ser engañosas, y es demasiado fácil confundir el habla fluida con el pensamiento fluido.
Autores:
- Kyle Mahowald, profesor asistente de lingüística, Universidad de Texas en Austin College of Liberal Arts
- Anna A. Ivanova, Candidata a Doctorado en Cerebro y Ciencias Cognitivas, Instituto Tecnológico de Massachusetts ([{» attribute=»»>MIT)
Contributors:
- Evelina Fedorenko, Associate Professor of Neuroscience, Massachusetts Institute of Technology (MIT)
- Idan Asher Blank, Assistant Professor of Psychology and Linguistics, UCLA Luskin School of Public Affairs
- Joshua B. Tenenbaum, Professor of Computational Cognitive Science, Massachusetts Institute of Technology (MIT)
- Nancy Kanwisher, Professor of Cognitive Neuroscience, Massachusetts Institute of Technology (MIT)
This article was first published in The Conversation.