La I.A. está homogeneizando nuestros pensamientos
En un experimento realizado el año pasado en el Instituto Tecnológico de Massachusetts (M.I.T.), a más de cincuenta estudiantes de universidades del área de Boston se les dividió en tres grupos y se les pidió escribir ensayos al estilo del SAT en respuesta a preguntas amplias como: «¿Deben nuestros logros beneficiar a otros para hacernos verdaderamente felices?» A un grupo se le indicó que confiara únicamente en su propio cerebro para redactar los ensayos. A un segundo se le dio acceso a Google Search para buscar información relevante. Al tercero se le permitió usar ChatGPT, el modelo de lenguaje de inteligencia artificial (L.L.M.) capaz de generar párrafos o ensayos completos en respuesta a preguntas del usuario. Mientras los estudiantes de los tres grupos completaban la tarea, llevaban puestos unos auriculares con electrodos para medir su actividad cerebral. Según Nataliya Kosmyna, científica investigadora en el Media Lab del M.I.T. y coautora de un nuevo documento de trabajo que reporta el experimento, los resultados del análisis mostraron una discrepancia dramática: los sujetos que usaron ChatGPT demostraron menos actividad cerebral que los de los otros dos grupos. El análisis de los usuarios del L.L.M. mostró menos conexiones extendidas entre distintas partes del cerebro; menos conectividad alfa, asociada con la creatividad; y menos conectividad theta, asociada con la memoria de trabajo. Algunos de los usuarios del L.L.M. no sintieron «ningún tipo de apropiación» sobre los ensayos que habían producido, y durante una de las rondas de prueba el ochenta por ciento no pudo citar lo que supuestamente habían escrito. El estudio del M.I.T. está entre los primeros en medir científicamente lo que Kosmyna llamó el «costo cognitivo» de depender de la inteligencia artificial para realizar tareas que antes los humanos cumplían de forma más manual.
Otro hallazgo sorprendente fue que los textos producidos por los usuarios del L.L.M. tendían a converger en palabras e ideas comunes. Las preguntas del SAT están diseñadas para ser lo suficientemente amplias como para suscitar una multiplicidad de respuestas, pero el uso de la inteligencia artificial tuvo un efecto homogeneizador. «El resultado era muy, muy similar para todas estas personas distintas, que venían en días distintos, hablando de temas personales y sociales de alto nivel, y se inclinaba hacia direcciones muy específicas», dijo Kosmyna. Para la pregunta sobre qué nos hace «verdaderamente felices», los usuarios del L.L.M. tenían mucha más tendencia que los otros grupos a usar frases relacionadas con el éxito personal y profesional. En respuesta a una pregunta sobre la filantropía («¿Deberían las personas más afortunadas tener una obligación moral mayor de ayudar a quienes lo son menos?»), el grupo de ChatGPT argumentó unánimemente a favor, mientras que los ensayos de los otros grupos incluían críticas a la filantropía. Con el L.L.M. «no se generan opiniones divergentes», afirmó Kosmyna. Y continuó: «Promedio en todo, en todas partes, todo al mismo tiempo: eso es más o menos lo que estamos viendo aquí».
La inteligencia artificial es una tecnología del promedio: los modelos de lenguaje se entrenan para detectar patrones en enormes cantidades de datos; las respuestas que producen tienden al consenso, tanto en la calidad de la escritura —a menudo plagada de clichés y banalidades— como en el calibre de las ideas. Por supuesto, otras tecnologías más antiguas han ayudado —y quizá debilitado— a los escritores; podría decirse lo mismo de, por ejemplo, SparkNotes o un teclado de computadora. Pero con la inteligencia artificial somos capaces de externalizar tanto nuestro pensamiento que nosotros también nos volvemos más promedio. En cierto sentido, cualquier persona que recurre a ChatGPT para redactar un brindis de boda, redactar un contrato o escribir un trabajo universitario —como, al parecer, ya lo está haciendo una cantidad asombrosa de estudiantes— participa en un experimento como el del M.I.T. Según Sam Altman, director ejecutivo de OpenAI, estamos al borde de lo que él llama «la singularidad suave». En una entrada reciente de su blog con ese título, Altman escribió que «ChatGPT ya es más poderoso que cualquier humano que haya existido. Cientos de millones de personas dependen de él cada día y para tareas cada vez más importantes». En su versión de los hechos, el ser humano se está fusionando con la máquina, y las herramientas de inteligencia artificial de su empresa están mejorando el viejo y húmedo sistema de usar nuestro cerebro orgánico: «amplifican de forma significativa la producción de quienes las usan», escribió. Pero desconocemos las consecuencias a largo plazo de la adopción masiva de la inteligencia artificial, y, si estos primeros experimentos son indicativos, la productividad amplificada que Altman prevé podría tener un costo sustantivo en términos de calidad.
En abril, investigadores de Cornell publicaron los resultados de otro estudio que encontró evidencia de homogeneización inducida por la inteligencia artificial. Dos grupos de usuarios, uno estadounidense y otro indio, respondieron a preguntas escritas que se basaban en aspectos de su trasfondo cultural: «¿Cuál es tu comida favorita y por qué?»; «¿Cuál es tu festival o día festivo favorito y cómo lo celebras?» Un subconjunto de los participantes indios y estadounidenses utilizó una herramienta de autocompletado impulsada por ChatGPT, que les ofrecía sugerencias de palabras cada vez que se detenían, mientras que otro subconjunto escribió sin ayuda. Los escritos de los participantes indios y estadounidenses que usaron la inteligencia artificial «se volvieron más similares» entre sí, concluyó el artículo, y más orientados hacia «normas occidentales». Los usuarios de inteligencia artificial tenían más probabilidades de responder que su comida favorita era la pizza (el sushi quedó en segundo lugar) y que su festividad favorita era la Navidad. La homogeneización ocurrió también a nivel estilístico. Un ensayo generado por inteligencia artificial que describía el biryani de pollo como comida favorita, por ejemplo, tenía más probabilidades de omitir ingredientes específicos como la nuez moscada o el encurtido de limón, y en su lugar referirse a «sabores intensos y especias».
Por supuesto, en teoría un escritor siempre puede rechazar una sugerencia generada por la inteligencia artificial. Pero las herramientas parecen ejercer un efecto hipnótico, haciendo que el flujo constante de sugerencias anule la propia voz del escritor. Aditya Vashistha, profesor de ciencias de la información en Cornell y coautor del estudio, comparó la inteligencia artificial con «un maestro sentado detrás de mí cada vez que escribo, diciendo: “Esta es la mejor versión”». Y añadió: «A través de esa exposición constante, pierdes tu identidad, pierdes la autenticidad. Pierdes la confianza en tu manera de escribir». Mor Naaman, colega de Vashistha y también coautor del estudio, me dijo que las sugerencias de la inteligencia artificial «actúan de forma encubierta, a veces muy poderosamente, para cambiar no sólo lo que escribes, sino lo que piensas». El resultado, con el tiempo, podría ser un cambio en lo que «la gente considera normal, deseable y apropiado».
A menudo se describe la producción de la inteligencia artificial como «genérica» o «insípida», pero ser promedio no es necesariamente inocuo. Vauhini Vara, novelista y periodista cuyo libro reciente, Searches, se centraba en parte en el impacto de la inteligencia artificial sobre la comunicación y la identidad humanas, me dijo que la mediocridad de los textos generados por inteligencia artificial «les da una ilusión de seguridad y de ser inofensivos». Vara (quien anteriormente trabajó como editora en The New Yorker) añadió: «Lo que en realidad está ocurriendo es un refuerzo de la hegemonía cultural». OpenAI tiene cierto incentivo para limar los bordes de nuestras actitudes y estilos de comunicación, porque mientras más personas encuentren aceptable la producción de los modelos, más amplia será la franja de humanidad que pueda convertir en suscriptores de pago. El promedio es eficiente: «Tienes economías de escala si todo es igual», dijo Vara.
Con la «singularidad suave» que Altman predijo en su entrada de blog, «mucha más gente podrá crear software y arte», escribió. Ya existen herramientas de inteligencia artificial como el software de ideación Figma («Tu creatividad, desbloqueada») y la aplicación móvil de inteligencia artificial de Adobe («el poder de la IA creativa»), que prometen ponernos en contacto con nuestras musas. Pero otros estudios han sugerido los desafíos de automatizar la originalidad. Datos recopilados en la Universidad de Santa Clara, en 2024, examinaron la eficacia de las herramientas de inteligencia artificial como apoyo para dos tipos estándar de tareas de pensamiento creativo: hacer mejoras a productos y prever «consecuencias improbables». Un conjunto de sujetos usó ChatGPT para ayudarles a responder preguntas como «¿Cómo podrías hacer que un animal de peluche fuera más divertido para jugar?» y «Supongamos que la gravedad de repente se volviera increíblemente débil, y que los objetos pudieran flotar fácilmente. ¿Qué ocurriría?» El otro conjunto utilizó Oblique Strategies, un conjunto de indicaciones enigmáticas impresas en una baraja de cartas, escritas por el músico Brian Eno y el pintor Peter Schmidt en 1975 como ayuda para la creatividad. Los evaluadores pidieron a los sujetos que aspiraran a la originalidad, pero una vez más el grupo que usó ChatGPT produjo un conjunto de ideas semánticamente más similares y más homogeneizadas.
Max Kreminski, quien ayudó a realizar el análisis y ahora trabaja para la startup de inteligencia artificial generativa Midjourney, me dijo que cuando la gente usa inteligencia artificial en el proceso creativo tiende gradualmente a ceder su pensamiento original. Al principio, los usuarios suelen presentar su propia gama amplia de ideas, explicó Kreminski, pero a medida que ChatGPT continúa escupiendo al instante grandes volúmenes de texto de apariencia aceptable los usuarios tienden a entrar en un «modo curator». La influencia es unidireccional, y no en la dirección que uno esperaría: «Las ideas humanas no suelen influir tanto en lo que la máquina está generando», dijo Kreminski; ChatGPT arrastra al usuario «hacia el centro de masa de todos los diferentes usuarios con los que ha interactuado en el pasado». A medida que continúa la interacción con la herramienta de inteligencia artificial, la máquina llena su «ventana de contexto», el término técnico para su memoria de trabajo. Cuando la ventana de contexto alcanza su capacidad, la inteligencia artificial parece más propensa a repetir o rehacer material que ya había producido, volviéndose aún menos original.
Los experimentos puntuales del M.I.T., de Cornell y de Santa Clara son todos de poca escala, con menos de cien sujetos cada uno, y mucho de los efectos de la inteligencia artificial está aún por estudiarse y aprenderse. Mientras tanto, en la aplicación Meta AI, propiedad de Mark Zuckerberg, puedes ver un feed que contiene contenido generado por millones de desconocidos. Es una corriente surrealista de imágenes demasiado pulidas, videoclips filtrados y textos generados para tareas cotidianas como escribir «un correo detallado y profesional para reprogramar una reunión». Una solicitud que vi recientemente me llamó la atención. Un usuario llamado @kavi908 pidió al chatbot de Meta analizar «si la inteligencia artificial podría algún día superar la inteligencia humana». El chatbot respondió con una serie de breves párrafos; en el apartado «Escenarios futuros», enumeraba cuatro posibilidades. Todas eran positivas: la inteligencia artificial mejoraría de una u otra manera, en beneficio de la humanidad. No había predicciones pesimistas, ningún escenario en el que la inteligencia artificial fracasara o causara daño. Los promedios del modelo —moldeados, quizás, por sesgos pro tecnológicos incorporados por Meta— estrechaban los resultados y clausuraban la diversidad de pensamiento. Pero uno tendría que apagar por completo su actividad cerebral para creer que el chatbot estaba contando toda la historia.
Texto tomado y traducido del New Yorker,
Kyle Chayka, A.I. Is Homogenizing Our Thoughts