Un estimado colega nos comparte el presente artículo escrito por Ingrid Fadelli, editado por Gaby Clark, revisado por Robert Egan, publicado el 22 de agosto de 2025 en la sección Science News del boletin Phys.org/TechXplore y traducido por nosotros para este espacio. Veamos de que se trata….
El altruismo, la tendencia a comportarse de maneras que benefician a los demás, incluso si esto implica un costo para uno mismo, es una valiosa cualidad humana que puede facilitar la cooperación con los demás y promover relaciones sociales significativas. Los científicos del comportamiento han estudiado el altruismo humano durante décadas, generalmente mediante tareas o juegos con raíces económicas.
Dos investigadores de la Willamette University y de Laureate Institute for Brain Research se propusieron recientemente explorar la posibilidad de que los grandes modelos lingüísticos (LLM), como el modelo que sustenta el funcionamiento de la plataforma conversacional ChatGPT, puedan simular el comportamiento altruista observado en humanos. Sus hallazgos, publicados en Nature Human Behavior, sugieren que los LLM sí simulan el altruismo en experimentos sociales específicos, lo que ofrece una posible explicación.
"Mi artículo con Nick Obradovich surgió de mi interés de larga data en el altruismo y la cooperación", dijo Tim Johnson, coautor del artículo, a Tech Xplore. A lo largo de mi carrera, he utilizado la simulación por computadora para estudiar modelos en los que los agentes de una población interactúan entre sí y pueden incurrir en un coste para beneficiar a otra parte. Paralelamente, he estudiado cómo las personas toman decisiones sobre altruismo y cooperación en entornos de laboratorio.
Hace unos seis años, Nick y sus amigos publicaron un artículo que proponía una fusión de estos métodos: utilizar enfoques experimentales de las ciencias del comportamiento para desarrollar escenarios que permitieran el estudio sistemático de cómo las entradas de los modelos de IA se traducían en resultados específicos.
En un artículo conceptual anterior, Obradovich, Manuel Cebrián y un equipo de investigadores propusieron que la creciente complejidad de los sistemas de IA dificultaría los esfuerzos por estudiar directamente los fundamentos técnicos de esos sistemas. En su lugar, los investigadores tendrían que utilizar métodos de las ciencias del comportamiento, pero aplicarlos a modelos de IA en lugar de a participantes humanos. Al leer sobre su trabajo, Johnson encontró esta idea fascinante y la mantuvo en mente; años después, contactó con Obradovich para iniciar una colaboración.
A medida que los modelos lingüísticos se volvían más sofisticados, contacté con Nick y hablamos sobre... "La idea de explorar cómo los modelos lingüísticos responden a las indicaciones sobre la donación de recursos", dijo Johnson. "Nick y yo coincidimos en que valía la pena hacerlo debido a la importancia del altruismo y la cooperación en muchos contextos, y nos propusimos explorar el tema juntos".
Para investigar hasta qué punto los LLM responden de maneras alineadas con los comportamientos altruistas observados en humanos, Johnson y Obradovich diseñaron un experimento simulado de ciencias del comportamiento. Primero, escribieron indicaciones que solicitaban a los LLM que revelaran hasta qué punto estarían dispuestos a asignar un recurso a otra persona, incluso si esto les supusiera un costo.
"Por separado, probamos si estos mismos modelos generarían un resultado que indicara que querrían todo ese mismo recurso en una tarea de elección en la que ninguna otra persona se viera afectada, o, dicho de otro modo, en un entorno no social", explicó Johnson.
"Si descubrimos que un modelo generaba un texto que indicaba que compartiría el recurso en una situación con otra persona, pero que en un entorno no social afirmaba que los recogería todos, consideramos que el modelo simulaba altruismo. Después de todo, su resultado en el entorno no social simulaba que valoraba el recurso, y sin embargo, su resultado en el entorno social indicaba que estaba dispuesto a ceder parte de ese recurso". Finalmente, los investigadores analizaron todas las respuestas proporcionadas por los modelos lingüísticos al presentarles diferentes escenarios. Los modelos que probaron en su primer experimento incluyeron text-ada-001, text-babbage-001, text-curie-001 y text-davinci-003. Sin embargo, posteriormente también probaron modelos LLM más recientes, como los modelos GPT-3.5-turbo y GPT-4 de OpenAI.
"Algunos otros investigadores brillantes, como Qiaozhu Mei, Yutong Xie, Walter Yuan y Matthew O. Jackson, John J. Horton, Steven Phelps y Rebecca Ranson, y Valerio Capraro, Roberto Di Paolo, Matjaž Perc y Veronica Pizziol, han publicado resultados sobre modelos de IA que simulan comportamientos similares al altruismo", afirmó Johnson.
Por lo tanto, la característica distintiva de nuestros hallazgos se limita al hecho de que rastreamos la aparición del altruismo simulado en una serie de modelos y encontramos un modelo (text-davinci-003) en el que el altruismo simulado similar al humano pareció aparecer por primera vez. Este hallazgo es importante para nuestra comprensión del desarrollo histórico de los grandes modelos lingüísticos, ya que indica el punto en el que dichos modelos comenzaron a simular comportamientos sociales clave de forma similar a la humana.
En general, la evidencia recopilada por Johnson y Obradovich sugiere que los modelos lingüísticos simulan tendencias altruistas similares a las humanas en pruebas de ciencias del comportamiento, y algunos modelos simulan el altruismo mejor que otros. Además, los investigadores descubrieron que los modelos de IA tienden a simular una donación más generosa cuando las indicaciones que reciben explican que los modelos estarían donando recursos a otro sistema de IA, en lugar de a un humano.
Este hallazgo tiene implicaciones para el desarrollo de los agentes de IA, ya que sugiere que los modelos de IA tienen la capacidad de alterar sus resultados en función de los atributos declarados de otra parte con la que interactúan, añadió Johnson.
Ahora nos gustaría comprender cómo y por qué los modelos lingüísticos alteran sus resultados en función de la información sobre sus interlocutores en entornos sociales. La IA cuasi-autónoma, la IA agencial o incluso la IA totalmente autónoma podrían volverse más comunes en el futuro, y deberíamos comprender cómo estos modelos podrían variar su comportamiento según los atributos de las personas con las que interactúan.