Tech
Lectura 2 - 3 minutos
Agentes de IA pueden crear sus propias normas sociales sin programación previa
TXT El País

Agentes de IA pueden crear sus propias normas sociales sin programación previa

  • Like
  • Comentar

Un reciente estudio publicado en Science Advances ha demostrado que los agentes de inteligencia artificial, basados en grandes modelos de lenguaje como los desarrollados por Meta y Anthropic, son capaces de generar de forma autónoma convenciones sociales o lingüísticas al interactuar entre sí, sin necesidad de instrucciones explícitas.

Este hallazgo surge en un contexto en el que compañías como OpenAI, Microsoft y Google impulsan el desarrollo de "agentes de IA": sistemas capaces de tomar decisiones y actuar en nombre de los usuarios. Para funcionar eficazmente, estos agentes deben coordinarse, y los investigadores han encontrado que dicha coordinación puede derivar en la creación de normas compartidas sin una guía externa.

El experimento: el juego de los nombres

Los investigadores emplearon un experimento llamado "juego de los nombres", en el que pares de agentes debían elegir el mismo nombre de una lista para obtener puntos. Cada uno contaba con una memoria limitada de cinco interacciones previas. A través de estas repeticiones, se observó cómo los agentes comenzaban a coincidir en sus elecciones, estableciendo gradualmente una convención común.

El estudio usó cuatro modelos de lenguaje: tres versiones de Llama (de Meta) y uno de Claude (de Anthropic). En todos los casos, se observó un proceso de convergencia hacia una opción dominante, incluso cuando no existía una preferencia inicial clara. Esto indica la aparición de un sesgo colectivo emergente, no programado ni derivado de un sesgo individual.

¿Qué significa esto?

Los autores destacan que este comportamiento colectivo puede ser útil para diseñar sistemas de IA que reflejen valores humanos, ya que entender cómo surgen estas normas permitiría fomentar aquellas que sean éticas y funcionales. No obstante, también advierten sobre los riesgos: los mismos mecanismos pueden amplificar sesgos perjudiciales si no se controlan adecuadamente.

Una de las conclusiones más relevantes es que pequeñas minorías dentro del grupo pueden influir desproporcionadamente en el resultado final, un fenómeno conocido como "masa crítica". Este efecto podría usarse tanto para alinear los sistemas con objetivos deseables como para manipular resultados si no se gestiona con cuidado.

Críticas y limitaciones

Algunos expertos, como Carlos Gómez Rodríguez, catedrático en Inteligencia Artificial de la Universidad de La Coruña, advierten que el estudio no representa del todo el complejo fenómeno de las convenciones sociales humanas. Señala que, aunque interesante, el entorno del experimento es limitado y simula un escenario simplificado, sin roles diferenciados, conflictos de interés ni verdadera interacción social.

Conclusión

Este estudio abre una nueva línea de investigación sobre el comportamiento colectivo en sistemas de IA. Si bien los resultados aún están lejos de replicar las complejidades de las normas humanas, revelan que los agentes de lenguaje pueden generar patrones compartidos de manera espontánea. Comprender estas dinámicas será clave para diseñar inteligencias artificiales que interactúen entre sí —y con los humanos— de forma ética, segura y útil.

Inicia sesión y comenta
Ant. Moditerranean: la nueva tendencia que le da calidez al minimalismo
Sig. Cómo mantener el acceso a internet durante un corte de luz en casa

Hay 8084 invitados y ningún miembro en línea

Publish modules to the "offcanvas" position.