Tech
Lectura 1 - 2 minutos
Anthropic pagará 1,500 millones de dólares por infringir derechos de autor en el entrenamiento de su IA
TXT AFP

Anthropic pagará 1,500 millones de dólares por infringir derechos de autor en el entrenamiento de su IA

Fotógraf@/ Getty Images
  • Like
  • Comentar

La compañía de inteligencia artificial Anthropic acordó pagar al menos 1,500 millones de dólares para resolver una demanda colectiva en Estados Unidos, tras ser acusada de utilizar de manera indebida unos 500,000 libros en el entrenamiento de su modelo Claude, competidor de ChatGPT.

El acuerdo, revelado en documentos judiciales, fue calificado por los abogados de los demandantes como un hecho histórico, al tratarse de la mayor recuperación económica conocida por violación de derechos de autor en el contexto de la IA.

La demanda fue presentada por los escritores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, quienes denunciaron que la empresa copió ilegalmente sus obras para alimentar a su chatbot.

En junio pasado, el juez federal William Alsup dictaminó que el uso de libros adquiridos o pirateados para entrenar modelos de IA podía considerarse un "uso legítimo" bajo la ley de derechos de autor, al transformarse de forma sustancial en el proceso de aprendizaje automático.

No obstante, también concluyó que la práctica de descargar millones de libros pirateados para crear una biblioteca digital sí representaba una infracción legal.

Como parte del acuerdo, Anthropic se comprometió a eliminar los archivos pirateados y sus copias derivadas, aunque conservará los derechos sobre las obras que compró o escaneó legalmente.

El monto del arreglo equivale a un promedio de 3,000 dólares por libro, cuatro veces la indemnización mínima establecida por la legislación estadounidense.

La directora ejecutiva del Gremio de Autores, Mary Rasenberger, celebró el resultado al señalar que “este acuerdo envía un mensaje contundente a la industria de la IA: existen graves consecuencias cuando piratean las obras de los autores para entrenar sus sistemas”.

Por su parte, la compañía defendió su compromiso con el desarrollo de tecnologías seguras.

“Seguimos enfocados en construir sistemas que ayuden a las personas y organizaciones a potenciar sus capacidades y resolver problemas complejos”, afirmó la abogada de Anthropic, Aparna Sridhar.

El convenio aún debe recibir la aprobación judicial. Una audiencia sobre el caso se celebrará este lunes en el tribunal federal de San Francisco.

Visto 790 veces
Inicia sesión y comenta
Ant. OpenAI trabaja en su propio chip de IA para reducir dependencia de Nvidia
Sig. La Fórmula 1 potencia sus entrenamientos con realidad virtual: ¿Cómo la utilizan?

Hay 8357 invitados y ningún miembro en línea

Publish modules to the "offcanvas" position.