Tech
Lectura 2 - 3 minutos
Ciencia y tecnología: la IA sigue lejos de pensar como un experto humano
TXT EFE

Ciencia y tecnología: la IA sigue lejos de pensar como un experto humano

Fotógraf@/ Tomado de la WEB
  • Like
  • Comentar

Un grupo internacional de científicos determinó que la inteligencia artificial todavía presenta limitaciones importantes cuando se enfrenta a preguntas que requieren razonamiento conceptual profundo, lo que demuestra que aún no alcanza el nivel del pensamiento humano en ámbitos académicos de alta complejidad.

El análisis forma parte de una investigación que evalúa si los modelos actuales de IA son realmente capaces de comprender y razonar, o si su desempeño se basa principalmente en la recuperación avanzada de información disponible en línea.

De acuerdo con un comunicado difundido por la Universidad de Granada (UGR), el estudio tuvo como objetivo poner a prueba a los grandes modelos de lenguaje mediante una batería de preguntas técnicas y conceptuales reunidas en el proyecto denominado Humanity's Last Exam (“Último Examen de la Humanidad”), cuyos resultados fueron publicados en la revista Nature.

Esta prueba fue diseñada para ir más allá de las respuestas automáticas y exigir una comprensión profunda de distintos campos del conocimiento.

La evaluación fue desarrollada por un equipo de alrededor de 1,100 científicos de diversas áreas de la ciencia y las humanidades, entre ellos la investigadora española María Cruz Boscá, de la UGR.

Las preguntas planteadas contaban con respuestas claras, verificables y conocidas, pero no podían resolverse de manera rápida mediante una simple búsqueda en internet, ya que requerían análisis conceptual y razonamiento experto.

Según el artículo Una base de referencia de preguntas académicas de nivel experto para evaluar las capacidades de la IA, incluso los modelos más avanzados tropiezan con conceptos científicos complejos y, en algunos casos, reproducen errores presentes en manuales clásicos.
Esto evidencia una diferencia significativa entre las capacidades actuales de los sistemas de IA y el nivel de comprensión de los expertos humanos en distintas disciplinas.

La profesora Boscá explicó que, en el ámbito de la física cuántica, las inteligencias artificiales evaluadas no lograron seleccionar las respuestas correctas cuando se les exigía una comprensión profunda de los conceptos.
En una pregunta relacionada con la paradoja Einstein-Podolsky-Rosen, la IA falló al asumir una realidad objetiva en la medición, lo que contradice los principios fundamentales de la mecánica cuántica.

En otro caso, vinculado al experimento Stern-Gerlach, el sistema repitió un error factual común en numerosos textos científicos, lo que demuestra que la IA puede perpetuar equivocaciones si no cuenta con mecanismos para discernir críticamente la información.

Pese a estos resultados, Boscá destacó que los modelos de lenguaje más avanzados ya han superado la simple búsqueda de datos y comienzan a realizar análisis reflexivos más complejos a partir de la información disponible. Sin embargo, subrayó que el verdadero avance aún está por llegar.

"El verdadero hito llegará cuando la IA no solo evite errar en el conocimiento establecido, sino que además sea capaz de plantear nuevas preguntas y ofrecer respuestas a incógnitas científicas que hoy en día los humanos aún no hemos logrado resolver", concluyó.

Inicia sesión y comenta
Ant. OpenAI reporta nuevo aumento en el uso de ChatGPT y alista nuevo modelo de chat
Sig. Rayman podría volver con un remake para celebrar su 30.º aniversario

Hay 6888 invitados y ningún miembro en línea

Publish modules to the "offcanvas" position.