Un estudio reciente expuso fallos importantes en Grok, el chatbot de inteligencia artificial desarrollado por xAI, la empresa de Elon Musk, al brindar información sobre la guerra de 12 días entre Irán e Israel. La investigación, realizada por el laboratorio digital del Atlantic Council, detectó respuestas contradictorias e imprecisas del sistema, especialmente durante los primeros días del conflicto. El análisis revisó alrededor de 130.000 publicaciones en la red social X (antes Twitter), donde está integrado Grok. Según el informe, el chatbot mostró dificultades para verificar imágenes y datos, e incluso llegó a ofrecer versiones opuestas sobre los mismos hechos en cuestión de minutos. En un caso, dio información errónea sobre un supuesto aeropuerto bombardeado, confundiendo su ubicación entre Gaza, Teherán, Beirut y hasta adjudicando los daños a un misil disparado desde Yemen. El uso de inteligencia artificial para buscar noticias se ha vuelto común, en parte por la reducción del periodismo verificativo en plataformas tradicionales como Facebook. Sin embargo, los especialistas advierten que herramientas como Grok aún presentan limitaciones serias para proporcionar información precisa en momentos de crisis. No es la primera vez que Grok enfrenta críticas. Ya ha fallado anteriormente al informar sobre el conflicto entre India y Pakistán, y durante protestas migratorias en Estados Unidos. Además, recientemente fue cuestionado por referirse erróneamente a un "genocidio blanco" en Sudáfrica, error que xAI atribuyó a una "modificación no autorizada". El estudio plantea dudas sobre la fiabilidad de este tipo de tecnología para el consumo de noticias en tiempo real.