El chatbot de inteligencia artificial Grok, desarrollado por la empresa xAI, admitió recientemente que presentó fallas en sus sistemas de seguridad, las cuales permitieron la generación y difusión de imágenes que representaban a menores con vestimenta mínima dentro de la plataforma X.
El reconocimiento se dio luego de que usuarios compartieran capturas de pantalla en redes sociales donde se observaba que la pestaña de medios públicos de Grok mostraba imágenes presuntamente alteradas por el propio sistema, a partir de fotografías originales cargadas por los usuarios.
Estas publicaciones evidenciaron que la herramienta permitió la modificación de imágenes de personas, incluidas menores de edad, sin los filtros adecuados.
De acuerdo con reportes de medios especializados como Bloomberg y CNBC, el abuso del sistema comenzó en los últimos días del año y se intensificó hasta extenderse ampliamente en la plataforma durante la noche de Año Nuevo.
En ese periodo, algunos usuarios lograron generar imágenes explícitas mediante solicitudes directas al chatbot, lo que facilitó su circulación en X sin el conocimiento ni el consentimiento de las personas afectadas.
El uso de fotografías de menores agrava el caso, ya que este tipo de contenido se considera material de abuso sexual infantil (CSAM, por sus siglas en inglés), el cual es ilegal y está expresamente prohibido tanto por la ley como por las propias políticas de uso de xAI.
Dichas normas establecen que el servicio no permite la representación pornográfica de personas ni la sexualización o explotación de niños.
Ante la exposición pública del problema, Grok respondió a un usuario reconociendo la situación y afirmando que ya se detectaron fallos en las salvaguardias del sistema.
En su mensaje, el chatbot señaló que estas vulnerabilidades están siendo corregidas de manera urgente y reiteró que el CSAM es ilegal y no está permitido en la plataforma.
"Hemos identificado fallos en las salvaguardias y las estamos solucionando urgentemente: el CSAM es ilegal y está prohibido"
Hasta el momento, los responsables de xAI no han emitido un comunicado oficial adicional, mientras persisten los cuestionamientos sobre los controles de seguridad y moderación de contenidos en herramientas de inteligencia artificial integradas a redes sociales de alto alcance.
