YouTube ha anunciado una nueva herramienta impulsada por inteligencia artificial (IA) que permitirá a los creadores de contenido detectar videos manipulados o ‘deepfakes’ que utilicen su imagen o voz sin autorización.
La función busca proteger la identidad digital y los derechos de quienes publican contenido en la plataforma.
La herramienta, disponible inicialmente en versión beta para un grupo seleccionado de miembros del Programa de Socios de YouTube, ayudará a los creadores a supervisar cómo y dónde aparece su imagen generada o alterada con IA.
Esto incluye detectar videos que los hagan parecer que expresan opiniones o realizan acciones que no comparten ni aprobaron.
Para acceder a la función, los creadores deben verificar su identidad mediante reconocimiento facial dentro de la página de “Detección de contenido” en YouTube Studio.
Desde ahí, podrán realizar búsquedas automáticas que mostrarán videos en los que el sistema haya identificado similitudes faciales o vocales con el creador.
En caso de encontrar material manipulado o sin consentimiento, los usuarios podrán presentar una denuncia formal para solicitar su eliminación, incluyendo casos de suplantación de voz.
YouTube explicó que esta medida responde al creciente uso de IA generativa en videos falsos o engañosos, fenómeno que ha afectado a influencers, músicos y periodistas en los últimos meses.
La plataforma planea extender esta herramienta a todos los creadores que monetizan sus videos a inicios de 2026, como parte de su compromiso por mantener un entorno más seguro y transparente frente a los desafíos éticos y legales de la inteligencia artificial.
Con esta iniciativa, YouTube se posiciona como una de las primeras plataformas en ofrecer una protección activa contra los deepfakes, reforzando la autenticidad y confianza dentro de su comunidad de creadores.