window._taboola = window._taboola || []; var taboola_id = 'mycodeimpremedia-laopinion'; _taboola.push({article:'auto'}); !function (e, f, u, i) { if (!document.getElementById(i)){ e.async = 1; e.src = u; e.id = i; f.parentNode.insertBefore(e, f); } }(document.createElement('script'), document.getElementsByTagName('script')[0], '//cdn.taboola.com/libtrc/'+ taboola_id +'/loader.js', 'tb_loader_script'); if(window.performance && typeof window.performance.mark == 'function') {window.performance.mark('tbl_ic');}

YouTube lanza tecnología para detectar deepfakes y las celebridades serán las primeras beneficiadas

Youtube quiere evitar que los deepfakes inunden la plataforma y para ello ya crearon una herramienta capaz de detectar este tipo de contenido

La nueva herramienta de Youtube permitirá a los famosos detectar contenido creado con IA en el que se utilice su imagen

La nueva herramienta de Youtube permitirá a los famosos detectar contenido creado con IA en el que se utilice su imagen Crédito: Patrick Semansky | AP

YouTube ya estrenó una nueva herramienta para detectar deepfakes creados con IA dentro de su plataforma, y la clave está en que funciona de forma parecida a Content ID, pero enfocada en la imagen de una persona y no en el copyright. La novedad ahora es que esta tecnología se está ampliando al mundo del entretenimiento para ayudar a celebridades, agencias y representantes a identificar videos manipulados que usen su rostro sin permiso. 

YouTube refuerza su pelea contra los deepfakes

YouTube dio a conocer la expansión de su tecnología de detección de semejanza o “likeness detection”, una herramienta diseñada para localizar contenido generado con IA que imita el rostro de una persona en videos publicados en la plataforma. La función ahora también estará disponible para celebridades, agencias de talento, empresas de management y figuras del entretenimiento, después de haber pasado por un piloto con algunos creadores y de ampliarse antes a periodistas, políticos y funcionarios. 

El movimiento no llega por casualidad, porque los deepfakes ya se convirtieron en un problema serio para la reputación digital, las estafas y la desinformación. En especial para figuras públicas, este tipo de contenido puede circular muy rápido con promesas falsas, anuncios engañosos o declaraciones inventadas que parecen reales a simple vista. 

Cómo funciona la nueva herramienta

La mecánica recuerda bastante a Content ID, el sistema con el que YouTube detecta material protegido por derechos de autor dentro de los videos subidos por usuarios. La diferencia es que aquí el sistema no busca una canción, una escena o un clip registrado, sino coincidencias visuales con el rostro de una persona inscrita en el programa. 

En la práctica, la herramienta escanea contenido generado con IA para detectar si existe una coincidencia visual con la cara del participante registrado. Si encuentra un video sospechoso, esa persona o su representante puede revisarlo y decidir si pide su eliminación por una posible violación de las políticas de privacidad, si presenta una reclamación por copyright o si simplemente no toma ninguna acción. 

Otro detalle importante es que no hace falta que la celebridad tenga un canal propio de YouTube para usar esta protección. Eso amplía bastante el alcance de la herramienta, porque permite que actores, músicos o figuras públicas que no sean creadores habituales también puedan vigilar si su imagen está siendo usada en deepfakes dentro de la plataforma. 

Además, YouTube dejó claro que no eliminará automáticamente todo el contenido detectado, ya que sus normas siguen permitiendo materiales de parodia y sátira. Es decir, la detección no equivale a una baja inmediata, sino a un sistema de alerta y revisión pensado para distinguir entre manipulación dañina y usos permitidos bajo sus reglas. 

Youtube quiere poner fin a los deepfakes

El anuncio muestra que YouTube quiere adelantarse a un problema que ya dejó de ser experimental y ahora afecta a creadores, celebridades, periodistas y figuras públicas en general. La propia compañía explicó que esta tecnología busca evitar que la identidad de una persona sea utilizada sin autorización, algo especialmente delicado en anuncios fraudulentos y videos falsos hechos con IA. 

YouTube confirmó que más adelante la tecnología también sumará soporte para audio. Eso significa que la plataforma no solo quiere detectar rostros simulados, sino también posibles clonaciones de voz, uno de los formatos más peligrosos de la IA generativa cuando se usa para engañar a usuarios o suplantar identidades. 

A nivel político y regulatorio, la compañía también está respaldando en Washington la propuesta conocida como NO FAKES Act, una iniciativa que busca regular el uso no autorizado de voces e imágenes generadas por IA. En otras palabras, YouTube no solo está intentando contener el problema dentro de su plataforma, sino empujar un marco más amplio para responder a una tecnología que avanza más rápido que muchas normas actuales. 

Sigue leyendo:
YouTube sin anuncios: 2 métodos simples que sí funcionan en 2026
YouTube Premium sube sus precios: cuánto deberás pagar en cada plan para no ver anuncios
Menos anuncios en los lives de YouTube la nueva decisión que favorece a los usuarios gratis

En esta nota

YouTube
Contenido Patrocinado