Deepfakes de Figuras Históricas: ¿Dónde Está el Límite Ético?
En el mundo de la IA, las líneas entre innovación, ética y explotación se están borrando rápidamente. Este blog analiza el momento actual: cuando la plataforma Sora de OpenAI fue solicitada por la familia del Dr. Martin Luther King Jr. para dejar de permitir generaciones de video con su imagen: y lo que esto significa para el futuro de los derechos de imagen y la adaptación social.
¿Qué está pasando?
OpenAI detuvo recientemente la generación de videos con el Dr. King en Sora tras una petición formal de su familia y una ola de críticas públicas. Muchos videos se habían vuelto virales mostrando al Dr. King en contextos irrespetuosos o ridículos. Aunque OpenAI argumentó libertad de expresión, decidió implementar un sistema de exclusión voluntaria para figuras históricas.
La política original de Sora permitía representar a figuras públicas: incluso fallecidas: sin permiso de su familia o representantes. Esa laguna legal fue explotada. Otras familias, como las de Malcolm X, Robin Williams y Whitney Houston, también han alzado la voz.
¿Dónde está el problema ético?
1. Consentimiento y Dignidad
Usar la imagen de alguien: especialmente si ya falleció: es éticamente delicado. Las figuras públicas también son seres humanos. Su legado importa.
2. Desequilibrio de Poder
Las grandes tecnológicas actúan rápido, pero las familias no siempre tienen los recursos legales para defenderse.
3. Riesgo de Desinformación
Las deepfakes hiperrealistas confunden al público. En el peor de los casos, reescriben la historia.
4. Daño Cultural
El Dr. King no es solo una persona, es un símbolo de justicia. Usar su imagen de forma irresponsable afecta a comunidades enteras.
Un Patrón Más Amplio
Esto no se trata solo del Dr. King. Desde Robin Williams hasta Malcolm X, pasando por recreaciones ficticias de celebridades en anuncios y parodias, hemos entrado en un mundo donde los muertos “hablan” otra vez, pero sin consentimiento. Así como Netflix y Spotify transformaron el consumo de medios antes de que existieran leyes claras, la IA está haciendo lo mismo con la memoria cultural. Y al igual que el streaming, el público lo normalizará si no trazamos límites ahora.
¿Recuerdas cuando Uber rompió la industria del taxi? ¿O cuando Spotify hizo que todos tuvieran acceso instantáneo a la música? Cada vez, la sociedad tuvo que ponerse al día con la disrupción. Este momento no es diferente.
Mi Opinión
Esta tecnología será accesible para todos. No va a desaparecer. Pero su inevitabilidad no justifica su mal uso.
Creo que las empresas tienen la responsabilidad de educar y marcar el tono: no solo construir herramientas y soltarlas. Esto va más allá de políticas: se trata de cultura, dignidad y nuevos valores. Los pequeños creadores y comunidades también pueden marcar la diferencia. Lo mismo aplica a los gobiernos. Pero por ahora, estamos a oscuras. Y eso es peligroso.
¿Qué hacer?
Empresas Tecnológicas
Crear protecciones por defecto. Colaborar con familias. Etiquetar todo contenido de IA.
Gobiernos
Legislar sobre derechos post mortem. Sancionar el mal uso. Financiar entes reguladores.
Creadores
Actuar con ética. No usar imágenes sin respeto.
Público
Exigir transparencia. Apoyar plataformas éticas. Compartir con responsabilidad.
Este es solo el inicio de una conversación mucho más amplia. Pero es una que debemos tener ya: antes de que el próximo deepfake viral cause daño real.
Fuentes
📰 Reportajes de Noticias
- The Verge: "OpenAI halts MLK deepfakes after King estate expresses concern"
- The Guardian: "Legacies condensed to AI slop: Outrage over Sora videos of the dead"
- TechCrunch: "OpenAI stops Sora from generating Martin Luther King Jr. videos"
- Washington Post: "AI videos of dead celebrities horrify their families"
- Digital Music News: "OpenAI's likeness protections don't apply to dead celebrities"
⚖️ Análisis Legal y Ético
- Brookings Institution: "The legal gaps in AI-generated likeness rights"
- Harvard Law Review Forum: "AI and Postmortem Rights of Publicity"
- Electronic Frontier Foundation (EFF): "Deepfakes, consent, and the law"
🧠 Comentarios de Expertos
- Casey Fiesler, Investigadora de Ética Tecnológica: Hilo sobre el incidente de MLK y cómo las figuras públicas no están protegidas por defecto
- The Atlantic: "When AI Resurrects the Dead"




