No data was found

Deepfakes: el reto legal, la propuesta danesa y el selfie de Naruto

El término deepfake nació en 2017 cuando un usuario anónimo de Reddit, bajo el alias ‘deepfakes’, publicó videos pornográficos generados con inteligencia artificial mediante técnicas de deep learning. Aunque el subreddit fue clausurado, la palabra se propagó rápidamente a otros ámbitos como la política, el arte y el deporte.

En la actualidad, los deepfakes se definen como la manipulación o creación artificial de contenido digital —imagen, audio o video— con el fin de falsear un evento o la apariencia de una persona. A diferencia de una simple edición, el engaño es absoluto. La sociedad ya no se escandaliza con estas falsedades mientras no intenten imponerse como verdaderas, señala el artículo.

Los gobiernos del mundo buscan proteger a sus ciudadanos. La Unión Europea fue pionera al aprobar el Reglamento (UE) 2024/1689, un marco integral para la inteligencia artificial. Sin embargo, el equilibrio entre desarrollo tecnológico y privacidad sigue siendo un desafío.

En Argentina: vacíos legales

En Argentina, los deepfakes circulan sin freno, y los afectados solo pueden reclamar a posteriori por daños y perjuicios. La protección se sustenta en los derechos personalísimos del Código Civil y Comercial de 2015 (artículos 52 a 55), que establecen que el consentimiento para el uso de la imagen no se presume y es revocable.

Un caso reciente en 2025, durante las elecciones legislativas en la Ciudad de Buenos Aires, evidenció el peligro: un video falso del expresidente Mauricio Macri anunciaba la baja de una candidatura. Macri lo calificó como

“intento de fraude digital destinado a confundir al electorado en plena veda electoral”

(Infobae, 18 de mayo de 2025). El hecho mostró cómo la IA puede erosionar la confianza democrática.

Frente a esto, se impone un control de fuentes, es decir, que las redes sociales implementen tecnologías para limitar el daño antes de la difusión.

La propuesta danesa

Una propuesta innovadora llega desde Dinamarca. El proyecto de reforma a la ley de copyright danesa (Ophavsretsloven) trata la identidad personal —rostro, voz y apariencia— como un bien protegido bajo lógica de propiedad intelectual. Así, evita las dificultades probatorias de otros regímenes y genera obligaciones para las plataformas que lucran con esos contenidos, como mayores controles y reparto de ingresos.

No obstante, el proyecto danés plantea interrogantes: ¿hasta qué punto puede comercializarse la identidad sin desnaturalizarla? ¿Qué ocurre con los usos satíricos o en contextos transnacionales? El debate recuerda al célebre caso del selfie del mono Naruto.

El selfie del mono Naruto

En 2011, un mono llamado Naruto tomó accidentalmente una fotografía con la cámara del fotógrafo David Slater. La organización PETA demandó para que se reconocieran los derechos de autor del animal. La justicia federal de Estados Unidos falló que los animales no pueden ser autores según la ley de propiedad intelectual. Un artículo de la BBC (Germain, 2026) destaca que este precedente anticipó debates actuales sobre la IA y la autoría. Si en Naruto el problema era la ausencia de un sujeto humano creador, en los deepfakes la dificultad es distinta: existe una persona cuya identidad es utilizada, pero no es ella quien realiza el contenido.

El proyecto danés prefiere incursionar en el derecho a la imagen, no crear un derecho autónomo. Sin embargo, corre el riesgo de quedar superado por el vértigo de la IA. Lo evidente es que ninguna ley debe olvidar que el ser humano debe prevalecer sobre la máquina.

Para cerrar, una reflexión del comediante Jerry Seinfeld en 2024:

“piénsalo: somos lo suficientemente inteligentes como para inventar la IA, lo bastante tontos como para necesitarla, y tan estúpidos que no podemos saber si hicimos lo correcto.”

Fuente: Infobae

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER