A comienzos de julio, Dinamarca presentó un proyecto de ley que busca ampliar los alcances del copyright para incluir la cara, el cuerpo y la voz de las personas dentro de la protección legal que establecen las normativas sobre derechos de autor para proteger la propiedad intelectual de cada persona. Esta iniciativa surge como respuesta ante el creciente uso de tecnologías como los deepfakes, que facilitan la creación de contenidos falsificados con fines maliciosos.
El ministro de Cultura danés, Jakob Engel-Schmidt, expresó el 26 de junio en una declaración: “Ya es hora de que creemos una salvaguarda contra la propagación de la desinformación y, al mismo tiempo, enviemos una señal clara a los gigantes tecnológicos”, según recuperó Euronews.
Estados Unidos firmó en mayo la ley Take it down, que prohíbe la publicación a sabiendas o la amenaza de publicación de imágenes íntimas sin el consentimiento de una persona, incluidos los deepfakes, lo que busca acabar con la “pornografía por venganza”.
Corea del Sur, a finales del año pasado, tomó medidas contra la pornografía deepfake; sucedió en base a las protestas por los chats de grupo de Telegram en los que se crearon y compartieron imagenes con suplantación de identidad ilegales y sexualmente explícitas, lo que provocó pedidos de penas más severas.
La realidad es que los cuerpos normativos y leyes de los distintos países, fueron pensadas para la realidad analógica pero no para la digital. Cada vez suceden más ataques y conflictos, tanto personales como masivos, que demuestran una tendencia al uso malicioso de las tecnologías actuales como la inteligencia artificial.
¿Qué son los deepfakes?
Los deepfakes son imágenes, audios o vídeos de una persona en el que su rostro, cuerpo o voz fueron alterados de manera digital para hacer que parezca que está haciendo o diciendo algo que no es real. Generalmente, este mecanismo es utilizado con fines maliciosos o para difundir información falsa.
Según el diccionario de Cambridge, los deepfakes tuvieron su comienzo cuando alguien publicó videos en los que intercambiaban las caras de famosos por las de actores porno.
Estos contenidos se generan con algo conocido como deep learning o aprendizaje profundo, un sistema de computadoras especial de aprendizaje automático que implica “capas ocultas”. La Universidad de Virginia explica que, normalmente, el aprendizaje profundo se ejecuta mediante un tipo especial de algoritmo llamado red neuronal, diseñado para replicar la forma en que el cerebro humano aprende información.
Una capa oculta es una serie de nodos dentro de la red que realizan transformaciones matemáticas para convertir señales de entrada en señales de salida: en el caso de los deepfakes, para convertir imágenes reales en imágenes falsas de alta calidad.
Algunos ejemplos virales
Una situación polémica sobre el tema sucedió en 2023, cuando se viralizó un deepfake del fallecido Papa Francisco en donde se lo veía con un abrigo inflable de color blanco de la marca Balenciaga. La imagen generó controversias, ya que no correspondía al vestuario típico de un Papa, sino que tenía más bien un estilo urbano.

La imagen tenía algunas fallas que delataban su falsedad: el Papa tenía varios anillos en sus manos cuando en realidad sólo utiliza un anillo llamado ‘Anillo del Pescador’ en la mano derecha, la forma de sus manos y la sombra de sus lentes.
Otro ejemplo es el perfil en TikTok, Deeptomcrusie, con casi 3,6 millones de seguidores. Esta página está dedicada a generar vídeos hiperrealistas deepfakes de Tom Cruise. La página presenta vídeos del supuesto actor haciendo trucos de magia, jugando al golf y realizando actividades cotidianas, todo generado mediante IA.
Si bien estos ejemplos rozan la comedia y no generan un daño profundo, hay casos en los que este tipo de alteración de imágenes o videos se utiliza para desinformar, atacar a una persona en específico o generar conflictos entre distintos grupos sociales.
¿Qué sucede con las leyes de Argentina?
En Argentina no contamos con una legislación específica contra deepfakes. Sin embargo, contamos con un conjunto de leyes que intentan dar un marco jurídico en medio del vacío legal que el avance vertiginoso de la tecnología y su uso malicioso genera. Algunas datan de hace más de 90 años y otras son más recientes, pero sirven como recursos legales ante una situación de vulneración de la privacidad.
Luz Viñals, abogada y docente de la Universidad Nacional de San Luis (UNSL), señala a Nox News que en Argentina hay un antecedente normativo en cuanto a protección de la imagen que data del año 1933.
Luz nos cuenta que “se trata de la Ley 11.723 sobre la propiedad intelectual y artística, que establece una primera posibilidad de regulación de la imagen propia y sus reproducciones fotográficas. Luego se alcanza también al mundo audiovisual, declarando el derecho de las personas a proyectarse como quieren verse por estos medios”.
En 2015 se incorporó la exigencia del consentimiento para la difusión de la imagen o la voz, con especial foco en la protección de menores. Y en 2023, se promulga la ley Olimpia: una legislación que busca proteger los derechos digitales de las mujeres y personas LGBTIQ+ frente a la violencia de género en entornos digitales.
Esta ley modifica la Ley 26.485 de Protección Integral para Prevenir, Sancionar y Erradicar la Violencia contra las Mujeres, incorporando la violencia digital y sus variantes como una modalidad de violencia de género.
Viñals comenta que “la ley Olimpia no está reglamentada y queda en instancias de protección general y cautelar, para prevenir, proteger y hacer cesar situaciones de violencia general”. Es decir, que las personas afectadas por esta situación tienen la vía cautelar -como exigirle a las redes sociales que no compartan el contenido- y las acciones civiles de daños y perjuicios, si logran identificar al responsable.
También se cuenta con la Ley de Protección de Datos Personales (Ley 25.326), la cual podría utilizarse para reclamar en casos donde se manipulen imágenes o voces sin consentimiento, vulnerando la privacidad. Asimismo, el Código Penal contempla delitos como la suplantación de identidad (art. 247) y la calumnia e injuria (arts. 109 a 117), que podrían usarse si un deepfake afecta la reputación de una persona
Un caso controversial sobre esta temática sucedió en Córdoba, cuando un adolescente utilizó IA para generar imágenes pornográficas falsas sobre sus compañeras de escuela y luego las compartió por sitios web.
La fiscalía de Córdoba enmarcó el delito en “lesiones graves calificadas por mediar violencia de género en dos víctimas” y con una pena de hasta 20 años de prisión.
Para finalizar, la profesional nos comenta que “mientras se espera la concreción de los cambios legislativos, se puede avanzar en protocolos de actuación en las instituciones, en educación, foros de discusiones críticas en las escuelas, en el fortalecimiento del derecho a la libertad de expresión pero también en el fortalecimiento en paralelo de todos los demás derechos, en el resguardo y respeto del otro. Para así lograr la plena vigencia de los Derechos Humanos, que son interdependientes y recíprocos”.