Deepfakes: el fin de la verdad”, es uno de los capítulos del medio digital “somos corta” , revelando los casos de Deep cake
“Eso le pasó a Nilda, vecina de San Jerónimo Sud, donde difundieron imágenes sexuales suyas y de otras 79 mujeres creadas con inteligencia artificial”.
.
Qué son los deepfakes
Los deepfakes son contenidos creados mediante tecnología de inteligencia artificial que generan imágenes o videos falsos, pero altamente realistas. Con esta técnica, se puede alterar la apariencia o la voz de una persona, haciéndola parecer que dice o hace algo que nunca ocurrió. Aunque en principio esta tecnología tiene aplicaciones positivas, como en la industria del cine, su mal uso ha proliferado, particularmente en la generación de material pornográfico falso.
Según el informe State of Deepfake 2023 de Security Hero, la creación de deepfakes pornográficos aumentó un 464% en el último año, y el 99% de este contenido afecta a mujeres. En Argentina, se han reportado casos en escuelas de diversas provincias, lo que pone en evidencia la necesidad de una regulación urgente.
El vacío legal en Argentina
Actualmente, el Código Penal argentino no cuenta con una figura específica que penalice la creación y difusión de deepfakes de contenido sexual. Algunos fiscales intentan encuadrar estos casos bajo el artículo 128, que sanciona la tenencia, producción y distribución de material de abuso sexual infantil. Sin embargo, este artículo no contempla imágenes generadas por IA, lo que dificulta lograr condenas.
En este contexto, legislaciones como la Ley Olimpia, que aborda la violencia digital contra mujeres, han sido una herramienta útil. Esta normativa permite solicitar la remoción de contenido en plataformas digitales y preservar las evidencias para posibles acciones legales. Sin embargo, la ley solo se aplica a víctimas mujeres, dejando a los varones adolescentes sin una protección específica.
Cómo actuar ante la difusión de deepfakes
Si se detecta un deepfake, estos son algunos pasos recomendados:
• Resguardar evidencias: conservar capturas de pantalla, links y cualquier dato relacionado con la difusión del contenido.
• Denunciar: presentar la denuncia en la fiscalía correspondiente o ante la Línea 144 en caso de violencia de género.
• Asesoramiento legal: contactar a especialistas en ciberdelincuencia o violencia digital para evaluar las posibles acciones legales.
• Acompañamiento psicológico: priorizar el bienestar emocional de las víctimas y evitar actitudes revictimizantes.
Hacia una legislación abarcativa
Diversos proyectos de ley buscan cerrar estas brechas legales. Entre ellos, la llamada Ley Belén, que propone penalizar los montajes realizados con inteligencia artificial, y otras iniciativas que plantean sanciones de hasta 6 años de prisión para quienes utilicen deepfakes sin consentimiento. Además, se destacan experiencias internacionales como las de Corea del Sur e Inglaterra, donde se han aprobado proyectos de ley que tipifican como delito poseer y compartir imágenes y videos deepfakes sexualmente explícitos, con penas que incluyen hasta 7 años de prisión y multas. En España, se aprobó un anteproyecto que tipifica como delito las ultra falsificaciones, que incluyen la creación y distribución de vídeos, fotos o audios manipulados que parecen reales.
La incorporación de contenidos sobre el uso responsable de tecnologías digitales en la Educación Sexual Integral (ESI) también es una estrategia clave para prevenir futuros casos. Esta medida puede ayudar a las y los adolescentes a identificar situaciones de riesgo y protegerse ante las amenazas del entorno digital.