Por Walter Martello, Juan Gossen, Gabriel Casas
En lo últimos años, Argentina dio pasos significativos en la protección de la infancia y la adolescencia contra la explotación sexual y la pornografía infantil.
La Ley 26.388 tipifica delitos relacionados con la pornografía infantil, y la Ley 26.904, junto con la Ley 27.362, incorporó y actualizó el delito de grooming. Sin embargo, la irrupción de la inteligencia artificial (IA) y su capacidad para generar imágenes y videos sintéticos, conocidos como «deepfakes», plantea un desafío significativo para la legislación actual.
El vacío legal ante la IA y la pornografía infantil
La legislación actual argentina, al igual que en muchos otros países, se enfoca principalmente en la pornografía infantil que involucra a personas reales. Esto deja un vacío legal preocupante en relación con el material generado por IA.
Aunque la Ley 26.388 menciona «representaciones» de menores, la interpretación judicial suele requerir la existencia de una víctima real o la potencialidad de serlo. En el caso de imágenes y videos creados enteramente por IA, donde no hay una persona real involucrada en el proceso de creación ni en la imagen final, surge la pregunta de si estos materiales caen bajo el alcance de la ley.
Un fallo reciente de la Cámara de Apelación y Garantías en lo Penal de Zárate-Campana1, si bien confirmó la elevación a juicio de una causa por pornografía infantil, abordó el argumento de la defensa sobre la posible generación de las imágenes por IA. Los jueces, al desestimar este planteo, señalaron que la normativa nacional y los compromisos internacionales (como el Segundo Protocolo Facultativo de la Convención sobre los Derechos del Niño, Ley 25.763) son abarcativos de las representaciones, ya sean «reales o simuladas». Si bien este fallo es un precedente importante, la ausencia de una mención explícita en el Código Penal genera incertidumbre y la necesidad de una adecuación legislativa para evitar interpretaciones dispares y garantizar la protección de la niñez.
En nuestro país en el corriente año y también durante el año pasado fueron de conocimiento público diversos casos en medios escolares en donde el perpetrador tomaba fotos de Facebook del rostro de compañeras de curso y a través de IA superponía las caras a imágenes y videos pornograficos, modalidad conocida como “face swapping” (reemplazo digital de rostro). En un caso del año 2024, que posiblemente se convierta en un leading case, en un trabajo conjunto entre la Fiscalía de Delitos Contra la Integridad Sexual de la Provincia de Córdoba y la Fiscalía de Instrucción de Violencia de Género y Familiar, se accionó contra el perpetrador, que era mayor de edad, encuadrando sus acciones (swapping de compañeras de colegio subiendo las imagenes a sitios pornograficos) bajo la figura del delito de lesiones psicológicas graves calificadas por mediar violencia de género. Además, se hizo aplicación de la Ley N° 27.736, conocida como Ley Olimpia, que tipifico como violencia de género la violencia contra las mujeres en entornos digitales. La existencia de lagunas legales se hace evidente, ya que la mencionada Ley Olimpia no podría haberse usado si el perpetrador hubiera realizado swapping con imágenes de sus compañeros varones. Ya fuera de la faz penal, solo queda para las víctimas el accionar en la faz civil a través de una acción por daños y perjuicios amparándose en la protección a las afectaciones a la dignidad y al derecho a la imagen (artículos 52 y 53 del Código Civil y Comercial de la Nación).
Argumentos para la modificación legislativa
–Protección de la niñez y la adolescencia: el principal argumento para modificar la legislación es la necesidad imperativa de proteger a los niños, niñas y adolescentes. Aunque las imágenes generadas por IA no involucren a una persona real, el consumo y la distribución de este tipo de material contribuyen a la desensibilización, normalización y trivialización de la explotación sexual infantil. Esto puede fomentar la demanda de pornografía infantil real y, en última instancia, poner en riesgo a niños y niñas.
–Impacto psicológico y social: la exposición a pornografía infantil, independientemente de si es real o generada por IA, tiene un impacto psicológico y social devastador. Contribuye a la sexualización de la infancia, desdibuja los límites del consentimiento y crea un ambiente permisivo para la explotación.
-Prevención de la demanda: al penalizar la tenencia y producción de este tipo de imágenes, se busca desalentar la demanda de pornografía infantil en general. Si bien no se puede erradicar completamente, se envía un mensaje claro de que cualquier forma de representación sexual de menores es inaceptable y será perseguida por la ley.
–Armonización con el derecho internacional: numerosos tratados internacionales, como la Convención sobre los Derechos del Niño y el Protocolo Facultativo relativo a la venta de niños, la prostitución infantil y la utilización de niños en la pornografía, exigen a los estados tomar medidas para combatir la pornografía infantil. Una actualización de la legislación argentina en esta materia fortalecería su compromiso con estas obligaciones internacionales.
-Dificultad de distinción: la tecnología de deepfake está avanzando a pasos agigantados, haciendo cada vez más difícil distinguir entre imágenes reales y generadas por IA. Si la ley solo penaliza lo «real», los perpetradores podrían escudarse en la generación por IA para evadir la justicia. La penalización de ambos tipos de materiales eliminaría esta laguna.
–Principio de precaución: ante la potencialidad de un daño significativo a la niñez, la legislación debe adoptar un principio de precaución. Es decir, actuar antes de que el daño se materialice de manera irreversible o se vuelva incontrolable.
Plataformas utilizadas para difundir pornografía infantil generada por IA
La difusión de pornografía infantil, tanto la real como la generada por IA, se lleva a cabo a través de una variedad de plataformas, a menudo explotando las características de anonimato y descentralización de internet. Los delincuentes utilizan estrategias para evadir la detección y la eliminación de contenido.
Redes Sociales y Plataformas de Mensajería Encriptada
Telegram: es una de las plataformas más utilizadas debido a sus funciones de encriptación y la posibilidad de crear grupos privados y canales con gran cantidad de miembros. Los ciberdelincuentes forman comunidades donde comparten y comercializan este tipo de material.
Discord: aunque es una plataforma popular para gaming y comunidades temáticas, también ha sido utilizada para crear servidores privados donde se comparte contenido ilegal, incluyendo pornografía infantil generada por IA.
Aplicaciones de mensajería menos conocidas: a menudo se migra a aplicaciones con menor control o que permiten una mayor privacidad y autodestrucción de mensajes.
Redes sociales tradicionales (Facebook, Instagram, X – antes Twitter): si bien estas plataformas tienen políticas estrictas y sistemas de moderación, se registraron casos de delincuentes que intentaron burlar los filtros utilizando nombres de archivos engañosos, técnicas de esteganografía (ocultar información dentro de otros archivos) o compartiendo enlaces a sitios externos. La IA generativa, al crear imágenes que no activan de inmediato las bases de datos de contenido conocido, puede ser una ventaja inicial para ellos.
Foros Oscuros y la Dark Web
–Dark Web (Web Oscura): es un espacio de internet al que solo se puede acceder con software específico como Tor (The Onion Router), que oculta la identidad y ubicación de los usuarios. Aquí, la pornografía infantil generada por IA se comparte en foros, mercados ilegales y sitios web específicos debido a la dificultad de rastrear a los usuarios y la falta de moderación.
–Foros y comunidades cerradas: en la clearnet (internet superficial), existen foros que, bajo la apariencia de otras temáticas, operan como espacios de intercambio de contenido ilegal, donde el acceso es restringido y requiere invitaciones o pruebas de «interés» en el material.
–Servicios de almacenamiento en la nube (ej. Google Drive, Dropbox, Mega): aunque estos servicios tienen políticas de uso prohibido, los delincuentes los utilizan para almacenar y compartir enlaces a los archivos, aprovechando la facilidad de distribución y, a veces, la falta de una revisión exhaustiva de todo el contenido subido.
–Redes P2P y Torrents: permiten compartir archivos directamente entre usuarios sin un servidor central, lo que dificulta el rastreo y la eliminación del contenido. Los archivos se distribuyen a menudo bajo nombres engañosos.
Plataformas de IA y Modelos Generativos Malintencionados
–Modelos de IA «desbloqueados» o modificados: algunos modelos de IA generativa fuerion modificados por usuarios malintencionados para eludir las restricciones de seguridad y permitir la creación de contenido explícito, incluyendo pornografía infantil. Estos modelos pueden ser distribuidos en comunidades online y utilizados localmente.
–Plataformas emergentes: constantemente surgen nuevas plataformas y aplicaciones que ofrecen la posibilidad de generar imágenes y videos. Los delincuentes siempre están buscando aquellas con menor regulación o filtros menos efectivos.
La facilidad para generar este tipo de material y la diversidad de plataformas para su difusión complican enormemente la labor de las fuerzas de seguridad y la necesidad de herramientas legales adecuadas para combatirlo.
Ejemplos de Legislación en otros países
Diversos países comenzaron a adaptar sus marcos legales para abordar específicamente la problemática de la pornografía infantil generada por IA, reconociendo el peligro que representa, independientemente de la existencia de una víctima real.
–Estados Unidos
La ley federal de EE. UU. ya prohíbe la producción, publicidad, transporte, distribución, recepción, venta, acceso con intención de ver y posesión de cualquier Material de Abuso Sexual Infantil (CSAM, por sus siglas en inglés), incluyendo imágenes realistas generadas por computadora.
El FBI emitió varias alertas (como la de marzo de 2024 del IC3) confirmando que el CSAM creado con tecnologías de manipulación de contenido, incluyendo la IA generativa, es ilegal. Existe jurisprudencia al respecto; por ejemplo, en noviembre de 2023, un psiquiatra en Charlotte, Carolina del Norte, fue sentenciado a 40 años de prisión por explotación sexual de un menor y por usar IA para crear imágenes de CSAM de menores, utilizando una aplicación de IA para alterar imágenes de menores reales vestidos.
Además de la legislación federal, muchos estados han modificado sus propias leyes para criminalizar el CSAM generado por IA o editado por computadora. A abril de 2025, al menos 38 estados promulgaron normativas que criminalizan el CSAM generado por IA o editado por computadora. Algunas de estas leyes son muy detalladas y penalizan específicamente el CSAM generado por IA, incluso si la imagen no se basa en un niño real, siempre que la persona parezca ser menor de 18 años.
Hay proyectos de ley en curso, como el «Protecting Our Children in an AI World Act of 2025» (H.R. 1283), que busca eliminar la defensa afirmativa de que no se trataba de un menor real y clarificar la definición de conducta sexual explícita para incluir estas representaciones.
Reino Unido
Se posicionó a la vanguardia. Ya era ilegal en ese país crear, poseer o distribuir imágenes de abuso sexual infantil, incluidas las generadas por IA, pero el gobierno británico introdujo nuevas medidas. En febrero de 2025, Reino Unido anunció nuevas leyes que criminalizan la posesión, creación o distribución de herramientas de IA diseñadas específicamente para generar material de abuso sexual infantil, con penas de hasta 5 años de prisión.También se criminaliza la posesión de «manuales de pedófilos» de IA, que enseñan cómo usar la IA para abusar sexualmente de niños, con penas de hasta 3 años. Esto busca cerrar la brecha en relación con la intención y la facilitación del delito.
Unión Europea
El Parlamento Europeo, en junio de 2025, votó nuevas leyes que criminalizan el material de abuso sexual infantil generado por IA, buscando crear un marco legal uniforme para combatir todas las formas de abuso infantil en línea. Esta legislación es el resultado de un esfuerzo por adaptar las normativas a los desafíos tecnológicos emergentes. La UE busca asegurar que cualquier forma de abuso infantil —digital o físico, real o sintético— sea abordada sin excepción.
Australia
En este país también se ha estado evaluando sus leyes para abordar las «imágenes sexuales profundas» (deepfake sexual images) sin consentimiento y el material de abuso sexual infantil generado por IA. Se están realizando esfuerzos para aclarar que la creación y el intercambio de material sexual explícito sin consentimiento, utilizando tecnología como la inteligencia artificial, estará sujeto a graves sanciones penales.
Aunque las leyes específicas sobre la penalización de la IA generativa como tal pueden variar entre los estados y territorios, el enfoque general es asegurar que las leyes existentes sobre CSAM sean lo suficientemente amplias como para abarcar estas nuevas formas de material. Estos ejemplos demuestran una clara tendencia global hacia la penalización explícita de la pornografía infantil generada por IA, tanto cuando se utiliza la imagen de una persona real como cuando es creada íntegramente por algoritmos.
Proyectos de Ley presentados en el Congreso Nacional:
En los últimos dos años, diversos legisladores han presentado proyectos de ley buscando abordar la cuestión de la pornografía infantil generada por IA. Por ejemplo:
Proyecto de Ley Expediente 5327-D-2024 (Diputado Gabriel Bornoroni – presentado el 19/09/2024) 2: Proyecto de Ley (S-2327/2024) del Senado (Silvina M. García Larraburu)
Los dos proyectos de ley tienen diferencias clave en su enfoque y alcance:
Metodología Legislativa: uno crea un nuevo artículo (Bornoroni et al.), el otro modifica el existente (García Larraburu et al.).
Amplitud de Penas: el proyecto de García Larraburu propone penas mínimas y máximas más elevadas para la producción y distribución del contenido. También incorpora penas específicas para la facilitación de acceso a pornografía a menores.
Especificidad del Contenido (Deepfakes): ambos abordan el contenido generado por IA. El de Bornoroni se centra en imágenes de «personas reales» a las que se les «adicionan» o «modifican» partes con fines libidinosos. El de García Larraburu es más amplio al referirse a «toda representación real o creada por medio de inteligencia artificial o los sistemas inteligentes que se creen en el futuro» , y en sus fundamentos, hace hincapié en los «deepfakes» y la capacidad de crear contenido sin necesidad de una víctima física de referencia.
Críticas a los proyectos actuales y sus deficiencias
1. Dificultad en la detección y atribución
Realismo y volumen de la IA-CSAM: la IA actual puede generar imágenes y videos hiperrealistas de niños que nunca existieron, lo que hace extremadamente difícil para los algoritmos (e incluso para el ojo humano) distinguirlas del material real. Esto genera un volumen masivo de contenido que desborda las capacidades de detección y análisis.
Evasión de filtros: los delincuentes utilizan técnicas sofisticadas para ocultar este material, incluyendo la encriptación, el uso de redes descentralizadas (como la dark web) y la modificación constante de los patrones que los algoritmos buscan.
Falsos positivos/negativos: los sistemas de IA no son perfectos. Un alto número de falsos positivos puede sobrecargar los equipos de revisión, mientras que los falsos negativos implican que material dañino pasa desapercibido.
Anonimato y rastreo: la naturaleza anónima de internet y las herramientas de IA dificultan el rastreo de los creadores y distribuidores de este contenido, lo que obstaculiza las investigaciones y persecuciones.
2. Marco legal y cooperación internacional insuficientes
Vacíos legales: muchos marcos legales no están actualizados para contemplar la IA-CSAM. En algunos lugares, la creación de imágenes de niños que no existen puede no ser tipificada explícitamente como pornografía infantil, lo que genera impunidad.
Armonización legislativa: la falta de una legislación global armonizada dificulta la persecución transfronteriza de estos delitos. Lo que es ilegal en un país, puede no serlo o tener penas menores en otro.
Lento proceso judicial: las investigaciones y procesos judiciales suelen ser lentos y complejos, especialmente cuando involucran múltiples jurisdicciones y pruebas digitales volátiles.
3. Aspectos técnicos y humanos
Escasez de especialistas: hay una falta de expertos capacitados en el cruce de inteligencia artificial, ciberseguridad y derecho penal que puedan desarrollar, implementar y operar estas soluciones de manera efectiva.
Impacto psicológico en revisores: los equipos de revisión que tienen que analizar este material (real o generado por IA) sufren un impacto psicológico significativo, lo que requiere un apoyo especializado y constante, y a veces, esto no está suficientemente priorizado en los proyectos.
Acceso y transparencia: a menudo, los proyectos y herramientas de detección son propiedad de grandes empresas tecnológicas, y su funcionamiento interno no es completamente transparente, lo que dificulta la auditoría y la colaboración de otras entidades.
4. Enfoque reactivo en lugar de proactivo
Detección vs. prevención: la mayoría de los proyectos se centran en detectar y eliminar el contenido una vez que ya ha sido creado y distribuido, en lugar de prevenir su creación en primer lugar o abordar las raíces del problema.
Monitoreo de generadores de IA: no hay un monitoreo o regulación suficiente sobre las herramientas y modelos de IA que pueden ser utilizados para generar este tipo de contenido.
¿Qué les faltaría a los proyectos para combatir la pornografía infantil generada por IA?
Para ser realmente efectivos, los proyectos deberían incorporar o fortalecer los siguientes aspectos:
1. Avances tecnológicos en detección y análisis
IA para detectar IA: desarrollar modelos de IA más sofisticados y adaptativos que puedan identificar patrones sutiles y «artefactos» propios de las imágenes generadas por IA, incluso cuando éstas intentan simular realismo. Esto implica un entrenamiento constante con nuevos datasets.
Detección de intenciones y metadatos: ir más allá de la imagen en sí. Analizar los metadatos, el contexto de creación, la distribución, los patrones de comportamiento de los usuarios y las plataformas donde se comparte.
Análisis forense de IA: desarrollar herramientas que permitan a los forenses digitales no solo identificar el material, sino también rastrear su origen y la IA utilizada en su creación.
Investigación en «watermarking» y verificación: impulsar la investigación en técnicas de marca de agua digital imperceptible en las imágenes originales, lo que permitiría rastrear su uso y detectar manipulaciones, así como sistemas de verificación de autenticidad.
2. Fortalecimiento del marco legal y la cooperación
Legislación específica y armonizada: urge crear leyes claras y globales que criminalicen la creación, distribución y posesión de pornografía infantil generada por IA, independientemente de si la víctima es real o no. La legislación debe ser lo suficientemente flexible para adaptarse a los rápidos avances tecnológicos.
Cooperación internacional robusta: establecer protocolos de colaboración más ágiles y efectivos entre fuerzas policiales, fiscalías y agencias internacionales para compartir información, rastrear a los delincuentes transfronterizos y realizar operaciones conjuntas.
Responsabilidad de las plataformas: exigir legalmente a las empresas tecnológicas y proveedores de servicios que implementen mecanismos de detección proactivos y eliminen el contenido de manera expedita, con consecuencias claras por el incumplimiento.
3. Enfoque preventivo y educación
Educación digital: realización de campañas masivas de concienciación y educación digital para niños, padres, educadores y el público en general sobre los riesgos de la IA, el manejo de la privacidad online y cómo denunciar contenido inapropiado.
Controles parentales y herramientas de seguridad: promover el desarrollo y uso de controles parentales más avanzados que integren capacidades de detección de IA-CSAM y alerten a los padres.
Formación a profesionales: capacitar a la policía, fiscales, jueces y trabajadores sociales en las complejidades de la IA-CSAM para que puedan manejar estos casos de manera efectiva.
4. Colaboración multidisciplinar
Alianzas público-privadas: fomentar una colaboración estrecha entre gobiernos, empresas tecnológicas, academia y ONG para compartir conocimientos, desarrollar herramientas y estrategias, y coordinar esfuerzos.
Acceso a datos y modelos: establecer mecanismos seguros para que los investigadores y las fuerzas del orden puedan acceder a los datos y modelos de IA relevantes para sus investigaciones, siempre bajo estrictos protocolos de privacidad y ética.
5. Apoyo a las víctimas (reales y potenciales)
Aunque la IA-CSAM no involucre a una víctima real en su creación, la difusión y consumo de este material normaliza la explotación infantil y causa un daño psicológico a las víctimas reales y a la sociedad. Los proyectos deben seguir apoyando a las víctimas reales y trabajar para desnormalizar y erradicar cualquier forma de explotación infantil.
En resumen, la lucha contra la pornografía infantil generada por IA requiere un enfoque multifacético que combine la innovación tecnológica, la adaptación legal, una sólida cooperación internacional, la prevención y educación, y un compromiso ético inquebrantable. Es una carrera contrarreloj donde la capacidad de adaptación es clave.