En tiempos de cambio y evolución, las fronteras suelen volverse difusas. Pero a medida que la sociedad incorpora y asimila esas transformaciones, las reglas se reconfiguran. Eso fue lo que ocurrió ayer por la tarde en la Cámara de Apelación y Garantías en lo Penal del Departamento Judicial Zárate-Campana, donde se resolvió que el artículo 128 del Código Penal argentino también alcanza y sanciona las representaciones de abuso sexual infantil generadas o alteradas mediante inteligencia artificial, aún cuando no haya víctimas reales identificadas.
Este fallo marca un nuevo punto de partida para la protección de menores en la era digital frente a prácticas abusivas que hoy se amplifican por las nuevas tecnologías. “Es un precedente clave en la materia”, señaló a LA NACION Antonella Stringhini, directora de Formación y Transformación Digital con Inteligencia Artificial del IALAB. “Refleja la voluntad del Poder Judicial de no quedar rezagado ante los avances tecnológicos y abre, además, el debate legislativo sobre cómo debe adaptarse el derecho penal a estos fenómenos”, añadió.
El caso tuvo origen en una denuncia contra un hombre acusado de publicar y distribuir material sexual que involucraba a menores de 18 años. Durante el proceso, la defensa planteó que no se había demostrado la existencia de víctimas reales y que el contenido en cuestión podría haber sido generado digitalmente, ya fuera mediante inteligencia artificial o técnicas de animación por computadora (CGI). Según su interpretación, el artículo 128 del Código Penal solo se aplicaría si las imágenes tuvieran como base a personas reales y no a figuras creadas artificialmente.
Sin embargo, los jueces Mariano Magaz, Humberto Bottini y María Pía Leiro desestimaron ese argumento y resolvieron confirmar la elevación a juicio. En su fallo, indicaron que la normativa vigente —modificada por la Ley 27.436— contempla toda forma de representación de menores en contextos sexuales, independientemente de su origen.
La jueza de Garantías Graciela Cione, por su parte, sostuvo que una “simple observación de los videos y fotografías” permitía advertir que las figuras representaban a niños y niñas de entre 3 y 13 años, aunque no se hubiera identificado a ninguna víctima en particular. El tribunal advirtió que permitir este tipo de contenidos —incluso si fueran creados sin personas reales— podría contribuir a normalizar la pedofilia, lo que representa una amenaza directa al bien jurídico protegido: la libertad e integridad sexual de las infancias.
Sobre esto último, Sebastián Luján, abogado penalista especializado en inteligencia artificial, explicó que esta es una afirmación que no tiene ninguna presunción. “Para los fines de un fallo no tiene el sustento que debería tener”, explicó a LA NACION. “Si bien personalmente estoy de acuerdo, me parece que es una afirmación que no correspondía”, dijo.
En cuanto a la prueba, los magistrados señalaron que, si bien el informe pericial no determinó de forma concluyente si las imágenes eran artificiales, el perito detalló la disponibilidad de los archivos originales y sus metadatos, como la fecha de creación, modificación o ubicación. Esto permite avanzar con medidas adicionales en la etapa de juicio para esclarecer con precisión el origen del material.
Lucas Barreiro, abogado especializado en derechos digitales y privacidad de datos, explicó a LA NACION que la interpretación amplia del tribunal se ajusta al espíritu protector de la Convención Internacional sobre los Derechos del Niño, que en la Argentina tiene jerarquía constitucional. En ese marco, señaló que dicha convención prevalece sobre la reserva que el país formuló al firmar el Convenio de Budapest sobre Ciberdelito, en el cual se comprometió a penalizar únicamente las imágenes de abuso que fueran hechas con víctimas reales.
“Queda claro que la solución más adecuada no pasa por ampliar continuamente el sentido de normas preexistentes”, dijo Barreiro a pesar de destacar el avance. “Creo que lo que hay que hacer es actualizar el Código Penal para penalizar expresamente la generación sintética de representaciones sexuales de menores, sea cual sea la tecnología utilizada para su producción”, aseguró. En este sentido confirmó que hay diversos proyectos legislativos presentados en esta línea como, por ejemplo, el 3955-D-2024 de diputado Juan Fernando Brugge.
Este fallo, si bien sienta un precedente, no es nada más que la resolución de una cámara que no es vinculante con ningún juzgado, según detalla Luján. En efecto, hoy cualquier juzgado, cámara o tribunal puede resolver lo que quiera en relación a este tipo de prácticas. “El alcance que tiene el fallo es muy limitado”, señaló. “Puede ser citado por una jueza como caso para decretar la misma sentencia”, comentó.
El sistema judicial argentino está en proceso de adaptación a los cambios tecnológicos, pero aún no está preparado para abordar los desafíos que presenta la IA, consideró Stringhini. La experta destacó que se están gestando capacitaciones en los diferentes poderes judiciales como en San Luis o Neuquén y se están emitiendo decisiones que contemplan los avances tecnológicos, como la citada en la cámara de Zárate-Campana. “Lo cierto es que aún queda un gran camino por recorrer”, reflexionó. “La IA avanza a pasos agigantados y necesita un rol proactivo por parte de los operadores judiciales, que combine adaptación y anticipación”, agregó.