En el último mes se conocieron al menos dos denuncias contra adolescentes por vender fotos íntimas de sus compañeras editadas con inteligencia artificial (IA): uno en un colegio de San Martín, en la provincia de Buenos Aires, y otro en Resistencia, Chaco. Estos casos alertan sobre el papel creciente que el deep fake y las nuevas tecnologías juegan dentro de las redes de pedofilia.
«El mecanismo de deep fake tiene que ver con suplantar los datos biométricos de una persona, montar el rostro en un cuerpo de similares características y crear una imagen falsa, pero con características de hiperrealidad», explicó a C5N el abogado Hernán Navarro, fundador y director ejecutivo de Grooming Argentina. El cuerpo no es el de la víctima, pero el rostro sí; el impacto emocional es el mismo.
Como ejemplo, Navarro citó un caso que se dio en un colegio bonaerense en diciembre de 2023. Una chica denunció que «los compañeros habían viralizado en grupos de WhatsApp imágenes de ella y tres amigas más. Lo que me sorprendió fue que esa chica dijo que tuvo que recurrir a la galería de su teléfono para ver si la foto verdaderamente se la había tomado ella», destacó.
«Los adolescentes están siendo funcionales a las redes de pedofilia. Es decir, vemos que son los propios adolescentes quienes hoy en gran medida están ejecutando este tipo de acción. Venimos mirando con extrema preocupación la proliferación y la velocidad con la que viaja este tipo de violencia sexual», sostuvo.
El abogado advirtió que «la inteligencia artificial vino a cambiar el paradigma de la mal llamada pornografía infantil», que viró de «la producción hacia la fabricación del material». En el delito de grooming, históricamente, el pedófilo engañaba a la víctima para que le enviara fotos íntimas y luego la amenazaba con difundirlas. Ahora, puede fabricarlas con IA y pasar directamente a la extorsión.
Actualmente conviven dos situaciones: por un lado, hay adolescentes que producen por su cuenta las fotos de sus compañeras, las cuales luego son compradas por redes de pedofilia; por otro, hay adultos que los incentivan a crear el material con la promesa de una retribución económica.
«La tercera es que estamos empezando a observar vasos comunicantes entre la ludopatía y la necesidad de conseguir dinero a costa de cualquier situación, como por ejemplo vender imágenes de índole sexual, que quien las compra no es ni más ni menos que la pedofilia. Los pibes lo ven como un juego y esto no es un juego, es un delito», enfatizó Navarro.
Inteligencia artificial y vacío legal: ¿Qué pasa con la Justicia?
El abogado explicó que en estos casos se aplica «la misma lógica de cualquier otro delito: si lo ejecuta una persona menor de 16 años, es inimputable». El principal problema es que «hoy en la Argentina no existe normativa tendiente a regular la inteligencia artificial. Si la imagen es el rostro de una persona existente en un cuerpo ajeno o no existente, no hay un encuadre desde el punto de vista legal», señaló.
«Si el rostro es de un niño, niña o adolescente que existe y el cuerpo es ajeno, bueno, yo lo discuto. La Justicia podría disponer de elementos para encuadrarlo dentro de los términos previstos en el artículo 128 del Código Penal, en lo que mal llamamos y mal conocemos como pornografía infantil», afirmó.
Navarro sostuvo que «existe una anomia en la Argentina, el famoso vacío legal». «Lamentablemente tenemos leyes actuales de delitos informáticos que datan del año 2008, cuando la inteligencia artificial está en pleno auge», remarcó. A esto, consideró, se suma una falta de articulación entre las escuelas y las familias.
«El mejor ejemplo es el bullying: históricamente había que trabajar desde la comunidad educativa, porque a vos no te cargaban en tu casa, te cargaban en el colegio. Hoy esa violencia se impregna en la identidad digital de la persona y no solamente es víctima en la escuela, sino también en la casa», explicó.
La importancia de concientizar: «Detrás de una deep fake hay una persona que se reconoce»
El abogado reconoció que «es bastante utópico pensar en una alternativa o solución» porque se trata de un problema «verdaderamente complejo». «Sí creo que hay que profundizar en la toma de conciencia del impacto de esto; si no, seguimos alimentando la pedagogía de la crueldad. Hay que empezar a pensar que detrás de una deep fake, por más que no sea ella, hay una persona que se reconoce», analizó.
Para Navarro, esto se enmarca en un «desconocimiento generalizado de la significancia de Internet». «Nos seguimos reconociendo como en una dualidad entre un mundo físico y un mundo digital, cuando hoy esa falacia de los dos mundos ya debemos enjuagarla y empezar a pensar en diferentes representaciones que tienen similares impactos», consideró.
«Es un tema más de fondo que no lo vamos a resolver con tecnología sino con políticas públicas, más educación, más normativa, más compromiso de las empresas. Es un universo de actores que nos tenemos que poner de acuerdo para pensar en el interés superior, que es resguardar la integridad sexual de las niñas, niños y adolescentes, y a partir de ahí ejecutar acciones», concluyó.