Dos casos recientes han mostrado la falta de regulación en la manera en que se usan las imágenes creadas con Inteligencia Artificial y que se utilizan como mercancías que implican ciertos delitos relacionados con violencia de género o contra la intimidad sexual, aunque por sí misma el uso de esta tecnología no está penado.

Primero, tenemos el caso de Diego “N”, un incidente de violencia digital en el IPN, en el cual se le acusó de manipular más de 166 mil fotografías y videos de sus compañeras para venderlas como contenido pornográfico. El juez absolvió al inculpado al argumentar que no se podía probar la autoría de dicho material.

Segundo, el caso de Hugh Nelson mostró que la ley puede proceder en contra de quienes, como él, transformaban fotografías normales de niños en imágenes de abuso sexual infantil, que luego vendía y distribuía en línea. Fue condenado a 18 años de prisión; fue un caso pionero en el Reino Unido, resaltando los desafíos legales y tecnológicos en el combate del abuso infantil digital mediante el uso de esta tecnología.

En nuestro país, normas como la Ley Olimpia intentan abordar estos delitos, pero enfrenta desafíos en la recolección de pruebas y en la aplicación de la justicia, y recientemente la diputada de Morena Cecilia Vadillo presentó una iniciativa que contempla el uso de IA en el delito contra la intimidad sexual.

Así que hay un largo camino en materia legal para enfrentar esta problemática derivada de un avance tecnológico y el mal uso que del mismo hacen algunas personas.