Una madre y su hija de 14 años piden más protecciones para las víctimas de imágenes de desnudos generadas por inteligencia artificial después de que dichas imágenes de la joven y otras de sus compañeras circularan en una secundaria en Nueva Jersey.
Por Clarín
Mientras tanto, en el otro lado del país, funcionarios investigan un incidente que involucra a un adolescente que presuntamente utilizó inteligencia artificial para crear y distribuir imágenes similares de otras estudiantes, también adolescentes, de una secundaria en los suburbios de Seattle, Washington.
Los casos perturbadores una vez más han arrojado luz sobre el material explícito de inteligencia artificial generativa que de forma abrumadora afecta a mujeres y menores y está proliferando en línea a un ritmo sin precedentes. Según un análisis de la investigadora independiente Genevieve Oh al que tuvo acceso la agencia de noticias The Associated Press (AP), más de 143.000 nuevos videos manipulados digitalmente fueron publicados en línea este año, lo que supera todos los años anteriores combinados.
Desesperadas por una solución, las familias afectadas presionan a los legisladores para que implementen salvaguardas sólidas para las víctimas, cuyas imágenes son manipuladas usando nuevos modelos de IA o la plétora de aplicaciones y sitios web que abiertamente publicitan sus servicios. Los defensores y algunos expertos legales también piden regulaciones federales que puedan proporcionar protecciones uniformes en todo el país y que envíen un fuerte mensaje a los actuales y futuros perpetradores.
“Luchamos por nuestros hijos”, dijo Dorota Mani, cuya hija fue una de las víctimas de Westfield, un suburbio de Nueva Jersey en las afueras de la ciudad de Nueva York. “No son republicanos y no son demócratas. No les importa. Sólo quieren ser queridos y quieren estar protegidos”.
El problema de los videos deepfake no es nuevo, pero los expertos afirman que empeora conforme la tecnología para producirlos está más disponible y es más fácil de usar. Este año, los investigadores han advertido sobre la explosión del material de abuso sexual infantil producido con IA generativa que usa representaciones de víctimas reales o personajes virtuales. En junio, el FBI advirtió que seguía recibiendo reportes de víctimas, tanto menores como adultos, cuyas fotografías o videos eran usados para crear contenido explícito que era compartido en línea.
Varios estados han aprobado sus propias leyes a lo largo de los años para intentar combatir el problema, pero su alcance es variado. Texas, Minnesota y Nueva York aprobaron una ley este año que criminaliza la pornografía deepfake no consensuada, sumándose a Virginia, Georgia y Hawái que ya contaban con leyes aprobadas. Algunos estados, como California e Illinois, sólo han otorgado a las víctimas la posibilidad de demandar a los agresores por daños y perjuicios en una corte civil, algo que también permiten Nueva York y Minnesota.
Lea más en Clarín