La batalla legal contra las imágenes falsas creadas con inteligencia artificial
Hoy es más fácil que nunca falsificar imágenes y videos. Pero ciertos activistas confían en que nuevas normas puedan crear un modelo para controlar la inteligencia artificial.
Omny Miranda Martone no se sorprendió cuando hace un año empezaron a aparecer en redes sociales imágenes y videos generados por computadora que mostraban su cuerpo desnudo.
Fundador no binario de la Asociación para la Prevención de la Violencia Sexual, con sede en Washington, Martone había dedicado el año anterior a trabajar con personas que habían sufrido abusos con la distribución no permitida de imágenes íntimas, fenómeno más conocido como "pornografía ultrafalsa". Por lo tanto, el impacto verdadero no estaba en las fotos y las imágenes mismas, aunque su realismo era alarmante. Estaba en la sensación de impotencia.
"Todo el conocimiento que tengo en este campo, mi experiencia en derecho y políticas, y todas las conexiones que tengo por trabajar en el sector...no me ayudaron para actuar", recuerda Martone.
En Estados Unidos no existe un mecanismo federal que exija a páginas o plataformas de redes sociales la eliminación de falsificaciones explícitas no consensuadas y denunciadas por las víctimas. Tampoco es delito federal la creación y distribución de esas imágenes, y las víctimas no cuentan con procedimientos civiles específicos más allá de las costosas y a menudo inaccesibles demandas por difamación.
Por todo el mundo existen leyes desperdigadas sobre la falsificación explícita que en gran medida siguen sin ser probadas. Algunas jurisdicciones se concentraron en las personas, mientras que otras ponen el énfasis en las plataformas tecnológicas. Otras promueven acciones civiles, en tanto también se están redactando leyes penales.
Los gobiernos discrepan, además, en cuanto a cuáles aspectos del proceso de falsificación deberían considerarse delitos. En Australia y el Reino Unido, por ejemplo, hasta ahora se ha penado la acción de compartir falsificaciones explícitas no consensuadas, pero no su creación. Por otro lado, Corea del Sur considera delito la producción, distribución o incluso la visualización de pornografía ultrafalsa.
La Ley de Seguridad en la Red, aprobada en el Reino Unido en octubre de 2023, proscribe la divulgación de falsificaciones pornográficas no consentidas. En abril de 2024 el gobierno conservador anunció planes para también sancionar su producción, aunque el proyecto no se convirtió en ley antes de las elecciones de julio. El partido Laborista ha prometido adoptar una norma similar, pero activistas del sector se decepcionaron cuando el tema no apareció en el Discurso del Rey, el proceso mediante el cual el gobierno británico establece sus prioridades legislativas.
En Italia, luego de la aparición en la red de videos explícitos de Giorgia Meloni, la propia primera ministra demandó el pago de 100.000 euros por difamación. "Reaccioné de este modo para proteger a las mujeres", declaró ante la Justicia.
La entidad sin fines de lucro de Martone trabaja en un proyecto que habilitará a las personas a presentar acciones civiles contra todo el que comparta, a sabiendas, falsificaciones sexuales explícitas no consentidas. Esta Ley de Rebeldía es bipartidaria; tuvo el apoyo de figuras de la izquierda demócrata, como Alexandria Ocasio-Cortez, de quien circuló pornografía ultrafalsa, y del aliado de Trump, Lindsey Graham.
Fue al presentarse este proyecto en el Senado que una cuenta anónima empezó a subir a X imágenes explícitas falsas de Martone. "Al promover este tema yo mismo me convertí en víctima", protesta.
Legisladores, investigadores y activistas advierten que los rápidos avances en inteligencia artificial generativa provocaron un aumento en el abuso con imágenes falsificadas. Hasta hace poco crear esas falsificaciones exigía mucho tiempo, gran potencia informática y conocimiento técnico, y la mayoría le apuntaba a famosos o figuras públicas.
Pero los avances en la tecnología facilitaron y abarataron la generación de imágenes y videos artificiales ultrarrealistas. Lo que se vio acelerado por una serie de aplicaciones o páginas que trabajan con IA, en los que sólo se precisa de una simple foto para crear videos creíbles.
En septiembre pasado hubo unos 32 millones de visitas en todo el mundo a sitios que "desnudan" o "desvisten" personas, indican cifras que la compañía de análisis de redes sociales Graphika compartió con el Financial Times.
"El desarrollo de la IA generativa permite que cualquiera pueda producir contenido abusivo sobre cualquier otro", advierte Sophie Compton, cofundadora del grupo #MyimagenMyChoice del Reino Unido.
La mayoría de estos sitios no tienen procesos de verificación de edades ya sea para los creadores de las imágenes o los incluidos en ellas, lo que significa que pueden emplearse para producir imágenes sexuales abusivas de niños además de ultrafalsificaciones no consensuadas de adultos. Algunos sitios también cuentan con la opción de mostrar a las personas más jóvenes de lo que son, comentan en Graphika.
En escuelas de muchos lugares, del Reino Unido a Corea del Sur, se denuncia que los niños tienen cada vez mayor acceso a estas herramientas. En un caso reciente en el estado australiano de Victoria, un muchacho supuestamente usó la IA para alterar imágenes tomadas de las redes sociales y producir imágenes explícitas de unas 50 alumnas.
"Esto es parte de la cuestión más general con la IA -apunta Jack Stubbs, encargado de inteligencia en Graphika-. La tecnología consiste en amplificar procesos que ya existen".
En efecto, las imágenes explícitas hace tiempo que están en la avanzada de la innovación digital: a la pornografía se le atribuye de todo, desde impulsar la adopción de las cintas de VHS en los años ‘80 a inspirar la creación de los sistemas de pago online a fines de los ‘90. Y las leyes tratan de recuperar terreno. La temprana censura en Internet se concentró en restringir el acceso a contenido adulto. Al crecer el conocimiento -y la ansiedad- sobre la IA, los políticos empezaron a escuchar las exhortaciones de los activistas para crear marcos legales y regulatorios.
Pero hasta ahora existe poco acuerdo respecto de la mejor manera de avanzar. También hay dudas crecientes en cuanto a si será posible imponer un cumplimiento efectivo, en vista de la rapidez con que se está desarrollando la IA.
Autor: Eliot Higgins/Twitter
"No se me ocurre otro tema tecnológico en el que haya tanta coincidencia de los dos partidos, y aun así no contamos con ninguna norma significativa", se queja Max Tegmark, presidente del Instituto de la Vida Futura, una ONG que hace campañas en favor de regular la IA.
Pero si pudiera redactarse de manera correcta, algunos analistas afirman que la legislación podría aportar un modelo acerca de cómo vigilar otros abusos con la IA avanzada, como publicidad fraudulenta, estafas con clonación de voz y desinformación, o incluso con la IA en general. También podría significar una prueba temprana de cómo los tribunales sopesan la prueba en un tiempo de engaño digital refinado y fácilmente accesible.
Hallar límites para las ultrafalsificaciones podría ser a la vez instructivo y complicado, sugiere Henry Ajder, investigador en IA y asesor de firmas tecnológicas como Meta. "¿Cómo demonios tratarán los sistemas judiciales las pruebas digitales en la era de la IA?", pregunta Ajder.
La streamer estadounidense "Gibi", que tiene unos 5 millones de suscriptores en YouTube, ha sido blanco de falsificaciones gráficas desde 2018. Pero aclara que en el último año aumentaron rápidamente en realismo y volumen. "Al principio era un poco divertido y podrías dejarlo pasar -señala-. Ahora es mucho más grave".
Aunque afirma conocer el nombre y la ubicación de una de las personas que creó esas falsificaciones, dispone de pocas vías legales para exigir indemnizaciones, en tanto sigue esperando que el Congreso apruebe la Ley de Rebeldía.
El proyecto, que en julio tuvo la aprobación unánime del Senado, concederá a las víctimas identificables de falsificaciones explícitas el derecho a demandar a las personas que "a sabiendas las produzcan, distribuyan o reciban".
Algunos estudios demuestran de manera constante que las mujeres son el blanco desproporcionado de esos engaños. Un informe del año pasado de la start-up tecnológica Security Hero indica que alrededor del 90 por ciento de los videos falsos en Internet son pornográficos, y más del 99 por ciento de ellos muestran a mujeres.
Norma Buster, directora de personal en el estudio legal CA Goldberg de Brooklyn, dice que las mujeres suelen ser atacadas como forma de venganza por haber rechazado avances no deseados, o por haberse manifestado acerca de algún tema. "Son delitos pensados para avergonzar y callar a las víctimas", agrega.
Autor: Reddit Midjourney
Otro proyecto de ley sobre la mesa en Estados Unidos es la Ley Escudo, que adoptaría sanciones penales para quienes compartan imágenes íntimas, sexualmente explícitas o de desnudos sin el consentimiento de la persona, incluso si fueran artificiales. Ya fue aprobado por el Senado pero sigue en consideración en la Comisión de Justicia de la Cámara Baja.
Los dos proyectos se concentran en los autores específicos antes que en las herramientas de IA o las plataformas utilizadas para distribuirlas. El motivo es la Sección 230 de la Ley de Decencia en las Comunicaciones (de 1996), un temprano intento por regular Internet. En ella se establece que las plataformas que albergan contenidos de terceros no son responsables de lo que los usuarios deciden publicar.
Sus defensores sostienen que la Sección 230 es esencial para la libertad de expresión y la innovación, mientras que los críticos replican que promueve una inadecuada supervisión de contenidos. "La Sección 230 es la auténtica barrera para lograr cambios", protesta Buster.
En contraste la UE adoptó medidas severas respecto de la seguridad online y la IA que ponen la carga sobre las compañías tecnológicas. Esta legislación, que ha merecido críticas feroces de la industria, demanda a las plataformas que verifiquen que sus modelos de IA tienen protecciones y no podrán manipularse para generar contenidos explícitos no consensuados.
Otras normas en la UE ya exigen que las compañías de redes sociales eliminen rápidamente material íntimo no consensuado que hayan subido los usuarios. En otros países, como Australia o el estado canadiense de Columbia Británica, se han impuesto similares marcos civiles que castigan a las plataformas que no cumplen.
En lo que se refiere a la legislación penal, los países también adoptaron métodos por remiendos. Estados Unidos no aprobó ninguna ley penal federal referida a las ultrafalsas explícitas, y deja que sean los estados los que busquen soluciones. Dakota del Sur amplió su definición del material que constituye abuso sexual infantil para incluir específicamente las ultrafalsas; su vecino, Dakota del Norte, no hizo lo mismo.
Los fiscales se esfuerzan por determinar la manera en que las imágenes ultrafalsas más nuevas se corresponden con las leyes existentes, en especial en lo referido al abuso infantil. En un caso reciente en el Reino Unido, un hombre fue condenado a 18 años en prisión luego de declararse culpable de 16 delitos sexuales, incluso la utilización de IA para crear imágenes de abusos sexuales infantiles, que había producido a medida de las especificaciones de los clientes.
Para la fiscal especializada Jeanette Smith la parte más complicada del caso fue precisar cómo clasificar las imágenes en cuestión, que fueron producidas con programas de fabricación estadounidense y no se veían como fotos reales. De todos modos, el equipo de Smith alegó con éxito que podrían ser calificadas de "fotos indecentes" -la categoría más grave- porque derivaban de imágenes de niños reales.
Dicho caso fue el primero en su tipo en el Reino Unido, pero Smith cree que se verán más en tanto avance la IA. Su temor es que esas causas se tornen más complicadas de investigar "debido a que se borrará la línea entre los que es generado o lo que es una foto".
"Va a ser muy difícil determinar si algo es real o no", agrega, Hayley Brady, socio en el estudio legal británico Herbert Smith Freehills.
Frente a ese marco legal fragmentado, las grandes tecnológicas han seguido vigilándose solas. Los activistas acumulan frustración ante lo que perciben como inacción de parte de las plataformas respecto al contenido dañino.
Otros, en cambio, son optimistas acerca de que los escándalos recientes que implicaron falsificaciones de figuras famosas puedan generar cambios. Cuando en enero de 2024 circularon por X falsificaciones de Taylor Swift -una imagen fue vista 47 millones de veces antes de que la eliminaran-, el director ejecutivo de Microsoft, Satya Nadella, opinó que el "terrible" episodio mostraba que las grandes tecnológicas debían actuar. "Sin dudas ha comenzado la conversación", añade Compton, de #MyImageMyChoice.
Este año el sitio de código de Microsoft GitHub eliminó varios archivos de códigos de fuentes abiertas que se habían usado para crear falsificaciones explícitas, además de links a sitios que albergan pornografía ultrafalsa. GitHub no respondió pedidos de comentarios.
Mientras tanto, en julio, Google declaró que modificará su motor de búsqueda para facilitar que las víctimas de abusos con imágenes íntimas puedan eliminar de Internet fotos y videos, además de bajar la calificación a los sitios que reciban pedidos de eliminación.
Sin embargo, no ha llegado al extremo de eliminar de plano los sitios ultrafalsos de los resultados de las búsquedas, una medida que hace tiempo reclaman grupos activistas como #MyImagenMyChoice. El argumento de Google es que la eliminación completa de los sitios impedirá que las víctimas accedan a información importante, del estilo de cómo solicitar que se eliminen contenidos.
Otros sostienen que se precisan normas claras de parte de los gobiernos acerca de lo que es aceptable, y cómo vigilar las plataformas. "En realidad los gobiernos son los únicos que pueden actuar (contra) lo que en esencia es una forma muy dañina de acoso", dice Risa Stein, VP a cargo de experiencia de clientes en la app de citas Bumble, que integra el grupo de trabajo sobre abusos con imágenes íntimas no consensuadas del Centro para la Democracia y la Tecnología.
Como la IA permite que la gente produzca videos, imágenes y audios que son por completo artificiales pero plausibles, surgen enormes complicaciones, señala el investigador Nicola Henry, miembro del consejo asesor del Comisionado en Seguridad electrónica de Australia. "¿Quién decide cuán realista es algo?, pregunta.
Por otro lado, aun si los motores de búsqueda, las plataformas de redes sociales y las tecnológicas toman acciones contra las ultrafalsas explícitas, eso podría no ser suficiente. Muchas imágenes y videos se generan usando sistemas adaptados de fuentes abiertas y se diseminan a través de plataformas encriptadas de punta a punta, como Telegram, donde no pueden ser rastreadas.
El abogado de San Francisco, David Chiu, es consciente de esa dificultades. De todos modos, es optimista respecto de la acción que emprendió contra 16 de las apps que más se utilizan para "desvestir" personas.
La demanda elevada en agosto en nombre de los habitantes de California, sostiene que esos sitios infringieron leyes del estado contra las prácticas empresarias fraudulentas, pornografía no consensuada y abuso sexual infantil.
Cuando previamente los gobiernos y las plataformas tecnológicas trataron de bloquear o eliminar determinados sitios, por lo general reaparecían a los pocos días con nombres de dominio modificados. Pero Chiu pretende usar su demanda pionera en su tipo para "dar el ejemplo", tanto para los sitios mismos cuanto para las plataformas de pago y los motores de búsqueda que les permiten conseguir ganancias.
"Hay otros proveedores tecnológicos que facilitan esto y sacan réditos, ya sea que se lo propongan o no -advierte Chiu-. Queremos dar un mensaje muy fuerte a todos los implicados".
Muchos activistas admiten que será imposible impedir del todo que la gente produzca falsificaciones no consensuadas. Aun así, confían en que la legislación podría obligar a las plataformas tecnológicas a dificultar el acceso, la publicidad y la monetización de tales productos. "Si tan solo pudiéramos elevar la barrera de ingreso, lograríamos hacer una gran diferencia", comentó Martone.
Ello podría tener consecuencias por fuera del abuso de imágenes íntimas. Las mismas tecnologías que se emplean para crear imágenes ultrafalsas explícitas, también se utilizan para las estafas más refinadas, como los engaños que clonan la voz de una persona a partir de una tecnología ampliamente disponible.
La esperanza de los activistas es que la legislación, por más defectuosa o experimental que sea, conseguirá al menos que la gente se tome más en serio las imágenes ultrafalsas.
Las más leídas de Apertura
Las más leídas de Negocios
Members
Cuál es el precio del dólar oficial y de los dólares financieros CCL y MEP.
Toda la información que necesitas sobre cómo sigue la semana en los mercados.
Bonos, acciones, riesgo país, Cedears, plazos fijos.