Una crisis de desnudos falsos generados por IA sacude a Corea del Sur: “Cualquiera puede ser víctima”
Las imágenes, que según las autoridades del país asiático se difundían por grupos de Telegram, eran elaboradas a partir de fotos reales y transformadas en contenido sexual explícito
Telegram, una plataforma de mensajería utilizada para distribuir estas imágenes, ha sido central en la difusión de contenido manipulado digitalmente sin el consentimiento de las personas afectadas. Las víctimas incluyen profesores, oficiales militares, estudiantes universitarios y alumnos de primaria.
Yoon Suk Yeol, presidente de Corea del Sur, calificó estos actos como “delitos claros que explotan la tecnología bajo el escudo del anonimato”, subrayando que “cualquiera puede ser una víctima”. Este fenómeno ha situado a Corea del Sur como uno de los principales países donde se origina cerca del 50% de este tipo de contenidos a nivel mundial, según informes de investigadores.
El Ministerio de Educación está revisando el castigo máximo para los adolescentes involucrados en la creación de estas imágenes, ya que las protecciones actuales en Corea del Sur no han logrado mantenerse al día con las amenazas que representan los contenidos sexualizados generados por inteligencia artificial. Los legisladores están trabajando para cerrar vacíos legales y extender las penas más allá de quienes intencionalmente difunden este contenido ilícito.
La red de Telegram operaba a través de chats organizados por nombre de escuela o región, facilitando la identificación de conocidos entre los usuarios. Para acceder a estos grupos, algunos participantes debían proporcionar fotos de una mujer, generalmente extraídas de las cuentas de redes sociales de sus compañeras, según autoridades y activistas.
La comunicación en estos chats se realizaba casi exclusivamente en coreano, lo que sugiere que la mayoría de los miembros eran locales, informó el WSJ.
A principios de este mes, una investigación policial reveló la existencia de un grupo de Telegram con aproximadamente 1.200 miembros activos desde el año 2020 en una universidad surcoreana. En este grupo, además de compartir imágenes manipuladas, también distribuían información personal de las víctimas, como números de teléfono, direcciones y números de identificación estudiantil.
Voluntarios que han estado revisando los chats de Telegram estiman que unos 500 centros educativos, desde universidades hasta escuelas primarias, podrían haber sido afectados. Un sitio web que ofrece una lista de las escuelas involucradas ha acumulado alrededor de tres millones de visitas desde su lanzamiento.
La captura de Pavel Durov
Aunque se inició una represión contra las imágenes pornográficas falsificadas en Telegram, esta acción ha llegado en un contexto de preocupación internacional.
Días antes del anuncio surcoreano, las autoridades francesas detuvieron a Pavel Durov, fundador y director ejecutivo de Telegram, en relación con una investigación sobre la facilitación del crimen en línea a través de la plataforma, incluyendo la distribución de pornografía infantil.
En respuesta a la investigación surcoreana, un representante de Telegram declaró que la compañía elimina millones de contenidos dañinos cada día mediante moderación, herramientas de inteligencia artificial e informes de usuarios.
No es un problema reciente
El panorama no se limita solo a Corea del Sur. Según datos de 2023 de la empresa de prevención de fraude de identidad Security Hero, alrededor del 50% de las personas presentadas en pornografía profunda en línea son cantantes y actrices surcoreanas, analizando cerca de 100.000 videos distribuidos en más de 100 sitios web.
Las mujeres surcoreanas han estado en riesgo elevado de aparición no consentida de sus imágenes sexuales en línea durante años. Las autoridades municipales inspeccionan los baños públicos para detectar cámaras ocultas, y celebridades han sido acusadas de difundir grabaciones obtenidas ilegalmente.
Este año, más de 6.000 surcoreanos han solicitado la eliminación de imágenes pornográficas falsas creadas sin su consentimiento, según datos regulatorios estatales hasta julio, que se acercan ya al total anual del año pasado de aproximadamente 7.000 solicitudes.
De las cerca de 300 personas acusadas de crear y distribuir imágenes pornográficas falsificadas desde principios de 2023, aproximadamente el 70% eran adolescentes, según la Agencia Nacional de Policía de Corea.
La Federación Coreana de Sindicatos de Profesores sugirió en una declaración reciente que la responsabilidad de reportar e investigar estos casos ha caído mayormente sobre las escuelas. Recomendó establecer un mecanismo federal para identificar a los perpetradores.
La situación ha llevado a muchos estudiantes a hacer sus cuentas privadas o eliminar las fotos que habían publicado en línea antes de que surja una respuesta adecuada o se penalice a los responsables.