Cobardes se valen de la inteligencia artificial para ejercer violencia sexual contra las mujeres

Acosadores extraen fotos de conocidas en redes sociales, usan herramientas de IA para ‘quitarles la ropa’ y envían las imágenes editadas a grupos de ‘nudes’, para exponer y atacar a las víctimas, así como para dañar su imagen

Este artículo es exclusivo para suscriptores (3)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Ingrese a su cuenta para continuar disfrutando de nuestro contenido


Este artículo es exclusivo para suscriptores (2)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Este artículo es exclusivo para suscriptores (1)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Las personas que divulgan fotos íntimas de mujeres sin su consentimiento, ahora llevan su cobardía a otro nivel, pues ya no solo filtran fotos privadas sin autorización, sino que desde hace un tiempo también se valen de la inteligencia artificial (IA) para modificar fotografías de usuarias de redes sociales, ‘quitarles la ropa’ y exponerlas en Internet.

Así le sucedió a la periodista costarricense Johanna Villalobos, a quien, según contó, le agarraron una foto en traje de baño de Instagram y con IA la despojaron de sus prendas poniendo un cuerpo desnudo creado con inteligencia artificial. Ella dijo que se percató de la situación cuando su foto original en la red social comenzó a tener mucha interacción de usuarios. Ahora, agregó, la foto editada circula en grupos de ‘nudes’ (desnudos).

“Me quitaron la ropa. Claramente no soy yo, la inteligencia artificial no puede remplazar a una persona real. Se me ve todo, pero no es mi cuerpo, es mi cara pero no es mi cuerpo (...). Esta foto se la han pasado en grupos de WhatsApp de maes”, relató la comunicadora en su perfil de Twitter. “No soy yo y lo más lamentable de todo es que no puedo hacer nada al respecto”, añadió.

Algo similar le ocurrió a la cantante española Rosalía, a quien, también con herramientas de AI, la despojaron de su parte de arriba del traje de baño en una foto que había subido a su cuenta de Instagram. En este caso, fue otro artista el que publicó la foto editada en sus redes sociales, según él como una gran gracia, pero el reclamo de miles de usuarios fue inmediato.

“El cuerpo de una mujer no es propiedad pública, no es una mercancía para tu estrategia de marketing. Esa foto estaba editada y creaste una falsa narrativa alrededor cuando ni te conozco. Existe algo llamado consentimiento y todos a los que os pareció gracioso o plausible espero de corazón que un día aprendáis que venís de una mujer, que las mujeres somos sagradas y que se nos ha de respetar”, escribió la artista en Twitter, en donde en otro tuit calificó la acción como “violencia”.

Consultado al respecto, el Instituto Nacional de las Mujeres (INAMU) dijo que efectivamente este es otro tipo más de violencia sexual y de género contras las mujeres, el cual lamentablemente no está debidamente regulado en el país. La especialista del departamento de Violencia de Género de la entidad, Kattia Solís Arce, comentó que hace falta un marco legal para este tema.

“Esta es una forma específica de violencia sexual que reproduce condiciones de poder, sometimiento, de violar la intimidad y de utilizar el cuerpo de las mujeres para mantener relaciones de dominación sobre ellas. Todo esto genera impactos muy graves como difamación, violación de intimidad, denigración y un ejercicio de dominio sobre el cuerpo simbólica y gráficamente.

“Hay impactos emocionales y una situación de inseguridad. Es muy grave, se están utilizando plataformas digitales para violentar la libertad y los derechos de las mujeres. Todos tenemos derecho a utilizar las redes sociales para lo que queramos sin que eso signifique que van a utilizar ese material sin mi autorización. Ese es el problema, no las herramientas de IA”, explicó.

Sí se puede hacer algo

El abogado José Adalid Medrano dijo a La Nación que estas situaciones incluso pueden calificar como acoso cibernético, pero que en realidad cuesta mucho que avancen de esta manera en vía judicial. Sin embargo, a su consideración estas prácticas sí podrían encuadrar en un tipo penal informático y por eso se deben analizar con mucho detalle para una eventual legislación.

“Por ejemplo, en un caso donde se desviste a una persona por medios electrónicos tenemos que analizar cuál es la fuente que se utilizó para realizarlo. Si es un documento privado podría configurar el delito de violación de correspondencia de comunicaciones. Si se utilizan las imágenes para suplantar la identidad pues claro que nos encontramos frente a ese delito. Podría lesionarse el honor o inclusive también podríamos encontrarnos frente a un delito de violación de datos personales si logramos probar un beneficio en este tipo de acciones como la divulgación.

“Entonces, no es que necesariamente las víctimas se encuentran desprotegidas, pero lo cierto es que tampoco en todas las circunstancias contamos con todas las herramientas para poder perseguir penalmente estos delitos, muchas de las barreras se encuentran también a nivel probatorio, por lo que las autoridades se encuentran ante una situación compleja”, aseguró.

Sobre esto se pronunció en un sentido similar el penalista Federico Campos, al afirmar que esta práctica sí configura un delito según la legislación costarricense actual, sean o no sean reales las imágenes. “Puede ser parte de una conducta de acoso cibernético (delito de coacción) o de un daño al honor (delito de difamación); así como generar responsabilidad por los daños y perjuicios causados a la persona, sea mediante imágenes reales o creadas con IA”, explicó el jurista.

Aunque se intentó conversar con el Organismo de Investigación Judicial (OIJ) para conocer cómo atiende estos casos y si existen estadísticas sobre denuncias relacionadas a este tema, alegó no tener información al respecto.

El problema no es la IA

La Nación entrevistó a Miguel Mendoza, experto en seguridad informática de la compañía ESET, quien mencionó que en realidad la inteligencia artificial solo vino a agilizar este tipo de ediciones de fotografías en las que le quitan la ropa a las mujeres o colocan sus caras en cuerpos desnudos ajenos, ya que esto antes se realizaba con herramientas como Photoshop.

Sin embargo, explicó que a finales de 2022, con la democratización de la IA generativa, cualquier individuo con acceso a la red puede ahorrarse el tiempo que le tomaría hacer esta edición con un programa de fotografía y simplemente darle la indicación a la inteligencia artificial para que lo realice en cuestión de segundos. Por eso, el problema no es la herramienta, sino ese uso.

“No tenemos la capacidad de medir el crecimiento de esta práctica porque obviamente esto tiene muchas aristas y sobretodo la generación de este tipo de contenidos difícilmente se va a poder controlar. Por eso, la principal forma de minimizar este impacto es la concientización de los usuarios sobre el uso correcto y responsable de las tecnologías de inteligencia artificial.

“Ante la ausencia de legislaciones que permitan controlar el uso de estas herramientas, difícilmente vamos a poder explotar todos los beneficios que nos dan y por el contrario vamos a ver más casos en los que se utilizan de forma negativa. Por eso la importancia de las denuncias, aunque claramente falta un proceso largo para regular todo lo que implica esto”, mencionó.

Mendoza destacó que uno de los principales desafíos es que las leyes que se puedan aprobar siempre irán un paso atrás de las herramientas tecnológicas, porque cuando se popularizan y utilizan de forma masiva, se empieza a ver la necesidad de legislar, pero siempre se irá detrás del desarrollo tecnológico y es una brecha que implica muchos años para romper o incluso alcanzar.

Por eso, aseveró que los mismos creadores de estas herramientas deberían implementar mecanismos para evitar posibles riesgos, porque aunque los sistemas tienen filtros que evitan la comisión de delitos con IA, siempre se pueden evadir dichos controles. Una de las propuestas que compartió es que todas las imágenes modificadas con IA lleven un sello permanente.

No obstante, reconoció que en casos como el de la periodista costarricense Johanna Villalobos o el de la cantante Rosalía, aunque dichas imágenes llevaran una etiqueta de que fueron creadas con IA o incluso si se verificaran con algún escáner de esta tecnología, como los que ya hay en la web, el daño a la imagen ya estaría hecho aunque se sepa que la foto es falsa.

El experto de la firma ESET recalcó que es urgente que los países comiencen a tomarse en serio este tema para empezar a legislar, como el caso de México en donde desde 2014 se aprobó la Ley Olimpia, la cual castiga con penas de hasta seis años de prisión a todo aquel que difunda imágenes íntimas de una persona sin su consentimiento. Lo mismo podría pasar con la IA.

“Algo similar podría ocurrir con la inteligencia artificial. Dependerá de la ley, pero a final de cuentas estamos hablando del mismo contenido sexualizado, porque si alguien lo divulga va a dañar la imagen de la persona, está afectando su reputación y eso ya está penado en algunos países, como este caso de México. Entonces, quizá en los próximos años ya no solo vamos a hablar de contenido legítimo sino también aquel creado con IA y donde finalmente se daña la imagen”, concluyó Mendoza.