2024-09-20 – Exploramos las iniciativas de Microsoft para combatir el abuso de imágenes íntimas no consensuadas, el papel de la inteligencia artificial y las colaboraciones en curso para proteger a las víctimas.
Desde el año 2015, Microsoft ha sido consciente de las graves repercusiones que tiene compartir imágenes íntimas de una persona en línea sin su consentimiento. Esta problemática se ha intensificado con el tiempo, a medida que las tecnologías han permitido la creación de imágenes sintéticas cada vez más realistas, también conocidas como «deepfakes». La combinación de estos avances tecnológicos con la proliferación de contenido generado por inteligencia artificial está exacerbando significativamente el daño causado por este tipo de abusos.
Microsoft y la lucha contra el abuso de imágenes íntimas no consensuadas: Impacto de la inteligencia artificial en el abuso de imágenes
El auge de la inteligencia artificial generativa ha traído consigo nuevos desafíos, dado que se ha observado un aumento en el contenido abusivo generado mediante IA. Este tipo de abuso afecta de manera desproporcionada a mujeres y niñas, siendo utilizado para avergonzar, acosar y extorsionar, no solo a candidatas políticas, sino también a individuos privados, incluidos adolescentes. Las consecuencias de la difusión de estas imágenes, sean reales o sintéticas, son profundas y no se limitan a un solo evento, sino que tienen repercusiones continuas en el ecosistema digital.
En respuesta a esta situación, Microsoft ha propuesto una serie de sugerencias políticas destinadas a proteger a los ciudadanos estadounidenses de los deepfakes abusivos, centrándose especialmente en la protección de mujeres y niños frente a la explotación en línea.
Colaboración con StopNCII para la detección proactiva
Uno de los pasos más significativos ha sido el anuncio de una asociación con StopNCII para desarrollar un enfoque centrado en la víctima que mejore la detección de contenido no consensuado en Bing, el motor de búsqueda de Microsoft. StopNCII es una plataforma gestionada por SWGfL que permite a las personas crear «hashes» digitales de sus imágenes íntimas, que pueden ser utilizados por diversos socios de la industria para identificar contenido que ha sido compartido sin consentimiento.
Microsoft también ha introducido una nueva funcionalidad llamada PhotoDNA para respaldar estas acciones. Hasta la fecha, se han tomado medidas sobre más de 268,000 imágenes en un esfuerzo por prevenir su aparición en los resultados de búsqueda de imagen en Bing. Se anima a las personas a que reporten cualquier imagen que puedan temer que sea divulgada sin su consentimiento a través del portal de StopNCII.
Políticas de Microsoft contra el contenido íntimo no consensuado
Microsoft se ha comprometido a proteger a sus usuarios de contenidos ilegales y nocivos mientras se respetan los derechos fundamentales. A través de un enfoque que toma en cuenta los riesgos, la empresa ha implementado medidas de seguridad adaptadas a sus diversos servicios. En todos ellos, no se permite la creación o la difusión de imágenes íntimas de cualquier persona sin su consentimiento, lo que incluye contenido fotorealista creado o modificado mediante tecnología.
Adicionalmente, las amenazas de compartir dicho contenido —conocida como extorsión íntima— también están prohibidas. Las políticas de Microsoft se extienden a prohibiciones específicas en su tienda y al código de conducta de sus servicios de inteligencia artificial, el cual explícitamente prohíbe la creación de contenido sexualmente explícito.
Proceso de reporte directo a Microsoft
Las personas que se vean afectadas por la publicación de imágenes íntimas sin su consentimiento pueden solicitar la eliminación de este contenido a través de un portal de reporte centralizado de Microsoft. Este servicio global permite que se remueva el acceso a dicho contenido una vez que ha sido validado que infringe las políticas de no consentimiento.
Microsoft sigue tomando medidas para reducir la visibilidad del contenido de baja calidad en sus búsquedas, y se compromete a elevar fuentes autoritativas en línea.
Colaboración continua y compromiso ante el reto social
La reciente tragedia en torno al abuso de imágenes íntimas sintéticas también ha puesto de manifiesto su impacto en niños y adolescentes. En respuesta, Microsoft ha adoptado principios de seguridad desde el diseño, trabajando con ONGs para mitigar los riesgos de explotación y abuso sexual infantil relacionados con sus servicios de IA.
La empresa ha manifestado su compromiso con la comunidad y con las voces de las víctimas y sobrevivientes, participando en un grupo de trabajo multistakeholder que busca mejorar las prácticas en este ámbito.
Conclusiones y futuras acciones
La intensidad de los abusos relacionados con imágenes íntimas no consensuadas seguirá evolucionando, y Microsoft ha enfatizado la necesidad de adaptar sus enfoques continuamente. La colaboración con entidades como el Centro Nacional para niñ@s Desaparecid@s y Explotad@s es vital para abordar estos problemas de manera efectiva. Finalmente, Microsoft continúa abogando por cambios políticos que disuadan a los perpetradores y que promuevan la justicia y apoyo necesario para las víctimas, manteniendo un enfoque claro en el impacto que esta problemática tiene sobre mujeres y niñas.