La voz clonada del ex presidente llega a cientos de miles de personas en la guerra civil de Sudán

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

2023-10-07 12:44:38

La tecnología de IA permite clonar voces sin esfuerzo, incluidas las de políticos como el ex presidente sudanés Omar al-Bashir, cuyos supuestos mensajes circulan por TikTok en plena guerra civil.

Desde finales de agosto, una cuenta de TikTok ha estado publicando supuestamente «imágenes filtradas» del ex presidente sudanés Omar al-Bashir, que han recibido cientos de miles de visitas durante la guerra civil de Sudán. Sin embargo, una investigación realizada por expertos demuestra que la voz es falsa, producto de una tecnología de clonación de voz basada en IA. Al-Bashir, acusado de crímenes de guerra y derrocado por los militares en 2019, no ha sido visto en público desde hace un año y se cree que está gravemente enfermo.

La campaña de TikTok es un ejemplo del creciente potencial de abuso de técnicas avanzadas de manipulación de audio y vídeo con fines propagandísticos, muchas de las cuales son de libre acceso. Hany Farid, investigador forense digital de la Universidad de California en Berkeley, declaró a la BBC que le preocupaba «la democratización del acceso a sofisticadas tecnologías de manipulación de audio y vídeo», ya que ahora incluso los no profesionales pueden crear fácilmente contenidos falsos.

Los mensajes de IA resultan ser fragmentos de otra persona

Una investigación concluyó que las grabaciones fueron editadas por AI para imitar la voz de al-Bashir en las grabaciones. Al menos cuatro de las grabaciones falsas publicadas resultaron ser extractos de emisiones en directo de un bloguero. Sin embargo, no hay pruebas de que el bloguero participara en la campaña.

La BBC especula con la posibilidad de que la campaña tuviera como objetivo dar a los oyentes la impresión de que el ex líder está implicado en la guerra civil o dar credibilidad a un punto de vista político concreto.

TikTok ha suspendido la cuenta

Los expertos en IA advierten de que la proliferación de contenidos de audio y vídeo falsos difundirá desinformación y podría incitar a disturbios e influir en las elecciones. Mohamed Suliman, investigador del Civic AI Lab de la Northeastern University, añadió que este tipo de grabaciones podría crear un clima en el que se dudara incluso de las grabaciones auténticas.

TikTok suspendió la cuenta en cuestión tras ser alertada por la BBC, alegando que infringía sus políticas relativas a la distribución de «contenidos falsos que puedan causar daños significativos» y al uso de medios sintéticos.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo