2023-09-02 02:43:34
Puntos destacados:
- 🎮 Los videojuegos de disparos en primera persona, como Call of Duty, son conocidos por su toxicidad en las conversaciones de voz y los chats.
- 🤖 Activision está utilizando inteligencia artificial para combatir el discurso de odio y la discriminación en tiempo real en sus juegos.
- 🌍 El sistema de moderación de chat por voz de IA, llamado ToxMod, comenzará su prueba beta en América del Norte y se lanzará a nivel mundial el 10 de noviembre.
Los videojuegos de disparos en primera persona, como Call of Duty, son conocidos por su toxicidad en las conversaciones de voz y los chats. Surveys have dubbed the franchise’s fan base the most negative in all of gaming; a feud between two players once resulted in the summoning of a SWAT team. Activision ha estado tratando de combatir este comportamiento durante años y parte de la solución podría involucrar la inteligencia artificial.
Activision se ha asociado con una compañía llamada Modulate para llevar la «moderación de chat por voz en el juego» a sus títulos. El nuevo sistema de moderación, utilizando una tecnología de IA llamada ToxMod, funcionará para identificar comportamientos como el discurso de odio, la discriminación y el acoso en tiempo real.
La implementación beta inicial de ToxMod en América del Norte comienza hoy. Está activo en Call of Duty: Modern Warfare II y Call of Duty: Warzone. Un «lanzamiento mundial completo» (que no incluye Asia, según la nota de prensa) seguirá el 10 de noviembre con el lanzamiento de Call of Duty: Modern Warfare III, la nueva entrega de este año en la franquicia.
La nota de prensa de Modulate no incluye demasiados detalles sobre cómo funciona exactamente ToxMod. Su sitio web señala que la herramienta «clasifica el chat de voz para señalar comportamientos inapropiados, analiza los matices de cada conversación para determinar la toxicidad y permite a los moderadores responder rápidamente a cada incidente proporcionando contexto relevante y preciso.» El CEO de la compañía dijo en una entrevista reciente que la herramienta tiene como objetivo ir más allá de la mera transcripción; también tiene en cuenta factores como las emociones y el volumen de los jugadores para diferenciar entre afirmaciones perjudiciales y bromas.