Activision, la empresa desarrolladora de Call of Duty, ha anunciado la implementación de un nuevo sistema de moderación de chat de voz en tiempo real que utilizará inteligencia artificial para combatir la toxicidad en el juego. La herramienta se llama ToxMod y ha sido desarrollada por la empresa Modulate.
ToxMod funciona clasificando y procesando los datos de un chat de voz para determinar si la conversación requiere atención. Utiliza modelos de aprendizaje automático para analizar el tono, contexto y la emoción percibida con el fin de distinguir entre una broma y una conducta abusiva. Además, es capaz de comprender hasta 18 idiomas, incluido el español, lo que permitirá detectar insultos racistas en diferentes lenguajes.
Sin embargo, es importante mencionar que la inteligencia artificial no es infalible y que ToxMod no solucionará por completo el comportamiento abusivo en el juego. Esta herramienta se integrará en un sistema de moderación que incluye filtrado de texto y la posibilidad de reportar a jugadores que no cumplan las reglas. La decisión final de sancionar a los jugadores quedará en manos del equipo antitoxicidad.
La primera beta de ToxMod comenzará hoy con la integración en Call of Duty: Modern Warfare II y Call of Duty: Warzone en Norteamérica, y posteriormente se ampliará a todo el público con el lanzamiento de Call of Duty: Modern Warfare III el 10 de noviembre. La moderación inicialmente se realizará en inglés, pero se agregarán más idiomas, incluido el español, en una fecha posterior.
Esta iniciativa de Activision demuestra su compromiso por crear un entorno de juego más seguro y respetuoso para todos los jugadores, promoviendo la erradicación de comportamientos tóxicos y abusivos en Call of Duty.
Fuentes:
– Fuente original no proporcionada
– https://hipertextual.com/2022/09/call-of-duty-inteligencia-artificial-toxicidad