Call of Duty y la IA contra la toxicidad

Call of Duty y la IA contra la toxicidad

31/08/2023 Desactivado Por Gustavo Iky Robles

Call of Duty contará con herramientas basadas en Inteligencia artificial para monitorear sus chat de voz con el fin de combatir a los jugadores tóxicos.

La toxicidad es un problema grave en la industria de los videojuegos. En títulos multijugador como Call of Duty, es común encontrarse a jugadores constantemente hacen comentarios ofensivos y discriminatorios de manera malintencionada. Consciente de esta situación preocupante, Activision Blizzard decidió tomar medidas más enérgicas para conseguir un entorno seguro a la hora de disfrutar los juegos de su franquicia más recaudadora. Call of Duty, y planea hacer uso de inteligencias artificiales para conseguirlo.

El año pasado, la franquicia revisó su código de conducta y presentó los nuevos lineamientos que los jugadores van a tener que obedecer para evitar sanciones. Como primera medida, comenzó a restringir y desactivar canales de comunicación en CoD: Modern Warfare II y CoD: Warzone 2.0 para aquellos usuarios que emitieran comentarios ofensivos y se los acusara de actitudes tóxicas.

De acuerdo con Activision, estas acciones resultaron ya en la restricción de más de 1 millón de cuentas. Ahora, la compañía introducirá un nuevo sistema para fortalecer estos esfuerzos contra la toxicidad.

https://www.youtube.com/watch?v=CEeVm-dGVKQ

A través de una colaboración con Modulate, la empresa ha anunciado en un blog que implementará el ToxMod, una tecnología de moderación de chat de voz que opera a través de la inteligencia artificial. El propósito es identificar el discurso tóxico en tiempo real para combatir mensajes de odio, lenguaje discriminatorio, acoso y más. Este sistema será introducido en estado de Beta el próximo 30 de agosto en Norteamérica, en Call of Duty: Modern Warfare II y Call of Duty: Warzone. Su lanzamiento global está programado para el 10 de noviembre, momento en que también será integrado en Call of Duty: Modern Warfare III.

También pueden leer – Ara: History Untold y la revolución de los juegos de estrategia

En su fase inicial, el sistema va a ser compatible únicamente con el inglés, aunque se planea su expansión para abarcar otros idiomas en el futuro. Aunque esta innovadora tecnología de inteligencia artificial va a permitir detectar discursos problemáticos en tiempo real, puede que en algunas situaciones sea necesario llevar a cabo una revisión adicional para comprender el contexto y tomar las medidas pertinentes. «A medida que el sistema crezca, nuestros procesos y tiempos de respuesta evolucionarán«, afirmó la compañía.

Dentro de su Código de Conducta, Activision subraya que se permite el uso de bromas amigables, pero insiste en que no tolerará discursos de odio, discriminación, sexismo y otras formas de lenguaje perjudicial. Además, destacó que el chat de voz solo se graba “con el propósito expreso de moderación”.

“Nunca hay lugar para comportamientos disruptivos o acoso en los juegos. Abordar el chat de voz tóxico en particular es un gran desafío en los juegos desde hace mucho tiempo”, comentó Michael Vance, director de tecnología de la compañía.

¿Qué opinan sobre estas medidas? ¿Les parece que esta tecnología de moderación va a ser efectiva para combatir la toxicidad en los juegos? Los leemos en los comentarios!