A Activision está farta de jogadores tóxicos de Call of Duty – Call of Duty: Modern Warfare 3 (2023)

Marcia Pereira

Não é a primeira vez que vemos a Activision a debater-se com este tipo de situações. O toxicidade é um mal que todos os jogadores enfrentam, especialmente se jogam títulos Call of Duty. A empresa americana quer acabar com este comportamento e propôs uma medida que já está disponível em algumas regiões e que fará a sua estreia em Modern Warfare 3.

Conforme relatado por Gamesindustry.biz, a Activision fará uso do inteligência artificial para expulsar jogadores que insultem. O objetivo é reduzir o “discurso de ódio, a linguagem discriminatória, o assédio, etc.” do chat de voz multijogador do Call of Duty. Este sistema chama-se ToxMod e destina-se a detetar em tempo real palavras-chave O sítio Web oficial confirma que envia “denúncias de comportamentos tóxicos”.

No entanto, caberá à Activision determinar “como irá aplicar a violações de moderação do canal de voz”. Estas medidas serão aplicadas “para efeitos de moderação”. No caso de não querer ser gravado, a proposta dos criadores é muito simples: “Os jogadores que não desejem que a sua voz seja moderada podem desativar a conversação por voz no jogo, no menu de definições”.

Quando é que este movimento da Activision chegará aos jogos Call of Duty?

Atualmente ToxMod já foi implementado nos Estados Unidos e está disponível em Modern Warfare 2 e Warzone. O Gamesradar garantiu que a moderação está apenas em inglês, mas que mais idiomas serão disponibilizados no futuro. Por último, mas não menos importante, o 10 de novembro vai estrear-se a nível mundial com o lançamento de Modern Warfare 3.

Em Alerta Acre | Os melhores atiradores que você pode jogar em 2023

Em Alerta Acre | Modern Warfare 3 já alcançou algo que eu não vi em Call of Duty por 10 anos. Ele deixou os jogadores animados.

Deixe um comentário