A Xbox apresentou o quinto Relatório de Transparência, detalhando avanços na utilização de inteligência artificial (IA) e na participação ativa dos jogadores para combater comportamentos disruptivos na plataforma. Entre as iniciativas, destacam-se ferramentas inovadoras de moderação, aprimoramento na detecção de mensagens indesejadas e medidas contra contas inautênticas, tudo para criar um ambiente mais seguro e inclusivo.
Mensagens Sob Controle: IA em Ação
Uma das grandes novidades foi a implementação de sistemas de IA para interceptar conteúdos prejudiciais enviados por não amigos. Durante o primeiro semestre de 2024, 19 milhões de mensagens que violavam os Padrões da Comunidade Xbox foram bloqueadas antes de chegar aos jogadores. Esse processo envolveu texto, imagens e vídeos e buscou equilibrar proteção e autenticidade para manter a essência dos jogos online.
Outra ferramenta essencial foi o Xbox AutoMod, lançado em fevereiro. Esse sistema automatizado lidou com 1,2 milhões de casos reportados, permitindo uma remoção de conteúdos problemáticos 88% mais rápida, enquanto moderadores humanos focavam em questões mais complexas.
Além disso, a IA foi empregada para detectar e bloquear spam e publicidade, problemas que cresceram significativamente. Em abril, a equipe identificou e tomou medidas contra 1,7 milhão de contas inautênticas que impactavam a comunidade.
Denúncias de Jogadores: Um Pilar da Segurança
Os jogadores desempenharam um papel crucial ao reportar atividades suspeitas e mensagens ofensivas. Durante o período analisado, as denúncias de mensagens no recurso Procurando Grupo (LFG) dobraram, alcançando 2 milhões. No geral, foram mais de 30 milhões de denúncias em todos os tipos de conteúdo, representando um aumento de 8% em relação ao último relatório.
Essa colaboração direta da comunidade foi essencial para detectar padrões de abuso e auxiliar na criação de contramedidas. A Xbox continua a refinar sua abordagem para combater contas falsas desde a origem, reduzindo o impacto sobre os jogadores.
Minecraft e Call of Duty: Segurança em Outras Frentes
Outros grandes títulos do universo Xbox também adotaram medidas contra a toxicidade. A Mojang Studios, responsável por Minecraft, introduziu lembretes proativos nos chats da edição Bedrock para educar jogadores sobre comportamentos inadequados antes que punições severas sejam aplicadas. Além disso, em parceria com a GamerSafer, melhorou a segurança nos servidores, ajudando jogadores a encontrar comunidades confiáveis.
Já a franquia Call of Duty ampliou suas ferramentas de moderação, bloqueando 45 milhões de mensagens de texto ofensivas em 20 idiomas e reduzindo em 43% a toxicidade vocal desde novembro de 2023. A moderação de voz foi expandida para francês e alemão, fortalecendo o combate à toxicidade em escala global.
Compromisso Contínuo com a Comunidade
Com IA avançada, suporte dos jogadores e uma abordagem colaborativa, a Xbox reforça sua missão de oferecer uma experiência online segura e inclusiva. Guiada pelo Padrão de IA Responsável da Microsoft e parcerias como a Tech Coalition, a plataforma segue aprimorando suas ferramentas para proteger sua vibrante comunidade.
A luta contra comportamentos tóxicos nos jogos é constante, mas o progresso já é visível. A Xbox convida seus jogadores a continuarem contribuindo com denúncias e feedbacks, garantindo que a diversão e o respeito sigam lado a lado em todos os cantos do universo gamer.