A plataforma de jogos online Roblox anunciou nesta quinta-feira, 5 de março de 2026, um novo recurso de moderação que utiliza inteligência artificial para reescrever mensagens com linguagem ofensiva em tempo real.
A ferramenta reformula automaticamente palavras consideradas inadequadas para versões mais neutras, preservando o sentido original da frase. Até agora, quando um usuário escrevia algo com termos proibidos, o texto aparecia como “####”, substituindo o conteúdo considerado impróprio. Segundo a empresa, isso dificultava a compreensão das conversas entre jogadores.
Com o novo recurso, a mensagem não será mais ocultada. O sistema irá reformular o texto automaticamente, tornando-o mais apropriado sem interromper o diálogo. De acordo com a empresa, a inteligência artificial analisa a frase escrita pelo usuário e substitui trechos considerados inadequados por uma versão mais respeitosa.
Um exemplo dado pela empresa ilustra o funcionamento do sistema. Uma mensagem como “Anda logo, p****!”, que antes apareceria no chat apenas como “####”, agora pode ser reformulada automaticamente para algo como “Anda logo!”. Todos os participantes da conversa recebem um aviso informando que o texto foi ajustado.
A Roblox afirma que o novo recurso não substitui seus sistemas de segurança existentes. Casos considerados mais graves ainda podem acionar outras medidas de moderação, incluindo bloqueios ou restrições de conta. A ferramenta também funciona em todos os idiomas atualmente suportados pelos sistemas automáticos de tradução da plataforma, ampliando o alcance da moderação para comunidades internacionais.
A empresa informou que atualizou seu sistema de detecção de linguagem proibida para identificar variações usadas para tentar driblar filtros, como o chamado leetspeak, prática de substituir letras por números ou símbolos. Segundo a Roblox, testes iniciais indicam que o sistema reduziu em até 20 vezes os casos em que o conteúdo inadequado não era identificado.
O anúncio da nova tecnologia ocorre em meio a discussões recentes sobre segurança dentro da plataforma. Em janeiro deste ano, o criador de conteúdo brasileiro Felca, de 27 anos, relatou ter recebido ameaças de usuários após mudanças nas regras de verificação de idade para acesso aos chats do Roblox. Nas redes sociais, ele compartilhou mensagens privadas enviadas por jogadores que protestavam contra as novas restrições.
As medidas incluem sistemas de verificação facial de idade e limitação de comunicação entre adultos e menores, criados para reforçar a proteção de usuários mais jovens na plataforma.

