Ao usar este site, você concorda com a Política de Privacidade e os Termos de Uso.
OK
Portal de notícias Brasil em FolhasPortal de notícias Brasil em FolhasPortal de notícias Brasil em Folhas
  • Cotidiano
  • Política
  • Economia
  • Mundo
  • Esporte
  • Cultura
  • Opinião
Procurar
  • Anuncie
  • Expediente
  • Fale Conosco
  • Política de Privacidade
  • Termos de Uso
© 2024 - BRASIL EM FOLHAS S/A
Leitura: Regulação da IA deve separar risco real de usos cotidianos no ambiente digital
Compartilhar
Notificação Mostrar mais
Font ResizerAa
Portal de notícias Brasil em FolhasPortal de notícias Brasil em Folhas
Font ResizerAa
  • Política
  • Cotidiano
  • Economia
  • Mundo
  • Esporte
  • Cultura
  • Opinião
Procurar
  • Home
    • Política
    • Cotidiano
    • Economia
    • Mundo
    • Esporte
    • Cultura
    • Opinião
  • Anuncie
  • Fale Conosco
  • Expediente
Have an existing account? Sign In
Follow US
  • Anuncie
  • Expediente
  • Fale Conosco
  • Política de Privacidade
  • Termos de Uso
© 2024 BRASIL EM FOLHAS S/A
Cotidiano

Regulação da IA deve separar risco real de usos cotidianos no ambiente digital

Fernando Alcântara Mendonça
Última atualização: 15 de maio de 2026 17:37
Fernando Alcântara Mendonça
Compartilhar
Tempo: 4 min.
Foto: Jo Lin/Unsplash
Compartilhar

A discussão sobre inteligência artificial deixou de ser restrita a laboratórios, empresas de tecnologia e universidades. Ela chegou ao cotidiano de quem usa aplicativos de banco, plataformas de compra, ferramentas de atendimento, redes sociais e serviços de entretenimento. Por isso, o desafio regulatório não está apenas em acompanhar a inovação, mas em diferenciar usos que podem causar danos graves daqueles que fazem parte da rotina digital.

Esse foi o ponto central defendido pelo ministro da Fazenda, Dario Durigan, em entrevista à TV Brasil, segundo matéria da Agência Brasil publicada em 12 de maio. A proposta do governo é criar uma matriz de risco para a inteligência artificial, com regras mais exigentes para aplicações sensíveis e tratamento mais simples para ferramentas de baixo impacto.

Na prática, sistemas ligados à genética humana, reconhecimento de identidade, dados sensíveis e direitos individuais ficariam sob fiscalização mais rigorosa. A lógica é que tecnologias capazes de afetar liberdade, privacidade ou acesso a serviços essenciais precisam prestar contas, registrar decisões e permitir algum nível de controle público.

A separação por risco também evita que qualquer uso de IA seja tratado como ameaça. Filtros de imagem, assistentes de texto, recursos de atendimento, recomendações de conteúdo e ferramentas de organização pessoal podem exigir transparência, mas não necessariamente o mesmo grau de controle aplicado a sistemas que identificam pessoas ou tomam decisões com impacto jurídico.

O próprio Brasil em Folhas já abordou esse pano de fundo ao mostrar o papel do Brasil na era da inteligência artificial durante o SXSW, quando a futurista Amy Webb destacou que decisões tomadas agora podem ter efeitos duradouros. O alerta ajuda a entender por que a regulação precisa olhar tanto para inovação quanto para responsabilidade.

Na outra ponta dessa matriz entram experiências de menor impacto, como jogos, recursos lúdicos e entretenimento online. A classificação, porém, não elimina responsabilidades básicas: plataformas voltadas a adultos precisam deixar regras visíveis, indicar limites, proteger dados e evitar qualquer promessa de ganho. Nesse ambiente de entretenimento adulto, plataformas como a superbet cassino online ajudam a ilustrar por que a clareza importa: o usuário navega por diferentes jogos, mas deve encontrar informação objetiva sobre funcionamento, idade mínima e uso responsável antes de qualquer interação.

Esse tipo de distinção é importante porque a vida digital mistura atividades muito diferentes na mesma tela. O celular pode ser usado para trabalhar, estudar, pagar contas, assistir a uma transmissão, comprar produtos ou jogar. Quando a regulação ignora essa variedade, corre o risco de ser ampla demais para casos simples e frágil demais para casos realmente sensíveis.

Durigan também defendeu a alfabetização digital como parte da resposta. A ideia é que regras formais não bastam se o usuário não consegue reconhecer riscos, entender permissões, desconfiar de ofertas abusivas ou identificar quando uma ferramenta automatizada está influenciando sua experiência.

Para empresas, a mensagem é parecida. Transparência, proteção de dados, canais de atendimento e documentação de processos tendem a ganhar peso à medida que a inteligência artificial se torna invisível dentro de produtos e serviços. Mesmo aplicações consideradas de baixo risco precisarão demonstrar cuidado com o usuário.

O debate ainda depende do Congresso e deve passar por ajustes, mas a direção já está colocada: regular por risco, não por medo genérico da tecnologia. Se funcionar, o modelo pode permitir inovação em áreas de menor impacto e, ao mesmo tempo, criar travas mais firmes onde a IA realmente pode afetar direitos, segurança e confiança pública.

TAGGED:1982
Compartilhe esta notícia
Facebook Whatsapp Whatsapp Telegram Copiar Link Print
Notícia Anterior Turismo em Goiás avança 0,4% em março e impulsiona economia local
Próximo notícia sitemap.xml
Banner
Portal de notícias Brasil em FolhasPortal de notícias Brasil em Folhas
Follow US
© 2024 BRASIL EM FOLHAS S/A
Bem vindo de volta!

Faça login na sua conta

Username or Email Address
Password

Lost your password?