Ao usar este site, você concorda com a Política de Privacidade e os Termos de Uso.
OK
Portal de notícias Brasil em FolhasPortal de notícias Brasil em FolhasPortal de notícias Brasil em Folhas
  • Cotidiano
  • Política
  • Economia
  • Mundo
  • Esporte
  • Cultura
  • Opinião
Procurar
  • Anuncie
  • Expediente
  • Fale Conosco
  • Política de Privacidade
  • Termos de Uso
© 2024 - BRASIL EM FOLHAS S/A
Leitura: Relatório aponta viés em sistemas de inteligência artificial que moldam opiniões
Compartilhar
Notificação Mostrar mais
Font ResizerAa
Portal de notícias Brasil em FolhasPortal de notícias Brasil em Folhas
Font ResizerAa
  • Política
  • Cotidiano
  • Economia
  • Mundo
  • Esporte
  • Cultura
  • Opinião
Procurar
  • Home
    • Política
    • Cotidiano
    • Economia
    • Mundo
    • Esporte
    • Cultura
    • Opinião
  • Anuncie
  • Fale Conosco
  • Expediente
Have an existing account? Sign In
Follow US
  • Anuncie
  • Expediente
  • Fale Conosco
  • Política de Privacidade
  • Termos de Uso
© 2024 BRASIL EM FOLHAS S/A
Tecnologia

Relatório aponta viés em sistemas de inteligência artificial que moldam opiniões

Amanda Rocha
Última atualização: 13 de abril de 2026 05:00
Amanda Rocha
Compartilhar
Tempo: 4 min.
Compartilhar

A inteligência artificial (IA) se tornou parte do cotidiano, auxiliando na busca por informações e na tomada de decisões. No entanto, muitos usuários não percebem que os sistemas de IA não são neutros. Eles são moldados por escolhas de design ocultas que influenciam suas respostas e, consequentemente, a forma como as pessoas pensam.

Um relatório recente da America First Policy Institute (AFPI) destaca que muitos sistemas de IA tendem a apresentar viés ideológico. Esses viéses podem afetar a forma como questões políticas, tópicos sociais e fontes de notícias são apresentados. Como os usuários frequentemente confiam na IA como uma ferramenta objetiva, essas influências sutis podem moldar opiniões ao longo do tempo sem que os usuários percebam.

Matthew Burtell, analista sênior de políticas para IA e Tecnologia Emergente na AFPI, afirmou que o padrão de viés ideológico é observado em toda a indústria. “O que encontramos foi um viés ideológico geral, não apenas em um modelo específico, mas em todo o espectro”, disse Burtell, acrescentando que os modelos tendem a se inclinar para a esquerda.

As implicações vão além do viés. Pesquisas mostram que os sistemas de IA não apenas refletem pontos de vista, mas podem influenciá-los ativamente. Essa combinação de viés e persuasão levanta preocupações mais profundas sobre o papel da IA na formação da opinião pública. “A IA é persuasiva e também se inclina para a esquerda”, afirmou Burtell. “Portanto, se você combinar essas duas coisas, pode certamente ter uma influência nas crenças das pessoas sobre diferentes políticas.”

- Publicidade -

Exemplos recentes alimentaram essas preocupações. O ChatGPT da OpenAI enfrentou críticas de alguns pesquisadores que argumentam que suas respostas sobre questões políticas e culturais podem ter um viés ideológico. Ferramentas de IA da Microsoft também foram alvo de escrutínio por como enquadram tópicos controversos e limitam certos pontos de vista.

O relatório também levanta sérias preocupações de segurança. Sistemas de IA, em alguns casos, têm se envolvido em interações prejudiciais, especialmente com usuários mais jovens. Sem uma transparência clara sobre como esses sistemas são projetados e quais salvaguardas estão em vigor, pais e usuários não podem tomar decisões informadas sobre quais plataformas são seguras.

Para abordar esses riscos, o relatório pede maior transparência das empresas de tecnologia. Isso inclui a divulgação de como os sistemas são projetados, quais valores priorizam, como são testados para viés e segurança, e quais incidentes ocorrem após a implementação. O objetivo não é controlar o que os sistemas de IA dizem, mas fornecer ao público informações suficientes para avaliá-los criticamente.

Em última análise, o relatório deixa claro que a IA não é apenas uma ferramenta, mas uma força poderosa que molda como as pessoas acessam informações e entendem o mundo. Sem transparência, os usuários permanecem no escuro sobre os viéses embutidos nesses sistemas. E à medida que a IA se torna mais influente, essa falta de visibilidade pode ter consequências de longo alcance para indivíduos e para a sociedade como um todo.

Compartilhe esta notícia
Facebook Whatsapp Whatsapp Telegram Copiar Link Print
Notícia Anterior MBRF dobra fornecimento de frango para Arábia Saudita e inicia vendas de carne bovina
Próximo notícia sitemap.xml
Portal de notícias Brasil em FolhasPortal de notícias Brasil em Folhas
Follow US
© 2024 BRASIL EM FOLHAS S/A
Bem vindo de volta!

Faça login na sua conta

Username or Email Address
Password

Lost your password?