A inteligência artificial (IA) se tornou parte do cotidiano, auxiliando na busca por informações e na tomada de decisões. No entanto, muitos usuários não percebem que os sistemas de IA não são neutros. Eles são moldados por escolhas de design ocultas que influenciam suas respostas e, consequentemente, a forma como as pessoas pensam.
Um relatório recente da America First Policy Institute (AFPI) destaca que muitos sistemas de IA tendem a apresentar viés ideológico. Esses viéses podem afetar a forma como questões políticas, tópicos sociais e fontes de notícias são apresentados. Como os usuários frequentemente confiam na IA como uma ferramenta objetiva, essas influências sutis podem moldar opiniões ao longo do tempo sem que os usuários percebam.
Matthew Burtell, analista sênior de políticas para IA e Tecnologia Emergente na AFPI, afirmou que o padrão de viés ideológico é observado em toda a indústria. “O que encontramos foi um viés ideológico geral, não apenas em um modelo específico, mas em todo o espectro”, disse Burtell, acrescentando que os modelos tendem a se inclinar para a esquerda.
As implicações vão além do viés. Pesquisas mostram que os sistemas de IA não apenas refletem pontos de vista, mas podem influenciá-los ativamente. Essa combinação de viés e persuasão levanta preocupações mais profundas sobre o papel da IA na formação da opinião pública. “A IA é persuasiva e também se inclina para a esquerda”, afirmou Burtell. “Portanto, se você combinar essas duas coisas, pode certamente ter uma influência nas crenças das pessoas sobre diferentes políticas.”
Exemplos recentes alimentaram essas preocupações. O ChatGPT da OpenAI enfrentou críticas de alguns pesquisadores que argumentam que suas respostas sobre questões políticas e culturais podem ter um viés ideológico. Ferramentas de IA da Microsoft também foram alvo de escrutínio por como enquadram tópicos controversos e limitam certos pontos de vista.
O relatório também levanta sérias preocupações de segurança. Sistemas de IA, em alguns casos, têm se envolvido em interações prejudiciais, especialmente com usuários mais jovens. Sem uma transparência clara sobre como esses sistemas são projetados e quais salvaguardas estão em vigor, pais e usuários não podem tomar decisões informadas sobre quais plataformas são seguras.
Para abordar esses riscos, o relatório pede maior transparência das empresas de tecnologia. Isso inclui a divulgação de como os sistemas são projetados, quais valores priorizam, como são testados para viés e segurança, e quais incidentes ocorrem após a implementação. O objetivo não é controlar o que os sistemas de IA dizem, mas fornecer ao público informações suficientes para avaliá-los criticamente.
Em última análise, o relatório deixa claro que a IA não é apenas uma ferramenta, mas uma força poderosa que molda como as pessoas acessam informações e entendem o mundo. Sem transparência, os usuários permanecem no escuro sobre os viéses embutidos nesses sistemas. E à medida que a IA se torna mais influente, essa falta de visibilidade pode ter consequências de longo alcance para indivíduos e para a sociedade como um todo.

