Os dois artigos anteriores desta série desenharam dois cenários opostos. No virtuoso, a IA funciona como alavanca: cria mercados novos, aumenta produtividade sem espremer pessoas, e transforma tempo economizado em qualidade e inovação. No vicioso, a IA funciona como tesoura: corta posições, destrói escadas de formação, amplifica erros em escala e corrói a confiança que sustenta o sistema jurídico.
Os dois cenários usam a mesma tecnologia. O que muda é o desenho da adoção. Mas se os dois caminhos são possíveis, o que determina qual deles prevalece? A resposta está em duas palavras: decisões humanas. Este último artigo mostra o que está nas mãos de empresas e indivíduos e por que a responsabilidade pela direção que a IA toma não pode ser terceirizada para a tecnologia.
A IA é um amplificador de escolhas. Essa ideia merece ser desdobrada, porque é o coração do argumento. Quando uma empresa adota IA, ela não está apenas instalando um software, está, sim, fazendo uma série de escolhas encadeadas. Escolhe quais tarefas automatizar. Escolhe se vai treinar pessoas para supervisionar ou se vai simplesmente cortar. Escolhe se o tempo economizado vira folga para qualidade ou vira meta mais apertada.
Escolhe se a produtividade extra financia inovação ou apenas engorda margem no curto prazo. Cada uma dessas escolhas alimenta um ciclo: o virtuoso ou o vicioso. E a tecnologia, em si mesma, é indiferente. Ela apenas acelera o que já estava no desenho. O mesmo vale para indivíduos. Quando você usa IA no trabalho, está escolhendo se ela será muleta ou alavanca.
Muleta é quando você delega o pensamento e aceita o resultado sem crítica e, com o tempo, perde a capacidade de fazer sozinho. Alavanca é quando você usa a ferramenta para ir mais longe, mas mantém o domínio do raciocínio, a checagem, a responsabilidade pelo que entrega. A diferença parece sutil, mas é estrutural: no primeiro caso, sua competência atrofia; no segundo, ela se expande.
E competência é o que sustenta empregabilidade, autonomia e, no fim das contas, dignidade profissional. Comecemos pelo que costuma tirar o sono de muita gente: a IA vai destruir o bem-estar de quem trabalha? A evidência séria não sustenta uma resposta automática. Um estudo publicado na Scientific Reports com dados longitudinais da Alemanha, acompanhando trabalhadores entre 2000 e 2020, não encontrou evidência de impacto negativo significativo sobre bem-estar e saúde mental associado à exposição ocupacional à IA.
Se algo aparece, é sinal de melhora em saúde e satisfação, algo que os autores associam à redução da intensidade física de certos trabalhos. Ao mesmo tempo, essa calma estatística não significa que todo mundo fica bem em qualquer cenário. Dependendo de como a IA entra na rotina, podem surgir preocupações econômicas, insegurança e queda na satisfação com vida e trabalho em alguns recortes.
A IA pode ser complemento em um lugar e ameaça percebida em outro. Um estudo de longo prazo da Georgia State University com participação da Georgia Tech analisou 16 anos de dados e concluiu algo que parece paradoxal à primeira vista: automação e IA podem se associar a estresse mais baixo, mas ao mesmo tempo a efeitos negativos na saúde e a impactos mistos na satisfação com o trabalho.
O mais importante, porém, é a frase que deveria estar colada na parede de qualquer diretoria: esses impactos não são predeterminados, mas sim dependem do ambiente de trabalho, das escolhas de gestores e de políticas públicas, não de algum determinismo tecnológico inevitável.
Agora vem a parte que muda o jogo: produtividade e tempo. Porque bem-estar, no mundo real, costuma seguir o trilho do tempo, tempo de descanso, de aprendizado, de autonomia, de reduzir a correria, de fazer melhor e não apenas mais. A equipe do Federal Reserve Bank of St. Louis tentou quantificar isso: o que acontece quando a IA generativa entra no dia a dia. Eles estimam que usuários relataram economizar, em média, 5,4% das horas de trabalho na semana anterior.
Num regime de 40 horas, isso dá algo como 2,2 horas por semana. No agregado, essa economia sugere algo como 1,1% de ganho potencial de produtividade para toda a força de trabalho, o que, em termos macroeconômicos, é enorme quando lembramos que produtividade costuma crescer devagar.
Só que o diagrama causal começa a aparecer quando perguntamos: para onde vai esse tempo economizado? E aqui está o ponto decisivo. Se o tempo economizado vira meta mais apertada, você ganha produtividade e perde bem-estar. Se vira espaço para pensar, aprender e criar, você ganha os dois. Se vira demissão pura, você ganha eficiência e destrói renda. Se vira reinvestimento em capacidade, você planta crescimento futuro.
A mesma economia de tempo, quatro destinos completamente diferentes e quem escolhe o destino não é a tecnologia. São pessoas em posições de decisão. Uma fotografia recente vem do quarto EY US AI Pulse Survey, divulgado em dezembro de 2025, com 500 tomadores de decisão em cargos de alta liderança.
Quase todas as organizações que investem em IA relatam algum ganho de produtividade (96%), e apenas 17% dizem que esses ganhos levaram à redução de pessoal. O mais revelador não é só não cortar, mas onde colocam o dinheiro: muitas empresas estão direcionando ganhos para ampliar capacidades existentes de IA (47%), desenvolver novas capacidades (42%), fortalecer cibersegurança (41%), investir em pesquisa e desenvolvimento (39%) e fazer capacitação de funcionários (38%).
Isso é praticamente um ciclo virtuoso em movimento: a empresa aprende, melhora, cria capacidade e se prepara para um futuro que ainda não está completamente desenhado. E há um detalhe que explica por que algumas empresas aceleram mais: organizações investindo US$ 10 milhões ou mais em IA reportam ganhos significativos de produtividade com mais frequência (71%) do que as que investem menos (52%).
A cadeia de causa e consequência fica clara: quando a liderança enxerga IA como catalisador de valor, a reação natural é reinvestir em capacidade e treinamento, o que aumenta a chance de o ganho virar crescimento e não apenas exigir mais do mesmo em menos tempo. Essa é uma escolha de gestão, não uma imposição tecnológica.
Mas se existe ciclo virtuoso, existe também ciclo vicioso. E ele geralmente começa com uma frase sedutora: “se a IA faz, eu não preciso treinar gente”. Só que treinamento é o que mantém a empregabilidade, a mobilidade social e a adaptação institucional. Quando você corta oportunidades de aprender, você reduz a capacidade das pessoas de migrar para tarefas de maior valor.
A consequência é previsível: menos caminhos de carreira, mais desigualdade, mais frustração, mais desconfiança nas instituições. Esse encadeamento não é teoria abstrata. Ele já aparece com nitidez em quem está entrando agora no mercado.
Em janeiro de 2026, o Federal Reserve Bank of Dallas publicou uma análise mostrando que a correlação entre queda de emprego e exposição à IA aparece de forma mais clara para trabalhadores jovens. Trabalhadores de 22 a 25 anos nas ocupações mais expostas à IA tiveram uma queda de 13% no emprego desde 2022.
E a parte mais importante: o padrão observado é explicado principalmente por uma queda na transição direta de fora da força de trabalho para o emprego, e não por uma onda de demissões. O problema pode estar menos em “a IA tirou meu emprego” e mais em “a IA está mudando a porta de entrada”.
Socialmente, isso é explosivo. A porta de entrada sempre foi o lugar onde a desigualdade se decide: quem consegue o primeiro degrau e quem fica do lado de fora. Quando a porta de entrada estreita, a reação em cadeia atinge todo o sistema.
E aqui entra novamente o papel das escolhas. Empresas podem escolher usar IA para eliminar posições de entrada ou podem escolher redesenhar essas posições para que o aprendizado aconteça de forma diferente, supervisionando IA, checando resultados, desenvolvendo julgamento mais cedo.
A segunda opção dá mais trabalho, mas preserva o pipeline de formação. A primeira opção economiza no curto prazo, mas cria um vácuo de competência no médio. É por isso que a advocacia — como profissão e como função social — entra como peça central desse quebra-cabeça.
O direito é, ao mesmo tempo, um setor altamente exposto (porque trabalha com texto, padrão, busca, revisão) e um setor que depende de confiança pública. A tecnologia pode aumentar acesso à justiça, reduzir custo de pesquisa e acelerar rotinas. Mas pode também amplificar erro, viés e irresponsabilidade, se for usada como autoridade em vez de ferramenta.
Nessa fronteira, a frase “IA não é um advogado” deveria ser tratada como regra de ouro. Jake Heller, da Thomson Reuters, defende uma abordagem em que a IA funcione como um associado júnior: ajuda, rascunha, organiza, mas não substitui julgamento, empatia e nuance e, por isso, supervisão humana do resultado é crítica.
Isso não é preciosismo; é causa e consequência direta. Se você delega julgamento a um modelo que não entende contexto moral, você ganha velocidade e perde responsabilidade. A tecnologia não se sustenta sozinha; ela precisa de resposta institucional.
E o ecossistema jurídico, talvez por ser naturalmente avesso ao risco, está tentando construir trilhos. A American Bar Association, por exemplo, já vinha desde 2019 chamando atenção para temas como viés, transparência, explicabilidade e, principalmente, controles e supervisão de IA.


