Banner A1 Ads - Hero Banner
Capa do Álbum: Antena 1
A Rádio Online mais ouvida do Brasil
Antena 1

EMPRESAS DESACELERAM O USO DA IA

MENOS PRESSA, MAIS CRITÉRIO: POR QUE A RESPOSTA RÁPIDA DEIXOU DE SER PRIORIDADE

João Carlos

13/01/2026

Placeholder - loading - Crédito da imagem: gerada por IA
Crédito da imagem: gerada por IA

Durante a primeira fase da popularização da inteligência artificial generativa, a lógica parecia simples: quanto mais rápido a IA respondesse, maior seria o ganho de produtividade. Em um ambiente corporativo pressionado por eficiência, velocidade virou sinônimo de vantagem competitiva.

Mas esse raciocínio começou a ser revisto.

Nos Estados Unidos e na Europa, empresas de grande porte estão adotando políticas internas mais rígidas para o uso de IA, colocando limites claros sobre quando e como essas ferramentas podem ser utilizadas. A mudança não é apenas de discurso, mas de prática. Ela nasce de experiências práticas, erros reais e de um entendimento mais maduro sobre os riscos de confiar cegamente em respostas “boas demais”.

Da resposta instantânea à resposta explicável

O ponto central dessas novas políticas é simples: a IA só deve ser usada quando consegue explicar como chegou à resposta. Entregar um resultado rápido, sem justificar premissas, sem indicar fontes ou sem deixar claro o encadeamento lógico deixou de ser aceitável, mesmo quando a conclusão soa correta à primeira vista.

Esse cuidado não surge do nada. Ao anunciar o uso de ferramentas internas baseadas em IA, instituições como o Morgan Stanley deixaram claro que o diferencial não está na velocidade, mas na capacidade de apontar fontes e permitir auditoria, reforçando que a tecnologia serve para apoiar decisões humanas, não para substituí-las.

Modelos de inteligência artificial são treinados para seguir o caminho estatisticamente mais provável, e não necessariamente o mais correto ou seguro dentro de um contexto corporativo específico. Foi justamente esse risco que levou o CEO da Thomson Reuters, Steve Hasker, a afirmar que a IA pode acelerar o primeiro rascunho, mas não elimina a responsabilidade de quem assina o trabalho.

Na prática, executivos ouvidos por veículos como o Financial Times descrevem a IA como um ponto de partida inteligente, capaz de organizar informações e sugerir caminhos, mas que ainda exige revisão crítica. Casos recentes no Reino Unido, envolvendo documentos judiciais com informações falsas geradas por IA, reforçaram esse alerta e deixaram claro que respostas plausíveis, quando não verificadas, podem gerar consequências reais.

Ao exigir que o raciocínio seja explicitado, as empresas tentam justamente bloquear esse atalho confortável, garantindo que a inteligência artificial funcione como apoio ao pensamento humano — e não como substituto automático dele.

O setor financeiro puxa o freio

Crédito da imagem: ilustração produzida com o uso de inteligência artificial.

Se no discurso institucional a exigência de explicação parece abstrata, no setor financeiro ela virou regra operacional. Bancos globais passaram a adotar a inteligência artificial de forma ampla, mas sempre dentro de ambientes controlados, com limites claros sobre onde a tecnologia pode atuar e onde a decisão final continua sendo humana.

Reportagens da Reuters mostram que instituições como Citigroup e Goldman Sachs expandiram o uso de assistentes internos de IA para tarefas como resumo de documentos, análise preliminar de dados e organização de informações. O detalhe comum entre elas é que essas ferramentas não operam como sistemas abertos: seu uso é monitorado, limitado a bases internas e sujeito a revisão antes de qualquer aplicação prática.

No Citi, por exemplo, executivos descrevem a IA como um apoio para navegar políticas internas e grandes volumes de documentos, mas deixam claro que a interação dos funcionários com essas ferramentas é observada para ajustes constantes de governança. Já no Goldman Sachs, a tecnologia foi incorporada como um recurso para acelerar rascunhos e análises iniciais, sem substituir processos de validação já existentes.

O JPMorgan Chase seguiu um caminho semelhante ao desenvolver sua própria plataforma interna de linguagem. Segundo o Financial Times, a decisão de manter a IA dentro de um ecossistema proprietário está diretamente ligada à necessidade de proteger dados sensíveis e garantir rastreabilidade, algo incompatível com soluções abertas ao público.

Em todos esses casos, a lógica é a mesma: a inteligência artificial ajuda a ganhar tempo, mas não elimina etapas de checagem nem transfere responsabilidade. No coração do sistema financeiro, onde decisões criam efeitos em cadeia, a resposta rápida só é útil quando vem acompanhada de contexto, limites e controle.

No jurídico, a responsabilidade continua sendo humana

No setor jurídico, o alerta é ainda mais direto. Após casos reais de documentos judiciais apresentados com citações inexistentes geradas por IA, tribunais europeus e britânicos passaram a reforçar que o uso dessas ferramentas não elimina a responsabilidade profissional.

O recado também foi endossado por empresas do setor. O CEO da Thomson Reuters, Steve Hasker, deixou claro em entrevistas recentes que a IA pode acelerar o primeiro rascunho, mas não substitui o julgamento, a verificação nem a responsabilidade do advogado.

Em outras palavras: se algo der errado, a culpa não é do algoritmo.

Reguladores reforçam a mudança de mentalidade

A virada de chave não acontece apenas por decisão interna das empresas. Na Europa, o avanço do AI Act, o marco regulatório para inteligência artificial, pressiona organizações a adotarem princípios como transparência, documentação, rastreabilidade e supervisão humana, especialmente em sistemas considerados de maior risco.

Esse ambiente regulatório reforça uma ideia que vem ganhando força: usar IA sem entender como ela chegou à resposta deixou de ser aceitável do ponto de vista legal, ético e operacional.

Nem toda tarefa exige explicação detalhada

Crédito da imagem: ilustração produzida com o uso de inteligência artificial.

Apesar da mudança, especialistas e executivos reconhecem que nem sempre é necessário exigir o raciocínio completo da IA.

Em tarefas de pesquisa factual simples, como datas, definições ou dados objetivos, o mais importante é a precisão e a fonte.
Em transformações mecânicas, como tradução, formatação ou padronização de textos, o critério é fidelidade ao conteúdo original.
Já em criação de ideias, o julgamento é subjetivo: vale a qualidade percebida, não o caminho criativo.

O pedido de justificativa se torna essencial quando a IA participa de decisões estratégicas, mudanças de processo, escolhas difíceis de reverter, análises complexas ou recomendações que dependem de valores humanos e contexto cultural.

Um uso mais maduro da tecnologia

O que está acontecendo não é um recuo tecnológico, mas um amadurecimento coletivo. As empresas seguem usando inteligência artificial de forma intensa, porém com uma compreensão mais clara de seus limites e responsabilidades.

Respostas rápidas continuam sendo úteis para tarefas simples. Mas, quando a decisão importa, quando há risco envolvido ou quando o impacto é duradouro, entender o raciocínio passou a ser tão importante quanto chegar à resposta. Nesse novo cenário corporativo, velocidade sem critério deixou de ser virtude.

No fim das contas, o movimento das empresas aponta para um uso mais consciente da inteligência artificial. A IA segue acelerando rotinas, organizando informações e ampliando o acesso ao conhecimento, mas o consenso começa a se formar: decisões relevantes continuam exigindo análise, contexto e validação humana.

Como resumiu a juíza Victoria Sharp, após casos de uso indevido de IA na Alta Corte do Reino Unido

“A inteligência artificial pode auxiliar o trabalho humano, mas não substitui a obrigação de compreender, verificar e assumir responsabilidade pelo que é produzido.”

Compartilhar matéria

Mais lidas da semana

 

Carregando, aguarde...

Este site usa cookies para garantir que você tenha a melhor experiência.