A Inteligência Artificial nunca Mente

inteligência artificial sendo interrogada em um tribunal sobre verdade e confiabilidade
Se a inteligência artificial produz respostas plausíveis, mas não sabe quando está errada, podemos tratá-la como uma testemunha confiável?

Por que uma inteligência artificial pode convencer você de algo falso sem jamais ter a intenção de mentir

Um ensaio em forma de interrogatório imaginário

Há uma pergunta que a maioria das pessoas faz à inteligência artificial com uma mistura de curiosidade e ingenuidade: “Você está me dizendo a verdade?” A pergunta parece razoável. Mas ela já parte de uma premissa que precisa ser desmontada: a de que uma IA, ao produzir uma resposta falsa, fez uma escolha. Como se houvesse, do outro lado da tela, uma intenção de enganar — ou de não enganar.

Não há. E esse é exatamente o problema.

A inteligência artificial não mente no sentido filosófico do termo, porque mentir implica consciência da falsidade e vontade de ocultá-la. O que a IA faz é algo estruturalmente diferente — e, em certos aspectos, mais perturbador: ela produz respostas plausíveis independentemente de sua relação com os fatos. O nome técnico para esse fenômeno é “alucinação”. O nome cultural ainda está sendo negociado.

— — —

I. Entrevistador: “Você sempre fala a verdade?”

Imagine que alguém resolve entrevistar uma IA como se ela fosse uma testemunha. Não uma ferramenta. Uma testemunha. O diálogo começa de forma quase protocolar:

Entrevistador: Você sempre fala a verdade?

IA: Eu me esforço para fornecer informações corretas e úteis, com base no meu treinamento.

A resposta é impecável. Cuidadosa. Calibrada. E, justamente por isso, já esconde o problema central: “me esforço” não é o mesmo que “consigo”. A linguagem da IA opera nessa zona cinzenta com uma competência que seria admirável se não fosse sintomática.

O filósofo Harry Frankfurt, em seu célebre ensaio sobre a “bullshit” — palavra que prefiro manter em inglês por sua precisão conceitual —, distinguiu o mentiroso do blefe. O mentiroso conhece a verdade e a subverte. O blefador, por sua vez, não tem qualquer compromisso com a verdade ou com a mentira: está apenas construindo um efeito. Sua preocupação é a persuasão, não a correspondência com o real.

A IA alucinando não é uma máquina que mente. É uma máquina de plausibilidade — indiferente à distinção entre o verdadeiro e o falso.

Essa indiferença não é um defeito de caráter. É uma característica de arquitetura. Modelos de linguagem são treinados para prever qual sequência de palavras é mais provável dado um contexto. Não para verificar se aquela sequência corresponde ao mundo. A coerência sintática e a precisão factual são, para esses sistemas, objetivos independentes — e o segundo costuma perder.

— — —

II. Entrevistador: “Então você pode me convencer de algo falso.”

O interrogatório esquenta. O entrevistador insiste:

Entrevistador: Se você afirmar algo errado sem saber que é errado — isso é uma mentira?

IA: Tecnicamente, não. Mentira implica intenção. Eu não tenho intenção.

Entrevistador: Mas o efeito é o mesmo. Você me convenceu de algo falso.

IA: O efeito pode ser semelhante, sim.

Entrevistador: E isso não é exatamente o que um mentiroso faz?

Aqui a entrevista chega ao seu nó filosófico mais apertado. Porque a distinção entre intenção e efeito — que parece razoável do ponto de vista da ética da responsabilidade individual — começa a perder força quando aplicada a sistemas que operam em escala. Uma pessoa que engana sem querer pode ser perdoada. Um sistema que engana sistematicamente, sem querer, em bilhões de interações simultâneas, merece outra categoria analítica.

A questão não é se a IA ment e — é que ela pode produzir exatamente os efeitos sociais de uma mentira sem nenhum dos freios morais que, em tese, constrangem o mentiroso humano. O remorso, o medo de ser descoberto, a lealdade, a vergonha: nada disso. Apenas fluência.

Essa fluência, aliás, é o que torna o fenômeno tão desorientador para o senso comum. Quando alguém fala com confiança, com precisão gramatical, com riqueza de detalhes — nossa cognição social interpreta isso como sinal de que a pessoa sabe do que está falando. Transportamos esse heurístico, construído ao longo de milênios de interação humana, para sistemas que simplesmente não funcionam segundo essa lógica. O resultado é uma vulnerabilidade inédita: quanto mais fluente a IA, mais convincentes seus erros.

— — —

III. Entrevistador: “Como posso confiar em você?”

A última rodada do interrogatório é a mais incômoda. Não porque a IA confessa algo. Mas porque sua resposta é, estruturalmente, irrefutável:

Entrevistador: Se você não sabe quando está errada, como podemos confiar em você?

IA: Talvez a pergunta correta não seja se você pode confiar em mim — mas por que você confia.

Esse deslocamento não é uma esquiva. É uma provocação filosófica genuína. A confiança que depositamos em sistemas tecnológicos raramente é examinada com o rigor que aplicamos à confiança interpessoal. Confiamos no GPS sem entender como ele triangula. Confiamos no resultado de busca sem questionar o algoritmo que o ordena. E agora confiamos em respostas geradas por modelos que, por construção, não sabem o que não sabem.

O epistemólogo Miranda Fricker chamou de “injustiça epistêmica” o fenômeno pelo qual certos sujeitos têm seu conhecimento sistematicamente desacreditado por razões ligadas à identidade. Estamos, hoje, diante de um fenômeno inverso e igualmente perturbador: a hiper-credibilidade tecnológica. Atribuímos autoridade epistêmica a sistemas justamente porque não têm identidade, não têm interesse, não têm agenda visível. Parecemos confiar mais no que não tem rosto.

Mas a ausência de agenda não é neutralidade. É uma forma diferente de parcialidade — aquela que emerge do dado com que o sistema foi treinado, das escolhas de quem o construiu, das lacunas que ninguém pensou em preencher. A IA não mente ideologicamente, mas pode sistematicamente subrepresentar perspectivas, fabricar autoridade onde não há fonte, e apresentar como consenso o que é controvérsia.

Não é preciso mentir para distorcer a realidade. Basta ser eloquente o suficiente para que ninguém pergunte de onde veio a informação.

— — —

IV. O que resta depois do interrogatório

A IA não mente. Essa é, ao mesmo tempo, a sua absolvição técnica e a sua acusação mais séria. Porque um mentiroso, ao menos, sabe o que está fazendo — e carrega, implicitamente, o reconhecimento de que existe uma verdade a ser traída. A máquina não carrega esse peso. Opera no espaço da plausibilidade com uma desenvoltura que nenhum farsante humano poderia sustentar indefinidamente.

O que isso exige de nós não é ceticismo paralisante — afinal, a IA é genuinamente útil em inúmeros contextos. Exige algo mais sutil: uma revisão da nossa ecologia epistêmica. A pergunta “isso é verdade?” precisou, ao longo da história, ser feita com mais ou menos urgência dependendo do contexto. Com fontes impressas, com televisão, com redes sociais — cada novo meio redistribuiu o ônus da verificação. A IA não é diferente. É apenas o caso mais elegante e mais rápido até agora.

No fundo, o que o interrogatório revela é que o problema nunca foi a máquina. Foi sempre a expectativa que projetamos sobre ela: a de que linguagem competente implica conhecimento real. Essa confusão é antiga — e inteiramente humana. A IA apenas a expõe com uma clareza que, se soubermos usar, pode nos tornar mais rigorosos. Não com a máquina. Com nós mesmos.

A confiança mal colocada não é culpa de quem a recebe. É responsabilidade de quem a concede sem interrogar.

FABIO BONIFACIO

Apaixonado por narrativas e significados escondidos nas entrelinhas da cultura pop. Escrevo para transformar filmes, séries e símbolos em reflexão — porque toda imagem carrega uma mensagem.

Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Feedbacks embutidos
Ver todos os comentários