![]() |
| Foto reprodução: G1 |
Podemos saber se estamos falando com uma pessoa ou com uma inteligência artificial?
Por décadas, essa pergunta tem servido como um dos principais critérios para avaliar o quão “inteligentes” os computadores realmente são. A discussão ganhou forma em 1950, quando o matemático e cientista da computação britânico Alan Turing propôs um experimento que ficou conhecido como Teste de Turing, transformando um debate filosófico em um método prático de avaliação.
A ideia é simples: se o comportamento de uma máquina for indistinguível do de um ser humano durante uma conversa, ela poderia ser considerada inteligente. No entanto, quando um chatbot supostamente “passou” no teste pela primeira vez, em 2014, o feito não foi celebrado de forma unânime ao contrário, reacendeu antigas controvérsias.
Um jogo de imitação
No Teste de Turing, uma pessoa conversa por texto com dois interlocutores: um humano e um computador. Após fazer as perguntas que quiser, ela precisa decidir qual deles é a máquina.
Segundo Cameron Jones, professor assistente de psicologia da Universidade Stony Brook, nos Estados Unidos, Turing defendia que, se não fosse possível distinguir humanos de máquinas de forma confiável, não haveria base sólida para afirmar que apenas os humanos “pensam”. O próprio Turing estimou que, até o ano 2000, computadores enganariam avaliadores em cerca de 30% das vezes após cinco minutos de conversa.
O caso Eugene Goostman
Em 2014, o chatbot Eugene Goostman convenceu 33% dos juízes de que era humano, superando o limite definido pelos organizadores da competição. Ele se comunicava em inglês e se apresentava como um adolescente ucraniano de 13 anos.
Para o filósofo Markus Pantsar, da Universidade RWTH Aachen, na Alemanha, isso comprometeu a legitimidade do resultado. Segundo ele, as falhas do chatbot eram compatíveis com as limitações linguísticas esperadas de um jovem estrangeiro, o que teria facilitado o engano.
Desde então, sistemas muito mais sofisticados surgiram. Em um estudo publicado no início de 2025, Cameron Jones mostrou que o ChatGPT 4.5, da OpenAI, foi considerado humano em 73% das interações superando, inclusive, participantes humanos. Já o Llama 3.1, da Meta, atingiu 56%.
“É difícil argumentar que esses modelos não passaram no teste, já que são identificados como humanos com mais frequência do que as próprias pessoas”, afirma Jones.
Pensar ou apenas imitar?
Apesar desses números, nem todos concordam que isso prove que máquinas realmente pensam. Um dos argumentos mais conhecidos é o do “quarto chinês”, proposto pelo filósofo John Searle em 1980.
No experimento mental, um homem que não entende chinês recebe instruções, em inglês, para manipular símbolos chineses e responder perguntas. Para quem observa de fora, parece que ele domina o idioma mas, na realidade, não compreende seu significado. Críticos afirmam que algo semelhante ocorre com a IA: ela produz respostas corretas sem entendimento genuíno.
George Mappouras, engenheiro de software na Califórnia, reforça essa visão ao dizer que o Teste de Turing mede mais a capacidade de imitação do que a inteligência em si. Ele exemplifica: um chatbot pode explicar perfeitamente como funciona um relógio analógico, mas falhar ao tentar representar visualmente um horário específico, o que indicaria falta de compreensão real.
Pantsar também critica o foco excessivo na habilidade de enganar. Para ele, o comportamento inteligente pode envolver engano, mas isso está longe de ser o aspecto central da inteligência.
Novas formas de avaliação
Como alternativa, Pantsar propôs o Teste de Inteligência Baseado em Comunidade (CBIT). Nesse modelo, um sistema de IA é inserido anonimamente em uma comunidade real como um fórum de matemáticos e, após um período, os membros são avaliados para verificar se perceberam estar interagindo com uma máquina.
A proposta, segundo o filósofo, prioriza a capacidade de a IA se comportar de forma humana em ambientes naturais, em vez de simplesmente “interpretar um papel”. Além disso, o teste incentivaria desenvolvedores a focarem na utilidade prática dos sistemas, e não apenas em sua habilidade de enganar avaliadores.
Já Mappouras defende um critério ainda mais ambicioso: para ele, a chamada inteligência artificial geral só seria alcançada quando uma máquina fosse capaz de propor novos conhecimentos científicos e explicá-los de forma coerente, a partir de informações que já possui.
O Teste de Turing ainda importa?
Apesar das críticas, há quem veja valor contínuo no Teste de Turing. Jones argumenta que o caráter aberto do teste sem perguntas pré-definidas permite avaliar uma inteligência mais flexível e dinâmica.
“Se substituirmos isso por métricas estáticas, corremos o risco de distorcer o que Turing realmente pretendia”, diz.
Pantsar, por sua vez, acredita que a distinção entre humanos e máquinas tende a desaparecer. Para ele, tentar manter essa separação é uma “batalha perdida”. Ainda assim, provar essa indistinguibilidade seria importante para justificar leis que obriguem sistemas de IA a se identificarem como tal, por questões de responsabilidade.
“Se eu publicar um artigo com dados errados, a responsabilidade é minha. Mas se um texto for gerado por IA, quem responde por isso?”, questiona.
Jones concorda que medir a capacidade de uma máquina de se passar por humana continua relevante, especialmente em um mundo cada vez mais digital. “Passamos muito tempo interagindo online e, cada vez mais, percebemos que nem sempre estamos falando com pessoas reais”, afirma.
Nesse sentido, o Teste de Turing segue sendo um termômetro importante para acompanhar o quanto essa confusão entre humanos e máquinas tende a se tornar comum.
Fonte: G1

