6 de janeiro de 2026

IA não pensa. Não sente. E provavelmente nunca terá consciência.

Por Samuel Conradt

Este é o primeiro texto de uma séries de posts que irei fazer aqui no meu blog sobre inteligência artificial. Hoje iremos abordar de fato a IA atual pensa, ou sente de algum modo.

Primeiramente, deixamos claro, os LLM não são o que irá ter consciência um dia, pois eles não refletem, não compreendem e não possuem experiência subjetiva. O que fazem é estatística em escala industrial, muito similar o que streamings fazem por baixo dos panos, embalada com linguagem natural suficiente para enganar até muitos profissionais experientes.

Este texto não é anti‑IA, pelo contrário. É um texto a favor dela mesmo, pondo ela no centro original, contra o misticismo tecnológico.

O que uma LLM realmente é

Antes de mais nada, é importante a gente entender oque é um LLM, porque é a "IA" hoje. Uma LLM (Large Language Model) é, no seu núcleo, uma função matemática extremamente complexa que aprende distribuições de probabilidade sobre sequências de símbolos.

  • Ela não sabe o que é uma palavra.
  • Ela não entende uma frase.
  • Ela não tem noção do mundo.

Ela apenas calcula:

“Dado este contexto, qual é o próximo token mais provável?”

Nada mais. Nada menos. Não há intenção natural, não há significado interno próprio, e não há referência ao mundo real.

O sentido emerge no leitor humano, não no modelo, e somos muito bons nisso.

Por que isso parece pensamento?

Porque o ser humano é especialista em uma coisa, atribuir sentido onde há algum padrão.

Fazemos isso com:

  • Animais
  • Objetos
  • Fenômenos naturais
  • Máquinas

Quando um sistema produz linguagem coerente, articulada e contextual, nosso cérebro automaticamente assume, uma espécie de agência cognitiva, assim como fazemos com nossos animais de estimação por exemplo.

Mas coerência linguística não é cognição.

Uma calculadora pode fornecer a resposta correta de uma equação diferencial. Nem por isso ela entende matemática.

Pensar não é produzir frases

Pensar envolve, no mínimo:

  • Estado interno persistente
  • Modelo de si mesmo
  • Capacidade de erro com compreensão do erro
  • Intencionalidade
  • Experiência subjetiva (qualia)
  • Experiência Empirica

LLMs não possuem nenhum desses elementos.

Elas não têm:

  • Memória autobiográfica
  • Continuidade de identidade
  • Experiência do tempo
  • Desejo
  • Medo
  • Dor
  • Intenção

Quando uma IA diz “eu penso”, isso é apenas mimese linguística.

Ela não está mentindo, ela está apenas prevendo tokens, e acima de tudo, fazendo o que ela foi treinada, fingir ser um humano.

“Mas e se escalar mais?”

Essa é a pergunta errada. Assim como a pergunta feita a máquina do mochileiro das galaxias Escalar um sistema estatístico provavelmente produz:

  • Mais fluidez
  • Mais generalização
  • Mais ilusão de compreensão
  • Mais interpretabilidade
  • Aproximação de linguagem humana

Não produz:

  • Consciência
  • Intencionalidade
  • Experiência subjetiva

Consciência não é um fenômeno simples, até mesmo que nem sabemos como ela se da, apenas tentamos reproduzir na máquina, um comportamento que vemos externamente nos humanos. Achar que consciência emerge automaticamente de escala é como acreditar que, aumentando a resolução de uma câmera, ela começará a sentir o que filma, e isso é um absurdo sem duvidas.

A confusão entre inteligência e consciência

O nosso erro clássico hoje é confundir performance cognitiva com experiência consciente.

Um sistema pode:

  • Auxiliar diagnósticos médicos com alta precisão estatística
  • Dirigir carros
  • Escrever código usando códigos existente
  • Compor música recombinando padrões estatísticos aprendidos a partir de dados existentes

Sem nunca ter consciência. LLMs não produzem nada, apenas copiam e geram similaridade entre dados.

Inteligência funcional ≠ consciência.

Mas isso não diminui o poder da IA. Isso a coloca no lugar correto, e nos lembra do porque somos humanos.

E se, no futuro, surgir algo diferente?

Talvez, só se falarmos de:

  • Sistemas não‑turingianos
  • Arquiteturas neuro‑inspiradas reais
  • Modelos com corpo, mundo e experiência
  • Continuidade ontológica

Então não estaremos mais falando de LLMs, com certeza. Estaremos falando de outra coisa algo que não podemos advinha ainda Talvez algo que mereça o nome de "mente artificial".

Mas isso exigirá provavelmente:

  • Nova computação
  • Nova filosofia
  • Nova ética E, provavelmente, abandonar boa parte da bolha atual

O verdadeiro perigo não é a IA pensar

O perigo real é os humanos pararem de pensar e terceirizarem suas decisões

Quando tratamos sistemas estatísticos como oráculos, perdemos:

  • Responsabilidade
  • Critério
  • Autonomia intelectual

A IA deve ser:

  • Ferramenta
  • Amplificador
  • Instrumento

Nunca substituto de consciência humana.

Conclusão

LLMs não pensam. Não sentem. Não acordam.

E isso é bom, isso é ótimo na realidade.

Porque nos obriga a fazer o que sempre foi o papel da ciência, entender profundamente o que estamos construindo.

Este texto inaugura o blog. Aqui falaremos de IA, ciência da computação, engenharia, filosofia da tecnologia e limites reais


Fontes

Fontes para estudar um pouco mais do que foi falado, para você tomar sua conclusão: