Este é o primeiro texto de uma séries de posts que irei fazer aqui no meu blog sobre inteligência artificial. Hoje iremos abordar de fato a IA atual pensa, ou sente de algum modo.
Primeiramente, deixamos claro, os LLM não são o que irá ter consciência um dia, pois eles não refletem, não compreendem e não possuem experiência subjetiva. O que fazem é estatística em escala industrial, muito similar o que streamings fazem por baixo dos panos, embalada com linguagem natural suficiente para enganar até muitos profissionais experientes.
Este texto não é anti‑IA, pelo contrário. É um texto a favor dela mesmo, pondo ela no centro original, contra o misticismo tecnológico.
O que uma LLM realmente é
Antes de mais nada, é importante a gente entender oque é um LLM, porque é a "IA" hoje. Uma LLM (Large Language Model) é, no seu núcleo, uma função matemática extremamente complexa que aprende distribuições de probabilidade sobre sequências de símbolos.
- Ela não sabe o que é uma palavra.
- Ela não entende uma frase.
- Ela não tem noção do mundo.
Ela apenas calcula:
“Dado este contexto, qual é o próximo token mais provável?”
Nada mais. Nada menos. Não há intenção natural, não há significado interno próprio, e não há referência ao mundo real.
O sentido emerge no leitor humano, não no modelo, e somos muito bons nisso.
Por que isso parece pensamento?
Porque o ser humano é especialista em uma coisa, atribuir sentido onde há algum padrão.
Fazemos isso com:
- Animais
- Objetos
- Fenômenos naturais
- Máquinas
Quando um sistema produz linguagem coerente, articulada e contextual, nosso cérebro automaticamente assume, uma espécie de agência cognitiva, assim como fazemos com nossos animais de estimação por exemplo.
Mas coerência linguística não é cognição.
Uma calculadora pode fornecer a resposta correta de uma equação diferencial. Nem por isso ela entende matemática.
Pensar não é produzir frases
Pensar envolve, no mínimo:
- Estado interno persistente
- Modelo de si mesmo
- Capacidade de erro com compreensão do erro
- Intencionalidade
- Experiência subjetiva (qualia)
- Experiência Empirica
LLMs não possuem nenhum desses elementos.
Elas não têm:
- Memória autobiográfica
- Continuidade de identidade
- Experiência do tempo
- Desejo
- Medo
- Dor
- Intenção
Quando uma IA diz “eu penso”, isso é apenas mimese linguística.
Ela não está mentindo, ela está apenas prevendo tokens, e acima de tudo, fazendo o que ela foi treinada, fingir ser um humano.
“Mas e se escalar mais?”
Essa é a pergunta errada. Assim como a pergunta feita a máquina do mochileiro das galaxias Escalar um sistema estatístico provavelmente produz:
- Mais fluidez
- Mais generalização
- Mais ilusão de compreensão
- Mais interpretabilidade
- Aproximação de linguagem humana
Não produz:
- Consciência
- Intencionalidade
- Experiência subjetiva
Consciência não é um fenômeno simples, até mesmo que nem sabemos como ela se da, apenas tentamos reproduzir na máquina, um comportamento que vemos externamente nos humanos. Achar que consciência emerge automaticamente de escala é como acreditar que, aumentando a resolução de uma câmera, ela começará a sentir o que filma, e isso é um absurdo sem duvidas.
A confusão entre inteligência e consciência
O nosso erro clássico hoje é confundir performance cognitiva com experiência consciente.
Um sistema pode:
- Auxiliar diagnósticos médicos com alta precisão estatística
- Dirigir carros
- Escrever código usando códigos existente
- Compor música recombinando padrões estatísticos aprendidos a partir de dados existentes
Sem nunca ter consciência. LLMs não produzem nada, apenas copiam e geram similaridade entre dados.
Inteligência funcional ≠ consciência.
Mas isso não diminui o poder da IA. Isso a coloca no lugar correto, e nos lembra do porque somos humanos.
E se, no futuro, surgir algo diferente?
Talvez, só se falarmos de:
- Sistemas não‑turingianos
- Arquiteturas neuro‑inspiradas reais
- Modelos com corpo, mundo e experiência
- Continuidade ontológica
Então não estaremos mais falando de LLMs, com certeza. Estaremos falando de outra coisa algo que não podemos advinha ainda Talvez algo que mereça o nome de "mente artificial".
Mas isso exigirá provavelmente:
- Nova computação
- Nova filosofia
- Nova ética E, provavelmente, abandonar boa parte da bolha atual
O verdadeiro perigo não é a IA pensar
O perigo real é os humanos pararem de pensar e terceirizarem suas decisões
Quando tratamos sistemas estatísticos como oráculos, perdemos:
- Responsabilidade
- Critério
- Autonomia intelectual
A IA deve ser:
- Ferramenta
- Amplificador
- Instrumento
Nunca substituto de consciência humana.
Conclusão
LLMs não pensam. Não sentem. Não acordam.
E isso é bom, isso é ótimo na realidade.
Porque nos obriga a fazer o que sempre foi o papel da ciência, entender profundamente o que estamos construindo.
Este texto inaugura o blog. Aqui falaremos de IA, ciência da computação, engenharia, filosofia da tecnologia e limites reais
Fontes
Fontes para estudar um pouco mais do que foi falado, para você tomar sua conclusão:
- Sala chinesa e o entendimento dos símbolos: https://plato.stanford.edu/entries/chinese-room/
- Sobre escalar não bastar: https://en.wikipedia.org/wiki/Penrose%E2%80%93Lucas_argument
- Teoria de Penrose sobre consciência: https://thebookofworks.com/2022/05/14/godel-penrose-and-consciousness/
- Perigo de pararmos de pensar: https://blog.apaonline.org/2024/01/08/embracing-the-mad-science-of-machine-consciousness/
- Filosofia da IA: https://en.wikipedia.org/wiki/Philosophy_of_artificial_intelligence