Enquanto empresas de IA correm para vender a ideia de que seus modelos mais recentes são capazes de “pensar” de forma estruturada, a Apple resolveu colocar essas alegações à prova.
Em um novo estudo publicado por seus pesquisadores, a maçã questiona diretamente a suposta evolução de grandes modelos de linguagem (LLMs) em direção ao raciocínio lógico, mesmo com os chamados Large Reasoning Models (LRMs).
Esses modelos foram projetados para “mostrar o raciocínio” ao gerar respostas passo a passo, na esperança de evitar erros grosseiros ou invenções típicas dos LLMs.
Mas os testes da Apple mostram que essa abordagem pode estar criando apenas a ilusão de pensamento.

Falham até com problemas simples
O experimento utilizou o famoso quebra-cabeça Torre de Hanói — um problema lógico clássico que pode ser resolvido de forma algorítmica.
O resultado? Os LRMs se saíram pior que os LLMs em versões simples do jogo (com até três discos), tiveram desempenho ligeiramente melhor com 4 a 7 discos, e falharam completamente quando o desafio envolvia 8 ou mais discos.
Mesmo fornecendo o algoritmo correto para resolver o desafio, os modelos falharam em seguir a lógica até o fim.
“Apesar dos mecanismos sofisticados de autoavaliação, esses modelos não conseguem desenvolver raciocínio generalizável além de certos níveis de complexidade”, conclui o artigo.
Especialistas reforçam as críticas
Gary Marcus, professor emérito da NYU e crítico conhecido das promessas exageradas da IA atual, comentou que esses resultados são mais uma evidência de que aumentar o tamanho dos modelos não nos levará automaticamente à inteligência artificial geral (AGI).
“Quem acredita que LLMs são um caminho direto para uma AGI transformadora está se iludindo”, afirma Marcus. “Esse caminho tem limites que estão cada vez mais evidentes.”
O que isso revela sobre a Apple Intelligence?
Mesmo que a Apple esteja atrás de concorrentes como Google e OpenAI na velocidade de lançamento de recursos, o estudo reforça que a empresa não está fora do jogo.
Pelo contrário: ela parece estar interessada em entender os limites reais da inteligência artificial atual — o que pode ser um diferencial importante no longo prazo.
A Apple não está simplesmente tentando competir em termos de recursos chamativos. Em vez disso, ela está:
- Focando em tarefas práticas e bem delimitadas, como reescrever textos, organizar e-mails ou buscar fotos com linguagem natural — áreas em que os LLMs funcionam bem.
- Evitando vender a ideia de “inteligência artificial geral”, que pensa como um ser humano. Ao mostrar que nem os modelos mais avançados conseguem resolver problemas lógicos simples como a Torre de Hanói, a Apple reforça a ideia de que a IA precisa ser útil, previsível e segura, em vez de parecer “muito inteligente”.
Essa visão mais cautelosa e técnica é, na prática, a base do Apple Intelligence.
A empresa está dizendo, com dados, que IA com “raciocínio” ainda é uma promessa distante — e por isso está apostando em funções bem definidas, úteis e controladas, respeitando privacidade e usabilidade.