Em 2026, falar de AGI — Inteligência Artificial Geral — saiu do território acadêmico e virou pauta de conferência de investimentos, manchete de jornal e tema de debate político. A razão é simples: os três CEOs que comandam as maiores empresas de IA do mundo estão fazendo previsões cada vez mais ousadas. E essas previsões convergem em um intervalo curto: entre 2027 e 2030.

Vamos olhar o que cada um disse, separar marketing de substância, e analisar honestamente o que faz sentido considerar.

O que é AGI (e o que não é)

Antes de tudo: o termo é nebuloso por design. "Inteligência geral" significa coisas diferentes para pessoas diferentes. As três definições mais comuns em circulação:

  • Definição operacional (OpenAI): sistema que pode realizar a maior parte do trabalho economicamente valioso melhor que humanos.
  • Definição científica (DeepMind): sistema com capacidade de raciocínio, aprendizado, planejamento e generalização equivalente a um humano em qualquer domínio.
  • Definição filosófica (Anthropic): sistema com modelo causal do mundo robusto o suficiente para que sua compreensão se transfira a contextos novos sem treinamento específico.

Note que as três são diferentes. Quando alguém diz "AGI em 2027", a primeira pergunta deveria ser: qual definição?

Sam Altman (OpenAI): "a singularidade está perto"

Sam Altman, CEO da OpenAI, é o mais agressivo nas previsões. Em ensaios públicos ao longo de 2024-2025, ele disse coisas como:

  • "Sistemas que operam no nível de PhD em qualquer área até 2027."
  • "Estamos no limiar de uma transformação maior que a Revolução Industrial."
  • "AGI pode ser alcançada com a tecnologia que já temos, só precisa de mais escala e iteração."

Críticos lembram que Altman tem incentivo financeiro para gerar hype — a OpenAI captou recordes de investimento em 2025. Apoiadores argumentam que os benchmarks que o GPT-5 quebrou em 2026 (medalha de ouro em IMO, performance superior a PhDs em GPQA) sustentam parte da promessa.

Demis Hassabis (Google DeepMind): cauteloso e científico

Hassabis, ganhador do Nobel de Química em 2024 pelo AlphaFold, é mais comedido. Suas declarações principais:

  • "Acreditamos que AGI é alcançável em 5-10 anos, mas há marcos técnicos não resolvidos."
  • "O salto que falta envolve raciocínio causal e embodied learning — coisas que LLMs sozinhos não vão entregar."
  • "O risco é tão grande quanto o benefício; precisamos construir devagar e com supervisão."

O Gemini 3, lançado em 2026, reflete essa filosofia: foca em capacidades multimodais e científicas (especialmente em biologia, física, matemática) mais do que em performance generalista.

Dario Amodei (Anthropic): otimista mas alarmista

Dario Amodei é o mais paradoxal dos três. Otimista sobre capacidades, alarmista sobre riscos. Em 2024, ele publicou um ensaio chamado Machines of Loving Grace argumentando que IA avançada pode resolver câncer, depressão, mudança climática e pobreza extrema em 5-10 anos.

Ao mesmo tempo, ele é o líder de IA que mais publicamente fala sobre riscos existenciais. Em depoimento ao Senado americano em 2025, ele disse:

  • "Sistemas de IA com capacidades equivalentes às humanas podem aparecer em 2026-2027."
  • "Não estamos preparados, do ponto de vista regulatório nem técnico, para o que vem."
  • "O hiato entre capacidade de criar IAs poderosas e capacidade de garantir que elas sejam seguras está crescendo."

O Claude Opus 4.6 reflete essa abordagem: focado em segurança, raciocínio honesto e recusa cuidadosa de pedidos perigosos.

O que separar de marketing

Olhando os três juntos, dá pra extrair sinais reais por trás do ruído de marketing:

  1. Os três concordam que algo grande está perto. Não é só um CEO falando — é convergência.
  2. Os três discordam sobre o caminho. Altman acha que escala basta. Hassabis acha que precisa de novas técnicas. Amodei acha que precisa de muito mais foco em segurança.
  3. Todos têm interesse comercial em manter o hype alto. Levem as previsões com ceticismo proporcional ao tamanho da rodada de investimento mais recente.
  4. Nenhum deles se compromete com uma definição precisa. Quando o momento chegar (se chegar), vai haver disputa sobre se o sistema lançado é ou não AGI.

O que dizer aos críticos: AGI vai mesmo acontecer?

O debate entre crentes e céticos da AGI raramente é resolvido por argumentos — porque os dois lados operam com modelos mentais diferentes. Os crentes apontam para a curva exponencial de capacidades observada desde 2018. Os céticos apontam para os limites fundamentais de arquiteturas baseadas em transformers.

A verdade honesta em 2026 é: ninguém sabe. O que está claro é que, AGI ou não, sistemas com capacidades super-humanas em domínios específicos já existem (xadrez, dobra de proteínas, código, certas formas de raciocínio matemático). E a integração desses sistemas em quase todas as áreas profissionais já está em andamento.

O que isso muda pra você

Independente de quando AGI chegar (ou se chegar), as próximas duas fatias de tempo são previsíveis:

  • Próximos 12 meses: agentes mais autônomos, integração mais profunda com fluxos de trabalho profissionais, queda de preço por inferência.
  • Próximos 36 meses: reorganização de carreiras inteiras, surgimento de novas profissões, regulação mais séria, mudança em modelos econômicos.

A pergunta produtiva não é "quando vai chegar AGI?". É "como eu me posiciono pra prosperar em um mundo onde IA capaz de trabalho cognitivo complexo está cada vez mais barata e disponível?". E essa pergunta não precisa esperar 2027 — a resposta começa hoje.

Conclusão: o que prestar atenção em 2026

Em vez de ficar contando os meses até a próxima previsão grandiloquente, observe sinais concretos: quais tarefas profissionais novas a IA está conseguindo realizar este trimestre? Quais empregos antes seguros estão sendo redesenhados? Quais habilidades estão sendo subitamente valorizadas?

Esses são os indicadores reais. O resto é narrativa. E em narrativa, sempre os mesmos três caras vão estar dizendo que o futuro chegou — porque o trabalho deles é exatamente esse.