Líderes de IA Discutem AGI: Baseados na Realidade
9 de Maio de 2025
DanielThomas
0

Durante um recente jantar com líderes empresariais em San Francisco, lancei uma pergunta que pareceu congelar o ambiente: será que a IA de hoje poderia alcançar ou até superar a inteligência humana? É um tema que gera mais debate do que se poderia esperar.
Em 2025, CEOs de tecnologia estão cheios de otimismo sobre modelos de linguagem de grande escala (LLMs), como os por trás do ChatGPT e Gemini. Eles estão convencidos de que esses modelos poderiam em breve atingir a inteligência humana ou até super-humana. Por exemplo, Dario Amodei, da Anthropic, escreveu ensaios sugerindo que até 2026, poderíamos ver uma IA mais inteligente do que os laureados com o Nobel em várias áreas. Enquanto isso, Sam Altman, da OpenAI, tem sido vocal sobre saber como construir uma IA "superinteligente", prevendo que isso poderia impulsionar a descoberta científica.
Mas nem todos estão comprando essa visão otimista. Alguns líderes de IA são céticos sobre os LLMs alcançarem a AGI, quanto mais a superinteligência, sem avanços significativos. Esses céticos, antes silenciosos, agora estão se manifestando mais.
Ceticismo na Comunidade de IA
Considere Thomas Wolf, cofundador e diretor de ciência da Hugging Face. Em um artigo recente, ele chamou partes da visão de Amodei de "pensamento desejante no melhor dos casos". Baseando-se em seu PhD em física estatística e quântica, Wolf argumenta que avanços no nível do Nobel vêm de fazer novas perguntas, não apenas de responder às conhecidas — algo em que a IA é boa, mas não excelente para abrir novos caminhos.
"Gostaria de ver esse 'modelo Einstein' por aí, mas precisamos mergulhar nos detalhes de como chegar lá", Wolf compartilhou em uma entrevista com o TechCrunch. Ele escreveu seu artigo porque sentiu que o hype em torno da AGI estava ofuscando a necessidade de uma discussão séria sobre como alcançá-la. Wolf vê um futuro em que a IA transforma o mundo, mas não necessariamente um em que ela atinge a inteligência humana ou superinteligência.
A comunidade de IA muitas vezes é dividida entre aqueles que acreditam na AGI e aqueles que não acreditam, com estes últimos às vezes rotulados como "anti-tecnologia" ou simplesmente pessimistas. Wolf, no entanto, se considera um "otimista informado", defendendo o avanço da IA enquanto permanece ancorado na realidade.
Outras Vozes no Debate sobre IA
O CEO da Google DeepMind, Demis Hassabis, supostamente disse à sua equipe que a AGI pode ainda estar a uma década de distância, apontando as muitas tarefas que a IA ainda não consegue lidar. O cientista-chefe de IA da Meta, Yann LeCun, também expressou dúvidas sobre os LLMs alcançarem a AGI, chamando a ideia de "absurda" na Nvidia GTC e defendendo novas arquiteturas para sustentar a superinteligência.
Kenneth Stanley, ex-pesquisador-chefe da OpenAI e agora executivo da Lila Sciences, está trabalhando nos detalhes da construção de IA avançada. Sua startup, que recentemente levantou US$ 200 milhões, está focada em automatizar a inovação científica. O trabalho de Stanley mergulha na capacidade da IA de gerar ideias originais e criativas — um campo conhecido como "abertura".
"Gostaria de ter escrito [o ensaio de Wolf], porque ele realmente reflete meus sentimentos", Stanley disse ao TechCrunch. Ele concorda com Wolf que ser conhecedor não leva automaticamente a ideias originais.
O Papel da Criatividade na IA
Stanley acredita que a criatividade é crucial para a AGI, mas admite que é um desafio difícil de superar. Enquanto otimistas como Amodei destacam modelos de "raciocínio" da IA como um passo em direção à AGI, Stanley argumenta que a criatividade exige um tipo diferente de inteligência. "O raciocínio é quase antitético à [criatividade]", ele explicou. "Os modelos de raciocínio focam em alcançar um objetivo específico, o que pode limitar o tipo de pensamento oportunístico necessário para a criatividade."
Stanley sugere que, para construir uma IA verdadeiramente inteligente, precisamos replicar algoritmicamente o gosto humano por novas ideias. Enquanto a IA se destaca em áreas como matemática e programação, onde as respostas são claras, ela luta com tarefas mais subjetivas e criativas que não têm uma resposta "correta".
"As pessoas se afastam da [subjetividade] na ciência — a palavra é quase tóxica", Stanley observou. "Mas não há nada que nos impeça de lidar com a subjetividade [algoritmicamente]. É apenas parte do fluxo de dados."
Ele está encorajado pelo crescente foco na abertura, com laboratórios de pesquisa na Lila Sciences, Google DeepMind e a startup de IA Sakana abordando a questão. Stanley vê mais pessoas falando sobre criatividade na IA, mas acredita que ainda há muito trabalho pela frente.
Os Realistas da IA
Wolf e LeCun podem ser considerados os "realistas da IA": líderes que abordam a AGI e a superinteligência com perguntas fundamentadas sobre sua viabilidade. Seu objetivo não é descartar os avanços da IA, mas sim iniciar uma conversa mais ampla sobre o que está impedindo a IA de alcançar a AGI e a superinteligência — e enfrentar esses desafios diretamente.
Artigo relacionado
OpenAI Strikes Back: Sues Elon Musk for Alleged Efforts to Undermine AI Competitor
OpenAI has launched a fierce legal counterattack against its co-founder, Elon Musk, and his competing AI company, xAI. In a dramatic escalation of their ongoing feud, OpenAI accuses Musk of waging a "relentless" and "malicious" campaign to undermine the company he helped start.
According to court d
Law of Accelerating Returns Explained: Pathway to AGI Development
In a recent interview, Elon Musk shared his optimistic view on the timeline for the advent of Artificial General Intelligence (AGI), stating it could be as soon as *“3 to 6 years”*. Similarly, Demis Hassabis, CEO of Google's DeepMind, expressed at The Wall Street Journal’s Future of Everything Festi
New AGI Test Proves Challenging, Stumps Majority of AI Models
The Arc Prize Foundation, co-founded by renowned AI researcher François Chollet, recently unveiled a new benchmark called ARC-AGI-2 in a blog post. This test aims to push the boundaries of AI's general intelligence, and so far, it's proving to be a tough nut to crack for most AI models.According to
Comentários (0)
0/200






Durante um recente jantar com líderes empresariais em San Francisco, lancei uma pergunta que pareceu congelar o ambiente: será que a IA de hoje poderia alcançar ou até superar a inteligência humana? É um tema que gera mais debate do que se poderia esperar.
Em 2025, CEOs de tecnologia estão cheios de otimismo sobre modelos de linguagem de grande escala (LLMs), como os por trás do ChatGPT e Gemini. Eles estão convencidos de que esses modelos poderiam em breve atingir a inteligência humana ou até super-humana. Por exemplo, Dario Amodei, da Anthropic, escreveu ensaios sugerindo que até 2026, poderíamos ver uma IA mais inteligente do que os laureados com o Nobel em várias áreas. Enquanto isso, Sam Altman, da OpenAI, tem sido vocal sobre saber como construir uma IA "superinteligente", prevendo que isso poderia impulsionar a descoberta científica.
Mas nem todos estão comprando essa visão otimista. Alguns líderes de IA são céticos sobre os LLMs alcançarem a AGI, quanto mais a superinteligência, sem avanços significativos. Esses céticos, antes silenciosos, agora estão se manifestando mais.
Ceticismo na Comunidade de IA
Considere Thomas Wolf, cofundador e diretor de ciência da Hugging Face. Em um artigo recente, ele chamou partes da visão de Amodei de "pensamento desejante no melhor dos casos". Baseando-se em seu PhD em física estatística e quântica, Wolf argumenta que avanços no nível do Nobel vêm de fazer novas perguntas, não apenas de responder às conhecidas — algo em que a IA é boa, mas não excelente para abrir novos caminhos.
"Gostaria de ver esse 'modelo Einstein' por aí, mas precisamos mergulhar nos detalhes de como chegar lá", Wolf compartilhou em uma entrevista com o TechCrunch. Ele escreveu seu artigo porque sentiu que o hype em torno da AGI estava ofuscando a necessidade de uma discussão séria sobre como alcançá-la. Wolf vê um futuro em que a IA transforma o mundo, mas não necessariamente um em que ela atinge a inteligência humana ou superinteligência.
A comunidade de IA muitas vezes é dividida entre aqueles que acreditam na AGI e aqueles que não acreditam, com estes últimos às vezes rotulados como "anti-tecnologia" ou simplesmente pessimistas. Wolf, no entanto, se considera um "otimista informado", defendendo o avanço da IA enquanto permanece ancorado na realidade.
Outras Vozes no Debate sobre IA
O CEO da Google DeepMind, Demis Hassabis, supostamente disse à sua equipe que a AGI pode ainda estar a uma década de distância, apontando as muitas tarefas que a IA ainda não consegue lidar. O cientista-chefe de IA da Meta, Yann LeCun, também expressou dúvidas sobre os LLMs alcançarem a AGI, chamando a ideia de "absurda" na Nvidia GTC e defendendo novas arquiteturas para sustentar a superinteligência.
Kenneth Stanley, ex-pesquisador-chefe da OpenAI e agora executivo da Lila Sciences, está trabalhando nos detalhes da construção de IA avançada. Sua startup, que recentemente levantou US$ 200 milhões, está focada em automatizar a inovação científica. O trabalho de Stanley mergulha na capacidade da IA de gerar ideias originais e criativas — um campo conhecido como "abertura".
"Gostaria de ter escrito [o ensaio de Wolf], porque ele realmente reflete meus sentimentos", Stanley disse ao TechCrunch. Ele concorda com Wolf que ser conhecedor não leva automaticamente a ideias originais.
O Papel da Criatividade na IA
Stanley acredita que a criatividade é crucial para a AGI, mas admite que é um desafio difícil de superar. Enquanto otimistas como Amodei destacam modelos de "raciocínio" da IA como um passo em direção à AGI, Stanley argumenta que a criatividade exige um tipo diferente de inteligência. "O raciocínio é quase antitético à [criatividade]", ele explicou. "Os modelos de raciocínio focam em alcançar um objetivo específico, o que pode limitar o tipo de pensamento oportunístico necessário para a criatividade."
Stanley sugere que, para construir uma IA verdadeiramente inteligente, precisamos replicar algoritmicamente o gosto humano por novas ideias. Enquanto a IA se destaca em áreas como matemática e programação, onde as respostas são claras, ela luta com tarefas mais subjetivas e criativas que não têm uma resposta "correta".
"As pessoas se afastam da [subjetividade] na ciência — a palavra é quase tóxica", Stanley observou. "Mas não há nada que nos impeça de lidar com a subjetividade [algoritmicamente]. É apenas parte do fluxo de dados."
Ele está encorajado pelo crescente foco na abertura, com laboratórios de pesquisa na Lila Sciences, Google DeepMind e a startup de IA Sakana abordando a questão. Stanley vê mais pessoas falando sobre criatividade na IA, mas acredita que ainda há muito trabalho pela frente.
Os Realistas da IA
Wolf e LeCun podem ser considerados os "realistas da IA": líderes que abordam a AGI e a superinteligência com perguntas fundamentadas sobre sua viabilidade. Seu objetivo não é descartar os avanços da IA, mas sim iniciar uma conversa mais ampla sobre o que está impedindo a IA de alcançar a AGI e a superinteligência — e enfrentar esses desafios diretamente.











