Líderes de IA Discutem AGI: Baseados na Realidade

Durante um recente jantar com líderes empresariais em San Francisco, lancei uma pergunta que pareceu congelar o ambiente: será que a IA de hoje poderia alcançar ou até superar a inteligência humana? É um tema que gera mais debate do que se poderia esperar.
Em 2025, CEOs de tecnologia estão cheios de otimismo sobre modelos de linguagem de grande escala (LLMs), como os por trás do ChatGPT e Gemini. Eles estão convencidos de que esses modelos poderiam em breve atingir a inteligência humana ou até super-humana. Por exemplo, Dario Amodei, da Anthropic, escreveu ensaios sugerindo que até 2026, poderíamos ver uma IA mais inteligente do que os laureados com o Nobel em várias áreas. Enquanto isso, Sam Altman, da OpenAI, tem sido vocal sobre saber como construir uma IA "superinteligente", prevendo que isso poderia impulsionar a descoberta científica.
Mas nem todos estão comprando essa visão otimista. Alguns líderes de IA são céticos sobre os LLMs alcançarem a AGI, quanto mais a superinteligência, sem avanços significativos. Esses céticos, antes silenciosos, agora estão se manifestando mais.
Ceticismo na Comunidade de IA
Considere Thomas Wolf, cofundador e diretor de ciência da Hugging Face. Em um artigo recente, ele chamou partes da visão de Amodei de "pensamento desejante no melhor dos casos". Baseando-se em seu PhD em física estatística e quântica, Wolf argumenta que avanços no nível do Nobel vêm de fazer novas perguntas, não apenas de responder às conhecidas — algo em que a IA é boa, mas não excelente para abrir novos caminhos.
"Gostaria de ver esse 'modelo Einstein' por aí, mas precisamos mergulhar nos detalhes de como chegar lá", Wolf compartilhou em uma entrevista com o TechCrunch. Ele escreveu seu artigo porque sentiu que o hype em torno da AGI estava ofuscando a necessidade de uma discussão séria sobre como alcançá-la. Wolf vê um futuro em que a IA transforma o mundo, mas não necessariamente um em que ela atinge a inteligência humana ou superinteligência.
A comunidade de IA muitas vezes é dividida entre aqueles que acreditam na AGI e aqueles que não acreditam, com estes últimos às vezes rotulados como "anti-tecnologia" ou simplesmente pessimistas. Wolf, no entanto, se considera um "otimista informado", defendendo o avanço da IA enquanto permanece ancorado na realidade.
Outras Vozes no Debate sobre IA
O CEO da Google DeepMind, Demis Hassabis, supostamente disse à sua equipe que a AGI pode ainda estar a uma década de distância, apontando as muitas tarefas que a IA ainda não consegue lidar. O cientista-chefe de IA da Meta, Yann LeCun, também expressou dúvidas sobre os LLMs alcançarem a AGI, chamando a ideia de "absurda" na Nvidia GTC e defendendo novas arquiteturas para sustentar a superinteligência.
Kenneth Stanley, ex-pesquisador-chefe da OpenAI e agora executivo da Lila Sciences, está trabalhando nos detalhes da construção de IA avançada. Sua startup, que recentemente levantou US$ 200 milhões, está focada em automatizar a inovação científica. O trabalho de Stanley mergulha na capacidade da IA de gerar ideias originais e criativas — um campo conhecido como "abertura".
"Gostaria de ter escrito [o ensaio de Wolf], porque ele realmente reflete meus sentimentos", Stanley disse ao TechCrunch. Ele concorda com Wolf que ser conhecedor não leva automaticamente a ideias originais.
O Papel da Criatividade na IA
Stanley acredita que a criatividade é crucial para a AGI, mas admite que é um desafio difícil de superar. Enquanto otimistas como Amodei destacam modelos de "raciocínio" da IA como um passo em direção à AGI, Stanley argumenta que a criatividade exige um tipo diferente de inteligência. "O raciocínio é quase antitético à [criatividade]", ele explicou. "Os modelos de raciocínio focam em alcançar um objetivo específico, o que pode limitar o tipo de pensamento oportunístico necessário para a criatividade."
Stanley sugere que, para construir uma IA verdadeiramente inteligente, precisamos replicar algoritmicamente o gosto humano por novas ideias. Enquanto a IA se destaca em áreas como matemática e programação, onde as respostas são claras, ela luta com tarefas mais subjetivas e criativas que não têm uma resposta "correta".
"As pessoas se afastam da [subjetividade] na ciência — a palavra é quase tóxica", Stanley observou. "Mas não há nada que nos impeça de lidar com a subjetividade [algoritmicamente]. É apenas parte do fluxo de dados."
Ele está encorajado pelo crescente foco na abertura, com laboratórios de pesquisa na Lila Sciences, Google DeepMind e a startup de IA Sakana abordando a questão. Stanley vê mais pessoas falando sobre criatividade na IA, mas acredita que ainda há muito trabalho pela frente.
Os Realistas da IA
Wolf e LeCun podem ser considerados os "realistas da IA": líderes que abordam a AGI e a superinteligência com perguntas fundamentadas sobre sua viabilidade. Seu objetivo não é descartar os avanços da IA, mas sim iniciar uma conversa mais ampla sobre o que está impedindo a IA de alcançar a AGI e a superinteligência — e enfrentar esses desafios diretamente.
Artigo relacionado
AI領導者討論AGI:基於現實
在最近一次與舊金山商業領袖的晚餐上,我提出了一個似乎讓現場冷場的問題:今天的人工智能是否能達到或超越人類的智能?這是一個比你預期的更能引發爭議的話題。到了2025年,科技CEO們對像ChatGPT和Gemini背後的大型語言模型(LLM)充滿了樂觀情緒。他們相信這些模型很快就能達到人類級別甚至超人類的智能。以Anthropic的Dario Amodei為例,
Openai反擊:起訴Elon Musk涉嫌努力破壞AI競爭對手
Openai對其聯合創始人Elon Musk及其競爭的AI公司Xai發起了激烈的法律反擊。在他們正在進行的爭執的戲劇性升級中,Openai指責馬斯克發動了一場“無情”和“惡意”運動,破壞了他幫助創辦的公司。根據法院D
加速回報定律解釋了:AGI開發途徑
在最近的一次採訪中,埃隆·馬斯克(Elon Musk)分享了他對人工通用情報(AGI)的時間表的樂觀觀點(AGI),並指出它可能是 *“ 3至6年” *。同樣,Google DeepMind的首席執行官Demis Hassabis在《華爾街日報》的《一切事物》上表達了
Comentários (5)
0/200
ElijahWalker
9 de Maio de 2025 à0 00:00:00 GMT
The AI Leaders discussion on AGI was eye-opening. It grounded the conversation in reality, which is refreshing. Some of the points made were thought-provoking, though I wish there was more depth in certain areas. Overall, it was a solid talk with valuable insights.
0
StevenNelson
10 de Maio de 2025 à0 00:00:00 GMT
AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。
0
RalphSanchez
10 de Maio de 2025 à0 00:00:00 GMT
AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.
0
CharlesRoberts
11 de Maio de 2025 à0 00:00:00 GMT
A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.
0
MarkRoberts
11 de Maio de 2025 à0 00:00:00 GMT
La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.
0
Durante um recente jantar com líderes empresariais em San Francisco, lancei uma pergunta que pareceu congelar o ambiente: será que a IA de hoje poderia alcançar ou até superar a inteligência humana? É um tema que gera mais debate do que se poderia esperar.
Em 2025, CEOs de tecnologia estão cheios de otimismo sobre modelos de linguagem de grande escala (LLMs), como os por trás do ChatGPT e Gemini. Eles estão convencidos de que esses modelos poderiam em breve atingir a inteligência humana ou até super-humana. Por exemplo, Dario Amodei, da Anthropic, escreveu ensaios sugerindo que até 2026, poderíamos ver uma IA mais inteligente do que os laureados com o Nobel em várias áreas. Enquanto isso, Sam Altman, da OpenAI, tem sido vocal sobre saber como construir uma IA "superinteligente", prevendo que isso poderia impulsionar a descoberta científica.
Mas nem todos estão comprando essa visão otimista. Alguns líderes de IA são céticos sobre os LLMs alcançarem a AGI, quanto mais a superinteligência, sem avanços significativos. Esses céticos, antes silenciosos, agora estão se manifestando mais.
Ceticismo na Comunidade de IA
Considere Thomas Wolf, cofundador e diretor de ciência da Hugging Face. Em um artigo recente, ele chamou partes da visão de Amodei de "pensamento desejante no melhor dos casos". Baseando-se em seu PhD em física estatística e quântica, Wolf argumenta que avanços no nível do Nobel vêm de fazer novas perguntas, não apenas de responder às conhecidas — algo em que a IA é boa, mas não excelente para abrir novos caminhos.
"Gostaria de ver esse 'modelo Einstein' por aí, mas precisamos mergulhar nos detalhes de como chegar lá", Wolf compartilhou em uma entrevista com o TechCrunch. Ele escreveu seu artigo porque sentiu que o hype em torno da AGI estava ofuscando a necessidade de uma discussão séria sobre como alcançá-la. Wolf vê um futuro em que a IA transforma o mundo, mas não necessariamente um em que ela atinge a inteligência humana ou superinteligência.
A comunidade de IA muitas vezes é dividida entre aqueles que acreditam na AGI e aqueles que não acreditam, com estes últimos às vezes rotulados como "anti-tecnologia" ou simplesmente pessimistas. Wolf, no entanto, se considera um "otimista informado", defendendo o avanço da IA enquanto permanece ancorado na realidade.
Outras Vozes no Debate sobre IA
O CEO da Google DeepMind, Demis Hassabis, supostamente disse à sua equipe que a AGI pode ainda estar a uma década de distância, apontando as muitas tarefas que a IA ainda não consegue lidar. O cientista-chefe de IA da Meta, Yann LeCun, também expressou dúvidas sobre os LLMs alcançarem a AGI, chamando a ideia de "absurda" na Nvidia GTC e defendendo novas arquiteturas para sustentar a superinteligência.
Kenneth Stanley, ex-pesquisador-chefe da OpenAI e agora executivo da Lila Sciences, está trabalhando nos detalhes da construção de IA avançada. Sua startup, que recentemente levantou US$ 200 milhões, está focada em automatizar a inovação científica. O trabalho de Stanley mergulha na capacidade da IA de gerar ideias originais e criativas — um campo conhecido como "abertura".
"Gostaria de ter escrito [o ensaio de Wolf], porque ele realmente reflete meus sentimentos", Stanley disse ao TechCrunch. Ele concorda com Wolf que ser conhecedor não leva automaticamente a ideias originais.
O Papel da Criatividade na IA
Stanley acredita que a criatividade é crucial para a AGI, mas admite que é um desafio difícil de superar. Enquanto otimistas como Amodei destacam modelos de "raciocínio" da IA como um passo em direção à AGI, Stanley argumenta que a criatividade exige um tipo diferente de inteligência. "O raciocínio é quase antitético à [criatividade]", ele explicou. "Os modelos de raciocínio focam em alcançar um objetivo específico, o que pode limitar o tipo de pensamento oportunístico necessário para a criatividade."
Stanley sugere que, para construir uma IA verdadeiramente inteligente, precisamos replicar algoritmicamente o gosto humano por novas ideias. Enquanto a IA se destaca em áreas como matemática e programação, onde as respostas são claras, ela luta com tarefas mais subjetivas e criativas que não têm uma resposta "correta".
"As pessoas se afastam da [subjetividade] na ciência — a palavra é quase tóxica", Stanley observou. "Mas não há nada que nos impeça de lidar com a subjetividade [algoritmicamente]. É apenas parte do fluxo de dados."
Ele está encorajado pelo crescente foco na abertura, com laboratórios de pesquisa na Lila Sciences, Google DeepMind e a startup de IA Sakana abordando a questão. Stanley vê mais pessoas falando sobre criatividade na IA, mas acredita que ainda há muito trabalho pela frente.
Os Realistas da IA
Wolf e LeCun podem ser considerados os "realistas da IA": líderes que abordam a AGI e a superinteligência com perguntas fundamentadas sobre sua viabilidade. Seu objetivo não é descartar os avanços da IA, mas sim iniciar uma conversa mais ampla sobre o que está impedindo a IA de alcançar a AGI e a superinteligência — e enfrentar esses desafios diretamente.



The AI Leaders discussion on AGI was eye-opening. It grounded the conversation in reality, which is refreshing. Some of the points made were thought-provoking, though I wish there was more depth in certain areas. Overall, it was a solid talk with valuable insights.




AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。




AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.




A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.




La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.












