Reivindicações antrópicas Ai não está paralisando, está de acordo com os benchmarks

Modelos de linguagem de grande escala (LLMs) e outras tecnologias de IA generativa estão fazendo avanços significativos em autocorreção, o que está abrindo caminho para novas aplicações, incluindo o que é conhecido como "IA agente", segundo Michael Gerstenhaber, Vice-Presidente da Anthropic, uma desenvolvedora líder de modelos de IA.
"Está ficando muito bom em autocorreção, autorreflexão," compartilhou Gerstenhaber, que lidera as tecnologias de API na Anthropic, durante uma entrevista em Nova York com Anurag Rana, da Bloomberg Intelligence. A Anthropic, criadora da família de LLMs Claude, é concorrente direta dos modelos GPT da OpenAI. "A cada poucos meses, lançamos um novo modelo que expande as capacidades dos LLMs," ele acrescentou, destacando a natureza dinâmica da indústria, onde cada revisão de modelo desbloqueia novos usos potenciais.
Novas Capacidades em Modelos de IA
Os modelos mais recentes da Anthropic introduziram capacidades como planejamento de tarefas, permitindo que realizem tarefas em um computador de maneira semelhante a um humano, como pedir pizza online. "Planejar etapas intermediárias, algo que não era viável ontem, agora está ao alcance," observou Gerstenhaber sobre essa execução de tarefas passo a passo.
A discussão, que também contou com Vijay Karunamurthy, Tecnólogo-Chefe da startup de IA Scale AI, fez parte de uma conferência de um dia inteiro organizada pela Bloomberg Intelligence intitulada "Gen AI: Pode cumprir a promessa de produtividade?"
Desafiando o Ceticismo sobre IA
As perspectivas de Gerstenhaber desafiam as visões dos céticos sobre IA, que argumentam que a IA generativa e o campo mais amplo da IA estão "atingindo um muro", sugerindo retornos decrescentes a cada nova iteração de modelo. O estudioso de IA Gary Marcus, por exemplo, tem sido vocal sobre suas preocupações desde 2022, alertando que simplesmente aumentar o tamanho dos modelos de IA (mais parâmetros) não melhorará proporcionalmente seu desempenho.
No entanto, Gerstenhaber afirma que a Anthropic está expandindo os limites além do que os benchmarks atuais de IA podem medir. "Mesmo que pareça que o progresso está desacelerando em algumas áreas, é porque estamos desbloqueando funcionalidades completamente novas, mas saturamos os benchmarks e a capacidade de realizar tarefas mais antigas," ele explicou. Isso torna cada vez mais difícil avaliar a extensão total do que os modelos de IA generativa atuais podem alcançar.
Escalabilidade e Aprendizado
Tanto Gerstenhaber quanto Karunamurthy enfatizaram a importância de escalar modelos de IA generativa para aprimorar suas capacidades de autocorreção. "Definitivamente, estamos vendo cada vez mais escalabilidade da inteligência," observou Gerstenhaber. Karunamurthy acrescentou, "Uma razão pela qual acreditamos que não estamos atingindo um muro com planejamento e raciocínio é que ainda estamos aprendendo como estruturar essas tarefas para que os modelos possam se adaptar a ambientes novos e variados."
Gerstenhaber concordou, afirmando, "Estamos nos estágios iniciais, aprendendo com desenvolvedores de aplicativos sobre suas necessidades e onde os modelos falham, o que podemos então integrar de volta ao modelo de linguagem."
Aprendizado e Adaptação em Tempo Real
Muito desse progresso, segundo Gerstenhaber, é impulsionado pelo ritmo rápido da pesquisa fundamental na Anthropic, bem como pelo aprendizado em tempo real a partir de feedback da indústria. "Estamos nos adaptando ao que a indústria nos diz que precisa, aprendendo em tempo real," ele disse.
Os clientes frequentemente começam com modelos maiores e depois reduzem para modelos mais simples para atender a propósitos específicos. "Inicialmente, eles avaliam se um modelo é inteligente o suficiente para realizar uma tarefa bem, depois se é rápido o suficiente para atender às necessidades de sua aplicação e, finalmente, se pode ser o mais econômico possível," explicou Gerstenhaber.
Artigo relacionado
Criando Livros de Colorir Alimentados por IA: Um Guia Completo
Projetar livros de colorir é uma busca recompensadora, combinando expressão artística com experiências calmantes para os usuários. No entanto, o processo pode ser trabalhoso. Felizmente, ferramentas d
Qodo Faz Parceria com Google Cloud para Oferecer Ferramentas Gratuitas de Revisão de Código por IA para Desenvolvedores
Qodo, uma startup de codificação por IA baseada em Israel focada em qualidade de código, lançou uma parceria com Google Cloud para aprimorar a integridade de software gerado por IA.À medida que as emp
IA da DeepMind Ganha Ouro na Olimpíada de Matemática de 2025
A IA da DeepMind alcançou um salto impressionante no raciocínio matemático, conquistando uma medalha de ouro na Olimpíada Internacional de Matemática (IMO) de 2025, apenas um ano após ganhar prata em
Comentários (8)
0/200
JoseRoberts
12 de Agosto de 2025 à59 16:00:59 WEST
This self-correction stuff is wild! 😮 It's like AI is learning to double-check its own homework. Wonder how far this 'agentic AI' will go—could it outsmart us at our own jobs soon?
0
WalterAnderson
31 de Julho de 2025 à39 12:35:39 WEST
It's wild to think AI can now self-correct! 😮 Makes me wonder how soon we'll see these 'agentic AI' systems running our lives—hope they don’t outsmart us too much!
0
RonaldMartinez
22 de Julho de 2025 à52 08:39:52 WEST
This article really opened my eyes to how fast AI is evolving! Self-correcting LLMs sound like a game-changer for agentic AI. Can’t wait to see what new apps come out of this! 😄
0
WillieJackson
18 de Abril de 2025 à28 08:00:28 WEST
La perspectiva de Anthropic sobre que la IA no se estanca sino que supera los benchmarks es bastante genial. Es como si la IA estuviera jugando ajedrez mientras nosotros aún estamos tratando de entender las damas. Lo de la autocorrección suena prometedor, pero aún estoy un poco escéptico. 🤔
0
GeorgeWilson
17 de Abril de 2025 à24 18:45:24 WEST
Anthropic의 AI가 정체되지 않고 벤치마크를 뛰어넘는다는 생각이 멋지네요. AI는 체스를 하고 있는데, 우리는 아직 체커를 이해하는 단계예요. 자기 교정 이야기는 유망하지만, 아직 조금 회의적이에요. 🤔
0
NicholasCarter
17 de Abril de 2025 à31 12:27:31 WEST
Anthropic's take on AI not stalling but outsmarting benchmarks is pretty cool. It's like AI is playing chess while we're still figuring out checkers. The self-correction stuff sounds promising, but I'm still a bit skeptical. 🤔
0
Modelos de linguagem de grande escala (LLMs) e outras tecnologias de IA generativa estão fazendo avanços significativos em autocorreção, o que está abrindo caminho para novas aplicações, incluindo o que é conhecido como "IA agente", segundo Michael Gerstenhaber, Vice-Presidente da Anthropic, uma desenvolvedora líder de modelos de IA.
"Está ficando muito bom em autocorreção, autorreflexão," compartilhou Gerstenhaber, que lidera as tecnologias de API na Anthropic, durante uma entrevista em Nova York com Anurag Rana, da Bloomberg Intelligence. A Anthropic, criadora da família de LLMs Claude, é concorrente direta dos modelos GPT da OpenAI. "A cada poucos meses, lançamos um novo modelo que expande as capacidades dos LLMs," ele acrescentou, destacando a natureza dinâmica da indústria, onde cada revisão de modelo desbloqueia novos usos potenciais.
Novas Capacidades em Modelos de IA
Os modelos mais recentes da Anthropic introduziram capacidades como planejamento de tarefas, permitindo que realizem tarefas em um computador de maneira semelhante a um humano, como pedir pizza online. "Planejar etapas intermediárias, algo que não era viável ontem, agora está ao alcance," observou Gerstenhaber sobre essa execução de tarefas passo a passo.
A discussão, que também contou com Vijay Karunamurthy, Tecnólogo-Chefe da startup de IA Scale AI, fez parte de uma conferência de um dia inteiro organizada pela Bloomberg Intelligence intitulada "Gen AI: Pode cumprir a promessa de produtividade?"
Desafiando o Ceticismo sobre IA
As perspectivas de Gerstenhaber desafiam as visões dos céticos sobre IA, que argumentam que a IA generativa e o campo mais amplo da IA estão "atingindo um muro", sugerindo retornos decrescentes a cada nova iteração de modelo. O estudioso de IA Gary Marcus, por exemplo, tem sido vocal sobre suas preocupações desde 2022, alertando que simplesmente aumentar o tamanho dos modelos de IA (mais parâmetros) não melhorará proporcionalmente seu desempenho.
No entanto, Gerstenhaber afirma que a Anthropic está expandindo os limites além do que os benchmarks atuais de IA podem medir. "Mesmo que pareça que o progresso está desacelerando em algumas áreas, é porque estamos desbloqueando funcionalidades completamente novas, mas saturamos os benchmarks e a capacidade de realizar tarefas mais antigas," ele explicou. Isso torna cada vez mais difícil avaliar a extensão total do que os modelos de IA generativa atuais podem alcançar.
Escalabilidade e Aprendizado
Tanto Gerstenhaber quanto Karunamurthy enfatizaram a importância de escalar modelos de IA generativa para aprimorar suas capacidades de autocorreção. "Definitivamente, estamos vendo cada vez mais escalabilidade da inteligência," observou Gerstenhaber. Karunamurthy acrescentou, "Uma razão pela qual acreditamos que não estamos atingindo um muro com planejamento e raciocínio é que ainda estamos aprendendo como estruturar essas tarefas para que os modelos possam se adaptar a ambientes novos e variados."
Gerstenhaber concordou, afirmando, "Estamos nos estágios iniciais, aprendendo com desenvolvedores de aplicativos sobre suas necessidades e onde os modelos falham, o que podemos então integrar de volta ao modelo de linguagem."
Aprendizado e Adaptação em Tempo Real
Muito desse progresso, segundo Gerstenhaber, é impulsionado pelo ritmo rápido da pesquisa fundamental na Anthropic, bem como pelo aprendizado em tempo real a partir de feedback da indústria. "Estamos nos adaptando ao que a indústria nos diz que precisa, aprendendo em tempo real," ele disse.
Os clientes frequentemente começam com modelos maiores e depois reduzem para modelos mais simples para atender a propósitos específicos. "Inicialmente, eles avaliam se um modelo é inteligente o suficiente para realizar uma tarefa bem, depois se é rápido o suficiente para atender às necessidades de sua aplicação e, finalmente, se pode ser o mais econômico possível," explicou Gerstenhaber.



This self-correction stuff is wild! 😮 It's like AI is learning to double-check its own homework. Wonder how far this 'agentic AI' will go—could it outsmart us at our own jobs soon?




It's wild to think AI can now self-correct! 😮 Makes me wonder how soon we'll see these 'agentic AI' systems running our lives—hope they don’t outsmart us too much!




This article really opened my eyes to how fast AI is evolving! Self-correcting LLMs sound like a game-changer for agentic AI. Can’t wait to see what new apps come out of this! 😄




La perspectiva de Anthropic sobre que la IA no se estanca sino que supera los benchmarks es bastante genial. Es como si la IA estuviera jugando ajedrez mientras nosotros aún estamos tratando de entender las damas. Lo de la autocorrección suena prometedor, pero aún estoy un poco escéptico. 🤔




Anthropic의 AI가 정체되지 않고 벤치마크를 뛰어넘는다는 생각이 멋지네요. AI는 체스를 하고 있는데, 우리는 아직 체커를 이해하는 단계예요. 자기 교정 이야기는 유망하지만, 아직 조금 회의적이에요. 🤔




Anthropic's take on AI not stalling but outsmarting benchmarks is pretty cool. It's like AI is playing chess while we're still figuring out checkers. The self-correction stuff sounds promising, but I'm still a bit skeptical. 🤔












