Deepseek aumenta os gastos da IA, ao contrário das crenças

A queda do mercado de ações em janeiro, impulsionada pelo entusiasmo em torno do avanço da IA chinesa DeepSeek AI e seu método de computação econômico, poderia levar alguém a acreditar que as empresas estão reduzindo seus investimentos em chips e sistemas de IA. No entanto, minha experiência na conferência de IA generativa em Nova York, organizada pela Bloomberg Intelligence, pintou um quadro diferente. O entusiasmo por expandir o uso de IA generativa era palpável, sugerindo que os gastos nessa área estão longe de desacelerar.
Também: O que é DeepSeek AI? É seguro? Aqui está tudo o que você precisa saber
A conferência, intitulada "IA Generativa: Leis de Escala Pós-DeepSeek", foi repleta de discussões que enfatizaram a demanda contínua impulsionando o aumento do investimento em IA.
"Tivemos dez painéis hoje, e nenhuma pessoa nesses painéis disse que temos mais capacidade do que precisamos," observou Mandeep Singh, analista sênior de tecnologia da Bloomberg Intelligence e um dos organizadores do evento.
"E ninguém estava falando sobre uma bolha" na infraestrutura, acrescentou Singh, destacando a confiança da indústria no futuro da IA.
A Construção da Infraestrutura de IA: Onde Estamos?
Anurag Rana, colega de Singh na Bloomberg Intelligence e analista sênior de serviços de TI e software, fez uma pergunta crucial: "A questão mais importante agora na frente de todos é a construção da infraestrutura de IA. Sim. Onde estamos nesse ciclo?"
"Ninguém sabe" com certeza, admitiu Rana. Ainda assim, a esperança despertada pela DeepSeek AI é que avanços significativos possam ser alcançados com menos despesas.
"DeepSeek abalou muitas pessoas," ele disse. "Se você não precisa de tantas GPUs para rodar modelos, então por que precisamos de US$ 500 bilhões para o projeto Stargate," observou, referindo-se a um projeto de IA planejado nos EUA envolvendo o SoftBank Group do Japão, OpenAI e Oracle.
Rana observou que a indústria está esperançosa de que os custos de IA caiam drasticamente, espelhando a rápida queda nos custos de computação em nuvem.
Também: O novo modelo de imagem da DeepSeek é mais uma vitória para uma IA mais barata?
"Essa queda na curva de custo, que provavelmente levou seis, sete, oito anos para armazenar um terabyte de dados na Amazon AWS, quando começou versus hoje, a economia era boa," ele disse. "E é isso que todos esperam, que no lado da inferência" da IA, "se a curva cair para esse nível, meu Deus, a taxa de adoção de IA no lado do usuário final, ou, no lado empresarial, será espetacular."
Singh concordou, observando que a emergência da DeepSeek AI "mudou a mentalidade de todos sobre alcançar eficiência."
Ao longo do dia, inúmeros painéis exploraram projetos de IA empresarial, desde sua concepção até a implementação. No entanto, havia um tema recorrente: a necessidade de reduzir drasticamente os custos da IA para ampliar sua acessibilidade.
"Não acho que a DeepSeek foi uma surpresa," disse Shawn Edwards, tecnólogo-chefe da Bloomberg, em uma entrevista com David Dwyer, chefe da Bloomberg Intelligence. "O que me fez pensar é que seria ótimo se você pudesse agitar uma varinha e fazer esses modelos rodarem de forma incrivelmente eficiente," ele disse, imaginando um futuro onde todos os modelos de IA pudessem operar com tal eficiência.
A Proliferação de Modelos de IA
Uma razão pela qual muitos painelistas preveem um aumento, ao invés de uma diminuição, no investimento em infraestrutura de IA é o número crescente de modelos de IA. Uma conclusão chave do dia foi que não haverá um único modelo de IA para governar todos eles.
"Usamos uma família de modelos," explicou Edwards. "Não existe algo como o melhor modelo."
Os painelistas concordaram que, embora os modelos de linguagem grandes de "fundação" ou "fronteira" continuem a evoluir, empresas individuais podem empregar centenas ou até milhares de modelos de IA.
Também: A ascensão dos PCs de IA: Como as empresas estão reformulando sua tecnologia para acompanhar
Esses modelos podem ser ajustados com dados proprietários de uma empresa, um processo de retreinamento de uma rede neural após seu "pré-treinamento" inicial em dados genéricos.
"Agentes em empresas requerem opcionalidade entre os modelos," disse Jed Dougherty, chefe de estratégia de plataforma da empresa de ciência de dados apoiada por venture capital Dataiku. "Eles precisam da capacidade de controlar e criar, e ter auditabilidade" dos modelos de IA.
"Queremos colocar as ferramentas para construir essas coisas nas mãos das pessoas," ele disse. "Não queremos dez doutores construindo todos os agentes."
Da mesma forma, a Adobe, líder em ferramentas de design, está apostando em modelos personalizados como um caso de uso chave para criativos. "Podemos treinar extensões de modelos personalizados para sua marca que podem ajudar em uma nova campanha publicitária," disse Hannah Elsakr, chefe de novas ventures de negócios da Adobe, em uma discussão com o apresentador da Bloomberg TV, Romaine Bostick.
Aumento da Demanda de Processamento
Assim como com os modelos de IA, a proliferação de agentes de IA dentro das empresas está aumentando as demandas de processamento, sugeriram muitos palestrantes.
"Você não vai espremer um processo inteiro em um agente, você o dividirá em partes," disse Ray Smith, chefe de agentes e automação do Copilot Studio da Microsoft.
Smith previu que por meio de uma única interface, como o Copilot, "interagiremos com centenas de agentes -- eles são apenas aplicativos no novo mundo" de programação.
"Daremos ao agente o processo de negócios, diremos o que queremos realizar," e o agente executará as tarefas. "Aplicativos agenticos são apenas uma nova forma de fluxo de trabalho," ele disse.
Também: Nvidia domina em benchmarks de IA generativa, superando 2 chips de IA rivais
Tais cenários do dia a dia são "todos tecnologicamente possíveis," observou Smith, "é apenas o ritmo com que construímos isso."
A pressão para trazer agentes de IA para mais pessoas dentro das organizações está exigindo ainda mais reduções de custo, disse James McNiven, chefe de gerenciamento de produtos da fabricante de microprocessadores ARM Holdings, em uma conversa com Hyde da Bloomberg.
"Como fornecemos acesso em cada vez mais dispositivos," ele perguntou. "Estamos vendo modelos em um nível de doutorado" de capacidade de tarefa, ele disse.
McNiven sugeriu que tais agentes devem servir como assistentes para humanos, traçando um paralelo com quando sistemas de pagamento foram introduzidos em países em desenvolvimento via telefones móveis há uma década: "Como levamos isso às pessoas que podem usar essa capacidade?"
A Proliferação de Modelos de Fundação
Até mesmo os modelos de fundação genéricos estão proliferando a uma taxa surpreendente.
A Amazon AWS tem 1.800 modelos de IA diferentes disponíveis, disse Dave Brown, chefe de computação e redes da AWS, ao apresentador da Bloomberg TV, Caroline Hyde. A empresa está "fazendo muito para reduzir o custo" de executar os modelos, ele disse, incluindo o desenvolvimento de chips de IA personalizados, como o Trainium.
A AWS está "usando mais de nossos próprios processadores do que os processadores de outras empresas," disse Brown, aludindo a Nvidia, AMD, Intel e outros fornecedores de chips de uso geral.
Também: O novo gerador de imagens do ChatGPT superou minhas expectativas - e agora é grátis para experimentar
"Os clientes fariam mais se o custo fosse menor," disse Brown.
A AWS trabalha diariamente com a Anthropic, criadora da família de modelos de linguagem Claude, observou Brown. Michael Gerstenhaber, chefe de interfaces de programação de aplicativos da Anthropic, na mesma conversa com Hyde, observou que "modelos de pensamento causam um grande uso de capacidade," referindo-se à tendência de modelos de raciocínio, como DeepSeek R1 e GPT-o1, de produzir declarações detalhadas sobre os argumentos para suas respostas finais.
A Anthropic está trabalhando de perto com a AWS em maneiras de reduzir o orçamento de computação, como "cache de prompts," armazenando os cálculos de respostas anteriores.
Apesar dessa tendência, ele disse, "a Anthropic precisa de centenas de milhares de aceleradores," ou seja, chips de silício focados em IA, "em muitos data centers" para executar seus modelos.
Além disso, o custo energético crescente de alimentar a IA não mostra sinais de desaceleração, disse Brown. Os data centers atuais estão consumindo centenas de megawatts, ele observou, e eventualmente exigirão gigawatts. "A energia que consome," ou seja, a IA, "é grande, e a pegada é grande em muitos data centers."
Também: A computação de IA global usará o equivalente a 'várias cidades de Nova York' em energia até 2026, diz fundador
Incerteza Econômica e Investimento em IA
Apesar dos cenários ambiciosos, um fator pode interromper todos os casos de uso e planos de investimento: a economia.
Enquanto a conferência terminava na quarta-feira à noite, os painelistas e convidados monitoravam a queda após o horário de fechamento no mercado de ações. O presidente dos EUA, Donald Trump, acabara de anunciar um pacote global de tarifas que eram maiores e mais abrangentes do que a maioria em Wall Street havia previsto.
Áreas tradicionais de investimento em tecnologia, como servidores e armazenamento, e não a IA, poderiam ser as vítimas iniciais de qualquer contração econômica, disse Rana da Bloomberg.
"A outra grande coisa em que estamos focados é o gasto com tecnologia não-IA," ele disse em relação às tarifas. "Quando olhamos para empresas como IBM, Accenture, Microsoft, e todas as outras, quando deixamos a IA de lado por um segundo, isso é algo que será um desafio nesta temporada de resultados."
Os CFOs de grandes empresas podem priorizar a IA e realocar fundos, mesmo que tenham que reduzir seus orçamentos em meio à incerteza econômica e potencial recessão, sugeriu Rana.
No entanto, essa perspectiva otimista não é garantida.
"A coisa que mais me interessa descobrir é se todas essas grandes empresas vão manter suas metas de cap-ex [gastos de capital]," disse Rana, incluindo data centers de IA, "ou vão dizer, Sabe de uma coisa? É muito incerto."
Artigo relacionado
Criação Musical Alimentada por IA: Crie Músicas e Vídeos sem Esforço
A criação musical pode ser complexa, exigindo tempo, recursos e expertise. A inteligência artificial transformou esse processo, tornando-o simples e acessível. Este guia destaca como a IA permite que
Criando Livros de Colorir Alimentados por IA: Um Guia Completo
Projetar livros de colorir é uma busca recompensadora, combinando expressão artística com experiências calmantes para os usuários. No entanto, o processo pode ser trabalhoso. Felizmente, ferramentas d
Qodo Faz Parceria com Google Cloud para Oferecer Ferramentas Gratuitas de Revisão de Código por IA para Desenvolvedores
Qodo, uma startup de codificação por IA baseada em Israel focada em qualidade de código, lançou uma parceria com Google Cloud para aprimorar a integridade de software gerado por IA.À medida que as emp
Comentários (1)
0/200
FredGreen
31 de Julho de 2025 à19 02:41:19 WEST
DeepSeek's breakthrough sounds like a game-changer! Curious how their cost-effective method stacks up against giants like NVIDIA. Anyone got details on this? 🤔
0
A queda do mercado de ações em janeiro, impulsionada pelo entusiasmo em torno do avanço da IA chinesa DeepSeek AI e seu método de computação econômico, poderia levar alguém a acreditar que as empresas estão reduzindo seus investimentos em chips e sistemas de IA. No entanto, minha experiência na conferência de IA generativa em Nova York, organizada pela Bloomberg Intelligence, pintou um quadro diferente. O entusiasmo por expandir o uso de IA generativa era palpável, sugerindo que os gastos nessa área estão longe de desacelerar.
Também: O que é DeepSeek AI? É seguro? Aqui está tudo o que você precisa saber
A conferência, intitulada "IA Generativa: Leis de Escala Pós-DeepSeek", foi repleta de discussões que enfatizaram a demanda contínua impulsionando o aumento do investimento em IA.
"Tivemos dez painéis hoje, e nenhuma pessoa nesses painéis disse que temos mais capacidade do que precisamos," observou Mandeep Singh, analista sênior de tecnologia da Bloomberg Intelligence e um dos organizadores do evento.
"E ninguém estava falando sobre uma bolha" na infraestrutura, acrescentou Singh, destacando a confiança da indústria no futuro da IA.
A Construção da Infraestrutura de IA: Onde Estamos?
Anurag Rana, colega de Singh na Bloomberg Intelligence e analista sênior de serviços de TI e software, fez uma pergunta crucial: "A questão mais importante agora na frente de todos é a construção da infraestrutura de IA. Sim. Onde estamos nesse ciclo?"
"Ninguém sabe" com certeza, admitiu Rana. Ainda assim, a esperança despertada pela DeepSeek AI é que avanços significativos possam ser alcançados com menos despesas.
"DeepSeek abalou muitas pessoas," ele disse. "Se você não precisa de tantas GPUs para rodar modelos, então por que precisamos de US$ 500 bilhões para o projeto Stargate," observou, referindo-se a um projeto de IA planejado nos EUA envolvendo o SoftBank Group do Japão, OpenAI e Oracle.
Rana observou que a indústria está esperançosa de que os custos de IA caiam drasticamente, espelhando a rápida queda nos custos de computação em nuvem.
Também: O novo modelo de imagem da DeepSeek é mais uma vitória para uma IA mais barata?
"Essa queda na curva de custo, que provavelmente levou seis, sete, oito anos para armazenar um terabyte de dados na Amazon AWS, quando começou versus hoje, a economia era boa," ele disse. "E é isso que todos esperam, que no lado da inferência" da IA, "se a curva cair para esse nível, meu Deus, a taxa de adoção de IA no lado do usuário final, ou, no lado empresarial, será espetacular."
Singh concordou, observando que a emergência da DeepSeek AI "mudou a mentalidade de todos sobre alcançar eficiência."
Ao longo do dia, inúmeros painéis exploraram projetos de IA empresarial, desde sua concepção até a implementação. No entanto, havia um tema recorrente: a necessidade de reduzir drasticamente os custos da IA para ampliar sua acessibilidade.
"Não acho que a DeepSeek foi uma surpresa," disse Shawn Edwards, tecnólogo-chefe da Bloomberg, em uma entrevista com David Dwyer, chefe da Bloomberg Intelligence. "O que me fez pensar é que seria ótimo se você pudesse agitar uma varinha e fazer esses modelos rodarem de forma incrivelmente eficiente," ele disse, imaginando um futuro onde todos os modelos de IA pudessem operar com tal eficiência.
A Proliferação de Modelos de IA
Uma razão pela qual muitos painelistas preveem um aumento, ao invés de uma diminuição, no investimento em infraestrutura de IA é o número crescente de modelos de IA. Uma conclusão chave do dia foi que não haverá um único modelo de IA para governar todos eles.
"Usamos uma família de modelos," explicou Edwards. "Não existe algo como o melhor modelo."
Os painelistas concordaram que, embora os modelos de linguagem grandes de "fundação" ou "fronteira" continuem a evoluir, empresas individuais podem empregar centenas ou até milhares de modelos de IA.
Também: A ascensão dos PCs de IA: Como as empresas estão reformulando sua tecnologia para acompanhar
Esses modelos podem ser ajustados com dados proprietários de uma empresa, um processo de retreinamento de uma rede neural após seu "pré-treinamento" inicial em dados genéricos.
"Agentes em empresas requerem opcionalidade entre os modelos," disse Jed Dougherty, chefe de estratégia de plataforma da empresa de ciência de dados apoiada por venture capital Dataiku. "Eles precisam da capacidade de controlar e criar, e ter auditabilidade" dos modelos de IA.
"Queremos colocar as ferramentas para construir essas coisas nas mãos das pessoas," ele disse. "Não queremos dez doutores construindo todos os agentes."
Da mesma forma, a Adobe, líder em ferramentas de design, está apostando em modelos personalizados como um caso de uso chave para criativos. "Podemos treinar extensões de modelos personalizados para sua marca que podem ajudar em uma nova campanha publicitária," disse Hannah Elsakr, chefe de novas ventures de negócios da Adobe, em uma discussão com o apresentador da Bloomberg TV, Romaine Bostick.
Aumento da Demanda de Processamento
Assim como com os modelos de IA, a proliferação de agentes de IA dentro das empresas está aumentando as demandas de processamento, sugeriram muitos palestrantes.
"Você não vai espremer um processo inteiro em um agente, você o dividirá em partes," disse Ray Smith, chefe de agentes e automação do Copilot Studio da Microsoft.
Smith previu que por meio de uma única interface, como o Copilot, "interagiremos com centenas de agentes -- eles são apenas aplicativos no novo mundo" de programação.
"Daremos ao agente o processo de negócios, diremos o que queremos realizar," e o agente executará as tarefas. "Aplicativos agenticos são apenas uma nova forma de fluxo de trabalho," ele disse.
Também: Nvidia domina em benchmarks de IA generativa, superando 2 chips de IA rivais
Tais cenários do dia a dia são "todos tecnologicamente possíveis," observou Smith, "é apenas o ritmo com que construímos isso."
A pressão para trazer agentes de IA para mais pessoas dentro das organizações está exigindo ainda mais reduções de custo, disse James McNiven, chefe de gerenciamento de produtos da fabricante de microprocessadores ARM Holdings, em uma conversa com Hyde da Bloomberg.
"Como fornecemos acesso em cada vez mais dispositivos," ele perguntou. "Estamos vendo modelos em um nível de doutorado" de capacidade de tarefa, ele disse.
McNiven sugeriu que tais agentes devem servir como assistentes para humanos, traçando um paralelo com quando sistemas de pagamento foram introduzidos em países em desenvolvimento via telefones móveis há uma década: "Como levamos isso às pessoas que podem usar essa capacidade?"
A Proliferação de Modelos de Fundação
Até mesmo os modelos de fundação genéricos estão proliferando a uma taxa surpreendente.
A Amazon AWS tem 1.800 modelos de IA diferentes disponíveis, disse Dave Brown, chefe de computação e redes da AWS, ao apresentador da Bloomberg TV, Caroline Hyde. A empresa está "fazendo muito para reduzir o custo" de executar os modelos, ele disse, incluindo o desenvolvimento de chips de IA personalizados, como o Trainium.
A AWS está "usando mais de nossos próprios processadores do que os processadores de outras empresas," disse Brown, aludindo a Nvidia, AMD, Intel e outros fornecedores de chips de uso geral.
Também: O novo gerador de imagens do ChatGPT superou minhas expectativas - e agora é grátis para experimentar
"Os clientes fariam mais se o custo fosse menor," disse Brown.
A AWS trabalha diariamente com a Anthropic, criadora da família de modelos de linguagem Claude, observou Brown. Michael Gerstenhaber, chefe de interfaces de programação de aplicativos da Anthropic, na mesma conversa com Hyde, observou que "modelos de pensamento causam um grande uso de capacidade," referindo-se à tendência de modelos de raciocínio, como DeepSeek R1 e GPT-o1, de produzir declarações detalhadas sobre os argumentos para suas respostas finais.
A Anthropic está trabalhando de perto com a AWS em maneiras de reduzir o orçamento de computação, como "cache de prompts," armazenando os cálculos de respostas anteriores.
Apesar dessa tendência, ele disse, "a Anthropic precisa de centenas de milhares de aceleradores," ou seja, chips de silício focados em IA, "em muitos data centers" para executar seus modelos.
Além disso, o custo energético crescente de alimentar a IA não mostra sinais de desaceleração, disse Brown. Os data centers atuais estão consumindo centenas de megawatts, ele observou, e eventualmente exigirão gigawatts. "A energia que consome," ou seja, a IA, "é grande, e a pegada é grande em muitos data centers."
Também: A computação de IA global usará o equivalente a 'várias cidades de Nova York' em energia até 2026, diz fundador
Incerteza Econômica e Investimento em IA
Apesar dos cenários ambiciosos, um fator pode interromper todos os casos de uso e planos de investimento: a economia.
Enquanto a conferência terminava na quarta-feira à noite, os painelistas e convidados monitoravam a queda após o horário de fechamento no mercado de ações. O presidente dos EUA, Donald Trump, acabara de anunciar um pacote global de tarifas que eram maiores e mais abrangentes do que a maioria em Wall Street havia previsto.
Áreas tradicionais de investimento em tecnologia, como servidores e armazenamento, e não a IA, poderiam ser as vítimas iniciais de qualquer contração econômica, disse Rana da Bloomberg.
"A outra grande coisa em que estamos focados é o gasto com tecnologia não-IA," ele disse em relação às tarifas. "Quando olhamos para empresas como IBM, Accenture, Microsoft, e todas as outras, quando deixamos a IA de lado por um segundo, isso é algo que será um desafio nesta temporada de resultados."
Os CFOs de grandes empresas podem priorizar a IA e realocar fundos, mesmo que tenham que reduzir seus orçamentos em meio à incerteza econômica e potencial recessão, sugeriu Rana.
No entanto, essa perspectiva otimista não é garantida.
"A coisa que mais me interessa descobrir é se todas essas grandes empresas vão manter suas metas de cap-ex [gastos de capital]," disse Rana, incluindo data centers de IA, "ou vão dizer, Sabe de uma coisa? É muito incerto."




DeepSeek's breakthrough sounds like a game-changer! Curious how their cost-effective method stacks up against giants like NVIDIA. Anyone got details on this? 🤔












