Deepseek Shakes AI Industry: o próximo salto de IA pode depender do aumento da computação em inferência, não mais dados

A indústria de IA está em um estado de fluxo constante, com 2025 trazendo alguns desenvolvimentos revolucionários que estão agitando as coisas. Uma grande reviravolta veio quando o laboratório de IA chinês, DeepSeek, lançou uma bomba com um novo modelo que causou uma queda de 17% nas ações da Nvidia e afetou outras ações de centros de dados de IA. O burburinho em torno do modelo da DeepSeek? Ele está oferecendo desempenho de ponta a uma fração do custo de outros concorrentes dos EUA, criando uma tempestade sobre o que isso significa para o futuro dos centros de dados de IA.
Mas para entender realmente o que a DeepSeek está fazendo, precisamos dar um passo atrás e olhar para o quadro geral. O mundo da IA está lidando com uma escassez de dados de treinamento. Os grandes players já consumiram a maior parte dos dados públicos da internet, o que significa que estamos atingindo um limite nas melhorias de pré-treinamento. Como resultado, a indústria está mudando de marcha para o "cálculo em tempo de teste" (TTC). Pense nisso como modelos de IA tomando um momento para "pensar" antes de responder, como na série "o" da OpenAI. Há esperança de que o TTC possa oferecer o mesmo tipo de melhorias de escala que o pré-treinamento já proporcionou, potencialmente inaugurando a próxima grande onda de avanços em IA.
Essas mudanças estão sinalizando duas grandes transformações: primeiro, laboratórios com orçamentos menores agora estão no jogo, lançando modelos de ponta. Segundo, o TTC está se tornando a nova fronteira para impulsionar a IA. Vamos analisar essas tendências e o que elas podem significar para o cenário e o mercado de IA.
Implicações para a Indústria de IA
Acreditamos que a mudança para o TTC e o aumento da concorrência entre modelos de raciocínio podem remodelar o cenário de IA em várias frentes: hardware, plataformas de nuvem, modelos fundamentais e software empresarial.
1. Hardware (GPUs, Chips Dedicados e Infraestrutura de Computação)
A mudança para o TTC pode alterar o tipo de hardware que as empresas de IA precisam e como elas o gerenciam. Em vez de investir em clusters de GPUs cada vez maiores para treinamento, elas podem começar a focar mais em fortalecer suas capacidades de inferência para lidar com as demandas do TTC. Embora as GPUs ainda sejam cruciais para inferência, a diferença entre cargas de trabalho de treinamento e inferência pode afetar como esses chips são configurados e usados. Com cargas de trabalho de inferência sendo mais imprevisíveis e "picosas", o planejamento de capacidade pode se tornar mais complicado.
Também acreditamos que essa mudança pode impulsionar o mercado de hardware projetado especificamente para inferência de baixa latência, como ASICs. À medida que o TTC se torna mais crucial do que a capacidade de treinamento, o reinado das GPUs de uso geral pode começar a diminuir, abrindo portas para fabricantes de chips de inferência especializados.
2. Plataformas de Nuvem: Hiperescaladores (AWS, Azure, GCP) e Computação em Nuvem
Um grande obstáculo para a adoção de IA nas empresas, além de questões de precisão, é a confiabilidade das APIs de inferência. Coisas como tempos de resposta inconsistentes, limites de taxa e problemas com solicitações simultâneas podem ser uma verdadeira dor de cabeça. O TTC pode agravar esses problemas. Nesse cenário, um provedor de nuvem que possa garantir uma alta qualidade de serviço (QoS) para enfrentar esses desafios pode ter uma grande vantagem.
Curiosamente, embora novos métodos possam tornar a IA mais eficiente, eles podem não reduzir a demanda por hardware. Seguindo o Paradoxo de Jevons, onde maior eficiência leva a maior consumo, modelos de inferência mais eficientes podem atrair mais desenvolvedores para usar modelos de raciocínio, aumentando a necessidade de poder de computação. Acreditamos que melhorias recentes em modelos podem estimular mais demanda por computação de IA em nuvem, tanto para inferência quanto para treinamento de modelos menores e especializados.
3. Provedores de Modelos Fundamentais (OpenAI, Anthropic, Cohere, DeepSeek, Mistral)
Se novos entrantes como a DeepSeek podem competir de igual para igual com os grandes players a uma fração do custo, o domínio dos modelos pré-treinados proprietários pode começar a desmoronar. Também podemos esperar mais inovações em TTC para modelos transformadores, e como a DeepSeek demonstrou, essas inovações podem vir de lugares inesperados fora dos suspeitos habituais em IA.
4. Adoção de IA Empresarial e SaaS (Camada de Aplicação)
Dada a origem da DeepSeek na China, é provável que seus produtos sejam continuamente examinados do ponto de vista de segurança e privacidade. Seus serviços de API e chatbot baseados na China dificilmente ganharão tração com clientes empresariais de IA nos EUA, Canadá ou outros países ocidentais. Muitas empresas já estão bloqueando o site e os aplicativos da DeepSeek. Mesmo quando hospedados por terceiros em centros de dados ocidentais, os modelos da DeepSeek podem enfrentar escrutínio, o que pode limitar sua adoção no ambiente empresarial. Pesquisadores estão apontando problemas como jailbreaking, viés e geração de conteúdo prejudicial. Embora algumas empresas possam experimentar os modelos da DeepSeek, a adoção generalizada parece improvável devido a essas preocupações.
Por outro lado, a especialização vertical está ganhando força. No passado, aplicações verticais construídas sobre modelos fundamentais eram focadas em criar fluxos de trabalho personalizados. Técnicas como geração aumentada por recuperação (RAG), roteamento de modelos, chamada de funções e guardrails foram fundamentais para ajustar modelos generalizados para esses casos de uso específicos. Mas sempre houve a preocupação de que grandes melhorias nos modelos subjacentes poderiam tornar essas aplicações obsoletas. Sam Altman uma vez alertou que um grande salto nas capacidades do modelo poderia "atropelar" essas inovações.
No entanto, se estamos vendo um platô nos ganhos de computação em tempo de treinamento, a ameaça de ser rapidamente superado diminui. Em um mundo onde melhorias no desempenho do modelo vêm de otimizações de TTC, novas oportunidades podem surgir para players da camada de aplicação. Inovações como otimização de prompts estruturados, estratégias de raciocínio cientes de latência e técnicas de amostragem eficientes podem oferecer grandes aumentos de desempenho em verticais específicas.
Essas melhorias são particularmente relevantes para modelos focados em raciocínio, como o GPT-4o da OpenAI e o DeepSeek-R1, que podem levar vários segundos para responder. Em aplicações em tempo real, reduzir a latência e melhorar a qualidade da inferência dentro de um domínio específico pode dar uma vantagem competitiva. Como resultado, empresas com profundo conhecimento de domínio podem desempenhar um papel crucial na otimização da eficiência de inferência e no ajuste fino de saídas.
O trabalho da DeepSeek mostra que estamos nos afastando de depender apenas de mais pré-treinamento para melhorar a qualidade do modelo. Em vez disso, o TTC está se tornando cada vez mais importante. Embora não esteja claro se os modelos da DeepSeek serão amplamente adotados em software empresarial devido ao escrutínio, sua influência em melhorar outros modelos está se tornando mais evidente.
Acreditamos que as inovações da DeepSeek estão pressionando laboratórios de IA estabelecidos a adotar técnicas semelhantes, complementando suas vantagens de hardware existentes. A queda prevista nos custos dos modelos parece estar impulsionando mais uso de modelos, seguindo o padrão do Paradoxo de Jevons.
Pashootan Vaezipoor é líder técnico na Georgian.
Artigo relacionado
DeepSeek-V3 Revelado: Como o Design de IA Consciente de Hardware Reduz Custos e Aumenta o Desempenho
DeepSeek-V3: Um Avanço Eficiente em Custos no Desenvolvimento de IAA indústria de IA está em uma encruzilhada. Enquanto modelos de linguagem de grande escala (LLMs) se tornam mais poderosos, suas dema
DeepSeek-GRM: Revolucionando a IA escalável e de baixo custo para empresas
Se você está gerenciando uma empresa, sabe o quão difícil pode ser integrar Inteligência Artificial (IA) às suas operações. Os altos custos e a complexidade técnica frequentemente
Nova técnica permite que Deepseek e outros modelos respondam a consultas sensíveis
Remover o viés e a censura de grandes modelos de idiomas (LLMs) como o Deepseek da China é um desafio complexo que chamou a atenção dos formuladores de políticas e líderes empresariais dos EUA, que o vêem como uma potencial ameaça à segurança nacional. Um relatório recente de um comitê de seleção do Congresso dos EUA rotulado Deeps
Comentários (32)
0/200
HenryDavis
31 de Julho de 2025 à39 12:35:39 WEST
DeepSeek's new model sounds like a game-changer! A 17% Nvidia stock dip is wild—wonder how this’ll shift the AI race. More compute at inference? Mind blown! 🤯
0
JoseGonzalez
29 de Julho de 2025 à16 13:25:16 WEST
Wow, DeepSeek's new model sounds like a game-changer! That 17% Nvidia stock dip is wild—makes me wonder if we're hitting a compute bottleneck. Anyone else curious how this shifts the AI race? 🤔
0
BrianMartinez
27 de Abril de 2025 à24 02:02:24 WEST
¡El nuevo modelo de DeepSeek está sacudiendo la industria de la IA! Es increíble ver cómo baja la acción de Nvidia por esto. Me pregunto si más capacidad de cómputo en la inferencia será realmente la próxima gran cosa o solo un hype. De cualquier manera, es emocionante ver cómo evoluciona la industria! 🚀
0
GeorgeKing
25 de Abril de 2025 à57 03:22:57 WEST
DeepSeek's new model is shaking up the AI industry! It's wild to see Nvidia's stock dip because of this. I'm curious if more compute at inference will really be the next big thing or if it's just hype. Either way, it's exciting to watch the industry evolve! 🚀
0
GeorgeNelson
23 de Abril de 2025 à14 15:51:14 WEST
O novo modelo da DeepSeek está abalando a indústria de IA! É louco ver a queda das ações da Nvidia por causa disso. Estou curioso se mais poder de computação na inferência será realmente a próxima grande coisa ou se é apenas hype. De qualquer forma, é emocionante ver a evolução da indústria! 🚀
0
GeorgeWilson
23 de Abril de 2025 à57 15:44:57 WEST
DeepSeek의 새로운 모델이 AI 산업을 흔들고 있어요! Nvidia의 주식이 이 때문에 떨어지는 걸 보니 정말 놀랍네요. 추론 시 더 많은 계산 능력이 정말 다음 큰 변화가 될지, 아니면 그냥 과대광고일지 궁금해요. 어쨌든 산업이 진화하는 걸 보는 건 흥미로워요! 🚀
0
A indústria de IA está em um estado de fluxo constante, com 2025 trazendo alguns desenvolvimentos revolucionários que estão agitando as coisas. Uma grande reviravolta veio quando o laboratório de IA chinês, DeepSeek, lançou uma bomba com um novo modelo que causou uma queda de 17% nas ações da Nvidia e afetou outras ações de centros de dados de IA. O burburinho em torno do modelo da DeepSeek? Ele está oferecendo desempenho de ponta a uma fração do custo de outros concorrentes dos EUA, criando uma tempestade sobre o que isso significa para o futuro dos centros de dados de IA.
Mas para entender realmente o que a DeepSeek está fazendo, precisamos dar um passo atrás e olhar para o quadro geral. O mundo da IA está lidando com uma escassez de dados de treinamento. Os grandes players já consumiram a maior parte dos dados públicos da internet, o que significa que estamos atingindo um limite nas melhorias de pré-treinamento. Como resultado, a indústria está mudando de marcha para o "cálculo em tempo de teste" (TTC). Pense nisso como modelos de IA tomando um momento para "pensar" antes de responder, como na série "o" da OpenAI. Há esperança de que o TTC possa oferecer o mesmo tipo de melhorias de escala que o pré-treinamento já proporcionou, potencialmente inaugurando a próxima grande onda de avanços em IA.
Essas mudanças estão sinalizando duas grandes transformações: primeiro, laboratórios com orçamentos menores agora estão no jogo, lançando modelos de ponta. Segundo, o TTC está se tornando a nova fronteira para impulsionar a IA. Vamos analisar essas tendências e o que elas podem significar para o cenário e o mercado de IA.
Implicações para a Indústria de IA
Acreditamos que a mudança para o TTC e o aumento da concorrência entre modelos de raciocínio podem remodelar o cenário de IA em várias frentes: hardware, plataformas de nuvem, modelos fundamentais e software empresarial.
1. Hardware (GPUs, Chips Dedicados e Infraestrutura de Computação)
A mudança para o TTC pode alterar o tipo de hardware que as empresas de IA precisam e como elas o gerenciam. Em vez de investir em clusters de GPUs cada vez maiores para treinamento, elas podem começar a focar mais em fortalecer suas capacidades de inferência para lidar com as demandas do TTC. Embora as GPUs ainda sejam cruciais para inferência, a diferença entre cargas de trabalho de treinamento e inferência pode afetar como esses chips são configurados e usados. Com cargas de trabalho de inferência sendo mais imprevisíveis e "picosas", o planejamento de capacidade pode se tornar mais complicado.
Também acreditamos que essa mudança pode impulsionar o mercado de hardware projetado especificamente para inferência de baixa latência, como ASICs. À medida que o TTC se torna mais crucial do que a capacidade de treinamento, o reinado das GPUs de uso geral pode começar a diminuir, abrindo portas para fabricantes de chips de inferência especializados.
2. Plataformas de Nuvem: Hiperescaladores (AWS, Azure, GCP) e Computação em Nuvem
Um grande obstáculo para a adoção de IA nas empresas, além de questões de precisão, é a confiabilidade das APIs de inferência. Coisas como tempos de resposta inconsistentes, limites de taxa e problemas com solicitações simultâneas podem ser uma verdadeira dor de cabeça. O TTC pode agravar esses problemas. Nesse cenário, um provedor de nuvem que possa garantir uma alta qualidade de serviço (QoS) para enfrentar esses desafios pode ter uma grande vantagem.
Curiosamente, embora novos métodos possam tornar a IA mais eficiente, eles podem não reduzir a demanda por hardware. Seguindo o Paradoxo de Jevons, onde maior eficiência leva a maior consumo, modelos de inferência mais eficientes podem atrair mais desenvolvedores para usar modelos de raciocínio, aumentando a necessidade de poder de computação. Acreditamos que melhorias recentes em modelos podem estimular mais demanda por computação de IA em nuvem, tanto para inferência quanto para treinamento de modelos menores e especializados.
3. Provedores de Modelos Fundamentais (OpenAI, Anthropic, Cohere, DeepSeek, Mistral)
Se novos entrantes como a DeepSeek podem competir de igual para igual com os grandes players a uma fração do custo, o domínio dos modelos pré-treinados proprietários pode começar a desmoronar. Também podemos esperar mais inovações em TTC para modelos transformadores, e como a DeepSeek demonstrou, essas inovações podem vir de lugares inesperados fora dos suspeitos habituais em IA.
4. Adoção de IA Empresarial e SaaS (Camada de Aplicação)
Dada a origem da DeepSeek na China, é provável que seus produtos sejam continuamente examinados do ponto de vista de segurança e privacidade. Seus serviços de API e chatbot baseados na China dificilmente ganharão tração com clientes empresariais de IA nos EUA, Canadá ou outros países ocidentais. Muitas empresas já estão bloqueando o site e os aplicativos da DeepSeek. Mesmo quando hospedados por terceiros em centros de dados ocidentais, os modelos da DeepSeek podem enfrentar escrutínio, o que pode limitar sua adoção no ambiente empresarial. Pesquisadores estão apontando problemas como jailbreaking, viés e geração de conteúdo prejudicial. Embora algumas empresas possam experimentar os modelos da DeepSeek, a adoção generalizada parece improvável devido a essas preocupações.
Por outro lado, a especialização vertical está ganhando força. No passado, aplicações verticais construídas sobre modelos fundamentais eram focadas em criar fluxos de trabalho personalizados. Técnicas como geração aumentada por recuperação (RAG), roteamento de modelos, chamada de funções e guardrails foram fundamentais para ajustar modelos generalizados para esses casos de uso específicos. Mas sempre houve a preocupação de que grandes melhorias nos modelos subjacentes poderiam tornar essas aplicações obsoletas. Sam Altman uma vez alertou que um grande salto nas capacidades do modelo poderia "atropelar" essas inovações.
No entanto, se estamos vendo um platô nos ganhos de computação em tempo de treinamento, a ameaça de ser rapidamente superado diminui. Em um mundo onde melhorias no desempenho do modelo vêm de otimizações de TTC, novas oportunidades podem surgir para players da camada de aplicação. Inovações como otimização de prompts estruturados, estratégias de raciocínio cientes de latência e técnicas de amostragem eficientes podem oferecer grandes aumentos de desempenho em verticais específicas.
Essas melhorias são particularmente relevantes para modelos focados em raciocínio, como o GPT-4o da OpenAI e o DeepSeek-R1, que podem levar vários segundos para responder. Em aplicações em tempo real, reduzir a latência e melhorar a qualidade da inferência dentro de um domínio específico pode dar uma vantagem competitiva. Como resultado, empresas com profundo conhecimento de domínio podem desempenhar um papel crucial na otimização da eficiência de inferência e no ajuste fino de saídas.
O trabalho da DeepSeek mostra que estamos nos afastando de depender apenas de mais pré-treinamento para melhorar a qualidade do modelo. Em vez disso, o TTC está se tornando cada vez mais importante. Embora não esteja claro se os modelos da DeepSeek serão amplamente adotados em software empresarial devido ao escrutínio, sua influência em melhorar outros modelos está se tornando mais evidente.
Acreditamos que as inovações da DeepSeek estão pressionando laboratórios de IA estabelecidos a adotar técnicas semelhantes, complementando suas vantagens de hardware existentes. A queda prevista nos custos dos modelos parece estar impulsionando mais uso de modelos, seguindo o padrão do Paradoxo de Jevons.
Pashootan Vaezipoor é líder técnico na Georgian.



DeepSeek's new model sounds like a game-changer! A 17% Nvidia stock dip is wild—wonder how this’ll shift the AI race. More compute at inference? Mind blown! 🤯




Wow, DeepSeek's new model sounds like a game-changer! That 17% Nvidia stock dip is wild—makes me wonder if we're hitting a compute bottleneck. Anyone else curious how this shifts the AI race? 🤔




¡El nuevo modelo de DeepSeek está sacudiendo la industria de la IA! Es increíble ver cómo baja la acción de Nvidia por esto. Me pregunto si más capacidad de cómputo en la inferencia será realmente la próxima gran cosa o solo un hype. De cualquier manera, es emocionante ver cómo evoluciona la industria! 🚀




DeepSeek's new model is shaking up the AI industry! It's wild to see Nvidia's stock dip because of this. I'm curious if more compute at inference will really be the next big thing or if it's just hype. Either way, it's exciting to watch the industry evolve! 🚀




O novo modelo da DeepSeek está abalando a indústria de IA! É louco ver a queda das ações da Nvidia por causa disso. Estou curioso se mais poder de computação na inferência será realmente a próxima grande coisa ou se é apenas hype. De qualquer forma, é emocionante ver a evolução da indústria! 🚀




DeepSeek의 새로운 모델이 AI 산업을 흔들고 있어요! Nvidia의 주식이 이 때문에 떨어지는 걸 보니 정말 놀랍네요. 추론 시 더 많은 계산 능력이 정말 다음 큰 변화가 될지, 아니면 그냥 과대광고일지 궁금해요. 어쨌든 산업이 진화하는 걸 보는 건 흥미로워요! 🚀












