opção
Lar
Notícias
Deepseek Shakes AI Industry: o próximo salto de IA pode depender do aumento da computação em inferência, não mais dados

Deepseek Shakes AI Industry: o próximo salto de IA pode depender do aumento da computação em inferência, não mais dados

18 de Abril de 2025
107

Deepseek Shakes AI Industry: o próximo salto de IA pode depender do aumento da computação em inferência, não mais dados

A indústria da IA ​​está em um estado de fluxo constante, com 2025 trazendo alguns desenvolvimentos que mudam o jogo que estão abalando as coisas. Uma grande mudança ocorreu quando o laboratório de IA chinês, Deepseek, lançou uma bomba com um novo modelo que causou uma queda de 17% nas ações da NVIDIA e afetou outros estoques de data center de IA. O burburinho em torno do modelo de Deepseek? Ele está oferecendo desempenho de primeira linha em uma fração do que custa a outros concorrentes dos EUA, provocando uma tempestade sobre o que isso significa para o futuro dos data centers de IA.

Mas para realmente conseguir o que Deepseek está fazendo, precisamos aumentar o zoom e olhar para o quadro geral. O mundo da IA ​​está lutando com uma escassez de dados de treinamento. Os grandes players já mastigaram a maioria dos dados públicos da Internet, o que significa que estamos atingindo uma parede em melhorias pré-treinamento. Como resultado, as marchas de mudança do setor para "computação no tempo de teste" (TTC). Pense nisso como modelos de IA, levando um momento para "pensar" antes de responder, como na série "O" do Openai. Há esperança de que o TTC possa oferecer o mesmo tipo de melhorias de escala que o pré-treinamento uma vez, levando potencialmente na próxima grande onda de avanços da IA.

Essas mudanças estão sinalizando duas grandes mudanças: primeiro, os laboratórios de orçamento menor estão agora no jogo, lançando modelos de ponta. Segundo, o TTC está se tornando a nova fronteira para impulsionar a IA para a frente. Vamos dividir essas tendências e o que elas podem significar para a paisagem e mercado da IA.

Implicações para a indústria de IA

Acreditamos que a mudança para o TTC e a aceleração na competição entre os modelos de raciocínio podem remodelar o cenário da IA ​​em várias frentes: hardware, plataformas de nuvem, modelos de fundação e software corporativo.

1. Hardware (GPUs, chips dedicados e infraestrutura de computação)

A mudança para o TTC pode mudar o que as empresas de IA de hardware precisam e como elas o gerenciam. Em vez de despejar dinheiro em aglomerados de GPU sempre esclarecedores para treinamento, eles podem começar a se concentrar mais em reforçar suas capacidades de inferência para lidar com as demandas do TTC. Embora as GPUs ainda sejam cruciais para a inferência, a diferença entre cargas de trabalho de treinamento e inferência pode afetar como esses chips são configurados e usados. Com cargas de trabalho de inferência sendo mais imprevisíveis e "Spikey", o planejamento da capacidade pode ficar mais complicado.

Também achamos que essa mudança poderia aumentar o mercado de hardware projetado especificamente para inferência de baixa latência, como as ASICs. À medida que o TTC se torna mais crucial que a capacidade de treinamento, o reinado de GPUs de uso geral pode começar a diminuir, abrindo portas para fabricantes de chips de inferência especializados.

2. Plataformas em nuvem: HyperScalers (AWS, Azure, GCP) e computação em nuvem

Um grande obstáculo para a adoção da IA ​​nas empresas, além de questões de precisão, é a falta de confiabilidade das APIs de inferência. Coisas como tempos de resposta inconsistentes, limites de taxa e problemas com solicitações simultâneas podem ser uma verdadeira dor de cabeça. O TTC pode piorar ainda mais esses problemas. Nesse cenário, um provedor de nuvem que pode garantir uma alta qualidade de serviço (QoS) para resolver esses problemas pode ter uma grande vantagem.

Curiosamente, embora novos métodos possam tornar a IA mais eficiente, eles podem não reduzir a demanda por hardware. Após o paradoxo de Jevons, onde mais eficiência leva a mais consumo, modelos de inferência mais eficientes podem levar mais desenvolvedores a usar modelos de raciocínio, aumentando a necessidade de poder de computação. Achamos que melhorias recentes de modelos podem estimular mais demanda por computação de IA em nuvem, tanto para inferência quanto para treinamento menor e especializado.

3. Provedores de modelos de fundação (OpenAI, antropia, coere, Deepseek, Mistral)

Se novos participantes como o Deepseek puderem chegar ao topo com as grandes armas por uma fração do custo, a fortaleza de modelos pré-treinados proprietários poderá começar a desmoronar. Também podemos esperar mais inovações no TTC para modelos de transformadores e, como o Deepseek mostrou, essas inovações podem vir de lugares inesperados fora dos suspeitos habituais na IA.

4. Adoção da IA ​​corporativa e SaaS (camada de aplicativo)

Dadas as raízes da Deepseek na China, é provável que haja um escrutínio contínuo de seus produtos do ponto de vista de segurança e privacidade. É improvável que seus serviços de API e chatbot sediados na China acompanhem os clientes da IA ​​corporativa nos EUA, Canadá ou outros países ocidentais. Muitas empresas já estão bloqueando o site e os aplicativos da Deepseek. Mesmo quando hospedados por terceiros nos data centers ocidentais, os modelos da Deepseek podem enfrentar escrutínio, o que poderia limitar sua adoção na empresa. Os pesquisadores estão sinalizando questões como jailbreak, preconceito e geração de conteúdo prejudicial. Embora algumas empresas possam experimentar os modelos de Deepseek, a adoção generalizada parece improvável devido a essas preocupações.

Em outra nota, a especialização vertical está ganhando terreno. No passado, as aplicações verticais construídas em modelos de fundação eram sobre a criação de fluxos de trabalho personalizados. Técnicas como geração de recuperação upmentada (RAG), roteamento de modelos, chamadas de funções e corrimões de guarda têm sido fundamentais para ajustar modelos generalizados para esses casos de uso específicos. Mas sempre houve a preocupação de que grandes melhorias nos modelos subjacentes possam tornar esses aplicativos obsoletos. Sam Altman uma vez alertou que um grande salto nos recursos do modelo poderia "rolar" essas inovações.

No entanto, se estamos vendo um platô em ganhos de computação em tempo de trem, a ameaça de ser rapidamente ultrapassada diminui. Em um mundo em que as melhorias de desempenho do modelo vêm de otimizações do TTC, novas oportunidades podem surgir para os jogadores da camada de aplicativos. Inovações como otimização imediata estruturada, estratégias de raciocínio com reconhecimento de latência e técnicas de amostragem eficientes podem oferecer grandes aumentos de desempenho em verticais específicos.

Essas melhorias são particularmente relevantes para modelos focados em raciocínio, como o GPT-4O do OpenAI e o Deepseek-R1, que podem levar alguns segundos para responder. Em aplicações em tempo real, reduzir a latência e aumentar a qualidade da inferência em um domínio específico pode dar uma vantagem competitiva. Como resultado, as empresas com conhecimento profundo do domínio podem desempenhar um papel crucial na otimização de eficiência de inferência e saídas de ajuste fino.

O trabalho de Deepseek mostra que estamos nos afastando de confiar apenas em mais pré-treinamento para melhorar a qualidade do modelo. Em vez disso, o TTC está se tornando cada vez mais importante. Embora não esteja claro se os modelos da Deepseek serão amplamente adotados no software corporativo devido ao escrutínio, sua influência na melhoria de outros modelos está se tornando mais evidente.

Acreditamos que as inovações da Deepseek estão pressionando os laboratórios de IA estabelecidos a adotar técnicas semelhantes, complementando suas vantagens de hardware existentes. A queda prevista nos custos do modelo parece estar gerando mais uso do modelo, ajustando o padrão Jevons Paradox.

Pashootan Vaezipoor é líder técnico na Georgiana.

Artigo relacionado
DeepSeek-GRM:為企業打造可擴展、高性價比的AI解決方案 DeepSeek-GRM:為企業打造可擴展、高性價比的AI解決方案 如果你經營著一家企業,你就知道將人工智慧(AI)整合到你的營運中有多麼艱難。高昂的成本和技術複雜性往往使先進的AI模型超出小型公司的能力範圍。但這就是DeepSeek-GRM的切入點,旨在使AI更加高效且易於取得,縮小大型科技公司與小型企業之間的差距。DeepSeek-GRM 使用一種稱為生成式獎勵建模(GRM)的聰明技術來引導AI回應更符合人類的需求。這一
新技術使DeepSeek和其他模型能夠響應敏感的查詢 新技術使DeepSeek和其他模型能夠響應敏感的查詢 從中國的DeepSeek等大型語言模型(LLM)中消除偏見和審查是一個複雜的挑戰,引起了美國決策者和商業領袖的關注,他們認為這是潛在的國家安全威脅。美國國會選拔委員會的最新報告標記為深層
前Deepseeker和合作者發布了新的培訓可靠AI代理的方法:Ragen 前Deepseeker和合作者發布了新的培訓可靠AI代理的方法:Ragen 人工智能代理年度:仔細研究2025年的期望和現實2025年被許多專家預示為當年的AI代理商(由高級大型語言和多式聯運公司提供支持的AI代理商),來自OpenAI,Anthropic,Google和Google和Deepseek等公司,最終將帶上中心中心中心中心。
Comentários (30)
0/200
JohnRoberts
JohnRoberts 18 de Abril de 2025 à0 00:00:00 GMT

DeepSeek's new model is shaking things up, but I'm not sure if it's all that. It's interesting how they're focusing on compute at inference, but I'm still waiting to see real-world results. 🤔💻

WalterWhite
WalterWhite 18 de Abril de 2025 à0 00:00:00 GMT

DeepSeekの新しいモデルは話題になっていますが、正直よくわかりません。推論時の計算に焦点を当てているのは面白いですが、実際の結果を見るまで待ちます。🤔💻

RogerPerez
RogerPerez 18 de Abril de 2025 à0 00:00:00 GMT

DeepSeek의 새로운 모델이 화제가 되고 있지만, 솔직히 잘 모르겠어요. 추론 시의 계산에 집중하는 건 흥미롭지만, 실제 결과를 보기 전까지는 기다려야 할 것 같아요. 🤔💻

PatrickMartinez
PatrickMartinez 18 de Abril de 2025 à0 00:00:00 GMT

O novo modelo da DeepSeek está causando um impacto, mas não tenho certeza se é tudo isso. É interessante focar no cálculo durante a inferência, mas ainda estou esperando pelos resultados reais. 🤔💻

ScottPerez
ScottPerez 18 de Abril de 2025 à0 00:00:00 GMT

El nuevo modelo de DeepSeek está dando que hablar, pero no estoy seguro de que sea para tanto. Es interesante que se enfoquen en el cálculo durante la inferencia, pero aún espero ver resultados reales. 🤔💻

SophiaCampbell
SophiaCampbell 19 de Abril de 2025 à0 00:00:00 GMT

DeepSeek really shook the AI world with their new model! Nvidia's stock took a hit, but honestly, it's exciting to see such big moves. It's like watching a sci-fi movie unfold in real-time. Can't wait to see where this leads, but more compute at inference? Sounds pricey! 🚀

De volta ao topo
OR