

Deepseek Shakes KI -Industrie: Der nächste AI -Sprung kann von einer erhöhten Berechnung bei Inferenz abhängen, nicht mehr Daten
17. April 2025
AlbertWalker
48

Die KI-Industrie befindet sich in einem Zustand des ständigen Flusses, wobei 2025 einige bahnbrechende Entwicklungen mit sich bringt, die die Dinge aufschütten. Ein großes Erschütterung kam, als das chinesische KI -Labor Deepseek eine Bombe mit einem neuen Modell absetzte, das einen Einbruch von 17% in Nvidia -Aktien verursachte und andere AI -Rechenzentrumsaktien beeinflusste. Das Summen um Deepseeks Modell? Es liefert erstklassige Leistung zu einem Bruchteil dessen, was andere US-Konkurrenten kostet, und rührt einen Sturm darüber auf, was dies für die Zukunft der AI-Rechenzentren bedeutet.
Aber um wirklich das zu bekommen, was Deepseek tut, müssen wir herausfinden und das Gesamtbild betrachten. Die KI -Welt setzt sich mit einer Mangel an Trainingsdaten auseinander. Die Big-Player haben bereits die meisten öffentlichen Internetdaten übergekauert, was bedeutet, dass wir bei Verbesserungen vor dem Training eine Wand treffen. Infolgedessen die Verschiebung der Branche in Richtung "Test-Time Compute" (TTC). Betrachten Sie es als KI -Models, die sich einen Moment Zeit nehmen, um zu "denken", bevor sie antworten, wie mit Openais "O" -Serie. Es besteht die Hoffnung, dass TTC dieselbe Art von Skalierungsverbesserungen anbieten kann, die einst die Schulung vorhanden haben, und die nächste große Welle von AI-Durchbrüchen potenziell einleitet.
Diese Verschiebungen signalisieren zwei große Veränderungen: Erste Labor mit kleinerem Budget sind jetzt im Spiel und stellen modernste Modelle heraus. Zweitens wird TTC zur neuen Grenze, um die KI nach vorne zu fahren. Lassen Sie uns diese Trends und was sie für die KI -Landschaft und den Markt bedeuten könnten.
Implikationen für die KI -Branche
Wir glauben, dass der Umzug zu TTC und die Ansammlung des Wettbewerbs zwischen Argumentationsmodellen die KI-Landschaft über mehrere Fronten hinweg neu gestalten könnten: Hardware, Cloud-Plattformen, Fundamentmodelle und Unternehmenssoftware.
1. Hardware (GPUs, spezielle Chips und Berechnungsinfrastruktur)
Die Verlagerung zu TTC könnte ändern, was Hardware -KI -Unternehmen benötigen und wie sie es verwalten. Anstatt Geld in immer schwere GPU-Cluster für das Training zu gießen, konzentrieren sie sich möglicherweise mehr darauf, ihre Inferenzfähigkeiten zu verbessern, um die TTC-Anforderungen zu erfüllen. Während GPUs für die Inferenz immer noch entscheidend sein, kann der Unterschied zwischen Trainings- und Inferenz -Workloads die Art und Weise beeinflussen, wie diese Chips eingerichtet und verwendet werden. Da Inferenz -Workloads unvorhersehbarer und "Spikey" sind, wird die Planung der Kapazität möglicherweise schwieriger.
Wir glauben auch, dass diese Verschiebung den Markt für Hardware steigern könnte, die speziell für Inferenz mit geringer Latenz wie ASICs entwickelt wurden. Da TTC wichtiger wird als die Trainingskapazität, kann die Regierungszeit von Allzweck-GPUs nachlassen und die Türen für Spezialinferenz-Chip-Hersteller öffnen.
2. Cloud -Plattformen: Hyperzaller (AWS, Azure, GCP) und Cloud -Computer
Eine wichtige Hürde für die Einführung der KI in Unternehmen, abgesehen von Genauigkeitsproblemen, ist die Unzuverlässigkeit von Inferenz -APIs. Dinge wie inkonsistente Reaktionszeiten, Ratengrenzen und Probleme mit gleichzeitigen Anfragen können echte Kopfschmerzen sein. TTC könnte diese Probleme noch schlimmer machen. In diesem Szenario könnte ein Cloud -Anbieter, der eine hohe Servicequalität (QoS) garantieren kann, um diese Probleme anzugehen, ein großes Bein erhöht.
Interessanterweise verringern sie die Nachfrage nach Hardware, obwohl neue Methoden die KI möglicherweise effizienter machen. Nach dem Jevons Paradox, wo mehr Effizienz zu mehr Verbrauch führt, könnten effizientere Inferenzmodelle mehr Entwickler dazu bringen, Argumentationsmodelle zu verwenden, wodurch die Notwendigkeit von Rechenleistung erhöht wird. Wir sind der Meinung, dass die jüngsten Modellverbesserungen möglicherweise sowohl nach Inferenz als auch nach kleinerem, spezialisiertem Modelltraining mehr Nachfrage nach Cloud -KI -Berechnung anregen könnten.
3. Foundation Model Provider (OpenAI, Anthropic, Cohere, Deepseek, Mistral)
Wenn neue Teilnehmer wie Deepseek zu einem Bruchteil der Kosten mit den großen Waffen mit den großen Waffen gehen können, könnte die Hochburg der proprietären vorgebrachten Modelle zu bröckeln. Wir können auch mehr Innovationen in TTC für Transformer -Modelle erwarten, und wie Deepseek gezeigt hat, können diese Innovationen von unerwarteten Orten außerhalb der üblichen Verdächtigen der KI stammen.
4. Enterprise AI Adoption und SaaS (Anwendungsschicht)
Angesichts der Wurzeln von Deepseek in China wird es bestimmt, ihre Produkte aus Sicherheits- und Privatsphäre zu steuern. Ihre in China ansässigen API- und Chatbot-Dienste sind wahrscheinlich nicht mit Unternehmenskunden in den USA, Kanada oder anderen westlichen Ländern. Viele Unternehmen blockieren bereits die Website von Deepseek und Apps. Auch wenn die Modelle von Deepseek von Dritten in westlichen Rechenzentren gehostet werden, könnten die Modelle von Deepseek gerecht werden, was ihre Einführung im Unternehmen einschränken könnte. Forscher sind Probleme wie Jailbreaking, Voreingenommenheit und schädliche Inhaltsgenerierung. Während einige Unternehmen möglicherweise mit Deepseeks Modellen experimentieren, scheint eine weit verbreitete Akzeptanz aufgrund dieser Bedenken unwahrscheinlich.
In einem anderen Fall gewinnt die vertikale Spezialisierung an Boden. In der Vergangenheit drehten sich in vertikalen Anwendungen, die auf Grundmodellen basieren, um maßgeschneiderte Workflows. Techniken wie Abruf-Augmented Generation (RAG), Modellrouting, Funktionsanrufe und Leitplanken waren entscheidend für die Optimierung der verallgemeinerten Modelle für diese spezifischen Anwendungsfälle. Es gab jedoch immer die Sorge, dass große Verbesserungen an den zugrunde liegenden Modellen diese Anwendungen überflüssig machen könnten. Sam Altman warnte einmal, dass ein großer Sprung in den Modellfunktionen diese Innovationen "Steamroll".
Wenn wir jedoch ein Plateau in Zugzeitgewinnen bei Zugzeit sehen, verringert sich die Bedrohung, schnell überholt zu werden. In einer Welt, in der Modellleistungsverbesserungen aus TTC-Optimierungen stammen, können sich für Anwendungsschichten neue Möglichkeiten ergeben. Innovationen wie strukturierte sofortige Optimierung, Latenz-bewusstes Argumentationsstrategien und effiziente Stichprobentechniken könnten große Leistungssteigerungen in bestimmten Branchen bieten.
Diese Verbesserungen sind besonders relevant für argumentationsorientierte Modelle wie das OpenAI-GPT-4O und Deepseek-R1, der es mehrere Sekunden dauern kann, um zu reagieren. In Echtzeitanwendungen könnte die Reduzierung der Latenz und die Verbesserung der Inferenzqualität innerhalb eines bestimmten Bereichs einen Wettbewerbsvorteil verleihen. Infolgedessen könnten Unternehmen mit tiefem Domänenwissen eine entscheidende Rolle bei der Optimierung der Inferenzeffizienz und der Feinabstimmung spielen.
Die Arbeit von Deepseek zeigt, dass wir uns nicht nur auf mehr vor dem Training verlassen, um die Modellqualität zu verbessern. Stattdessen wird TTC immer wichtiger. Es ist zwar unklar, ob die Modelle von Deepseek aufgrund der Prüfung in der Unternehmenssoftware weit verbreitet sind, aber ihr Einfluss auf die Verbesserung anderer Modelle wird immer deutlicher.
Wir glauben, dass Deepseeks Innovationen etablierte KI -Labors dazu drängen, ähnliche Techniken einzusetzen und ihre vorhandenen Hardwarevorteile zu ergänzen. Der vorhergesagte Rückgang der Modellkosten scheint mehr Modellverwendung zu treiben und das Jevons Paradox -Muster anzupassen.
Pashootan Vazipoor ist technischer Vorsprung in Georgian.
Verwandter Artikel
Former DeepSeeker and collaborators release new method for training reliable AI agents: RAGEN
The Year of AI Agents: A Closer Look at 2025's Expectations and Realities2025 was heralded by many experts as the year when AI agents—specialized AI systems powered by advanced large language and multimodal models from companies like OpenAI, Anthropic, Google, and DeepSeek—would finally take center
DeepSeek's AIs Uncover True Human Desires
DeepSeek's Breakthrough in AI Reward Models: Enhancing AI Reasoning and Response
Chinese AI startup DeepSeek, in collaboration with Tsinghua University, has achieved a significant milestone in AI research. Their innovative approach to AI reward models promises to revolutionize how AI systems learn
Researchers Develop Open-Source Rival to OpenAI's $50 'Reasoning' Model for Under $50
Last Friday, a groundbreaking research paper from AI experts at Stanford and the University of Washington hit the scene, revealing that they managed to develop an AI "reasoning" model, dubbed s1, for under $50 in cloud compute credits. This revelation is shaking up the AI world, as s1 holds its own
Kommentare (30)
0/200
JohnRoberts
18. April 2025 12:09:37 GMT
DeepSeek's new model is shaking things up, but I'm not sure if it's all that. It's interesting how they're focusing on compute at inference, but I'm still waiting to see real-world results. 🤔💻
0
WalterWhite
18. April 2025 12:09:37 GMT
DeepSeekの新しいモデルは話題になっていますが、正直よくわかりません。推論時の計算に焦点を当てているのは面白いですが、実際の結果を見るまで待ちます。🤔💻
0
RogerPerez
18. April 2025 12:09:37 GMT
DeepSeek의 새로운 모델이 화제가 되고 있지만, 솔직히 잘 모르겠어요. 추론 시의 계산에 집중하는 건 흥미롭지만, 실제 결과를 보기 전까지는 기다려야 할 것 같아요. 🤔💻
0
PatrickMartinez
18. April 2025 12:09:37 GMT
O novo modelo da DeepSeek está causando um impacto, mas não tenho certeza se é tudo isso. É interessante focar no cálculo durante a inferência, mas ainda estou esperando pelos resultados reais. 🤔💻
0
ScottPerez
18. April 2025 12:09:37 GMT
El nuevo modelo de DeepSeek está dando que hablar, pero no estoy seguro de que sea para tanto. Es interesante que se enfoquen en el cálculo durante la inferencia, pero aún espero ver resultados reales. 🤔💻
0
SophiaCampbell
18. April 2025 17:57:57 GMT
DeepSeek really shook the AI world with their new model! Nvidia's stock took a hit, but honestly, it's exciting to see such big moves. It's like watching a sci-fi movie unfold in real-time. Can't wait to see where this leads, but more compute at inference? Sounds pricey! 🚀
0






Die KI-Industrie befindet sich in einem Zustand des ständigen Flusses, wobei 2025 einige bahnbrechende Entwicklungen mit sich bringt, die die Dinge aufschütten. Ein großes Erschütterung kam, als das chinesische KI -Labor Deepseek eine Bombe mit einem neuen Modell absetzte, das einen Einbruch von 17% in Nvidia -Aktien verursachte und andere AI -Rechenzentrumsaktien beeinflusste. Das Summen um Deepseeks Modell? Es liefert erstklassige Leistung zu einem Bruchteil dessen, was andere US-Konkurrenten kostet, und rührt einen Sturm darüber auf, was dies für die Zukunft der AI-Rechenzentren bedeutet.
Aber um wirklich das zu bekommen, was Deepseek tut, müssen wir herausfinden und das Gesamtbild betrachten. Die KI -Welt setzt sich mit einer Mangel an Trainingsdaten auseinander. Die Big-Player haben bereits die meisten öffentlichen Internetdaten übergekauert, was bedeutet, dass wir bei Verbesserungen vor dem Training eine Wand treffen. Infolgedessen die Verschiebung der Branche in Richtung "Test-Time Compute" (TTC). Betrachten Sie es als KI -Models, die sich einen Moment Zeit nehmen, um zu "denken", bevor sie antworten, wie mit Openais "O" -Serie. Es besteht die Hoffnung, dass TTC dieselbe Art von Skalierungsverbesserungen anbieten kann, die einst die Schulung vorhanden haben, und die nächste große Welle von AI-Durchbrüchen potenziell einleitet.
Diese Verschiebungen signalisieren zwei große Veränderungen: Erste Labor mit kleinerem Budget sind jetzt im Spiel und stellen modernste Modelle heraus. Zweitens wird TTC zur neuen Grenze, um die KI nach vorne zu fahren. Lassen Sie uns diese Trends und was sie für die KI -Landschaft und den Markt bedeuten könnten.
Implikationen für die KI -Branche
Wir glauben, dass der Umzug zu TTC und die Ansammlung des Wettbewerbs zwischen Argumentationsmodellen die KI-Landschaft über mehrere Fronten hinweg neu gestalten könnten: Hardware, Cloud-Plattformen, Fundamentmodelle und Unternehmenssoftware.
1. Hardware (GPUs, spezielle Chips und Berechnungsinfrastruktur)
Die Verlagerung zu TTC könnte ändern, was Hardware -KI -Unternehmen benötigen und wie sie es verwalten. Anstatt Geld in immer schwere GPU-Cluster für das Training zu gießen, konzentrieren sie sich möglicherweise mehr darauf, ihre Inferenzfähigkeiten zu verbessern, um die TTC-Anforderungen zu erfüllen. Während GPUs für die Inferenz immer noch entscheidend sein, kann der Unterschied zwischen Trainings- und Inferenz -Workloads die Art und Weise beeinflussen, wie diese Chips eingerichtet und verwendet werden. Da Inferenz -Workloads unvorhersehbarer und "Spikey" sind, wird die Planung der Kapazität möglicherweise schwieriger.
Wir glauben auch, dass diese Verschiebung den Markt für Hardware steigern könnte, die speziell für Inferenz mit geringer Latenz wie ASICs entwickelt wurden. Da TTC wichtiger wird als die Trainingskapazität, kann die Regierungszeit von Allzweck-GPUs nachlassen und die Türen für Spezialinferenz-Chip-Hersteller öffnen.
2. Cloud -Plattformen: Hyperzaller (AWS, Azure, GCP) und Cloud -Computer
Eine wichtige Hürde für die Einführung der KI in Unternehmen, abgesehen von Genauigkeitsproblemen, ist die Unzuverlässigkeit von Inferenz -APIs. Dinge wie inkonsistente Reaktionszeiten, Ratengrenzen und Probleme mit gleichzeitigen Anfragen können echte Kopfschmerzen sein. TTC könnte diese Probleme noch schlimmer machen. In diesem Szenario könnte ein Cloud -Anbieter, der eine hohe Servicequalität (QoS) garantieren kann, um diese Probleme anzugehen, ein großes Bein erhöht.
Interessanterweise verringern sie die Nachfrage nach Hardware, obwohl neue Methoden die KI möglicherweise effizienter machen. Nach dem Jevons Paradox, wo mehr Effizienz zu mehr Verbrauch führt, könnten effizientere Inferenzmodelle mehr Entwickler dazu bringen, Argumentationsmodelle zu verwenden, wodurch die Notwendigkeit von Rechenleistung erhöht wird. Wir sind der Meinung, dass die jüngsten Modellverbesserungen möglicherweise sowohl nach Inferenz als auch nach kleinerem, spezialisiertem Modelltraining mehr Nachfrage nach Cloud -KI -Berechnung anregen könnten.
3. Foundation Model Provider (OpenAI, Anthropic, Cohere, Deepseek, Mistral)
Wenn neue Teilnehmer wie Deepseek zu einem Bruchteil der Kosten mit den großen Waffen mit den großen Waffen gehen können, könnte die Hochburg der proprietären vorgebrachten Modelle zu bröckeln. Wir können auch mehr Innovationen in TTC für Transformer -Modelle erwarten, und wie Deepseek gezeigt hat, können diese Innovationen von unerwarteten Orten außerhalb der üblichen Verdächtigen der KI stammen.
4. Enterprise AI Adoption und SaaS (Anwendungsschicht)
Angesichts der Wurzeln von Deepseek in China wird es bestimmt, ihre Produkte aus Sicherheits- und Privatsphäre zu steuern. Ihre in China ansässigen API- und Chatbot-Dienste sind wahrscheinlich nicht mit Unternehmenskunden in den USA, Kanada oder anderen westlichen Ländern. Viele Unternehmen blockieren bereits die Website von Deepseek und Apps. Auch wenn die Modelle von Deepseek von Dritten in westlichen Rechenzentren gehostet werden, könnten die Modelle von Deepseek gerecht werden, was ihre Einführung im Unternehmen einschränken könnte. Forscher sind Probleme wie Jailbreaking, Voreingenommenheit und schädliche Inhaltsgenerierung. Während einige Unternehmen möglicherweise mit Deepseeks Modellen experimentieren, scheint eine weit verbreitete Akzeptanz aufgrund dieser Bedenken unwahrscheinlich.
In einem anderen Fall gewinnt die vertikale Spezialisierung an Boden. In der Vergangenheit drehten sich in vertikalen Anwendungen, die auf Grundmodellen basieren, um maßgeschneiderte Workflows. Techniken wie Abruf-Augmented Generation (RAG), Modellrouting, Funktionsanrufe und Leitplanken waren entscheidend für die Optimierung der verallgemeinerten Modelle für diese spezifischen Anwendungsfälle. Es gab jedoch immer die Sorge, dass große Verbesserungen an den zugrunde liegenden Modellen diese Anwendungen überflüssig machen könnten. Sam Altman warnte einmal, dass ein großer Sprung in den Modellfunktionen diese Innovationen "Steamroll".
Wenn wir jedoch ein Plateau in Zugzeitgewinnen bei Zugzeit sehen, verringert sich die Bedrohung, schnell überholt zu werden. In einer Welt, in der Modellleistungsverbesserungen aus TTC-Optimierungen stammen, können sich für Anwendungsschichten neue Möglichkeiten ergeben. Innovationen wie strukturierte sofortige Optimierung, Latenz-bewusstes Argumentationsstrategien und effiziente Stichprobentechniken könnten große Leistungssteigerungen in bestimmten Branchen bieten.
Diese Verbesserungen sind besonders relevant für argumentationsorientierte Modelle wie das OpenAI-GPT-4O und Deepseek-R1, der es mehrere Sekunden dauern kann, um zu reagieren. In Echtzeitanwendungen könnte die Reduzierung der Latenz und die Verbesserung der Inferenzqualität innerhalb eines bestimmten Bereichs einen Wettbewerbsvorteil verleihen. Infolgedessen könnten Unternehmen mit tiefem Domänenwissen eine entscheidende Rolle bei der Optimierung der Inferenzeffizienz und der Feinabstimmung spielen.
Die Arbeit von Deepseek zeigt, dass wir uns nicht nur auf mehr vor dem Training verlassen, um die Modellqualität zu verbessern. Stattdessen wird TTC immer wichtiger. Es ist zwar unklar, ob die Modelle von Deepseek aufgrund der Prüfung in der Unternehmenssoftware weit verbreitet sind, aber ihr Einfluss auf die Verbesserung anderer Modelle wird immer deutlicher.
Wir glauben, dass Deepseeks Innovationen etablierte KI -Labors dazu drängen, ähnliche Techniken einzusetzen und ihre vorhandenen Hardwarevorteile zu ergänzen. Der vorhergesagte Rückgang der Modellkosten scheint mehr Modellverwendung zu treiben und das Jevons Paradox -Muster anzupassen.
Pashootan Vazipoor ist technischer Vorsprung in Georgian.



DeepSeek's new model is shaking things up, but I'm not sure if it's all that. It's interesting how they're focusing on compute at inference, but I'm still waiting to see real-world results. 🤔💻




DeepSeekの新しいモデルは話題になっていますが、正直よくわかりません。推論時の計算に焦点を当てているのは面白いですが、実際の結果を見るまで待ちます。🤔💻




DeepSeek의 새로운 모델이 화제가 되고 있지만, 솔직히 잘 모르겠어요. 추론 시의 계산에 집중하는 건 흥미롭지만, 실제 결과를 보기 전까지는 기다려야 할 것 같아요. 🤔💻




O novo modelo da DeepSeek está causando um impacto, mas não tenho certeza se é tudo isso. É interessante focar no cálculo durante a inferência, mas ainda estou esperando pelos resultados reais. 🤔💻




El nuevo modelo de DeepSeek está dando que hablar, pero no estoy seguro de que sea para tanto. Es interesante que se enfoquen en el cálculo durante la inferencia, pero aún espero ver resultados reales. 🤔💻




DeepSeek really shook the AI world with their new model! Nvidia's stock took a hit, but honestly, it's exciting to see such big moves. It's like watching a sci-fi movie unfold in real-time. Can't wait to see where this leads, but more compute at inference? Sounds pricey! 🚀












