Deepseek steigert die KI -Ausgaben im Gegensatz zu den Überzeugungen

Der Einbruch des Aktienmarktes im Januar, ausgelöst durch die Aufregung um den chinesischen KI-Durchbruch DeepSeek AI und dessen kosteneffiziente Rechenmethode, könnte den Eindruck erwecken, dass Unternehmen ihre Investitionen in KI-Chips und -Systeme zurückfahren. Doch meine Erfahrung auf der generativen KI-Konferenz in New York, organisiert von Bloomberg Intelligence, zeichnete ein anderes Bild. Die Begeisterung für die Ausweitung des Einsatzes generativer KI war spürbar und deutet darauf hin, dass die Ausgaben in diesem Bereich keineswegs nachlassen.
Außerdem: Was ist DeepSeek AI? Ist es sicher? Hier ist alles, was Sie wissen müssen
Die Konferenz mit dem Titel „Generative AI: Scaling Laws Post DeepSeek“ war erfüllt von Diskussionen, die die anhaltende Nachfrage nach verstärkten Investitionen in KI betonten.
„Wir hatten heute zehn Panels, und keine einzige Person in diesen Panels sagte, dass wir mehr Kapazität haben, als wir brauchen“, bemerkte Mandeep Singh, ein leitender Technologieanalyst bei Bloomberg Intelligence und einer der Organisatoren der Veranstaltung.
„Und niemand sprach von einer Blase“ in der Infrastruktur, fügte Singh hinzu und betonte das Vertrauen der Branche in die Zukunft von KI.
Der Aufbau der KI-Infrastruktur: Wo stehen wir?
Anurag Rana, Singhs Kollege bei Bloomberg Intelligence und leitender Analyst für IT-Dienstleistungen und Software, stellte eine entscheidende Frage: „Die wichtigste Frage, die derzeit alle beschäftigt, ist der Aufbau der KI-Infrastruktur. Ja. Wo stehen wir in diesem Zyklus?“
„Niemand weiß es“ genau, gab Rana zu. Doch die Hoffnung, die DeepSeek AI geweckt hat, ist, dass bedeutende Fortschritte mit weniger Kosten erzielt werden können.
„DeepSeek hat viele Leute aufgerüttelt“, sagte er. „Wenn man nicht so viele GPUs benötigt, um Modelle zu betreiben, warum brauchen wir dann 500 Milliarden Dollar für das Stargate-Projekt“, bemerkte er mit Bezug auf ein geplantes US-KI-Projekt mit Japans SoftBank Group, OpenAI und Oracle.
Rana stellte fest, dass die Branche hofft, dass die KI-Kosten drastisch sinken, ähnlich wie der rapide Rückgang der Kosten für Cloud-Computing.
Außerdem: Ist das neue Bildmodell von DeepSeek ein weiterer Sieg für günstigere KI?
„Dieser Rückgang der Kostenkurve, der wahrscheinlich sechs, sieben, acht Jahre gedauert hat, um einen Terabyte Daten in Amazon AWS zu speichern, im Vergleich zu heute, war wirtschaftlich sinnvoll“, sagte er. „Und das ist, was alle hoffen, dass auf der Inferenzseite“ von KI, „wenn die Kurve auf dieses Niveau fällt, oh mein Gott, die Adoptionsrate von KI auf der Endnutzerseite oder der Unternehmensseite wird spektakulär sein.“
Singh stimmte zu und bemerkte, dass das Auftauchen von DeepSeek AI „die Denkweise aller über Effizienzsteigerungen verändert hat.“
Den ganzen Tag über befassten sich zahlreiche Panels mit Unternehmens-KI-Projekten, von ihrer Entstehung bis zur Umsetzung. Doch ein wiederkehrendes Thema war die Notwendigkeit, die Kosten von KI drastisch zu senken, um ihre Zugänglichkeit zu erweitern.
„Ich denke nicht, dass DeepSeek eine Überraschung war“, sagte Shawn Edwards, Bloomberg’s Chief Technologist, in einem Interview mit David Dwyer, dem Leiter von Bloomberg Intelligence. „Es hat mich dazu gebracht zu denken, dass es großartig wäre, wenn man einen Zauberstab schwenken könnte und diese Modelle unglaublich effizient laufen würden“, sagte er und stellte sich eine Zukunft vor, in der alle KI-Modelle mit solcher Effizienz arbeiten könnten.
Die Verbreitung von KI-Modellen
Ein Grund, warum viele Teilnehmer eine Zunahme statt einer Abnahme der Investitionen in KI-Infrastruktur erwarten, ist die wachsende Zahl von KI-Modellen. Ein zentrales Ergebnis des Tages war, dass es kein einziges KI-Modell geben wird, das alle dominiert.
„Wir verwenden eine Familie von Modellen“, erklärte Edwards. „Es gibt kein einziges bestes Modell.“
Die Teilnehmer waren sich einig, dass, während „Foundation“- oder „Frontier“-Großsprachmodelle weiterentwickelt werden, einzelne Unternehmen Hunderte oder sogar Tausende von KI-Modellen einsetzen könnten.
Außerdem: Der Aufstieg von KI-PCs: Wie Unternehmen ihre Technologie umgestalten, um Schritt zu halten
Diese Modelle könnten auf den proprietären Daten eines Unternehmens optimiert werden, ein Prozess des Nachtrainierens eines neuronalen Netzwerks nach seinem anfänglichen „Pre-Training“ auf generischen Daten.
„Agenten in Unternehmen benötigen Optionen zwischen den Modellen“, sagte Jed Dougherty, der Leiter der Plattformstrategie für das risikokapitalfinanzierte Datenwissenschaftsunternehmen Dataiku. „Sie brauchen die Möglichkeit, zu kontrollieren und zu erstellen, und die Überprüfbarkeit“ von KI-Modellen.
„Wir wollen die Werkzeuge zum Erstellen dieser Dinge in die Hände der Menschen legen“, sagte er. „Wir wollen nicht, dass zehn Doktoren alle Agenten bauen.“
In ähnlicher Weise setzt Adobe, ein führendes Unternehmen für Design-Tools, auf benutzerdefinierte Modelle als zentralen Anwendungsfall für Kreative. „Wir können benutzerdefinierte Modellerweiterungen für Ihre Marke trainieren, die für eine neue Werbekampagne hilfreich sein können“, sagte Hannah Elsakr, Leiterin neuer Geschäftsfelder bei Adobe, in einer Diskussion mit Bloomberg TV-Moderator Romaine Bostick.
Steigende Verarbeitungsanforderungen
Wie bei KI-Modellen treibt die Verbreitung von KI-Agenten innerhalb von Unternehmen die Verarbeitungsanforderungen in die Höhe, schlugen viele Redner vor.
„Man wird keinen ganzen Prozess in einen Agenten quetschen, sondern ihn in Teile aufteilen“, sagte Ray Smith, Microsofts Leiter von Copilot Studio Agenten und Automatisierung.
Smith prognostizierte, dass über eine einzige Schnittstelle wie Copilot „wir mit Hunderten von Agenten interagieren werden – sie sind einfach Apps in der neuen Welt“ der Programmierung.
„Wir werden dem Agenten den Geschäftsprozess geben, ihm sagen, was wir erreichen wollen“, und der Agent wird Aufgaben ausführen. „Agentische Apps sind nur eine neue Art von Workflow“, sagte er.
Außerdem: Nvidia dominiert in generativen KI-Benchmarks und schlägt zwei konkurrierende KI-Chips
Solche alltäglichen Szenarien sind „technologisch alle möglich“, bemerkte Smith, „es ist nur das Tempo, in dem wir sie ausbauen.“
Der Vorstoß, KI-„Agenten“ zu mehr Menschen in Organisationen zu bringen, erfordert weitere Kostensenkungen, sagte James McNiven, der Leiter des Produktmanagements für den Mikroprozessorhersteller ARM Holdings, in einem Gespräch mit Bloombergs Hyde.
„Wie ermöglichen wir den Zugang auf immer mehr Geräten“, fragte er. „Wir sehen Modelle auf einem Promotionsniveau“ der Aufgabenfähigkeit, sagte er.
McNiven schlug vor, dass solche Agenten als Assistenten für Menschen dienen sollten, und zog einen Vergleich zu der Einführung von Zahlungssystemen in Entwicklungsländern über Mobiltelefone vor einem Jahrzehnt: „Wie bringen wir diese Fähigkeit zu Menschen, die sie nutzen können?“
Die Verbreitung von Foundation-Modellen
Selbst die generischen Foundation-Modelle vermehren sich in erstaunlichem Tempo.
Amazon AWS hat 1.800 verschiedene KI-Modelle verfügbar, sagte Dave Brown, der Leiter von AWS Computing und Networking, gegenüber Bloomberg TV-Moderatorin Caroline Hyde. Das Unternehmen „tut viel, um die Kosten“ für den Betrieb der Modelle zu senken, sagte er, einschließlich der Entwicklung kundenspezifischer KI-Chips wie Trainium.
AWS „verwendet mehr unserer eigenen Prozessoren als die Prozessoren anderer Unternehmen“, sagte Brown mit Anspielung auf Nvidia, AMD, Intel und andere Anbieter von Allzweck-Chips.
Außerdem: ChatGPTs neuer Bildgenerator hat meine Erwartungen übertroffen – und jetzt ist er kostenlos zu testen
„Kunden würden mehr tun, wenn die Kosten niedriger wären“, sagte Brown.
AWS arbeitet täglich mit Anthropic, den Machern der Claude-Sprachmodellfamilie, zusammen, bemerkte Brown. Anthropic-Leiter der Anwendungsschnittstellen Michael Gerstenhaber, im selben Gespräch mit Hyde, bemerkte, dass „denkende Modelle viel Kapazität verbrauchen“, in Bezug auf den Trend sogenannter Reasoning-Modelle wie DeepSeek R1 und GPT-o1, die ausführliche Aussagen über die Argumente für ihre endgültigen Antworten ausgeben.
Anthropic arbeitet eng mit AWS an Wegen, das Rechenbudget zu kürzen, wie z.B. „Prompt Caching“, das Speichern der Berechnungen aus früheren Antworten.
Trotz dieses Trends sagte er, „Anthropic benötigt Hunderttausende von Beschleunigern“, also KI-fokussierte Siliziumchips, „über viele Rechenzentren hinweg“, um seine Modelle zu betreiben.
Zusätzlich steigen die Energiekosten für die Stromversorgung von KI unaufhaltsam, sagte Brown. Aktuelle Rechenzentren verbrauchen Hunderte von Megawatt, bemerkte er, und werden schließlich Gigawatt benötigen. „Die Energie, die es verbraucht“, also KI, „ist groß, und der Fußabdruck ist in vielen Rechenzentren groß.“
Außerdem: Globale KI-Computing wird bis 2026 „mehrere NYCs“ an Energie verbrauchen, sagt Gründer
Wirtschaftliche Unsicherheit und KI-Investitionen
Trotz der ambitionierten Szenarien könnte ein Faktor alle Anwendungsfälle und Investitionspläne stören: die Wirtschaft.
Als die Konferenz am Mittwochabend zu Ende ging, überwachten die Teilnehmer und Gäste den nachbörslichen Einbruch des Aktienmarktes. US-Präsident Donald Trump hatte gerade ein globales Zollpaket angekündigt, das größer und umfassender war, als die meisten an der Wall Street erwartet hatten.
Traditionelle Bereiche der Technologieinvestitionen, wie Server und Speicher, und nicht KI, könnten die ersten Opfer einer wirtschaftlichen Kontraktion sein, sagte Bloombergs Rana.
„Das andere große Thema, auf das wir uns konzentrieren, ist das Nicht-KI-Technologieausgaben“, sagte er bezüglich der Zölle. „Wenn wir uns Unternehmen wie IBM, Accenture, Microsoft und all die anderen ansehen, wenn wir KI für einen Moment beiseitelassen, wird das in dieser Ertragssaison ein Kampf sein.“
Finanzchefs großer Unternehmen könnten KI priorisieren und Mittel umschichten, selbst wenn sie ihre Budgets angesichts wirtschaftlicher Unsicherheit und möglicher Rezession kürzen müssen, schlug Rana vor.
Diese optimistische Aussicht ist jedoch nicht garantiert.
„Das, was mich am meisten interessiert, ist, ob all diese großen Unternehmen ihre Cap-Ex [Investitionsausgaben]-Ziele beibehalten werden“, sagte Rana, einschließlich KI-Rechenzentren, „oder werden sie sagen: Weißt du was? Es ist zu unsicher.“
Verwandter Artikel
Qodo Partnerschaft mit Google Cloud zur Bereitstellung kostenloser KI-Code-Review-Tools für Entwickler
Qodo, ein in Israel ansässiges KI-Startup für Codierung, das sich auf Codequalität konzentriert, hat eine Partnerschaft mit Google Cloud gestartet, um die Integrität von KI-generiertem Softwarecode zu
DeepMind's KI sichert Gold bei der Mathematik-Olympiade 2025
DeepMind's KI hat einen beeindruckenden Sprung im mathematischen Denken gemacht und eine Goldmedaille bei der Internationalen Mathematik-Olympiade (IMO) 2025 gewonnen, nur ein Jahr nach dem Erhalt der
AI-betriebener Parallax Maker: Erstellen dynamischer 2.5D-Animationen
Verwandeln Sie statische Bilder in fesselnde 2.5D-Animationen mit Parallax Maker. Dieses Open-Source-Tool befähigt Künstler und Spieleentwickler, Tiefe und Bewegung in ihre Werke einzubringen. Durch d
Kommentare (1)
0/200
FredGreen
31. Juli 2025 03:41:19 MESZ
DeepSeek's breakthrough sounds like a game-changer! Curious how their cost-effective method stacks up against giants like NVIDIA. Anyone got details on this? 🤔
0
Der Einbruch des Aktienmarktes im Januar, ausgelöst durch die Aufregung um den chinesischen KI-Durchbruch DeepSeek AI und dessen kosteneffiziente Rechenmethode, könnte den Eindruck erwecken, dass Unternehmen ihre Investitionen in KI-Chips und -Systeme zurückfahren. Doch meine Erfahrung auf der generativen KI-Konferenz in New York, organisiert von Bloomberg Intelligence, zeichnete ein anderes Bild. Die Begeisterung für die Ausweitung des Einsatzes generativer KI war spürbar und deutet darauf hin, dass die Ausgaben in diesem Bereich keineswegs nachlassen.
Außerdem: Was ist DeepSeek AI? Ist es sicher? Hier ist alles, was Sie wissen müssen
Die Konferenz mit dem Titel „Generative AI: Scaling Laws Post DeepSeek“ war erfüllt von Diskussionen, die die anhaltende Nachfrage nach verstärkten Investitionen in KI betonten.
„Wir hatten heute zehn Panels, und keine einzige Person in diesen Panels sagte, dass wir mehr Kapazität haben, als wir brauchen“, bemerkte Mandeep Singh, ein leitender Technologieanalyst bei Bloomberg Intelligence und einer der Organisatoren der Veranstaltung.
„Und niemand sprach von einer Blase“ in der Infrastruktur, fügte Singh hinzu und betonte das Vertrauen der Branche in die Zukunft von KI.
Der Aufbau der KI-Infrastruktur: Wo stehen wir?
Anurag Rana, Singhs Kollege bei Bloomberg Intelligence und leitender Analyst für IT-Dienstleistungen und Software, stellte eine entscheidende Frage: „Die wichtigste Frage, die derzeit alle beschäftigt, ist der Aufbau der KI-Infrastruktur. Ja. Wo stehen wir in diesem Zyklus?“
„Niemand weiß es“ genau, gab Rana zu. Doch die Hoffnung, die DeepSeek AI geweckt hat, ist, dass bedeutende Fortschritte mit weniger Kosten erzielt werden können.
„DeepSeek hat viele Leute aufgerüttelt“, sagte er. „Wenn man nicht so viele GPUs benötigt, um Modelle zu betreiben, warum brauchen wir dann 500 Milliarden Dollar für das Stargate-Projekt“, bemerkte er mit Bezug auf ein geplantes US-KI-Projekt mit Japans SoftBank Group, OpenAI und Oracle.
Rana stellte fest, dass die Branche hofft, dass die KI-Kosten drastisch sinken, ähnlich wie der rapide Rückgang der Kosten für Cloud-Computing.
Außerdem: Ist das neue Bildmodell von DeepSeek ein weiterer Sieg für günstigere KI?
„Dieser Rückgang der Kostenkurve, der wahrscheinlich sechs, sieben, acht Jahre gedauert hat, um einen Terabyte Daten in Amazon AWS zu speichern, im Vergleich zu heute, war wirtschaftlich sinnvoll“, sagte er. „Und das ist, was alle hoffen, dass auf der Inferenzseite“ von KI, „wenn die Kurve auf dieses Niveau fällt, oh mein Gott, die Adoptionsrate von KI auf der Endnutzerseite oder der Unternehmensseite wird spektakulär sein.“
Singh stimmte zu und bemerkte, dass das Auftauchen von DeepSeek AI „die Denkweise aller über Effizienzsteigerungen verändert hat.“
Den ganzen Tag über befassten sich zahlreiche Panels mit Unternehmens-KI-Projekten, von ihrer Entstehung bis zur Umsetzung. Doch ein wiederkehrendes Thema war die Notwendigkeit, die Kosten von KI drastisch zu senken, um ihre Zugänglichkeit zu erweitern.
„Ich denke nicht, dass DeepSeek eine Überraschung war“, sagte Shawn Edwards, Bloomberg’s Chief Technologist, in einem Interview mit David Dwyer, dem Leiter von Bloomberg Intelligence. „Es hat mich dazu gebracht zu denken, dass es großartig wäre, wenn man einen Zauberstab schwenken könnte und diese Modelle unglaublich effizient laufen würden“, sagte er und stellte sich eine Zukunft vor, in der alle KI-Modelle mit solcher Effizienz arbeiten könnten.
Die Verbreitung von KI-Modellen
Ein Grund, warum viele Teilnehmer eine Zunahme statt einer Abnahme der Investitionen in KI-Infrastruktur erwarten, ist die wachsende Zahl von KI-Modellen. Ein zentrales Ergebnis des Tages war, dass es kein einziges KI-Modell geben wird, das alle dominiert.
„Wir verwenden eine Familie von Modellen“, erklärte Edwards. „Es gibt kein einziges bestes Modell.“
Die Teilnehmer waren sich einig, dass, während „Foundation“- oder „Frontier“-Großsprachmodelle weiterentwickelt werden, einzelne Unternehmen Hunderte oder sogar Tausende von KI-Modellen einsetzen könnten.
Außerdem: Der Aufstieg von KI-PCs: Wie Unternehmen ihre Technologie umgestalten, um Schritt zu halten
Diese Modelle könnten auf den proprietären Daten eines Unternehmens optimiert werden, ein Prozess des Nachtrainierens eines neuronalen Netzwerks nach seinem anfänglichen „Pre-Training“ auf generischen Daten.
„Agenten in Unternehmen benötigen Optionen zwischen den Modellen“, sagte Jed Dougherty, der Leiter der Plattformstrategie für das risikokapitalfinanzierte Datenwissenschaftsunternehmen Dataiku. „Sie brauchen die Möglichkeit, zu kontrollieren und zu erstellen, und die Überprüfbarkeit“ von KI-Modellen.
„Wir wollen die Werkzeuge zum Erstellen dieser Dinge in die Hände der Menschen legen“, sagte er. „Wir wollen nicht, dass zehn Doktoren alle Agenten bauen.“
In ähnlicher Weise setzt Adobe, ein führendes Unternehmen für Design-Tools, auf benutzerdefinierte Modelle als zentralen Anwendungsfall für Kreative. „Wir können benutzerdefinierte Modellerweiterungen für Ihre Marke trainieren, die für eine neue Werbekampagne hilfreich sein können“, sagte Hannah Elsakr, Leiterin neuer Geschäftsfelder bei Adobe, in einer Diskussion mit Bloomberg TV-Moderator Romaine Bostick.
Steigende Verarbeitungsanforderungen
Wie bei KI-Modellen treibt die Verbreitung von KI-Agenten innerhalb von Unternehmen die Verarbeitungsanforderungen in die Höhe, schlugen viele Redner vor.
„Man wird keinen ganzen Prozess in einen Agenten quetschen, sondern ihn in Teile aufteilen“, sagte Ray Smith, Microsofts Leiter von Copilot Studio Agenten und Automatisierung.
Smith prognostizierte, dass über eine einzige Schnittstelle wie Copilot „wir mit Hunderten von Agenten interagieren werden – sie sind einfach Apps in der neuen Welt“ der Programmierung.
„Wir werden dem Agenten den Geschäftsprozess geben, ihm sagen, was wir erreichen wollen“, und der Agent wird Aufgaben ausführen. „Agentische Apps sind nur eine neue Art von Workflow“, sagte er.
Außerdem: Nvidia dominiert in generativen KI-Benchmarks und schlägt zwei konkurrierende KI-Chips
Solche alltäglichen Szenarien sind „technologisch alle möglich“, bemerkte Smith, „es ist nur das Tempo, in dem wir sie ausbauen.“
Der Vorstoß, KI-„Agenten“ zu mehr Menschen in Organisationen zu bringen, erfordert weitere Kostensenkungen, sagte James McNiven, der Leiter des Produktmanagements für den Mikroprozessorhersteller ARM Holdings, in einem Gespräch mit Bloombergs Hyde.
„Wie ermöglichen wir den Zugang auf immer mehr Geräten“, fragte er. „Wir sehen Modelle auf einem Promotionsniveau“ der Aufgabenfähigkeit, sagte er.
McNiven schlug vor, dass solche Agenten als Assistenten für Menschen dienen sollten, und zog einen Vergleich zu der Einführung von Zahlungssystemen in Entwicklungsländern über Mobiltelefone vor einem Jahrzehnt: „Wie bringen wir diese Fähigkeit zu Menschen, die sie nutzen können?“
Die Verbreitung von Foundation-Modellen
Selbst die generischen Foundation-Modelle vermehren sich in erstaunlichem Tempo.
Amazon AWS hat 1.800 verschiedene KI-Modelle verfügbar, sagte Dave Brown, der Leiter von AWS Computing und Networking, gegenüber Bloomberg TV-Moderatorin Caroline Hyde. Das Unternehmen „tut viel, um die Kosten“ für den Betrieb der Modelle zu senken, sagte er, einschließlich der Entwicklung kundenspezifischer KI-Chips wie Trainium.
AWS „verwendet mehr unserer eigenen Prozessoren als die Prozessoren anderer Unternehmen“, sagte Brown mit Anspielung auf Nvidia, AMD, Intel und andere Anbieter von Allzweck-Chips.
Außerdem: ChatGPTs neuer Bildgenerator hat meine Erwartungen übertroffen – und jetzt ist er kostenlos zu testen
„Kunden würden mehr tun, wenn die Kosten niedriger wären“, sagte Brown.
AWS arbeitet täglich mit Anthropic, den Machern der Claude-Sprachmodellfamilie, zusammen, bemerkte Brown. Anthropic-Leiter der Anwendungsschnittstellen Michael Gerstenhaber, im selben Gespräch mit Hyde, bemerkte, dass „denkende Modelle viel Kapazität verbrauchen“, in Bezug auf den Trend sogenannter Reasoning-Modelle wie DeepSeek R1 und GPT-o1, die ausführliche Aussagen über die Argumente für ihre endgültigen Antworten ausgeben.
Anthropic arbeitet eng mit AWS an Wegen, das Rechenbudget zu kürzen, wie z.B. „Prompt Caching“, das Speichern der Berechnungen aus früheren Antworten.
Trotz dieses Trends sagte er, „Anthropic benötigt Hunderttausende von Beschleunigern“, also KI-fokussierte Siliziumchips, „über viele Rechenzentren hinweg“, um seine Modelle zu betreiben.
Zusätzlich steigen die Energiekosten für die Stromversorgung von KI unaufhaltsam, sagte Brown. Aktuelle Rechenzentren verbrauchen Hunderte von Megawatt, bemerkte er, und werden schließlich Gigawatt benötigen. „Die Energie, die es verbraucht“, also KI, „ist groß, und der Fußabdruck ist in vielen Rechenzentren groß.“
Außerdem: Globale KI-Computing wird bis 2026 „mehrere NYCs“ an Energie verbrauchen, sagt Gründer
Wirtschaftliche Unsicherheit und KI-Investitionen
Trotz der ambitionierten Szenarien könnte ein Faktor alle Anwendungsfälle und Investitionspläne stören: die Wirtschaft.
Als die Konferenz am Mittwochabend zu Ende ging, überwachten die Teilnehmer und Gäste den nachbörslichen Einbruch des Aktienmarktes. US-Präsident Donald Trump hatte gerade ein globales Zollpaket angekündigt, das größer und umfassender war, als die meisten an der Wall Street erwartet hatten.
Traditionelle Bereiche der Technologieinvestitionen, wie Server und Speicher, und nicht KI, könnten die ersten Opfer einer wirtschaftlichen Kontraktion sein, sagte Bloombergs Rana.
„Das andere große Thema, auf das wir uns konzentrieren, ist das Nicht-KI-Technologieausgaben“, sagte er bezüglich der Zölle. „Wenn wir uns Unternehmen wie IBM, Accenture, Microsoft und all die anderen ansehen, wenn wir KI für einen Moment beiseitelassen, wird das in dieser Ertragssaison ein Kampf sein.“
Finanzchefs großer Unternehmen könnten KI priorisieren und Mittel umschichten, selbst wenn sie ihre Budgets angesichts wirtschaftlicher Unsicherheit und möglicher Rezession kürzen müssen, schlug Rana vor.
Diese optimistische Aussicht ist jedoch nicht garantiert.
„Das, was mich am meisten interessiert, ist, ob all diese großen Unternehmen ihre Cap-Ex [Investitionsausgaben]-Ziele beibehalten werden“, sagte Rana, einschließlich KI-Rechenzentren, „oder werden sie sagen: Weißt du was? Es ist zu unsicher.“



DeepSeek's breakthrough sounds like a game-changer! Curious how their cost-effective method stacks up against giants like NVIDIA. Anyone got details on this? 🤔












