Deepseek steigert die KI -Ausgaben im Gegensatz zu den Überzeugungen
10. Mai 2025
WyattHill
0
Das Sturz der Börsenmärkte im Januar, das durch die Summen um die chinesische AI-Durchbruch von Deepseek AI und ihre kostengünstige Computermethode angeregt wird, könnte glauben, dass Unternehmen ihre Investitionen in KI-Chips und -Systeme zurückziehen. Meine Erfahrung auf der generativen KI -Konferenz in New York, organisiert von Bloomberg Intelligence, malte jedoch ein anderes Bild. Die Begeisterung für die Erweiterung des Gebrauchs generativer KI war spürbar, was darauf hindeutet, dass die Ausgaben in diesem Bereich weit davon entfernt sind, sich zu verlangsamen.
Außerdem: Was ist Deepseek KI? Ist es sicher? Hier ist alles, was Sie wissen müssen
Die Konferenz mit dem Titel "Generative AI: Scaling Laws Post Post Deekseek" war mit Diskussionen gefüllt, in denen die anhaltende Nachfrage betonte, die die Investitionen in die KI steigern.
"Wir hatten heute zehn Panels, und keine einzige Person auf diesen Panels sagte, wir haben mehr Kapazität als wir brauchen", bemerkte Mandeep Singh, ein Senior -Technologieanalyst bei Bloomberg Intelligence und einer der Organisatoren der Veranstaltung.
"Und niemand sprach über eine Blase" in der Infrastruktur, fügte Singh hinzu und hob das Vertrauen der Branche in die Zukunft der AI hervor.
Der KI -Infrastrukturbau: Wo sind wir?
Anurag Rana, Singhs Kollege bei Bloomberg Intelligence und ein hochrangiger IT -Dienste- und Softwareanalyst, stellte eine kritische Frage: "Die wichtigste Frage vor jedem ist der AI -Infrastrukturaufbau. Ja. Wo sind wir in diesem Zyklus?"
"Niemand weiß" mit Sicherheit, gab Rana zu. Die von Deepseek AI ausgelöste Hoffnung ist jedoch, dass erhebliche Fortschritte mit weniger Kosten erzielt werden können.
"Deepseek schüttelte viele Menschen", sagte er. "Wenn Sie nicht so viele GPUs benötigen, um Modelle auszuführen, warum benötigen wir dann 500 Milliarden US -Dollar für das Stargate -Projekt", beobachtete er ein geplantes US -KI -Projekt, an dem die Japans SoftBank Group, Openai und Oracle beteiligt waren.
Rana stellte fest, dass die Branche zuversichtlich ist, dass die KI -Kosten sinken und den raschen Rückgang der Cloud -Computing -Kosten widerspiegelt.
Außerdem: Ist Deepseeks neues Bildmodell ein weiterer Sieg für billigere KI?
"Diese Kostenkurve, die wahrscheinlich sechs, sieben, acht Jahre dauerte, um einen Terabyte Daten in Amazon AWS zu speichern, als es heute gegen heute begann, war die Wirtschaft gut", sagte er. "Und das hofft alle, dass auf der Inferenzseite" der KI ", wenn die Kurve auf dieses Niveau fällt, oh mein Gott, die Adoptionsrate für KI auf der Endbenutzerseite oder die Unternehmensseite wird spektakulär sein."

Singh stimmte zu und stellte fest, dass Deepseek Ais Entstehung "die Denkweise aller verändert hat, Effizienz zu erreichen".
Im Laufe des Tages befassten sich zahlreiche Panels, die von der Gründung bis zum Einsatz in Enterprise -KI -Projekte eingeteilt wurden. Es gab jedoch ein wiederkehrendes Thema: Die Notwendigkeit, die Kosten von KI drastisch zu senken, um seine Zugänglichkeit zu erweitern.
"Ich glaube nicht, dass Deepseek eine Überraschung war", sagte Shawn Edwards, Bloombergs Cheftechnologe, in einem Interview mit David Dwyer, dem Leiter Bloomberg Intelligence. "Was mich der Meinung war, dass es großartig wäre, wenn Sie einen Zauberstab winken und diese Modelle unglaublich effizient laufen lassen könnten", sagte er und stellte sich eine Zukunft vor, in der alle KI -Modelle mit einer solchen Effizienz arbeiten könnten.
Die Verbreitung von AI -Modellen
Ein Grund, warum viele Diskussionsteilnehmer eher zu einer erhöhten als verringerten Investitionen in die KI -Infrastruktur erwarten, ist die wachsende Anzahl von KI -Modellen. Ein wesentlicher Treffer des Tages war, dass es kein einziges KI -Modell gibt, um sie alle zu regieren.
"Wir verwenden eine Modelsfamilie", erklärte Edwards. "Es gibt kein bestes Modell."
Die Diskussionsteilnehmer waren sich einig, dass sich jedoch weiterhin "Foundation" oder "Frontier" -Modelle weiterentwickeln werden, die einzelnen Unternehmen möglicherweise Hunderte oder sogar Tausende von AI -Modellen beschäftigen.
Außerdem: Der Aufstieg von AI -PCs: Wie Unternehmen ihre Technologie umgehen, um mitzuhalten
Diese Modelle könnten in den proprietären Daten eines Unternehmens fein abgestimmt werden, ein Prozess der erneuten Ausdehnung eines neuronalen Netzwerks nach seiner anfänglichen "Vorausbildung" für generische Daten.
"Agenten in Enterprise erfordern die Option für die Modelle", sagte Jed Dougherty, Leiter der Plattformstrategie für das von Venture unterstützte Datenwissenschaftsunternehmen Dataiku. "Sie brauchen die Fähigkeit, die KI -Modelle zu kontrollieren und zu erstellen und Überwachbarkeit zu haben.
"Wir wollen die Werkzeuge einsetzen, um diese Dinge in die Hände von Menschen zu bauen", sagte er. "Wir wollen nicht, dass zehn Doktoranden alle Agenten bauen."
In ähnlicher Weise setzt Adobe, ein Anbieter von Design -Tools, auf benutzerdefinierte Modelle als wichtiger Anwendungsfall für Kreative. "Wir können kundenspezifische Modellverlängerungen für Ihre Marke schulen, die für eine neue Werbekampagne Hilfe sein können", sagte Adobe's Chef von New Business Ventures, Hannah Elsakr, in einer Diskussion mit Bloomberg TV -Anchor Romaine Bostick.
Steigern Sie die Verarbeitungsnachfrage
Wie bei KI -Modellen treibt die Verbreitung von KI -Agenten innerhalb von Unternehmen die Verarbeitungsanforderungen vor, schlugen viele Redner vor.
"Sie werden keinen ganzen Prozess in einen Agenten einbinden, Sie werden ihn in Teile zerlegen", sagte Ray Smith, Leiter von Microsoft, Copilot Studio Agents und Automation.
Smith sagte voraus, dass durch eine einzige Schnittstelle wie Copilot "wir mit Hunderten von Agenten interagieren werden - sie sind nur Apps in der neuen Welt" der Programmierung.
"Wir werden dem Agenten den Geschäftsprozess geben, ihm sagen, was wir erreichen wollen", und der Agent wird Aufgaben ausführen. "Agenten -Apps sind nur eine neue Art des Workflows", sagte er.
Außerdem: Nvidia dominiert in Gen -AI -Benchmarks und kämpft 2 Konkurrenz -AI -Chips
Solche alltäglichen Szenarien sind "alle technologisch möglich", bemerkte Smith, "es ist genau das Tempo, in dem wir es ausbauen."
Der Vorstoß, KI "Agenten" für mehr Menschen innerhalb von Organisationen zu bringen, ist weiterhin Kostensenkungen erforderlich, sagte James McNiven, Leiter des Produktmanagements für Mikroprozessorhersteller -Armbolds, in einem Chat mit Bloombergs Hyde.
"Wie bieten wir immer mehr Geräte Zugang", stellte er aus. "Wir sehen Modelle auf einem PhD-Niveau" der Aufgabenfunktion, sagte er.
McNiven schlug vor, dass solche Agenten als Assistenten für Menschen dienen sollten, was eine Parallele zu dem Zeitpunkt der Zahlung von Zahlungssystemen in Entwicklungsländern über Mobiltelefone vor einem Jahrzehnt zurückgibt: "Wie können wir das an Menschen bringen, die diese Fähigkeit nutzen können?"
Die Verbreitung von Grundmodellen
Sogar die generischen Fundamentmodelle proliferieren mit erstaunlicher Geschwindigkeit.
Amazon AWS verfügt über 1.800 verschiedene KI -Modelle, Dave Brown, der Leiter von AWS Computing und Networking, gegenüber Bloomberg TV Anchor Caroline Hyde. Das Unternehmen macht "viel, um die Kosten für den Betrieb der Modelle zu senken, einschließlich der Entwicklung kundenspezifischer KI -Chips wie Trainium.
AWS "verwendet mehr von unseren eigenen Prozessoren als die Prozessoren anderer Unternehmen", sagte Brown und anspielte auf Nvidia, AMD, Intel und andere General-Purple-Chip-Lieferanten.
Außerdem: Chatgpts neuer Bildgenerator hat meine Erwartungen zerstört - und jetzt ist es kostenlos zu versuchen
"Kunden würden mehr tun, wenn die Kosten niedriger wären", sagte Brown.
AWS arbeitet täglich mit Anthropic, Herstellern der Familie Claude Language Model, bemerkte Brown. Anthropic Head of Application Programing Interfaces Michael Gerstenhaber stellte im selben Chat mit Hyde fest, dass "Denkmodelle eine große Kapazität zu verwenden", in Bezug auf den Trend der sogenannten Argumentationsmodelle wie Deepseek R1 und GPT-O1, um ausführliche Aussagen über die Argumente für ihre endgültigen Antworten auszuführen.
Anthropic arbeitet eng mit AWS zusammen, um das Rechenbudget wie "sofortiges Zwischenspeichern" zu schneiden und die Berechnungen aus früheren Antworten zu speichern.
Trotz dieses Trends sagte er: "Anthropic braucht Hunderttausende von Beschleunigern", was bedeutet, dass AI-fokussierte Siliziumchips "über viele Rechenzentren" in vielen Rechenzentren ", um seine Modelle zu betreiben.
Darüber hinaus zeigt die eskalierenden Energiekosten für die Antrieb von KI keine Anzeichen einer Verlangsamung, sagte Brown. Aktuelle Rechenzentren konsumieren Hunderte von Megawatt, bemerkte er, und erfordern schließlich Gigawatt. "Die Kraft, die sie verbraucht", was AI bedeutet, ist groß und der Fußabdruck ist in vielen Rechenzentren groß. "
Außerdem: Global AI Computing wird bis 2026 die Leistung im Wert von Multiple NYCs verwenden, sagt Gründer
Wirtschaftliche Unsicherheit und KI -Investition
Trotz der ehrgeizigen Szenarien könnte ein Faktor alle Anwendungsfälle und Investitionspläne stören: die Wirtschaft.
Als sich die Konferenz am Mittwochabend abschließt, überwachten die Diskussionsteilnehmer und Gäste den Eintauchen nach den Börsen nach den Stunden. US -Präsident Donald Trump hatte gerade ein globales Paket von Zöllen angekündigt, die größer und umfassender waren als die meisten an der Wall Street erwartet hatten.
Traditionelle Bereiche der technischen Investitionen, wie Server und Lagerung und nicht KI, könnten die anfänglichen Opfer einer wirtschaftlichen Kontraktion sein, sagte Rana von Bloomberg.
"Die andere große Sache, auf die wir uns konzentrieren, sind die Nicht-AI-Techausgaben", sagte er über die Zölle. "Wenn wir uns mit IBM, Accenture, Microsoft und allen anderen befassen, wenn wir AI für eine Sekunde einfach beiseite legen, wird dies ein Kampf, der in diese Gewinnsaison einfließt."
CFOs großer Unternehmen könnten die KI -Priorität und die Verschiebung von Fonds priorisieren, auch wenn sie ihre Budgets inmitten der wirtschaftlichen Unsicherheit und potenziellen Rezession abschneiden müssen, schlug Rana vor.
Dieser optimistische Ausblick ist jedoch nicht garantiert.
"Ich bin am meisten daran interessiert, herauszufinden, dass, wenn all diese großen Unternehmen ihre CAP-EX-Ziele intakt halten", sagte Rana, einschließlich AI-Rechenzentren, "oder werden sie sagen, wissen Sie was? Es ist zu ungewiss."
Verwandter Artikel
Michael Jackson AI Cover: Enthüllung des viralen Nachrichtentrends
Wenn Sie ein Fan von Musik sind, haben Sie wahrscheinlich bemerkt, wie sich die Branche dank künstlicher Intelligenz schnell verändert. Eine der am meisten diskutierten Entwicklungen ist die Entstehung von Michael Jackson AI Covers. Diese digitalen Kreationen verwenden KI, um den einzigartigen Stimme und Stil des Königs von Pop zu replizieren, BR
KI-Bildgeneratoren: Kostenlose Kunstschaffung zum Unabhängigkeitstag
Der Unabhängigkeitstag ist nicht nur ein weiterer Tag im Kalender; es ist eine lebendige Feier von Freiheit und Patriotismus. Mit dem Aufkommen der KI ist es einfacher denn je, kre
Maximieren Sie das Ergebnis mit KI: Ein umfassender Leitfaden für KI -Tools im Online -Geschäft
Wenn Sie Ihr Online-Geschäft verändern möchten, ist künstliche Intelligenz der Spielveränderer, den Sie benötigen. Das KI profitiert Power Cheat Sheet, das von Dennis Becker und Barb Ling hergestellt wurde, Ihre Anlaufstelle, um eine Fülle von KI-Tools zu nutzen, um Ihre Gewinne zu steigern. Diese Bewertung taucht in die Art und Weise ein, wie
Kommentare (0)
0/200






Das Sturz der Börsenmärkte im Januar, das durch die Summen um die chinesische AI-Durchbruch von Deepseek AI und ihre kostengünstige Computermethode angeregt wird, könnte glauben, dass Unternehmen ihre Investitionen in KI-Chips und -Systeme zurückziehen. Meine Erfahrung auf der generativen KI -Konferenz in New York, organisiert von Bloomberg Intelligence, malte jedoch ein anderes Bild. Die Begeisterung für die Erweiterung des Gebrauchs generativer KI war spürbar, was darauf hindeutet, dass die Ausgaben in diesem Bereich weit davon entfernt sind, sich zu verlangsamen.
Außerdem: Was ist Deepseek KI? Ist es sicher? Hier ist alles, was Sie wissen müssen
Die Konferenz mit dem Titel "Generative AI: Scaling Laws Post Post Deekseek" war mit Diskussionen gefüllt, in denen die anhaltende Nachfrage betonte, die die Investitionen in die KI steigern.
"Wir hatten heute zehn Panels, und keine einzige Person auf diesen Panels sagte, wir haben mehr Kapazität als wir brauchen", bemerkte Mandeep Singh, ein Senior -Technologieanalyst bei Bloomberg Intelligence und einer der Organisatoren der Veranstaltung.
"Und niemand sprach über eine Blase" in der Infrastruktur, fügte Singh hinzu und hob das Vertrauen der Branche in die Zukunft der AI hervor.
Der KI -Infrastrukturbau: Wo sind wir?
Anurag Rana, Singhs Kollege bei Bloomberg Intelligence und ein hochrangiger IT -Dienste- und Softwareanalyst, stellte eine kritische Frage: "Die wichtigste Frage vor jedem ist der AI -Infrastrukturaufbau. Ja. Wo sind wir in diesem Zyklus?"
"Niemand weiß" mit Sicherheit, gab Rana zu. Die von Deepseek AI ausgelöste Hoffnung ist jedoch, dass erhebliche Fortschritte mit weniger Kosten erzielt werden können.
"Deepseek schüttelte viele Menschen", sagte er. "Wenn Sie nicht so viele GPUs benötigen, um Modelle auszuführen, warum benötigen wir dann 500 Milliarden US -Dollar für das Stargate -Projekt", beobachtete er ein geplantes US -KI -Projekt, an dem die Japans SoftBank Group, Openai und Oracle beteiligt waren.
Rana stellte fest, dass die Branche zuversichtlich ist, dass die KI -Kosten sinken und den raschen Rückgang der Cloud -Computing -Kosten widerspiegelt.
Außerdem: Ist Deepseeks neues Bildmodell ein weiterer Sieg für billigere KI?
"Diese Kostenkurve, die wahrscheinlich sechs, sieben, acht Jahre dauerte, um einen Terabyte Daten in Amazon AWS zu speichern, als es heute gegen heute begann, war die Wirtschaft gut", sagte er. "Und das hofft alle, dass auf der Inferenzseite" der KI ", wenn die Kurve auf dieses Niveau fällt, oh mein Gott, die Adoptionsrate für KI auf der Endbenutzerseite oder die Unternehmensseite wird spektakulär sein."
Singh stimmte zu und stellte fest, dass Deepseek Ais Entstehung "die Denkweise aller verändert hat, Effizienz zu erreichen".
Im Laufe des Tages befassten sich zahlreiche Panels, die von der Gründung bis zum Einsatz in Enterprise -KI -Projekte eingeteilt wurden. Es gab jedoch ein wiederkehrendes Thema: Die Notwendigkeit, die Kosten von KI drastisch zu senken, um seine Zugänglichkeit zu erweitern.
"Ich glaube nicht, dass Deepseek eine Überraschung war", sagte Shawn Edwards, Bloombergs Cheftechnologe, in einem Interview mit David Dwyer, dem Leiter Bloomberg Intelligence. "Was mich der Meinung war, dass es großartig wäre, wenn Sie einen Zauberstab winken und diese Modelle unglaublich effizient laufen lassen könnten", sagte er und stellte sich eine Zukunft vor, in der alle KI -Modelle mit einer solchen Effizienz arbeiten könnten.
Die Verbreitung von AI -Modellen
Ein Grund, warum viele Diskussionsteilnehmer eher zu einer erhöhten als verringerten Investitionen in die KI -Infrastruktur erwarten, ist die wachsende Anzahl von KI -Modellen. Ein wesentlicher Treffer des Tages war, dass es kein einziges KI -Modell gibt, um sie alle zu regieren.
"Wir verwenden eine Modelsfamilie", erklärte Edwards. "Es gibt kein bestes Modell."
Die Diskussionsteilnehmer waren sich einig, dass sich jedoch weiterhin "Foundation" oder "Frontier" -Modelle weiterentwickeln werden, die einzelnen Unternehmen möglicherweise Hunderte oder sogar Tausende von AI -Modellen beschäftigen.
Außerdem: Der Aufstieg von AI -PCs: Wie Unternehmen ihre Technologie umgehen, um mitzuhalten
Diese Modelle könnten in den proprietären Daten eines Unternehmens fein abgestimmt werden, ein Prozess der erneuten Ausdehnung eines neuronalen Netzwerks nach seiner anfänglichen "Vorausbildung" für generische Daten.
"Agenten in Enterprise erfordern die Option für die Modelle", sagte Jed Dougherty, Leiter der Plattformstrategie für das von Venture unterstützte Datenwissenschaftsunternehmen Dataiku. "Sie brauchen die Fähigkeit, die KI -Modelle zu kontrollieren und zu erstellen und Überwachbarkeit zu haben.
"Wir wollen die Werkzeuge einsetzen, um diese Dinge in die Hände von Menschen zu bauen", sagte er. "Wir wollen nicht, dass zehn Doktoranden alle Agenten bauen."
In ähnlicher Weise setzt Adobe, ein Anbieter von Design -Tools, auf benutzerdefinierte Modelle als wichtiger Anwendungsfall für Kreative. "Wir können kundenspezifische Modellverlängerungen für Ihre Marke schulen, die für eine neue Werbekampagne Hilfe sein können", sagte Adobe's Chef von New Business Ventures, Hannah Elsakr, in einer Diskussion mit Bloomberg TV -Anchor Romaine Bostick.
Steigern Sie die Verarbeitungsnachfrage
Wie bei KI -Modellen treibt die Verbreitung von KI -Agenten innerhalb von Unternehmen die Verarbeitungsanforderungen vor, schlugen viele Redner vor.
"Sie werden keinen ganzen Prozess in einen Agenten einbinden, Sie werden ihn in Teile zerlegen", sagte Ray Smith, Leiter von Microsoft, Copilot Studio Agents und Automation.
Smith sagte voraus, dass durch eine einzige Schnittstelle wie Copilot "wir mit Hunderten von Agenten interagieren werden - sie sind nur Apps in der neuen Welt" der Programmierung.
"Wir werden dem Agenten den Geschäftsprozess geben, ihm sagen, was wir erreichen wollen", und der Agent wird Aufgaben ausführen. "Agenten -Apps sind nur eine neue Art des Workflows", sagte er.
Außerdem: Nvidia dominiert in Gen -AI -Benchmarks und kämpft 2 Konkurrenz -AI -Chips
Solche alltäglichen Szenarien sind "alle technologisch möglich", bemerkte Smith, "es ist genau das Tempo, in dem wir es ausbauen."
Der Vorstoß, KI "Agenten" für mehr Menschen innerhalb von Organisationen zu bringen, ist weiterhin Kostensenkungen erforderlich, sagte James McNiven, Leiter des Produktmanagements für Mikroprozessorhersteller -Armbolds, in einem Chat mit Bloombergs Hyde.
"Wie bieten wir immer mehr Geräte Zugang", stellte er aus. "Wir sehen Modelle auf einem PhD-Niveau" der Aufgabenfunktion, sagte er.
McNiven schlug vor, dass solche Agenten als Assistenten für Menschen dienen sollten, was eine Parallele zu dem Zeitpunkt der Zahlung von Zahlungssystemen in Entwicklungsländern über Mobiltelefone vor einem Jahrzehnt zurückgibt: "Wie können wir das an Menschen bringen, die diese Fähigkeit nutzen können?"
Die Verbreitung von Grundmodellen
Sogar die generischen Fundamentmodelle proliferieren mit erstaunlicher Geschwindigkeit.
Amazon AWS verfügt über 1.800 verschiedene KI -Modelle, Dave Brown, der Leiter von AWS Computing und Networking, gegenüber Bloomberg TV Anchor Caroline Hyde. Das Unternehmen macht "viel, um die Kosten für den Betrieb der Modelle zu senken, einschließlich der Entwicklung kundenspezifischer KI -Chips wie Trainium.
AWS "verwendet mehr von unseren eigenen Prozessoren als die Prozessoren anderer Unternehmen", sagte Brown und anspielte auf Nvidia, AMD, Intel und andere General-Purple-Chip-Lieferanten.
Außerdem: Chatgpts neuer Bildgenerator hat meine Erwartungen zerstört - und jetzt ist es kostenlos zu versuchen
"Kunden würden mehr tun, wenn die Kosten niedriger wären", sagte Brown.
AWS arbeitet täglich mit Anthropic, Herstellern der Familie Claude Language Model, bemerkte Brown. Anthropic Head of Application Programing Interfaces Michael Gerstenhaber stellte im selben Chat mit Hyde fest, dass "Denkmodelle eine große Kapazität zu verwenden", in Bezug auf den Trend der sogenannten Argumentationsmodelle wie Deepseek R1 und GPT-O1, um ausführliche Aussagen über die Argumente für ihre endgültigen Antworten auszuführen.
Anthropic arbeitet eng mit AWS zusammen, um das Rechenbudget wie "sofortiges Zwischenspeichern" zu schneiden und die Berechnungen aus früheren Antworten zu speichern.
Trotz dieses Trends sagte er: "Anthropic braucht Hunderttausende von Beschleunigern", was bedeutet, dass AI-fokussierte Siliziumchips "über viele Rechenzentren" in vielen Rechenzentren ", um seine Modelle zu betreiben.
Darüber hinaus zeigt die eskalierenden Energiekosten für die Antrieb von KI keine Anzeichen einer Verlangsamung, sagte Brown. Aktuelle Rechenzentren konsumieren Hunderte von Megawatt, bemerkte er, und erfordern schließlich Gigawatt. "Die Kraft, die sie verbraucht", was AI bedeutet, ist groß und der Fußabdruck ist in vielen Rechenzentren groß. "
Außerdem: Global AI Computing wird bis 2026 die Leistung im Wert von Multiple NYCs verwenden, sagt Gründer
Wirtschaftliche Unsicherheit und KI -Investition
Trotz der ehrgeizigen Szenarien könnte ein Faktor alle Anwendungsfälle und Investitionspläne stören: die Wirtschaft.
Als sich die Konferenz am Mittwochabend abschließt, überwachten die Diskussionsteilnehmer und Gäste den Eintauchen nach den Börsen nach den Stunden. US -Präsident Donald Trump hatte gerade ein globales Paket von Zöllen angekündigt, die größer und umfassender waren als die meisten an der Wall Street erwartet hatten.
Traditionelle Bereiche der technischen Investitionen, wie Server und Lagerung und nicht KI, könnten die anfänglichen Opfer einer wirtschaftlichen Kontraktion sein, sagte Rana von Bloomberg.
"Die andere große Sache, auf die wir uns konzentrieren, sind die Nicht-AI-Techausgaben", sagte er über die Zölle. "Wenn wir uns mit IBM, Accenture, Microsoft und allen anderen befassen, wenn wir AI für eine Sekunde einfach beiseite legen, wird dies ein Kampf, der in diese Gewinnsaison einfließt."
CFOs großer Unternehmen könnten die KI -Priorität und die Verschiebung von Fonds priorisieren, auch wenn sie ihre Budgets inmitten der wirtschaftlichen Unsicherheit und potenziellen Rezession abschneiden müssen, schlug Rana vor.
Dieser optimistische Ausblick ist jedoch nicht garantiert.
"Ich bin am meisten daran interessiert, herauszufinden, dass, wenn all diese großen Unternehmen ihre CAP-EX-Ziele intakt halten", sagte Rana, einschließlich AI-Rechenzentren, "oder werden sie sagen, wissen Sie was? Es ist zu ungewiss."












