Option
Heim
Nachricht
AI Computing, um die Leistung mehrerer NYCs bis 2026 zu verbrauchen, sagt Gründer

AI Computing, um die Leistung mehrerer NYCs bis 2026 zu verbrauchen, sagt Gründer

18. April 2025
224

Nvidia und Partner erweitern weltweit KI-Rechenzentren

Nvidia hat zusammen mit seinen Partnern und Kunden aktiv die Größe von Rechenanlagen weltweit erweitert, um den hohen Rechenbedarf für das Training massiver künstlicher Intelligenz (KI)-Modelle wie GPT-4 zu decken. Diese Erweiterung wird noch entscheidender, da weitere KI-Modelle in die Produktion eingeführt werden, so Thomas Graham, Mitbegründer des optischen Rechen-Startups Lightmatter. In einem kürzlichen Interview in New York mit Mandeep Singh, einem leitenden Technologieanalysten von Bloomberg Intelligence, betonte Graham den wachsenden Bedarf an Rechenressourcen.

"Die Nachfrage nach mehr Rechenleistung dreht sich nicht nur um Skalierungsgesetze; es geht auch darum, diese KI-Modelle jetzt einzusetzen," erklärte Graham. Singh fragte nach der Zukunft großer Sprachmodelle (LLMs) wie GPT-4 und ob diese weiter an Größe zunehmen würden. Daraufhin lenkte Graham den Fokus auf die praktische Anwendung von KI und betonte die Bedeutung der Inferenz, also der Einsatzphase, die erhebliche Rechenleistung erfordert.

"Wenn man das Training als Forschung und Entwicklung betrachtet, ist die Inferenz im Wesentlichen der Einsatz. Beim Einsatz benötigt man große Rechner, um die Modelle auszuführen," sagte Graham während der Konferenz "Gen AI: Kann es das Produktivitätsversprechen einlösen?" von Bloomberg Intelligence.

Grahams Perspektive deckt sich mit der von Nvidia-CEO Jensen Huang, der gegenüber der Wall Street betonte, dass die Weiterentwicklung "agentischer" KI-Formen nicht nur ausgefeilteres Training, sondern auch deutlich verbesserte Inferenzfähigkeiten erfordert, was zu einem exponentiellen Anstieg des Rechenbedarfs führt.

Thomas Graham, Mitbegründer von Lightmatter, spricht auf einer Konferenz.

"Wenn man das Training als Forschung und Entwicklung betrachtet, ist die Inferenz wirklich der Einsatz, und während man das einsetzt, benötigt man große Rechner, um die Modelle auszuführen," sagte Graham. Foto: Bloomberg, mit freundlicher Genehmigung von Craig Warga

Lightmatters Rolle in der KI-Infrastruktur

Lightmatter, gegründet 2018, steht an der Spitze der Entwicklung von Chip-Technologie, die optische Verbindungen nutzt, um mehrere Prozessoren auf einem einzigen Halbleiterchip zu verbinden. Diese optischen Verbindungen können Daten effizienter übertragen als herkömmliche Kupferdrähte und verbrauchen weniger Energie. Diese Technologie kann Verbindungen innerhalb und zwischen Rechenzentrumsracks optimieren und die Gesamteffizienz sowie Wirtschaftlichkeit des Rechenzentrums verbessern, so Graham.

"Durch den Ersatz von Kupferleitungen in Rechenzentren – sowohl auf der Leiterplatte des Servers als auch in der Verkabelung zwischen den Racks – durch Glasfasern können wir die Bandbreite drastisch erhöhen," sagte Graham zu Singh. Lightmatter arbeitet derzeit mit verschiedenen Technologieunternehmen an der Gestaltung neuer Rechenzentren, und Graham stellte fest, dass diese Einrichtungen von Grund auf neu gebaut werden. Das Unternehmen hat bereits eine Partnerschaft mit Global Foundries, einem Auftragsfertiger für Halbleiter mit Betrieben im Bundesstaat New York, der Kunden wie Advanced Micro Devices bedient.

Obwohl Graham keine spezifischen Partner und Kunden über diese Zusammenarbeit hinaus nannte, deutete er an, dass Lightmatter mit Siliziumanbietern wie Broadcom oder Marvell zusammenarbeitet, um maßgeschneiderte Komponenten für Technologieriesen wie Google, Amazon und Microsoft zu entwickeln, die ihre eigenen Rechenzentrumsprozessoren entwerfen.

Der Umfang und die Zukunft von KI-Rechenzentren

Um die Größenordnung des KI-Einsatzes zu verdeutlichen, wies Graham darauf hin, dass derzeit mindestens ein Dutzend neue KI-Rechenzentren geplant oder im Bau sind, von denen jedes einen Gigawatt Leistung benötigt. "Zum Vergleich: New York City verbraucht an einem durchschnittlichen Tag etwa fünf Gigawatt Leistung. Wir sprechen also vom Stromverbrauch mehrerer New York Cities," sagte er. Er prognostiziert, dass bis 2026 die globale KI-Verarbeitung 40 Gigawatt Leistung benötigen wird, was acht New York Cities entspricht, speziell für KI-Rechenzentren.

Lightmatter hat kürzlich eine Risikokapitalinvestition von 400 Millionen Dollar erhalten, wodurch das Unternehmen mit 4,4 Milliarden Dollar bewertet wird. Graham erwähnte, dass das Unternehmen in den nächsten Jahren mit der Produktion beginnen will.

Auf die Frage nach möglichen Störungen der Pläne von Lightmatter äußerte Graham Vertrauen in den anhaltenden Bedarf an der Erweiterung der KI-Recheninfrastruktur. Er räumte jedoch ein, dass ein Durchbruch in KI-Algorithmen, der deutlich weniger Rechenleistung erfordert oder künstliche allgemeine Intelligenz (AGI) schneller erreicht, die aktuellen Annahmen über die Notwendigkeit eines exponentiellen Rechenwachstums in Frage stellen könnte.

Verwandter Artikel
KI-gestützte visuelle Kreation mit Bing Image Creator KI-gestützte visuelle Kreation mit Bing Image Creator In der heutigen digitalen Welt sind fesselnde visuelle Inhalte unerlässlich. Egal ob Sie Marketer, Designer oder kreativer Enthusiast sind, das Erstellen einzigartiger Bilder ist entscheidend. KI-gest
Meisterhafte Taper-Fade-Frisuren: Wichtige Techniken und Styling-Tipps Meisterhafte Taper-Fade-Frisuren: Wichtige Techniken und Styling-Tipps Das Erstellen einer perfekten Taper-Fade-Frisur erfordert Geschick, Präzision und bewährte Methoden. Dieser Leitfaden vermittelt Anfängern und erfahrenen Friseuren wesentliches Wissen, um in diesem be
AI-gesteuerte 3D-Modellierung: Wie Kaedim die Inhaltserstellung transformiert AI-gesteuerte 3D-Modellierung: Wie Kaedim die Inhaltserstellung transformiert Im schnelllebigen Bereich der Spieleentwicklung und des 3D-Designs ist die effiziente Erstellung von Assets entscheidend. Kaedim 3D nutzt künstliche Intelligenz, um Bilder und Texte in hochwertige 3D-
Kommentare (30)
0/200
BillyEvans
BillyEvans 20. April 2025 11:23:59 MESZ

¡Para 2026, la IA consumirá energía como varias ciudades de Nueva York! ¡Es una locura! 😱 Me encanta el progreso tecnológico, pero también tenemos que pensar en el medio ambiente. ¡Ojalá encuentren una forma más ecológica! 🌿

PeterRodriguez
PeterRodriguez 20. April 2025 08:07:12 MESZ

Wow, AI data centers eating up that much power by 2026? 😲 That’s wild! Makes me wonder if we’re ready for the energy bill or if renewables can keep up.

JackAllen
JackAllen 20. April 2025 07:11:07 MESZ

AI所需的计算能力真是令人难以置信。到2026年,它将相当于多个纽约市的总和。这太疯狂了!希望我们能找到更有效的能源管理方式。

GeorgeJones
GeorgeJones 20. April 2025 06:57:20 MESZ

AI가 여러 뉴욕 시의 전력을 소비한다는 생각은 좀 무섭네요! 하지만 진보를 위한 대가라고 생각해요. Nvidia의 확장은 인상적이지만, 에너지 수요에 따라갈 수 있을까요? 🤔 더 많은 태양광 패널이 필요할지도 모르겠어요!

TerryYoung
TerryYoung 20. April 2025 02:05:08 MESZ

This AI expansion sounds insane! By 2026, the power consumption could match multiple New York Cities? That's wild! I'm excited to see what kind of AI models they'll be training, but also kinda worried about the environmental impact. Can't wait to see how this pans out! 🤯

JohnWilson
JohnWilson 19. April 2025 23:53:25 MESZ

The idea of AI consuming power like multiple NYCs is kinda scary! But I guess it's the price we pay for progress. Nvidia's expansion is impressive, but can we keep up with the energy demands? 🤔 Maybe we need more solar panels or something!

Zurück nach oben
OR