Người sáng lập AI để tiêu thụ sức mạnh của nhiều NYC vào năm 2026, người sáng lập
Ngày 18 tháng 4 năm 2025
StevenHill
88
NVIDIA và các đối tác mở rộng trung tâm dữ liệu AI trên toàn thế giới
NVIDIA, cùng với các đối tác và khách hàng của mình, đã tích cực mở rộng quy mô của các cơ sở máy tính trên toàn cầu để đáp ứng nhu cầu tính toán cao của việc đào tạo các mô hình Trí tuệ nhân tạo (AI) lớn như GPT-4. Sự mở rộng này được thiết lập để trở nên quan trọng hơn khi các mô hình AI bổ sung được triển khai vào sản xuất, theo Thomas Graham, đồng sáng lập của Lightmatter khởi động máy tính quang học. Trong một cuộc phỏng vấn gần đây tại New York với Mandeep Singh, một nhà phân tích công nghệ cao cấp từ Bloomberg Intelligence, Graham đã nhấn mạnh nhu cầu ngày càng tăng đối với các nguồn lực tính toán.
"Nhu cầu về tính toán nhiều hơn không chỉ là quy mô quy mô; mà còn là về việc triển khai các mô hình AI này bây giờ", Graham giải thích. Singh đã hỏi về tương lai của các mô hình ngôn ngữ lớn (LLM) như GPT-4 và liệu chúng có tiếp tục phát triển kích thước hay không. Đáp lại, Graham đã chuyển trọng tâm sang ứng dụng thực tế của AI, nhấn mạnh tầm quan trọng của việc suy luận hoặc giai đoạn triển khai, đòi hỏi sức mạnh tính toán đáng kể.
"Nếu bạn coi việc đào tạo là R & D, suy luận về cơ bản là triển khai. Khi bạn triển khai, bạn sẽ cần các máy tính quy mô lớn để chạy các mô hình của bạn," Graham tuyên bố trong "Gen AI: nó có thể cung cấp lời hứa về năng suất không?" Hội nghị được tổ chức bởi Bloomberg Intelligence.
Quan điểm của Graham phù hợp với quan điểm của CEO NVIDIA, Jensen Huang, người đã nhấn mạnh đến Phố Wall rằng các hình thức AI "tác nhân" sẽ cần không chỉ cần được đào tạo tinh vi hơn mà còn tăng cường đáng kể khả năng suy luận, dẫn đến tăng yêu cầu tính toán.

"Nếu bạn xem đào tạo là R & D, suy luận thực sự là triển khai và khi bạn đang triển khai nó, bạn sẽ cần các máy tính lớn để chạy các mô hình của mình", Graham nói. Ảnh: Bloomberg, lịch sự của Craig Warga
Vai trò của Lightmatter trong cơ sở hạ tầng AI
Được thành lập vào năm 2018, Lightmatter luôn đi đầu trong việc phát triển công nghệ chip sử dụng các kết nối quang học để liên kết nhiều bộ xử lý trên một chất chết bán dẫn duy nhất. Các kết nối quang học này có thể truyền dữ liệu hiệu quả hơn so với dây đồng truyền thống, sử dụng ít năng lượng hơn. Công nghệ này có thể hợp lý hóa các kết nối trong và giữa các giá đỡ trung tâm dữ liệu, nâng cao hiệu quả và nền kinh tế tổng thể của trung tâm dữ liệu, theo Graham.
"Bằng cách thay thế dấu vết đồng trong các trung tâm dữ liệu, cả hai trên bảng mạch được in của máy chủ và trong hệ thống cáp giữa các giá đỡ với sợi quang, chúng tôi có thể tăng đáng kể băng thông", Graham nói với Singh. Lightmatter hiện đang hợp tác với các công ty công nghệ khác nhau về thiết kế của các trung tâm dữ liệu mới và Graham lưu ý rằng các cơ sở này đang được xây dựng từ đầu. Công ty đã thành lập một quan hệ đối tác với Global Foundries, một nhà sản xuất chất bán dẫn hợp đồng với các hoạt động ở ngoại ô New York, nơi phục vụ các khách hàng như các thiết bị vi mô tiên tiến.
Mặc dù Graham không tiết lộ các đối tác và khách hàng cụ thể ngoài sự hợp tác này, ông đã gợi ý rằng Lightmatter hoạt động với các nhà cung cấp Silicon như Broadcom hoặc Marvell để tạo ra các thành phần tùy chỉnh cho các đại gia công nghệ như Google, Amazon và Microsoft, những người thiết kế bộ xử lý trung tâm dữ liệu của riêng họ.
Quy mô và tương lai của các trung tâm dữ liệu AI
Để minh họa mức độ triển khai của AI, Graham đã chỉ ra rằng ít nhất một tá trung tâm dữ liệu AI mới được lên kế hoạch hoặc đang được xây dựng, mỗi trung tâm đòi hỏi một năng lực. "Đối với bối cảnh, thành phố New York sử dụng khoảng năm Gigawatt của quyền lực vào một ngày trung bình. Vì vậy, chúng tôi đang nói về việc tiêu thụ sức mạnh của nhiều thành phố ở New York", ông nói. Ông dự đoán rằng vào năm 2026, việc xử lý AI toàn cầu sẽ yêu cầu 40 gigawatt năng lượng, tương đương với tám thành phố New York, đặc biệt cho các trung tâm dữ liệu AI.
Lightmatter gần đây đã bảo đảm khoản đầu tư đầu tư mạo hiểm trị giá 400 triệu đô la, định giá công ty ở mức 4,4 tỷ đô la. Graham đã đề cập rằng công ty nhằm mục đích bắt đầu sản xuất "trong vài năm tới".
Khi được hỏi về sự gián đoạn tiềm năng đối với các kế hoạch của Lightmatter, Graham đã bày tỏ sự tin tưởng vào nhu cầu liên tục để mở rộng cơ sở hạ tầng điện toán AI. Tuy nhiên, ông thừa nhận rằng một bước đột phá trong các thuật toán AI đòi hỏi tính toán ít hơn hoặc đạt được trí thông minh chung nhân tạo (AGI) nhanh hơn có thể thách thức các giả định hiện tại về sự cần thiết của sự tăng trưởng theo cấp số nhân.
Bài viết liên quan
Tự động hóa tiếp thị AI: Tăng doanh thu mà không cần tuyển thêm nhân viên
Cách mạng hóa chiến lược tiếp thị của bạn với AI vào năm 2025are, bạn mong muốn chuyển đổi phương pháp tiếp thị của mình và thấy doanh thu của bạn tăng vọt mà không cần thuê thêm nhân viên? Năm 2025, trí tuệ nhân tạo đang định hình lại cách các doanh nghiệp vận hành và mở rộng. Đã đến lúc đi sâu vào tự động hóa tiếp thị AI và khám phá
Làm chủ Photoshop: Cách hợp nhất các lớp để chỉnh sửa hiệu quả
Nếu bạn đang đi vào thế giới chỉnh sửa hình ảnh kỹ thuật số với Adobe Photoshop, việc làm chủ nghệ thuật quản lý lớp là điều cần thiết. Cho dù bạn là người mới làm quen hay một chuyên gia dày dạn, hiểu cách hợp nhất các lớp có thể biến đổi quy trình làm việc của bạn từ hỗn loạn sang hợp lý. Khi các dự án của bạn phát triển trong sự phức tạp
"Little Deddy" thể hiện khả năng phục hồi và truyền cảm hứng
Trong một thế giới đầy những thách thức, khả năng phục hồi từ nghịch cảnh là một kỹ năng quan trọng. Giống như lời bài hát của một bài hát truyền cảm hứng cho chúng ta, hiểu, áp dụng và thể hiện khả năng phục hồi cho phép chúng ta điều hướng những vòng xoắn và bước ngoặt không thể đoán trước của cuộc sống với sức mạnh, hy vọng và quyết tâm. Cái này
Nhận xét (20)
0/200
FrankClark
13:31:52 GMT Ngày 18 tháng 4 năm 2025
The idea that AI computing might consume power equivalent to multiple NYCs by 2026 is mind-blowing! It's exciting to see Nvidia pushing the boundaries, but also a bit scary thinking about the energy impact. Can't wait to see how this unfolds! 🌍💡
0
GaryGonzalez
13:09:03 GMT Ngày 19 tháng 4 năm 2025
2026年までにAIの計算が複数のニューヨーク市の電力を消費するかもしれないという考えは驚くべきものだ!Nvidiaが境界を押し広げるのを見るのはワクワクするけど、エネルギーへの影響を考えるとちょっと怖い。どうなるか楽しみだね!🌍💡
0
RaymondWalker
14:32:21 GMT Ngày 19 tháng 4 năm 2025
¡La idea de que el cómputo de IA podría consumir energía equivalente a múltiples ciudades de Nueva York para 2026 es alucinante! Es emocionante ver a Nvidia empujando los límites, pero también un poco aterrador pensar en el impacto energético. ¡No puedo esperar a ver cómo se desarrolla esto! 🌍💡
0
JamesGreen
02:08:23 GMT Ngày 19 tháng 4 năm 2025
Die Vorstellung, dass die KI-Rechenleistung bis 2026 Energie verbrauchen könnte, die mehreren New Yorks entspricht, ist umwerfend! Es ist aufregend zu sehen, wie Nvidia die Grenzen verschiebt, aber auch ein bisschen beängstigend, wenn man an den Energieeinfluss denkt. Kann es kaum erwarten zu sehen, wie sich das entwickelt! 🌍💡
0
LarryWilliams
14:24:22 GMT Ngày 18 tháng 4 năm 2025
L'idée que le calcul de l'IA pourrait consommer une puissance équivalente à plusieurs villes de New York d'ici 2026 est hallucinante ! C'est excitant de voir Nvidia repousser les limites, mais aussi un peu effrayant de penser à l'impact énergétique. J'ai hâte de voir comment cela va se dérouler ! 🌍💡
0
TerryYoung
00:05:08 GMT Ngày 20 tháng 4 năm 2025
This AI expansion sounds insane! By 2026, the power consumption could match multiple New York Cities? That's wild! I'm excited to see what kind of AI models they'll be training, but also kinda worried about the environmental impact. Can't wait to see how this pans out! 🤯
0






NVIDIA và các đối tác mở rộng trung tâm dữ liệu AI trên toàn thế giới
NVIDIA, cùng với các đối tác và khách hàng của mình, đã tích cực mở rộng quy mô của các cơ sở máy tính trên toàn cầu để đáp ứng nhu cầu tính toán cao của việc đào tạo các mô hình Trí tuệ nhân tạo (AI) lớn như GPT-4. Sự mở rộng này được thiết lập để trở nên quan trọng hơn khi các mô hình AI bổ sung được triển khai vào sản xuất, theo Thomas Graham, đồng sáng lập của Lightmatter khởi động máy tính quang học. Trong một cuộc phỏng vấn gần đây tại New York với Mandeep Singh, một nhà phân tích công nghệ cao cấp từ Bloomberg Intelligence, Graham đã nhấn mạnh nhu cầu ngày càng tăng đối với các nguồn lực tính toán.
"Nhu cầu về tính toán nhiều hơn không chỉ là quy mô quy mô; mà còn là về việc triển khai các mô hình AI này bây giờ", Graham giải thích. Singh đã hỏi về tương lai của các mô hình ngôn ngữ lớn (LLM) như GPT-4 và liệu chúng có tiếp tục phát triển kích thước hay không. Đáp lại, Graham đã chuyển trọng tâm sang ứng dụng thực tế của AI, nhấn mạnh tầm quan trọng của việc suy luận hoặc giai đoạn triển khai, đòi hỏi sức mạnh tính toán đáng kể.
"Nếu bạn coi việc đào tạo là R & D, suy luận về cơ bản là triển khai. Khi bạn triển khai, bạn sẽ cần các máy tính quy mô lớn để chạy các mô hình của bạn," Graham tuyên bố trong "Gen AI: nó có thể cung cấp lời hứa về năng suất không?" Hội nghị được tổ chức bởi Bloomberg Intelligence.
Quan điểm của Graham phù hợp với quan điểm của CEO NVIDIA, Jensen Huang, người đã nhấn mạnh đến Phố Wall rằng các hình thức AI "tác nhân" sẽ cần không chỉ cần được đào tạo tinh vi hơn mà còn tăng cường đáng kể khả năng suy luận, dẫn đến tăng yêu cầu tính toán.
Vai trò của Lightmatter trong cơ sở hạ tầng AI
Được thành lập vào năm 2018, Lightmatter luôn đi đầu trong việc phát triển công nghệ chip sử dụng các kết nối quang học để liên kết nhiều bộ xử lý trên một chất chết bán dẫn duy nhất. Các kết nối quang học này có thể truyền dữ liệu hiệu quả hơn so với dây đồng truyền thống, sử dụng ít năng lượng hơn. Công nghệ này có thể hợp lý hóa các kết nối trong và giữa các giá đỡ trung tâm dữ liệu, nâng cao hiệu quả và nền kinh tế tổng thể của trung tâm dữ liệu, theo Graham.
"Bằng cách thay thế dấu vết đồng trong các trung tâm dữ liệu, cả hai trên bảng mạch được in của máy chủ và trong hệ thống cáp giữa các giá đỡ với sợi quang, chúng tôi có thể tăng đáng kể băng thông", Graham nói với Singh. Lightmatter hiện đang hợp tác với các công ty công nghệ khác nhau về thiết kế của các trung tâm dữ liệu mới và Graham lưu ý rằng các cơ sở này đang được xây dựng từ đầu. Công ty đã thành lập một quan hệ đối tác với Global Foundries, một nhà sản xuất chất bán dẫn hợp đồng với các hoạt động ở ngoại ô New York, nơi phục vụ các khách hàng như các thiết bị vi mô tiên tiến.
Mặc dù Graham không tiết lộ các đối tác và khách hàng cụ thể ngoài sự hợp tác này, ông đã gợi ý rằng Lightmatter hoạt động với các nhà cung cấp Silicon như Broadcom hoặc Marvell để tạo ra các thành phần tùy chỉnh cho các đại gia công nghệ như Google, Amazon và Microsoft, những người thiết kế bộ xử lý trung tâm dữ liệu của riêng họ.
Quy mô và tương lai của các trung tâm dữ liệu AI
Để minh họa mức độ triển khai của AI, Graham đã chỉ ra rằng ít nhất một tá trung tâm dữ liệu AI mới được lên kế hoạch hoặc đang được xây dựng, mỗi trung tâm đòi hỏi một năng lực. "Đối với bối cảnh, thành phố New York sử dụng khoảng năm Gigawatt của quyền lực vào một ngày trung bình. Vì vậy, chúng tôi đang nói về việc tiêu thụ sức mạnh của nhiều thành phố ở New York", ông nói. Ông dự đoán rằng vào năm 2026, việc xử lý AI toàn cầu sẽ yêu cầu 40 gigawatt năng lượng, tương đương với tám thành phố New York, đặc biệt cho các trung tâm dữ liệu AI.
Lightmatter gần đây đã bảo đảm khoản đầu tư đầu tư mạo hiểm trị giá 400 triệu đô la, định giá công ty ở mức 4,4 tỷ đô la. Graham đã đề cập rằng công ty nhằm mục đích bắt đầu sản xuất "trong vài năm tới".
Khi được hỏi về sự gián đoạn tiềm năng đối với các kế hoạch của Lightmatter, Graham đã bày tỏ sự tin tưởng vào nhu cầu liên tục để mở rộng cơ sở hạ tầng điện toán AI. Tuy nhiên, ông thừa nhận rằng một bước đột phá trong các thuật toán AI đòi hỏi tính toán ít hơn hoặc đạt được trí thông minh chung nhân tạo (AGI) nhanh hơn có thể thách thức các giả định hiện tại về sự cần thiết của sự tăng trưởng theo cấp số nhân.




The idea that AI computing might consume power equivalent to multiple NYCs by 2026 is mind-blowing! It's exciting to see Nvidia pushing the boundaries, but also a bit scary thinking about the energy impact. Can't wait to see how this unfolds! 🌍💡




2026年までにAIの計算が複数のニューヨーク市の電力を消費するかもしれないという考えは驚くべきものだ!Nvidiaが境界を押し広げるのを見るのはワクワクするけど、エネルギーへの影響を考えるとちょっと怖い。どうなるか楽しみだね!🌍💡




¡La idea de que el cómputo de IA podría consumir energía equivalente a múltiples ciudades de Nueva York para 2026 es alucinante! Es emocionante ver a Nvidia empujando los límites, pero también un poco aterrador pensar en el impacto energético. ¡No puedo esperar a ver cómo se desarrolla esto! 🌍💡




Die Vorstellung, dass die KI-Rechenleistung bis 2026 Energie verbrauchen könnte, die mehreren New Yorks entspricht, ist umwerfend! Es ist aufregend zu sehen, wie Nvidia die Grenzen verschiebt, aber auch ein bisschen beängstigend, wenn man an den Energieeinfluss denkt. Kann es kaum erwarten zu sehen, wie sich das entwickelt! 🌍💡




L'idée que le calcul de l'IA pourrait consommer une puissance équivalente à plusieurs villes de New York d'ici 2026 est hallucinante ! C'est excitant de voir Nvidia repousser les limites, mais aussi un peu effrayant de penser à l'impact énergétique. J'ai hâte de voir comment cela va se dérouler ! 🌍💡




This AI expansion sounds insane! By 2026, the power consumption could match multiple New York Cities? That's wild! I'm excited to see what kind of AI models they'll be training, but also kinda worried about the environmental impact. Can't wait to see how this pans out! 🤯












