選項
首頁
新聞
阿里巴巴的「ZeroSearch」AI 透過自主學習將訓練成本降低 88

阿里巴巴的「ZeroSearch」AI 透過自主學習將訓練成本降低 88

2025-09-19
2

阿里巴巴的「ZeroSearch」AI 透過自主學習將訓練成本降低 88

阿里巴巴的 ZeroSearch:改變人工智能訓練效率的遊戲規則

阿里巴巴集團的研究人員開創了一種突破性的方法,有可能徹底改變人工智能系統學習信息檢索的方式,完全繞過成本高昂的商業搜索引擎 API。他們的 ZeroSearch 技術可讓大型語言模型在訓練階段透過模擬環境培養複雜的搜尋能力,而非傳統的搜尋引擎互動。

"研究人員在最新發表的 arXiv 論文中解釋說:「傳統的強化學習需要大量的搜尋要求,累積了大量的 API 成本,妨礙了可擴展性。"ZeroSearch 代表了一種具成本效益的強化學習架構,可增強 LLM 的搜尋能力,而不受限於實際的搜尋引擎。

免搜尋訓練背後的機制

目前的 AI 訓練方法面臨兩個主要的限制:在訓練週期中,商業搜尋引擎提供的文件品質不一致,以及向 Google Search 等服務大量呼叫 API 所產生的高昂費用。

ZeroSearch 採用創新的兩階段式方法:

  1. 初始監督微調可將 LLM 轉換為文件生成模組
  2. 先進的課程式強化逐步改變輸出品質

"研究人員指出:「我們的基本發現顯示,預先訓練的 LLM 本質上擁有足夠的世界知識來產生符合上下文的文件。"模擬與真實搜尋輸出之間的主要差異在於文體上的文字差異,而非實質內容上的差距。

性能基準顯示顯著優勢

在七個不同的問題回答資料集上進行的嚴格測試證明了 ZeroSearch 的競爭優勢:

  • 7B 參數模型與 Google 搜尋準確性相匹配
  • 14B 參數配置超越商業搜尋效能

財務方面的影響尤其顯著:

  • 使用 64K 查詢進行傳統訓練:透過 SerpAPI 為 586.70 美元
  • 使用四個 A100 GPU 的 ZeroSearch 相當於:70.80 美元
  • 總成本降低:88

"研究團隊總結:「這些結果驗證了 LLM 在強化學習實作中,可以取代傳統的搜尋引擎。

對人工智能發展的更廣泛影響

ZeroSearch 展示了無需依賴外部工具的自主能力開發,標誌著人工智慧訓練方法的範式轉變。

該技術有望帶來多種轉變性影響:

  • 成本民主化:消除昂貴的 API 依賴性,降低創業公司的財務障礙
  • 訓練控制:在模型開發過程中實現資訊輸入的精確調控
  • 架構彈性:兼容主要模型系列,包括 Qwen-2.5 和 LLaMA-3.2

阿里巴巴已通過 GitHub 和 Hugging Face 倉庫開放了完整的實現方案,包括代碼庫、訓練數據集和預訓模型。

這項創新預示著一種新興的人工智能發展趨勢,即透過精密的模擬而非依賴外部服務來產生先進的能力。隨著這些自給自足的訓練技術日漸成熟,它們可能會大幅重塑技術生態系統目前對主要平台 API 的依賴。

相關文章
AI 個人化是強化現實還是扭曲現實?隱藏的風險探討 AI 個人化是強化現實還是扭曲現實?隱藏的風險探討 人類文明曾經見證過認知革命--手寫將記憶外化、計算機將計算自動化、GPS系統取代了導航。現在,我們正站在最深刻的認知授權的懸崖邊上:人工智慧系統開始承擔我們的判斷能力、綜合能力,甚至是建構意義的能力。個人化悖論現代的人工智慧不只是回應我們的詢問,還會仔細研究我們的行為模式。透過無數次的微互動,這些系統所建立的心理輪廓可以與我們最親密的知己所建立的輪廓相媲美。它們交替以忠心耿耿的助手或狡猾的影響者自
Sakana AI 的 TreeQuest 透過多模型協作提升 AI 效能 Sakana AI 的 TreeQuest 透過多模型協作提升 AI 效能 日本 AI 實驗室 Sakana AI 發表了一項技術,可讓多個大型語言模型 (LLM) 合作,組成一個高效率的 AI 團隊。此方法命名為 Multi-LLM AB-MCTS,可讓模型進行試誤,利用其獨特優勢來處理任何單一模型無法處理的複雜任務。對於企業而言,這種方法提供了建立更強大人工智慧系統的方法。企業可以動態地利用各種前沿模型的優勢,為每個任務區段分配最佳的人工智能,以達到最佳結果,而不是依
字節跳動推出Seed-Thinking-v1.5 AI模型以提升推理能力 字節跳動推出Seed-Thinking-v1.5 AI模型以提升推理能力 先進推理AI的競賽始於2024年9月OpenAI的o1模型,隨著2025年1月DeepSeek的R1推出而加速。主要AI開發商現正競相打造更快、更具成本效益的推理AI模型,通過思維鏈過程提供精確、深思熟慮的回應,確保回答前的準確性。字節跳動,TikTok的母公司,推出Seed-Thinking-v1.5,一款在技術論文中概述的新大型語言模型(LLM),旨在增強STEM及一般領域的推理能力。該模型尚
評論 (0)
0/200
回到頂部
OR