옵션
뉴스
알리바바의 '제로서치' AI, 자율 학습으로 교육 비용 88% 절감

알리바바의 '제로서치' AI, 자율 학습으로 교육 비용 88% 절감

2025년 9월 19일
2

알리바바의

알리바바의 제로서치: AI 학습 효율성의 판도를 바꾸는 방법

알리바바 그룹 연구원들은 값비싼 상용 검색 엔진 API를 완전히 우회하여 AI 시스템이 정보 검색을 학습하는 방식을 혁신할 수 있는 획기적인 방법을 개척했습니다. 이들의 제로서치 기술은 대규모 언어 모델이 훈련 단계에서 기존의 검색 엔진 상호 작용 대신 시뮬레이션 환경을 통해 정교한 검색 능력을 배양할 수 있도록 지원합니다.

"기존의 강화 학습은 광범위한 검색 요청을 필요로 하기 때문에 상당한 API 비용이 누적되고 확장성을 저해합니다."라고 연구진은 새로 발표된 arXiv 논문에서 설명합니다. "제로서치는 실제 검색 엔진과 무관하게 LLM 검색 기능을 향상시키는 비용 효율적인 강화 학습 프레임워크입니다."

검색 없는 훈련의 메커니즘

현재의 AI 학습 방법은 학습 주기 동안 상용 검색 엔진의 일관되지 않은 문서 품질과 Google 검색과 같은 서비스에 대한 막대한 API 호출로 인한 막대한 비용이라는 두 가지 주요 제약에 직면해 있습니다.

제로서치는 혁신적인 2단계 접근 방식을 구현합니다:

  1. 초기 감독 미세 조정을 통해 LLM을 문서 생성 모듈로 변환합니다.
  2. 고급 커리큘럼 기반 강화를 통해 출력 품질을 점진적으로 변화시킵니다.

연구진은 "우리의 근본적인 발견은 사전 훈련된 LLM이 본질적으로 문맥에 적합한 문서를 생성하기에 충분한 세계 지식을 보유하고 있다는 사실을 밝혀냈습니다."라고 말합니다. "시뮬레이션 결과와 실제 검색 결과의 주요 차이점은 실질적인 콘텐츠 차이보다는 문체적인 텍스트 차이에 있습니다."

성능 벤치마크는 상당한 이점을 보여줍니다.

7개의 서로 다른 질문-응답 데이터 세트에 대한 엄격한 테스트를 통해 제로서치의 경쟁 우위를 입증했습니다:

  • 70억 개의 매개변수 모델이 Google 검색 정확도와 일치함
  • 140억 개의 매개변수 구성이 상용 검색 성능을 능가했습니다.

특히 재정적 영향이 두드러집니다:

  • 64,000개의 쿼리를 사용한 기존 훈련: SerpAPI를 통한 $586.70
  • 제로서치에 상응하는 비용: A100 GPU 4개 사용 시 $70.80
  • 총 비용 절감: 88%

"이러한 결과는 강화 학습 구현에서 기존 검색 엔진을 대체할 수 있는 LLM의 가능성을 입증합니다."라고 연구팀은 결론을 내립니다.

AI 개발에 대한 광범위한 시사점

제로서치는 외부 도구 종속성 없이 자율적인 기능 개발을 입증함으로써 인공지능 훈련 방법론의 패러다임 전환을 의미합니다.

이 기술은 몇 가지 혁신적인 영향을 약속합니다:

  • 비용 민주화: 값비싼 API 종속성을 제거하여 스타트업의 재정적 장벽을 낮춥니다.
  • 교육 제어: 모델 개발 중 정보 입력을 정밀하게 제어할 수 있습니다.
  • 아키텍처 유연성: Qwen-2.5 및 LLaMA-3.2를 포함한 주요 모델 제품군에서 호환 가능

알리바바는 코드베이스, 학습 데이터세트, 사전 학습된 모델을 포함한 전체 구현을 GitHub 및 Hugging Face 리포지토리를 통해 오픈소스화했습니다.

이러한 혁신은 외부 서비스에 의존하지 않고 정교한 시뮬레이션을 통해 고급 기능을 구현하는 새로운 AI 개발 환경을 예고합니다. 이러한 자급자족형 트레이닝 기술이 성숙해지면 현재 주요 플랫폼 API에 의존하는 기술 생태계를 크게 재편할 수 있습니다.

관련 기사
AI 개인화는 현실을 향상시킬까요, 아니면 왜곡할까요? 숨겨진 위험 탐구 AI 개인화는 현실을 향상시킬까요, 아니면 왜곡할까요? 숨겨진 위험 탐구 인류 문명은 필기가 외부화된 기억, 계산기가 자동화된 계산, GPS 시스템이 길 찾기를 대체하는 등 인지 혁명을 목격해 왔습니다. 이제 우리는 인공지능 시스템이 인간의 판단력, 종합 능력, 심지어 의미를 구성하는 능력까지 대신하기 시작하는 가장 심오한 인지적 위임의 벼랑 끝에 서 있습니다.개인화의 역설최신 AI는 단순히 질문에 응답하는 것이 아니라 사람의
다중 모델 협업으로 AI 성능을 향상시킨 사카나 AI의 트리퀘스트(TreeQuest) 다중 모델 협업으로 AI 성능을 향상시킨 사카나 AI의 트리퀘스트(TreeQuest) 일본의 AI 연구소 사카나 AI는 여러 개의 대규모 언어 모델(LLM)이 함께 작업하여 매우 효과적인 AI 팀을 구성할 수 있는 기술을 공개했습니다. Multi-LLM AB-MCTS라고 명명된 이 방법을 사용하면 모델이 시행착오를 거치면서 각자의 고유한 강점을 활용하여 단일 모델이 처리할 수 없는 복잡한 작업을 처리할 수 있습니다.이 접근 방식은 기업에게
ByteDance, Seed-Thinking-v1.5 AI 모델 공개로 추론 능력 강화 ByteDance, Seed-Thinking-v1.5 AI 모델 공개로 추론 능력 강화 고급 추론 AI를 위한 경쟁은 2024년 9월 OpenAI의 o1 모델로 시작되었으며, 2025년 1월 DeepSeek의 R1 출시로 더욱 가속화되었습니다.주요 AI 개발자들은 이제 체인 오브 쏘트 프로세스를 통해 정확하고 신중한 응답을 제공하는 더 빠르고 비용 효율적인 추론 AI 모델을 만들기 위해 경쟁하고 있습니다.TikTok의 모회사인 ByteDanc
의견 (0)
0/200
위로 돌아갑니다
OR