オプション
ニュース
MIT、静的モデルを超える自己学習AIフレームワークを発表

MIT、静的モデルを超える自己学習AIフレームワークを発表

2025年10月14日
9

MITの研究者が自己学習AIフレームワークを開発

マサチューセッツ工科大学(MIT)の研究チームは、大規模な言語モデルの能力を自律的に進化させる、SEAL(Self-Adapting Language Models)と呼ばれる革新的なシステムを開発した。この画期的なシステムにより、AIシステムは独自のトレーニング教材と学習プロトコルを生成し、新しい知識とスキルの永続的な統合を可能にする。

SEALは、企業のAIアプリケーション、特に継続的な適応が重要な流動的環境で動作するインテリジェント・エージェントにとって、重要な進歩を意味する。このフレームワークは、現在のLLM技術における基本的な限界、すなわち一時的な文脈学習を超えた永続的な知識の統合という課題に対処している。

現代のAIにおける適応の課題

大規模な言語モデルが素晴らしい能力を発揮する一方で、新しい情報を真に学習し内在化する能力には依然として制約がある。ファインチューニングや文脈内学習のような現在の適応手法は、モデルの学習プロセスに最適化することなく、入力データを受動的に扱う。

「エンタープライズ・アプリケーションは、一時的な知識の想起以上のものを要求しています。「コーディング・アシスタントが独自のフレームワークをマスターするにしても、カスタマーサービスAIがユーザーの好みを学習するにしても、この知識はモデルのコア・アーキテクチャに組み込まれなければなりません」。

SEALアーキテクチャ

SEALフレームワークの概要(出典:arXiv)

SEALフレームワークは、モデルが「自己編集」(自身のパラメーターを更新するための特殊な命令)を生成する、新しい強化学習アプローチを導入している。これらの編集は、情報を再構築したり、合成訓練例を作成したり、あるいは学習プロトコルを定義したりすることができ、モデルが効果的に独自のカリキュラムを設計することを可能にする。

このシステムは、2つの学習サイクルによって動作する:

  • インナーループ:自己生成された編集に基づいて、一時的なウェイト更新を実行する。
  • 外側のループ:更新の有効性を評価し、成功した戦略を強化する。

この継続的な自己改善メカニズムにより、合成データ生成、強化学習、テスト時間トレーニングが一体化した学習パラダイムとなります。

領域を超えた実証済みのパフォーマンス

知識の統合

SEALの知識統合結果(出典:arXiv)

知識保持テストにおいて、SEALで強化されたモデルは、原文にアクセスすることなくパッセージの内容を想起する際に47%の精度を示し、ベースラインの微調整とGPT-4.1で生成された合成データの両方を大幅に上回りました。

スモールショット学習

SEAL数発学習のパフォーマンス(出典:arXiv)

ARCデータセットの抽象的な推論課題にSEALを適用したところ、72.5%の成功率を達成しました。

企業への応用

高品質な学習データの枯渇が懸念される中、SEALの自己学習教材作成能力は、持続可能な前進の道を提供する。このテクノロジーは、研究論文や財務報告書のような複雑な文書について、モデルが反復的な自己説明を通じて自律的に理解を深めることを可能にする。

このフレームワークは、AIエージェント開発において特に有望であり、システムが環境との相互作用から得られる運用知識を永続的に統合することを可能にする。静的なプログラミングアプローチとは異なり、SEALを搭載したエージェントは、人間の介入への依存を減らしながら、時間をかけて能力を進化させることができる。

現在の限界

SEALの実装は、いくつかの現実的な問題に直面している:

  • 致命的な忘却:致命的な忘却:継続的な自己編集は、以前に学習した情報を上書きする危険性がある。
  • 計算オーバーヘッド:適応プロセスには多大な処理時間が必要
  • ハイブリッド実装の必要性:SEALとRAG(retrieval-augmented generation)を組み合わせることで、メモリ管理を最適化できる可能性がある。

「企業には、継続的な適応ではなく、スケジュールされた更新サイクルを導入することをお勧めします」とPari氏はアドバイスする。「これにより、適応の利点と現実的な運用上の制約のバランスをとることができる。

SEALの漸進的改善(出典:arXiv)

この研究は、言語モデルが最初のトレーニングの後、静止したままである必要はないことを示している。独自の更新を生成し適用することを学習することで、言語モデルは自律的に知識を拡大し、新たな課題に適応することができる。

関連記事
好業績のMicrosoftが人員削減を実施 好業績のMicrosoftが人員削減を実施 マイクロソフト、戦略的な人員再編を発表マイクロソフトは、世界の従業員の約3%に相当する7,000人規模の人員削減を開始しました。重要な点として、これらの変更は財務的困難ではなく、戦略的優先事項を反映しています。同社はAI開発を加速させるため事業運営の合理化を進めており、管理層を削減しながら技術系人材の密度を高めています。再編は世界中の様々な部門に影響を与え、中間管理職および非技術部門が最も大きな影響を受けています。これは、テクノロジー企業が機動性と技術的アウトプットを最適化するという、業界全体の
マルチバースAIが画期的な小型高性能モデルを発表 マルチバースAIが画期的な小型高性能モデルを発表 ヨーロッパの先駆的なAIスタートアップが、鳥や昆虫の脳にちなんで名付けられた画期的なマイクロサイズのAIモデルを発表し、強力な人工知能に大規模なスケールは必要ないことを実証した。Multiverse Computing社のイノベーションの中心は、エッジ・コンピューティング・アプリケーション向けに特別に設計された、超小型でありながら高性能なモデルである。ChickBrain」(32億パラメータ)と「
マイクロソフト、AIトークンが推論ミスを増加させるとの研究結果を発表 マイクロソフト、AIトークンが推論ミスを増加させるとの研究結果を発表 LLM推論効率の新たな洞察マイクロソフトの新しい研究は、大規模言語モデルにおける高度な推論技術が、異なるAIシステム間で一様な改善をもたらさないことを実証している。彼らの画期的な研究は、9つの主要な基礎モデルが推論中に様々なスケーリングアプローチにどのように反応するかを分析した。推論時間のスケーリング手法の評価研究チームは、3つの異なるスケーリング手法にわたって、厳密なテスト手法を実施した:従来の
コメント (0)
0/200
トップに戻ります
OR