Orca LLM:オープンソース LLM 界の新たな King

カテゴリー: AI/MLオープンソース タグ:
Save and Share:

Microsoft Research が、GPT-4 の複雑な説明トレースから Progressive Learning を行う研究に関する 非常に有望な論文を発表しました。最もエキサイティングなのは、彼らがそれを間もなくリリースする予定であり、現在 LLaMA のリリースポリシーに従ってモデルの重みの差分を公開するために法務チームと協力していることです。

Orca LLM とは?なぜ重要なのか?

最近の研究では、より大規模なモデルによって生成された知識を使用して、より小さなモデルをより強力にすることに取り組んでいます。このプロセスには、いくつかの課題があります。

  1. 限定的な模倣シグナル:より大規模なモデルは部分的な出力しか提供しないため、より小さなモデルが学習できる情報は限られています。
  2. 小規模で均質なトレーニングデータ:より小さなモデルのトレーニングデータは、多くの場合、小規模で類似しているため、学習の可能性が制限されます。
  3. 厳密な評価の欠如:より小さなモデルは、より大規模なモデルのスタイルを模倣する傾向がありますが、その推論能力を再現するのに苦労します。これは、より小さなモデルの徹底的な評価が行われていないため、その能力が過大評価されているためです。

これらの課題を克服するために、研究者たちはOrcaと呼ばれる新しいモデルを開発しました。

Orca LLM は、130億のパラメーターを持つモデルであり、より大規模なモデルの推論プロセスを学習するように設計されています。各ステップの説明、詳細な思考プロセス、複雑な指示など、GPT-4 から提供される豊富な情報から学習します。さらに、学習プロセスを支援するために ChatGPT からのガイダンスを受けます。

学習をより効果的にするために、Orca LLM は多様で広範な模倣データを使用します。慎重なサンプリングと選択の手法を使用して、モデルがさまざまな例から学習できるようにします。その結果は印象的です。

  • Orca LLM は、Big-Bench Hard (BBH) などの困難な推論タスクで Vicuna-13B などの指示に従うように特別に調整された他の最先端モデルよりも 100% 以上、AGIEval で 42% 優れています。
  • さらに、Orca LLM は、BBH ベンチマークで ChatGPT と同等のパフォーマンスを発揮し、SAT、LSAT、GRE、GMAT などの専門的および学術的な試験で競争力のあるパフォーマンス (最適化されたシステムメッセージと比較してわずか 4 ポイントの差) を示しています。これは、特定の質問やタスクに事前に触れたことがない、ゼロショット設定で達成されます。
  • ただし、Orca LLM は、パフォーマンスの点で GPT-4 にわずかに遅れをとっています。

全体として、この研究は、人間からのものか、より高度な AI モデルからのものかに関わらず、ステップごとの説明から学習することが、Orca のようなモデルの能力とスキルを向上させるための有望な方向性であることを示しています。

Orca LLM に関する研究論文のビデオレビュー

“AI Explained” による Orca LLM に関する Youtube ビデオ
Matthew Berman による Orca LLM に関する Youtube ビデオ

コメントする

メールアドレスが公開されることはありません。 が付いている欄は必須項目です