Orca LLM:开源 LLM 海洋中的新王者

分类:AI/ML开源 标签:
Save and Share:

微软研究院发表了一篇极具前景的论文,介绍了他们在利用 GPT-4 复杂解释追踪进行渐进式学习方面所做的努力和取得的成功。最令人兴奋的是,他们即将发布该模型,目前正与法务团队合作,根据 LLaMA 的发布政策,公开发布模型权重的差异。

什么是 Orca LLM,它为何如此重要?

最近的研究一直致力于通过利用大型模型生成的知识来训练小型模型,从而提高其性能。这个过程存在几个挑战:

  1. 有限的模仿信号:由于大型模型只提供部分输出,小型模型可以学习的信息有限。
  2. 小规模同质训练数据:小型模型的训练数据通常规模较小且相似,这限制了它们的学习潜力。
  3. 缺乏严格的评估:小型模型倾向于模仿大型模型的风格,但难以复制其推理能力。这是因为对小型模型没有进行彻底的评估,导致对其能力的过高估计。

为了克服这些挑战,研究人员开发了一种名为 Orca 的新型模型。

Orca LLM 是一个拥有 130 亿参数的模型,旨在学习大型模型的推理过程。它通过 GPT-4 提供的丰富信息进行学习,包括每个步骤的解释、详细的思考过程和复杂的指令。此外,它还接受 ChatGPT 的指导,以辅助其学习过程。

为了使学习更有效,Orca LLM 使用了多样化且广泛的模仿数据。采用细致的抽样和选择技术,以确保模型从各种示例中学习。结果令人印象深刻:

  • 在诸如 Big-Bench Hard (BBH) 等具有挑战性的推理任务中,Orca LLM 的性能优于其他专门针对指令遵循进行调整的、最先进的模型(如 Vicuna-13B)100% 以上,在 AGIEval 上高出 42%。
  • 此外,Orca LLM 在 BBH 基准测试中表现出与 ChatGPT 相似的水平,并且在专业和学术考试(如 SAT、LSAT、GRE 和 GMAT)中表现出具有竞争力的性能(与优化后的系统消息相比,仅相差 4 分)。这是在没有任何先前接触特定问题或任务的情况下实现的,使其成为零样本设置。
  • 但是,Orca LLM 在性能方面仍然略逊于 GPT-4。

总而言之,这项研究表明,无论是来自人类还是更先进的 AI 模型的逐步解释,都是提高像 Orca 这样的模型的能力和技能的一个有希望的方向。

关于 Orca LLM 研究论文的视频评论

“AI Explained” 制作的关于 Orca LLM 的 Youtube 视频
Matthew Berman 制作的关于 Orca LLM 的 Youtube 视频

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注