开源大型语言模型(LLM)的世界令人兴奋且不断发展。本课旨在深入介绍开源模型。如果您想了解专有模型与开源模型的比较,请访问“探索和比较不同的LLM”课程。本课还将涵盖微调主题,但更详细的解释可以在“微调LLM”课程中找到。
- 了解开源模型
- 理解使用开源模型的优势
- 探索Hugging Face和Azure AI Studio上可用的开源模型
开源软件在各个领域的技术发展中发挥了关键作用。开源倡议组织(OSI)定义了软件开源的10条标准,源代码必须在OSI批准的许可证下公开共享。
虽然LLM的开发与软件开发有相似之处,但过程并不完全相同。这在社区中引发了关于LLM开源定义的广泛讨论。要符合传统开源定义,模型应公开以下信息:
- 用于训练模型的数据集。
- 训练过程中完整的模型权重。
- 评估代码。
- 微调代码。
- 完整的模型权重和训练指标。
目前只有少数模型符合这些标准。由艾伦人工智能研究所(AllenAI)创建的OLMo模型就是其中之一。
在本课中,我们将称这些模型为“开源模型”,因为它们在撰写时可能尚未完全符合上述标准。
高度可定制 - 由于开源模型附带详细的训练信息,研究人员和开发者可以修改模型内部结构,从而创建针对特定任务或研究领域微调的高度专业化模型。例如代码生成、数学运算和生物学领域。
成本 - 使用和部署这些模型的每个token成本低于专有模型。在构建生成式AI应用时,应根据您的用例权衡性能与价格。
灵活性 - 使用开源模型可以灵活选择不同模型或将它们组合使用。例如,HuggingChat助理允许用户在界面中直接选择使用的模型:
Meta开发的Llama 2是一款针对聊天应用优化的开源模型。这得益于其微调方法,包含大量对话和人类反馈,使模型生成的结果更符合人类预期,提升用户体验。
Llama的微调版本示例包括专注于日语的Japanese Llama和增强版的Llama Pro。
Mistral是一款注重高性能和效率的开源模型。它采用专家混合(Mixture-of-Experts)方法,将一组专门的专家模型组合成一个系统,根据输入选择特定模型使用,从而提高计算效率。
Mistral的微调版本示例包括专注医疗领域的BioMistral和执行数学计算的OpenMath Mistral。
Falcon是由技术创新研究院(TII)创建的LLM。Falcon-40B拥有400亿参数,表现优于GPT-3且计算资源消耗更低。这得益于其使用的FlashAttention算法和多查询注意力机制,减少了推理时的内存需求。推理时间的缩短使Falcon-40B适合聊天应用。
Falcon的微调版本示例包括基于开源模型构建的OpenAssistant和性能优于基础模型的GPT4ALL。
选择开源模型没有唯一答案。一个好的起点是使用Azure AI Studio的按任务筛选功能,帮助您了解模型训练的任务类型。Hugging Face还维护了LLM排行榜,展示基于特定指标的最佳模型。
在比较不同类型的LLM时,Artificial Analysis是另一个很好的资源:
如果针对特定用例,搜索专注于相同领域的微调版本会很有效。尝试多个开源模型,观察它们是否符合您和用户的期望,也是一个好方法。
开源模型的最大优势是您可以很快开始使用。查看Azure AI Foundry模型目录,其中包含我们这里讨论的Hugging Face模型合集。
完成本课后,请访问我们的生成式AI学习合集,继续提升您的生成式AI知识!
免责声明:
本文件由人工智能翻译服务 Co-op Translator 翻译。尽管我们力求准确,但请注意自动翻译可能存在错误或不准确之处。原始语言的文档应被视为权威来源。对于重要信息,建议使用专业人工翻译。我们不对因使用本翻译而产生的任何误解或误释承担责任。



