图片来源:作者
在本地运行 LLM(大型语言模型)已变得越来越流行,因为它提供了安全性、隐私性和对模型输出的更多控制。在本教程中,我们将学习下载和使用 Llama 3 模型的最简单方法。
1. Google 网络安全证书 - 快速进入网络安全职业生涯。
2. Google 数据分析专业证书 - 提升您的数据分析技能
3. Google IT 支持专业证书 - 支持您的组织的 IT
Llama 3 是 Meta AI 最新的 LLM 家族。它是开源的,具有先进的 AI 能力,并且比 Gemma、Gemini 和 Claud 3 改进了响应生成。
Ollama/ollama 是一个开源工具,用于在本地计算机上使用像 Llama 3 这样的 LLM。通过新的研究和开发,这些大型语言模型不再需要大量的 VRam、计算或存储。相反,它们经过优化,可以在笔记本电脑上使用。
有多种工具和框架可以让您在本地使用 LLM,但 Ollama 是最容易设置和使用的。它允许您直接从终端或 Powershell 使用 LLM。它快速且具有核心功能,使您能够立即开始使用。
Ollama 的最佳部分是它可以与各种软件、扩展和应用程序集成。例如,您可以在 VScode 中使用 CodeGPT 扩展并连接 Ollama,以将 Llama 3 作为您的 AI 代码助手。
通过访问 GitHub 仓库 Ollama/ollama,向下滚动并点击适合您操作系统的下载链接来下载和安装 Ollama。
图片来自 ollama/ollama | 各种操作系统的下载选项
成功安装 Ollama 后,它将在系统托盘中显示如下图所示。
要下载 Llama 3 模型并开始使用它,您需要在终端/命令行中输入以下命令。
ollama run llama3
根据您的互联网速度,下载 4.7GB 模型大约需要 30 分钟。
除了 Llama 3 模型,你还可以通过输入下面的命令来安装其他 LLMs。
图片来自 ollama/ollama | 使用 Ollama 运行其他 LLMs
一旦下载完成,你就可以像在线使用一样在本地使用 LLama 3。
提示: “描述数据科学家的一天。”
为了展示响应生成的速度,我附上了一个 GIF,显示了 Ollama 生成 Python 代码并解释它的过程。
注意: 如果你的笔记本电脑上有 Nvidia GPU 和 CUDA 安装,Ollama 会自动使用 GPU 而不是 CPU 来生成响应。效果提高了 10 倍。
提示: “编写一个构建数字时钟的 Python 代码。”
你可以通过输入 /bye
来退出聊天,然后通过输入 ollama run llama3
重新开始。
开源框架和模型使 AI 和 LLMs 对每个人都变得可用。与少数公司控制不同,这些本地运行的工具如 Ollama 使任何拥有笔记本电脑的人都能使用 AI。
在本地使用 LLMs 提供了隐私、安全性以及对响应生成的更多控制。此外,你不需要支付任何服务费用。你甚至可以创建自己的 AI 驱动编码助手,并在 VSCode 中使用它。
如果你想了解其他在本地运行 LLMs 的应用程序,那么你应该阅读 在你的笔记本电脑上使用 LLMs 的 5 种方法。
Abid Ali Awan (@1abidaliawan) 是一位认证的数据科学专业人士,热衷于构建机器学习模型。目前,他专注于内容创作,并撰写关于机器学习和数据科学技术的技术博客。Abid 拥有技术管理硕士学位和电信工程学士学位。他的愿景是使用图神经网络构建一款 AI 产品,帮助那些在精神健康方面挣扎的学生。