本地安装 Ollama 大模型与使用指南
Ollama 是一款强大的人工智能模型,适用于多种操作系统。本指南将为您提供详细的安装和使用步骤,帮助您快速上手并充分利用 Ollama 的功能。
安装步骤
macOS 用户
对于 macOS 用户,安装过程非常简单。您只需访问 Ollama 官网,下载安装包并运行即可。
Windows 用户
Windows 用户目前尚未提供直接的安装包。不过,官方推荐在 WSL 2 环境中,通过 Linux 命令来安装 Ollama。安装命令如下:
curl https://ollama.ai/install.sh | sh
安装完成后,您可以通过运行 ollama --version
来验证安装是否成功。接下来,您可以下载模型并开始使用。
模型下载
在开始使用之前,您需要下载相应的模型。根据您的设备配置,选择适合的模型进行下载。例如,运行以下命令来下载 Llama 2 模型:
ollama pull llama2
请注意,运行不同大小的模型需要不同的内存配置。例如,运行 7B 参数模型至少需要 8 GB 的 RAM。
支持的模型列表
以下是一些支持的模型及其参数和大小,供您参考:
Model | Parameters | Size | Download |
---|---|---|---|
Llama 2 | 7B | 3.8GB | ollama run llama2 |
Mistral | 7B | 4.1GB | ollama run mistral |
Dolphin Phi | 2.7B | 1.6GB | ollama run dolphin-phi |
Phi-2 | 2.7B | 1.7GB | ollama run phi |
Neural Chat | 7B | 4.1GB | ollama run neural-chat |
Starling | 7B | 4.1GB | ollama run starling-lm |
Code Llama | 7B | 3.8GB | ollama run codellama |
Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
Llama 2 13B | 13B | 7.3GB | ollama run llama2:13b |
Llama 2 70B | 70B | 39GB | ollama run llama2:70b |
Orca Mini | 3B | 1.9GB | ollama run orca-mini |
Vicuna | 7B | 3.8GB | ollama run vicuna |
LLaVA | 7B | 4.5GB | ollama run llava |
Gemma | 2B | 1.4GB | ollama run gemma:2b |
Gemma | 7B | 4.8GB | ollama run gemma:7b |
使用方法
下载模型后,您可以通过 Run
命令启动模型,并进入对话模式。在对话模式中,您可以使用内置的命令来设置会话变量、显示模型信息、获取帮助等。
可用命令
>>> /?
>>> Available Commands:
>>> /set Set session variables
>>> /show Show model information
>>> /bye Exit /?,
>>> /help Help for a command
>>>
>>> Use """ to begin a multi-line message.
/set 设置会话变量 /show 显示模型信息 /bye 退出 /help 获取命令帮助
使用 """
可以开始发送多行消息。
Raycast 插件
对于那些使用 Raycast 的用户,Raycast Ollama 插件 提供了一种便捷的使用方式。您可以快速启动对话、提问和关闭,极大地提高了使用效率。
体验分享
在尝试使用 llama2 7B
模型后,我们发现其输出的英文内容既丰富又完整。
此外,即使在处理大量输出时,电脑也没有出现明显的噪音,这为用户提供了良好的体验。我们认为,对于个人用户而言,无需追求参数极高的模型。本地运行模型不仅可以进行有趣的实验,还可以与本地应用结合,如 Obsidian、命令行等,从而形成一个完全个性化的智能助理。
希望本指南能帮助您更好地理解和使用 Ollama,让您的生活和工作更加便捷。哈哈,当然这一文档也是最后通过了 Ollama 进行了整理,希望你也可以来尝试一下。
转载自:https://juejin.cn/post/7353197221742575656