likes
comments
collection
share

本地安装 Ollama 大模型与使用指南

作者站长头像
站长
· 阅读数 8

Ollama 是一款强大的人工智能模型,适用于多种操作系统。本指南将为您提供详细的安装和使用步骤,帮助您快速上手并充分利用 Ollama 的功能。

安装步骤

macOS 用户

对于 macOS 用户,安装过程非常简单。您只需访问 Ollama 官网,下载安装包并运行即可。

Windows 用户

Windows 用户目前尚未提供直接的安装包。不过,官方推荐在 WSL 2 环境中,通过 Linux 命令来安装 Ollama。安装命令如下:

curl https://ollama.ai/install.sh | sh

安装完成后,您可以通过运行 ollama --version 来验证安装是否成功。接下来,您可以下载模型并开始使用。

模型下载

在开始使用之前,您需要下载相应的模型。根据您的设备配置,选择适合的模型进行下载。例如,运行以下命令来下载 Llama 2 模型:

ollama pull llama2

请注意,运行不同大小的模型需要不同的内存配置。例如,运行 7B 参数模型至少需要 8 GB 的 RAM。

支持的模型列表

以下是一些支持的模型及其参数和大小,供您参考:

ModelParametersSizeDownload
Llama 27B3.8GBollama run llama2
Mistral7B4.1GBollama run mistral
Dolphin Phi2.7B1.6GBollama run dolphin-phi
Phi-22.7B1.7GBollama run phi
Neural Chat7B4.1GBollama run neural-chat
Starling7B4.1GBollama run starling-lm
Code Llama7B3.8GBollama run codellama
Llama 2 Uncensored7B3.8GBollama run llama2-uncensored
Llama 2 13B13B7.3GBollama run llama2:13b
Llama 2 70B70B39GBollama run llama2:70b
Orca Mini3B1.9GBollama run orca-mini
Vicuna7B3.8GBollama run vicuna
LLaVA7B4.5GBollama run llava
Gemma2B1.4GBollama run gemma:2b
Gemma7B4.8GBollama run gemma:7b

使用方法

下载模型后,您可以通过 Run 命令启动模型,并进入对话模式。在对话模式中,您可以使用内置的命令来设置会话变量、显示模型信息、获取帮助等。

可用命令
>>> /? 
>>> Available Commands: 
>>> 	/set Set session variables 
>>> 	/show Show model information 
>>> 	/bye Exit /?, 
>>> 	/help Help for a command 
>>> 
>>> Use """ to begin a multi-line message.

/set 设置会话变量 /show 显示模型信息 /bye 退出 /help 获取命令帮助

使用 """ 可以开始发送多行消息。

Raycast 插件

对于那些使用 Raycast 的用户,Raycast Ollama 插件 提供了一种便捷的使用方式。您可以快速启动对话、提问和关闭,极大地提高了使用效率。

体验分享

在尝试使用 llama2 7B 模型后,我们发现其输出的英文内容既丰富又完整。 此外,即使在处理大量输出时,电脑也没有出现明显的噪音,这为用户提供了良好的体验。我们认为,对于个人用户而言,无需追求参数极高的模型。本地运行模型不仅可以进行有趣的实验,还可以与本地应用结合,如 Obsidian、命令行等,从而形成一个完全个性化的智能助理。

本地安装 Ollama 大模型与使用指南 希望本指南能帮助您更好地理解和使用 Ollama,让您的生活和工作更加便捷。哈哈,当然这一文档也是最后通过了 Ollama 进行了整理,希望你也可以来尝试一下。

转载自:https://juejin.cn/post/7353197221742575656
评论
请登录