Ollama开源模型
Ollama 是一个开源项目,用于在本地运行大型语言模型(LLMs)。它支持多种模型,并提供了简单的命令行界面来下载、管理和运行这些模型。以下是 Ollama 包含的一些主要模型及其介绍和使用方法:
1. Llama 2
- 介绍:由 Meta(Facebook)发布的开源 LLM,有不同大小的版本(7B、13B、70B),适用于文本生成、对话、代码补全等任务。
- 下载模型:
ollama pull llama2
- 运行模型:
ollama run llama2
- 示例用法:
>>> "写一首关于AI的诗"
2. Mistral
- 介绍:Mistral 7B 是一个高效的小型开源模型,性能接近更大的 Llama 2 13B,但计算资源需求更低。
- 下载模型:
ollama pull mistral
- 运行模型:
ollama run mistral
- 示例用法:
>>> "用Python写一个快速排序算法"
3. Gemma
- 介绍:由 Google DeepMind 开发的轻量级开源模型(2B 和 7B 版本),适用于移动端和低资源设备。
- 下载模型:
ollama pull gemma
- 运行模型:
ollama run gemma
- 示例用法:
>>> "解释一下机器学习中的过拟合"
4. Phi-2
- 介绍:微软开发的 2.7B 参数小模型,专注于推理和数学能力,适合低配置设备。
- 下载模型:
ollama pull phi
- 运行模型:
ollama run phi
- 示例用法:
>>> "计算 2^10 + 3^3 的值"
5. Code Llama
- 介绍:Meta 发布的专注于代码生成的 Llama 2 变体(7B、13B、34B),支持 Python、C++、Java 等编程语言。
- 下载模型:
ollama pull codellama
- 运行模型:
ollama run codellama
- 示例用法:
>>> "写一个Python函数计算斐波那契数列"
6. Falcon
- 介绍:由 TII(阿联酋)开发的开源模型(7B、40B),强调高效训练和推理。
- 下载模型:
ollama pull falcon
- 运行模型:
ollama run falcon
- 示例用法:
>>> "用3句话概括量子计算的基本原理"
7. Vicuna
- 介绍:基于 Llama 微调的对话优化模型,适用于聊天场景。
- 下载模型:
ollama pull vicuna
- 运行模型:
ollama run vicuna
- 示例用法:
>>> "推荐几本适合学习深度学习的书"
8. LLaVA
- 介绍:支持多模态(文本+图像)的模型,可处理图像内容描述等任务。
- 下载模型:
ollama pull llava
- 运行模型:
ollama run llava
- 示例用法:
>>> 上传图片后提问:"描述这张图片的内容"
9. Orca 2
- 介绍:微软开发的推理优化模型,适用于复杂问题解答。
- 下载模型:
ollama pull orca2
- 运行模型:
ollama run orca2
- 示例用法:
>>> "如何降低神经网络训练时的内存消耗?"
10. Neural Chat
- 介绍:专长于对话和情感交流的微调模型。
- 下载模型:
ollama pull neural-chat
- 运行模型:
ollama run neural-chat
- 示例用法:
>>> "安慰一个考试失利的朋友"
通用命令
- 查看已安装模型:
ollama list
- 删除模型:
ollama rm <模型名>
- 更新模型:
ollama pull <模型名>
注意事项
- 首次运行
ollama run
会自动下载模型(需网络)。 - 不同模型对硬件(GPU/内存)要求不同,7B 模型通常需要 8GB+ 内存,70B 模型需要高端显卡。
- 可通过
--verbose
参数查看详细运行日志。
如果需要更详细的参数(如调整温度、最大 token 数),可在运行命令后附加参数,例如:
ollama run llama2 "写一篇短文" --temperature 0.7