1. 模型管理:
ollama pull <model_name>: 从 Hugging Face Hub 下载指定的模型。 例如:ollama pull llama2ollama lms pull <model_name>: 从 Hugging Face Hub 下载指定 Llama 2 模型。ollama lms pull llama2ollama list: 列出所有已安装的 OLLAMA 模型。ollama update <model_name>: 更新指定的模型到最新版本。ollama remove <model_name>: 删除指定的模型。ollama migrate: 将模型从一个 OLLAMA 实例迁移到另一个。ollama rename <old_name> <new_name>: 重命名模型。ollama clear: 清除本地模型缓存。 (谨慎使用,可能会消耗大量磁盘空间)
2. 交互(运行模型):
ollama run <model_name>: 启动指定的模型,进入交互式会话。 这是最常用的命令,用于与模型进行对话。 例如:ollama run llama2ollama chat <model_name>: 启动指定的模型,进入聊天模式(针对聊天机器人模型)。ollama exec <model_name> <command>: 在指定的模型中执行命令。 例如:ollama exec llama2 "ls -l"ollama stop <model_name>: 停止正在运行的指定模型。ollama kill <model_name>: 强制停止正在运行的指定模型。 (通常不建议使用,只有在正常停止失败时才使用)ollama sleep <seconds>: 使当前正在运行的模型休眠指定的秒数。
3. 模型配置和控制:
ollama config <model_name>: 查看模型配置信息。ollama set <key> <value>: 设置模型配置项。 例如:ollama set llama2.temperature 0.7(设置 Llama 2 的温度参数)ollama reset <model_name>: 清空模型的上下文。 (相当于重置会话,清除之前的对话记录)ollama interrupt <model_name>: 中断正在运行的模型的推理过程。
4. 其他实用命令:
ollama version: 显示 OLLAMA 的版本信息。ollama help: 显示所有命令的帮助信息。 可以使用ollama help <command_name>来获取特定命令的帮助。ollama env: 查看当前 OLLAMA 实例的环境变量。ollama logs: 查看 OLLAMA 的日志输出。ollama info: 显示 OLLAMA 实例的信息,包括模型数量、资源使用情况等。
常用参数:
t, --threads <number>: 指定推理时使用的线程数量。 (默认通常会自动选择)c, --cpu: 使用 CPU 进行推理。g, --gpu: 使用 GPU 进行推理。d, --device <device>: 指定使用的设备,例如cpu,gpu,auto(auto 自动选择)-help: 显示所有命令的帮助信息。
如何使用命令:
Ollama 的命令通常在终端中直接输入并执行。 命令的语法是: ollama <command_name> [options]。
建议:
- 建议先使用
ollama help命令来查看所有命令的帮助信息,了解每个命令的功能和选项。 - 可以先尝试
ollama run <model_name>命令来运行一个简单的模型,熟悉 OLLAMA 的使用方法。 - 在进行任何配置修改后,最好重启 OLLAMA 实例,以确保修改生效。