项目说明
项目名称:OllamaTerminalCall
项目形态:第三方开源Ollama终端控制工具
功能:依托Ollama本地模型,自然语言转换系统终端指令,自带危险命令黑名单拦截,全平台适配Windows、Mac、Linux,所有操作需手动确认执行。
一、通用前置环境
1. 安装Ollama客户端
2. 安装Python3.8及以上,配置系统环境变量
3. 安装Git工具
4. 本地模型:建议llama3:8b,可以更大,这个模型是经过实际测试,得出来的最小就可以正常使用的模型,如果更大,效果可能会更好。
5.项目地址:gitcode.com/ylx9883/Oll…
二、全平台统一安装流程
1. 打开终端 Windows使用PowerShell,Mac、Linux使用原生终端
2. 拉取项目源码 git clone gitcode.com/ylx9883/Oll…
3. 进入项目目录 cd OllamaTerminalCall
4. 安装依赖 pip install -r requirements.txt -i pypi.tuna.tsinghua.edu.cn/simple
5. 本地部署项目 pip install . 6. 生成配置文件
ollama-terminal-call --init
7. 拉取基础模型 ollama pull llama3:8b
三、配置文件 通用规整版
配置文件路径
Windows:C:\Users\用户名.otc\config.json
Mac / Linux:~/.otc/config.json
配置内容(整洁标准格式,嗯真正使用时要去掉括号()内的内容)
{ "model": "llama3:8b(你的模型名)", "temperature": 0.1, "max_ctx": 3072, "auto_execute": false, "must_confirm": true, "auto_retry": false, "win_shell": "powershell", "linux_shell": "bash", "mac_shell": "zsh", "danger_blacklist": [ "rm", "rm -rf", "del", "format", "mkfs", "dd", "shutdown", "restart", "diskpart" ], "danger_block_all": true, "log_cmd": true, "lang": "zh" }
配置作用说明
1. 降低随机创作率,命令输出稳定
2. 限制上下文长度,避免长对话错乱
3. 关闭自动执行、关闭自动重试
4. 区分三系统终端内核,命令语法适配
5. 内置危险指令黑名单,触发直接拦截
6. 全程中文返回,记录操作日志
四、Windows 使用流程
1. 保持Ollama后台正常运行
2. 打开PowerShell
3. 启动指令
ollama-terminal-call --agent --safe
4. 直接输入中文需求,工具自动生成对应系统命令
5. 弹出指令后,输入y确认执行,输入n取消
6. 高危指令会标注提示并拦截
7. 输入exit退出程序
五、Mac 使用流程
1. 保持Ollama正常后台运行
2. 打开系统终端
3. 启动指令
ollama-terminal-call --agent --safe
4. 输入文字需求,自动生成Mac终端命令
5. 手动确认执行,高危操作拦截
6. 长任务建议拆分发送
7. 输入exit退出
六、Linux 使用流程
1. 启动Ollama服务
2. 打开Bash终端
3. 启动指令
ollama-terminal-call --agent --safe
4. 自动生成Linux适配命令
5. 删除、格式化、关机类指令会被拦截
6. 输入exit退出
七、通用使用规范
1. 单次需求控制在少量步骤内,减少逻辑断层
2. 避免向工具发送系统销毁、强制删除类需求
3. 命令异常时,精简描述重新发送即可
4. 所有操作不自动运行,全部人工确认
5. 适合文件整理、系统状态查询、目录创建等常规操作
八、项目客观优缺点
优点
1. 三系统原生适配,自动区分终端语法
2. 自带命令黑名单拦截,使用风险低
3. 自然语言转终端指令,学习成本低
4. 本地离线运行,无数据上传
5. 对话连续记忆,可完成多步连贯任务
缺点
1. 项目开发时间较短,生态相对小众
2. 对8B以下小模型适配效果一般
3. 仅软件黑名单拦截,无底层沙箱隔离
4. Windows语法适配稳定性略低于Mac、Linux
九、常见问题排查
1. Ollama连接异常:执行ollama serve重启服务
2. 命令语法混乱:检查配置内对应终端设置
3. 依赖安装失败:切换清华镜像源重试
4. 配置不生效:删除.otc目录,重新生成配置
5. 模型响应迟缓:建议使用llama3:8b模型
十、未来展望 1.这个项目适用于代码编程,文件编写,服务器维护等等等等,希望未来可以加入定时任务或触发式任务