首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
决战灬
掘友等级
资深JAVA开发工程师
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
25
文章 12
沸点 13
赞
25
返回
|
搜索文章
最新
热门
LlamaIndex之HierarchicalNodeParser层次节点解析器
这段代码使用了 LlamaIndex(一个流行的用于构建大语言模型应用的框架)中的 HierarchicalNodeParser 组件。它的主要作用是将长文档按照层级结构进行分割,以便在后续的检索(如
LlamaIndex 之 get_response_synthesizer(一)
代码片段 在 LlamaIndex 中,response_mode 是控制响应合成器如何将检索到的上下文节点与用户查询结合起来生成最终答案的关键参数。 不同的 response_mode 决定了大模型
Python中常用的model
python模块: Pandas pydantic BaseModel, Field uvicorn WEB端服务器启动 fastapi APIRouter, HTTPException, Depen
删除ubuntu中的WSL
*使用wsl下载了ubuntu,在ubuntu里又下载了wsl,我需要删除ubuntu中的wsl,应该怎么操作: * 一、先确认:你在 Ubuntu 里装的是啥 在 Ubuntu(WSL 里的那个)
openclaw后台执行openclaw gateway stop命令,客户端仍能继续访问
Gateway 的后台守护进程(daemon)还在运行 有残留进程继续占用端口 快速解决:彻底停止 Gateway 请按以下步骤操作,确保服务完全停止: 步骤 1:检查当前服务状态 bash 复制下载
openclaw配置本地模型(ollama)
wins10 使用ollama工具下载本地模型qwen3:1.7b ,在wsl(ubuntu)中安装 openclaw,在配置openclaw模型时找不到ollama下载的qwen3:1.7b的模型,
手动修改openclaw的配置文件(model)
第一步:找到 OpenClaw 配置文件位置(你 WSL 里的路径) 在 WSL 终端输入这行 直接定位: bash 运行 它会输出类似这样的路径: plaintext 第二步:直接编辑配置文件(正确
WSL Ubuntu中安装openclaw配置模型时无法连接Ollama解决方案
第一步:配置Windows上的Ollama 默认情况下,Ollama只允许来自本机127.0.0.1的连接,需要修改其监听地址-1-3。 完全退出Ollama:请在Windows任务栏托盘中找到Oll
Ollama下载Qwen模型
方案一:配置国内镜像加速(最推荐) 这是最根本的解决方法,通过配置环境变量,让 Ollama 从国内镜像站(如魔搭社区 modelscope)下载模型,速度非常快-4。 Windows 系统配置步骤:
本地部署openclaw
安装node.js 安装python 启用 Windows Subsystem for Linux 功能 dism.exe /online /enable-feature /featurename:M
下一页
个人成就
文章被点赞
13
文章被阅读
7,557
掘力值
355
关注了
17
关注者
4
收藏集
13
关注标签
15
加入于
2022-05-05