首页
AI Coding
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
AI
订阅
神气
更多收藏集
微信扫码分享
微信
新浪微博
QQ
2篇文章 · 0订阅
LLM+本地知识库?简单又没那么简单
最近在研究如何将大语言模型结合本地知识库进行问答,虽然网上已经有很多教程,但大部分都是基于LangChain进行文本分割,然后调用模型向量化的API。这种方式的确很简单,但有这么几个前提: 大模型不使
GPT 会上网了❗️❗️ChatGPT 插件的原理揭秘
最近人工智能领域高潮迭起,人工智能聊天工具 ChatGPT 的大风刮到了世界各地,风靡全球,说到神奇的 ChatGPT 大家最想吐槽的是什么🤔? 信息落后? 胡说八道