首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
人工智能
订阅
人无再少年
更多收藏集
微信扫码分享
微信
新浪微博
QQ
6篇文章 · 0订阅
11K+ star!免费部署私人 ChatGPT的项目:LobeChat
今天我们推荐的就是可以帮你实现在本地部署私人ChatGPT,在GitHub超过11K Star的开源项目:Lobe Chat。
手把手教你从零搭建自己的知识库
从零开始实现了大模型外接知识库的流程: 中文数据集处理 词向量模型训练 文档向量化 向量数据库存储知识库 本地ChatGLM2-6B大模型部署 简单的知识库应用
日常使用的AI资源汇总
多使用。在自己的工作流中加入 AI 产品。写代码,写周报,脑暴想法,总结文档,翻译等。生活中的问题也可以积极问。
LangChain:打造自己的LLM应用 | 京东云技术团队
LangChain是一个框架,用于开发由LLM驱动的应用程序。可以简单认为是LLM领域的Spring,以及开源版的ChatGPT插件系统。
基于 ChatGLM-6B 搭建个人专属知识库
之前树先生教过大家如何利用微调打造一个垂直领域的 LLM 专属模型。但是微调一方面需要专业知识,通常需要很多计算资源和时间,以便在不同的超参数设置上训练多个模型并选择最佳的一个,另一方面动态扩展比较差
LLM+本地知识库?简单又没那么简单
最近在研究如何将大语言模型结合本地知识库进行问答,虽然网上已经有很多教程,但大部分都是基于LangChain进行文本分割,然后调用模型向量化的API。这种方式的确很简单,但有这么几个前提: 大模型不使