首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
NLP
订阅
绝影A
更多收藏集
微信扫码分享
微信
新浪微博
QQ
7篇文章 · 0订阅
使用微软的 GraphRAG + AutoGen + Ollama + Chainlit 来打造一个完全本地且免费的多代理RAG超级机器人
微软整合了 GraphRAG、AutoGen、Ollama 和 Chainlit 技术,打造出强大的多智能体 RAG(检索增强生成)超级机器人,无需依赖在线 LLM,即可进行复杂、基于情境的响应和本地
ChatGLM获取Embedding向量
本文讨论了ChatGLM的Embedding的使用方法,并通过whitening进一步提升检索精度和检索效率
高级可视化神器:cufflinks
cufflinks是一个基于Python的数据可视化库,它建立在Plotly库之上,为用户提供了一种简单而强大的方式来创建交互式的、美观的图表和可视化。它的设计旨在使绘图过程变得简单且具有灵活性,无需
基于GPT搭建私有知识库聊天机器人(一)实现原理
文章链接: 基于GPT搭建私有知识库聊天机器人(二)环境安装 基于GPT搭建私有知识库聊天机器人(三)向量数据训练 基于GPT搭建私有知识库聊天机器人(四)问答实现 1、成品演示 支持微信聊天 支持网
少样本学习综述:技术、算法和模型
少样本学习(FSL)是机器学习的一个子领域,它解决了只用少量标记示例学习新任务的问题。FSL的全部意义在于让机器学习模型能够用一点点数据学习新东西,这在收集一堆标记数据太昂贵、花费太长时间或不实用的情
基于 Quivr 搭建个人专属知识库
上一篇里,树先生教大家利用 ChatGLM-6B + langchain 实现个人专属知识库,实际运行下来,发现2个问题: 1、购买的 16G 显存的 GPU 云服务,在 FP16 精度下,多轮对话到
“中国法研杯”司法人工智能挑战赛:基于UTC的多标签/层次分类小样本文本应用,Macro F1提升13%+
“中国法研杯”司法人工智能挑战赛:基于UTC的多标签/层次分类小样本文本应用,Macro F1提升13%+ 相关文章推荐: 小样本文本分类应用:基于UTC的医疗意图多分类,训练调优部署一条龙: 本项目