首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
Nature
订阅
用户9887286465975
更多收藏集
微信扫码分享
微信
新浪微博
QQ
7篇文章 · 0订阅
📚LangChain与LlamaIndex深度整合:企业级树状数据RAG实战指南
本文首次公开结构化树状数据的RAG全链路优化方案,通过独创的路径感知混合嵌入算法和动态子树分块策略,成功在工业级场景中将召回率提升25-40%、延迟降低30-50%。我们将深度拆解七层优化架构:从智能
20K star!搞定 LLM 微调的开源利器
今天我们分享一个开源项目可以快速进行 LLM 微调,它不单运行效率高,而且还可以在微调过程中进行可视化,非常方便,它就是:LLaMA Factory。
面向业务开发的 Coze 使用指南
Coze 是新一代一站式 AI Bot 开发平台。无论你是否有编程基础,都可以在 Coze 平台上快速搭建基于 AI 模型的各类问答 Bot。
NLP语义相似度尝试
要实现这么一个需求,预设一个评分标准,然后根据用户的行为或者一段描述进行打分,很自然的想到了这几年很火的NLP,调研了一番做个记录。
全套解决方案:基于pytorch、transformers的中文NLP训练框架,支持大模型训练和文本生成,快速上手,海量训练数据!
全套解决方案:基于pytorch、transformers的中文NLP训练框架,支持大模型训练和文本生成,快速上手,海量训练数据! 1.简介 目标:基于pytorch、transformers做中文领
基于 ChatGLM-6B 搭建个人专属知识库
之前树先生教过大家如何利用微调打造一个垂直领域的 LLM 专属模型。但是微调一方面需要专业知识,通常需要很多计算资源和时间,以便在不同的超参数设置上训练多个模型并选择最佳的一个,另一方面动态扩展比较差
GPT4All:ChatGPT本地私有化部署,终生免费
在本文中,我们将学习如何在仅使用CPU的计算机上部署和使用GPT4All模型并学习如何使用Python与我们的文档进行交互。