首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
AI
订阅
许留心
更多收藏集
微信扫码分享
微信
新浪微博
QQ
12篇文章 · 0订阅
LangChain×Qwen3:高性能RAG系统实战项目
本期推荐和鲸社区创作者@云逸~分享的LangChain RAG系统实战项目,其完整演示了如何结合LangChain框架与Qwen3模型,从数据索引到接口服务,搭建出一个可落地的RAG问答系统。
基于LangChain实现数据库操作的智能体
在 Retrieval 或者 ReACT 的一些场景中,常常需要数据库与人工智能结合。而 LangChain 本身就封装了许多相关的内容,在其官方文档-SQL 能力中,也有非常好的示例。 而其实现原理
用 llm + SQLite 实现自然语言到 SQL 的智能转换:一个实战案例
在日常开发中,我们经常需要从数据库中查询数据。但对非技术人员来说,写 SQL 查询语句可能是个“噩梦”。而随着大模型的兴起,将自然语言直接转化为 SQL 查询已成为现实。 今天,我将结合 DeepSe
利用大模型构造数据集,并微调大模型
一、前言 目前大模型的微调方法有很多,而且大多可以在消费级显卡上进行,每个人都可以在自己的电脑上微调自己的大模型。 但是在微调时我们时常面对一个问题,就是数据集问题。网络上有许多开源数据集,但是很多时
Ollama运行HuggingFace下载的模型
本地运行模型我之前都直接使用LM-studio,好用、无脑。本地用足够了。但是在服务器上这个东西没法搞,Ollama推出了并行GPU计算之后可用性大幅提升。今天研究下如何用Ollama如何来使用这些开
LlamaFactory可视化微调大模型 - 参数详解
LLaMA Factory 是一个用于微调大型语言模型的强大工具,特别是针对 LLaMA 系列模型。 可以适应不同的模型架构和大小。 支持多种微调技术,如全参数微调等
Ollama部署大模型,本地调用
Ollama简单介绍 Ollama是一个强大的大型语言模型平台,它允许用户轻松地下载、安装和运行各种大型语言模型。在本文中,我将指导你如何在你的本地机器上部署Ollama,并展示如何使用Python进
AnythingLLM + Ollama 实现私有知识库
本文将介绍如何通过 AnythingLLM 与 Ollama 结合,搭建一个具备私有知识库能力的 AI 应用。
稚晖君正式官宣开源,yyds!!
提到稚晖君,毫无疑问,在科技圈一直是顶流的存在。 自从稚晖君从华为离职出来创立智元机器人(Agibot)以后,大佬的技术动向也一直在被业内所关注着。 还记得上个月的月底,稚晖君在B站动态突然来了一波更
基于 Quivr 搭建个人专属知识库
上一篇里,树先生教大家利用 ChatGLM-6B + langchain 实现个人专属知识库,实际运行下来,发现2个问题: 1、购买的 16G 显存的 GPU 云服务,在 FP16 精度下,多轮对话到