首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
AI大模型
掘友等级
技术工
|
工zzzz昊 大模型教程
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
12
文章 12
沸点 0
赞
12
返回
|
搜索文章
最新
热门
什么是MCP?技术原理是什么?教你15分钟配置本地MCP服务
在人工智能(AI)快速发展的今天,AI模型与外部工具的集成成为提升工作效率的关键。然而,传统集成方式存在接口碎片化、开发成本高、安全风险大等问题。
使用 DeepSeek API 打造专属AI智能知识库
本文介绍了如何使用 DeepSeek API 打造个人 AI 知识库。此过程中需搭配嵌入模型,将知识库内容向量化,实现高效检索。DeepSeek 在获取知识库检索结果后,可以输出更清晰、准确的回答。
LangChain4j + MCP:让你的 AI 轻松调用外部工具(内附GitHub-MCP实战)
LangChain4j 支持模型上下文协议(MCP),用于与符合 MCP 标准的服务器通信,从而调用并执行工具。
长文讲解 MCP 和案例实战
笔者在这个周末在学习 MCP 时,写下该笔记,尽可能提供更多的示例和讲解,帮助读者理清楚 MCP 和 LLM 之间的关系,已经如何实际落地使用 MCP。
大模型RAG从零学习笔记
RAG为LLM提供了从某些数据源检索到的信息,并基于此修正生成的答案。RAG基本上是Search + LLM提示,通过大模型回答查询,并将搜索算法所找到的信息作为大模型的上下文,查询和检索到的上下文都
DeepSeek R1 + ollama + ragflow 使用 docker 部署(Windows)
DeepSeek R1 + ollama + ragflow 使用 docker 部署(Windows)
Dify 实战:纯内网dify插件离线安装解决
Dify是一款开源的大语言模型(LLM)应用开发平台,旨在简化生成式AI应用的开发、集成和部署过程。
RAG知识库:Dify和ChatWiki的优劣势比较?Dify和ChatWiki对比
Dify是一个全面的大语言模型应用开发平台,支持复杂工作流、多模型协作与企业级知识治理。提供 AI 工作流、RAG 管道、Agent、模型管理等丰富功能组件,能深度定制 AI 应用。
本地AI知识库问答开源技术实现(三)--配置模型和知识库
通过三篇内容将最近学的内容梳理了一遍,从基本概念理解,到动手搭建,再到参数调整,最终达到一个基本可用的状态,所有数据都在内网流转;效果没有想像中的那么完美,但是用于知识库是可行的。
本地AI知识库问答开源技术实现(二)--配置模型和知识库
目录 一、安装和准备 二、配置模型和知识库 三、助手搭建和使用 配置大模型 Dify 启动后,默认为空的,从 v1.0.0 开始所有模型库(包括 Ollama )都要通过 插件 的形式安装 在 插件
下一页
个人成就
文章被点赞
10
文章被阅读
4,869
掘力值
831
关注了
4
关注者
12
收藏集
0
关注标签
1
加入于
2021-06-07