首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
AI
订阅
鬼草大哥
更多收藏集
微信扫码分享
微信
新浪微博
QQ
10篇文章 · 0订阅
DeepSeek+Dify打造数据库查询专家
用Dify+DeepSeek打造智能SQL查询;做了一个自然语句生成项目相关sql语句的一个demo(生成正确的还需要大量调试纠错
Llama + Dify,在你的电脑搭建一套AI工作流
最近字节在推Coze,那么有没有可能在本地也部署一套这个东西呢?嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿
18家平台接入 DeepSeek R1 满血版,无限免费用(爆肝整理篇)。
受 DeepSeek R1 模型强大的推理思考能力,及其开源的特性,现如今国内外各大 AI 级应用或平台,相继接入了 DeepSeek R1 671B满血版,将 DeepSeek 官方人流量引入各家平
ollama+dify自建AI知识库
fastgpt要结合oneapi才能对接到ollama,所以这里用dify,一键部署就好 这里部署在windows服务器上 驱动+cuda+cuDNN win10自动装好了显卡驱动,需要手动把cuda
LLM+本地知识库?简单又没那么简单
最近在研究如何将大语言模型结合本地知识库进行问答,虽然网上已经有很多教程,但大部分都是基于LangChain进行文本分割,然后调用模型向量化的API。这种方式的确很简单,但有这么几个前提: 大模型不使
使用xinference快速部署本地模型
Xinference是一个可以部署本地大模型的平台,类似于ollama、localai,界面简洁操作方便,是一款很好用的本地大模型平台。
不用本地部署,快速用上满血版DeepSeek-R1
由于最近 DeepSeek 遭受了大规模、持续的恶意攻击,导致 DeepSeek 的服务器很不稳定。 再和 AI 对话时,经常会出现「服务器繁忙」的情况。 还有什么办法可以稳定的使用DeepSeek?
DeepSeek + Dify :零成本搭建企业级本地私有化知识库保姆级教程
最近,DeepSeek大火,想必大家都有所耳闻,各路媒体从各个方面报道了DeepSeek这家神秘的公司的各方面消息,这家低调的技术公司用一组硬核数据回应了所有关注:千亿参数规模下实现0.5元/百万to
全网最全(语音版)-如何免费把deepseek模型部署到本地
前沿 如何免费把deepseek模型部署到本地,不需要联网,你也可以流程的使用deepseek r1模型。 春节期间,DeepSeek一夜之间,全球爆火,成为了众矢之的。先是意大利,直接把DeepSe
DeepSeek R1 简单指南:架构、训练、本地部署和硬件要求
DeepSeek推出的LLM推理新策略 DeepSeek最近发表的论文DeepSeek-R1中介绍了一种创新的方法,通过强化学习(RL)提升大型语言模型(LLM)的推理能力。这项研究在如何仅依靠强化学