首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
二哈与木鱼
掘友等级
Java:我还能再抢救一下
获得徽章 7
动态
文章
专栏
沸点
收藏集
关注
作品
赞
286
文章 283
沸点 3
赞
286
返回
|
搜索文章
赞
文章( 283 )
沸点( 3 )
软考高级《系统架构设计师》倒计时40天 复习计划
软考高级《系统架构设计师》倒计时40天 其实前段时间也做了一些计划,然后自己也陆陆续续学了很多内容。 由于本职工作是前端开发,最近加班也多的,所以感觉复习还需要抓紧。 虽然《系统架构设计师》是软考最难
软考高级一次过,我的备考经历分享
今年上半年我首次参加了软考高级考试,报的是系统分析师,最近结果出来了,成绩合格,一次通过。虽然过得很惊险,但是百忙之中挤出时间备考,这个结果我已经满足了。惊喜之余跟大家分享一下我的备考经历和经验教训。
超实用!Dify快速接入本地MCP服务
Dify 可以通过插件实现 MCP 服务调用,而被调用的 MCP 服务基本可以分为以下两类: 通用 MCP 服务(非本地 MCP 服务)。 本地 MCP 服务。 当你会用 Dify 调用本地 MCP
大模型如何突破“认知茧房”?RAG+MCP构建外部脑接口
RAG与MCP:AI大模型进化的黄金双翼 引言: 在大型语言模型(LLM)日臻成熟的今天,如何突破其固有限制成为关键议题。检索增强生成(RAG)与多模态上下文处理(MCP)技术正成为驱动大模型能力跃升
延迟双删如此好用,为何大厂从来不用
Cache-aside下数据变更推荐使用删除缓存的策略,为降低数据不一致通常会配合延迟双删策略。但大厂却很少使用这种方式。背后原因是什么呢?延迟双删策略有致命缺陷么?大厂采用什么策略。
私人影院 - 本地搭建Emby媒体库服务器并在外远程访问 「无需公网IP」
今天,笔者就为大家介绍,如何在Windows系统中,使用Cpolar内网穿透+Emby,搭建自己的私人影音平台。
超实用!用 Ollama + DeepSeek + Dify 搭建本地知识库,提升企业效率
本文介绍了如何使用 Ollama + DeepSeek + Dify 搭建本地知识库,帮助企业高效管理信息。通过简单配置,可实现智能问答、文档检索等功能,提升效率并保障数据安全。
Docker部署全攻略:Ollama安装、本地大模型配置与One-API接入
Ollama 是一款开源工具,允许用户在本地便捷地运行多种大型开源模型,如清华大学的 ChatGLM、阿里的千问以及 Meta 的 Llama 等。它支持 macOS、Linux 和 Windows
Java开发者LLM实战——使用LangChain4j构建本地RAG系统
1、引言 由于目前比较火的chatGPT是预训练模型,而训练一个大模型是需要较长时间(参数越多学习时间越长,保守估计一般是几个月,不差钱的可以多用点GPU缩短这个时间),这就导致了它所学习的知识不会是
我这🤡般的7年开发生涯
我在公司做的大部分是探索性、创新性的需求,行内人都知道这些活都是那种脏活累活,需求变化大,经常一句话;需求功能多,看着简单一细想全是漏洞;需求又紧急,今天不上线业务就要没。 所以第一个建议就是大家远离
下一页
个人成就
文章被点赞
114
文章被阅读
30,014
掘力值
891
关注了
42
关注者
12
收藏集
46
关注标签
63
加入于
2019-11-29