首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
关注
综合
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
排行榜
综合
后端
排行榜
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
全部
人工智能
AIGC
LLM
AI编程
后端
OpenAI
Agent
算法
前端
展开
全部
人工智能
AIGC
LLM
AI编程
后端
OpenAI
Agent
算法
前端
Trae
Python
程序员
MCP
LangChain
深度学习
暂无数据
推荐
最新
🚫万能Agent兜底:当规划缺失工具时,AI如何自救
在多智能体协作调度场景中,尽管存在诸如层级指挥、嵌套模式、转交模式和群聊模式等多种实现方式,但层级指挥模式仍是生产环境中最常用的方式。该模式通常由主代理生成任务拆分,调度工具或子智能体分别执行,类似
🌟大模型为什么产生幻觉?预训练到推理的漏洞全揭秘
随着大模型迅猛发展的浪潮中,幻觉(Hallucination)问题逐渐成为业界和学术界关注的焦点。所谓模型幻觉,指的是模型在生成内容时产生与事实不符、虚构或误导性的信息。因此,如何识别、抑制甚至消除幻
别乱装!Ollama×DeepSeek×AnythingLLM一键本地AI知识库,快人10倍
我会教大家快速通过Ollama+DeepSeek+AnythingLLM这套组合拳,轻松在自己的电脑上搭建一个媲美ChatGPT的私人知识库,既享受AI的强大能力,又完全掌控自己的数据安全。
大模型应用开发到底有多赚钱?看完这5个真实案例,你会惊掉下巴
如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。
8GB显存笔记本能跑多大AI模型?这个计算公式90%的人都不知道!
虽然推理时还需要一定显存做上下文缓存,但加上量化和推理优化,本地8GB显存的笔记本可以流畅运行4B模型,16GB显存笔记本跑8B模型完全OK!
302.AI 实战指南丨将任意 API 转为 MCP Server,释放 AI 生产力
如果每次查数据、改状态、触发工作流,都需要你离开聊天窗口,去翻 API 文档、写 curl 命令或者跑一个单独的脚本,那 Chat 的效率其实大打折扣。真正的集成,应该是让工具主动适配你的工作流程..
18岁女孩做养老机器人,上线2天卖爆了
18 岁,创业做机器人,还卖爆单了! (你的童年我的童年好像不一样) 这款名为 Sam 的养老机器人,就是 18 岁女孩 Audrey Lo 和她的两个同龄朋友的创业产品。
🌈多感官AI革命:解密多模态对齐与融合的底层逻辑
多模态学习模拟人类认知过程——例如描述电影时,我们不会孤立地评价画面或音乐,而是综合视觉、听觉和剧情信息形成整体感受。但是,这要求模型从单模态处理(如仅分析图像或文本)进化到多模态协同,能同时理解和关
RAG 真的不聪明?其实它只是缺了这一步……
听起来很完美对吧?但问题是—— 召回的候选文档质量参差不齐,真正相关的往往只有少数几个。这时候就需要一个关键角色登场了: ✨ Rerank(重排序)模型。
⭐精准率暴跌50%?RAG开发者必避的十大认知误区
在RAG(检索增强生成)系统开发中,技术选型与场景适配的合理性直接决定系统性能。今天我将基于企业级实践经验,系统化拆解开发全流程的十大关键误区,并提供四维优化框架,助力开发者构建高精度、高可用的R
👀10分钟搞懂RAG架构:离线索引+在线检索的闭环秘密
RAG的检索增强生成(Retrieval-Augmented Generation, RAG)技术,一直是不少人研究和优化的方向,RAG通过整合外部知识库来增强模型能力,特别适用于实时性、准确性和专业
普通人如何借助 Agentic RAG 打造全智能化电商客服与客户沟通体系
如果说传统 RAG 是“有问必答”的字典,那么 Agentic RAG 就是“懂你所想”的智能助理。它不再是冷冰冰的工具,而是一个可以 自主学习、自主决策、自主优化 的“虚拟员工”。
⚡从单机到分布式:双MCP服务器负载架构详解
LangGraph 被广泛认为是构建生产级代理系统的首选。今天我们将通过深度研究助手这个示例,深入探讨 LangGraph 的工作流程和 MCP 的集成模式。如果对你有所帮助,记得告诉身边有需要的朋友
💥下一代推理引擎:vLLM如何重塑AI服务架构?
作为分布式大模型推理引擎,vLLM通过分页注意力、连续批处理等核心技术实现高吞吐与低延迟。今天我将深度解析其架构设计。如果对你有所帮助,记得告诉身边有需要的朋友。 一、核心引擎架构 1.1
Claude 断供中国之际,Kimi-K2-0905 低调上线:时势造英雄
继 7 月开源万亿参数模型 Kimi K2 后,月之暗面(Moonshot)于今日又正式抛出了其最新版本 Kimi-K2-0905。
Embedding Gemma,谷歌发布的小而精向量模型,仅需0.3B|附RAG实战代码
EmbeddingGemma是Google发布的开源小规模多语言文本嵌入模型,旨在常见设备上高效运行,同时在 MTEB / MMTEB 等评测任务中保持与同类模型相当的性能
🤖告别复杂粘合代码:LangGraph+OceanBase构建智能Agent蓝图
不知道你们有没有遇到过,在我们一些实际落地的AI项目中,虽然前期“Demo 很惊艳,但上线后却无人问津”。你们有没有想过问题究竟在哪?今天我将从企业级 AI 应用的真实场景切入,并通过一个Demo构建
🌸万字解析:大规模语言模型(LLM)推理中的Prefill与Decode分离方案
在LLM推理计算中Prefill和Decode两个阶段的计算/显存/带宽需求不一样,通常Prefill是算力密集,Decode是访存密集。一些场景中P和D两者分开计算可提升性能。vLLM是一种主流的推
n8n入门指南:强大的自动化工作流工具
n8n是一个强大的工作流自动化工具,允许用户通过可视化方式连接不同的应用程序和服务。它将AI功能与业务流程自动化相结合,它可以帮助开发者和非技术人员创建复杂的工作流,实现数据在不同系统间的自动传输和处
✅5大实战技巧:优化RAG召回质量,避免“召回不足”灾难!
在垂直行业(金融风控)系统的开发中,我们团队曾因RAG召回文档不准确导致合规报告生成错误。这个惨痛教训让我们意识到:把RAG跑通只需要三天,但让召回精准却需要三个月。今天我将分享踩坑经验,聚焦