稀土掘金 稀土掘金
    • 首页
    • AI Coding NEW
    • 沸点
    • 课程
    • 直播
    • 活动
    • AI刷题
    • APP
      插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
    • vip
      会员
关注
综合
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
排行榜
综合
后端
排行榜
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
  • 全部
  • 人工智能
  • AIGC
  • LLM
  • AI编程
  • 后端
  • OpenAI
  • Agent
  • 算法
  • 前端
  • 展开
  • 全部
  • 人工智能
  • AIGC
  • LLM
  • AI编程
  • 后端
  • OpenAI
  • Agent
  • 算法
  • 前端
  • Trae
  • Python
  • 程序员
  • MCP
  • LangChain
  • 深度学习
  • 暂无数据
    • 推荐
    • 最新
  • ​​🚫万能Agent兜底:当规划缺失工具时,AI如何自救​
    在多智能体协作调度场景中,尽管存在诸如层级指挥、嵌套模式、转交模式和群聊模式等多种实现方式,但层级指挥模式仍是生产环境中最常用的方式。该模式通常由主代理生成任务拆分,调度工具或子智能体分别执行,类似
    • 聚客AI
    • 1.9k
    • 1
    人工智能 Agent LLM
    ​​🚫万能Agent兜底:当规划缺失工具时,AI如何自救​
  • 🌟大模型为什么产生幻觉?预训练到推理的漏洞全揭秘​
    随着大模型迅猛发展的浪潮中,幻觉(Hallucination)问题逐渐成为业界和学术界关注的焦点。所谓模型幻觉,指的是模型在生成内容时产生与事实不符、虚构或误导性的信息。因此,如何识别、抑制甚至消除幻
    • 聚客AI
    • 29
    • 点赞
    人工智能 LLM 掘金·日新计划
    🌟大模型为什么产生幻觉?预训练到推理的漏洞全揭秘​
  • 别乱装!Ollama×DeepSeek×AnythingLLM一键本地AI知识库,快人10倍
    我会教大家快速通过Ollama+DeepSeek+AnythingLLM这套组合拳,轻松在自己的电脑上搭建一个媲美ChatGPT的私人知识库,既享受AI的强大能力,又完全掌控自己的数据安全。
    • AI大模型
    • 19
    • 点赞
    LLM Agent 程序员
  • 大模型应用开发到底有多赚钱?看完这5个真实案例,你会惊掉下巴
    如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。
    • 大模型教程
    • 41
    • 点赞
    LLM 程序员 Agent
  • 8GB显存笔记本能跑多大AI模型?这个计算公式90%的人都不知道!
    虽然推理时还需要一定显存做上下文缓存,但加上量化和推理优化,本地8GB显存的笔记本可以流畅运行4B模型,16GB显存笔记本跑8B模型完全OK!
    • 大模型教程
    • 30
    • 点赞
    LLM 程序员 Agent
  • 302.AI 实战指南丨将任意 API 转为 MCP Server,释放 AI 生产力
    如果每次查数据、改状态、触发工作流,都需要你离开聊天窗口,去翻 API 文档、写 curl 命令或者跑一个单独的脚本,那 Chat 的效率其实大打折扣。真正的集成,应该是让工具主动适配你的工作流程..
    • 302AI
    • 45
    • 点赞
    MCP API LLM
    302.AI 实战指南丨将任意 API 转为 MCP Server,释放 AI 生产力
  • 18岁女孩做养老机器人,上线2天卖爆了
    18 岁,创业做机器人,还卖爆单了! (你的童年我的童年好像不一样) 这款名为 Sam 的养老机器人,就是 18 岁女孩 Audrey Lo 和她的两个同龄朋友的创业产品。
    • 量子位
    • 2.2k
    • 12
    人工智能 LLM
  • 🌈多感官AI革命:解密多模态对齐与融合的底层逻辑
    多模态学习模拟人类认知过程——例如描述电影时,我们不会孤立地评价画面或音乐,而是综合视觉、听觉和剧情信息形成整体感受。但是,这要求模型从单模态处理(如仅分析图像或文本)进化到多模态协同,能同时理解和关
    • 聚客AI
    • 1.9k
    • 1
    人工智能 LLM 掘金·日新计划
    🌈多感官AI革命:解密多模态对齐与融合的底层逻辑
  • RAG 真的不聪明?其实它只是缺了这一步……
    听起来很完美对吧?但问题是—— 召回的候选文档质量参差不齐,真正相关的往往只有少数几个。这时候就需要一个关键角色登场了: ✨ Rerank(重排序)模型。
    • AI大模型
    • 106
    • 点赞
    LLM 程序员 Agent
  • ⭐精准率暴跌50%?RAG开发者必避的十大认知误区
    ​ 在RAG(检索增强生成)系统开发中,技术选型与场景适配的合理性直接决定系统性能。今天我将基于企业级实践经验,系统化拆解开发全流程的十大关键误区,并提供四维优化框架,助力开发者构建高精度、高可用的R
    • 聚客AI
    • 1.9k
    • 1
    人工智能 LLM Agent
    ⭐精准率暴跌50%?RAG开发者必避的十大认知误区
  • 👀10分钟搞懂RAG架构:离线索引+在线检索的闭环秘密
    RAG的检索增强生成(Retrieval-Augmented Generation, RAG)技术,一直是不少人研究和优化的方向,RAG通过整合外部知识库来增强模型能力,特别适用于实时性、准确性和专业
    • 聚客AI
    • 2.4k
    • 6
    人工智能 LLM Agent
    👀10分钟搞懂RAG架构:离线索引+在线检索的闭环秘密
  • 普通人如何借助 Agentic RAG 打造全智能化电商客服与客户沟通体系
    如果说传统 RAG 是“有问必答”的字典,那么 Agentic RAG 就是“懂你所想”的智能助理。它不再是冷冰冰的工具,而是一个可以 自主学习、自主决策、自主优化 的“虚拟员工”。
    • 大模型教程
    • 53
    • 点赞
    Agent LLM 程序员
  • ⚡从单机到分布式:双MCP服务器负载架构详解​
    LangGraph 被广泛认为是构建生产级代理系统的首选。今天我们将通过深度研究助手这个示例,深入探讨 LangGraph 的工作流程和 MCP 的集成模式。如果对你有所帮助,记得告诉身边有需要的朋友
    • 聚客AI
    • 2.6k
    • 6
    人工智能 MCP LLM
    ⚡从单机到分布式:双MCP服务器负载架构详解​
  • 💥下一代推理引擎:vLLM如何重塑AI服务架构?
    作为分布式大模型推理引擎,vLLM通过分页注意力、连续批处理等核心技术实现高吞吐与低延迟。今天我将深度解析其架构设计。如果对你有所帮助,记得告诉身边有需要的朋友。 ​​一、核心引擎架构​​ ​​1.1
    • 聚客AI
    • 2.1k
    • 点赞
    人工智能 LLM 架构
    💥下一代推理引擎:vLLM如何重塑AI服务架构?
  • Claude 断供中国之际,Kimi-K2-0905 低调上线:时势造英雄
    继 7 月开源万亿参数模型 Kimi K2 后,月之暗面(Moonshot)于今日又正式抛出了其最新版本 Kimi-K2-0905。
    • 302AI
    • 1.1k
    • 5
    LLM AI编程 人工智能
    Claude 断供中国之际,Kimi-K2-0905 低调上线:时势造英雄
  • Embedding Gemma,谷歌发布的小而精向量模型,仅需0.3B|附RAG实战代码
    EmbeddingGemma是Google发布的开源小规模多语言文本嵌入模型,旨在常见设备上高效运行,同时在 MTEB / MMTEB 等评测任务中保持与同类模型相当的性能
    • 深度学习机器
    • 151
    • 3
    LLM Google OpenAI
    Embedding Gemma,谷歌发布的小而精向量模型,仅需0.3B|附RAG实战代码
  • ​​🤖告别复杂粘合代码:LangGraph+OceanBase构建智能Agent蓝图​​
    不知道你们有没有遇到过,在我们一些实际落地的AI项目中,虽然前期“Demo 很惊艳,但上线后却无人问津”。你们有没有想过问题究竟在哪?今天我将从企业级 AI 应用的真实场景切入,并通过一个Demo构建
    • 聚客AI
    • 1.7k
    • 1
    人工智能 Agent LLM
     ​​🤖告别复杂粘合代码:LangGraph+OceanBase构建智能Agent蓝图​​
  • 🌸万字解析:大规模语言模型(LLM)推理中的Prefill与Decode分离方案
    在LLM推理计算中Prefill和Decode两个阶段的计算/显存/带宽需求不一样,通常Prefill是算力密集,Decode是访存密集。一些场景中P和D两者分开计算可提升性能。vLLM是一种主流的推
    • 聚客AI
    • 609
    • 1
    人工智能 LLM 掘金·日新计划
    🌸万字解析:大规模语言模型(LLM)推理中的Prefill与Decode分离方案
  • n8n入门指南:强大的自动化工作流工具
    n8n是一个强大的工作流自动化工具,允许用户通过可视化方式连接不同的应用程序和服务。它将AI功能与业务流程自动化相结合,它可以帮助开发者和非技术人员创建复杂的工作流,实现数据在不同系统间的自动传输和处
    • CodeDevMaster
    • 36k
    • 34
    LLM 人工智能
    n8n入门指南:强大的自动化工作流工具
  • ✅​​5大实战技巧:优化RAG召回质量,避免“召回不足”灾难!​
    在垂直行业(金融风控)系统的开发中,我们团队曾因RAG召回文档不准确导致合规报告生成错误。这个惨痛教训让我们意识到:​​把RAG跑通只需要三天,但让召回精准却需要三个月​​。今天我将分享踩坑经验,聚焦
    • 聚客AI
    • 1.6k
    • 2
    人工智能 LLM 增强现实
    ✅​​5大实战技巧:优化RAG召回质量,避免“召回不足”灾难!​
  • 晚上好!
    点亮在社区的每一天

    推荐话题 换一换

    #挑战每日一条沸点#
    #挑战每日一条沸点#

    19.9m

    #Trae叕更新了?#
    #Trae叕更新了?#

    692k

    #金石焕新程#

    5.0m

    #每日快讯#

    9.1m

    #MCP 怎么玩#

    655k

    #每天一个知识点#

    40.9m

    #工作中做得最正确的一件事#
    #工作中做得最正确的一件事#

    324k

    #新人报道#

    34.6m

    #掘金一周#

    830k

    #金石计划征文活动#
    #金石计划征文活动#

    36.3m

    查看更多
    • 用户协议
    • 营业执照
    • 隐私政策
    • 关于我们
    • 使用指南
    • 友情链接
    • 更多人工智能文章
    • 举报邮箱: feedback@xitu.io
    • 座机电话: 010-83434395
    • 京ICP备:18012699号-3
    • 京ICP证:京B2-20191272
    • police 京公网安备11010802026719号
    • ©2025 稀土掘金