稀土掘金 稀土掘金
    • 首页
    • AI Coding NEW
    • 沸点
    • 课程
    • 直播
    • 活动
    • AI刷题
    • APP
      插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
    • vip
      会员
关注
综合
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
排行榜
综合
后端
排行榜
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
  • 全部
  • 人工智能
  • AI编程
  • 后端
  • LLM
  • AIGC
  • MCP
  • Python
  • 前端
  • 算法
  • 展开
  • 全部
  • 人工智能
  • AI编程
  • 后端
  • LLM
  • AIGC
  • MCP
  • Python
  • 前端
  • 算法
  • OpenAI
  • Trae
  • 面试
  • 程序员
  • 机器学习
  • Cursor
  • 暂无数据
    • 推荐
    • 最新
  • RAG轻松通-P4:检索
    描述了模长-方向对于向量比较的影响,介绍了检索的两种方式与混合检索模式。介绍了Top-K的权衡与Re-ranking
    • 啾啾大学习
    • 6
    • 点赞
    LLM
    RAG轻松通-P4:检索
  • 怎么通俗易懂地理解AI大模型微调?一篇大白话文章解释模型微调!
    什么是微调? 微调就是在已经训练好的大模型基础上,用你自己的数据继续训练,让模型更符合你的特定需求。 CPT(ContinualPre-Training)继续预训练最基础的微调方式。你拿到一个预训练好
    • 智泊AI
    • 6
    • 点赞
    LLM
  • Telegram DeepSeek Bot 重磅升级:轻松整合 MCP Server,解锁无限能力!
    Telegram DeepSeek Bot 重磅升级:轻松整合 MCP Server,解锁无限能力! 各位开发者、效率工具爱好者们,大家好! 你是否曾为 Telegram DeepSeek Bot 强
    • jack_yin
    • 26
    • 点赞
    LLM MCP
    Telegram DeepSeek Bot 重磅升级:轻松整合 MCP Server,解锁无限能力!
  • AI大模型应用开发入门(三)LangChain开发RAG增强检索生成
    本文将使用 LangChain 搭建一个完整的 RAG 流程,以 PGVector 作为向量数据库,并借助 LangGraph 构建状态图来管理整个流程的控制逻辑。
    • AI大模型
    • 19
    • 点赞
    LangChain LLM 程序员
  • AI大模型应用开发(四)用LangChain构建带Agent流程的RAG系统
    本文将通过一个完整的示例,演示如何使用 LangChain 构建一个融合“RAG + Agent”的问答系统。所附代码具备良好的可复用性,旨在帮助读者快速实现并部署智能应用。
    • AI大模型
    • 15
    • 点赞
    LangChain Agent LLM
  • 🔥 Transformers实战:Text分类×SQuAD问答×CoNLL实体识别(含超参调优方案)
    本文将通过代码实战带你快速掌握NLP三大核心任务,使用Hugging Face Transformers库实现工业级AI应用开发。
    • 聚客AI
    • 12
    • 2
    人工智能 LLM 掘金·日新计划
    🔥 Transformers实战:Text分类×SQuAD问答×CoNLL实体识别(含超参调优方案)
  • LangChain篇-多数据源集成
    LangChain 与各种数据源有数百个集成,可以从中加载数据:Slack、Notion、Google Drive 等。 每个文档加载器都有自己特定的参数,但它们可以通过相同的方式使用 .load 方
    • LLM大模型
    • 16
    • 点赞
    LLM 程序员 人工智能
  • LangChain篇-多类型文本分割
    在处理文本数据时,文本分割是一个重要的步骤,尤其是在处理长文本或将文本数据输入到机器学习模型中时。LangChain 是一个用于构建大型语言模型应用程序的库,它提供了多种工具和策略来处理文本分割。下面
    • LLM大模型
    • 11
    • 点赞
    LLM 程序员 人工智能
  • ​​💡 图解Transformer生命周期:训练、自回归生成与Beam Search的视觉化解析​
    本文深入解析Transformer模型的训练与推理机制,通过可视化图解和完整代码实现,系统讲解训练过程、自回归生成原理以及Beam Search优化策略。
    • 聚客AI
    • 1.7k
    • 2
    人工智能 LLM 掘金·日新计划
    ​​💡 图解Transformer生命周期:训练、自回归生成与Beam Search的视觉化解析​
  • 微调篇--HF-transformers快速入门
    现在做 NLP 方面的研究实在离不开预训练语言模型,尤其是 BERT。 huggingface 的 transformers 包是目前使用 BERT 最主流最方便的工具之一 注:由于官方文档和网页时常
    • DeepSeek忠实粉丝
    • 9
    • 点赞
    LLM 程序员 人工智能
  • Mac Mini M4 16G 内存本地大模型性能横评:9 款模型实测对比
    m4 本地大模型横向对比,谁会是最终的胜出者? 测试问题 问题 1:你好,韩国电视剧“请回答 1988”讲的是什么? 问题 2:What is the TV series "Game of Thron
    • Alang
    • 237
    • 1
    前端 AIGC LLM
    Mac Mini M4 16G 内存本地大模型性能横评:9 款模型实测对比
  • DeepSeek 技术原理详解
    引言 DeepSeek是一种基于Transformer架构的大型语言模型,它在自然语言处理领域展现出了卓越的性能。本文将深入探讨DeepSeek的技术原理,包括其架构设计、训练方法和优化策略,并结合代
    • 顾林海
    • 37
    • 1
    DeepSeek LLM 深度学习
    DeepSeek 技术原理详解
  • OpenAI重磅更新:o3-pro模型震撼登场,价格暴降80%
    兄弟们,OpenAI最近又放大招了!两项重大更新:o3模型的价格直降80%;发布了全新的o3-pro模型。
    • 大鲸鱼crush
    • 34
    • 点赞
    LLM
  • 自己开发 MCP 服务器
    一、前言 MCP 已经火了一段时间了,目前也有许多现有的 MCP 服务器。今天我们要做的是自己开发一个 MCP 服务器,并编写 MCP 客户端,调用 MCP 服务器。并使用本地大语言模型与之联动。 除
    • ZackSock
    • 106
    • 2
    MCP Ollama LLM
  • 逐个token太慢!大模型原生并行出token,CMU、英伟达新作Multiverse
    众所周知,大语言模型的参数量越来越大,算力需求也越来越可怕,然而因为「祖宗之法」,推理只能一个一个 token 按顺序来。 对此,卡耐基梅隆大学(CMU)Infini-Al-Lab 的研究人员拿出了「
    • 机器之心
    • 30
    • 2
    人工智能 LLM
  • ⚙️企业级Transformer优化:混合精度×梯度裁剪×权重初始化最佳实践​
    一、自注意力机制:Transformer的核心突破 核心思想:让每个位置都能关注序列中所有位置的信息 1.1 Query-Key-Value 抽象模型 QKV角色解析: Query(查询):当前关注的
    • AI大模型技术社
    • 122
    • 1
    人工智能 LLM
    ⚙️企业级Transformer优化:混合精度×梯度裁剪×权重初始化最佳实践​
  • Masked LM革命:解析BERT如何用15%掩码率颠覆NLP预训练
    本文全面解析BERT的核心机制,深入讲解Masked Language Modeling和Next Sentence Prediction预训练任务。
    • 聚客AI
    • 789
    • 1
    人工智能 LLM 掘金·日新计划
    Masked LM革命:解析BERT如何用15%掩码率颠覆NLP预训练
  • MCP方案会比function call调用慢吗?
    接上篇 在对比 ​​MCP协议​​ 和传统 ​​Function Calling(如OpenAI方案)​​ 的性能时,​​MCP方案通常会更慢​​,但牺牲部分速度换来了灵活性和扩展性。以下是具体原因分
    • 杨昆
    • 49
    • 点赞
    LLM
  • 实践大语言模型:60 行 NumPy 代码实现 GPT-2
    本项目是基于 NumPy 的 GPT-2 极简实现,其核心逻辑代码仅 60 行。侧重于 GPT-2 基础概念的介绍和代码实现,旨在通过简洁的代码帮助读者理解其核心架构。
    • Layer
    • 44
    • 2
    人工智能 机器学习 LLM
    实践大语言模型:60 行 NumPy 代码实现 GPT-2
  • MCP工具多了咋办,效率高吗?
    接上篇 在MCP协议中,当工具列表(/tools/list返回的结果)非常庞大时,LLM的自动匹配决策确实可能面临挑战,但通过合理的协议设计和优化策略可以解决大部分问题。以下是关键分析和解决方案: ​
    • 杨昆
    • 44
    • 点赞
    LLM
  • 早上好!
    点亮在社区的每一天

    推荐话题 换一换

    #挑战每日一条沸点#
    #挑战每日一条沸点#

    17.8m

    #Trae叕更新了?#
    #Trae叕更新了?#

    431k

    #创作者训练营#

    8.8m

    #每日快讯#

    8.5m

    #MCP 怎么玩#

    310k

    #金石焕新程#

    1.6m

    #每天一个知识点#

    36.4m

    #工作中做得最正确的一件事#
    #工作中做得最正确的一件事#

    284k

    #掘金一周#

    364k

    #新人报道#

    30.5m

    查看更多
    • 用户协议
    • 营业执照
    • 隐私政策
    • 关于我们
    • 使用指南
    • 友情链接
    • 更多人工智能文章
    • 举报邮箱: feedback@xitu.io
    • 座机电话: 010-83434395
    • 京ICP备:18012699号-3
    • 京ICP证:京B2-20191272
    • police 京公网安备11010802026719号
    • ©2025 稀土掘金