首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
关注
综合
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
排行榜
综合
后端
排行榜
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
全部
人工智能
AI编程
后端
LLM
AIGC
MCP
Python
前端
算法
展开
全部
人工智能
AI编程
后端
LLM
AIGC
MCP
Python
前端
算法
OpenAI
Trae
面试
程序员
机器学习
Cursor
暂无数据
推荐
最新
RAG轻松通-P4:检索
描述了模长-方向对于向量比较的影响,介绍了检索的两种方式与混合检索模式。介绍了Top-K的权衡与Re-ranking
怎么通俗易懂地理解AI大模型微调?一篇大白话文章解释模型微调!
什么是微调? 微调就是在已经训练好的大模型基础上,用你自己的数据继续训练,让模型更符合你的特定需求。 CPT(ContinualPre-Training)继续预训练最基础的微调方式。你拿到一个预训练好
Telegram DeepSeek Bot 重磅升级:轻松整合 MCP Server,解锁无限能力!
Telegram DeepSeek Bot 重磅升级:轻松整合 MCP Server,解锁无限能力! 各位开发者、效率工具爱好者们,大家好! 你是否曾为 Telegram DeepSeek Bot 强
AI大模型应用开发入门(三)LangChain开发RAG增强检索生成
本文将使用 LangChain 搭建一个完整的 RAG 流程,以 PGVector 作为向量数据库,并借助 LangGraph 构建状态图来管理整个流程的控制逻辑。
AI大模型应用开发(四)用LangChain构建带Agent流程的RAG系统
本文将通过一个完整的示例,演示如何使用 LangChain 构建一个融合“RAG + Agent”的问答系统。所附代码具备良好的可复用性,旨在帮助读者快速实现并部署智能应用。
🔥 Transformers实战:Text分类×SQuAD问答×CoNLL实体识别(含超参调优方案)
本文将通过代码实战带你快速掌握NLP三大核心任务,使用Hugging Face Transformers库实现工业级AI应用开发。
LangChain篇-多数据源集成
LangChain 与各种数据源有数百个集成,可以从中加载数据:Slack、Notion、Google Drive 等。 每个文档加载器都有自己特定的参数,但它们可以通过相同的方式使用 .load 方
LangChain篇-多类型文本分割
在处理文本数据时,文本分割是一个重要的步骤,尤其是在处理长文本或将文本数据输入到机器学习模型中时。LangChain 是一个用于构建大型语言模型应用程序的库,它提供了多种工具和策略来处理文本分割。下面
💡 图解Transformer生命周期:训练、自回归生成与Beam Search的视觉化解析
本文深入解析Transformer模型的训练与推理机制,通过可视化图解和完整代码实现,系统讲解训练过程、自回归生成原理以及Beam Search优化策略。
微调篇--HF-transformers快速入门
现在做 NLP 方面的研究实在离不开预训练语言模型,尤其是 BERT。 huggingface 的 transformers 包是目前使用 BERT 最主流最方便的工具之一 注:由于官方文档和网页时常
Mac Mini M4 16G 内存本地大模型性能横评:9 款模型实测对比
m4 本地大模型横向对比,谁会是最终的胜出者? 测试问题 问题 1:你好,韩国电视剧“请回答 1988”讲的是什么? 问题 2:What is the TV series "Game of Thron
DeepSeek 技术原理详解
引言 DeepSeek是一种基于Transformer架构的大型语言模型,它在自然语言处理领域展现出了卓越的性能。本文将深入探讨DeepSeek的技术原理,包括其架构设计、训练方法和优化策略,并结合代
OpenAI重磅更新:o3-pro模型震撼登场,价格暴降80%
兄弟们,OpenAI最近又放大招了!两项重大更新:o3模型的价格直降80%;发布了全新的o3-pro模型。
自己开发 MCP 服务器
一、前言 MCP 已经火了一段时间了,目前也有许多现有的 MCP 服务器。今天我们要做的是自己开发一个 MCP 服务器,并编写 MCP 客户端,调用 MCP 服务器。并使用本地大语言模型与之联动。 除
逐个token太慢!大模型原生并行出token,CMU、英伟达新作Multiverse
众所周知,大语言模型的参数量越来越大,算力需求也越来越可怕,然而因为「祖宗之法」,推理只能一个一个 token 按顺序来。 对此,卡耐基梅隆大学(CMU)Infini-Al-Lab 的研究人员拿出了「
⚙️企业级Transformer优化:混合精度×梯度裁剪×权重初始化最佳实践
一、自注意力机制:Transformer的核心突破 核心思想:让每个位置都能关注序列中所有位置的信息 1.1 Query-Key-Value 抽象模型 QKV角色解析: Query(查询):当前关注的
Masked LM革命:解析BERT如何用15%掩码率颠覆NLP预训练
本文全面解析BERT的核心机制,深入讲解Masked Language Modeling和Next Sentence Prediction预训练任务。
MCP方案会比function call调用慢吗?
接上篇 在对比 MCP协议 和传统 Function Calling(如OpenAI方案) 的性能时,MCP方案通常会更慢,但牺牲部分速度换来了灵活性和扩展性。以下是具体原因分
实践大语言模型:60 行 NumPy 代码实现 GPT-2
本项目是基于 NumPy 的 GPT-2 极简实现,其核心逻辑代码仅 60 行。侧重于 GPT-2 基础概念的介绍和代码实现,旨在通过简洁的代码帮助读者理解其核心架构。
MCP工具多了咋办,效率高吗?
接上篇 在MCP协议中,当工具列表(/tools/list返回的结果)非常庞大时,LLM的自动匹配决策确实可能面临挑战,但通过合理的协议设计和优化策略可以解决大部分问题。以下是关键分析和解决方案: