首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
关注
综合
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
排行榜
综合
后端
排行榜
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
全部
人工智能
AI编程
LLM
后端
AIGC
MCP
前端
算法
OpenAI
展开
全部
人工智能
AI编程
LLM
后端
AIGC
MCP
前端
算法
OpenAI
程序员
Python
Trae
深度学习
Cursor
机器学习
暂无数据
推荐
最新
LangGraph官方文档笔记(2)——使用工具增强聊天机器人
为了处理我们的聊天机器人无法“凭借记忆”回答的查询,我们将集成一个网络搜索工具。我们的机器人可以使用此工具查找相关信息并提供更好的回复。 这里的案例使用的是Tavily搜索引擎工具,也就是说,给我们的
大语言模型(LLM)专业术语汇总
关于大型语言模型(LLM)核心术语的技术研究报告,结合专业定义与通俗类比,按逻辑模块分类呈现,汇总为大语言模型(LLM)专业术语
Flux.1 Kontext:用"嘴"来 P 图
一键使用 FLUX.1-Kontext-dev 进行文生图创作。FLUX.1-Kontext-dev 是由 Black Forest Labs 团队于 2025 年 6 月 26 日联合发布的生成与编
从原理到落地:一文彻底搞懂MCP协议与大模型业务集成
一、 MCP协议:大模型和业务系统的“万能插座” 想象一下,大模型是个天才实习生,啥都懂一点,但它不认识你公司的数据库、不会用你内部的报销系统。MCP协议,简单说,就是给这个实习生写了一套标准化的“工
大模型Embedding到底是什么
文本嵌入是将文本数据转换为数值向量 。这种转换使得计算机能够以数学方式理解和处理自然语言。其核心价值在于能够捕捉文本的语义信息,将语义上相似的文本映射到向量空间中相近的位置。
借助 MLC-LLM 打造本地离线聊天助手:中低端设备也能运行大模型
一、引言:为什么要在本地运行大模型? 随着大语言模型(LLMs)技术的迅猛发展,我们越来越多地看到 ChatGPT、Claude、Gemini 等服务在各种云平台上大放异彩。然而,这些模型通常依赖强大
基于LangChain的RAG应用开发(06)-LangChain基础补全-Runnable
LangChain有两个重要的概念:LangChain表达式(LCEL) 、组件。我们使用组件,构建整个RAG应用中各种点单的操作
你应该懂的AI大模型(九)之 Ollama
Ollama 是一款专注于简化大语言模型部署流程的开源工具。它打破了大模型部署的技术壁垒,即使是没有深厚 AI 背景的用户,也能轻松在本地或远程服务器上运行 Llama 2、Mistral、Llama
零基础打造AI智能体实战教学(4)----基于知识库的AI人才库实现
知识库是Coze平台的核心功能之一,它允许开发者或用户上传自己的资料(文档、文本、表格等),并将这些资料转化为 AI 可以理解和使用的知识,从而让 AI 助手(Bot)能够基于这些专属信息回答问题或执
免费下载 | 大模型入门神书---大规模语言模型:从理论到实践(第2版)
如果你问,大模型入门看哪本书?相信无数小伙伴都会推荐这本领域内的神书—— 《大规模语言模型:从理论到实践》 !
零基础打造AI智能体实战教学(3)----基于国内大模型搭建个人全能小助手
扣子集成了丰富插件工具,涵盖资讯阅读、旅游出行等多种类型,官方发布的插件可直接添加到智能体,也支持创建自定义插件。
预训练模型(BERT)是什么?是基于Transformer的双向编码器吗?
一、BERT的本质 BERT架构: 作为预训练语言模型的代表,其核心由多层Transformer编码器构成。 该架构整合了Tokenization技术、多元Embeddings机制以及任务适配的输出层
一文让你重新认识RAG新一代高级架构:检索→重排→压缩→生成全揭秘
引言:掌握工业级RAG系统开发核心技巧,召回率提升65%,推理成本降低40% 一、RAG架构核心问题诊断 企业级应用常见痛点: 单一检索方式导致关键信息遗漏 长文档噪声降低生成质量 模型虚构未检索到的
工业级Transformer优化手册:混合精度训练+量化部署实战解析
一、Transformer训练过程深度剖析 1.1 训练流程全景图 1.2 关键训练技术 1.2.1 教师强制(Teacher Forcing) 1.3 损失函数与优化策略 损失函数选择: 分类任务:
工业级Prompt设计手册:构建高准确率AI应用的10个黄金法则
从理论到实践,掌握Zero-shot/Few-shot Prompt设计精髓。 一、Prompt Engineering 核心概念图解 Prompt Engineering 三大支柱 二、Prompt
「实战指南」90%+准确率的BERT微调:情感分析模型落地指南
从零掌握BERT微调核心技术,一小时构建工业级文本分类模型。 一、文本分类任务全景图 文本分类类型矩阵 二、环境准备与数据加载 输出: 三、BERT数据处理全流程 1. 文本分词与编码 2. 数据集格
🧠 预训练核心解密:Masked Language Model运作原理解析
本文深入剖析大模型迁移学习核心机制,结合Hugging Face实战代码,掌握预训练模型高效应用之道。 一、迁移学习核心概念图解 预训练 vs 微调对比 二、预训练模型深度解析 1. 主流预训练架构
💡 Transformer数据管道:自定义Dataset类+智能批处理最佳实践
本文深入解析大模型开发中的数据预处理全流程,掌握这些技能可处理TB级文本数据,构建工业级数据流水线。 一、环境配置与工具选型 工具对比表 二、大规模文本处理实战(100GB+) 1. 高效数据加载
LLM 系列(五):模型训练篇
大语言模型的训练,不仅仅是一个技术过程,更是人类智慧的结晶与传承。我们通过数学的语言,让机器学会了理解世界的方式;通过算法的力量,让人工智能获得了思考的能力。这个过程既充满挑战,也充满希望。
一文说清:MCP 的9种架构设计模式剖析
MCP充当着AI应用与能力(包括tools、prompts、resources等)的通用桥梁,其作用就好比USB-C接口为各类电子设备建立了统一的连接标准。 MCP通过引入统一标准化的接口,将原本需要