首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
关注
综合
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
排行榜
综合
后端
排行榜
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
全部
人工智能
LLM
Agent
AIGC
程序员
OpenAI
AI编程
后端
前端
展开
全部
人工智能
LLM
Agent
AIGC
程序员
OpenAI
AI编程
后端
前端
算法
Python
LangChain
深度学习
架构
计算机视觉
暂无数据
推荐
最新
Anthropic 机械可解释性学习路线
Anthropic 机械可解释性学习路线 机械可解释性(Mechanistic Interpretability, MI)是一个门槛较高的领域,因为它不仅涉及代码,还涉及独特的数学直觉。本计划采用**
从 RAG 到 KAG :结构化思考范式下的复杂推理
本文特邀同济大学特聘研究员、博导、腾讯云 TVP 王昊奋重点探讨从 RAG 到 KAG 的技术演进过程,并分析 KAG 框架如何有效解决传统 RAG 模型的不足。
一文搞懂 LLM 的 Transformer!看完能和别人吹一年
本文不讨论公式,只解读图表,旨在让更多读者看完就能通俗地、成体系地给身边其他人讲清楚 Transformer 工作原理,从而真正理解它究竟为什么如此火爆。
LangChain 核心原理-核心组件&应用开发类型 01
LangChain是一个开源框架,用于开发由大语言模型(LLMs)驱动的应用程序,比如,搭建智能体(Agent)、问答系统(QA)、对话机器人、文档搜索系统、企业私有化知识库等。
Cursor Tab 共享无限车
linux.do 大佬开发的,不知道啥时候就不能用了,且用且珍惜。 原文地址 Cursor 修改程序地址: Releases · wisdgod/cursor-rp 需要下载 modifier 文件,
万人收藏的提示词工程指导白皮书(附中文版)!Google官方出品,看完整个人都通透了
今天想和大家分享一份来自谷歌的技术白皮书《Prompt Engineering》,主题聚焦于“提示词工程”,长达68页的提示词指导。
谷歌这本 68 页提示词手册,才是 Gemini 3 Pro 的完全体「附官方内功心法」
如果只能推荐一份关于 Gemini 3 Pro 的进阶指南,我会毫不犹豫地选择这一份:谷歌官方 68 页提示词工程手册。
AI大模型基础概念扫盲篇:Agent、Token、MoE、RAG、Embedding、对齐、Transformer、预训练、微调
1、Al Agent(智能体) OpenAl对Al Agent的定义是: 以大语言模型为核心驱动,具备自主感知需求、拆解任务、记忆信息、调用工具能力,能端到端完成复杂目标的智能系统。 如果用现实场景类
Langchain 浅出
Langchain 浅出 作者:吴佳浩 最后更新:2025-11-27 适用版本:LangChain v1.0+ 目录 什么是 LangChain 环境准备 核心概念 实战案例 什么是Langchai
3 张动图秒懂 A2A 协议:打造高效 Multi-Agent 协同机制
Google 发布的 A2A (Agent2Agent) Protocol正是为了解决这类问题。其作用未来或许可以和Anthropic 推出的 MCP (Model Context Protocol)
RAG 系统架构设计模式介绍
这个 RAG流 可以被视为由多个子函数组成的图形结构。通过控制逻辑,这些子函数会按预定的顺序执行,同时也能根据需求进行条件判断、分支或循环。
《前端项目技术文档生成器》Prompt(可复用模板)
下面提供你一份 专门为前端项目优化的《技术文档自动生成 Prompt 模板》 ,适用于: React / Vue / Angular / Svelte / Next.js / Nuxt / Vite
Google 官方白皮书Prompt Engineering 深度解读
Google 这份白皮书实际上揭示了一个趋势:Prompt Engineering 正在从一种"玄学调优"转变为可量化、可复用、可协作的"软件工程"学科。
LangChain / LLM 开发中:invoke() 与 predict() 的区别
LangChain / LLM 开发中:invoke() 与 predict() 的区别 作者:吴佳浩 最后更新:2025-11-25 适用版本:LangChain v1.0+ 1. 为什么会有 in
检索增强生成(RAG)与大语言模型微调(Fine-tuning)的差异、优势及使用场景详解
微调大语言模型是利用特定任务或领域的定制数据集,对预训练模型进行调整,而检索增强生成(RAG)则将检索系统与生成模型相结合,动态地将外部的、最新的知识融入生成结果中。
用 llm + SQLite 实现自然语言到 SQL 的智能转换:一个实战案例
在日常开发中,我们经常需要从数据库中查询数据。但对非技术人员来说,写 SQL 查询语句可能是个“噩梦”。而随着大模型的兴起,将自然语言直接转化为 SQL 查询已成为现实。 今天,我将结合 DeepSe
GPUStack v2:推理加速释放算力潜能,开源重塑大模型推理下半场
在大模型推理的下半场,GPUStack v2 不再是简单的模型服务平台,而是高性能推理生态的协调者与赋能者。
用AI这么久了,你知道什么是大模型吗?看这里,3分钟让你入门
你是不是也好奇:为啥元宝、豆包、DeepSeek既能写文案又能解数学题?元宝怎么像“活字典”啥都懂?这些AI聊天助手的背后,都藏着同一个“超级大脑”——LLM(Large Language Model
RAG不会过时,但你需要这10个上下文处理技巧丨Context Engineering
本系列文章,将从上下文工程的不同环节(上下文处理与生成、上下文处理、上下文管理)最新的行业探索与进展,进行解读。
索引 ≠ 检索!RAG 高手都在用的六种知识表示方法
RAG 索引是检索的基础。它是将原始知识转化为可经由相似性查询搜索的数值数据的过程。这些数值数据被称为 嵌入(embeddings),嵌入捕获的是含义,而不仅仅是表面的文本。