首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
ChatGPT与大模型研究
数据智能老司机
创建于2023-05-22
订阅专栏
生成式AI探索和研究,场景落地。
等 142 人订阅
共587篇文章
创建于2023-05-22
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
构建自然语言与大语言模型(LLM)流水线——部署基于 Haystack 的应用
在上一章中,我们使用 Haystack 的 RAG 工具构建了一条稳健的问答(Q&A)Pipeline。我们重点关注的是如何打造一个可复现且可扩展的系统,并将评估指标与反馈回路整合进来,以持续提升模型
构建自然语言与大语言模型(LLM)流水线——构建可复现、生产就绪的 RAG 系统
在前几章中,我们踏上了一段以实践为导向的旅程,来掌握 Haystack 框架。在第 4 章中,我们将 Haystack 的预定义组件组装成了强大的端到端 Pipeline,分别构建了一个朴素 RAG
构建自然语言与大语言模型(LLM)流水线——使用自定义组件进行 Haystack Pipeline 开发
在前几章中,我们的重点一直是:把预定义组件组装进 Pipeline,以实现特定目标——从数据摄取,到结合 Agent 的高级 RAG。本章标志着能力层级上的一次关键跃迁:从 Haystack 框架的使
构建自然语言与大语言模型(LLM)流水线——将组件整合起来:面向不同使用场景的 Haystack Pipeline
在上一章中,我们介绍了 deepset 的 Haystack——一个用于管理 LLM 相关项目端到端生命周期的健壮框架。这其中涵盖了 OpenAI 的 GPT、Hugging Face 的 Trans
构建自然语言与大语言模型(LLM)流水线——deepset 出品的 Haystack 入门介绍
在上一章中,我们概览了 LLM 领域中的前沿模式:从提示工程(prompt engineering)到上下文工程(context engineering),从 LLM 向小模型(SLM)与推理模型(r
构建自然语言与大语言模型(LLM)流水线——深入理解大语言模型
上一章帮助我们建立了一个概念基础,使我们能够通过流水线和生成式 AI 项目生命周期来解决与 LLM 相关的问题。 在本章中,我们将进一步深化对 LLM 的理解,追踪它们从 2023 年基础基线演化到
构建自然语言与大语言模型(LLM)流水线——自然语言处理流水线导论
在传统数据科学中,设计并实现数据流水线至关重要,因为这能确保企业和公众可以从数据中获得可靠洞察。数据流水线使我们能够系统化地提取信息,并对其进行处理,以供后续使用。 随着自然语言处理(NLP)的发展以
GPT-5.4发布,AI的最强之争已经结束了!
GPT-5.4发布了。 但看完GPT-5.4的数据之后,我还是决定写。不是因为它有多强,而是因为我发现了一个更有意思的事。我打开了三个网页:OpenAI的博客、Anthropic的定价页、Google
呕心沥血肝出来的,奉献给你们的龙虾了:OpenClaw Agent System Prompt 架构详解(9层)
整体架构图 快速导航(TL;DR) 新手必读: Layer 7(Workspace Files)- 你能直接编辑的配置文件 Layer 8(Bootstrap Hook)- 你能写脚本动态注入内容 其
OpenClaw System Prompt 的"九层塔":一个 AI Agent 的完整人格是怎么组装出来的?
如果你以为 AI Agent 的"人格"是一个简单的文本文件,那就太天真了。 实际上,OpenClaw 的每个 Agent 在回答你之前,都会先"吃下"一个 几十KB 的超级说明书——这就是传说中的龙
亲测!Openclaw高级Skills分享,内含最全Skills教程
最近朋友圈和各大社群是不是都被Openclaw刷屏了,熬了几个大夜部署完,以为小龙虾已经变成了全能AI管家,结果~~ 发现它只会陪聊 !!! 别急,问题根本不是出在各家大模型智商上,而是——Skill
用 Claude Code 抓取数据的九种方式
把 Claude Code 用在“抓取数据(scraping)”上,是最简单、也最有用的任务之一。 不过,要让 Claude Code 抓取数据的效果达到最优,取决于你是否给了它正确的“提示(nudg
使用 MCP 与 A2A 设计多智能体 AI 系统——高级主题与未来方向
我们在本书中已经覆盖了大量内容:从多智能体系统的基础概念,到实际实现与部署策略。现在正适合把目光投向即将到来的变化。我们非常“幸运”地生活在所谓的奇点时期——历史上技术进步速度快到一种程度,以至于人类
使用 MCP 与 A2A 设计多智能体 AI 系统——部署多智能体系统
在上一章中,我们讨论了多智能体系统的测试、调试与故障排查。我们探索了诸如幻觉(hallucination)与工具误用(tool misuse)等常见失效模式、监控与可观测性(instrumentati
使用 MCP 与 A2A 设计多智能体 AI 系统——多智能体系统的测试、调试与故障排查
在上一章中,我们构建了 MAKDO——一个用于 Kubernetes DevOps 的完整多智能体系统。我们看到 Coordinator、Analyzer、Fixer 和 Slack_Bot 智能体如
使用 MCP 与 A2A 设计多智能体 AI 系统——使用 A2A 实现多智能体系统
DevOps 实践通过打破组织孤岛、实现持续集成、持续部署与持续监控,彻底改变了软件开发与运维方式。然而,随着系统愈发复杂与分布式,传统 DevOps 方法在可扩展性上开始面临挑战。多智能体 AI 系
使用 MCP 与 A2A 设计多智能体 AI 系统——多智能体系统设计
虽然单智能体系统已经能完成非常惊艳的任务,但许多真实世界问题需要多个具备不同专长的智能体协同工作才能解决。本章聚焦于设计多智能体 AI 系统,使其能够协作解决任何单一智能体都难以胜任的复杂问题。 多智
使用 MCP 与 A2A 设计多智能体 AI 系统——与 Model Context Protocol(MCP)生态系统集成
在前几章中,我们探讨了如何构建智能体 AI 系统、如何将其与自定义工具集成,以及如何通过不同前端(如命令行界面(CLI)、Slack bot、基于 Chainlit 的 Web UI)与其交互。本章我
使用 MCP 与 A2A 设计多智能体 AI 系统——使用 Slack 和 Chainlit 创建聊天界面
在上一章中,我们探讨了 AI-6 的内部工具架构——工具如何被定义、注册与执行。强大的后端固然重要,但一个智能体 AI 系统的真正潜力,需要通过“让人类能够与自主智能体高效协作”的接口才能被释放出来。
使用 MCP 与 A2A 设计多智能体 AI 系统——实现自定义工具
在上一章中,我们详细探讨了 AI-6 框架的后端架构,重点关注引擎如何编排智能体循环(agentic loop)、管理记忆与会话状态(session state),以及如何与多个 LLM 提供商和工具
下一页