首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
moonless
掘友等级
光学遥感算法工程师
|
唐山市环境科学研究院
本硕GIS,幼儿园小班水平的全栈
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
58
文章 53
沸点 5
赞
58
返回
|
搜索文章
最新
热门
置顶
【AI】A2A vs MCP:智能体协作的“分层协议栈”如何重构AI基础设施?
序言 大家好!今天我们来深入聊聊谷歌最近在Cloud Next大会上发布的那个热门话题——A2A协议。你可能听说了,它是关于“智能体之间无缝协作”的,但心里或许会犯嘀咕:“这听起来和我用过的LangC
置顶
【📛MCP】从GUI到API,AI驱动软件自动化的演进之路之“MCP协议”
🟡 GUI迈向API(MCP协议诞生前) GUI:直观界面,面向人类,封装好每次交互背后的路径。 API:抽象代码,面向机器,提供API接口,供程序调用。 对于非计算机专业的朋友,你平时使用的软件(如
🌈Transformer说人话版(二)位置编码 【持续更新ing】
🟡序章:Transformer的并行缺陷 Transformer有超强的视力,它的核心武器——自注意力机制正是让它能一步到位地处理句子中的所有词,计算它们之间错综复杂的关系,这比 RNN/LSTM 那
🌈Transformer说人话版(一)先弄懂向量【持续更新ing】
🟡世界的语言——向量 人工智能的核心挑战,在于将人类世界中海量的、非结构化的信息——文字、图像、声音——翻译成机器能够进行计算的符号。在所有可能的数学对象中,向量就成为了这门通用语言的基石,将世间万物
没有目标函数之外的世界:AI为何永远不能“自主”?AI可以“装出”自由意志吗?
现代AI的智能本质就是对概率分布的建模与优化。无论是生成式模型(如GPT、DALL·E)还是强化学习系统(如AlphaGo),其核心都在于通过大规模参数和数据,逼近复杂数据分布,从而在特定任务上适应。
LLM这个谎话精!给你的究竟是解释,还是推理?——CoT的局限与陷阱
引言 想象一下,你在调试一个大语言模型LLM,输入一句指令,却发现模型的回答似乎在“掩饰”什么。比如,你问:“达拉斯所在州的首府是哪座城市?”模型回答:“达拉斯在得克萨斯州,首府是奥斯汀。
带你从本质上理解RAG的哲学,思考为什么有了RAG依然需要SFT
为何有了RAG还需要微调 RAG技术实现了基于外部知识库的问答,还需要对大语言模型进行微调吗? 首先要理解RAG固有局限性,本质就是把自然语言变为向量,那就得知道变成向量的两种方式:稀疏表示 or 稠
【AI的基建】 8卡 GPU 服务器与 NVLink/NVSwitch 互联技术
🟡🔘🔴 🟡 PCIe的意义 PCIe是GPU与CPU通信的必备通道,负责系统管理、任务调度和数据传输基础功能;而NVLink是专为GPU间高速通信设计的专用通道,能大幅提升大模型训练效率,但技术上可以
【通往AGI之路】 大模型部署框架Ollma的深度解析(及Langserver发布Agent服务)
🟡 Ollma出现之前 对于大多数开发者和企业而言,将这些强大的LLM集成到实际应用中,并非易事。横亘在理论与实践之间的,是一道复杂的“部署鸿沟”。因为传统的LLM部署,通常需要深入理解深度学习框架(
【AI】MercuryCoder与LLaDA? 自回归模型与扩散模型的碰撞,谁才是未来的LLM答案?
🟡扩散模型 vs 自回归模型 🔘生成逻辑:从"线性雕刻"到"全局雕塑" 自回归模型:像陶艺师傅用拉坯机逐层盘绕泥土制作花瓶——必须从底部开始,每层高度依赖前一层的结果。例如生成句子"春天来了,花儿开了
下一页
个人成就
文章被点赞
74
文章被阅读
9,634
掘力值
728
关注了
3
关注者
32
收藏集
3
关注标签
3
加入于
2024-05-22