获得徽章 0
- 我感觉豆包能满足我的日常生活中的大部分 ai 使用场景了,不需要特别高级的大模型。
豆包好像从一开始就是一个 “AI 智能体”,不是一个“大模型客户端”。
大模型客户端会把大模型放在第一位,用户是在和大模型对话。
AI 智能体中,第一位就是智能体本身,用户使用的是智能体,不是智能体背后的大模型。
面向专业用户的智能体会暴露大模型供用户选择,比如 cursor.
面向普通用户的智能体,的确没必要暴露大模型,对用户来说,知道智能体就够了,不需要知道大模型。展开评论点赞 - #ai改变日常工作
需求:检查项目中的所有文件,哪些文件中包含中文注释
文件不多时,通常做法是人肉查找,也没觉得多费劲,但是毕竟浪费时间,而且不可持续。
自己写一个脚本,对于写脚本熟练的开发者,需要几分钟时间,但是如果不熟练,需要更长时间,而且会消耗脑力。
有了 AI 后,直接让 AI 实现,不到 1 分钟搞定。展开评论点赞 - AI 搜索出现后,使用 AI 搜索越来越多,使用 Google 搜索越来越少。最近使用 Google 搜索,发现 AI 回答改进了许多。很多场景(比如简单的问题)又可以回到 Google 搜索了。评论点赞
- RAG 的基本流程
1 创建向量数据库(知识库):输入文本 - 使用 embedding 模型将文本转化成向量 - 存入向量数据库
2 提问:用户和 ai 说话提问
3 检索:将提问文本使用 embedding 模型转化成提问向量,并在数据库中检索,返回相关的文本段
4 拼接 prompt: 将提问文本和检索到的文本段拼接成最终 prompt 文本
5 调用大模型:使用 prompt 调用大模型,返回最终回答展开赞过22 - 通过 Web HTTP 来理解 MCP:
HTTP 之前,互联网APP 开发成本很高。
HTTP 出现后,有了统一协议,互联网APP 开发成本变低了。
随后,出现了 Web 浏览器,客户端和服务端实现了分离,APP 只需要开发“服务端“。
再后来,随着基础设施的不断完善,有些 APP 离开了浏览器,也做了自己的客户端。
MCP 出现之前,AI 应用开发成本很高。
MCP 出现后,有了统一协议,AI 应用开发成本变低了。
现有的各个 APP 会可能会支持 MCP, 变成 MCP 服务。
现在的各种 AI Chat 应用可能会进化成 AI 浏览器,用户通过 AI 浏览器访问这些 MCP 服务。
MCP 服务不仅在互联网,也可以在本地( 比如本地的 Blender 支持 MCP 后,可以被 Claude Desktop 使用 )。
如果未来使用大模型的成本变得很低(操作系统内置本地大模型,或是服务商独立部署自己的大模型),那么 APP 也可以不依赖 AI 浏览器,自己做AI 客户端。展开评论点赞
![[哭笑]](http://lf-web-assets.juejin.cn/obj/juejin-web/xitu_juejin_web/img/jj_emoji_61.a296509.png)