首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
雷哥AI工程化
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
5
文章 4
沸点 1
赞
5
返回
|
搜索文章
最新
热门
提示语最佳实践-推理链结果的妙用
直接向大模型提问问题,即便使用提示语也不能很好的得到我们想要的结果,所以我们要考虑使用大模型的思考和推理能力,构建推理链来得到我们想要的答案,并格式化输出。
ReAct必定失败,那应该如何落地Agent?
ReAct框架作为智能体的全能解决方案,通过每一步执行“思考”、“行动”、“观察”、“响应”的循环,有效解决用户问题。 然而,这一看似完美的流程背后却隐藏着一个致命缺陷。
AI coding:不会前端,却开发了个Chrome插件
通过AI Coding开发个Chrome插件,我用了两个小时。记录了整个实战过程,以及如何用好AI Coding。
不懂模型思维?讲透它-单思维链
介绍了一大堆模型思维,包括各个模型的优缺点,以及改进的地方都是什么,最终再用TOT思维树做个项目,开源出来。
能不手动调试吗?自动提示语工程!
调试提示语的过程:调整第一版,然后用一些案例测试一下,然后再调试,再测试。。 如果把这个过程自动化,就可以构建一个自动提示语工程了。
啊!这就是为什么不要微调!
微调是对特定能力的追求,对通用能力的妥协。从5个微调带来的问题来说明为什么不要微调,并给出了如何合理使用模型的最佳方案。
深入理解Agent:从0实现function call
Function的调用时Agent实现很重要的一步,只有了解了这个原理才可以更好的创建Agent。 我将不使用任何langchain等框架或者coze等平台,从0开始构建一个可以调用function的
大话AI模型:无需数学知识,掌握LLM原理
只有认识模型,才能用好模型。 直观地了解模型是如何运行的以及它的能力是如何产生的,不需要用到数学知识。
RAG拉满-上下文embedding与大模型cache
无论怎么选择RAG的切分方案,切分都不准确。补充上下文的embedding的方案,拉满RAG准确度。
智能体-慢思考与反思
模型的最大用处应该在于思考,而不是当作知识库 核心的两个思考是:推理规划和反思 问题场景 直接使用“LLM+线上搜索”效果并不好 原因在于:一些问题过于复杂,需要拆解成子问题后,逐一进行突破才可以解决
下一页
个人成就
文章被点赞
38
文章被阅读
10,147
掘力值
502
关注了
0
关注者
22
收藏集
1
关注标签
5
加入于
2024-07-15