首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
DecryptPrompt
风雨中的小七
创建于2023-02-25
订阅专栏
总结Prompt领域的相关模型
等 43 人订阅
共55篇文章
创建于2023-02-25
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
解密Prompt系列15. LLM Agent之数据库应用设计:DIN & C3 & SQL-Palm & BIRD
这一章我们来唠唠大模型和DB数据库之间的交互方案,除了基于Spider数据集的SOTA方案DIN之外,还会介绍两个改良方案C3和SQL-Palm,以及更贴合实际应用的大规模复杂SQL数据集BIRD。
解密Prompt系列14. LLM Agent之搜索应用设计:WebGPT & WebGLM & WebCPM
本章介绍如何和搜索引擎进行交互的LLM Agent设计,主要包含以下几个模块:搜索改写,事实抽取,聚合推理,行为交互。我们会以WebCPM为基础,同时介绍WebGPT,WebGLM的异同
解密Prompt系列13. LLM Agent指令微调方案: Toolformer & Gorilla
本章介绍基于模型微调,支持任意多工具组合调用,复杂工具调用的方案。工具调用的核心是3个问题:在哪个位置使用工具,使用什么工具,如何生成调用语句 - Gorilla & Toolformer
解密Prompt系列12. LLM Agent零微调范式 ReAct & Self Ask
这一章我们正式进入大模型应用,聊聊如何把思维链和工具使用结合得到人工智能代理。先介绍基于Prompt的零微调方案Self Ask和React,我们会结合langchain写个简单的Agent来玩一玩
解密Prompt系列11. 小模型也能COT-先天不足后天来补
现实场景中考虑成本和推理延时,大家还是希望能用6B的模型就不用100B的大模型。但在前两章反复提到小模型不具备思维链推理能力,那这个能力有可能通过后天训练来获得么?如何让小模型具备COT能力呢?
解密Prompt系列10. 思维链COT原理探究
这一章我们追本溯源,讨论下COT的哪些元素是提升模型表现的核心。结合两篇论文的实验结论,可能导致思维链比常规推理拥有更高准确率的因素有:思维链的推理过程会重复问题中的核心实体;正确逻辑推理顺序的引入
解密Prompt系列9. LLM复杂推理-思维链基础和进阶玩法
这一篇真的是解密prompt!我们会讨论下思维链(chain-of-Thought)提示词究竟要如何写,如何写的更高级,介绍包括few-shot,zero-shot,循序渐进式和一致性COT的写法
解密Prompt系列8. 无需训练让LLM支持超长输入:知识库 & unlimiformer & PCW & NBCE
这一章我们聊聊有哪些方案可以不用微调直接让大模型支持超长文本输入,粉笔介绍显式搜索,unlimiformer隐式搜索,并行输入的PCW,和并行解码的NBCE方案
解密Prompt7. 偏好对齐RLHF-OpenAI·DeepMind·Anthropic对比分析
RLHF是针对有用,无害,事实性等原则,把模型输出和人类偏好进行对齐的一种方案。以OpenAI为基础,本章会对比DeepMind, Anthropic在RLHF步骤中的异同,试图理解RLHF究竟做了啥
解密Prompt系列6. lora指令微调扣细节-请冷静,1个小时真不够~
上一章介绍了如何基于APE+SELF自动化构建指令微调样本。这一章咱就把微调跑起来,主要介绍以Lora为首的低参数微调原理,环境配置,微调代码,以及大模型训练中显存和耗时优化的相关技术细节
解密prompt系列5. APE+SELF=自动化指令集构建代码实现
把AutomaticPromptEngineer指令逆向工程,SELFInstruct指令扩充组个CP,完全依LLM来构建指令微调样本集!在医疗领域经初步尝试了下,附简化代码和可视化应用
解密Prompt系列4. 升级Instruction Tuning:Flan/T0/InstructGPT/TKInstruct
这一章我们聊聊指令微调,模型还是那个熟悉的模型,核心的差异在于指令集和评估侧重点的不同,每个模型只侧重介绍差异点。按时间顺序分别是Flan,T0,InstructGPT, Tk-Instruct
解密Prompt系列3. 冻结LM微调Prompt: Prefix-Tuning &Prompt-Tuning & P-Tuning
这一章我们介绍在下游任务微调中固定LM参数,只微调Prompt的相关模型。这类模型的优势很直观就是微调的参数量小,能大幅降低LLM的微调参数量,是轻量级的微调替代品。
解密Prompt系列1. Tunning-Free Prompt:GPT3 & LAMA & AutoPrompt
借着ChatGPT的东风,我们来梳理下prompt相关模型。开篇我们简单介绍下Prompt,并以其中的Tunning-Free Prompt为线索串联GPT3,LAMA和AutoPrompt
解密Prompt系列2. 冻结Prompt微调LM: T5 & PET & LM-BFF
这一章我们介绍固定prompt微调LM的相关模型,以下按时间顺序介绍,支持任意NLP任务的T5,针对文本分类的两篇PET和LM-BFF