首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
DecryptPrompt
风雨中的小七
创建于2023-02-25
订阅专栏
总结Prompt领域的相关模型
等 53 人订阅
共68篇文章
创建于2023-02-25
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
解密Prompt系列8. 无需训练让LLM支持超长输入:知识库 & unlimiformer & PCW & NBCE
这一章我们聊聊有哪些方案可以不用微调直接让大模型支持超长文本输入,粉笔介绍显式搜索,unlimiformer隐式搜索,并行输入的PCW,和并行解码的NBCE方案
解密Prompt7. 偏好对齐RLHF-OpenAI·DeepMind·Anthropic对比分析
RLHF是针对有用,无害,事实性等原则,把模型输出和人类偏好进行对齐的一种方案。以OpenAI为基础,本章会对比DeepMind, Anthropic在RLHF步骤中的异同,试图理解RLHF究竟做了啥
解密Prompt系列6. lora指令微调扣细节-请冷静,1个小时真不够~
上一章介绍了如何基于APE+SELF自动化构建指令微调样本。这一章咱就把微调跑起来,主要介绍以Lora为首的低参数微调原理,环境配置,微调代码,以及大模型训练中显存和耗时优化的相关技术细节
解密prompt系列5. APE+SELF=自动化指令集构建代码实现
把AutomaticPromptEngineer指令逆向工程,SELFInstruct指令扩充组个CP,完全依LLM来构建指令微调样本集!在医疗领域经初步尝试了下,附简化代码和可视化应用
解密Prompt系列4. 升级Instruction Tuning:Flan/T0/InstructGPT/TKInstruct
这一章我们聊聊指令微调,模型还是那个熟悉的模型,核心的差异在于指令集和评估侧重点的不同,每个模型只侧重介绍差异点。按时间顺序分别是Flan,T0,InstructGPT, Tk-Instruct
解密Prompt系列3. 冻结LM微调Prompt: Prefix-Tuning &Prompt-Tuning & P-Tuning
这一章我们介绍在下游任务微调中固定LM参数,只微调Prompt的相关模型。这类模型的优势很直观就是微调的参数量小,能大幅降低LLM的微调参数量,是轻量级的微调替代品。
解密Prompt系列1. Tunning-Free Prompt:GPT3 & LAMA & AutoPrompt
借着ChatGPT的东风,我们来梳理下prompt相关模型。开篇我们简单介绍下Prompt,并以其中的Tunning-Free Prompt为线索串联GPT3,LAMA和AutoPrompt
解密Prompt系列2. 冻结Prompt微调LM: T5 & PET & LM-BFF
这一章我们介绍固定prompt微调LM的相关模型,以下按时间顺序介绍,支持任意NLP任务的T5,针对文本分类的两篇PET和LM-BFF