笔记涉及到两个部分
课程
- 第一讲 什么是生成式人工智能? ---概念
- 第二讲 今日的生成式人工智能厉害在哪里? ---优势
- 第三讲 训练不了人工智能,那我训练自己 (上) ---思路1
- 第四讲 训练不了人工智能,那我训练自己 (下) ---思路1
- 第五讲 训练不了人工智能,那我训练自己 (下) ---思路1
作业
- 第一期作业:真假难辨的世界
- 第二期作业:都是AI的作文比赛
第一讲 什么是生成式人工智能(人工智能 or AI)
AI: Artifical Intelligence 可以被翻译成人工智能 或 人工智能。
注:课程中使用人工智能,故而后AI都翻译成人工智能;
人工智能 vs 生成式人工智能 vs 分类 vs 机器学习
人工智能 - AI
生成式人工智能 - Generative AI
机器学习 - Machine Learning
人们对人工智能的理解各不相同,期望通过它实现的目标也不尽相同,可以说,【人工智能更像是一个追求的目标】,而生成式人工智能确实有其明确的定义:【生成式人工智能是机器产生复杂有结构的对象】,这些对象可以是文章、图像、语音等,而其中的复杂是要到几乎无法穷举的程度,为了深入理解生成式人工智能,可以将其与分类任务进行对比,【分类任务是从有限选项中去选择】,比如分类问题有猫狗分类器,垃圾邮件监测。
谈及生成式人工智能与机器学习的对比,【机器学习可以理解为机器自动从资料中找到一个函数式】。在机器学习中,系统通过学习数据来调整数以万计的参数。深度学习作为机器学习的一个分支,提供了一种更为强大的参数搜索方法。在深度学习领域,Transformer 这一神经网络架构便是一种重要的技术。
上述内容是为了更好的理解生成时人工智能,类比了人工智能,分类任务,机器学习,另外对机器学习延展了深度学习,Transformer两个技术手段;
下图是,人工智能、生成式人工智能、机器学习、深度学习、语言模型的关系图
概括总结上述内容
- 人工智能,是一个目标,不断追求和靠近的目标;
- 生成式人工智能,是机器产生复杂有结构的对象;
- 分类任务,是从有效选项中去选择;
- 机器学习,是机器从资料中找到一个函数式;
第一期作业:真假难辨的世界
作业就是一些选择题,由答题者来判断是否是AI生成的,其实就是一个图灵测试,但是笔者没有找到题目,因此就跳过这期作业。
第二讲 今日的生成式人工智能厉害在哪里?
生成式人工智能并不是什么新鲜事物,但它的确是近年来才真正火起来的。那么,相较于过去,它们的优势究竟体现在哪些方面呢?
- 过去的生成式人工智能:
- 类似一个工具;
- 功能单一;
- 今日的生成式人工智能:
- 类似一个工具;
- 多才多艺了。
人工智能的能力如今已经显著提升,随之而来的,是一系列新的问题和挑战:
- 人工智能在【想什么】
- 如何【评估】模型
- 防止说出【有害】的内容(脏话,抄袭,歧视等)
人工智能的进化已经将其推向了一个新的高度(工具人),能够承担许多传统上由人类完成的工作。面对这样的变化,我们不禁要问:在人工智能时代,人类还能做些什么?
- 思路一:适应变化,提升自我 --- 促进工程(Prompt Engineering)
- 思路二:掌握技能,自主训练 --- 模型调优(Model Tuning)
第三、四、五讲 训练不了人工智能,那我训练自己
这一讲的内容中语言模型中没有修改任何参数,没有训练任何模型
在不训练模型的情况下强化语言模型的方法
- Chain of Thought(CoT)
think about it step-by-step- 也等于拆解问题 - 解释一下自己的答案
- 情绪勒索 这件事对我很重要
神奇的咒语,增强式学习 Reinforcement Learning 神奇的咒语 不一定能够对所有模型都有用,
- 把前提讲清楚
- 提供生成式AI原本不清楚的资讯
- 提供范例 in-context learing [2005.14165] Language Models are Few-Shot Learners [2202.12837] Rethinking the Role of Demonstrations: What Makes In-Context Learning Work? [2303.03846] Larger language models do in-context learning differently 如图所示
-
拆解任务
- [2210.06774] Re3: Generating Longer Stories With Recursive Reprompting and Revision
- 写一篇关于生成式AI的报告 拆分成 先写大纲,根据大纲写其中的每个段落
-
语言模型检查自己的错误,语言模型可以自我反省
-
[2212.08073] Constitutional AI: Harmlessness from AI Feedback
为什么同一个问题每次答案都不同
- 文字接龙,是每个字在接龙的几率,类似不断在掷骰子
- self-consistency [2203.11171] Self-Consistency Improves Chain of Thought Reasoning in Language Models
组合技能 输入任务,拆分出多个步骤,让每一步产生多个答案,每一个答案让语言模型自我反省,最后找到一个最好的答案
- 使用工具,来增加自己的额外的能力,如 搜索引擎,写代码并执行, 文字生图
- 语言模型 不等于 搜索引擎,但是语言模型可以自己使用搜索引擎的结果 RAG-- Retrieval Augmented Generation
Program of Thought
RAG 定制化模型
语言模型是怎么使用工具?
- 会产生特殊符号,可以根据特殊符号去呼叫工具
各种技巧加起来打一套组合拳
模型合作:让合适的模型做合适的事情
- 模型分配任务
- [2305.05176] FrugalGPT: How to Use Large Language Models While Reducing Cost and Improving Performance
- 模型合作:让模型彼此讨论,反省和讨论
- [2305.19188] Long-lived Higgs modes in strongly correlated condensates
- 模型合作:多一点模型一起讨论 可能会有更好的效果
- [2305.14325] Improving Factuality and Reasoning in Language Models through Multiagent Debate
- 模型合作:多模型怎么讨论 exchange of Thought
- 以什么方式来进行模型之间的对话, 各种不同的讨论方式
- [2312.01823] Exchange-of-Thought: Enhancing Large Language Model Capabilities through Cross-Model Communication
- 模型之间的讨论什么时候停下来? - 裁判模型 进行判断
- 讨论会不会停不下?目前不用担心这个,反而应该是担心讨论太快结束,需要找到合适的方式去质疑其他模型
- [2305.19118] Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate
- 不同的团队需要有不同的角色
- 引入不同的角色 比如有个优秀的代码工程师 code llama
- [2303.17760] CAMEL: Communicative Agents for "Mind" Exploration of Large Language Model Society
- 还可以优化团队,给每一个模型进行打分 有开源的专案 metaGPT chatDev
- [2310.02170] Dynamic LLM-Agent Network: An LLM-agent Collaboration Framework with Agent Team Optimization
- 未来不需要打造全能的模型,语言模型可以分工专业,不同团队可以专注打造专业领域的语言模型
论文
- [2205.11916] Large Language Models are Zero-Shot Reasoners
- [2205.11916] Large Language Models are Zero-Shot Reasoners
- [2305.01937] Can Large Language Models Be an Alternative to Human Evaluations?
- [2310.05657] A Closer Look into Automatic Evaluation Using Large Language Models
- [2312.16171] Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4
- [2309.03409] Large Language Models as Optimizers
第二期作业:都是AI的作文比赛
概述
- 任务一:使用AI大模型生成一篇中文小短文,并且提交给AI中文助教进行批改;
- 任务二:使用AI大模型生成一篇英文小短文,并且提交给AI英文助教进行批改;
- 任务三:简答题
注意
- 对于
chatgpt的使用,由于其访问需要特定的网络条件,我们选择在kimi平台上完成所需的内容处理。- 目前,
Divinvi仅对参与特定课程的学生开放,因此我们无法利用它。鉴于此,我们考虑转而使用coze作为替代方案。
笔者在kimi平台,针对2024年高考语文作文题目,生成了一篇150字的作文,然后交给coze平台上作文批改进行批改。