大家好,我是吾鳴。
之前吾鳴给大家分享过浙江大学DeepSeek公开课系列第一二季共15节课的内容(高质量视频+PPT),它们分别是:
AI大模型如何破局传统医疗|浙江大学|DeepSeek系列公开课|第二季
生成式人工智能赋能智慧司法及相关思考|浙江大学|DeepSeek系列公开课|第二季
浙江大学|DeepSeek系列公开课|第二季|DeepSeek技术溯源及前沿探索
浙江大学公开课|第二季|从大模型、智能体到复杂AI应用系统的构建——以产业大脑为例
第一期(上):吴飞(浙江大学)DeepSeek:回望AI三大主义与加强通识教育
第一期(下):Chatting or Acting?——DeepSeek的突破边界与“浙大先生”的未来图景(浙江大学 陈文智)
第二期(上):孙凌云(浙江大学)DeepSeek:智能时代的全面到来和人机协作的新常态
第二期(下):王则可(浙江大学)DeepSeek模型优势:算力、成本角度解读
第三期(上):陈静远(浙江大学)语言解码双生花:人类经验与AI算法的镜像之旅
第三期(下):吴超(浙江大学)走向数字社会:从Deepseek到群体智慧
第四期(上):陈建海(浙江大学)DeepSeek的本地化部署与AI通识教育之未来
第四期(下):朱朝阳(浙江大学)DeepSeek之火,可以燎原
今天吾鳴要给大家分享一份也是浙江大学DeepSeek公开课系列,由杨洋教授担任主讲人的大模型之从单词接龙到行业落地的报告,报告内容主要从大语言模型的核心机制、训练与优化方法、思维链与推理能力以及行业应用案例等几大部分展开,报告一共53页PPT,文末附上公开课视频和完整PPT下载。
内容摘要
引言与图灵测试
介绍人工智能发展背景,重点阐述图灵测试的定义与应用场景,通过文学、数学和逻辑问题的示例展示早期智能系统的局限性,并对比ChatGPT在不同任务中的表现,凸显大模型的进步。
大语言模型的核心机制
围绕“单词接龙”展开,解释大模型通过条件概率生成文本的原理,将下游任务(如景点定位)转化为序列生成问题。对比传统机器学习依赖标注数据的不足,强调预训练利用海量无标注数据的优势。
训练与优化方法
详细分析大模型的训练流程,包括预训练(学习通用知识)、监督微调(优化特定任务)、指令微调(泛化新指令)以及强化学习(RLHF,对齐人类偏好)。讨论如何通过检索增强生成(RAG)减少幻觉,并总结大模型的三大问题(幻觉、偏见、过时)。
思维链与推理能力
探讨思维链(Chain of Thought)对复杂问题推理的作用,对比“快思考”(直觉)与“慢思考”(逻辑)的生成模式,提出通过强化学习训练模型自主生成有效思维链的策略,并以数学题和量子力学问题为例说明其应用。
行业应用案例
展示大模型在多个领域的落地实践,如智慧评审平台“评审叮当”(合规审查、材料评审)、脑电信号分析(Brant模型捕捉时空相关性)、电力系统(负荷预测、窃电检测)等,强调模型在跨任务、跨领域的泛化能力。
总结与展望
归纳大模型的核心技术(预训练-微调范式、强化学习)及其行业价值,提出未来研究方向(如时序大模型、跨领域泛化),并附作者联系方式与论文引用。