首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
Datacook
掘友等级
Datacook
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
第12课:高级训练优化技术
到目前为止,我们已经学习了大型语言模型的核心架构、基础实现以及分布式训练方法。但要打造真正高效且实用的模型,我们还需要掌握一系列高级训练优化技术。这些技术不仅能提升模型性能,还能大幅降低计算资源需求,
第11课:大规模分布式训练
在前面的课程中,我们已经探讨了大型语言模型的核心组件、计算优化和训练流程。然而,当模型规模达到数十亿参数时,单个GPU已无法满足训练需求。本课将深入讲解如何通过分布式训练技术,有效利用多GPU和多节点
第10课:训练策略与流程
在前面的课程中,我们已经深入研究了大型语言模型的核心组件和计算优化技术。现在,我们将关注训练过程本身 - 从训练循环的设计到学习率管理,再到检查点保存和训练监控。这些"幕后"元素看似简单,却直接决定了
第9课:高效计算优化
在前面的课程中,我们已经深入研究了Transformer模型的设计和核心组件的实现。然而,要真正训练和部署20亿参数级的大型语言模型,我们还需要掌握一系列高效计算优化技术。这些技术对于克服计算资源限制
第8课:从底层实现LLM核心组件
欢迎来到《从零构建大型语言模型:Python实现20亿参数LLM的完整指南》的第8课。在上一课中,我们详细探讨了Transformer模型的设计原理、架构选择和自注意力机制的实现。本课将聚焦于其他核心
第7课:Transformer模型设计
欢迎来到《从零构建大型语言模型:Python实现20亿参数LLM的完整指南》的第7课。在本节课中,我们将深入探讨Transformer架构的核心组件设计,并从Python代码层面详细实现这些组件。正是
第6课:文本标记化与词汇表构建
引言 欢迎来到《从零构建大型语言模型:Python实现20亿参数LLM的完整指南》的第六课。在上一课中,我们学习了训练数据的获取与预处理,为模型训练奠定了数据基础。本课我们将深入探讨语言模型开发中的另
第5课:训练数据获取与预处理
引言 欢迎来到《从零构建大型语言模型:Python实现20亿参数LLM的完整指南》的第五课。在前面的课程中,我们已经学习了大型语言模型的基本原理、架构设计和关键组件。现在,我们将聚焦于训练过程中最基础
第4课:开发环境与工具链配置
引言 欢迎来到《从零构建大型语言模型:Python实现20亿参数LLM的完整指南》的第四课。在前三课中,我们奠定了理论基础,包括大型语言模型的发展历程、Transformer架构的核心组件以及语言模型
数据叙事的双重艺术:如何用LLM让数据故事更有说服力 《The Craft of Research》
前言:数据丰富但洞见匮乏的时代 你是否曾遇到这样的情况:团队花费数周甚至数月收集和分析数据,制作了令人印象深刻的图表和表格,却在向决策者或客户展示时遭遇困惑的眼神和礼貌的掌声?
下一页
个人成就
文章被点赞
2
文章被阅读
4,156
掘力值
142
关注了
0
关注者
3
收藏集
0
关注标签
2
加入于
2025-04-15