首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
嵌入式视觉
掘友等级
算法开发工程师
|
商汤科技
关于博主,本科双非一本,曾3个半月考研上岸某 211,现大厂算法开发工程师,从事视觉算法开发、模型压缩部署、LLM 推理部署工作,终身学习践行者。
获得徽章 8
动态
文章
专栏
沸点
收藏集
关注
作品
赞
414
文章 387
沸点 27
赞
414
返回
|
搜索文章
赞
文章( 387 )
沸点( 27 )
2022 年纪【12月16日补充了惊喜】
本文总结了我在 2022 年的各方面总结,包括学习、考试、生活、工作等,既是自己的总结,又是自己的心路历程,希望能够共勉。
模型压缩-量化算法概述
所谓量化,其实可以等同于低精度(Low precision)概念,常规模型精度一般使用 FP32(32 位浮点数,单精度)存储模型权重参数,低精度则表示使用 INT8、FP16 等权重数值格式。
ChatGPT技术解析之:GPT1、GPT2与GPT3
本文是ChatGPT算法技术解析的第二篇,图解GPT的技术细节与发展史,以及Encoder VS Decoder之战的精彩细节。
LLaMA及其子孙模型概述
本文主要从模型推理角度去总结论文,因此没有涉及到数据集处理、模型训练及试验报告的细节,只介绍了 LLaMA 模型的主要思想以及模型结构的细节,最后介绍一些基于 LLaMA finetune 的模型。
《机器学习》学习笔记
本文为《机器学习》西瓜书第2、5、9章第学习笔记,与原书第区别在于对关键知识点进行了内容提炼和给出了较为详细的公式推导,针对经典聚类算法,给出了自己的精简复现代码。
FasterTransformer框架速览
asterTransformer 包含 Transformer 块的高度优化版本的实现,其中包含编码器 Encoder 和解码器 Decoder部分。基于 FT 可以运行完整的编码器-解码器架构模型。
大语言模型核心技术-Transformer 详解
本文详细解析了Transformer整体模型结构,并深入分析了各个layer层的原理及给出了计算公式,针对每个 layer、block 都给出了较为详细的代码实现方便深入理解网络结构。
LLM背景知识总结
在自然语言处理中,Token 是指一段文本中的基本单位,通常是一个词、一个词组或者一个字符。Tokenization 是将一段文本分解为一系列的 Token 的过程。
经典transformer视觉模型总结
ViT 在 Transformer 架构的视觉模型的地位类似 ResNet模型。因为其模型“简单”且效果好,可扩展性强(scalable,模型越大效果越好),是Transformer在CV的奠基之作。
NCNN 模型推理详解及实战
本文首先描述了 ncnn 推理框架的依赖库的知识,及相关 cpu 和内存硬件特性描述。最后结合 shufflenet sample 解析了,模型推理的全部流程,详解了 sample 代码的每个细节。
下一页
个人成就
优秀创作者
文章被点赞
1,448
文章被阅读
690,854
掘力值
10,352
关注了
36
关注者
310
收藏集
2
关注标签
56
加入于
2019-03-30