首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
地平线开发者
掘友等级
开发者社区
|
地平线
地平线开发者社区旨在连接智能驾驶领域的开发者和对相关技术感兴趣的其他行业开发者、从业者。 我们将为大家提供最前沿的智驾相关技术资讯和丰富的技术活动,共同构建智能驾驶的开发者生态体系。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1
文章 0
沸点 1
赞
1
返回
|
搜索文章
最新
热门
mul 与 reduce_sum 的优化实例
mul 通常指元素级乘法(Element-wise Multiplication),它将两个形状相同的张量中对应位置的元素相乘
三种 Badcase 精度验证方案详解与 hbm_infer 部署实录
在模型结构优化与部署量化过程中,开发者往往会遇到一个关键任务:基于历史 Badcase 数据验证模型精度变化,确保模型修改不会引入明显性能退化。
大模型 | VLA 初识及在自动驾驶场景中的应用
VLA (Vision Language Action)是一种多模态机器学习模型,结合了视觉、语言和动作三种能力,旨在实现从感知输入直接映射到控制动作的完整闭环
征程 6 | 征程 6 工具链如何支持 Matmul/Conv 双 int16 输入量化?
详细剖析 PTQ 和 QAT 链路下双 int16 配置的完整流程,包括如何利用精度 debug 工具准确识别出需要配置为双 int16 的敏感算子
新版 perf 文件解读与性能分析
地平线通过 征程 6 算法工具链 OE3.2.0 版本,对 `hbm_perf` 接口进行了重大升级,本文将深入解读新版 perf 文件的核心内容,并结合实例分析性能优化策略。
大模型 | VLM 初识及在自动驾驶场景中的应用
大语言模型(LLM,Large Language Model)名字虽然带有语言二字,但其实并不局限于语言类场景。LLM 更多是一种统计建模的通用技术,它们主要通过自回归 Transformer 来模拟
手撕大模型 | MQA 和 GQA 原理解析
随着大模型功能的不断强化,其容量也在增加,当前的 KVCache 技术已经不能满足发展需要了,所以,各种针对于 KVCache 优化的技术应时而生。
征程 6 | BPU trace 简介与实操
在学习 BPU trace 前,希望大家对 UCP trace 已经有简单的了解,详情可见工具链用户手册
模型插入 NV12 预处理节点精度问题排查流程
在近期工具链实践过程中,频繁出现 BC 模型在插入 NV12 预处理节点后精度崩溃的现象。本文提供一套标准化的快速排查方案,旨在缩短问题定位周期,降低对开发节奏的干扰。
手撕大模型|FlashAttention 原理及代码解析
FlashAttention 是一种专为 Transformer 优化的高性能注意力机制。它能显著加速训练和推理,同时减少内存占用,广泛应用于 LLaMA、GPT-NeoX、PaLM 等大模型中。
下一页
个人成就
文章被点赞
35
文章被阅读
25,838
掘力值
2,912
关注了
21
关注者
47
收藏集
0
关注标签
10
加入于
2018-04-02