首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
地平线开发者
掘友等级
开发者社区
|
地平线
地平线开发者社区旨在连接智能驾驶领域的开发者和对相关技术感兴趣的其他行业开发者、从业者。 我们将为大家提供最前沿的智驾相关技术资讯和丰富的技术活动,共同构建智能驾驶的开发者生态体系。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1
文章 0
沸点 1
赞
1
返回
|
搜索文章
最新
热门
模型插入 NV12 预处理节点精度问题排查流程
在近期工具链实践过程中,频繁出现 BC 模型在插入 NV12 预处理节点后精度崩溃的现象。本文提供一套标准化的快速排查方案,旨在缩短问题定位周期,降低对开发节奏的干扰。
手撕大模型|FlashAttention 原理及代码解析
FlashAttention 是一种专为 Transformer 优化的高性能注意力机制。它能显著加速训练和推理,同时减少内存占用,广泛应用于 LLaMA、GPT-NeoX、PaLM 等大模型中。
征程 6 | 灰度图部署链路介绍
相较于 RGB 三通道图像,灰度图仅保留亮度信息(Y 分量),数据量减少 2/3,相比于常用的 NV12 图像,数据量减少 1/3,内存占用与计算负载显著降低。
手撕大模型|KVCache 原理及代码解析
在大型语言模型(LLM)的推理过程中,KV Cache 是一项关键技术,它通过缓存中间计算结果显著提升了模型的运行效率。本文将深入解析 KV Cache 的工作原理、实现方式,并通过代码示例展示其在实
工具链部署实用技巧 7|模型设计帧率推理时耗时与带宽分析
在实际部署智能驾驶方案时,很多不同任务的模型会同时运行,如何让模型按设计帧率运行,同时实时监测模型推理耗时和带宽使用情况?
征程 6E/M|多 camera 场景示例
本 sample 提供全链路场景 1V,4V,7V 使用演示,实现单路及多路 VIO 接入,逐级经过 ISP、PYM、BPU、CODEC 模块处理
理想汽车智驾方案介绍 4 | World model + 强化学习重建自动驾驶交互环境
在前面的 3 篇文章中,笔者已经比较详细地介绍了 V、L、A 模块,本帖介绍 World Model +强化学习打通自动驾驶本帖将以 DrivingSphere 为例来解析这个过程。
开发者说|H-RDT:基于人类操作数据的跨本体机器人学习
地平线提出基于大规模人类操作数据玉项链的 VLA 模型 H-RDT获得 CVPR 2025 RoboTwin 真机赛冠军
地平线具身智能算法H-RDT斩获CVPR 2025 RoboTwin真机赛冠军
CVPR 2025举办的RoboTwin双臂机器人竞赛中,地平线机器人实验室与清华大学计算机系朱军团队联合提出的H-RDT凭强大性能和领先成功率,斩获真机赛冠军(一等奖第一名)
理想汽车智驾方案介绍 3|MoE+Sparse Attention 高效结构解析
稀疏注意力(Sparse Attention)与混合专家架构(MoE)是提升大模型效率与性能的核心技术。
下一页
个人成就
文章被点赞
29
文章被阅读
18,927
掘力值
2,449
关注了
21
关注者
45
收藏集
0
关注标签
10
加入于
2018-04-02