首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
LogicOverlord
掘友等级
AI infra开发工程师
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
2
文章 2
沸点 0
赞
2
返回
|
搜索文章
最新
热门
PaddlePaddle算子注册原理阅读记录
PaddlePaddle通过REGISTER_OPERATOR宏来进行算子注册,以paddle/fluid/operators/gru_unit_op.cc为例,其注册代码如下: 其中ops::GRU
paddle构建过程阅读记录
基于paddle 2023.4左右的版本 使用python setup.py可以直接安装PaddlePaddle,首先其内部会先调用最外层的CMakeLists.txt(setup.py的build_
pytorch中的输出流
1.C++侧 cout<<Tensor; C++侧中tensor的输出流重载代码位于 /home/pytorch/aten/src/ATen/core/Formatting.cpp:260,代码如下:
mmcv算子注册和算子分发原理
mmcv模仿pytorch,通过dispatcher根据算子的信息将算子分发到不同的函数,从而实现代码的复用,下面以upfirdn2d为例,介绍mmcv的算子注册及算子分发原理。 1. python和
cuda编程中的shuffle使用
在shuffle指令主要用于让一个warp中的线程能直接访问另一个warp中线程的寄存器,从而实现数据的交换,而无需通过共享内存或者全局内存,如《Professional CUDA C Program
cuda编程中的共享内存(shared memory)
共享内存位于GPU的SM中,由一个线程块(thread block)中的线程共同使用。共享内存的延迟比全局内存(global memory)低20到30倍,带宽高约10倍。如《Professional
CUDA固定内存、零拷贝内存和统一内存
一、固定内存(pinned memory) 默认在host端分配的内存都是pageable的(Pageable memory space means memory contents that can
C++ 对函数的引用
优势:指针可以为空或无效。引用保证它有效且不为空(不存在空引用) 例:```cpp #include <iostream> using namespace std; void doCall( voi
cuda全局内存高效访问——对齐访问和合并内存访问
高效的全局内存访问需要保证一点: 相邻的线程访问相邻的数据。(This is oversimple, but the correct way to do it is just have consecu
(转载)vscode-server离线安装
原创:https://blog.csdn.net/qq_28753373/article/details/123007214 获取当前版本vscode的commit_id:Help -> About
下一页
个人成就
文章被点赞
5
文章被阅读
17,094
掘力值
435
关注了
0
关注者
6
收藏集
0
关注标签
0
加入于
2023-07-06