首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
MegEngine
掘友等级
适合工业级研发的开源深度学习框架-旷视天元MegEngine
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
2023 开源之夏来啦!报名 MegEngine 项目,赢取万元奖金!
“开源软件供应链点亮计划-暑期2023”是一项面向高校学生的暑期活动,为高校学生提供了绝佳的、友好开放的交流平台。使学生可以真正投身于开源软件的开发维护,得到资深开源软件开发者指导的机会,获得丰硕的活
安卓机上 4G 内存跑 alpaca,欢迎试用轻量级 LLM 模型推理框架 InferLLM
欢迎试用结构简单,易上手的轻量级 LLM 模型推理框架 InferLLM:提供一个比 llama.cpp 更简单更容易上手的本地部署框架,供大家学习和讨论 让 LLM 模型在本地或者端上部署成为可能,
MegEngine 使用小技巧:量化
常见神经网络模型所用的 Tensor 数据类型 一般是 float32 类型, 而工业界出于对特定场景的需求(极少的计算资源,极致的推理速度),需要把模型的权重和或激活值转换为位数更少的数值类型
MegEngine 使用小技巧:使用 Optimizer 优化参数
神经网络的学习的目的是找到使损失函数的值尽可能小的参数。这是寻找最优参数的问题,解决这个问题的过程称为优化(optimization)。
如何使用 MegEngine 生态落地一个算法
MegEngine 生态工具,希望能为用户提供一个快速、高效、灵活的深度学习算法落地平台,以更好地实现算法落地。
MegEngine 使用小技巧:借助 DataLoader 获取分批数据
在使用 MegEngine 进行模型训练时,首先要进行的是数据加载和预处理。在此过程中,MegEngine 中的megengine.data模块,提供了数据分批功能
mperf:移动/嵌入式平台算子性能调优利器
mperf 是一个微架构层次的算子性能调优工具箱,主要面向移动/嵌入式平台的 CPU/GPU 核心,目标是“为构建一个更接近闭环的算子调优反馈回路”提供系列基础工具。
MegEngine 使用小技巧:使用 Netron 实现模型可视化
近期社区有多个同学问,如何查看 MegEngine 训练出的模型网络结构。其实在去年 8 月,MegEngine 就已经集成到了 Netron 平台上。 目前 Netron 已支持 MegEngine
MegCC 新版本来啦!新增 Benchmark 等工具,性能大幅提升!有奖征文活动同步启动
最新版 MegCC 新鲜出炉,新工具,新体验,本次版本针对用户使用体验以及模型推理性能进行全面提升。
一个深度学习框架的年度报告
MegEngine 年度报告来啦~ 又到年终时,今年我们去繁从简,只聊技术。 浅浅盘点一下,MegEngine 的年度“大动作”。
下一页
个人成就
文章被点赞
114
文章被阅读
108,542
掘力值
2,546
关注了
2
关注者
57
收藏集
0
关注标签
6
加入于
2020-12-28