首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
CVHub
掘友等级
算法研究员
|
北京字节跳动有限公司
技能:图像分类、语义/实例/全景分割、目标/显著性检测、模型剪枝/蒸馏/量化/NAS、Transformer/LLM、超分/复原/去噪/去雨/去雾、弱监督/半监督/无监督/增量学习、GNN、3D视觉; 兴趣:游山玩水、写文章、分享故事。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
8
文章 8
沸点 0
赞
8
返回
|
搜索文章
最新
热门
为什么好多研究生都不愿意继续读博士了?
现如今研究生扩招愈发严重,这导致了多次考研成功率持续下降。近年来,我国研究生考试报名人数也呈现了持续增长的趋势。
ConvNeXt-V2:当 MAE 遇见 ConvNeXt 会碰撞出怎样的火花?
受掩码自编码机制的启发,本文在 ConvNeXt 的架构基础上延伸出了一个完全卷积掩码自编码器框架——ConvNeXt V2。
卷麻了!| DAE-Former:高效双重注意力引导的Transformer网络称霸医学图像分割任务
本文提出了一种新颖的类 U-Net 分层纯 Transformer —— DAE-Former,它在全特征维度上同时利用空间和通道注意力。该方法通过包含双重注意力来丰富表示空间。
NeuraIPS 2022 | 最新类别感知对抗Transformer分割网络CASTformer
本文主要还是围绕 Transformer 在医学图像分割领域的应用,方法都是比较常规的,对于需要发论文找 Idea 的同学建议可以多看看这些文章,比较适合入门级发表。
FlexiViT: 谷歌手把手教你如何灵活切片
`ViT` 是一种通过将图像切割成一个个小方块(`patch`)将图像转换为序列从而输入到`Transformer`网络进行训练和推理的一种神经网络架构。
EfficientFormerV2: Transformer家族中的MobileNet
Introduction 随着 ViT 的出现,Transformer 模型在计算机视觉领域遍地开花,一层激起一层浪。虽然精度很高,但被人广为诟病的依旧是它的效率问题。
基于 DETR 的开放世界目标检测
开放世界目标检测其实是一个相对来说比较少人关注的领域,其旨在不限定特定目标类别的情况下,对图像中的所有目标进行检测。
InstructPix2Pix: 一种无需微调新的快速图像编辑方法
本文提出了一种新的图像编辑方法,它可以通过语言指导快速编辑图像。为了获得这个问题的训练数据,作者结合了两个大型预训练模型的知识—语言模型`和`文本到图像模型生成了大量的图像编辑示例数据集。
SINE: 一种基于扩散模型的单图像编辑解决方案
与其他方法相比,本文方法对图像具有更好的几何理解,因此除了风格转移外,还可以对图像进行复杂的编辑 。
一文深度剖析扩散模型究竟学到了什么?
稳定扩散模型的关键特征之一是它能够复制训练数据。这意味着它能够通过拼凑它从训练数据中记住的前景和背景对象来创建新图像。这使得模型能够生成与训练数据具有相似视觉风格的图像,同时仍然保持高水平的原创性和创
下一页
个人成就
优秀创作者
文章被点赞
264
文章被阅读
279,777
掘力值
9,220
关注了
5
关注者
311
收藏集
0
关注标签
0
加入于
2023-01-13