首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
喜欢
订阅
future105
更多收藏集
微信扫码分享
微信
新浪微博
QQ
11篇文章 · 0订阅
Attention Is All You Need(图像上使用)
参考文章:Attention Is All You Need 用于NLP的讲解 注意力机制(Attention) 目的:是用于捕捉图像的感受野。
不容易懂的1D卷积详解
1D卷积类的调用参数解释 -in_channels(int) – 输入通道数量。在文本分类中,即为词向量的维度 -out_channels(int) – 经过卷积生成的通道数量。有多少个out_cha
深度学习论文中的函数符号表示
深度学习论文中的函数符号表示,其中包含有sigmoid函数的符号表示方法,softmax函数的符号表示方法等等
Attention图像上应用个人理解
注意力机制最好不要直接在原有的主干网络(backbone)中添加,以免破坏原有的预训练参数,最好是backbone之后添加。 添加时,注意注意输入的channels的数量。
压缩软件BandZip破解
下载安装包和破解程序地址: 链接:https://pan.baidu.com/s/19E8OW7Mx0iOwkCMIO5dG6A 提取码:ogrt
python这些偏的要点你可能需要知道
内置函数__call__的使用 函数有双下划线表示不允许被修改了,是内置函数(例如:init) torch.randn(size):用来生成随机数字的tensor,这些随机数字满足标准正态分布(0~1
保姆级pytorch基本数据结构,直接上手就行
Variable 是torch.autograd中的数据类型(之前) 主要用于封装Tensor,进行自动求导 data:被包装的Tensor grad:data的梯度 grad_fn:创建Tensor
自己倒腾,可以参考我的自配电脑组装及预算
机箱:酷冷至尊nr400,闲鱼250 主板:微星B450M迫击炮,闲鱼449 CPU:AMD R7 3700x,拼多多1899 显卡:七彩虹RTX2060 Ultra-V,拼多多2249 内存条:金士
K线和宏观经济(建议投资入个门)
1.市场总是领先于经济基本面 2.当经济复苏时,多数情况下具有前景的科技股往往表现都很好 3.人生发财靠康波,在大环境趋好的情况下,每个人赚钱都会很容易 4.当人们开始对局势紧张有预期的时候,往往最受
六级需要了解的必备要点,保姆级理解分享
时间分配 写作:25分钟 听力:35分钟 阅读 词汇理解(10道) 长篇阅读(10道):15分钟 仔细阅读(10道):每篇10分钟 汉译英:25分钟 做题顺序:写作——》听力——》仔细阅读——》长篇阅