首页
首页
沸点
课程
直播
资讯
活动
开放社区
商城
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
掘金会员预售 5.16-6.16
登录
综合
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
全部
人工智能
深度学习
算法
机器学习
NLP
计算机视觉
Python
神经网络
PyTorch
展开
推荐
最新
热榜
ShowMeAI
19小时前
NLP
深度学习
算法
NLP教程(9) - 句法分析与树形递归神经网络
本文介绍了 NLP 句法分析与树形递归神经网络,主要讲解句法分析、Recursive Neural Networks (RNN)、成分句法分析、SU-RNN、MV-RNN、RNTN等。
1297
2
评论
ShowMeAI
19小时前
NLP
深度学习
算法
斯坦福NLP课程 | 第17讲 - 多任务学习(以问答系统为例)
NLP课程第17讲介绍了问答系统(QA)、多任务学习、自然语言处理的十项全能(decaNLP)、多任务问答系统(MQAN)等。
1032
1
评论
ShowMeAI
4天前
NLP
深度学习
斯坦福NLP课程 | 第13讲 - 基于上下文的表征与NLP预训练模型(ELMo, transformer)
NLP课程第13讲介绍了词向量 (word representations) 知识回顾、ELMo模型、ULMfit模型、Transformer结构和BERT等。
2743
6
评论
ShowMeAI
8天前
NLP
深度学习
斯坦福NLP课程 | 第10讲 - NLP中的问答系统
NLP课程第10讲介绍了问答系统动机与历史、SQuAD问答数据集、斯坦福注意力阅读模型、BiDAF模型、近期前沿模型等。
5757
6
评论
ShowMeAI
4天前
NLP
深度学习
斯坦福NLP课程 | 第14讲 - Transformers自注意力与生成模型
NLP课程第14讲介绍了Attention注意力机制、文本生成、自相似度、相对自注意力、图片与音乐生成、迁移学习等。
1843
3
评论
ShowMeAI
4天前
NLP
深度学习
斯坦福NLP课程 | 第12讲 - NLP子词模型
NLP课程第12讲介绍了语法学 (linguistics) 基础知识、基于字符粒度的模型、子词模型 (Subword-models)、混合字符与词粒度的模型、fastText模型等。
1771
3
评论
ShowMeAI
6天前
NLP
深度学习
斯坦福NLP课程 | 第11讲 - NLP中的卷积神经网络
NLP课程第11讲介绍了卷积神经网络 (CNN)及模型细节,并讲解CNN和深度CNN在文本分类中的使用,最后介绍了Q-RNN模型。
3046
6
评论
ShowMeAI
7天前
NLP
深度学习
NLP教程(8) - NLP中的卷积神经网络
本文介绍 NLP 中的卷积神经网络(CNN),讲解卷积神经网络的卷积层、池化层、多卷积核、多通道、卷积核、N-gram、filter、k-max pooling、文本分类等。
3008
5
评论
ShowMeAI
9天前
NLP
深度学习
NLP教程(7) - 问答系统
本文介绍 NLP 中的问答系统(Question Answering),包括 NLP 中的问答系统场景、动态记忆网络(Dynamic Memory Networks)、问答(QA)、对话、MemNN、
3388
10
评论
ShowMeAI
12天前
NLP
深度学习
斯坦福NLP课程 | 第6讲 - 循环神经网络与语言模型
NLP课程第6讲介绍一个新的NLP任务 Language Modeling (motivate RNNs) ,介绍一个新的神经网络家族 Recurrent Neural Networks (RNNs)
4077
5
评论
SenseParrots
3天前
深度学习
【深度学习编译】多面体模型编译:以优化简单的两层循环代码为例
在深度学习编译器优化工作中,对多层 for 循环算子的优化十分重要。本篇文章介绍了一种优化算法——多面体模型算法,并且以优化简单的两层循环代码为例,详述了该算法的思想及工作流程。
519
点赞
评论
万里鹏程转瞬至
3天前
深度学习
深度学习1 基于h5py使用数据迭代器训练超过内存的数据
本文已参与「新人创作礼」活动,一起开启掘金创作之路 背景 在使用keras训练图像数据时,通常使用ImageDataGenerator()的方式迭代目录,分批次读取。而对于容量超大甚至超过内存数组文件
761
点赞
评论
ShowMeAI
21天前
NLP
深度学习
NLP教程(1) | 词向量、SVD分解与Word2Vec
本文介绍自然语言处理(NLP)的概念及其面临的问题,进而介绍词向量和其构建方法(包括基于共现矩阵降维和Word2Vec)。
6726
3
评论
ShowMeAI
12天前
NLP
深度学习
NLP教程(5) - 语言模型、RNN、GRU与LSTM
本文介首先介绍了语言模型及其应用场景,进而介绍了循环神经网络(RNN)及优化后的变种LSTM(长短时记忆网络)和GRU模型。
3246
5
评论
ShowMeAI
12天前
NLP
深度学习
斯坦福NLP课程 | 第7讲 - 梯度消失问题与RNN变种
NLP课程第7讲介绍RNNs的梯度消失问题、两种新类型RNN(LSTM和GRU),以及其他梯度消失(爆炸)的解决方案——Gradient clipping、Skip connections等。
3192
6
评论
ShowMeAI
17天前
NLP
深度学习
NLP教程(3) | 神经网络与反向传播
本文单层&多层介绍神经网络及反向传播技术,并讨论训练神经网络的实用技巧,包括神经元单元(非线性)、梯度检查、Xavier参数初始化、学习率、Adagrad优化算法等。
4607
6
评论
阿里云大数据AI技术
2天前
深度学习
MAE自监督算法介绍和基于EasyCV的复现
自监督学习(Self-Supervised Learning)能利用大量无标注的数据进行表征学习,然后在特定下游任务上对参数进行微调。通过这样的方式,能够在较少有标注数据上取得优于有监督学习方法的精度
420
点赞
评论
ShowMeAI
15天前
NLP
深度学习
斯坦福NLP课程 | 第5讲 - 句法分析与依存解析
NLP课程第5讲内容覆盖:句法结构(成分与依赖),依赖语法与树库,基于转换的依存分析模型,神经网络依存分析器等。
3781
6
评论
罗西的思考
6天前
深度学习
TensorFlow
[源码解析] TensorFlow 分布式之 ParameterServerStrategy V2
对于 ParameterServerStrategy V2,本文主要看看如何使用,如何初始化。在下一篇之中会重点看看如何分发计算。
651
1
1
OneFlow一流科技
7天前
深度学习
神经网络
手把手推导Back Propagation
BP(Back Propagation)是深度学习神经网络的理论核心,本文通过两个例子展示手动推导BP的过程。
557
4
1