稀土掘金 稀土掘金
  • 首页
    • 首页
    • 沸点
    • 课程
    • 直播
    • 资讯
    • 活动
    • 开放社区
      商城
      APP
      插件
      • 搜索
        搜索历史 清空
        • 写文章
        • 发沸点
    • vip-presale
      掘金会员预售 5.16-6.16
综合
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
  • 全部
  • 人工智能
  • 深度学习
  • 算法
  • 机器学习
  • NLP
  • 计算机视觉
  • Python
  • 神经网络
  • PyTorch
  • 展开
  • 推荐
  • 最新
  • 热榜
  • ShowMeAI
    19小时前
    NLP 深度学习 算法
    NLP教程(9) - 句法分析与树形递归神经网络
    本文介绍了 NLP 句法分析与树形递归神经网络,主要讲解句法分析、Recursive Neural Networks (RNN)、成分句法分析、SU-RNN、MV-RNN、RNTN等。
    • 1297
    • 2
    • 评论
    NLP教程(9) - 句法分析与树形递归神经网络
  • ShowMeAI
    19小时前
    NLP 深度学习 算法
    斯坦福NLP课程 | 第17讲 - 多任务学习(以问答系统为例)
    NLP课程第17讲介绍了问答系统(QA)、多任务学习、自然语言处理的十项全能(decaNLP)、多任务问答系统(MQAN)等。
    • 1032
    • 1
    • 评论
    斯坦福NLP课程 | 第17讲 - 多任务学习(以问答系统为例)
  • ShowMeAI
    4天前
    NLP 深度学习
    斯坦福NLP课程 | 第13讲 - 基于上下文的表征与NLP预训练模型(ELMo, transformer)
    NLP课程第13讲介绍了词向量 (word representations) 知识回顾、ELMo模型、ULMfit模型、Transformer结构和BERT等。
    • 2743
    • 6
    • 评论
    斯坦福NLP课程 | 第13讲 - 基于上下文的表征与NLP预训练模型(ELMo, transformer)
  • ShowMeAI
    8天前
    NLP 深度学习
    斯坦福NLP课程 | 第10讲 - NLP中的问答系统
    NLP课程第10讲介绍了问答系统动机与历史、SQuAD问答数据集、斯坦福注意力阅读模型、BiDAF模型、近期前沿模型等。
    • 5757
    • 6
    • 评论
    斯坦福NLP课程 | 第10讲 - NLP中的问答系统
  • ShowMeAI
    4天前
    NLP 深度学习
    斯坦福NLP课程 | 第14讲 - Transformers自注意力与生成模型
    NLP课程第14讲介绍了Attention注意力机制、文本生成、自相似度、相对自注意力、图片与音乐生成、迁移学习等。
    • 1843
    • 3
    • 评论
    斯坦福NLP课程 | 第14讲 - Transformers自注意力与生成模型
  • ShowMeAI
    4天前
    NLP 深度学习
    斯坦福NLP课程 | 第12讲 - NLP子词模型
    NLP课程第12讲介绍了语法学 (linguistics) 基础知识、基于字符粒度的模型、子词模型 (Subword-models)、混合字符与词粒度的模型、fastText模型等。
    • 1771
    • 3
    • 评论
    斯坦福NLP课程 | 第12讲 - NLP子词模型
  • ShowMeAI
    6天前
    NLP 深度学习
    斯坦福NLP课程 | 第11讲 - NLP中的卷积神经网络
    NLP课程第11讲介绍了卷积神经网络 (CNN)及模型细节,并讲解CNN和深度CNN在文本分类中的使用,最后介绍了Q-RNN模型。
    • 3046
    • 6
    • 评论
    斯坦福NLP课程 | 第11讲 - NLP中的卷积神经网络
  • ShowMeAI
    7天前
    NLP 深度学习
    NLP教程(8) - NLP中的卷积神经网络
    本文介绍 NLP 中的卷积神经网络(CNN),讲解卷积神经网络的卷积层、池化层、多卷积核、多通道、卷积核、N-gram、filter、k-max pooling、文本分类等。
    • 3008
    • 5
    • 评论
    NLP教程(8) - NLP中的卷积神经网络
  • ShowMeAI
    9天前
    NLP 深度学习
    NLP教程(7) - 问答系统
    本文介绍 NLP 中的问答系统(Question Answering),包括 NLP 中的问答系统场景、动态记忆网络(Dynamic Memory Networks)、问答(QA)、对话、MemNN、
    • 3388
    • 10
    • 评论
    NLP教程(7) - 问答系统
  • ShowMeAI
    12天前
    NLP 深度学习
    斯坦福NLP课程 | 第6讲 - 循环神经网络与语言模型
    NLP课程第6讲介绍一个新的NLP任务 Language Modeling (motivate RNNs) ,介绍一个新的神经网络家族 Recurrent Neural Networks (RNNs)
    • 4077
    • 5
    • 评论
    斯坦福NLP课程 | 第6讲 - 循环神经网络与语言模型
  • SenseParrots
    3天前
    深度学习
    【深度学习编译】多面体模型编译:以优化简单的两层循环代码为例
    在深度学习编译器优化工作中,对多层 for 循环算子的优化十分重要。本篇文章介绍了一种优化算法——多面体模型算法,并且以优化简单的两层循环代码为例,详述了该算法的思想及工作流程。
    • 519
    • 点赞
    • 评论
    【深度学习编译】多面体模型编译:以优化简单的两层循环代码为例
  • 万里鹏程转瞬至
    3天前
    深度学习
    深度学习1 基于h5py使用数据迭代器训练超过内存的数据
    本文已参与「新人创作礼」活动,一起开启掘金创作之路 背景 在使用keras训练图像数据时,通常使用ImageDataGenerator()的方式迭代目录,分批次读取。而对于容量超大甚至超过内存数组文件
    • 761
    • 点赞
    • 评论
  • ShowMeAI
    21天前
    NLP 深度学习
    NLP教程(1) | 词向量、SVD分解与Word2Vec
    本文介绍自然语言处理(NLP)的概念及其面临的问题,进而介绍词向量和其构建方法(包括基于共现矩阵降维和Word2Vec)。
    • 6726
    • 3
    • 评论
    NLP教程(1) | 词向量、SVD分解与Word2Vec
  • ShowMeAI
    12天前
    NLP 深度学习
    NLP教程(5) - 语言模型、RNN、GRU与LSTM
    本文介首先介绍了语言模型及其应用场景,进而介绍了循环神经网络(RNN)及优化后的变种LSTM(长短时记忆网络)和GRU模型。
    • 3246
    • 5
    • 评论
    NLP教程(5) - 语言模型、RNN、GRU与LSTM
  • ShowMeAI
    12天前
    NLP 深度学习
    斯坦福NLP课程 | 第7讲 - 梯度消失问题与RNN变种
    NLP课程第7讲介绍RNNs的梯度消失问题、两种新类型RNN(LSTM和GRU),以及其他梯度消失(爆炸)的解决方案——Gradient clipping、Skip connections等。
    • 3192
    • 6
    • 评论
    斯坦福NLP课程 | 第7讲 - 梯度消失问题与RNN变种
  • ShowMeAI
    17天前
    NLP 深度学习
    NLP教程(3) | 神经网络与反向传播
    本文单层&多层介绍神经网络及反向传播技术,并讨论训练神经网络的实用技巧,包括神经元单元(非线性)、梯度检查、Xavier参数初始化、学习率、Adagrad优化算法等。
    • 4607
    • 6
    • 评论
    NLP教程(3) | 神经网络与反向传播
  • 阿里云大数据AI技术
    2天前
    深度学习
    MAE自监督算法介绍和基于EasyCV的复现
    自监督学习(Self-Supervised Learning)能利用大量无标注的数据进行表征学习,然后在特定下游任务上对参数进行微调。通过这样的方式,能够在较少有标注数据上取得优于有监督学习方法的精度
    • 420
    • 点赞
    • 评论
  • ShowMeAI
    15天前
    NLP 深度学习
    斯坦福NLP课程 | 第5讲 - 句法分析与依存解析
    NLP课程第5讲内容覆盖:句法结构(成分与依赖),依赖语法与树库,基于转换的依存分析模型,神经网络依存分析器等。
    • 3781
    • 6
    • 评论
    斯坦福NLP课程 | 第5讲 - 句法分析与依存解析
  • 罗西的思考
    6天前
    深度学习 TensorFlow
    [源码解析] TensorFlow 分布式之 ParameterServerStrategy V2
    对于 ParameterServerStrategy V2,本文主要看看如何使用,如何初始化。在下一篇之中会重点看看如何分发计算。
    • 651
    • 1
    • 1
  • OneFlow一流科技
    7天前
    深度学习 神经网络
    手把手推导Back Propagation
    BP(Back Propagation)是深度学习神经网络的理论核心,本文通过两个例子展示手动推导BP的过程。
    • 557
    • 4
    • 1
    手把手推导Back Propagation
  • 早上好!
    点亮你在社区的每一天
    下载稀土掘金APP
    一个帮助开发者成长的社区
    下载稀土掘金APP
    一个帮助开发者成长的社区
    • 稀土掘金漫游指南
    • 安装掘金浏览器插件
    • 前往掘金翻译计划
    • 用户协议
    • 营业执照
    • 隐私政策
    • 关于我们
    • 站点地图
    • 使用指南
    • 友情链接
    • 更多人工智能文章
    • 京ICP备18012699号-3
    • police 京公网安备11010802026719号
    • 版权所有:北京北比信息技术有限公司
    • 公司地址:北京市海淀区信息路甲28号13层B座13B-5
    • 公司座机:010-83434395
    • 举报邮箱: feedback@xitu.io
    • ©2022 稀土掘金
    • 微博
    • 微信
      微信扫一扫