首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
深度学习
别团等shy哥发育
创建于2023-02-11
订阅专栏
Nginx是一款轻量级的Web 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,在BSD-like 协议下发行。
暂无订阅
共63篇文章
创建于2023-02-11
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
基于Tensorflow的Quick Draw图像分类
1、数据集介绍 Google的“Quick Draw”数据集是一个开源的数据集。该数据集共有345个类别,共5000万张图片,所有这些图片都是由参与挑战的1500万名用户在20s或者更短的时间内绘
Keras创建ANN模型的四种方法
这里以MNIST数据集来介绍Keras创建人工神经网络模型的四种方法 1、将参数传递给tf.keras.Sequential 模型定义如下(注意观察祝贺在模型定义中进行层列表的传递): Flatten
双向RNN与堆叠的双向RNN
1、双向RNN 双向RNN(Bidirectional RNN)的结构如下图所示。 $$ \overrightarrow{h_t}=f(\overrightarrow{W}x_t+\overright
LSTM应用于MNIST数据集分类(与CNN做对比)
1、概述 LSTM网络是序列模型,一般比较适合处理序列问题。这里把它用于手写数字图片的分类,其实就相当于把图片看作序列。 一张MNIST数据集的图片是$28\times 28$的大小,我们可以
BP神经网络(反向传播算法原理、推导过程、计算步骤)
1、反向传播算法的原理 反向传播算法的核心思想是将输出误差以某种形式通过隐藏层向输入层逐层反转,如下图所示。 反向传播算法在整个神经网络训练过程中发挥着重要的作用,它调整神经元之间的参数来学习
GRU(门控循环单元)实现股票预测
1、GRU(门控循环单元) 1.1 GRU原理 门控循环单元(Gated Recurrent Unit,GRU)是 LSTM 的一种变体,将 LSTM 中遗忘门与输入门合二为一为更新门,模型比 L
LSTM实现股票预测
1、传统RNN的缺点 RNN 面临的较大问题是无法解决长跨度依赖问题,即后面节点相对于跨度很大的前面时间节点的信息感知能力太弱。如下图中的两句话:左上角的句子中 sky 可以由较短跨度的词预测出来
SimpleRNN实现股票预测
> **开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第1天** > 原理请查看前面几篇文章。 # 1、数据源 SH600519.csv 是用 tushare 模块下载的 SH
循环神经网络详解(RNN原理和实现代码)
1、卷积神经网络与循环神经网络简单对比 CNN:借助卷积核(kernel)提取特征后,送入后续网络(如全连接网络 Dense) 进行分类、目标检测等操作。CNN借助卷积核从空间维度提取信息,卷积核参数
经典卷积网络--InceptionNet
1、InceptionNet网络模型 InceptionNet 即 GoogLeNet,诞生于 2015 年,旨在通过增加网络的宽度来提升网络的能力,与 VGGNet 通过卷积层堆叠的方式(纵向)
经典卷积网络--ResNet残差网络
1、ResNet残差网络 ResNet 即深度残差网络,由何恺明及其团队提出,是深度学习领域又一具有开创性的工作,通过对残差结构的运用,ResNet 使得训练数百层的网络成为了可能,从而具有非常强
经典卷积网络--VGGNet
1、VGGNet网络模型 在 AlexNet 之后,另一个性能提升较大的网络是诞生于 2014 年的 VGGNet,其 ImageNet Top5 错误率减小到了 7.3 %。 VGGNet
经典卷积网络--AlexNet
1、AlexNet网络结构 AlexNet 网络诞生于 2012 年,是第一个在图像识别比赛中获得冠军的深度学习模型,其 ImageNet Top5 错误率为 16.4 %,可以说 AlexNet
经典卷积网络--LeNet
> **开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第1天** > 借鉴点:**共享卷积核,减少网络参数。** # 1、LeNet5网络结构搭建 LeNet 即 LeNet5
卷积神经网络(原理与代码实现)
1、卷积的概念 卷积的概念:卷积可以认为是一种有效提取图像特征的方法。一般会用一个正方形的卷积核,按指定步长,在输入特征图上滑动,遍历输入特征图中的每个像素点。每一个步长, 卷积核会与输入特征图出
使用tf.keras快速搭建神经网络
> **开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第1天** # 1、keras介绍 tf.keras 是 tensorflow2 引入的高封装度的框架,可以用于快速搭建神
一层神经网络实现鸢尾花数据集分类
> **开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第1天** # 1、数据集介绍 鸢尾花数据集,其提供了 150 组鸢尾花数据,每组包括鸢尾花的花萼 长、花萼宽、花瓣长、花
TensorFlow基本概念与常见函数
1、基本概念 TensorFlow 中的 Tensor 表示张量,是多维数组、多维列表,用阶表示张量的维数。 0 阶张量叫做标量,表示的是一个单独的数,如 123; 1 阶张量叫作向量, 表示的是一个
网络优化方法--正则化
正则化 1.1 正则化介绍 正则化也叫作规范化,通常用得比较多的方式是 L1 正则化和 L2 正则化。L1 和 L2 正则 化的使用实际上就是在普通的代价函数(例如均方差代价函数或交叉熵代价函数)
网络优化方法--Dropout
1、Dropout介绍 Dropout 也是一种用于抵抗过拟合的技术,它试图改变网络本身来对网络进行优化。我 们先来了解一下它的工作机制,当我们训练一个普通的神经网络时,网络的结构可能如图所示。
下一页