教程总体简介:机器学习(常用科学计算库的使用)基础定位、目标 定位 目标 1.1 人工智能概述 学习目标 1 人工智能应用场景 2 人工智能小案例 3 人工智能发展必备三要素: 4 人工智能、机器学习和深度学习 4 小结 机器学习概述 1.4 机器学习工作流程 1 什么是机器学习 Pandas 5.8 高级处理-数据离散化 1 为什么要离散化 2 什么是数据的离散化 3 股票的涨跌幅离散化 3.1 读取股票的数据 3.2 将股票涨跌幅数据进行分组 3.3 股票涨跌幅分组数据变成one-hot编码 5.10 高级处理-交叉表与透视表 1 交叉表与透视表什么作用 2 案例分析 2.1 数据准备 2.2 查看效果 2.3 使用pivot_table(透视表)实现 5.12 案例 1 需求 2 实现 2.1 问题一: 完整机器学习项目的流程(拓展阅读) 独立同分布IID(independent and identically distributed) 1.独立同分布(i.i.d.) 2.简单解释 — 独立、同分布、独立同分布 3.机器学习领域的重要假设 4.目前发展 拓展阅读 1.6 模型评估 2 回归模型评估 3 拟合 1.7 Azure机器学习模型搭建实验 Azure平台简介 1.8 深度学习简介 1 深度学习 —— 神经网络简介 2 深度学习各层负责内容 2.1 库的安装 小结 机器学习基础环境安装与使用 2.2 Jupyter Notebook使用 一级标题 4 Jupyter Notebook中自动补全代码等相关功能拓展【了解】 3.1 Matplotlib之HelloWorld 1 什么是Matplotlib 3 实现一个简单的Matplotlib画图 — 以折线图为例 3.2 图形绘制流程: 3.3 折线图绘制与显示 4 认识Matplotlib图像结构(了解) 3.2 基础绘图功能 — 以折线图为例 1 完善原始折线图 — 给图形添加辅助功能 1.1 准备数据并画出初始折线图 1.2 添加自定义x,y刻度 1.3 中文显示问题解决 1.4 添加网格显示 1.5 添加描述信息 1.6 图像保存 2 在一个坐标系中绘制多个图像 2.1 多次plot 2.2 设置图形风格 2.3 显示图例 2.4 练一练 3 多个坐标系显示— plt.subplots(面向对象的画图方法) 4 折线图的应用场景 3.3 常见图形绘制 1 常见图形种类及意义 2 散点图绘制 4.1 Numpy优势 2 ndarray介绍 3 ndarray与Python原生list运算效率对比 Numpy 4.2 N维数组-ndarray 4.3 基本操作 1 生成数组的方法 1.1 生成0和1的数组 1.2 从现有数组生成 2 数组的索引、切片 3 形状修改 3.1 ndarray.reshape(shape, order) 4 类型修改 4.2 ndarray.tostring([order])或者ndarray.tobytes([order]) 4.3 jupyter输出太大可能导致崩溃问题【了解】 5 数组的去重 5.1 np.unique() 4.5 数组间运算 1 数组与数的运算 4.6 数学:矩阵 1 矩阵和向量 1.1 矩阵 1.2 向量 2 加法和标量乘法 3 矩阵向量乘法 5 矩阵乘法的性质 6 逆、转置 7 矩阵运算 7.1 矩阵乘法api: 5.2 Pandas数据结构 1.Series 2.DataFrame 3.MultiIndex与Panel 3.2 Panel 5.6 文件读取与存储 1 CSV 1.1 read_csv 2 HDF5 2.1 read_hdf与to_hdf 3 JSON 3.2 read_josn 案例 3.3 to_json
完整笔记资料代码:gitee.com/yinuo112/AI…
感兴趣的小伙伴可以自取哦~
全套教程部分目录:
部分文件图片:
机器学习(常用科学计算库的使用)基础定位、目标
定位
作为人工智能领域(数据挖掘/机器学习方向)的基础,为长期从事人工智能方向打下坚实的基础。
目标
- 了解机器学习定义以及应用场景
- 掌握机器学习基础环境的安装和使用
- 掌握利用常用的科学计算库对数据进行展示、分析
1.1 人工智能概述
学习目标
- 了解人工智能在现实生活中的应用
- 知道人工智能发展必备三要素
- 知道人工智能和机器学习、深度学习三者之间的关系
1 人工智能应用场景
2 人工智能小案例
案例一:
参考链接:[
案例二:
参考链接:[
案例三:
查看更多:[
3 人工智能发展必备三要素:
- 数据
- 算法
- 计算力
- CPU,GPU,TPU
-
计算力之CPU、GPU对比:
-
CPU主要适合I\O密集型的任务
-
GPU主要适合计算密集型任务
-
-
提问:什么类型的程序适合在GPU上运行?
(1)计算密集型的程序。
所谓计算密集型(Compute-intensive)的程序,就是其大部分运行时间花在了寄存器运算上,寄存器的速度和处理器的速度相当,从寄存器读写数据几乎没有延时。可以做一下对比,读内存的延迟大概是几百个时钟周期;读硬盘的速度就不说了,即便是SSD, 也实在是太慢了。
(2)易于并行的程序。
GPU其实是一种SIMD(Single Instruction Multiple Data)架构, 他有成百上千个核,每一个核在同一时间最好能做同样的事情。
CPU和GPU的区别:
[
Google TPU 介绍:
[
4 人工智能、机器学习和深度学习
-
人工智能和机器学习,深度学习的关系
-
机器学习是人工智能的一个实现途径
-
深度学习是机器学习的一个方法发展而来
-
4 小结
-
人工智能应用场景【了解】
- 网络安全、电子商务、计算模拟、社交网络 … ...
-
人工智能必备三要素【知道】
- 数据、算法、计算力
-
人工智能和机器学习,深度学习的关系【知道】
- 机器学习是人工智能的一个实现途径
- 深度学习是机器学习的一个方法发展而来
1.2 人工智能发展历程
学习目标
- 了解人工智能阶段发展历程
1 人工智能的起源
1.1 图灵测试
测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。
多次测试(一般为5min之内),如果有超过30%的测试者不能确定被测试者是人还是机器,那么这台机器就通过了测试,并被认为具有人类智能。
1.2 达特茅斯会议
1956年8月,在美国汉诺斯小镇宁静的达特茅斯学院中,
约翰·麦卡锡(John McCarthy)
马文·闵斯基(Marvin Minsky,人工智能与认知学专家)
克劳德·香农(Claude Shannon,信息论的创始人)
艾伦·纽厄尔(Allen Newell,计算机科学家)
赫伯特·西蒙(Herbert Simon,诺贝尔经济学奖得主)等科学家正聚在一起,讨论着一个完全不食人间烟火的主题:
用机器来模仿人类学习以及其他方面的智能。
会议足足开了两个月的时间,虽然大家没有达成普遍的共识,但是却为会议讨论的内容起了一个名字:
人工智能
因此,1956年也就成为了人工智能元年。
2 发展历程
人工智能充满未知的探索道路曲折起伏。如何描述人工智能自1956年以来60余年的发展历程,学术界可谓仁者见仁、智者见智。我们将人工智能的发展历程划分为以下6个阶段:
- 第一是起步发展期:1956年—20世纪60年代初。
人工智能概念提出后,相继取得了一批令人瞩目的研究成果,如机器定理证明、跳棋程序等,掀起人工智能发展的