首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
sibyl_
掘友等级
hhh
无
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
15
文章 15
沸点 0
赞
15
返回
|
搜索文章
最新
热门
Sqoop2数据迁移实战
sqoop是数据迁移工具,可以双向迁移,可以把大数据集群里的数据迁出到关系型数据库里,也可以把关系型数据库里的数据迁移到到大数据集群里。 是关系型数据库和大数据集群之前数据迁入迁出工具。
HQL实现影评分析(Linux下脚本编写案例)
把本地的这个位置的文件导入到集群的flume里面。 我们基于以上的数据我们要建立hive数仓(规划数仓、表、把数据加载过来),进行相应的分析。 Linux里面有个定时任务处理crontab。每天定时执行这个shell脚本(自己研究一下)
Hive实战
yarn:只存的话就跟yarn一点关系都没有。 Hive分析的数据底层是在Hdfs上面。 n多个节点共同分析运算。 nohup 英文全称 no hang up(不挂起),用于在系统后台不挂断地运行命令,退出终端不会影响程序的运行。 导入的数据还是以文件的形式存储的。 这不是问题…
Hadoop及其命令
一个Hadoop集群包含多台节点。 HDFS侧重分布式存储。一台机子存不下,所以有了集群的概念。 集群一般都是奇数台,有选举机制。 它并不是把这300M文件直接存到一个节点里面,而是采用切割的方式。 一个Block(数据块)是128M. 它会分割成3块:128M、128M、44…
Flume数据采集实战
执行完shell脚本的效果:hdfs的 /flume下回自动生成2021-01-22的目录。
Jsoup爬虫程序的实现
在没有解析之前我们得到得数据是什么。 maven打包,双击package。
SpringBoot直接上手/前后端分离
模块名是指自动生成的文件夹的名字。 表名是指涉及到的数据库表。 我们的目的,就是把这些数据,以json的格式从后台输出,供前台调用并展示。 通过以上代码生成等一系列操作,我们已经把后台的框架搭建好,剩下的就时完善代码了。 entity层和mapper层生成的很好,我们不用动。 …
实训—Nginx直接上手
此时的前端程序在本地也是能访问的(localhost改成远程主机的地址)。但是还是要部署在Nginx里
MySQL基本操作
四. MySQL常用操作
实训—Linux常用命令
| 切换到上级父目录 | cd .. | | 第一个rwx: 当前拥有者对这个文件的权限是可读可写可执行。
下一页
个人成就
文章被点赞
12
文章被阅读
22,912
掘力值
602
关注了
4
关注者
7
收藏集
1
关注标签
6
加入于
2021-01-25