首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
尚硅谷
掘友等级
运营小编
|
尚硅谷
让天下没有难学的技术!
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
125
文章 125
沸点 0
赞
125
返回
|
搜索文章
最新
热门
关于在hive任务中number of reducers的探讨
1.在默认情况下(set mapreduce.job.reduces=-1),实际运行计算过程中reducer的数量会由所读取文件的大小来决定。文件默认大小是256M,即每256M对应一个re
Apache Shiro Realm实战及认证授权源码解读
之前文章我们讲解了Apache Shiro的一些基础知识,今天我们会进行Shiro Realm实战以及对Shiro认证授权源码进行解读。 1. Shiro安全数据来源之Realm实战 从之前章节的
web前端技术Mongoose详解
简介 之前我们都是通过shell来完成对数据库的各种操作的,在开发中大部分时候我们都需要通过程序来完成对数据库的操作。 而Mongoose就是一个让我们可以通过Node来操作MongoDB的模块。
Spark的job、stage和task的机制论述
Spark任务调度机制论述 在生产环境下,Spark集群的部署方式一般为YARN-Cluster模式。 Driver线程主要是初始化SparkContext对象,准备运行所需的上下文,然后一方面保
SpringBoot性能怎样优化
组件自动扫描带来的问题 默认情况下,我们会使用 @SpringBootApplication 注解来自动获取应用的配置信息,但这样也会给应用带来一些副作用。使用这个注解后,会触发自动配置( auto
MapReduce的Shuffle过程及Hadoop优化(包括:压缩、小文件、集群优化)
一、Shuffle机制 1)Map方法之后Reduce方法之前这段处理过程叫Shuffle 2)Map方法之后,数据首先进入到分区方法,把数据标记好分区,然后把数据发送到环形缓冲区;环形缓
带你详细了解mongodb数据库
启动MongoDB • 在C盘根目录下创建data文件夹,在data下 创建db文件夹 • 打开CMD命令行窗口,输入mongod • 32位系统第一次启动: – mongod --storage
Spark启动及提交流程内部核心原理剖析
Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎,并且拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从
java编程开发多线程锁的8个问题分析
1. 程序代码 2. 锁的8个问题 (1) 标准访问,先打印短信还是邮件 (2) 停4秒在短信方法内,先打印短信还是邮件 (3) 普通的hello方法,是先打短信还是hello (4) 现在有两部手机
Node.js应用
「本文正在参与技术专题征文Node.js进阶之路,点击查看详情」 Node的历史 2009年 瑞安·达尔(Ryan Dahl)在GitHub上发布node的最初版本 2010年1月 Node的包
下一页
个人成就
文章被点赞
463
文章被阅读
132,458
掘力值
4,355
关注了
0
关注者
212
收藏集
0
关注标签
6
加入于
2021-11-10