获得徽章 0
TIOBE Index for October 2022
本月tiobe编程语言排行榜,排名上靠前的基本稳定。
1.python的发展历程,由2003的第13变到现在多次稳坐第一,这和人工智能的大发展环境息息相关!毕竟人工智能的两大boss:Pytouch和TensorFlow都是python,现在小学教程都已经安排Python了,由此可见一斑!祝贺Python!
2.Java的发展历程,虽然现在排名还是靠前,但趋势图看着不怎么好!Java的压力由此可见啊,这也是这几年Java快速迭代的一个原因,希望Java在云原生的浪潮中脱颖而出!
3.Go的发展历程,Go这两年是出尽了风头,在编程界屡屡占据话题风口!2010年出生的Go,排名上升可谓亮眼!这也是老牌编程语言的压力所在
上榜的语言在你的技术栈中吗?
本月tiobe编程语言排行榜,排名上靠前的基本稳定。
1.python的发展历程,由2003的第13变到现在多次稳坐第一,这和人工智能的大发展环境息息相关!毕竟人工智能的两大boss:Pytouch和TensorFlow都是python,现在小学教程都已经安排Python了,由此可见一斑!祝贺Python!
2.Java的发展历程,虽然现在排名还是靠前,但趋势图看着不怎么好!Java的压力由此可见啊,这也是这几年Java快速迭代的一个原因,希望Java在云原生的浪潮中脱颖而出!
3.Go的发展历程,Go这两年是出尽了风头,在编程界屡屡占据话题风口!2010年出生的Go,排名上升可谓亮眼!这也是老牌编程语言的压力所在
上榜的语言在你的技术栈中吗?
展开
6
4
程序员都不愿看到的就是CPU、内存高位运行,居高不下,然后各种告警咔咔咔不停地在告警群中狂推消息。由此造成的接口超时引发短暂的服务链雪崩,然后大家都在艾特你,那个滋味儿真叫酸爽![[捂脸]](//lf-web-assets.juejin.cn/obj/juejin-web/xitu_juejin_web/img/jj_emoji_28.8981538.png)
前段时间遇到然后解决的CPU高负载问题,找运维各种拉快照分析定位!话说你们遇到这种问题都是如何处理的呢?
![[捂脸]](http://lf-web-assets.juejin.cn/obj/juejin-web/xitu_juejin_web/img/jj_emoji_28.8981538.png)
前段时间遇到然后解决的CPU高负载问题,找运维各种拉快照分析定位!话说你们遇到这种问题都是如何处理的呢?
展开
2
1
分布式系统现在大行其道,大家都在谈,都在用,你有想过为什么吗?为什么我们都在选用分布式系统?最简洁直白的原因就是:单机的计算资源和存储资源无法满足系统需要!
起初,我们可以对单机的资源(cpu,内存,带宽,磁盘)进行垂直扩容,但是单机的资源始终是有限的,考虑到成本因素企业更是不会允许的。所以我们怎么才能以小博大,用较小的资源(成本)去满足快速增长的业务,是我们程序员必须要面对的重大问题!分布式系统(亦或分布式思想)给我们提供了解决问题的范式,所以分布式系统是互联网发展的必然产物。
分布式系统并不是什么高大上的存在,我们每天不管是摸鱼还是写bug都在和其打交道。如常见的分布式系统:
分布式存储系统、分布式计算系统、分布式同步系统、分布式消息中间件、分布式服务调用系统等等,虽然五花八门,但万变不离其宗。
起初,我们可以对单机的资源(cpu,内存,带宽,磁盘)进行垂直扩容,但是单机的资源始终是有限的,考虑到成本因素企业更是不会允许的。所以我们怎么才能以小博大,用较小的资源(成本)去满足快速增长的业务,是我们程序员必须要面对的重大问题!分布式系统(亦或分布式思想)给我们提供了解决问题的范式,所以分布式系统是互联网发展的必然产物。
分布式系统并不是什么高大上的存在,我们每天不管是摸鱼还是写bug都在和其打交道。如常见的分布式系统:
分布式存储系统、分布式计算系统、分布式同步系统、分布式消息中间件、分布式服务调用系统等等,虽然五花八门,但万变不离其宗。
展开
评论
点赞
赞了这篇文章
赞了这篇沸点
话说你们负责的服务可用性是几个9?刚入我司的时候记得面试官(后来的leader)说我们服务的HA是五个9,不过经过这一年多时间的观察,五个9的表现还是差一点(
没有吹毛求疵的意思)。因为现在服务基本都是分布式部署的微服务,且都支持自动scale out(不需要运维同学手动重启了
),所以基本不会有单点故障。拿我负责的服务来说,不可用的时间基本都是发生在服务重启的时候(pod资源超限被自动重启等),重启的时候服务节点减少,集群的负载能力减小,造成部分接口超时,具体表现就是会有10秒左右的告警;即使服务可以做到快速重启,最先打过来的流量由于jvm并未预热也是会有一些timeout。
没有吹毛求疵的意思)。因为现在服务基本都是分布式部署的微服务,且都支持自动scale out(不需要运维同学手动重启了
),所以基本不会有单点故障。拿我负责的服务来说,不可用的时间基本都是发生在服务重启的时候(pod资源超限被自动重启等),重启的时候服务节点减少,集群的负载能力减小,造成部分接口超时,具体表现就是会有10秒左右的告警;即使服务可以做到快速重启,最先打过来的流量由于jvm并未预热也是会有一些timeout。
展开
2
点赞
赞了这篇文章
赞了这篇文章