首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
生产问题
订阅
xj1988
更多收藏集
微信扫码分享
微信
新浪微博
QQ
62篇文章 · 0订阅
一个诡异的 200ms 延迟问题排查过程
最近生产环境 Nginx 遇到了部分请求延迟增加200ms的情况,深入排查解决后觉得挺有意义的(包括排查过程),所以这里记录分享一下。
简单一招竟把nginx服务器性能提升50倍
需求背景 接到重点业务需求要分轮次展示数据,预估最高承接 9w 的 QPS,作为后端工程师下意识的就是把接口写好,分级缓存、机器扩容、线程拉满等等一系列连招准备,再因为数据更新频次两只手都数得过来
我的独立开发作品,服务器被攻击两月半复盘
截止目前攻击已经停止,从4月20到现在为止已经是被攻击的第两个半月了,最近一直在观察攻击数据的变化,目前来看攻击已经停止。 这场持续两个多月的攻击真的是闻所未闻,怎么会有人这么
【线上故障复盘】RPC 线程池被打满,1024个线程居然不够用?
昨天晚上,我刚到家里打开公司群,就看见群里有人讨论:线上环境出现大量RPC请求报错,异常原因:被线程池拒绝……
什么!服务器内存又双叒叕打满了!
生产环境服务器的内存居高不下,以一线coder的视角分享下此次的排查过程以及在分析过程中的一些思考。
得物SRE K8s 故障诊断:从 CPU 高负载到挂载泄露根源揭示
深入探讨容器SRE在日常工作中面临的挑战和如何通过专业技能和创新技术方案来定位和解决问题,确保技术平台的稳健运行。这些看似“摸不着头脑”的琐碎事务,实际上是确保企业技术架构弹性和可靠性的关键所在。
一次有趣的 Docker 网络问题排查经历
前段时间公司的安卓打包服务出现问题,排查记录了一下,主要涉及这些知识:Docker 桥接模式网络模型、Netfilter 与 NAT 原理、Systemtap 与 RST 包
JVM 应用被 K8S 莫名 Kill 的生产事故排查(基于 Native Memory Tracking 排查分析)
每隔半个月,JVM 应用容器就会被 K8S 以 OOM 之名莫名 Kill,这究竟程序员的脆弱还是JDK的bug,欢迎收看JVM 排查案例之深挖 JVM 内存分布。
xxl-job导致容器OOM
部署在容器中的一些Java程序每个月都会有1次由于超过容器的限制内存大小,被cgroup杀掉。究竟是什么原因呢?
Java应用堆外内存泄露问题排查 | 京东云技术团队
问题是怎么发现的 最近有个java应用在做压力测试 压测环境配置: CentOS系统 4核CPU 8g内存 jdk1.6.0_25,jvm配置-server -Xms2048m -Xmx2048m 出