Linux系统 CPU 100% 异常排查实践与总结
1、问题背景
昨天下午突然收到运维邮件报警,显示数据平台服务器 cpu 利用率达到了 98.94%,而且最近一段时间一直持续在 70% 以上,看起来像是硬件资源到瓶颈需要扩容了,但仔细思考就会发现咱们的业务系统并不是一个高并发或者 CPU 密集型的应用,这个利用率有点太夸张,硬件瓶颈应该不会这么快就到了,一定是哪里的业务代码逻辑有问题。
2、排查思路
2.1 定位高负载进程 pid
首先登录到服务器使用 top 命令确认服务器的具体情况,根据具体情况再进行分析判断。
通过观察 load average,以及负载评判标准(8 核),可以确认服务器存在负载较高的情况;
观察各个进程资源使用情况,可以看出进程 id 为 682 的进程,有着较高的 CPU 占比
2.2 定位具体的异常业务
这里咱们可以使用 pwdx
命令根据 pid 找到业务进程路径,进而定位到负责人和项目:
可得出结论:该进程对应的就是数据平台的 web 服务。
2.3 定位异常线程及具体代码行
传统的方案一般是 4 步:
- top oder by with P:1040 // 首先按进程负载排序找到 maxLoad (pid)
- top -Hp 进程 PID:1073 // 找到相关负载 线程 PID
- printf “0x% x\n” 线程 PID: 0x431 // 将线程 PID 转换为 16 进制,为后面查找 jstack 日志做准备
- jstack 进程 PID | vim +/ 十六进制线程 PID - // 例如:jstack 1040|vim +/0x431 -
但是对于线上问题定位来说,分秒必争,上面的 4 步还是太繁琐耗时了,之前介绍过淘宝的 oldratlee 同学就将上面的流程封装为了一个工具:show-busy-java-threads.sh,可以很方便的定位线上的这类问题:
可得出结论:是系统中一个时间工具类方法的执行 cpu 占比较高,定位到具体方法后,查看代码逻辑是否存在性能问题。
※ 如果线上问题比较紧急,可以省略 2.1、2.2 直接执行 2.3,这里从多角度剖析只是为了给大家呈现一个完整的分析思路。
3、根因分析
经过前面的分析与排查,最终定位到一个时间工具类的问题,造成了服务器负载以及 cpu 使用率的过高。
- 异常方法逻辑:是把时间戳转成对应的具体的日期时间格式;
- 上层调用:计算当天凌晨至当前时间所有秒数,转化成对应的格式放入到 set 中返回结果;
- 逻辑层:对应的是数据平台实时报表的查询逻辑,实时报表会按照固定的时间间隔来,并且在一次查询中有多次(n 次)方法调用。
那么可以得到结论,如果现在时间是当天上午 10 点,一次查询的计算次数就是 106060n 次 = 36,000n 次计算,而且随着时间增长,越接近午夜单次查询次数会线性增加。由于实时查询、实时报警等模块大量的查询请求都需要多次调用该方法,导致了大量 CPU 资源的占用与浪费。