likes
comments
collection
share

JVM系统优化实践(19):GC生产环境案例(二)

作者站长头像
站长
· 阅读数 50

接昨天的问题继续来说,在高并发场景中,对象过多容易导致OOM。由于高并发导致Young GC存活对象过多,因此会有太多对象进入老年代,导致老年代也被填满,频繁触发Full GC,而老年代空间也很快被塞满。可以用图来表示:

JVM系统优化实践(19):GC生产环境案例(二)

JVM系统优化实践(19):GC生产环境案例(二)  

JVM系统优化实践(19):GC生产环境案例(二)

JVM系统优化实践(19):GC生产环境案例(二)

JVM系统优化实践(19):GC生产环境案例(二)

JVM系统优化实践(19):GC生产环境案例(二)

因此,有限的内存中存放了过多的对象,而且大多数也都是存活的时候很容易发生OOM。而且系统本身的代码可能也存在着内存泄漏。例如,利用CGLIB动态生成类,来造成Metaspace的内存溢出。JVM的参数设置:-XX:MetaspaceSize=10M -XX:MaxMetaspaceSize=10M

然后输入如下代码:

JVM系统优化实践(19):GC生产环境案例(二)

运行代码后,通过jstat,会发现Metaspace数据异常。

再通过JVM栈溢出来实现OOM。JVM参数设置:-Xss1M

代码如下:

JVM系统优化实践(19):GC生产环境案例(二)

 

然后是JVM堆溢出来实现OOM。JVM参数设置:-Xms10M -Xmx10M

代码如下:

JVM系统优化实践(19):GC生产环境案例(二)

 

在一个试用kafka的超大数据量处理的案例中,架构大概是这个样子的:

JVM系统优化实践(19):GC生产环境案例(二)

 

这里面的系统隐患是:

1、一旦kafka故障,那么当前计算对应的数据必须全部驻留内存,并且一直重试等待kafka恢复;

2、计算没有停止的时候,会不停加载更多数据直到OOM。


感谢您的大驾光临!欢迎骚扰,不胜荣幸~

转载自:https://juejin.cn/post/7256702654578229308
评论
请登录