文章出處

背景:
 
問題:
有個渠道支付服務,負責與所有支付相關服務進行交互,包括 渠道下單支付,渠道成功通知,渠道的對賬等
服務4臺機,平時跑的都很穩定,通過thrift進行對外提供服務,且平時并未發現訪問超時的情況,已經平穩在線上跑了1年多了,沒出現過超時問題。
但最近發現,每天到了晚上凌晨2點開始大量服務訪問超時,且定位到每次都是搶到對賬任務的那臺服務出現問題。
 
解決:
后通過監控和打印GC日志發現,出現問題機器服務的Major GC頻率增加,應該是內存問題。
故把對賬程序拆出后單獨部署后, 再沒出現服務訪問超時情況。
 
分析,對賬時,因為要撈出當天支付數據到內存進行對賬(隨著業務發展訂單開始猛增)故觸發了GC。其實增加分批limit當然也可以解決
這是最近第二次踩到GC的坑了, 第一次是每次訪問給每個線程分配的內存過多,并發上來后性能嚴重降低,導致WEB超時,有必要總結下了
 
 
 
重現下:
 
死磕重現下,
 
模擬業務部分,假使每個業務需要500ms返回,代碼如下:
/**
 * 模擬當系統中使用大對象時,對JVM造成的影響
 * 
 * @author 包子(何錦彬). 2017.01.07
 * @QQ 277803242
 */
@WebServlet("/Test")
public class Test extends HttpServlet {
    private static final long serialVersionUID = 1L;
    private Logger logger = Logger.getLogger(Test.class.getName());

    protected void doGet(HttpServletRequest request, HttpServletResponse response)
            throws ServletException, IOException {
        long startTime = System.currentTimeMillis();
        // deal
        try {
            // 模擬業務花費時間
            Thread.sleep(500);
        } catch (InterruptedException e) {
        }
        long costTime = (System.currentTimeMillis() - startTime);
        // 接口1秒timeout,打印出日志
        if (costTime > 1000) {
            logger.warning("cost time:" + costTime);
        }
        Writer out = response.getWriter();
        out.append("ok");
    }
}
 
放入tomcat,加入垃圾回收方式和堆內存大小,打印垃圾回收日志
 
JAVA_OPTS="-Xmx1200m -Xms1200m -Xmn200m -Xss228k -XX:+UseConcMarkSweepGC -XX:+UseParNewGC -XX:+PrintGCDetails"
 
用jmeter壓測1分鐘后,發現正常,每次返回均在500毫秒左右,日志里也沒有出現訪問超時。
 
 
 
加入模擬對賬部分代碼,1分鐘后對賬開啟,持續提供服務,為了讓它觸發GC,模擬加載了1G的待對賬數據,(當然,在生產環境里只是一個大對象,但OU區本來就有東西了)
 
/**
 * 模擬定時對賬, 模擬來了個大對象對賬
 * 
 * @author 包子(何錦彬). 2017.01.07
 * @QQ 277803242
 */
@WebServlet(name = "init", loadOnStartup = 1, description = "init", urlPatterns = "/task")
public class BigObject extends HttpServlet {
    class ReconciliationTask extends TimerTask {

        @Override
        public void run() {
            logger.warning("a big object have commit,exp: reconciliation");
            byte[] bigObject = new byte[1024 * 1024 * 500];// 年老代 500M,剛剛好達到年老代的50%,不斷觸發GC
            try {
                Thread.sleep(60 * 1000);
            } catch (InterruptedException e) {
                // TODO Auto-generated catch block
                e.printStackTrace();
            }
        }

    }

    private static final long serialVersionUID = 1L;
    private Logger logger = Logger.getLogger(Test.class.getName());

    @Override
    public void init() throws ServletException {
        Timer timer = new Timer();
        timer.schedule(new ReconciliationTask(), 60 * 1000);// 1分鐘后模擬開始對賬任務
        logger.log(Level.INFO, "task have registered");
        super.init();
    }
}
 
和上面一樣的參數啟動tomcat, 1G內存,CMS回收,用jmeter壓測1分鐘后,發現 Major GC大量發生,截取一周期的Major GC日志如下:
 
GC [1 CMS-initial-mark: 1048576K(1740800K)] 1051853K(1832960K), 0.0042630 secs] [Times: user=0.00 sys=0.00, real=0.01 secs] 
[CMS-concurrent-mark: 0.023/0.023 secs] [Times: user=0.02 sys=0.00, real=0.02 secs] 
[CMS-concurrent-preclean: 0.007/0.007 secs] [Times: user=0.01 sys=0.00, real=0.01 secs] 
 CMS: abort preclean due to time [CMS-concurrent-abortable-preclean: 0.222/5.020 secs] [Times: user=0.20 sys=0.03, real=5.02 secs] 
[GC[YG occupancy: 3277 K (92160 K)][Rescan (parallel) , 0.0067540 secs][weak refs processing, 0.0000400 secs][scrub string table, 0.0004160 secs] [1 CMS-remark: 1048576K(1740800K)] 1051853K(1832960K), 0.0076820 secs] [Times: user=0.02 sys=0.01, real=0.01 secs] 
[CMS-concurrent-sweep: 0.000/0.000 secs] [Times: user=0.00 sys=0.00, real=0.00 secs] 
[CMS-concurrent-reset: 0.014/0.014 secs] [Times: user=0.00 sys=0.01, real=0.01 secs] 

 

此時的用jstat查看的話情況如下:
 
S0C      S1C     S0U    S1U      EC       EU        OC         OU       PC     PU    YGC    YGCT    FGC    FGCT     GCT 
20480.0
20480.0 0.0 17257.9 163840.0 93241.7 1024000.0 512000.0 29356.0 17612.0 1 0.032 5 0.159 0.191 20480.0 20480.0 0.0 17257.9 163840.0 93241.8 1024000.0 512000.0 29356.0 17612.0 1 0.032 5 0.159 0.191 20480.0 20480.0 0.0 17257.9 163840.0 93241.9 1024000.0 512000.0 29356.0 17612.0 1 0.032 5 0.159 0.191 20480.0 20480.0 0.0 17257.9 163840.0 93242.0 1024000.0 512000.0 29356.0 17612.0 1 0.032 5 0.159 0.191 20480.0 20480.0 0.0 17257.9 163840.0 93242.0 1024000.0 512000.0 29356.0 17612.0 1 0.032 5 0.159 0.191 20480.0 20480.0 0.0 17257.9 163840.0 93242.1 1024000.0 512000.0 29356.0 17612.0 1 0.032 6 0.183 0.214
 
導致結果,大量接口訪問超時,截取一部分日志如下:
13-Jan-2017 01:26:43.692 WARNING [http-nio-8080-exec-78] org.hjb.memory.Test.doGet cost time:1482
13-Jan-2017 01:26:43.693 WARNING [http-nio-8080-exec-28] org.hjb.memory.Test.doGet cost time:1434
13-Jan-2017 01:26:43.694 WARNING [http-nio-8080-exec-23] org.hjb.memory.Test.doGet cost time:1492
13-Jan-2017 01:26:43.699 WARNING [http-nio-8080-exec-85] org.hjb.memory.Test.doGet cost time:1514
13-Jan-2017 01:26:43.700 WARNING [http-nio-8080-exec-97] org.hjb.memory.Test.doGet cost time:1515
13-Jan-2017 01:26:43.701 WARNING [http-nio-8080-exec-83] org.hjb.memory.Test.doGet cost time:1517
13-Jan-2017 01:26:43.704 WARNING [http-nio-8080-exec-87] org.hjb.memory.Test.doGet cost time:1547
13-Jan-2017 01:26:43.705 WARNING [http-nio-8080-exec-41] org.hjb.memory.Test.doGet cost time:1548
13-Jan-2017 01:26:43.707 WARNING [http-nio-8080-exec-35] org.hjb.memory.Test.doGet cost time:1552
13-Jan-2017 01:26:43.707 WARNING [http-nio-8080-exec-26] org.hjb.memory.Test.doGet cost time:1557
13-Jan-2017 01:26:43.709 WARNING [http-nio-8080-exec-101] org.hjb.memory.Test.doGet cost time:1559
13-Jan-2017 01:26:43.690 WARNING [http-nio-8080-exec-42] org.hjb.memory.Test.doGet cost time:1482
13-Jan-2017 01:26:43.716 WARNING [http-nio-8080-exec-80] org.hjb.memory.Test.doGet cost time:1578
13-Jan-2017 01:26:43.720 WARNING [http-nio-8080-exec-3] org.hjb.memory.Test.doGet cost time:1583
13-Jan-2017 01:26:43.690 WARNING [http-nio-8080-exec-22] org.hjb.memory.Test.doGet cost time:1420
13-Jan-2017 01:26:43.690 WARNING [http-nio-8080-exec-59] org.hjb.memory.Test.doGet cost time:1295
13-Jan-2017 01:26:43.689 WARNING [http-nio-8080-exec-51] org.hjb.memory.Test.doGet cost time:1294
13-Jan-2017 01:26:43.727 WARNING [http-nio-8080-exec-79] org.hjb.memory.Test.doGet cost time:1559
13-Jan-2017 01:26:43.731 WARNING [http-nio-8080-exec-63] org.hjb.memory.Test.doGet cost time:1630
13-Jan-2017 01:26:43.687 WARNING [http-nio-8080-exec-77] org.hjb.memory.Test.doGet cost time:1429
13-Jan-2017 01:26:43.686 WARNING [http-nio-8080-exec-95] org.hjb.memory.Test.doGet cost time:1371
13-Jan-2017 01:26:43.737 WARNING [http-nio-8080-exec-8] org.hjb.memory.Test.doGet cost time:1595
13-Jan-2017 01:26:43.686 WARNING [http-nio-8080-exec-84] org.hjb.memory.Test.doGet cost time:1429
13-Jan-2017 01:26:43.686 WARNING [http-nio-8080-exec-92] org.hjb.memory.Test.doGet cost time:1295
13-Jan-2017 01:26:43.678 WARNING [http-nio-8080-exec-20] org.hjb.memory.Test.doGet cost time:1390

 

上面是HTTP的,thrift訪問其實也是一樣的。
 
 
 
總結:
 
大對象使用會嚴重影響到服務的性能質量,時刻觀察GC的發生。
 
 

踩過GC的幾個坑

1, 內存不夠用,JVM用到SWAP

如果每次GC時間不合理時,如: FGC=10,FGCT=1, 基本可以肯定是用到了SWAP內存區了 (當然也和你內存大小有關, 指一般系統內存在8G附近)

 

2, 用到大對象,導致頻繁FGC( FULLGC和 Major GC 對性能都有嚴重影響)

看很多資料上說是60%觸發Major GC, 但經測試發現, 在OU到了50%時開始不斷觸發Major GC

 

4,YGC變動越來越久, 如用到了string.intern()方法. (比如在 fastjson 中有用到), 

原因: string.intern() 往常量池加如數據。 而ROOT GC時, 需要掃描所有常量作為根節點, 當常量池越大量增加時,掃描的數據時間增加

 

5,GC里面出現有

Concurrent mode failed

原因:由于GC在CMS時,往OU區放入對象,然后不可用。 

發現大量這種現象,

1,增加OLD區的內存壓縮參數, UseCMSCompactAtFullCollection 或 CMSFullGCsBeforeCompaction

2, 建議調大年輕代內存調大,或增加OLD區的回收頻率

 

Prommotion failed 

1. 年輕代對象晉升失敗, 當啟用了擔保分配,每次晉升會檢查年老代的內存是否夠大于年輕代平均晉升對象的大小,如果小于將會進行FULLGC,日志會顯示Prommotion faile引起fullGC

2, JDK6后默認都開啟了擔保分配

 

 

再解釋下GC的幾個名詞

有幾個誤區:

FULL GC , Major GC , Minor GC

Minor GC 就是年輕代清理,這個好理解

FULL GC 指整個永久代(或G1的Metaspace代)的和堆內存 ,堆外內存一起清理.  在GC日志里的FULL GC指的是這個

Major GC 年老代的清理, 在jstat -gc 里的FGC只是指這個,只是年老代的GC而已

詳細:https://plumbr.eu/handbook/garbage-collection-in-java 

誤區:jstat 的FGC, 它統計的僅僅是STW的次數,即 兩個init-mark和 remark的階段

 

 

問題:

 

引起FULL GC的原因有哪些呢?

1、System.gc()方法的調用 
2、老年代代空間不足 
3、永生區空間不足 
4、CMS GC時出現,如GC日志中找到promotion failed(晉升失敗)和concurrent mode failure(回收時有對象要分配) 
5、統計得到的Minor GC晉升到舊生代的平均大小大于老年代的剩余空間 
6、空間碎片太多,堆中分配很大的對象(如果如此,建議每次FULLGC后開啟壓縮)

 

如何查看GC 發生的原因呢?

目前能想到的,最簡單是 jstat -gccause

 

 

1,這種跑批的任務不應該和服務放一塊后面,應該是單獨的模塊

2. 對于對賬,我的解決是后面放mongoDB,然后拿出來進行對賬,完全是個離線處理的過程了

3,感謝各位的疑問。其實不一定是對賬,很多系統會把跑批和服務放一塊,如果跑批涉及到把數據load到內存的話,一定要注意垃圾回收了。不然容易觸發CMS的GC。 而且經過我測試,每次到了老年代的50%就會不斷觸發GC,如果跑批任務持續時間比較久,不釋放對象,將不停的Major GC。

 

有個疑問

上面例子中, 我加上 +XX:CMSInitiatingOccupancyFraction=80 后,還是會不停的Major GC( 例子中只占50%),待解答

 

持續更新留言問題,解答疑問

歡迎關注我的公眾號,專注重現各種線上的BUG

 或搜 “包子的實驗室”

 

 

文章列表


不含病毒。www.avast.com
arrow
arrow
    全站熱搜
    創作者介紹
    創作者 大師兄 的頭像
    大師兄

    IT工程師數位筆記本

    大師兄 發表在 痞客邦 留言(0) 人氣()