国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術文章
文章詳情頁

tomcat 集群監控與彈性伸縮詳解

瀏覽:103日期:2023-03-19 16:51:51
目錄
  • 如何給 tomcat 配置合適的線程池
  • 如何監控 tomcat 線程池的工作情況
  • tomcat 線程池擴縮容
  • tomcat 是如何避免原生線程池的缺陷的

如何給 tomcat 配置合適的線程池

任務分為 CPU 密集型和 IO 密集型

對于 CPU 密集型的應用來說,需要大量 CPU 計算速度很快,線程池如果過多,則保存和切換上下文開銷過高反而會影響性能,可以適當將線程數量調小一些

對于 IO 密集型應用來說常見于普通的業務系統,比如會去查詢 mysql、redis 等然后在內存中做簡單的數據組裝和邏輯判斷,此時由于有 epoll、dma 等支持,消耗較長時間的線程不會長時間占據 CPU 時間,所以可以適當將線程數量調大一些

對于線程數到底該設置多大,網上有很多的方案

我們在實際情況中基于 wrk 等壓測工具進行壓測,壓測邏輯相對復雜請求量相對較高的接口先配置一個相對保守的值

先預估假設當前接口處理平均耗時 300MS,1S 一個線程平均處理 3 個請求,最大 100 個線程 1S 能處理 300 TPS

粗略估算每個請求會消耗多大的內容空間,假如是 2KB,那么每秒會消耗 600KB 以此來估算 YGC 多久會觸發一次,假設年輕代為 1GB 那么大約 29 分鐘觸發一次 YGC

然后再看 100 個線程持續處理 300TPS 的時候 CPU 消耗情況

觀察內存幾分鐘 GC 一次,或者 CPU 使用率穩定在 50% 左右就好,假設此時線程池 70 個線程都在運作

那么監控系統采集到線程池線程使用率達到了 80% 就開始擴容,因為擴容拉起新的服務器到提供服務可能也需要1-2分鐘的時間,所以需要預留服務器資源能夠處理彈性擴容期間的流量

實際場景中是相對比較復雜的,前期最好設置一個相對保守的擴容閾值,如果發現在達到這個閾值前服務器已經頂不住了就可以實時的縮小閾值

同時還可以根據在達到擴容閾值擴容的時候,觀察線上真實的 CPU 和內存使用情況,可以基于 promethues + grafana 來進行監控,如果發現擴容時候 CPU 使用率和內存使用率 GC 評率比較低,那么可以再配置中心動態的調整線程池的大小

所以說與其尋找一個準確的計算線程池數量的配置方式,不如提供一個可以動態調整的線程池作為 tomcat 的線程池

如何監控 tomcat 線程池的工作情況

spring boot 在啟動過程中會調用 TomcatProtocolHandlerCustomizer 的實現類,此處可以自定化 tomcat 線程池,也可以獲取到 tomcat 線程池

public class MyTomcatProtocolHandlerCustomizer implements TomcatProtocolHandlerCustomizer<ProtocolHandler> {    private final ThreadPoolExecutor tomcatThreadPoolExecutor;    public TomcatProtocolHandlerCustomizer(ThreadPoolExecutor tomcatThreadPoolExecutor) {this.tomcatThreadPoolExecutor = tomcatThreadPoolExecutor;    }    @Override    public void customize(ProtocolHandler protocolHandler) {protocolHandler.setExecutor(tomcatThreadPoolExecutor);    }    public ThreadPoolExecutor getThreadPoolExecutor() {return tomcatThreadPoolExecutor;    }}

然后將線程池裝入一個容器 bean 中注冊到 promethues 監控中,當每秒進行采集的時候通過回調的方法去獲取線程池的最新指標

promethues 每秒采集一次容器的線程池運行指標、服務器測 CPU 使用率當滿足定義的擴容閾值時就拉起新的 POD

grafana 每秒采集一次 promethues 的數據匯聚圖標展示

@Beanpublic AllServersThreadPoolCollector allServersThreadPoolCollector(@Qualifier(value = "GrpcThreadPoolExecutor") ThreadPoolExecutor GrpcThreadPoolExecutor,       @Qualifier(value = "jdTomcatThreadPoolExecutor") org.apache.tomcat.util.threads.ThreadPoolExecutor TomcatThreadPoolExecutor,       MeterRegistry registry) {    return new AllServersThreadPoolCollector(GrpcThreadPoolExecutor, jdTomcatThreadPoolExecutor, registry);}
public void init() {    try {createGauge(this, "grpc_tomcat_core_pool_size", pool -&gt; this.getCorePoolSize());createGauge(this, "grpc_tomcat_maximum_pool_size", pool -&gt; this.getMaximumPoolSize());createGauge(this, "grpc_tomcat_busy_pool_size", pool -&gt; this.getActiveCount());createGauge(this, "grpc_tomcat_wait_queue_size", pool -&gt; this.getWaitQueueSize());    } catch (Exception e) {log.error("注冊 all servers 監控失敗", e);    }}private void createGauge(AllServersThreadPoolCollector weakRef, String metric, ToDoubleFunction&lt;AllServersThreadPoolCollector&gt; measure) {    Gauge.builder(metric, weakRef, measure)    .register(this.registry);}public int getWaitQueueSize() {    return grpcThreadPoolExecutor.getQueue().size() + tomcatThreadPoolExecutor.getQueue().size();}

tomcat 線程池擴縮容

Java 線程池是支持直接修改 corePoolSize、maximumPoolSize 的

  • 修改 corePoolSize

(1)數量小于 maximumPoolSize 拋異常

(2)如果 corePoolSize - 原來的 = delta,delta 大于 0 那么創建等待隊列任務數量和 delta 個線程來處理等待處理的任務

(3)如果正在運行的線程數量 > corePoolSize 那么就中斷多余的線程

  • 修改 maximumPoolSize

(1)maximumPoolSize 小于 corePoolSize 拋錯

(2)如果運行的線程大于 maximumPoolSize 中斷掉一些空閑的線程

基于這些機制就能在運行期間動態調整線程池內容

無需擔心會中斷掉正在運行的任務,因為線程池 worker 線程每執行一個任務的時候

tomcat 是如何避免原生線程池的缺陷的

原生線程池的工作原理

(1)運行的線程數小于核心線程,就創建一個 worker 線程去執行任務

(2)運行的線程數 >= 核心線程了,將任務全部積壓到隊列中

(3)隊列如果滿了繼續創建非核心線程 worker 去執行任務

假如 tomcat 采用了原生線程池,核心線程為 10 個,最大線程為 100,隊列為 200,并發來了 100 個請求,那么同時系統只能處理 10 個,剩下 90 個都得放入隊列中讓 10 個核心線程慢慢排隊處理,延時必然非常高

tomcat 如何優化線程池,核心在于阻塞隊列的實現,因為阻塞隊列滿了才會繼續創建非核心 worker 線程處理任務

(1)運行的線程數小于核心線程,就創建一個 worker 線程去執行任務

(2)當前已經創建的核心+非核心線程數等于最大線程數,任務壓入隊列

(3)正在處理的請求數量小于核心+非核心線程數,任務壓入隊列

(4)當前已經創建的核心+非核心線程數小于最大線程數,創建 worker 線程處理請求

總結就是一句話當高并發流量過來的時候,會去創建最大線程數的 worker 去處理請求用以降低尾延遲,超過最大線程后,任務將被壓入隊列中進行處理

以上就是tomcat 集群監控與彈性伸縮詳解的詳細內容,更多關于tomcat 集群監控彈性伸縮的資料請關注其它相關文章!

標簽: Tomcat
主站蜘蛛池模板: 久久久国产一区二区三区 | 亚洲国产精品免费观看 | 性刺激久久久久久久久 | 精品免费久久 | 国内自拍网站 | 久久久久久一品道精品免费看 | 在线国产日韩 | 日韩精品一区二区三区毛片 | 成年人性网站 | 欧美成人精品久久精品 | 成人免费观看一区二区 | 久久久久亚洲香蕉网 | 亚洲一级大片 | 一级爱做片免费观看久久 | 国内自拍视频在线看免费观看 | 免费成年网 | 国产精品亚洲午夜不卡 | 精品中文字幕一区在线 | 成年视频国产免费观看 | 中国女警察一级毛片视频 | 男人躁女人躁的好爽免费视频 | 久久99国产精品久久欧美 | 国产成人综合久久精品亚洲 | 91精品网站 | 在线 | 一区二区三区四区 | 欧美一级毛片美99毛片 | 成年人三级黄色片 | 成年人免费网站视频 | 老司机深夜影院入口aaaa | 国产91网| 亚洲国产美女视频 | 一区二区中文字幕在线观看 | 狠狠色丁香婷婷综合 | 一区二区三区在线免费看 | 国产成人精品视频 | 久久精品免费在线观看 | 久久久久久久综合 | 国产青草| 亚洲美女综合网 | 久久99视频精品 | 日韩一区二区三区精品 |