戳下方名片 ,關註並 星標 !
回復「 1024 」獲取 2TB 學習資源!
👉 體系化學習:
— 特色專欄 —
/ /
/ /
/ /
/ /
/ /
大家好,我是民工哥!
由於預設的 Linux 內核參數考慮的是最通用的場景,這明顯不符合用於支持高並行存取的 Web 伺服器的定義,所以需要修改 Linux 內核參數,使得 Nginx 可以擁有更高的效能。
在最佳化內核時,可以做的事件很多,不過,我們通常會根據業務特點來進行調整,當Nginx作為靜態Web內容伺服器、反向代理伺服器或是提供圖片縮略功能(即時壓縮圖片)的伺服器時,其內核參數的調整都是不同的。
這裏只針對最通用的使 Nginx 支持更多並行( )請求的 TCP 網路參數做簡單說明。
首先,需要修改
/etc/sysctl.conf
來更改內核參數,例如,最常用的配置:
#原有欄位
net.ipv4.tcp_syncookies = 1
#新增欄位
fs.file-max = 999999
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_keepalive_time = 600
net.ipv4.tcp_fin_timeout = 30
net.ipv4.tcp_max_tw_buckets = 5000
net.ipv4.ip_local_port_range = 1024 61000
net.ipv4.ip_local_reserved_ports = 34733,35738,45487,46520,57557,53207,53478
net.ipv4.tcp_rmem = 10240 87380 12582912
net.ipv4.tcp_wmem = 10240 87380 12582912
net.core.netdev_max_backlog = 8096
net.core.rmem_default = 6291456
net.core.wmem_default = 6291456
net.core.rmem_max = 12582912
net.core.wmem_max = 12582912
net.ipv4.tcp_max_syn_backlog = 1024
上面的參數意義解釋如下:然後執行
sysctl -p
命令,使上述參數生效。
fs.file-max = 999999 #這個參數列示行程(比如一個worker行程)可以同時開啟的最大控制代碼數,這個參數直線限制最大並行連線數,需根據實際情況配置。
net.ipv4.tcp_tw_reuse = 1 #這個參數設定為1,表示允許將TIME-WAIT狀態的socket重新用於新的TCP連線,這對於伺服器來說很有意義,因為伺服器上總會有大量TIME-WAIT狀態的連線。
net.ipv4.tcp_keepalive_time = 600 #這個參數列示當keepalive啟用時,TCP發送keepalive訊息的頻度。預設是2小時,若將其設定的小一些,可以更快地清理無效的連線。
net.ipv4.tcp_fin_timeout = 30 #這個參數列示當伺服器主動關閉連線時,socket保持在FIN-WAIT-2狀態的最大時間。
net.ipv4.tcp_max_tw_buckets = 5000 #這個參數列示作業系統允許TIME_WAIT套接字數量的最大值,如果超過這個數位,TIME_WAIT套接字將立刻被清除並打印警告資訊。該參數預設為180 000,過多的TIME_WAIT套接字會使Web伺服器變慢。
net.ipv4.tcp_max_syn_backlog = 1024 #這個參數標示TCP三次握手建立階段接受SYN請求佇列的最大長度,預設為1024,將其設定得大一些可以使出現Nginx繁忙來不及accept新連線的情況時,Linux不至於遺失客戶端發起的連線請求。
net.ipv4.ip_local_port_range = 1024 61000 #這個參數定義了在UDP和TCP連線中本地(不包括連線的遠端)埠的取值範圍。
net.ipv4.tcp_rmem = 10240 87380 12582912 #這個參數定義了TCP接受緩存(用於TCP接受滑動視窗)的最小值、預設值、最大值。
net.ipv4.tcp_wmem = 10240 87380 12582912 #這個參數定義了TCP發送緩存(用於TCP發送滑動視窗)的最小值、預設值、最大值。
net.core.netdev_max_backlog = 8096 #當網卡接受封包的速度大於內核處理的速度時,會有一個佇列保存這些封包。這個參數列示該佇列的最大值。
net.core.rmem_default = 6291456 #這個參數列示內核套接字接受緩存區預設的大小。
net.core.wmem_default = 6291456 #這個參數列示內核套接字發送緩存區預設的大小。
net.core.rmem_max = 12582912 #這個參數列示內核套接字接受緩存區的最大大小。
net.core.wmem_max = 12582912 #這個參數列示內核套接字發送緩存區的最大大小。
net.ipv4.tcp_syncookies = 1 #該參數與效能無關,用於解決TCP的SYN攻擊。
註意:滑動視窗的大小與套接字緩存區會在一定程度上影響並行連線的數目。每個TCP連線都會為維護TCP滑動視窗而消耗記憶體,這個視窗會根據伺服器的處理速度收縮或擴張。
參數
net.core.wmem_max = 12582912
的設定,需要平衡實體記憶體的總大小、Nginx並行處理的最大連線數量而確定。
當然,如果僅僅為了提供並行量使伺服器不出現
Out Of Memory
問題而去降低滑動視窗大小,那麽
並不合適
,因為滑動窗過小會影響大數據量的傳輸速度。
net.core.rmem_default = 6291456
、
net.core.wmem_default = 6291456
、
net.core.rmem_max = 12582912
和
net.core.wmem_max = 12582912
這4個參數的設定需要
根據我們的業務特性以及實際的硬體成本
來綜合考慮。
Nginx
並行處理的最大連線
量由
nginx.conf
中的
work_processes
和
work_connections
參數決定。
Nginx 是一款面向效能設計的HTTP伺服器,相較於Apache、lighttpd具有占有記憶體少,穩定性高等優勢。與舊版本(<=2.2)的apache不同,nginx不采用每客戶機一執行緒的設計模型,而是充分使用異步邏輯,削減了上下文排程開銷,所以並行服務能力更強。整體采用模組化設計,有豐富的模組庫和第三方模組庫,配置靈活。
在 Linux 作業系統下,nginx 使用 epoll 事件模型,得益於此,nginx 在 Linux 作業系統下效率相當高。同時 Nginx 在 OpenBSD 或 FreeBSD 作業系統上采用類似於 epoll 的高效事件模型 kqueue。
連結:https://cnblogs.com/zhangmingcheng/p/15031185.html
👍 如果你喜歡這篇文章,請點贊並分享給你的朋友!
公眾號讀者專屬技術群
構建高品質的技術交流社群,歡迎從事後端開發、運維技術進群( 備註崗位,已在技術交流群的請勿重復添加微信好友 )。主要以技術交流、內推、行業探討為主,請文明發言。 廣告人士勿入,切勿輕信私聊,防止被騙。
掃碼加我好友,拉你進群
PS:因為公眾號平台更改了推播規則,如果不想錯過內容,記得讀完點一下 「 在看 」 ,加個 「 星標 」 ,這樣每次新文章推播才會第一時間出現在你的訂閱列表裏。 點 「 在看 」 支持我們吧!