TCP 的那些事兒(下)

作者: 陳皓  來源: 酷殼  發布時間: 2014-05-29 00:17  閱讀: 41419 次  推薦: 24   原文鏈接   [收藏]  

  這篇文章是下篇,所以如果你對TCP不熟悉的話,還請你先看看上篇《TCP的那些事兒(上)》 上篇中,我們介紹了TCP的協議頭、狀態機、數據重傳中的東西。但是TCP要解決一個很大的事,那就是要在一個網絡根據不同的情況來動態調整自己的發包的速度,小則讓自己的連接更穩定,大則讓整個網絡更穩定。在你閱讀下篇之前,你需要做好準備,本篇文章有好些算法和策略,可能會引發你的各種思考,讓你的大腦分配很多內存和計算資源,所以,不適合在廁所中閱讀。

  TCP的RTT算法

  從前面的TCP的重傳機制我們知道Timeout的設置對于重傳非常重要,

  • 設長了,重發就慢,沒有效率,性能差;
  • 設短了,重發的就快,會增加網絡擁塞,導致更多的超時,更多的超時導致更多的重發。

  而且,這個超時時間在不同的網絡的情況下,有不同的時間,根本沒有辦法設置一個死的。只能動態地設置。 為了動態地設置,TCP引入了RTT——Round Trip Time,也就是一個數據包從發出去到回來的時間。這樣發送端就大約知道需要多少的時間,從而可以方便地設置Timeout——RTO(Retransmission TimeOut),以讓我們的重傳機制更高效。 聽起來似乎很簡單,好像就是在發送端發包時記下t0,然后接收端再把這個ack回來時再記一個t1,于是RTT = t1 – t0。沒那么簡單,這只是一個采樣,不能代表普遍情況。

  經典算法

  RFC793中定義的經典算法是這樣的: 1)首先,先采樣RTT,記下最近好幾次的RTT值。 2)然后做平滑計算SRTT – Smoothed RTT。公式為:(其中的 α 取值在0.8 到 0.9之間,這個算法英文叫Exponential weighted moving average,中文叫:加權移動平均)SRTT =( α * SRTT ) + ((1- α) * RTT)3)開始計算RTO。公式如下:RTO = min [ UBOUND, max [ LBOUND, (β * SRTT) ] ]其中:

  • UBOUND是最大的timeout時間,上限值
  • LBOUND是最小的timeout時間,下限值
  • β 值一般在1.3到2.0之間。

  Karn / Partridge 算法

  但是上面的這個算法在重傳的時候會出有一個終極問題——你是用第一次的時間和ack回來的時候做RTT樣本,還是用重傳的時間和ACK的時間做RTT樣本?這個問題無論你先那頭都是按下葫蘆起了瓢。 如下圖所示:

  • 情況(a)是ack沒回來,所發重傳。如果你計算第一次發送和ACK的時間,那么,明顯算大了。
  • 情況(b)是ack回來慢了,重傳不一會,之前ACK就回來了。如果你是算重傳的時間和ACK回來的時間,就會短了。

  所以1987年的時候,搞了一個叫Karn / Partridge Algorithm,這個算法的最大特點是——忽略重傳,不把重傳的RTT做采樣(你看,你不需要去解決不存在的問題)。但是,這樣一來,又會引發一個大BUG——如果在某一時間,網絡閃動,突然變慢了,產生了比較大的延時,這個延時導致要重轉所有的包(因為之前的RTO很小),于是,因為重轉的不算,所以,RTO就不會被更新,這是一個災難。 于是Karn算法用了一個取巧的方式——只要一發生重傳,就對現有的RTO值翻倍(這就是所謂的Exponential backoff)

  Jacobson / Karels 算法

  前面兩種算法用的都是“加權移動平均”,這種方法最大的毛病就是如果RTT有一個大的波動的話,很難被發現,因為被平滑掉了。所以,1988年,又有人推出來了一個新的算法,這個算法叫Jacobson / Karels Algorithm(參看RFC6289)。這個算法引入了最新的RTT的采樣和平滑過的SRTT的差距做因子來計算。 公式如下:(其中的DevRTT是Deviation RTT的意思)SRTT= SRTT+ α(RTT– SRTT)DevRTT= (1-β)*DevRTT+ β*(|RTT-SRTT|)RTO= µ *SRTT + ∂ *DevRTT(其中:在Linux下,α = 0.125,β = 0.25, μ = 1,∂= 4 ——這就是算法中的“調得一手好參數”,nobody knows why, it just works…) 最后的這個算法在被用在今天的TCP協議中(Linux的源代碼在:tcp_rtt_estimator)。

  TCP滑動窗口

  需要說明一下,如果你不了解TCP的滑動窗口這個事,你等于不了解TCP協議。我們都知道,TCP必需要解決的可靠傳輸以及包亂續的問題,所以,TCP必需要知道網絡實際的數據處理帶寬或是數據處理速度,這樣才不會引起網絡擁塞,導致丟包。所以,TCP引入了一些技術和設計來做網絡流控,Sliding Window是其中一個技術。 前面我們說過,TCP頭里有一個字段叫Window,又叫Advertised-Window,這個字段是接收端告訴發送端自己還有多少緩沖區可以接收數據于是發送端就可以根據這個接收端的處理能力來發送數據,而不會導致接收端處理不過來。 為了說明滑動窗口,我們需要先看一下TCP緩沖區的一些數據結構:  上圖中,我們可以看到:

  • 接收端LastByteRead指向了TCP緩沖區中讀到的位置,NextByteExpected指向的地方是收到的連續包的最后一個位置,LastByteRcved指向的是收到的包的最后一個位置,我們可以看到中間有些數據還沒有到達,所以有數據空白區。
  • 發送端的LastByteAcked指向了被接收端Ack過的位置(表示成功發送確認),LastByteSent表示發出去了,但還沒有收到成功確認的Ack,LastByteWritten指向的是上層應用正在寫的地方。

  于是:

  • 接收端在給發送端回ACK中會匯報自己的AdvertisedWindow = MaxRcvBuffer – LastByteRcvd – 1;
  • 而發送方會根據這個窗口來控制發送數據的大小,以保證接收方可以處理。

  下面我們來看一下發送方的滑動窗口示意圖:

圖片來源

  上圖中分成了四個部分,分別是:(其中那個黑模型就是滑動窗口)

  • #1已收到ack確認的數據。
  • #2發還沒收到ack的。
  • #3在窗口中還沒有發出的(接收方還有空間)。
  • #4窗口以外的數據(接收方沒空間)

  下面是個滑動后的示意圖(收到36的ack,并發出了46-51的字節):  下面我們來看一個接受端控制發送端的圖示:

圖片來源

  Zero Window

  上圖,我們可以看到一個處理緩慢的Server是怎么把TCP Sliding Window給降成0的。此時,你一定會問,如果Window變成0了,TCP會怎么樣?是不是發送端就不發數據了?是的,發送端就不發數據了,你可以想像成“Window Closed”,那你一定還會問,如果發送端不發數據了,接收方一會兒Window size 可用了,怎么通知發送端呢?

  解決這個問題,TCP使用了Zero Window Probe技術,縮寫為ZWP,也就是說,發送端會發ZWP的包給接收方,讓接收方來ack他的Window尺寸,一般這個值會設置成3次,第次大約30-60秒(依實現而定)。如果3次過后還是0的話,有的TCP實現就會發RST把鏈接斷了。

  注意:只要有等待的地方都可能出現DDoS攻擊,Zero Window也不例外,一些攻擊者會在和HTTP建好鏈發完GET請求后,就把Window設置為0,然后服務端就只能等待進行ZWP,于是攻擊者會并發大量的這樣的請求,把服務器端的資源耗盡。(關于這方面的攻擊,大家可以移步看一下Wikipedia的SockStress詞條

  另外,Wireshark中,你可以使用tcp.analysis.zero_window來過濾包,然后使用右鍵菜單里的follow TCP stream,你可以看到ZeroWindowProbe及ZeroWindowProbeAck的包。

  Silly Window Syndrome

  Silly Window Syndrome翻譯成中文就是“糊涂窗口綜合癥”。正如你上面看到的一樣,如果我們的接收方太忙了,來不及取走Receive Windows里的數據,那么,就會導致發送方越來越小。到最后,如果接收方騰出幾個字節并告訴發送方現在有幾個字節的window,而我們的發送方會義無反顧地發送這幾個字節。 要知道,我們的TCP+IP頭有40個字節,為了幾個字節,要達上這么大的開銷,這太不經濟了。

  另外,你需要知道網絡上有個MTU,對于以太網來說,MTU是1500字節,除去TCP+IP頭的40個字節,真正的數據傳輸可以有1460,這就是所謂的MSS(Max Segment Size)注意,TCP的RFC定義這個MSS的默認值是536,這是因為RFC 791里說了任何一個IP設備都得最少接收576尺寸的大小(實際上來說576是撥號的網絡的MTU)。如果你的網絡包可以塞滿MTU,那么你可以用滿整個帶寬,如果不能,那么你就會浪費帶寬。(大于MTU的包有兩種結局,一種是直接被丟了,另一種是會被重新分塊打包發送) 你可以想像成一個MTU就相當于一個飛機的最多可以裝的人,如果這飛機里滿載的話,效率最高,如果只有一個人的話,無疑成本增加了。所以,Silly Windows Syndrome這個現像就像是你本來可以坐200人的飛機里只做了一兩個人。 要解決這個問題也不難,就是避免對小的window size做出響應,直到有足夠大的window size再響應,這個思路可以同時實現在sender和receiver兩端。

  • 如果這個問題是由Receiver端引起的,那么就會使用David D Clark’s 方案。在receiver端,如果收到的數據導致window size小于某個值,可以直接ack(0)回sender,這樣就把window給關閉了,也阻止了sender再發數據過來,等到receiver端處理了一些數據后windows size 大于等于了MSS,或者,receiver buffer有一半為空,就可以把window打開讓send 發送數據過來。
  • 如果這個問題是由Sender端引起的,那么就會使用著名的Nagle’s algorithm。這個算法的思路也是延時處理,他有兩個主要的條件(更多的條件可以看一下tcp_nagle_check函數):1)要等到 Window Size>=MSS 或是 Data Size >=MSS,2)等待時間或是超時200ms,這兩個條件有一個滿足,他才會發數據,否則就是在攢數據。

  另外,Nagle算法默認是打開的,所以,對于一些需要小包場景的程序——比如像telnet或ssh這樣的交互性比較強的程序,你需要關閉這個算法。你可以在Socket設置TCP_NODELAY選項來關閉這個算法

setsockopt(sock_fd, IPPROTO_TCP, TCP_NODELAY, (char *)&value,sizeof(int));

  另外,網上有些文章說TCP_CORK的socket option是也關閉Nagle算法,這個還不夠準確。TCP_CORK是禁止小包發送,而沒有禁止小包發送,只是禁止了大量的小包發送。最好不要兩個選項都設置。老實說,我覺得Nagle算法其實只加了個延時,沒有別的什么,我覺得最好還是把他關閉,然后由自己的應用層來控制數據,我個覺得不應該什么事都去依賴內核算法

  TCP的擁塞處理 -Congestion Handling

  上面我們知道了,TCP通過Sliding Window來做流控(Flow Control),但是TCP覺得這還不夠,因為Sliding Window需要依賴于連接的發送端和接收端,其并不知道網絡中間發生了什么。TCP的設計者覺得,一個偉大而牛逼的協議僅僅做到流控并不夠,因為流控只是網絡模型4層以上的事,TCP的還應該更聰明地知道整個網絡上的事。 具體一點,我們知道TCP通過一個timer采樣了RTT并計算RTO,但是,如果網絡上的延時突然增加,那么,TCP對這個事做出的應對只有重傳數據,但是,重傳會導致網絡的負擔更重,于是會導致更大的延遲以及更多的丟包,于是,這個情況就會進入惡性循環被不斷地放大。試想一下,如果一個網絡內有成千上萬的TCP連接都這么行事,那么馬上就會形成“網絡風暴”,TCP這個協議就會拖垮整個網絡。這是一個災難。

  所以,TCP不能忽略網絡上發生的事情,而無腦地一個勁地重發數據,對網絡造成更大的傷害。對此TCP的設計理念是:TCP不是一個自私的協議,當擁塞發生的時候,要做自我犧牲。就像交通阻塞一樣,每個車都應該把路讓出來,而不要再去搶路了。關于擁塞控制的論文請參看《Congestion Avoidance and Control》(PDF) 擁塞控制主要是四個算法:1)慢啟動,2)擁塞避免,3)擁塞發生,4)快速恢復。這四個算法不是一天都搞出來的,這個四算法的發展經歷了很多時間,到今天都還在優化中。 備注:

  • 1988年,TCP-Tahoe 提出了1)慢啟動,2)擁塞避免,3)擁塞發生時的快速重傳
  • 1990年,TCP Reno 在Tahoe的基礎上增加了4)快速恢復

  慢熱啟動算法 – Slow Start

  首先,我們來看一下TCP的慢熱啟動。慢啟動的意思是,剛剛加入網絡的連接,一點一點地提速,不要一上來就像那些特權車一樣霸道地把路占滿。新同學上高速還是要慢一點,不要把已經在高速上的秩序給搞亂了。 慢啟動的算法如下(cwnd全稱Congestion Window):

  1)連接建好的開始先初始化cwnd = 1,表明可以傳一個MSS大小的數據。

  2)每當收到一個ACK,cwnd++; 呈線性上升

  3)每當過了一個RTT,cwnd = cwnd*2; 呈指數讓升

  4)還有一個ssthresh(slow start threshold),是一個上限,當cwnd >= ssthresh時,就會進入“擁塞避免算法”(后面會說這個算法)

  所以,我們可以看到,如果網速很快的話,ACK也會返回得快,RTT也會短,那么,這個慢啟動就一點也不慢。下圖說明了這個過程。  這里,我需要提一下的是一篇Google的論文《An Argument for Increasing TCP’s Initial Congestion Window》Linux 3.0后采用了這篇論文的建議——把cwnd 初始化成了 10個MSS。而Linux 3.0以前,比如2.6,Linux采用了RFC3390,cwnd是跟MSS的值來變的,如果MSS< 1095,則cwnd = 4;如果MSS>2190,則cwnd=2;其它情況下,則是3。

  擁塞避免算法 -Congestion Avoidance

  前面說過,還有一個ssthresh(slow start threshold),是一個上限,當cwnd >= ssthresh時,就會進入“擁塞避免算法”。一般來說ssthresh的值是65535,單位是字節,當cwnd達到這個值時后,算法如下:

  1)收到一個ACK時,cwnd = cwnd + 1/cwnd

  2)當每過一個RTT時,cwnd = cwnd + 1

  這樣就可以避免增長過快導致網絡擁塞,慢慢的增加調整到網絡的最佳值。

  擁塞狀態算法

  前面我們說過,當丟包的時候,會有兩種情況:

  1)等到RTO超時,重傳數據包。TCP認為這種情況太糟糕,反應也很強烈。

  • sshthresh = cwnd /2
  • cwnd 重置為 1
  • 進入慢啟動過程

  2)Fast Retransmit算法,也就是在收到3個duplicate ACK時就開啟重傳,而不用等到RTO超時。

  • TCP Tahoe的實現和RTO超時一樣。
  • TCP Reno的實現是:
    • cwnd = cwnd /2
    • sshthresh = cwnd
    • 進入快速恢復算法——Fast Recovery

  上面我們可以看到RTO超時后,sshthresh會變成cwnd的一半,這意味著,如果cwnd<=sshthresh時出現的丟包,那么TCP的sshthresh就會減了一半,然后等cwnd又很快地以指數級增漲爬到這個地方時,就會成慢慢的線性增漲。我們可以看到,TCP是怎么通過這種強烈地震蕩快速而小心得找到網站流量的平衡點的。

  快速恢復算法 – Fast Recovery

  TCP Reno這個算法定義在RFC5681。快速重傳和快速恢復算法一般同時使用。快速恢復算法是認為,你還有3個Duplicated Acks說明網絡也不那么糟糕,所以沒有必要像RTO超時那么強烈。注意,正如前面所說,進入Fast Recovery之前,cwnd 和 sshthresh已被更新:

  • cwnd = cwnd /2
  • sshthresh = cwnd

  然后,真正的Fast Recovery算法如下:

  • cwnd = sshthresh + 3 * MSS (3的意思是確認有3個數據包被收到了)
  • 重傳Duplicated ACKs指定的數據包
  • 如果再收到 duplicated Acks,那么cwnd = cwnd +1
  • 如果收到了新的Ack,那么,cwnd = sshthresh ,然后就進入了擁塞避免的算法了。

  如果你仔細思考一下上面的這個算法,你就會知道,上面這個算法也有問題,那就是——它依賴于3個重復的Acks。注意,3個重復的Acks并不代表只丟了一個數據包,很有可能是丟了好多包。但這個算法只會重傳一個,而剩下的那些包只能等到RTO超時,于是,進入了惡夢模式——超時一個就減半一下,多個超時會超成TCP的傳輸速度呈級數下降,而且也不會觸發Fast Recovery算法了。 通常來說,正如我們前面所說的,SACK或D-SACK的方法可以讓Fast Recovery或Sender在做決定時更聰明一些,但是并不是所有的TCP的實現都支持SACK(SACK需要兩端都支持),所以,需要一個沒有SACK的解決方案。而通過SACK進行擁塞控制的算法是FACK(后面會講)TCP New Reno于是,1995年,TCP New Reno(參見RFC 6582)算法提出來,主要就是在沒有SACK的支持下改進Fast Recovery算法的——

  • 當sender這邊收到了3個Duplicated Acks,進入Fast Retransimit模式,開發重傳重復Acks指示的那個包。如果只有這一個包丟了,那么,重傳這個包后回來的Ack會把整個已經被sender傳輸出去的數據ack回來。如果沒有的話,說明有多個包丟了。我們叫這個ACK為Partial ACK。
  • 一旦Sender這邊發現了Partial ACK出現,那么,sender就可以推理出來有多個包被丟了,于是乎繼續重傳sliding window里未被ack的第一個包。直到再也收不到了Partial Ack,才真正結束Fast Recovery這個過程

  我們可以看到,這個“Fast Recovery的變更”是一個非常激進的玩法,他同時延長了Fast Retransmit和Fast Recovery的過程。

  算法示意圖

  下面我們來看一個簡單的圖示以同時看一下上面的各種算法的樣子:

  FACK算法

  FACK全稱Forward Acknowledgment 算法,論文地址在這里(PDF)Forward Acknowledgement: Refining TCP Congestion Control這個算法是其于SACK的,前面我們說過SACK是使用了TCP擴展字段Ack了有哪些數據收到,哪些數據沒有收到,他比Fast Retransmit的3 個duplicated acks好處在于,前者只知道有包丟了,不知道是一個還是多個,而SACK可以準確的知道有哪些包丟了。 所以,SACK可以讓發送端這邊在重傳過程中,把那些丟掉的包重傳,而不是一個一個的傳,但這樣的一來,如果重傳的包數據比較多的話,又會導致本來就很忙的網絡就更忙了。所以,FACK用來做重傳過程中的擁塞流控。

  • 這個算法會把SACK中最大的Sequence Number 保存在snd.fack這個變量中,snd.fack的更新由ack帶秋,如果網絡一切安好則和snd.una一樣(snd.una就是還沒有收到ack的地方,也就是前面sliding window里的category #2的第一個地方)
  • 然后定義一個awnd = snd.nxt – snd.fack(snd.nxt指向發送端sliding window中正在要被發送的地方——前面sliding windows圖示的category#3第一個位置),這樣awnd的意思就是在網絡上的數據。(所謂awnd意為:actual quantity of data outstanding in the network)
  • 如果需要重傳數據,那么,awnd =snd.nxt – snd.fack + retran_data,也就是說,awnd是傳出去的數據 + 重傳的數據。
  • 然后觸發Fast Recovery 的條件是:(( snd.fack – snd.una ) > (3*MSS)) || (dupacks == 3) ) 。這樣一來,就不需要等到3個duplicated acks才重傳,而是只要sack中的最大的一個數據和ack的數據比較長了(3個MSS),那就觸發重傳。在整個重傳過程中cwnd不變。直到當第一次丟包的snd.nxt<=snd.una(也就是重傳的數據都被確認了),然后進來擁塞避免機制——cwnd線性上漲。

  我們可以看到如果沒有FACK在,那么在丟包比較多的情況下,原來保守的算法會低估了需要使用的window的大小,而需要幾個RTT的時間才會完成恢復,而FACK會比較激進地來干這事。 但是,FACK如果在一個網絡包會被 reordering的網絡里會有很大的問題。

  其它擁塞控制算法簡介

  TCP Vegas 擁塞控制算法

  這個算法1994年被提出,它主要對TCP Reno 做了些修改。這個算法通過對RTT的非常重的監控來計算一個基準RTT。然后通過這個基準RTT來估計當前的網絡實際帶寬,如果實際帶寬比我們的期望的帶寬要小或是要多的活,那么就開始線性地減少或增加cwnd的大小。如果這個計算出來的RTT大于了Timeout后,那么,不等ack超時就直接重傳。(Vegas 的核心思想是用RTT的值來影響擁塞窗口,而不是通過丟包) 這個算法的論文是《TCP Vegas: End to End Congestion Avoidance on a Global Internet》這篇論文給了Vegas和 New Reno的對比:   關于這個算法實現,你可以參看Linux源碼:/net/ipv4/tcp_vegas.h/net/ipv4/tcp_vegas.c

  HSTCP(High Speed TCP) 算法

  這個算法來自RFC 3649Wikipedia詞條)。其對最基礎的算法進行了更改,他使得Congestion Window漲得快,減得慢。其中:

  • 擁塞避免時的窗口增長方式: cwnd = cwnd + α(cwnd) / cwnd
  • 丟包后窗口下降方式:cwnd = (1- β(cwnd))*cwnd

  注:α(cwnd)和β(cwnd)都是函數,如果你要讓他們和標準的TCP一樣,那么讓α(cwnd)=1,β(cwnd)=0.5就可以了。 對于α(cwnd)和β(cwnd)的值是個動態的變換的東西。 關于這個算法的實現,你可以參看Linux源碼:/net/ipv4/tcp_highspeed.c

  TCP BIC 算法

  2004年,產內出BIC算法。現在你還可以查得到相關的新聞《Google:美科學家研發BIC-TCP協議 速度是DSL六千倍》 BIC全稱Binary Increase Congestion control,在Linux 2.6.8中是默認擁塞控制算法。BIC的發明者發這么多的擁塞控制算法都在努力找一個合適的cwnd – Congestion Window,而且BIC-TCP的提出者們看穿了事情的本質,其實這就是一個搜索的過程,所以BIC這個算法主要用的是Binary Search——二分查找來干這個事。 關于這個算法實現,你可以參看Linux源碼:/net/ipv4/tcp_bic.c

  TCP WestWood算法

  westwood采用和Reno相同的慢啟動算法、擁塞避免算法。westwood的主要改進方面:在發送端做帶寬估計,當探測到丟包時,根據帶寬值來設置擁塞窗口、慢啟動閾值。那么,這個算法是怎么測量帶寬的?每個RTT時間,會測量一次帶寬,測量帶寬的公式很簡單,就是這段RTT內成功被ack了多少字節。因為,這個帶寬和用RTT計算RTO一樣,也是需要從每個樣本來平滑到一個值的——也是用一個加權移平均的公式。

  另外,我們知道,如果一個網絡的帶寬是每秒可以發送X個字節,而RTT是一個數據發出去后確認需要的時候,所以,X * RTT應該是我們緩沖區大小。所以,在這個算法中,ssthresh的值就是est_BD * min-RTT(最小的RTT值),如果丟包是Duplicated ACKs引起的,那么如果cwnd > ssthresh,則 cwin = ssthresh。如果是RTO引起的,cwnd = 1,進入慢啟動。 關于這個算法實現,你可以參看Linux源碼:/net/ipv4/tcp_westwood.c

  其它

  更多的算法,你可以從Wikipedia的TCP Congestion Avoidance Algorithm詞條中找到相關的線索

  后記

  好了,到這里我想可以結束了,TCP發展到今天,里面的東西可以寫上好幾本書。本文主要目的,還是把你帶入這些古典的基礎技術和知識中,希望本文能讓你了解TCP,更希望本文能讓你開始有學習這些基礎或底層知識的興趣和信心。

  當然,TCP東西太多了,不同的人可能有不同的理解,而且本文可能也會有一些荒謬之言甚至錯誤,還希望得到您的反饋和批評。

24
1
 
標簽:TCP 協議 算法
 
 

文章列表

arrow
arrow
    全站熱搜
    創作者介紹
    創作者 大師兄 的頭像
    大師兄

    IT工程師數位筆記本

    大師兄 發表在 痞客邦 留言(0) 人氣()