從0到100——知乎架構變遷史

作者: 臧秀濤  來源: infoQ  發布時間: 2015-01-04 13:18  閱讀: 10604 次  推薦: 32   原文鏈接   [收藏]  

  也許很多人還不知道,知乎在規模上是僅次于百度貼吧和豆瓣的中文互聯網最大的UGC(用戶生成內容)社區。知乎創業三年來,從0開始,到現在已經有了100多臺服務器。目前知乎的注冊用戶超過了1100萬,每個月有超過8000萬人使用;網站每個月的PV超過2.2億,差不多每秒鐘的動態請求超過2500。

  在ArchSummit北京2014大會上,知乎聯合創始人兼 CTO 李申申帶來了知乎創業三年多來的首次全面技術分享(幻燈片下載)。本文系根據演講內容整理而成。

  初期架構選型

  在2010年10月真正開始動手做知乎這個產品時,包含李申申在內,最初只有兩位工程師;到2010年12月份上線時,工程師是四個。

  知乎的主力開發語言是Python。因為Python簡單且強大,能夠快速上手,開發效率高,而且社區活躍,團隊成員也比較喜歡。

  知乎使用的是 Tornado 框架。因為它支持異步,很適合做實時Comet應用,而且簡單輕量,學習成本低,再就是有FriendFeed的成熟案例,Facebook的社區支持。知乎的產品有個特性,就是希望跟瀏覽器端建立一個長連接,便于實時推送Feed和通知,所以Tornado比較合適。

  最初整個團隊的精力全部放在產品功能的開發上,而其他方面,基本上能節約時間、能省的都用最簡單的方法來解決,當然這在后期也帶來了一些問題。

  最初的想法是用云主機,節省成本。知乎的第一臺服務器是512MB內存的Linode主機。但是網站上線后,內測受歡迎程度超出預期,很多用戶反饋網站很慢。跨國網絡延遲比想象的要大,特別是國內的網絡不均衡,全國各地用戶訪問的情況都不太一樣。這個問題,再加上當時要做域名備案,知乎又回到了自己買機器找機房的老路上。

  買了機器、找了機房之后又遇到了新的問題,服務經常宕掉。當時服務商的機器內存總是出問題,動不動就重啟。終于有一次機器宕掉起不來了,這時知乎就做了Web和數據庫的高可用創業就是這樣一個情況,永遠不知道明早醒來的時候會面臨什么樣的問題。

  這是當時那個階段的架構圖,Web和數據庫都做了主從。當時的圖片服務托管在又拍云上。除了主從,為了性能更好還做了讀寫分離。為解決同步問題,又添加了一個服務器來跑離線腳本,避免對線上服務造成響應延遲。另外,為改進內網的吞吐量延遲,還更換了設備,使整個內網的吞吐量翻了20倍。

  在2011年上半年時,知乎對Redis已經很依賴。除了最開始的隊列、搜索在用,后來像Cache也開始使用,單機存儲成為瓶頸,所以引入了分片,同時做了一致性。

  知乎團隊是一個很相信工具的團隊,相信工具可以提升效率。工具其實是一個過程,工具并沒有所謂的最好的工具,只有最適合的工具。而且它是在整個過程中,隨著整個狀態的變化、環境的變化在不斷發生變化的。知乎自己開發或使用過的工具包括Profiling(函數級追蹤請求,分析調優)、Werkzeug(方便調試的工具)、Puppet(配置管理)和Shipit(一鍵上線或回滾)等。

  日志系統

  知乎最初是邀請制的,2011年下半年,知乎上線了申請注冊,沒有邀請碼的用戶也可以通過填寫一些資料申請注冊知乎。用戶量又上了一個臺階,這時就有了一些發廣告的賬戶,需要掃除廣告。日志系統的需求提上日程。

  這個日志系統必須支持分布式收集、集中存儲、實時、可訂閱和簡單等特性。當時調研了一些開源系統,比如Scribe總體不錯,但是不支持訂閱。Kafka是Scala開發的,但是團隊在Scala方面積累較少,Flume也是類似,而且比較重。所以開發團隊選擇了自己開發一個日志系統——Kids(Kids Is Data Stream)。顧名思義,Kids是用來匯集各種數據流的。

  Kids參考了Scribe的思路。Kdis在每臺服務器上可以配置成Agent或Server。Agent直接接受來自應用的消息,把消息匯集之后,可以打給下一個Agent或者直接打給中心Server。訂閱日志時,可以從Server上獲取,也可以從中心節點的一些Agent上獲取。

  具體細節如下圖所示:

  知乎還基于Kids做了一個Web小工具(Kids Explorer),支持實時看線上日志,現在已經成為調試線上問題最主要的工具。

  Kids已經開源,放到了 Github 上。

  事件驅動的架構

  知乎這個產品有一個特點,最早在添加一個答案后,后續的操作其實只有更新通知、更新動態。但是隨著整個功能的增加,又多出了一些更新索引、更新計數、內容審查等操作,后續操作五花八門。如果按照傳統方式,維護邏輯會越來越龐大,維護性也會非常差。這種場景很適合事件驅動方式,所以開發團隊對整個架構做了調整,做了事件驅動的架構。

  這時首先需要的是一個消息隊列,它應該可以獲取到各種各樣的事件,而且對一致性有很高的要求。針對這個需求,知乎開發了一個叫Sink的小工具。它拿到消息后,先做本地的保存、持久化,然后再把消息分發出去。如果那臺機器掛掉了,重啟時可以完整恢復,確保消息不會丟失。然后它通過Miller開發框架,把消息放到任務隊列。Sink更像是串行消息訂閱服務,但任務需要并行化處理, Beanstalkd就派上了用場,由其對任務進行全周期管理。架構如下圖所示:

  舉例而言,如果現在有用戶回答了問題,首先系統會把問題寫到MySQL里面,把消息塞到Sink,然后把問題返回給用戶。Sink通過Miller把任務發給Beanstalkd,Worker自己可以找到任務并處理。

  最開始上線時,每秒鐘有10個消息,然后有70個任務產生。現在每秒鐘有100個事件,有1500個任務產生,就是通過現在的事件驅動架構支撐的。

  頁面渲染優化

  知乎在2013年時每天有上百萬的PV,頁面渲染其實是計算密集型的,另外因為要獲取數據,所以也有IO密集型的特點。這時開發團隊就對頁面進行了組件化,還升級了數據獲取機制。知乎按照整個頁面組件樹的結構,自上而下分層地獲取數據,當上層的數據已經獲取了,下層的數據就不需要再下去了,有幾層基本上就有幾次數據獲取。

  結合這個思路,知乎自己做了一套模板渲染開發框架——ZhihuNode。

  經歷了一系列改進之后,頁面的性能大幅度提升。問題頁面從500ms 減少到150ms,Feed頁面從1s減少到600ms。

  面向服務的架構(SOA)

  隨著知乎的功能越來越龐雜,整個系統也越來越大。知乎是怎么做的服務化呢?

  首先需要一個最基本的RPC框架,RPC框架也經歷了好幾版演進。

  第一版是Wish,它是一個嚴格定義序列化的模型。傳輸層用到了STP,這是自己寫的很簡單的傳輸協議,跑在TCP上。一開始用的還不錯,因為一開始只寫了一兩個服務。但是隨著服務增多,一些問題開始出現,首先是ProtocolBuffer會生成一些描述代碼,很冗長,放到整個庫里顯得很丑陋。另外,嚴格的定義使其不便使用。這時有位工程師開發了新的RPC框架——Snow,它使用簡單的JSON做數據序列化。但是松散的數據定義面對的問題是,比如說服務要去升級,要改寫數據結構,很難知道有哪幾個服務在使用,也很難通知它們,往往錯誤就發生了。于是又出了第三個RPC框架,寫RPC框架的工程師,希望結合前面兩個框架的特點,首先保持Snow簡單,其次需要相對嚴格的序列化協議。這一版本引入了Apache Avro。同時加入了特別的機制,在傳輸層和序列化協議這一層都做成了可插拔的方式,既可以用JSON,也可以用Avro,傳輸層可以用STP,也可以用二進制協議。

  再就是搭了一個服務注冊發現,只需要簡單的定義服務的名字就可以找到服務在哪臺機器上。同時,知乎也有相應的調優的工具,基于Zipkin開發了自己的Tracing系統。

  按照調用關系,知乎的服務分成了3層:聚合層、內容層和基礎層。按屬性又可以分成3類:數據服務、邏輯服務和通道服務。數據服務主要是一些要做特殊數據類型的存儲,比如圖片服務。邏輯服務更多的是CPU密集、計算密集的操作,比如答案格式的定義、解析等。通道服務的特點是沒有存儲,更多是做一個轉發,比如說Sink。

  這是引入服務化之后整體的架構。

32
1
 
 
 

文章列表

arrow
arrow
    全站熱搜
    創作者介紹
    創作者 大師兄 的頭像
    大師兄

    IT工程師數位筆記本

    大師兄 發表在 痞客邦 留言(0) 人氣()