Google的十個核心技術
曾任職于IBM中國研究院,從事與云計算相關研究的CSDN博客專家吳朱華曾寫過一篇文章《探索Google App Engine背后的奧秘(1)--Google的核心技術》,對Google的核心技術和其整體架構進行詳細的分析。
本篇將主要介紹Google的十個核心技術,而且可以分為四大類:
1.分布式基礎設施:GFS,Chubby和Protocol Buffer。
2.分布式大規模數據處理:MapReduce和Sawzall。
3.分布式數據庫技術:BigTable和數據庫Sharding。
4.數據中心優化技術:數據中心高溫化,12V電池和服務器整合。
分布式基礎設施
GFS
由于搜索引擎需要處理海量的數據,所以Google的兩位創始人Larry Page和Sergey Brin在創業初期設計一套名為“BigFiles”的文件系統,而GFS(全稱為“Google File System”)這套分布式文件系統則是“BigFiles”的延續。
首先,介紹它的架構,GFS主要分為兩類節點:
1.Master節點:主要存儲與數據文件相關的元數據,而不是Chunk(數據塊)。元數據包括一個能將64位標簽映射到數據塊的位置及其組成文件的表格,數據塊副本位置和哪個進程正在讀寫特定的數據塊等。還有Master節點會周期性地接收從每個Chunk節點來的更新(”Heart- beat”)來讓元數據保持最新狀態。
2.Chunk節點:顧名思義,肯定用來存儲Chunk,數據文件通過被分割為每個默認大小為64MB的Chunk的方式存儲,而且每個Chunk有唯一一個64位標簽,并且每個Chunk都會在整個分布式系統被復制多次,默認為3次。
下圖就是GFS的架構圖:
圖1. GFS的架構圖
接著,在設計上,GFS主要有八個特點:
1.大文件和大數據塊:數據文件的大小普遍在GB級別,而且其每個數據塊默認大小為64MB,這樣做的好處是減少了元數據的大小,能使Master節點能夠非常方便地將元數據放置在內存中以提升訪問效率。
2.操作以添加為主:因為文件很少被刪減或者覆蓋,通常只是進行添加或者讀取操作,這樣能充分考慮到硬盤線性吞吐量大和隨機讀寫慢的特點。
3.支持容錯:首先,雖然當時為了設計方便,采用了單Master的方案,但是整個系統會保證每個Master都會有其相對應的復制品,以便于在 Master節點出現問題時進行切換。其次,在Chunk層,GFS已經在設計上將節點失敗視為常態,所以能非常好地處理Chunk節點失效的問題。
4.高吞吐量:雖然其單個節點的性能無論是從吞吐量還是延遲都很普通,但因為其支持上千的節點,所以總的數據吞吐量是非常驚人的。
5.保護數據:首先,文件被分割成固定尺寸的數據塊以便于保存,而且每個數據塊都會被系統復制三份。
6.擴展能力強:因為元數據偏小,使得一個Master節點能控制上千個存數據的Chunk節點。
7.支持壓縮:對于那些稍舊的文件,可以通過對它進行壓縮,來節省硬盤空間,并且壓縮率非常驚人,有時甚至接近90%。
8.用戶空間:雖然在用戶空間運行在運行效率方面稍差,但是更便于開發和測試,還有能更好利用Linux的自帶的一些POSIX API。
現在Google內部至少運行著200多個GFS集群,最大的集群有幾千臺服務器,并且服務于多個Google服務,比如 Google搜索。但由于GFS主要為搜索而設計,所以不是很適合新的一些Google產品,比YouTube、Gmail和更強調大規模索引和實時性的 Caffeine搜索引擎等,所以Google已經在開發下一代GFS,代號為“Colossus”,并且在設計方面有許多不同,比如:支持分布式 Master節點來提升高可用性并能支撐更多文件,chunk節點能支持1MB大小的chunk以支撐低延遲應用的需要。
Chubby
簡單的來說,Chubby屬于分布式鎖服務,通過Chubby,一個分布式系統中的上千個client都能夠對于某項資源進行“加鎖”或者“解鎖”,常用于BigTable的協作工作,在實現方面是通過對文件的創建操作來實現“加鎖”,并基于著名科學家Leslie Lamport的Paxos算法。
Protocol Buffer
Protocol Buffer,是Google內部使用一種語言中立,平臺中立和可擴展的序列化結構化數據的方式,并提供java、c++和python這三種語言的實現,每一種實現都包含了相應語言的編譯器以及庫文件,而且它是一種二進制的格式,所以其速度是使用xml進行數據交換的10 倍左右。它主要用于兩個方面:其一是RPC通信,它可用于分布式應用之間或者異構環境下的通信。其二是數據存儲方面,因為它自描述,而且壓縮很方便,所以可用于對數據進行持久化,比如存儲日志信息,并可被Map Reduce程序處理。與Protocol Buffer比較類似的產品還有Facebook的Thrift,而且Facebook號稱Thrift在速度上還有一定的優勢。
分布式大規模數據處理
MapReduce
首先,在Google數據中心會有大規模數據需要處理,比如被網絡爬蟲(Web Crawler)抓取的大量網頁等。由于這些數據很多都是PB級別,導致處理工作不得不盡可能的并行化,而Google為了解決這個問題,引入了 MapReduce這個編程模型,MapReduce是源自函數式語言,主要通過"Map(映射)"和"Reduce(化簡)"這兩個步驟來并行處理大規模的數據集。Map會先對由很多獨立元素組成的邏輯列表中的每一個元素進行指定的操作,且原始列表不會被更改,會創建多個新的列表來保存Map的處理結果。也就意味著,Map操作是高度并行的。當Map工作完成之后,系統會先對新生成的多個列表進行清理(Shuffle)和排序,之后會這些新創建的列表進行Reduce操作,也就是對一個列表中的元素根據Key值進行適當的合并。
下圖為MapReduce的運行機制:
圖2. MapReduce的運行機制
接下來,將根據上圖來舉一個MapReduce的例子:比如,通過搜索Spider將海量的Web頁面抓取到本地的GFS 集群中,然后Index系統將會對這個GFS集群中多個數據Chunk進行平行的Map處理,生成多個Key為URL,value為html頁面的鍵值對(Key-Value Map),接著系統會對這些剛生成的鍵值對進行Shuffle(清理),之后系統會通過Reduce操作來根據相同的key值(也就是URL)合并這些鍵值對。
最后,通過MapReduce這么簡單的編程模型,不僅能用于處理大規模數據,而且能將很多繁瑣的細節隱藏起來,比如自動并行化,負載均衡和機器宕機處理等,這樣將極大地簡化程序員的開發工作。MapReduce可用于包括“分布grep,分布排序,web訪問日志分析,反向索引構建,文檔聚類,機器學習,基于統計的機器翻譯,生成Google的整個搜索的索引“等大規模數據處理工作。Yahoo也推出MapReduce的開源版本Hadoop,而且Hadoop在業界也已經被大規模使用。
Sawzall
Sawzall可以被認為是構建在MapReduce之上的采用類似Java語法的DSL(Domain-Specific Language),也可以認為它是分布式的AWK。它主要用于對大規模分布式數據進行篩選和聚合等高級數據處理操作,在實現方面,是通過解釋器將其轉化為相對應的MapReduce任務。除了Google的Sawzall之外,yahoo推出了相似的Pig語言,但其語法類似于SQL。
分布式數據庫技術
BigTable
由于在Google的數據中心存儲PB級以上的非關系型數據時候,比如網頁和地理數據等,為了更好地存儲和利用這些數據,Google開發了一套數據庫系統,名為“BigTable”。BigTable不是一個關系型的數據庫,它也不支持關聯(join)等高級SQL操作,取而代之的是多級映射的數據結構,并是一種面向大規模處理、容錯性強的自我管理系統,擁有TB級的內存和PB級的存儲能力,使用結構化的文件來存儲數據,并每秒可以處理數百萬的讀寫操作。
什么是多級映射的數據結構呢?就是一個稀疏的,多維的,排序的Map,每個Cell由行關鍵字,列關鍵字和時間戳三維定位.Cell的內容是一個不解釋的字符串,比如下表存儲每個網站的內容與被其他網站的反向連接的文本。反向的URL com.cnn.www是這行的關鍵字;contents列存儲網頁內容,每個內容有一個時間戳,因為有兩個反向連接,所以archor的Column Family有兩列:anchor: cnnsi.com和anchhor:my.look.ca。Column Family這個概念,使得表可以輕松地橫向擴展。
下面是它具體的數據模型圖:
圖3. BigTable數據模型圖
在結構上,首先,BigTable基于GFS分布式文件系統和Chubby分布式鎖服務。其次BigTable也分為兩部分:其一是Master節點,用來處理元數據相關的操作并支持負載均衡。其二是tablet節點,主要用于存儲數據庫的分片tablet,并提供相應的數據訪問,同時tablet 是基于名為SSTable的格式,對壓縮有很好的支持。
圖4. BigTable架構圖
BigTable正在為Google六十多種產品和項目提供存儲和獲取結構化數據的支撐平臺,其中包括有Google Print, Orkut,Google Maps,Google Earth和Blogger等,而且Google至少運行著500個BigTable集群。
隨著Google內部服務對需求的不斷提高和技術的不斷地發展,導致原先的BigTable已經無法滿足用戶的需求,而 Google也正在開發下一代BigTable,名為“Spanner(扳手)”,它主要有下面這些BigTable所無法支持的特性:
1.支持多種數據結構,比如table,familie,group和coprocessor等。
2.基于分層目錄和行的細粒度的復制和權限管理。
3.支持跨數據中心的強一致性和弱一致性控制。
4.基于Paxos算法的強一致性副本同步,并支持分布式事務。
5.提供許多自動化操作。
6.強大的擴展能力,能支持百萬臺服務器級別的集群。
7.用戶可以自定義諸如延遲和復制次數等重要參數以適應不同的需求。
數據庫Sharding
Sharding就是分片的意思,雖然非關系型數據庫比如BigTable在Google的世界中占有非常重要的地位,但是面對傳統OLTP應用,比如廣告系統,Google還是采用傳統的關系型數據庫技術,也就是MySQL,同時由于Google所需要面對流量非常巨大,所以Google在數據庫層采用了分片(Sharding)的水平擴展(Scale Out)解決方案,分片是在傳統垂直擴展(Scale Up)的分區模式上的一種提升,主要通過時間,范圍和面向服務等方式來將一個大型的數據庫分成多片,并且這些數據片可以跨越多個數據庫和服務器來實現水平擴展。
Google整套數據庫分片技術主要有下面這些優點:
1.擴展性強:在Google生產環境中,已經有支持上千臺服務器的MySQL分片集群。
2.吞吐量驚人:通過巨大的MySQL分片集群能滿足巨量的查詢請求。
3.全球備份:不僅在一個數據中心還是在全球的范圍,Google都會對MySQL的分片數據進行備份,這樣不僅能保護數據,而且方便擴展。
在實現方面,主要可分為兩塊:其一是在MySQL InnoDB基礎上添加了數據庫分片的技術。其二是在ORM層的Hibernate的基礎上也添加了相關的分片技術,并支持虛擬分片(Virtual Shard)來便于開發和管理。同時Google也已經將這兩方面的代碼提交給相關組織。
數據中心優化技術
數據中心高溫化
大中型數據中心的PUE(Power Usage Effectiveness)普遍在2左右,也就是在服務器等計算設備上耗1度電,在空調等輔助設備上也要消耗一度電。對一些非常出色的數據中心,最多也就能達到1.7,但是Google通過一些有效的設計使部分數據中心到達了業界領先的1.2,在這些設計當中,其中最有特色的莫過于數據中心高溫化,也就是讓數據中心內的計算設備運行在偏高的溫度下,Google的能源方面的總監Erik Teetzel在談到這點的時候說:“普通的數據中心在70華氏度(21攝氏度)下面工作,而我們則推薦80華氏度(27攝氏度)“。但是在提高數據中心的溫度方面會有兩個常見的限制條件:其一是服務器設備的崩潰點,其二是精確的溫度控制。如果做好這兩點,數據中心就能夠在高溫下工作,因為假設數據中心的管理員能對數據中心的溫度進行正負1/2度的調節,這將使服務器設備能在崩潰點5度之內工作,而不是常見的20度之內,這樣既經濟,又安全。還有,業界傳言Intel為Google提供抗高溫設計的定制芯片,但云計算界的頂級專家James Hamilton認為不太可能,因為雖然處理器也非常懼怕熱量,但是與內存和硬盤相比還是強很多,所以處理器在抗高溫設計中并不是一個核心因素。同時他也非常支持使數據中心高溫化這個想法,而且期望將來數據中心甚至能運行在40攝氏度下,這樣不僅能節省空調方面的成本,而且對環境也很有利。
12V電池
由于傳統的UPS在資源方面比較浪費,所以Google在這方面另辟蹊徑,采用了給每臺服務器配一個專用的12V電池的做法來替換了常用的UPS,如果主電源系統出現故障,將由該電池負責對服務器供電。雖然大型UPS可以達到92%到95%的效率,但是比起內置電池的 99.99%而言是非常捉襟見肘的,而且由于能量守恒的原因,導致那么未被UPS充分利用的電力會被轉化成熱能,這將導致用于空調的能耗相應地攀升,從而走入一個惡性循環。同時在電源方面也有類似的“神來之筆”,普通的服務器電源會同時提供5V和12V的直流電。但是Google設計的服務器電源只輸出 12V直流電,必要的轉換在主板上進行,雖然這種設計會使主板的成本增加1美元到2美元,但是它不僅能使電源能在接近其峰值容量的情況下運行,而且在銅線上傳輸電流時效率更高。
服務器整合
談到虛擬化的殺手锏時,第一個讓人想到肯定是服務器整合,而且普遍能實現1:8的整合率來降低各方面的成本。有趣的是,Google在硬件方面也引入類似服務器整合的想法,它的做法是在一個機箱大小的空間內放置兩臺服務器,這些做的好處有很多,首先,減小了占地面積。其次,通過讓兩臺服務器共享諸如電源等設備,來降低設備和能源等方面的投入。