新版新特色,內容更詳細,更適閤收藏和找Hadoop之父簽名兒!
準備好釋放數據的強大潛能瞭嗎?藉助於這本本書,你將學習如何使用ApacheHadoop構建和維護穩定性高、伸縮性強的分布式係統。本書是為程序員寫的,可幫助他們分析任何大小的數據集。本書同時也是為管理員寫的,幫助他們瞭解如何設置和運行Hadoop集群。
本書通過豐富的案例學習來解釋Hadoop的幕後機理,闡述瞭Hadoop如何解決現實生活中的具體問題。第3版覆蓋Hadoop的新動態,包括新增的MapReduceAPI,以及MapReduce2及其靈活性更強的執行模型(YARN)。
Tom White,數學王子&Hadoop;專傢。身為Apache Hadoop提交者八年之久,Apache軟件基金會成員之一。全球知名雲計算公司Cloudera的軟件工程師。Tom擁有英國劍橋大學數學學士學位和利茲大學科學哲學碩士學位。
初識Hadoop
在古時候,人們用牛來拉重物。當一頭牛拉不動一根圓木時,人們從來沒有考慮過要培育更強壯的牛。同理,我們也不該想方設法打造超級計算機,而應該韆方百計綜閤利用更多計算機來解決問題。
——格蕾斯·霍珀(Grace Hopper)
1.1 數據!數據!
我們生活在這個數據大爆炸的時代,很難估算全球電子設備中存儲的數據總共有多少。國際數據公司(IDC)曾經發布報告稱,2006年數字世界(digital universe)項目統計得齣全球數據總量為0.18 ZB並預測在2011年將達到1.8 ZB。 1 ZB等於1021字節,等於1000 EB(exabytes),1 000 000 PB (petabytes),等於大傢更熟悉的10億TB(terrabytes)!這相當於全世界每人一個硬盤中保存的數據總量!
數據“洪流”有很多來源。以下麵列齣的為例:
紐約證交所每天産生的交易數據多達1 TB
臉譜網(Facebook)存儲的照片約100 億張,存儲容量約為 1 PB
傢譜網站Ancestry.com存儲的數據約為2.5 PB
互聯網檔案館(The Internet Archive)存儲的數據約為2 PB,並以每月至少20 TB的速度持續增長
瑞士日內瓦附近的大型強子對撞機每年産生的數據約為15 PB
還有其他大量的數據。但是你可能會想它對自己又有哪些影響呢?地球人都知道,大部分數據都嚴密鎖存在一些大型互聯網公司(如搜索引擎公司)或科學機構與金融機構中。難道所謂的“大數據”隻影響小機構和個人?
我個人是這樣認為的。以照片為例,我妻子的爺爺是一個骨灰級的攝影愛好者。在成年之後,他一直都在拍照。他的整個相冊,包括普通膠片、幻燈片、35mm膠片,在掃描成高分辨率的圖片之後,大約有10 GB。相比之下,在2008年,我傢用數碼相機拍攝的照片總共有5 GB。對照爺爺的照片生成速度,我傢是他老人傢的35倍!並且,而且這個速度還在不斷增長中,因為現在拍照片真的是越來越容易瞭。
有句話說得好:“大數據勝於好算法。” 意思是說對於某些應用 (譬如根據以往的偏好來推薦電影和音樂),不論算法有多牛,基於小數據的推薦效果往往都不如基於大量可用數據的一般算法的推薦效果。
現在,我們已經有瞭大量數據,這是個好消息。但不幸的是,我們必須想方設法好好地存儲和分析這些數據。
1.2 數據的存儲與分析
我們遇到的問題很簡單:在硬盤存儲容量多年來不斷提升的同時,訪問速度(硬盤數據讀取速度)卻沒有與時俱進。1990年,一個普通硬盤可以存儲1370 MB數據,傳輸速度為4.4 MB/s ,因此隻需要5分鍾就可以讀完整個硬盤中的數據。20年過去瞭,1 TB的硬盤已然成為主流,但其數據傳輸速度約為100 MB/s,讀完整個硬盤中的數據至少得花2.5個小時。
讀完整個硬盤中的數據需要更長時間,寫入數據就彆提瞭。一個很簡單的減少讀取時間的辦法是同時從多個硬盤上讀數據。試想,如果我們有100個硬盤,每個硬盤存儲1%的數據,並行讀取,那麼不到兩分鍾就可以讀完所有數據。
僅使用硬盤容量的1%似乎很浪費。但是我們可以存儲100個數據集,每個數據集1 TB,並實現共享硬盤的讀取。可以想象,用戶肯定很樂於通過硬盤共享來縮短數據分析時間;並且,從統計角度來看,用戶的分析工作都是在不同時間點進行的,所以彼此之間的乾擾並不太大。
雖然如此,但要對多個硬盤中的數據並行進行讀寫數據,還有更多問題要解決。第一個需要解決的是硬件故障問題。一旦開始使用多個硬件,其中個彆硬件就很有可能發生故障。為瞭避免數據丟失,最常見的做法是復製(replication):係統保存數據的復本(replica),一旦有係統發生故障,就可以使用另外保存的復本。例如,冗餘硬盤陣列(RAID)就是按這個原理實現的,另外,Hadoop的文件係統(HDFS,Hadoop Distributed FileSystem)也是一類,不過它采取的方法稍有不同,詳見後文的描述。
第二個問題是大多數分析任務需要以某種方式結閤大部分數據來共同完成分析,即從一個硬盤讀取的數據可能需要與從另外99個硬盤中讀取的數據結閤使用。各種分布式係統允許結閤不同來源的數據進行分析,但保證其正確性是一個非常大的挑戰。MapReduce提齣一個編程模型,該模型抽象齣這些硬盤讀寫問題並將其轉換為對一個數據集(由鍵值對組成)的計算。後文將詳細討論這個模型,這樣的計算由map和reduce兩部分組成,而且隻有這兩部分提供對外的接口。與HDFS類似,MapReduce自身也有很高的可靠性。
簡而言之,Hadoop為我們提供瞭一個可靠的共享存儲和分析係統。HDFS實現數據的存儲,MapReduce實現數據的分析和處理。雖然Hadoop還有其他功能,但HDFS和MapReduce是它的核心價值。
1.3 相較於其他係統的優勢
MapReduce看似采用瞭一種蠻力方法。每個查詢需要處理整個數據集或至少一個數據集的絕大部分。但反過來想,這也正是它的能力。MapReduce是一個批量查詢處理器,能夠在閤理的時間範圍內處理針對整個數據集的動態查詢。它改變瞭我們對數據的傳統看法,解放瞭以前隻是保存在磁帶和硬盤上的數據。它讓我們有機會對數據進行創新。以前需要很長時間處理纔能獲得結果的問題,到現在變得頃刻之間就迎刃而解,同時還可以引發新的問題和新的見解。
例如,Rackspace公司的郵件部門Mailtrust就用Hadoop來處理郵件日誌。他們寫動態查詢,想藉此找齣用戶的地理分布。他們是這麼描述的:“這些數據非常有用,我們每月運行一次MapReduce任務來幫助我們決定哪些Rackspace數據中心需要添加新的郵件服務器。”
通過整閤好幾百GB的數據,用MapReduce來分析這些數據,Rackspace的工程師從中發現瞭以前從來沒有注意到的數據,甚至還運用這些信息來改善瞭現有的服務。第16章將詳細介紹Rackspace公司內部是如何使用Hadoop的。
1.3.1 關係型數據庫管理係統
為什麼不能用數據庫來對大量硬盤上的大規模數據進行批量分析呢?我們為什麼需要MapReduce?
這兩個問題的答案來自於計算機硬盤的另一個發展趨勢:尋址時間的提升遠遠不敵於傳輸速率的提升。尋址是將磁頭移動到特定硬盤位置進行讀寫操作的過程。它是導緻硬盤操作延遲的主要原因,而傳輸速率取決於硬盤的帶寬。
如果數據訪問模式中包含大量的硬盤尋址,那麼讀取大量數據集就必然會花更長的時間(相較於流數據讀取模式,流讀取主要取決於傳輸速率)。另一方麵,如果數據庫係統隻更新一小部分記錄,那麼傳統的B樹就更有優勢(關係型數據庫中使用的一種數據結構,受限於尋址的比例)。但數據庫係統如果有大量數據更新時,B樹的效率就明顯落後於MapReduce,因為需要使用“排序/閤並“(sort/merge)來重建數據庫。
在許多情況下,可以將MapReduce視為關係型數據庫管理係統的補充。兩個係統之間的差異如錶1-1所示。
MapReduce比較適閤以批處理方式處理需要分析整個數據集的問題,尤其是動態分析。RDBMS適用於點查詢 (point query)和更新,數據集被索引之後,數據庫係統能夠提供低延遲的數據檢索和快速的少量數據更新。MapReduce適閤一次寫入、多次讀取數據的應用,關係型數據庫則更適閤持續更新的數據集。
錶1-1. 關係型數據庫和MapReduce的比較
傳統的關係型數據庫 MapReduce
數據大小 GB PB
數據存取 交互式和批處理 批處理
更新 多次讀/寫 一次寫入,多次讀取
結構 靜態模式 動態模式
完整性 高 低
橫嚮擴展 非綫性的 綫性的
MapReduce和關係型數據庫之間的另一個區彆在於它們所操作的數據集的結構化程度。結構化數據(structured data)是具有既定格式的實體化數據,如XML文檔或滿足特定預定義格式的數據庫錶。這是RDBMS包括的內容。另一方麵,半結構化數據(semi-structured data)比較鬆散,雖然可能有格式,但經常被忽略,所以它隻能作為對數據結構的一般性指導。例如電子錶格,它在結構上是由單元格組成的網格,但是每個單元格內可以保存任何形式的數據。非結構化數據(unstructured data)沒有什麼特彆的內部結構,例如純文本或圖像數據。MapReduce對非結構化或半結構化數據非常有效,因為它是在處理數據時纔對數據進行解釋。換句話說,MapReduce輸入的鍵和值並不是數據固有的屬性,而是由分析數據的人來選的。
關係型數據往往是規範的(normalized),以保持其數據的完整性且不含冗餘。規範給MapReduce帶來瞭問題,因為它使記錄讀取成為非本地操作,而MapReduce的核心假設之一偏偏就是可以進行(高速的)流讀寫操作。
Web服務器日誌是典型的非規範化數據記錄(例如,每次都需要記錄客戶端主機全名,這會導緻同一客戶端的全名可能多次齣現),這也是MapReduce非常適用於分析各種日誌文件的原因之一。
MapReduce是一種綫性的可伸縮編程模型。程序員要寫兩個函數,分彆為map函數和reduce函數,每個函數定義從一個鍵值對集閤到另一個鍵值對集閤的映射。這些函數不必關注數據集及其所用集群的大小,可以原封不動地應用於小規模數據集或大規模的數據集。更重要的是,如果輸入的數據量是原來的兩倍,那麼運行時間也需要兩倍。但如果集群是原來的兩倍,作業的運行速度卻仍然與原來一樣快。SQL查詢一般不具備該特性。
但是,在不久的將來,關係型數據庫係統和MapReduce係統之間的差異很可能變得模糊。關係型數據庫都開始吸收MapReduce的一些思路(如Aster Data的數據庫和GreenPlum的數據庫),另一方麵,基於MapReduce的高級查詢語言(如Pig和Hive)使傳統數據庫的程序員更容易接受MapReduce係統。
1.3.2 網格計算
高性能計算(High Performance Computing,HPC)和網格計算(Grid Computing)組織多年以來一直在研究大規模數據處理,主要使用類似於消息傳遞接口(Message Passing Interface,MPI)的API。從廣義上講,高性能計算采用的方法是將作業分散到集群的各颱機器上,這些機器訪問存儲區域網絡(SAN)所組成的共享文件係統。這比較適用於計算密集型的作業,但如果節點需要訪問的數據量更龐大 (高達幾百GB,MapReduce開始施展它的魔法),很多計算節點就會因為網絡帶寬的瓶頸問題不得不閑下來等數據。
MapReduc盡量在計算節點上存儲數據,以實現數據的本地快速訪問。 數據本地化(data locality)特性是MapReduce的核心特徵,並因此而獲得良好的性能。意識到網絡帶寬是數據中心環境最珍貴的資源(到處復製數據很容易耗盡網絡帶寬)之後,MapReduce通過顯式網絡拓撲結構來保留網絡帶寬。注意,這種排列方式並沒有降低MapReduce對計算密集型數據進行分析的能力。
雖然MPI賦予程序員很大的控製權,但需要程序員顯式控製數據流機製,包括用C語言構造底層的功能模塊(例如套接字)和高層的數據分析算法。而MapReduce則在更高層次上執行任務,即程序員僅從鍵值對函數的角度考慮任務的執行,而且數據流是隱含的。
在大規模分布式計算環境下,協調各個進程的執行是一個很大的挑戰。最睏難的是閤理處理係統的部分失效問題——在不知道一個遠程進程是否掛瞭的情況下——同時還需要繼續完成整個計算。有瞭MapReduce,程序員不必操心係統部分失效的問題,因為它自己的係統實現能夠檢測到並重新執行那些失敗的map或reduce任務。正因為采用的是無共享(shared-nothing)框架,MapReduce纔能夠實現失敗檢測,這意味著各個任務之間是彼此獨立的。 因此,從程序員的角度來看,任務的執行順序無關緊要。相比之下,MPI程序必須顯式管理自己的檢查點和恢復機製,雖然賦予程序員的控製權加大瞭,但編程的難度也增加瞭。
MapReduce聽起來似乎是一個相當嚴格的編程模型,而且在某種意義上看的確如此:限定用戶使用有特定關聯的鍵值對,mapper和reducer彼此間的協調非常有限(每個mapper將鍵值對傳給reducer)。由此,我們自然聯想到一個問題:能用這個編程模型做一些有用或實際的事情嗎?
答案是肯定的。MapReduce由榖歌的工程師開發,用於構建搜索引擎的索引,而且,事實已經證明它能夠一次又一次地解決這個問題(MapReduce 的靈感來自於傳統的函數式編程、分布式計算和數據庫社區),但此後,該模型在其他行業還有著很多其他的應用。我們欣喜地發現,有很多算法都可以用 MapReduce來錶達,從圖像圖形分析到各種各樣基於圖像分析的問題,再到機器學習算法。 當然,它也不是包治百病的靈丹妙藥,不能解決所有問題,但它真的是一個很通用的數據處理工具。
我們將在第16章介紹Hadoop的一些典型應用。
......
數學科普作傢馬丁·加德納(Martin Gardner)曾在一次采訪中談到:
“在我的世界裏,隻有微積分。這是我的專欄 取得成功奧秘。我花瞭很多時間纔明白如何以大多數讀者都能明白的方式將自己所知道的東西娓娓道來。”
這也是我對Hadoop的諸多感受。它的內部工作機製非常復雜,是一個集分布式係統理論、實際工程和常識於一體的係統。而且,對門外漢而言,Hadoop更像是“天外來客”。
但Hadoop其實並沒有那麼讓人費解,抽絲剝繭,我們來看它的“廬山真麵目”。它提供的用於構建分布式係統的每個工具(用於數據存儲、數據分析和協調處理)都非常簡單。如果說這些工具有一個共同的主題,那就是它們更抽象,對偶爾有大量數據需要存儲的程序員、有大量數據需要分析的程序員、有大量計算機需要管理的程序員同時卻沒有足夠的時間、技能或者不想成為分布式係統專傢的程序員提供一套組件,使其能夠利用Hadoop來構建基礎平颱。
這樣一個簡單、通用的特性集,促使我在開始使用Hadoop時便明顯感覺到Hadoop真的值得推廣。但最開始的時候(2006年初),安裝、配置和Hadoop應用編程是一門高深的藝術。之後,情況確實有所改善:文檔增多瞭;示例增多瞭;碰到問題時,可以嚮大量活躍的郵件列錶發郵件求助。對新手而言,最大的障礙是理解Hadoop有哪些能耐,它擅長什麼,它如何使用。這些問題使我萌發瞭寫作本書的動機。
Apache Hadoop社區的發展來之不易。在過去的三年多時間裏,Hadoop項目開花結果並孵化齣大約半打子項目。到目前,它在性能、可靠性、可擴展性和可管理性方麵都實現瞭巨大的飛躍。但是,為瞭讓更多人采用Hadoop,我認為我們要讓Hadoop更好用。這需要創建更多新的工具,集成更多的係統,創建新的、改進的API。我希望我自己能夠參與,同時也希望本書能夠鼓勵並吸引其他人也參與Hadoop項目。
作為一名在數據領域摸爬滾打多年的老兵,我對Hadoop生態係統中的各類工具早已耳熟能詳。然而,《Hadoop權威指南》(第三版修訂版)依舊給瞭我不少驚喜。它並沒有停留在對基礎概念的簡單羅列,而是深入探討瞭Hadoop在實際應用中可能遇到的各種挑戰,並提供瞭行之有效的應對策略。書中關於YARN的講解尤為齣色,清晰地闡釋瞭它如何成為Hadoop的資源管理和作業調度核心,以及如何通過調整YARN的配置來優化集群性能。此外,它還廣泛覆蓋瞭Hadoop生態係統中的其他重要技術,比如Hive、Pig、HBase等,並詳細介紹瞭它們與Hadoop核心的集成方式和最佳實踐。最讓我感到受益匪淺的是,書中並沒有止步於技術介紹,而是融入瞭許多作者在實際項目中積纍的寶貴經驗,比如如何進行大規模集群的部署、監控和故障排除,以及如何設計高效的MapReduce作業。這些實戰性的建議,對於那些希望將Hadoop技術真正落地到企業級應用中的讀者來說,無疑是無價之寶。
評分說實話,最初選擇這本書,是因為它的名字——《Hadoop權威指南》。我希望找到一本能夠讓我全麵、深入地理解Hadoop的書籍,而這本書沒有讓我失望。從HDFS的分布式文件係統設計原理,到MapReduce的編程模型,再到YARN的資源管理機製,這本書都進行瞭詳盡的闡述。我特彆喜歡書中對Hadoop各個組件之間相互關係的分析,這讓我能夠更宏觀地把握整個Hadoop生態係統。作者的寫作風格非常嚴謹,邏輯清晰,即使是復雜的技術概念,也能被解釋得通俗易懂。每章的結尾都有相關的練習和思考題,這極大地幫助我鞏固所學的知識。而且,本書的修訂版在原有基礎上更新瞭許多內容,加入瞭最新的Hadoop版本特性和發展趨勢,這對於想要跟上技術步伐的讀者來說至關重要。這本書為我構建瞭一個紮實的Hadoop知識體係,讓我能夠自信地麵對各種Hadoop相關的挑戰。
評分這本書的價值遠超其定價。我是一名資深的數據工程師,在工作中經常需要處理海量數據,而Hadoop無疑是解決這類問題的利器。這本書以其權威性和深度,成為瞭我工作中的得力助手。它不僅提供瞭對Hadoop核心組件(如HDFS、MapReduce、YARN)的深入講解,更包含瞭對Hadoop生態係統中其他重要組件(如Hive、HBase、Spark等)的詳細介紹。書中關於如何優化Hadoop集群性能、如何進行大規模數據處理以及如何解決常見故障的章節,都充滿瞭作者在實踐中積纍的寶貴經驗。我特彆喜歡書中對不同應用場景下Hadoop配置的建議,這對於指導我們在實際工作中如何進行閤理的調優非常有幫助。此外,書中對於Hadoop最新版本特性的更新和闡述,也讓我能夠始終站在技術的前沿。總而言之,這本書是一本不可多得的Hadoop參考書,無論是初學者還是資深從業者,都能從中獲益良多。
評分這本書簡直就是Hadoop世界的百科全書!作為一名剛開始接觸Hadoop的開發者,我曾一度被其復雜的概念和龐大的生態係統壓得喘不過氣來。然而,當我翻開這本《Hadoop權威指南》(第三版修訂版),我仿佛找到瞭指引方嚮的燈塔。書中從Hadoop的核心組件HDFS和MapReduce講起,循序漸進地剖析瞭它們的架構、工作原理以及關鍵配置。那些曾經讓我頭疼不已的細節,比如HDFS的NameNode和DataNode如何協同工作,MapReduce作業的調度流程,甚至是各個參數背後的深層含義,都在作者清晰的闡述下變得明朗起來。我尤其欣賞的是書中提供瞭大量的代碼示例和實際操作指導,這讓我能夠邊學邊練,將理論知識轉化為實踐能力。每一次遇到問題,這本書幾乎都能提供最直接、最有效的解決方案。它不僅僅是一本技術手冊,更像是一位經驗豐富的老友,耐心地解答著我所有的疑惑,幫助我一步步建立起對Hadoop的深刻理解,讓我能夠自信地投入到實際的項目開發中去。
評分這本書的深度和廣度都令人驚嘆。對於我這樣一名剛剛開始探索大數據世界的學習者來說,它就像一張詳盡的地圖,指引著我穿梭於Hadoop的復雜世界。書中對HDFS的架構剖析,從NameNode的元數據管理到DataNode的數據塊存儲,再到Client的讀寫操作,每一個環節都講解得非常到位,讓我對數據如何在分布式環境中存儲和管理有瞭清晰的認識。而MapReduce的部分,更是詳細介紹瞭其編程模型、Shuffle過程以及各種優化技巧,讓原本看似抽象的計算過程變得生動具體。我特彆欣賞書中關於“為什麼”和“如何做”的結閤,不僅僅是告訴我們Hadoop是什麼,更是深入淺齣地解釋瞭Hadoop為什麼會這樣設計,以及我們應該如何去使用它。各種圖示和流程圖的運用,讓復雜的概念更加直觀易懂。讀完這本書,我感覺自己仿佛擁有瞭Hadoop的“內功心法”,對這個強大的分布式計算框架有瞭前所未有的自信。
評分經典之作,很好很喜歡,推薦給大傢。
評分還沒看,,書的質量沒的說,大數據是未來,技術人加油
評分商品來瞭看著不錯,還沒用。。
評分遠沒有過時,思路和設計仍被沿用
評分不錯!不錯不錯不錯!不錯不錯不錯!不錯不錯
評分京東很善解人意呢,正想買書呢(不想看電子版的),圖書就起搞活動瞭,很贊,自營送的就是快,質量還可以,一下買瞭十幾本,夠看一年的瞭,彆攔我,我要閉關瞭,哈哈哈
評分書不錯,該講的都講瞭
評分老公看的,平時做編程的
評分不錯不錯不錯不錯不錯不錯
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 book.tinynews.org All Rights Reserved. 静思书屋 版权所有