主頁(yè) > 知識(shí)庫(kù) > 簡(jiǎn)單總結(jié)Hadoop和Spark集群技術(shù)的不同點(diǎn)

簡(jiǎn)單總結(jié)Hadoop和Spark集群技術(shù)的不同點(diǎn)

熱門(mén)標(biāo)簽:廣西防封卡外呼系統(tǒng)原理是什么 浙江呼叫中心外呼系統(tǒng)多少錢(qián) 阿里機(jī)器人電銷(xiāo) 地圖標(biāo)注標(biāo)記位置導(dǎo)航 清遠(yuǎn)語(yǔ)音外呼系統(tǒng)平臺(tái) 電銷(xiāo)外呼系統(tǒng)罵人 地圖標(biāo)注操作方法 地圖標(biāo)注銷(xiāo)售好做嗎 機(jī)器人電銷(xiāo)哪個(gè)牌子好

談到大數(shù)據(jù),相信大家對(duì)Hadoop和Apache Spark這兩個(gè)名字并不陌生。但我們往往對(duì)它們的理解只是提留在字面上,并沒(méi)有對(duì)它們進(jìn)行深入的思考,下面不妨跟我一塊看下它們究竟有什么異同。

解決問(wèn)題的層面不一樣
首先,Hadoop和Apache Spark兩者都是大數(shù)據(jù)框架,但是各自存在的目的不盡相同。Hadoop實(shí)質(zhì)上更多是一個(gè)分布式數(shù)據(jù)基礎(chǔ)設(shè)施: 它將巨大的數(shù)據(jù)集分派到一個(gè)由普通計(jì)算機(jī)組成的集群中的多個(gè)節(jié)點(diǎn)進(jìn)行存儲(chǔ),意味著您不需要購(gòu)買(mǎi)和維護(hù)昂貴的服務(wù)器硬件。
同時(shí),Hadoop還會(huì)索引和跟蹤這些數(shù)據(jù),讓大數(shù)據(jù)處理和分析效率達(dá)到前所未有的高度。Spark,則是那么一個(gè)專(zhuān)門(mén)用來(lái)對(duì)那些分布式存儲(chǔ)的大數(shù)據(jù)進(jìn)行處理的工具,它并不會(huì)進(jìn)行分布式數(shù)據(jù)的存儲(chǔ)。

兩者可合可分
Hadoop除了提供為大家所共識(shí)的HDFS分布式數(shù)據(jù)存儲(chǔ)功能之外,還提供了叫做MapReduce的數(shù)據(jù)處理功能。所以這里我們完全可以拋開(kāi)Spark,使用Hadoop自身的MapReduce來(lái)完成數(shù)據(jù)的處理。
相反,Spark也不是非要依附在Hadoop身上才能生存。但如上所述,畢竟它沒(méi)有提供文件管理系統(tǒng),所以,它必須和其他的分布式文件系統(tǒng)進(jìn)行集成才能運(yùn)作。這里我們可以選擇Hadoop的HDFS,也可以選擇其他的基于云的數(shù)據(jù)系統(tǒng)平臺(tái)。但Spark默認(rèn)來(lái)說(shuō)還是被用在Hadoop上面的,畢竟,大家都認(rèn)為它們的結(jié)合是最好的。
以下是從網(wǎng)上摘錄的對(duì)MapReduce的最簡(jiǎn)潔明了的解析:
我們要數(shù)圖書(shū)館中的所有書(shū)。你數(shù)1號(hào)書(shū)架,我數(shù)2號(hào)書(shū)架。這就是“Map”。我們?nèi)嗽蕉?,?shù)書(shū)就更快。
現(xiàn)在我們到一起,把所有人的統(tǒng)計(jì)數(shù)加在一起。這就是“Reduce”。

Spark數(shù)據(jù)處理速度秒殺MapReduce
熟悉Hadoop的人應(yīng)該都知道,用戶先編寫(xiě)好一個(gè)程序,我們稱為Mapreduce程序,一個(gè)Mapreduce程序就是一個(gè)Job,而一個(gè)Job里面可以有一個(gè)或多個(gè)Task,Task又可以區(qū)分為Map Task和Reduce Task,如下圖所示:

而在Spark中,也有Job概念,但是這里的Job和Mapreduce中的Job不一樣,它不是作業(yè)的最高級(jí)別的粒度,在它只上還有Application的概念。
一個(gè)Application和一個(gè)SparkContext相關(guān)聯(lián),每個(gè)Application中可以有一個(gè)或多個(gè)Job,可以并行或者串行運(yùn)行Job。Spark中的一個(gè)Action可以觸發(fā)一個(gè)Job的運(yùn)行。在Job里面又包含了多個(gè)Stage,Stage是以Shuffle進(jìn)行劃分的。在Stage中又包含了多個(gè)Task,多個(gè)Task構(gòu)成了Task Set。他們之間的關(guān)系如下圖所示:

Mapreduce中的每個(gè)Task分別在自己的進(jìn)程中運(yùn)行,當(dāng)該Task運(yùn)行完的時(shí)候,該進(jìn)程也就結(jié)束了。和Mapreduce不一樣的是,Spark中多個(gè)Task可以運(yùn)行在一個(gè)進(jìn)程里面,而且這個(gè)進(jìn)程的生命周期和Application一樣,即使沒(méi)有Job在運(yùn)行。
這個(gè)模型有什么好處呢?可以加快Spark的運(yùn)行速度!Tasks可以快速地啟動(dòng),并且處理內(nèi)存中的數(shù)據(jù)。但是這個(gè)模型有的缺點(diǎn)就是粗粒度的資源管理,每個(gè)Application擁有固定數(shù)量的executor和固定數(shù)量的內(nèi)存。
Spark因?yàn)槠涮幚頂?shù)據(jù)的方式不一樣,會(huì)比MapReduce快上很多。MapReduce是分步對(duì)數(shù)據(jù)進(jìn)行處理的: ”從集群中讀取數(shù)據(jù),進(jìn)行一次處理,將結(jié)果寫(xiě)到集群,從集群中讀取更新后的數(shù)據(jù),進(jìn)行下一次的處理,將結(jié)果寫(xiě)到集群,等等…“ Booz Allen Hamilton的數(shù)據(jù)科學(xué)家Kirk Borne如此解析。
反觀Spark,它會(huì)在內(nèi)存中以接近“實(shí)時(shí)”的時(shí)間完成所有的數(shù)據(jù)分析:“從集群中讀取數(shù)據(jù),完成所有必須的分析處理,將結(jié)果寫(xiě)回集群,完成,” Born說(shuō)道。Spark的批處理速度比MapReduce快近10倍,內(nèi)存中的數(shù)據(jù)分析速度則快近100倍。
如果需要處理的數(shù)據(jù)和結(jié)果需求大部分情況下是靜態(tài)的,且你也有耐心等待批處理的完成的話,MapReduce的處理方式也是完全可以接受的。
但如果你需要對(duì)流數(shù)據(jù)進(jìn)行分析,比如那些來(lái)自于工廠的傳感器收集回來(lái)的數(shù)據(jù),又或者說(shuō)你的應(yīng)用是需要多重?cái)?shù)據(jù)處理的,那么你也許更應(yīng)該使用Spark進(jìn)行處理。
大部分機(jī)器學(xué)習(xí)算法都是需要多重?cái)?shù)據(jù)處理的。此外,通常會(huì)用到Spark的應(yīng)用場(chǎng)景有以下方面:實(shí)時(shí)的市場(chǎng)活動(dòng),在線產(chǎn)品推薦,網(wǎng)絡(luò)安全分析,機(jī)器日記監(jiān)控等。

災(zāi)難恢復(fù)
兩者的災(zāi)難恢復(fù)方式迥異,但是都很不錯(cuò)。因?yàn)镠adoop將每次處理后的數(shù)據(jù)都寫(xiě)入到磁盤(pán)上,所以其天生就能很有彈性的對(duì)系統(tǒng)錯(cuò)誤進(jìn)行處理。
Spark的數(shù)據(jù)對(duì)象存儲(chǔ)在分布于數(shù)據(jù)集群中的叫做彈性分布式數(shù)據(jù)集(RDD: Resilient Distributed Dataset)中。“這些數(shù)據(jù)對(duì)象既可以放在內(nèi)存,也可以放在磁盤(pán),所以RDD同樣也可以提供完成的災(zāi)難恢復(fù)功能,”Borne指出。

標(biāo)簽:臺(tái)灣 沈陽(yáng) 伊春 德宏 江蘇 包頭 雅安 廊坊

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《簡(jiǎn)單總結(jié)Hadoop和Spark集群技術(shù)的不同點(diǎn)》,本文關(guān)鍵詞  簡(jiǎn)單,總結(jié),Hadoop,和,Spark,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《簡(jiǎn)單總結(jié)Hadoop和Spark集群技術(shù)的不同點(diǎn)》相關(guān)的同類(lèi)信息!
  • 本頁(yè)收集關(guān)于簡(jiǎn)單總結(jié)Hadoop和Spark集群技術(shù)的不同點(diǎn)的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章