總算是有人把Java,架構,大數據,人工智能講明白了

2021-02-08    分類: 網站建設


大數據核心技術主要涉及三大塊:大數據采集處理,大數據分析,大數據存儲、組織、管理。


數據倉庫VS大數據


大數據分析你必須掌握的6個核心技術



目前,大數據領域每年都會涌現出大量新的技術,成為大數據獲取、存儲、處理分析或可視化的有效手段。大數據技術能夠將大規(guī)模數據中隱藏的信息和知識挖掘出來,為人類社會經濟活動提供依據,提高各個領域的運行效率,甚至整個社會經濟的集約化程度。

1、大數據生命周期


圖1展示了一個典型的大數據技術棧。底層是基礎設施,涵蓋計算資源、內存與存儲和網絡互聯,具體表現為計算節(jié)點、集群、機柜和數據中心。在此之上是數據存儲和管理,包括文件系統(tǒng)、數據庫和類似YARN的資源管理系統(tǒng)。然后是計算處理層,如hadoop、MapReduce和Spark,以及在此之上的各種不同計算范式,如批處理、流處理和圖計算等,包括衍生出編程模型的計算模型,如BSP、GAS 等。數據分析和可視化基于計算處理層。分析包括簡單的查詢分析、流分析以及更復雜的分析(如機器學習、圖計算等)。查詢分析多基于表結構和關系函數,流分析基于數據、事件流以及簡單的統(tǒng)計分析,而復雜分析則基于更復雜的數據結構與方法,如圖、矩陣、迭代計算和線性代數。一般意義的可視化是對分析結果的展示。但是通過交互式可視化,還可以探索性地提問,使分析獲得新的線索,形成迭代的分析和可視化?;诖笠?guī)模數據的實時交互可視化分析以及在這個過程中引入自動化的因素是目前研究的熱點。

有2個領域垂直打通了上述的各層,需要整體、協(xié)同地看待。一是編程和管理工具,方向是機器通過學習實現自動最優(yōu)化、盡量無需編程、無需復雜的配置。另一個領域是數據安全,也是貫穿整個技術棧。除了這兩個領域垂直打通各層,還有一些技術方向是跨了多層的,例如“內存計算”事實上覆蓋了整個技術棧。

2、大數據技術生態(tài)

大數據的基本處理流程與傳統(tǒng)數據處理流程并無太大差異,主要區(qū)別在于:由于大數據要處理大量、非結構化的數據,所以在各處理環(huán)節(jié)中都可以采用并行處理。目前,Hadoop、MapReduce和Spark等分布式處理方式已經成為大數據處理各環(huán)節(jié)的通用處理方法。


Hadoop是一個能夠讓用戶輕松架構和使用的分布式計算平臺。用戶可以輕松地在Hadoop上開發(fā)和運行處理海量數據的應用程序。Hadoop 是一個數據管理系統(tǒng),作為數據分析的核心,匯集了結構化和非結構化的數據,這些數據分布在傳統(tǒng)的企業(yè)數據棧的每一層。Hadoop也是一個大規(guī)模并行處理框架,擁有超級計算能力,定位于推動企業(yè)級應用的執(zhí)行。Hadoop又是一個開源社區(qū),主要為解決大數據的問題提供工具和軟件。雖然Hadoop提供了很多功能,但仍然應該把它歸類為多個組件組成的Hadoop生態(tài)圈,這些組件包括數據存儲、數據集成、數據處理和其他進行數據分析的專門工具。圖2 展示了Hadoop 的生態(tài)系統(tǒng),主要由HDFS、MapReduce、Hbase、Zookeeper、Oozie、Pig、Hive等核心組件構成,另外還包括Sqoop、Flume等框架,用來與其他企業(yè)融合。同時,Hadoop 生態(tài)系統(tǒng)也在不斷增長,新增Mahout、Ambari、Whirr、BigTop 等內容,以提供更新功能。

低成本、高可靠、高擴展、高有效、高容錯等特性讓Hadoop成為最流行的大數據分析系統(tǒng),然而其賴以生存的HDFS 和MapReduce 組件卻讓其一度陷入困境——批處理的工作方式讓其只適用于離線數據處理,在要求實時性的場景下毫無用武之地。因此,各種基于Hadoop的工具應運而生。為了減少管理成本,提升資源的利用率,有當下眾多的資源統(tǒng)一管理調度系統(tǒng),例如Twitter 的Apache Mesos、Apache 的YARN、Google 的Borg、騰訊搜搜的Torca、Facebook Corona(開源)等。Apache Mesos是Apache孵化器中的一個開源項目,使用ZooKeeper實現容錯復制,使用Linux Containers 來隔離任務,支持多種資源計劃分配(內存和CPU)。提供高效、跨分布式應用程序和框架的資源隔離和共享,支持Hadoop、MPI、Hypertable、Spark 等。YARN 又被稱為MapReduce 2.0,借鑒Mesos,YARN 提出了資源隔離解決方案Container,提供Java 虛擬機內存的隔離。對比MapReduce 1.0,開發(fā)人員使用ResourceManager、ApplicationMaster與NodeManager代替了原框架中核心的JobTracker 和TaskTracker。在YARN平臺上可以運行多個計算框架,如MR、Tez、Storm、Spark等。

基于業(yè)務對實時的需求,有支持在線處理的Storm、Cloudar Impala、支持迭代計算的Spark 及流處理框架S4。Storm是一個分布式的、容錯的實時計算系統(tǒng),由BackType開發(fā),后被Twitter捕獲。Storm屬于流處理平臺,多用于實時計算并更新數據庫。Storm也可被用于“連續(xù)計算”(Continuous Computation),對數據流做連續(xù)查詢,在計算時就將結果以流的形式輸出給用戶。它還可被用于“分布式RPC”,以并行的方式運行昂貴的運算。Cloudera Impala是由Cloudera開發(fā),一個開源的Massively Parallel Processing(MPP)查詢引擎。與Hive 相同的元數據、SQL語法、ODBC 驅動程序和用戶接口(HueBeeswax),可以直接在HDFS 或HBase 上提供快速、交互式SQL 查詢。Impala是在Dremel的啟發(fā)下開發(fā)的,不再使用緩慢的Hive+MapReduce 批處理,而是通過與商用并行關系數據庫中類似的分布式查詢引擎(由Query Planner、Query Coordinator 和Query Exec Engine這3部分組成),可以直接從HDFS 或者HBase 中用SELECT、JOIN 和統(tǒng)計函數查詢數據,從而大大降低了延遲。

Hadoop社區(qū)正努力擴展現有的計算模式框架和平臺,以便解決現有版本在計算性能、計算模式、系統(tǒng)構架和處理能力上的諸多不足,這正是Hadoop2.0 版本“ YARN”的努力目標。各種計算模式還可以與內存計算模式混合,實現高實時性的大數據查詢和計算分析?;旌嫌嬎隳J街蟪烧弋攲賃C Berkeley AMP Lab 開發(fā)的Spark生態(tài)系統(tǒng),如圖3所示。Spark 是開源的類Hadoop MapReduce的通用的數據分析集群計算框架,用于構建大規(guī)模、低延時的數據分析應用,建立于HDFS之上。Spark提供強大的內存計算引擎,幾乎涵蓋了所有典型的大數據計算模式,包括迭代計算、批處理計算、內存計算、流式計算(Spark Streaming)、數據查詢分析計算(Shark)以及圖計算(GraphX)。Spark 使用Scala 作為應用框架,采用基于內存的分布式數據集,優(yōu)化了迭代式的工作負載以及交互式查詢。與Hadoop 不同的是,Spark 和Scala 緊密集成,Scala 像管理本地collective 對象那樣管理分布式數據集。Spark支持分布式數據集上的迭代式任務,實際上可以在Hadoop文件系統(tǒng)上與Hadoop一起運行(通過YARN、Mesos等實現)。另外,基于性能、兼容性、數據類型的研究,還有Shark、Phoenix、Apache Accumulo、Apache Drill、Apache Giraph、Apache Hama、Apache Tez、Apache Ambari 等其他開源解決方案。預計未來相當長一段時間內,主流的Hadoop平臺改進后將與各種新的計算模式和系統(tǒng)共存,并相互融合,形成新一代的大數據處理系統(tǒng)和平臺。


3、大數據采集與預處理

在大數據的生命周期中,數據采集處于第一個環(huán)節(jié)。根據MapReduce產生數據的應用系統(tǒng)分類,大數據的采集主要有4種來源:管理信息系統(tǒng)、Web信息系統(tǒng)、物理信息系統(tǒng)、科學實驗系統(tǒng)。對于不同的數據集,可能存在不同的結構和模式,如文件、XML 樹、關系表等,表現為數據的異構性。對多個異構的數據集,需要做進一步集成處理或整合處理,將來自不同數據集的數據收集、整理、清洗、轉換后,生成到一個新的數據集,為后續(xù)查詢和分析處理提供統(tǒng)一的數據視圖。針對管理信息系統(tǒng)中異構數據庫集成技術、Web 信息系統(tǒng)中的實體識別技術和DeepWeb集成技術、傳感器網絡數據融合技術已經有很多研究工作,取得了較大的進展,已經推出了多種數據清洗和質量控制工具,例如,美國SAS公司的Data Flux、美國IBM 公司的Data Stage、美國Informatica 公司的Informatica Power Center。

4、大數據存儲與管理

傳統(tǒng)的數據存儲和管理以結構化數據為主,因此關系數據庫系統(tǒng)(RDBMS)可以一統(tǒng)天下滿足各類應用需求。大數據往往是半結構化和非結構化數據為主,結構化數據為輔,而且各種大數據應用通常是對不同類型的數據內容檢索、交叉比對、深度挖掘與綜合分析。面對這類應用需求,傳統(tǒng)數據庫無論在技術上還是功能上都難以為繼。因此,近幾年出現了oldSQL、NoSQL 與NewSQL 并存的局面??傮w上,按數據類型的不同,大數據的存儲和管理采用不同的技術路線,大致可以分為3類。第1類主要面對的是大規(guī)模的結構化數據。針對這類大數據,通常采用新型數據庫集群。它們通過列存儲或行列混合存儲以及粗粒度索引等技術,結合MPP(Massive Parallel Processing)架構高效的分布式計算模式,實現對PB 量級數據的存儲和管理。這類集群具有高性能和高擴展性特點,在企業(yè)分析類應用領域已獲得廣泛應用;第2類主要面對的是半結構化和非結構化數據。應對這類應用場景,基于Hadoop開源體系的系統(tǒng)平臺更為擅長。它們通過對Hadoop生態(tài)體系的技術擴展和封裝,實現對半結構化和非結構化數據的存儲和管理;第3類面對的是結構化和非結構化混合的大數據,因此采用MPP 并行數據庫集群與Hadoop 集群的混合來實現對百PB 量級、EB量級數據的存儲和管理。一方面,用MPP 來管理計算高質量的結構化數據,提供強大的SQL和OLTP型服務;另一方面,用Hadoop實現對半結構化和非結構化數據的處理,以支持諸如內容檢索、深度挖掘與綜合分析等新型應用。這類混合模式將是大數據存儲和管理未來發(fā)展的趨勢。

5、大數據計算模式與系統(tǒng)

計算模式的出現有力推動了大數據技術和應用的發(fā)展,使其成為目前大數據處理最為成功、最廣為接受使用的主流大數據計算模式。然而,現實世界中的大數據處理問題復雜多樣,難以有一種單一的計算模式能涵蓋所有不同的大數據計算需求。研究和實際應用中發(fā)現,由于MapReduce主要適合于進行大數據線下批處理,在面向低延遲和具有復雜數據關系和復雜計算的大數據問題時有很大的不適應性。因此,近幾年來學術界和業(yè)界在不斷研究并推出多種不同的大數據計算模式。

所謂大數據計算模式,即根據大數據的不同數據特征和計算特征,從多樣性的大數據計算問題和需求中提煉并建立的各種高層抽象(abstraction)或模型(model)。例如,MapReduce 是一個并行計算抽象,加州大學伯克利分校著名的Spark系統(tǒng)中的“分布內存抽象RDD”,CMU 著名的圖計算系統(tǒng)GraphLab 中的“圖并行抽象”(Graph Parallel Abstraction)等。傳統(tǒng)的并行計算方法,主要從體系結構和編程語言的層面定義了一些較為底層的并行計算抽象和模型,但由于大數據處理問題具有很多高層的數據特征和計算特征,因此大數據處理需要更多地結合這些高層特征考慮更為高層的計算模式。

根據大數據處理多樣性的需求和以上不同的特征維度,目前出現了多種典型和重要的大數據計算模式。與這些計算模式相適應,出現了很多對應的大數據計算系統(tǒng)和工具。由于單純描述計算模式比較抽象和空洞,因此在描述不同計算模式時,將同時給出相應的典型計算系統(tǒng)和工具,如表1所示,這將有助于對計算模式的理解以及對技術發(fā)展現狀的把握,并進一步有利于在實際大數據處理應用中對合適的計算技術和系統(tǒng)工具的選擇使用。


6、大數據分析與可視化

在大數據時代,人們迫切希望在由普通機器組成的大規(guī)模集群上實現高性能的以機器學習算法為核心的數據分析,為實際業(yè)務提供服務和指導,進而實現數據的最終變現。與傳統(tǒng)的在線聯機分析處理OLAP不同,對大數據的深度分析主要基于大規(guī)模的機器學習技術,一般而言,機器學習模型的訓練過程可以歸結為最優(yōu)化定義于大規(guī)模訓練數據上的目標函數并且通過一個循環(huán)迭代的算法實現,如圖4所示。因而與傳統(tǒng)的OLAP相比較,基于機器學習的大數據分析具有自己獨特的特點。


(1)迭代性:由于用于優(yōu)化問題通常沒有閉式解,因而對模型參數確定并非一次能夠完成,需要循環(huán)迭代多次逐步逼近最優(yōu)值點。

(2)容錯性:機器學習的算法設計和模型評價容忍非最優(yōu)值點的存在,同時多次迭代的特性也允許在循環(huán)的過程中產生一些錯誤,模型的最終收斂不受影響。

(3)參數收斂的非均勻性:模型中一些參數經過少數幾輪迭代后便不再改變,而有些參數則需要很長時間才能達到收斂。

這些特點決定了理想的大數據分析系統(tǒng)的設計和其他計算系統(tǒng)的設計有很大不同,直接應用傳統(tǒng)的分布式計算系統(tǒng)應用于大數據分析,很大比例的資源都浪費在通信、等待、協(xié)調等非有效的計算上。

傳統(tǒng)的分布式計算框架MPI(message passing interface,信息傳遞接口)雖然編程接口靈活功能強大,但由于編程接口復雜且對容錯性支持不高,無法支撐在大規(guī)模數據上的復雜操作,研究人員轉而開發(fā)了一系列接口簡單容錯性強的分布式計算框架服務于大數據分析算法,以MapReduce、Spark和參數服務器ParameterServer等為代表。

分布式計算框架MapReduce將對數據的處理歸結為Map和Reduce兩大類操作,從而簡化了編程接口并且提高了系統(tǒng)的容錯性。但是MapReduce受制于過于簡化的數據操作抽象,而且不支持循環(huán)迭代,因而對復雜的機器學習算法支持較差,基于MapReduce的分布式機器學習庫Mahout需要將迭代運算分解為多個連續(xù)的Map 和Reduce 操作,通過讀寫HDFS文件方式將上一輪次循環(huán)的運算結果傳入下一輪完成數據交換。在此過程中,大量的訓練時間被用于磁盤的讀寫操作,訓練效率非常低效。為了解決MapReduce上述問題,Spark 基于RDD 定義了包括Map 和Reduce在內的更加豐富的數據操作接口。不同于MapReduce 的是Job 中間輸出和結果可以保存在內存中,從而不再需要讀寫HDFS,這些特性使得Spark能更好地適用于數據挖掘與機器學習等需要迭代的大數據分析算法?;赟park實現的機器學習算法庫MLLIB已經顯示出了其相對于Mahout 的優(yōu)勢,在實際應用系統(tǒng)中得到了廣泛的使用。

近年來,隨著待分析數據規(guī)模的迅速擴張,分析模型參數也快速增長,對已有的大數據分析模式提出了挑戰(zhàn)。例如在大規(guī)模話題模型LDA 中,人們期望訓練得到百萬個以上的話題,因而在訓練過程中可能需要對上百億甚至千億的模型參數進行更新,其規(guī)模遠遠超出了單個節(jié)點的處理能力。為了解決上述問題,研究人員提出了參數服務器(Parameter Server)的概念,如圖5所示。在參數服務器系統(tǒng)中,大規(guī)模的模型參數被集中存儲在一個分布式的服務器集群中,大規(guī)模的訓練數據則分布在不同的工作節(jié)點(worker)上,這樣每個工作節(jié)點只需要保存它計算時所依賴的少部分參數即可,從而有效解決了超大規(guī)模大數據分析模型的訓練問題。目前參數服務器的實現主要有卡內基梅隆大學的Petuum、PSLit等。


在大數據分析的應用過程中,可視化通過交互式視覺表現的方式來幫助人們探索和理解復雜的數據。可視化與可視分析能夠迅速和有效地簡化與提煉數據流,幫助用戶交互篩選大量的數據,有助于使用者更快更好地從復雜數據中得到新的發(fā)現,成為用戶了解復雜數據、開展深入分析不可或缺的手段。大規(guī)模數據的可視化主要是基于并行算法設計的技術,合理利用有限的計算資源,高效地處理和分析特定數據集的特性。通常情況下,大規(guī)模數據可視化的技術會結合多分辨率表示等方法,以獲得足夠的互動性能。在科學大規(guī)模數據的并行可視化工作中,主要涉及數據流線化、任務并行化、管道并行化和數據并行化4 種基本技術。微軟公司在其云計算平臺Azure 上開發(fā)了大規(guī)模機器學習可視化平臺(Azure Machine Learning),將大數據分析任務形式為有向無環(huán)圖并以數據流圖的方式向用戶展示,取得了比較好的效果。在國內,阿里巴巴旗下的大數據分析平臺御膳房也采用了類似的方式,為業(yè)務人員提供的互動式大數據分析平臺。


人工智能

人工智能的定義可以分為兩部分,即“ 人工”和“ 智能”?!叭斯ぁ北容^好理解,爭議性也不大。有時我們會要考慮什么是人力所能及制造的,或者人自身的智能程度有沒有高到可以創(chuàng)造人工智能的地步,等等。但總的來說,“人工系統(tǒng)”就是通常意義下的人工系統(tǒng)。

關于什么是“智能”,就問題多多了。這涉及到其它諸如 意識(CONSCIOUSNESS)、 自我(SELF)、 思維(MIND)(包括無意識的思維(UNCONSCIOUS_MIND))等等問題。人唯一了解的智能是人本身的智能,這是普遍認同的觀點。但是我們對我們自身智能的理解都非常有限,對構成人的智能的必要 元素也了解有限,所以就很難定義什么是“人工”制造的“智能”了。因此人工智能的研究往往涉及對人的智能本身的研究。其它關于動物或其它人造系統(tǒng)的智能也普遍被認為是人工智能相關的研究 課題。

人工智能在 計算機領域內,得到了愈加廣泛的重視。并在機器人,經濟政治決策,控制系統(tǒng),仿真系統(tǒng)中得到應用。

著名的美國 斯坦福大學人工智能研究中心尼爾遜教授對 人工智能下了這樣一個定義:“人工智能是關于知識的學科――怎樣表示知識以及怎樣獲得知識并使用知識的科學。”而另一個 美國麻省理工學院的 溫斯頓教授認為:“人工智能就是研究如何使計算機去做過去只有人才能做的智能工作?!边@些說法反映了人工智能學科的基本思想和基本內容。即人工智能是研究人類智能活動的規(guī)律,構造具有一定智能的人工系統(tǒng),研究如何讓計算機去完成以往需要人的 智力才能勝任的工作,也就是研究如何應用計算機的軟 硬件來模擬人類某些智能行為的基本理論、方法和技術。

人工智能是 計算機學科的一個分支,二十世紀七十年代以來被稱為世界三大尖端技術之一( 空間技術、 能源技術、 人工智能)。也被認為是二十一世紀三大尖端技術( 基因工程、 納米科學、 人工智能)之一。這是因為近三十年來它獲得了迅速的發(fā)展,在很多學科領域都獲得了廣泛應用,并取得了豐碩的成果,人工智能已逐步成為一個獨立的分支,無論在理論和實踐上都已自成一個系統(tǒng)。

人工智能是研究使計算機來模擬人的某些思維過程和智能行為(如學習、推理、思考、規(guī)劃等)的學科,主要包括計算機實現智能的原理、制造類似于人腦智能的計算機,使計算機能實現更高層次的應用。人工智能將涉及到計算機科學、心理學、哲學和語言學等學科。可以說幾乎是自然科學和社會科學的所有學科,其范圍已遠遠超出了計算機科學的范疇,人工智能與 思維科學的關系是實踐和理論的關系,人工智能是處于思維科學的技術應用層次,是它的一個應用分支。從思維觀點看,人工智能不僅限于邏輯思維,要考慮形象思維、靈感思維才能促進人工智能的突破性的發(fā)展,數學常被認為是多種學科的基礎科學,數學也進入語言、思維領域,人工智能學科也必須借用數學工具,數學不僅在標準邏輯、 模糊數學等范圍發(fā)揮作用,數學進入人工智能學科,它們將互相促進而更快地發(fā)展。

2.技術研究

用來研究人工智能的主要物質基礎以及能夠實現人工智能技術平臺的機器就是計算機,人工智能的發(fā)展歷史是和計算機 科學技術的發(fā)展史聯系在一起的。除了 計算機科學以外,人工智能還涉及 信息論、 控制論、 自動化、 仿生學、 生物學、 心理學、 數理邏輯、 語言學、 醫(yī)學和 哲學等多門學科。人工智能學科研究的主要內容包括: 知識表示、自動推理和搜索方法、機器學習和知識獲取、知識處理系統(tǒng)、 自然語言理解、 計算機視覺、 智能機器人、 自動程序設計等方面。


那么,介紹了這么多,對Java,架構,大數據,人工智能有沒有一個大致的了解呢?

不了解的話,也沒有關系,小編這里有一套視頻教程可以很完整的把他們給詮釋出來,就不知道你們能不能學會了,加油! 小編認為你們是可以的。




感覺怎么樣?是不是很全面?俗話說,師傅領進門,修行在個人。還是得不停的磨練自己,修煉自己的內功,讓自己變得更加強大!

分享文章:總算是有人把Java,架構,大數據,人工智能講明白了
本文鏈接:http://www.bm7419.com/news/99801.html

成都網站建設公司_創(chuàng)新互聯,為您提供網站導航、Google、軟件開發(fā)、網站改版、外貿建站網站設計

廣告

聲明:本網站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯

成都定制網站網頁設計