數(shù)據(jù)中心如何作為計算單元使其自動化開放網(wǎng)絡(luò)

2022-10-11    分類: 網(wǎng)站建設(shè)

數(shù)據(jù)中心如何作為計算單元使其自動化開放網(wǎng)絡(luò)

數(shù)據(jù)中心已經(jīng)從物理服務(wù)器發(fā)展到虛擬化系統(tǒng),現(xiàn)在發(fā)展到可組合的基礎(chǔ)設(shè)施,而在這些基礎(chǔ)設(shè)施中,諸如存儲和持久性內(nèi)存之類的資源已從服務(wù)器中分離出來。與此同時,數(shù)據(jù)處理已經(jīng)從僅在CPU上運行演變?yōu)樵贕PU、DPU或FPGA上運行,以進行數(shù)據(jù)處理和聯(lián)網(wǎng)任務(wù)的加速計算。同樣,軟件開發(fā)模型已經(jīng)從單臺計算機上運行的程序演變?yōu)樵跀?shù)據(jù)中心上運行的分布式代碼,這些代碼已實現(xiàn)為云原生的、容器化的微服務(wù)。

在這個新世界中,開發(fā)人員需要一個可編程的數(shù)據(jù)中心結(jié)構(gòu)來組合各種處理器類型和資源,以構(gòu)建組織完成任務(wù)所需的平臺。

數(shù)據(jù)中心的第一個時代是以CPU為中心和靜態(tài)的數(shù)據(jù)中心,通常是在一臺計算機上運行一個應(yīng)用程序。軟件在CPU上運行,程序員開發(fā)的代碼只能在一臺計算機上運行。由于資源分配是靜態(tài)的,因此服務(wù)器通常配置過多且未充分利用。

在數(shù)據(jù)中心的第二個時代,虛擬化成為常態(tài),每臺服務(wù)器上都在運行許多虛擬機。其資源是動態(tài)的,虛擬機是按需創(chuàng)建的。當(dāng)需要更多CPU、內(nèi)存或存儲時,可以將工作負(fù)載遷移到不同服務(wù)器上的虛擬機。

其計算處理仍然主要由CPU執(zhí)行,僅偶爾使用GPU或FPGA來加速特定任務(wù)。幾乎所有內(nèi)容都在軟件中運行,并且應(yīng)用程序開發(fā)人員仍然大部分時間只能在一臺計算機上進行編程。第二個時代的數(shù)據(jù)中心仍然以CPU為中心,只是偶爾會加速運行。

數(shù)據(jù)中心就是計算機

如今,正在進入數(shù)據(jù)中心的第三個時代,人們稱之為加速分解基礎(chǔ)設(shè)施(ADI),它建立在可組合基礎(chǔ)設(shè)施、微服務(wù)和特定領(lǐng)域處理器的基礎(chǔ)上。

以下分別討論這些重要元素:

·加速:根據(jù)好選擇,不同的處理器可以加速不同的工作負(fù)載。CPU運行通用的單線程工作負(fù)載,GPU并行處理工作負(fù)載,數(shù)據(jù)處理單元(DPU)管理數(shù)據(jù)的處理和低延遲移動,以使CPU和GPU高效地獲得所需的數(shù)據(jù)。例如,CPU可以運行數(shù)據(jù)庫,GPU可以進行人工智能(AI)和視頻處理,而DPU可以快速、高效、安全地將正確??的數(shù)據(jù)交付到需要的地方。

GPU加速的人工智能和機器學(xué)習(xí)現(xiàn)在被廣泛使用:用于改善網(wǎng)上購物、5G無線、醫(yī)療研究、安全、軟件開發(fā)、視頻處理,甚至數(shù)據(jù)中心運營。云計算、容器以及合規(guī)性問題的快速增長要求DPU加快網(wǎng)絡(luò)、存儲訪問和安全性。

·分解:將計算、內(nèi)存、存儲和其他資源分成多個池,并以適當(dāng)?shù)臄?shù)量動態(tài)分配給服務(wù)器和應(yīng)用程序。應(yīng)用程序本身通常是由交互微服務(wù)構(gòu)建的,而不是作為一個整體的代碼塊構(gòu)建的。這樣可以更輕松地以正確的資源比例編寫應(yīng)用程序,并根據(jù)需要更改該比例。

使用加速分解基礎(chǔ)設(shè)施(ADI)模型,GPU、DPU和存儲可根據(jù)需要連接到任何服務(wù)器、應(yīng)用程序或虛擬機。使用Nvidia公司的GPUDirect和Magnum IO等技術(shù),可使CPU和GPU在網(wǎng)絡(luò)上相互訪問和存儲,其性能幾乎都與同一臺服務(wù)器相同。可以將正確數(shù)量和類型的GPU分配給需要它們的工作負(fù)載。每臺服務(wù)器中的DPU管理和加速常見的網(wǎng)絡(luò)、存儲、安全性、壓縮以及深度數(shù)據(jù)包檢查任務(wù),以保持?jǐn)?shù)據(jù)的快速和安全移動,而不會給CPU或GPU造成負(fù)擔(dān)。

采用加速分解基礎(chǔ)設(shè)施(ADI),數(shù)據(jù)中心是計算的新單元——由GPU和DPU完全可組合和加速。

要對數(shù)據(jù)中心進行編程,必須對網(wǎng)絡(luò)進行編程

采用加速分解基礎(chǔ)設(shè)施(ADI),數(shù)據(jù)中心是計算的新單元,而網(wǎng)絡(luò)結(jié)構(gòu)提供了一個靈活、自動化的編程框架,可以動態(tài)地組成工作負(fù)載資源。這意味著不僅要對CPU、GPU和DPU進行編程,還要對網(wǎng)絡(luò)結(jié)構(gòu)本身進行編程——將DevOps的優(yōu)勢擴展到網(wǎng)絡(luò)中,這種方法稱為“基礎(chǔ)設(shè)施即代碼”。

該結(jié)構(gòu)必須可編程、可擴展、快速、開放、功能豐富、自動化友好和安全。它必須在CPU、GPU和存儲之間提供多條高帶寬路徑,并具有對流量類別進行優(yōu)先級排序的能力。借助在Spectrum交換機上運行的Cumulus Linux和SONiC以及基于BlueField的DPU,Nvidia公司提供了的端到端光纖解決方案,可以在整個數(shù)據(jù)中心堆棧上進行優(yōu)化的編程。這些解決方案(當(dāng)然還有許多由Nvidia GPU支持的平臺和軟件框架)可為客戶提供出色水平的數(shù)據(jù)中心性能、靈活性、可組合性、可編程性,從而支持Nvidia公司聯(lián)合創(chuàng)始人兼首席執(zhí)行官黃仁勛的發(fā)展愿景。數(shù)據(jù)中心是計算的新單元,在Nvidia公司完成對Mellanox Technologies的收購并計劃收購Cumulus Networks的過程中,對此進行了詳細(xì)討論。

使用加速分解基礎(chǔ)設(shè)施(ADI),每個應(yīng)用程序都可以在由CPU、GPU和存儲資源構(gòu)建的虛擬服務(wù)器上運行,并且DPU可以加快訪問和安全性。

開放式網(wǎng)絡(luò)操作系統(tǒng)支持分解基礎(chǔ)設(shè)施

傳統(tǒng)上,交換機被設(shè)計為專有的“黑盒”,其中網(wǎng)絡(luò)操作系統(tǒng)(NOS)鎖定在特定的交換機硬件平臺上,要求客戶購買并將其部署在一起。

Nvidia公司的方法是提供好的開放式端到端解決方案??蛻艨梢允褂镁哂泻媒粨Q機ASIC(頻譜)的交換機,并選擇滿足其需求的好網(wǎng)絡(luò)操作系統(tǒng) (NOS):Cumulus Linux、Mellanox Ony、SONiC或其他??蛻羯踔量梢赃x擇在骨干交換機上運行SONiC,而在機架式和園區(qū)交換機上使用Cumulus Linux。與此同時,Nvidia公司出售電纜和收發(fā)器,并且不會鎖定客戶,允許他們根據(jù)需要采購其他電纜和光學(xué)器件。

與專有的閉合交換機模型不同,開放式網(wǎng)絡(luò)允許客戶從好的軟件和硬件中選擇,以獲得他們所需的正確功能、性能和可管理性。

現(xiàn)在,人工智能、云計算和HPC工作負(fù)載可以通過好資源(包括GPU、CPU、DPU、內(nèi)存、存儲和高速連接)靈活地跨整個數(shù)據(jù)中心的任何部分運行。對于這種加速的彈性計算的需求,而在過去,由于每臺服務(wù)器都有自己專用的、孤立的資源,應(yīng)用程序開發(fā)人員只能在單臺服務(wù)器上編寫程序。

文章標(biāo)題:數(shù)據(jù)中心如何作為計算單元使其自動化開放網(wǎng)絡(luò)
網(wǎng)頁路徑:http://bm7419.com/news/204603.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站營銷、營銷型網(wǎng)站建設(shè)、網(wǎng)站制作網(wǎng)站策劃、電子商務(wù)Google

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

網(wǎng)站建設(shè)網(wǎng)站維護公司