什么是DPDK

這篇文章主要介紹“什么是DPDK”,在日常操作中,相信很多人在什么是DPDK問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”什么是DPDK”的疑惑有所幫助!接下來,請跟著小編一起來學(xué)習(xí)吧!

寶豐網(wǎng)站建設(shè)公司創(chuàng)新互聯(lián),寶豐網(wǎng)站設(shè)計(jì)制作,有大型網(wǎng)站制作公司豐富經(jīng)驗(yàn)。已為寶豐上千余家提供企業(yè)網(wǎng)站建設(shè)服務(wù)。企業(yè)網(wǎng)站搭建\外貿(mào)網(wǎng)站制作要多少錢,請找那個(gè)售后服務(wù)好的寶豐做網(wǎng)站的公司定做!

一、網(wǎng)絡(luò)IO的處境和趨勢

從我們用戶的使用就可以感受到網(wǎng)速一直在提升,而網(wǎng)絡(luò)技術(shù)的發(fā)展也從1GE/10GE/25GE/40GE/100GE的演變,從中可以得出單機(jī)的網(wǎng)絡(luò)IO能力必須跟上時(shí)代的發(fā)展。

1. 傳統(tǒng)的電信領(lǐng)域

IP層及以下,例如路由器、交換機(jī)、防火墻、基站等設(shè)備都是采用硬件解決方案?;趯S镁W(wǎng)絡(luò)處理器(NP),有基于FPGA,更有基于ASIC的。但是基于硬件的劣勢非常明顯,發(fā)生Bug不易修復(fù),不易調(diào)試維護(hù),并且網(wǎng)絡(luò)技術(shù)一直在發(fā)展,例如2G/3G/4G/5G等移動(dòng)技術(shù)的革新,這些屬于業(yè)務(wù)的邏輯基于硬件實(shí)現(xiàn)太痛苦,不能快速迭代。傳統(tǒng)領(lǐng)域面臨的挑戰(zhàn)是急需一套軟件架構(gòu)的高性能網(wǎng)絡(luò)IO開發(fā)框架。

2. 云的發(fā)展

私有云的出現(xiàn)通過網(wǎng)絡(luò)功能虛擬化(NFV)共享硬件成為趨勢,NFV的定義是通過標(biāo)準(zhǔn)的服務(wù)器、標(biāo)準(zhǔn)交換機(jī)實(shí)現(xiàn)各種傳統(tǒng)的或新的網(wǎng)絡(luò)功能。急需一套基于常用系統(tǒng)和標(biāo)準(zhǔn)服務(wù)器的高性能網(wǎng)絡(luò)IO開發(fā)框架。

3. 單機(jī)性能的飆升

網(wǎng)卡從1G到100G的發(fā)展,CPU從單核到多核到多CPU的發(fā)展,服務(wù)器的單機(jī)能力通過橫行擴(kuò)展達(dá)到新的高點(diǎn)。但是軟件開發(fā)卻無法跟上節(jié)奏,單機(jī)處理能力沒能和硬件門當(dāng)戶對,如何開發(fā)出與時(shí)并進(jìn)高吞吐量的服務(wù),單機(jī)百萬千萬并發(fā)能力。即使有業(yè)務(wù)對QPS要求不高,主要是CPU密集型,但是現(xiàn)在大數(shù)據(jù)分析、人工智能等應(yīng)用都需要在分布式服務(wù)器之間傳輸大量數(shù)據(jù)完成作業(yè)。這點(diǎn)應(yīng)該是我們互聯(lián)網(wǎng)后臺(tái)開發(fā)最應(yīng)關(guān)注,也最關(guān)聯(lián)的。

想了解更多的小伙伴歡迎進(jìn)群973961276來一起交流學(xué)習(xí),更有海量學(xué)習(xí)資料跟大廠面試經(jīng)驗(yàn)分享。

二、Linux + x86網(wǎng)絡(luò)IO瓶頸

在數(shù)年前曾經(jīng)寫過《網(wǎng)卡工作原理及高并發(fā)下的調(diào)優(yōu)》一文,描述了Linux的收發(fā)報(bào)文流程。根據(jù)經(jīng)驗(yàn),在C1(8核)上跑應(yīng)用每1W包處理需要消耗1%軟中斷CPU,這意味著單機(jī)的上限是100萬PPS(Packet Per Second)。從TGW(Netfilter版)的性能100萬PPS,AliLVS優(yōu)化了也只到150萬PPS,并且他們使用的服務(wù)器的配置還是比較好的。假設(shè),我們要跑滿10GE網(wǎng)卡,每個(gè)包64字節(jié),這就需要2000萬PPS(注:以太網(wǎng)萬兆網(wǎng)卡速度上限是1488萬PPS,因?yàn)樽钚笮?4B《Bandwidth, Packets Per Second, and Other Network Performance Metrics》),100G是2億PPS,即每個(gè)包的處理耗時(shí)不能超過50納秒。而一次Cache Miss,不管是TLB、數(shù)據(jù)Cache、指令Cache發(fā)生Miss,回內(nèi)存讀取大約65納秒,NUMA體系下跨Node通訊大約40納秒。所以,即使不加上業(yè)務(wù)邏輯,即使純收發(fā)包都如此艱難。我們要控制Cache的命中率,我們要了解計(jì)算機(jī)體系結(jié)構(gòu),不能發(fā)生跨Node通訊。

從這些數(shù)據(jù),我希望可以直接感受一下這里的挑戰(zhàn)有多大,理想和現(xiàn)實(shí),我們需要從中平衡。問題都有這些

1.傳統(tǒng)的收發(fā)報(bào)文方式都必須采用硬中斷來做通訊,每次硬中斷大約消耗100微秒,這還不算因?yàn)榻K止上下文所帶來的Cache Miss。

2.數(shù)據(jù)必須從內(nèi)核態(tài)用戶態(tài)之間切換拷貝帶來大量CPU消耗,全局鎖競爭。

3.收發(fā)包都有系統(tǒng)調(diào)用的開銷。

4.內(nèi)核工作在多核上,為可全局一致,即使采用Lock Free,也避免不了鎖總線、內(nèi)存屏障帶來的性能損耗。

5.從網(wǎng)卡到業(yè)務(wù)進(jìn)程,經(jīng)過的路徑太長,有些其實(shí)未必要的,例如netfilter框架,這些都帶來一定的消耗,而且容易Cache Miss。

三、DPDK的基本原理

從前面的分析可以得知IO實(shí)現(xiàn)的方式、內(nèi)核的瓶頸,以及數(shù)據(jù)流過內(nèi)核存在不可控因素,這些都是在內(nèi)核中實(shí)現(xiàn),內(nèi)核是導(dǎo)致瓶頸的原因所在,要解決問題需要繞過內(nèi)核。所以主流解決方案都是旁路網(wǎng)卡IO,繞過內(nèi)核直接在用戶態(tài)收發(fā)包來解決內(nèi)核的瓶頸。

Linux社區(qū)也提供了旁路機(jī)制Netmap,官方數(shù)據(jù)10G網(wǎng)卡1400萬PPS,但是Netmap沒廣泛使用。其原因有幾個(gè):

1.Netmap需要驅(qū)動(dòng)的支持,即需要網(wǎng)卡廠商認(rèn)可這個(gè)方案。

2.Netmap仍然依賴中斷通知機(jī)制,沒完全解決瓶頸。

3.Netmap更像是幾個(gè)系統(tǒng)調(diào)用,實(shí)現(xiàn)用戶態(tài)直接收發(fā)包,功能太過原始,沒形成依賴的網(wǎng)絡(luò)開發(fā)框架,社區(qū)不完善。

那么,我們來看看發(fā)展了十幾年的DPDK,從Intel主導(dǎo)開發(fā),到華為、思科、AWS等大廠商的加入,核心玩家都在該圈子里,擁有完善的社區(qū),生態(tài)形成閉環(huán)。早期,主要是傳統(tǒng)電信領(lǐng)域3層以下的應(yīng)用,如華為、中國電信、中國移動(dòng)都是其早期使用者,交換機(jī)、路由器、網(wǎng)關(guān)是主要應(yīng)用場景。但是,隨著上層業(yè)務(wù)的需求以及DPDK的完善,在更高的應(yīng)用也在逐步出現(xiàn)。

DPDK旁路原理:

什么是DPDK

圖片引自Jingjing Wu的文檔《Flow Bifurcation on Intel? Ethernet Controller X710/XL710》

左邊是原來的方式數(shù)據(jù)從 網(wǎng)卡 -> 驅(qū)動(dòng) -> 協(xié)議棧 -> Socket接口 -> 業(yè)務(wù)

右邊是DPDK的方式,基于UIO(Userspace I/O)旁路數(shù)據(jù)。數(shù)據(jù)從 網(wǎng)卡 -> DPDK輪詢模式-> DPDK基礎(chǔ)庫 -> 業(yè)務(wù)

用戶態(tài)的好處是易用開發(fā)和維護(hù),靈活性好。并且Crash也不影響內(nèi)核運(yùn)行,魯棒性強(qiáng)。

DPDK支持的CPU體系架構(gòu):x86、ARM、PowerPC(PPC)

DPDK支持的網(wǎng)卡列表:https://core.dpdk.org/supported/,我們主流使用Intel 82599(光口)、Intel x540(電口)

四、DPDK的基石UIO

為了讓驅(qū)動(dòng)運(yùn)行在用戶態(tài),Linux提供UIO機(jī)制。使用UIO可以通過read感知中斷,通過mmap實(shí)現(xiàn)和網(wǎng)卡的通訊。

UIO原理:

什么是DPDK

要開發(fā)用戶態(tài)驅(qū)動(dòng)有幾個(gè)步驟:

1.開發(fā)運(yùn)行在內(nèi)核的UIO模塊,因?yàn)橛仓袛嘀荒茉趦?nèi)核處理

2.通過/dev/uioX讀取中斷

3.通過mmap和外設(shè)共享內(nèi)存

五、DPDK核心優(yōu)化:PMD

DPDK的UIO驅(qū)動(dòng)屏蔽了硬件發(fā)出中斷,然后在用戶態(tài)采用主動(dòng)輪詢的方式,這種模式被稱為PMD(Poll Mode Driver)。

UIO旁路了內(nèi)核,主動(dòng)輪詢?nèi)サ粲仓袛?,DPDK從而可以在用戶態(tài)做收發(fā)包處理。帶來Zero Copy、無系統(tǒng)調(diào)用的好處,同步處理減少上下文切換帶來的Cache Miss。

運(yùn)行在PMD的Core會(huì)處于用戶態(tài)CPU100%的狀態(tài)

什么是DPDK

網(wǎng)絡(luò)空閑時(shí)CPU長期空轉(zhuǎn),會(huì)帶來能耗問題。所以,DPDK推出Interrupt DPDK模式。

Interrupt DPDK:

什么是DPDK

圖片引自David Su/Yunhong Jiang/Wei Wang的文檔《Towards Low Latency Interrupt Mode DPDK》

它的原理和NAPI很像,就是沒包可處理時(shí)進(jìn)入睡眠,改為中斷通知。并且可以和其他進(jìn)程共享同個(gè)CPU Core,但是DPDK進(jìn)程會(huì)有更高調(diào)度優(yōu)先級。

六、DPDK的高性能代碼實(shí)現(xiàn)

1. 采用HugePage減少TLB Miss

默認(rèn)下Linux采用4KB為一頁,頁越小內(nèi)存越大,頁表的開銷越大,頁表的內(nèi)存占用也越大。CPU有TLB(Translation Lookaside Buffer)成本高所以一般就只能存放幾百到上千個(gè)頁表項(xiàng)。如果進(jìn)程要使用64G內(nèi)存,則64G/4KB=16000000(一千六百萬)頁,每頁在頁表項(xiàng)中占用16000000 * 4B=62MB。如果用HugePage采用2MB作為一頁,只需64G/2MB=2000,數(shù)量不在同個(gè)級別。

而DPDK采用HugePage,在x86-64下支持2MB、1GB的頁大小,幾何級的降低了頁表項(xiàng)的大小,從而減少TLB-Miss。并提供了內(nèi)存池(Mempool)、MBuf、無鎖環(huán)(Ring)、Bitmap等基礎(chǔ)庫。根據(jù)我們的實(shí)踐,在數(shù)據(jù)平面(Data Plane)頻繁的內(nèi)存分配釋放,必須使用內(nèi)存池,不能直接使用rte_malloc,DPDK的內(nèi)存分配實(shí)現(xiàn)非常簡陋,不如ptmalloc。

2. SNA(Shared-nothing Architecture)

軟件架構(gòu)去中心化,盡量避免全局共享,帶來全局競爭,失去橫向擴(kuò)展的能力。NUMA體系下不跨Node遠(yuǎn)程使用內(nèi)存。

3. SIMD(Single Instruction Multiple Data)

從最早的mmx/sse到最新的avx2,SIMD的能力一直在增強(qiáng)。DPDK采用批量同時(shí)處理多個(gè)包,再用向量編程,一個(gè)周期內(nèi)對所有包進(jìn)行處理。比如,memcpy就使用SIMD來提高速度。

SIMD在游戲后臺(tái)比較常見,但是其他業(yè)務(wù)如果有類似批量處理的場景,要提高性能,也可看看能否滿足。

4. 不使用慢速API

這里需要重新定義一下慢速API,比如說gettimeofday,雖然在64位下通過vDSO已經(jīng)不需要陷入內(nèi)核態(tài),只是一個(gè)純內(nèi)存訪問,每秒也能達(dá)到幾千萬的級別。但是,不要忘記了我們在10GE下,每秒的處理能力就要達(dá)到幾千萬。所以即使是gettimeofday也屬于慢速API。DPDK提供Cycles接口,例如rte_get_tsc_cycles接口,基于HPET或TSC實(shí)現(xiàn)。

在x86-64下使用RDTSC指令,直接從寄存器讀取,需要輸入2個(gè)參數(shù),比較常見的實(shí)現(xiàn):

static inline uint64_t
rte_rdtsc(void)
{
      uint32_t lo, hi;

      __asm__ __volatile__ (
                 "rdtsc" : "=a"(lo), "=d"(hi)
                 );

      return ((unsigned long long)lo) | (((unsigned long long)hi) << 32);
}

這么寫邏輯沒錯(cuò),但是還不夠極致,還涉及到2次位運(yùn)算才能得到結(jié)果,我們看看DPDK是怎么實(shí)現(xiàn):

static inline uint64_t
rte_rdtsc(void)
{
	union {
		uint64_t tsc_64;
		struct {
			uint32_t lo_32;
			uint32_t hi_32;
		};
	} tsc;

	asm volatile("rdtsc" :
		     "=a" (tsc.lo_32),
		     "=d" (tsc.hi_32));
	return tsc.tsc_64;
}

巧妙的利用C的union共享內(nèi)存,直接賦值,減少了不必要的運(yùn)算。但是使用tsc有些問題需要面對和解決

  1. CPU親和性,解決多核跳動(dòng)不精確的問題

  2. 內(nèi)存屏障,解決亂序執(zhí)行不精確的問題

  3. 禁止降頻和禁止Intel Turbo Boost,固定CPU頻率,解決頻率變化帶來的失準(zhǔn)問題

5. 編譯執(zhí)行優(yōu)化

  1. 分支預(yù)測

現(xiàn)代CPU通過pipeline、superscalar提高并行處理能力,為了進(jìn)一步發(fā)揮并行能力會(huì)做分支預(yù)測,提升CPU的并行能力。遇到分支時(shí)判斷可能進(jìn)入哪個(gè)分支,提前處理該分支的代碼,預(yù)先做指令讀取編碼讀取寄存器等,預(yù)測失敗則預(yù)處理全部丟棄。我們開發(fā)業(yè)務(wù)有時(shí)候會(huì)非常清楚這個(gè)分支是true還是false,那就可以通過人工干預(yù)生成更緊湊的代碼提示CPU分支預(yù)測成功率。

#pragma once

#if !__GLIBC_PREREQ(2, 3)
#    if !define __builtin_expect
#        define __builtin_expect(x, expected_value) (x)
#    endif
#endif

#if !defined(likely)
#define likely(x) (__builtin_expect(!!(x), 1))
#endif

#if !defined(unlikely)
#define unlikely(x) (__builtin_expect(!!(x), 0))
#endif
  1. CPU Cache預(yù)取

Cache Miss的代價(jià)非常高,回內(nèi)存讀需要65納秒,可以將即將訪問的數(shù)據(jù)主動(dòng)推送的CPU Cache進(jìn)行優(yōu)化。比較典型的場景是鏈表的遍歷,鏈表的下一節(jié)點(diǎn)都是隨機(jī)內(nèi)存地址,所以CPU肯定是無法自動(dòng)預(yù)加載的。但是我們在處理本節(jié)點(diǎn)時(shí),可以通過CPU指令將下一個(gè)節(jié)點(diǎn)推送到Cache里。

API文檔:https://doc.dpdk.org/api/rte__prefetch_8h.html

static inline void rte_prefetch0(const volatile void *p)
{
	asm volatile ("prefetcht0 %[p]" : : [p] "m" (*(const volatile char *)p));
}
#if !defined(prefetch)
#define prefetch(x) __builtin_prefetch(x)
#endif

…等等

  1. 內(nèi)存對齊

內(nèi)存對齊有2個(gè)好處:

l 避免結(jié)構(gòu)體成員跨Cache Line,需2次讀取才能合并到寄存器中,降低性能。結(jié)構(gòu)體成員需從大到小排序和以及強(qiáng)制對齊。參考《Data alignment: Straighten up and fly right》

#define __rte_packed __attribute__((__packed__))

l 多線程場景下寫產(chǎn)生False sharing,造成Cache Miss,結(jié)構(gòu)體按Cache Line對齊

#ifndef CACHE_LINE_SIZE
#define CACHE_LINE_SIZE 64
#endif

#ifndef aligined
#define aligined(a) __attribute__((__aligned__(a)))
#endif
  1. 常量優(yōu)化

常量相關(guān)的運(yùn)算的編譯階段完成。比如C++11引入了constexp,比如可以使用GCC的__builtin_constant_p來判斷值是否常量,然后對常量進(jìn)行編譯時(shí)得出結(jié)果。舉例網(wǎng)絡(luò)序主機(jī)序轉(zhuǎn)換

#define rte_bswap32(x) ((uint32_t)(__builtin_constant_p(x) ?		\
				   rte_constant_bswap32(x) :		\
				   rte_arch_bswap32(x)))

其中rte_constant_bswap32的實(shí)現(xiàn)

#define RTE_STATIC_BSWAP32(v) \
	((((uint32_t)(v) & UINT32_C(0x000000ff)) << 24) | \
	 (((uint32_t)(v) & UINT32_C(0x0000ff00)) <<  8) | \
	 (((uint32_t)(v) & UINT32_C(0x00ff0000)) >>  8) | \
	 (((uint32_t)(v) & UINT32_C(0xff000000)) >> 24))

5)使用CPU指令

現(xiàn)代CPU提供很多指令可直接完成常見功能,比如大小端轉(zhuǎn)換,x86有bswap指令直接支持了。

static inline uint64_t rte_arch_bswap64(uint64_t _x)
{
	register uint64_t x = _x;
	asm volatile ("bswap %[x]"
		      : [x] "+r" (x)
		      );
	return x;
}

這個(gè)實(shí)現(xiàn),也是GLIBC的實(shí)現(xiàn),先常量優(yōu)化、CPU指令優(yōu)化、最后才用裸代碼實(shí)現(xiàn)。畢竟都是頂端程序員,對語言、編譯器,對實(shí)現(xiàn)的追求不一樣,所以造輪子前一定要先了解好輪子。

Google開源的cpu_features可以獲取當(dāng)前CPU支持什么特性,從而對特定CPU進(jìn)行執(zhí)行優(yōu)化。高性能編程永無止境,對硬件、內(nèi)核、編譯器、開發(fā)語言的理解要深入且與時(shí)俱進(jìn)。

七、DPDK生態(tài)

對我們互聯(lián)網(wǎng)后臺(tái)開發(fā)來說DPDK框架本身提供的能力還是比較裸的,比如要使用DPDK就必須實(shí)現(xiàn)ARP、IP層這些基礎(chǔ)功能,有一定上手難度。如果要更高層的業(yè)務(wù)使用,還需要用戶態(tài)的傳輸協(xié)議支持。不建議直接使用DPDK。

目前生態(tài)完善,社區(qū)強(qiáng)大(一線大廠支持)的應(yīng)用層開發(fā)項(xiàng)目是FD.io(The Fast Data Project),有思科開源支持的VPP,比較完善的協(xié)議支持,ARP、VLAN、Multipath、IPv4/v6、MPLS等。用戶態(tài)傳輸協(xié)議UDP/TCP有TLDK。從項(xiàng)目定位到社區(qū)支持力度算比較靠譜的框架。

騰訊云開源的F-Stack也值得關(guān)注一下,開發(fā)更簡單,直接提供了POSIX接口。

Seastar也很強(qiáng)大和靈活,內(nèi)核態(tài)和DPDK都隨意切換,也有自己的傳輸協(xié)議Seastar Native TCP/IP Stack支持,但是目前還未看到有大型項(xiàng)目在使用Seastar,可能需要填的坑比較多。

我們GBN Gateway項(xiàng)目需要支持L3/IP層接入做Wan網(wǎng)關(guān),單機(jī)20GE,基于DPDK開發(fā)。

到此,關(guān)于“什么是DPDK”的學(xué)習(xí)就結(jié)束了,希望能夠解決大家的疑惑。理論與實(shí)踐的搭配能更好的幫助大家學(xué)習(xí),快去試試吧!若想繼續(xù)學(xué)習(xí)更多相關(guān)知識(shí),請繼續(xù)關(guān)注創(chuàng)新互聯(lián)網(wǎng)站,小編會(huì)繼續(xù)努力為大家?guī)砀鄬?shí)用的文章!

新聞名稱:什么是DPDK
網(wǎng)頁地址:http://bm7419.com/article24/ipdice.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供ChatGPT、網(wǎng)站改版、虛擬主機(jī)、網(wǎng)站收錄、企業(yè)建站、外貿(mào)建站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

成都定制網(wǎng)站建設(shè)