正在加載數(shù)據(jù)...
當前位置:北方企業(yè)新聞網(wǎng)> 商訊>正文內(nèi)容
  • 數(shù)訊云VDC: 多云管理的金鑰匙
  • 2020年01月17日 來源:企業(yè)網(wǎng)D1Net

提要:2020年1月7日(周二)下午,北京新云南皇冠假日酒店,在由TF中文社區(qū)主辦的“多云互聯(lián) · 開源開放”TF Meetup大會上,上海數(shù)訊信息技術有限公司作為社區(qū)的創(chuàng)始會員、國內(nèi)TF應用領先者,現(xiàn)場分享了數(shù)訊云VDC多云管理服務(CMP)開發(fā)及調(diào)研中碰到的問題,和升級完善之道。

2020年1月7日(周二)下午,北京新云南皇冠假日酒店,在由TF中文社區(qū)主辦的“多云互聯(lián) · 開源開放”TF Meetup大會上,上海數(shù)訊信息技術有限公司作為社區(qū)的創(chuàng)始會員、國內(nèi)TF應用領先者,現(xiàn)場分享了數(shù)訊云VDC多云管理服務(CMP)開發(fā)及調(diào)研中碰到的問題,和升級完善之道。

以下文稿摘選自數(shù)訊信息云事業(yè)部總經(jīng)理錢譽的演講實錄,為您講述幾年來數(shù)訊VDC開發(fā)創(chuàng)建的歷程,及成就!數(shù)訊云VDC為應用場景復雜的企業(yè)做好技術落地與服務管控。演講帶來了開源SDN的技術風暴。

上海數(shù)訊是一家以傳統(tǒng)數(shù)據(jù)中心業(yè)務為主的公司,為什么會轉到云計算呢?在2011年以后,整個數(shù)據(jù)中心行業(yè)越來越像房地產(chǎn)了,數(shù)據(jù)中心這種業(yè)務可復制性比較強,競爭激烈。到2013年的時候,有一些新的技術出來,包括OpenStack的爆發(fā)式增長,于是2014年開始決定去做云計算這個事情。

當初的定義是多平臺,從實際應用場景來看的話,不是說虛擬機和容器哪個好,它們兩個應用在不同的場景,沒有誰替代誰的問題,要做兩個平臺的時候,又碰到一個很尷尬的問題,虛擬機的網(wǎng)絡和容器的網(wǎng)絡,完全是兩回事。

中間我們找了差不多10個SDN技術,從商用的到開源的,再到國產(chǎn)小范圍應用的,那個時候Tungsten Fabric還叫OpenContrail,當時的版本還只支持OpenStack。

CMP是這幾年提出來的,但剛開始做的時候,已經(jīng)有CMP的理念了。

數(shù)訊SDS VDC:一種功能強大的企業(yè)級混合云平臺,將為企業(yè)云能力開啟新的水平。

數(shù)訊SDS?VDC,可以幫助企業(yè)靈活地連接成為一個數(shù)字化業(yè)務所需的智能功能平臺,為敏捷性和云計算的經(jīng)濟性與內(nèi)部部署的IT環(huán)境提供可靠性和安全性。

數(shù)訊云計算,掌握云計算核心技術,擁有完全自主知識產(chǎn)權

數(shù)訊云計算,核心研發(fā)團隊自2014年就一直致力于云計算技術的研究和開發(fā)工作

對比所有的Portal去看,不管是OpenStack還是原生的K8s,基本都是以運維視角出發(fā)的,不是一個對外提供業(yè)務的一個case。所以從使用者來看的話,是一件非常痛苦的事情,當時我們就決定把兩個平臺統(tǒng)一,在Web上做一個完整的、基于用戶自己界面的平臺。

在那個時候,確定了數(shù)訊云平臺和SDN的方向,當時主要是OpenStack和K8s。我們發(fā)現(xiàn)一個問題,K8s不是一個PaaS平臺,只是解決了一個docker管理的問題。如果是小環(huán)境的話,用不用都無所謂,不一定非要搞SDN,包括OpenStack也一樣,如果業(yè)務環(huán)境不是過于復雜的話,其實跑傳統(tǒng)的VLAN,只要控制量,沒有廣播風暴,沒有任何問題。

但如果你的業(yè)務場景非常復雜,以前收納在虛擬機,現(xiàn)在收納在容器里,這種業(yè)務的出現(xiàn),會對網(wǎng)絡造成非常大的困境,不可能對每個線的業(yè)務去做策略。一旦出現(xiàn)業(yè)務遷移或trouble shooting的時候,后端運維人員是崩潰的,沒法調(diào)。以前寫個PBR,寫個靜態(tài)路由,最多是掛幾個交換機路由。在云網(wǎng)絡環(huán)境里完全不是這樣,可能一個租戶下面無數(shù)虛擬機,里面跑了無數(shù)不同的應用方式,所有流的走向又是亂七八糟的,這種情況下,如果用傳統(tǒng)的方式,基本就不用做了,因為看不到頭。所以要采用SDN的方式。

TungstenFabric(以下簡稱TF)的確非常優(yōu)秀,但也有一些問題存在,完全支持OVSDB的交換機,對TF的兼容會更好一點。也不是說Openflow不行,用流表的方式也能做,但那就比較折騰了。

數(shù)訊的Openstack和K8s,就是底層通過TF的SDN技術支持線。當時2015年OpenContrail時代的時候,K8s剛開放,我們提出要采用基于容器的方式,因為虛擬機的方式對運維、擴容、遷移有弊端的話,后面業(yè)務是很難有保證的。那個時候OpenStack也比較早期,基本上都是自己統(tǒng)一部署,和Juniper networks聯(lián)合開發(fā)的時候,把OpenContrail放在一起部署。

另外,數(shù)訊作為數(shù)據(jù)中心運營商,提供的是傳統(tǒng)的hosting,大家都在考慮上云的問題。在云計算中我們已經(jīng)使用了SDN技術,非傳統(tǒng)VLAN的方式,那么用戶上云的時候怎么接呢,不可能再開個VLAN做個什么映射,比較困難。

還有,怎么把用戶實際在機房里的一堆業(yè)務場景,跟云計算的overlay網(wǎng)絡去連接,而不是以某個獨立的服務去試。

這里就解決了VLAN映射的問題,不可能為用戶提供專線,還要改變他的VLAN網(wǎng)絡,這是不現(xiàn)實的,所以在這上面做了大量的二次開發(fā)。包括OpenStack和OpenShift,開源社區(qū)的版本都是單節(jié)點,到真正地應用到場景的話,最起碼要保證多節(jié)點,社區(qū)版的東西要落到生產(chǎn)環(huán)境,包括和TF對接,還是有很多二次開發(fā)要做。

開發(fā)及調(diào)研中碰到的8類網(wǎng)絡問題

這是在開發(fā)和調(diào)研中碰到的實際用例的問題,有些是我們自己的,有些是用戶應用場景中的。

1、OpenstackNeutron OVS 擴展差,穩(wěn)定性低。Neutron穩(wěn)定性比較差,我們曾經(jīng)實測過,開到2500個虛擬機會出現(xiàn)莫名其妙的抖動,導致全部崩潰,對于原生的Neutron,我們還是比較謹慎的。

2、K8S的Fannel&Calcio并不完全適應User Case場景及多region的設計。如果K8s只是實現(xiàn)單一業(yè)務,基本原生的Flannel或Calico都能解決,Calico對于多數(shù)據(jù)中心多任務的方式是不提供支持的,Calico是目前K8s開源環(huán)境使用最多的。

3、OKD(openshift Origin)的OVS能否與Openstack互通存疑,VNF和CNF是否能共存未知。OpenShift雖然是有OVS,能不能和OpenStack互通是存疑的,最后驗證下來也是不能通的,完全是兩個體系。

4、虛擬機網(wǎng)絡與容器網(wǎng)絡如何進行二層互訪,使得效率更高?另外VNF和CNF是否能夠共存,也是未知。為什么虛擬機要去訪問容器?在我們看來極其不合理,但在金融行業(yè)或電商行業(yè),某些業(yè)務可以跑虛擬機,某些已經(jīng)買了商業(yè)軟件,或者有些用戶自己有開發(fā)能力,已經(jīng)把一部分東西放到容器里了。

以前我們在虛擬機開一堆負載均衡,但在容器里直接一個Node無數(shù)port就解決了,包括很多注冊機機制不能portal,總不能把網(wǎng)絡做分段再做代理轉接,他們覺得非常難,看有沒有可能解決這個問題。我們最后試錯下來,在最近解決了VNF和CNF在OpenStack虛擬機層面的互通問題,要用到管理網(wǎng)去做互通。

5、對于數(shù)據(jù)中心內(nèi)的用戶,如何使得云服務于傳統(tǒng)的Hosting及BMS在一個網(wǎng)絡平面內(nèi)訪問管理?虛擬機網(wǎng)絡與容器網(wǎng)絡二層互訪,在TF 4.0版本的時候是基于標簽的方式,能用,但是用起來不方便。到現(xiàn)在5.1版本的時候,整個Portal也沒有把這個拉出來作為一個選項,每次都要去翻虛擬機和容器去做對應,這個操作比較麻煩,我們也試過做二次開發(fā),比較累。如果有可能的話,把這兩個東西放在一起,管理起來就會非常方便。

6、軟件定義的FW、LB如何在跨場景中得到業(yè)務落地?(特別是由其作為統(tǒng)一internet出口)。?軟件定義的FW、LB如何在跨場景中業(yè)務落地?大部分用戶場景里,都是用商業(yè)軟件,各種品牌都有,自己本身提供image,放到虛擬機都有自己的feature,怎么和TF互通,肯定是要做二次開發(fā)的,但目前看來也就TF有可能去做,其它的比較困難。

7、針對不同云廠商提供五花八門的VPC,如何進行統(tǒng)一接入管理?VPC的問題,在我們的理解里,TF的VPC可以理解為現(xiàn)在國內(nèi)SDNweb更合理,兩段VPN建立隧道。至于你要管到公有云的虛擬機,好像不太可能。即使是給到你,可能最后也會放棄,光是版本迭代問題就沒法解決。沒人做這樣的事情。好處是有Portal,能夠看到整個業(yè)務的實際情況。

8、各自為陣的網(wǎng)絡如何能有效的進行運營及排障?吐槽一下,TF確實解決了OpenStack網(wǎng)絡拓展和穩(wěn)定性問題,但對網(wǎng)卡有點挑,在一些特殊的應用場景里,比如跑VDI的IDP協(xié)議,我們發(fā)現(xiàn)Intel和Broadcom的網(wǎng)卡不那么友善。

相比OpenStack,目前為止TF和OpenShift的對接難度更大一點。OpenShift開源的OKD本身就有一些問題,另外只是把TF和OpenShift或K8s裝在一起,簡單應用看不出問題,但如果跑幾個業(yè)務鏈,比如標簽、應用、路由網(wǎng)關、業(yè)務編排等,整個流程走下去會有問題。

的確我們看下來,TF就像文檔上面所說的,對OpenShift的支持,還是比其它開源軟件或商業(yè)軟件要好很多,至少還能看到用TF做二次開發(fā)的曙光。

關于服務鏈,如果能夠和端口去做匹配,可能更好一點,不要干預整條網(wǎng)絡的屬性,在某些特定場景里面會比較復雜。

多云環(huán)境我們目前已經(jīng)適配AWS和Azure,可以很好適配國際化企業(yè)實際的應用場景,并且對一些有VPC虛擬私有云通道的國內(nèi)公有云也適配。取得這項進步,在業(yè)界還屬于開創(chuàng)性的!

支持DPDK及smartNIC我們實測過,在OpenStack默認的kernel環(huán)境下,達到安全廠商他們的軟件標準,基本達不到,只有使用DPDK的方式才能達到標稱值,但DPDK又是Intel的專屬,在實際場景中碰到了一些問題,有的應用能跑起來,有的就不行。所以,要使用DPDK方式的話,還是要根據(jù)自己的使用場景去看一下。

TF提供類似REST的API,所以即使自己要做CMP的話,去調(diào)用后端的參數(shù),相對還是比較容易的,但針對API的文檔有點亂。

到現(xiàn)在,我們做云計算是非常認真的,從2014年到現(xiàn)在一直在不斷打磨,SDS VDC云平臺,所有的視角都是以用戶實例去呈現(xiàn):

把TF后端的API騰挪到前端。

每家用戶都能根據(jù)自己的策略去調(diào)。

進入多云管理CMP的時代,如果一個應用場景在15分鐘內(nèi)開不起來的話,那它就失敗了,更不要說借助第三方外力。

把很多權限都開放給用戶。

我們的PaaS后端是OpenShift,基于PaaS平臺的所有業(yè)務都在前端重做,包括TF針對OpenShift的功能,都放在前端,包括TF內(nèi)部都可以監(jiān)控,不用非常原始的SNMP的方式做采集,完全不需要。

目前為止,數(shù)訊的平臺做到了這個程度。選擇TF是因為協(xié)議相對標準,BGP VPN就能解決,我比較抵觸私有協(xié)議,某些友商總想搞個大一統(tǒng),最后也不太可能,還是開放式大家比較能接受。

談到VXLAN的問題,實際用下來,如果用kernel方式,如果量很大損耗還是很大,特別針對VXLAN沒有做特別優(yōu)化的交換機或網(wǎng)卡,直接性能損失大概在30%左右。

從整個TF去看的話,基本上把不同的平臺、不同的網(wǎng)絡特性都統(tǒng)一管理起來了,只是容器和虛擬機還是有一定手動的工作量,如果TF把這個問題解決掉會更好。另外,TF在OpenStack和OpenShift認證機制上不太一致。

這幾年比較痛苦的是支持比較少,不管開源社區(qū)還是官方,主要側重于安裝,有一部分trouble shooting,但針對于實際的應用場景部署相對比較缺失。做云計算不是開虛擬機,用不用OpenStack無所謂,KVM就解決了。所以說云計算不是虛擬化,它有一定的業(yè)務邏輯在里面,意味著平臺要能對實際落地用戶的業(yè)務提供很多支持。

我們應用TF比較早,從3.2版本就開始搞,4.0版本正式對接。我相信如果有自己的業(yè)務邏輯,有一定的開發(fā)能力,基于TF能打造出屬于自己的好的產(chǎn)品,TF可編程型比較強,通用性也比較強。滿分100的話,我打80分,剩下的20分是支持方面。

以上,我從實際的應用場景,到開發(fā)當中遇到的各種情況,拋出了一些問題。

非常感謝大家!(演講結束)



責任編輯:于思楠
相關新聞
    沒有關鍵字相關信息!
新聞排行
国产精品夜夜春夜夜爽久久小| 国产福利电影一区二区三区久久久久成人精品综合 | 99亚洲精品卡2卡三卡4卡2卡| 亚洲精品制服丝袜四区| 国语自产偷拍精品视频偷| 一本大道久久a久久精品综合| 国产成人精品一区在线| 真实国产精品vr专区| 亚洲国产精品一区二区第一页 | 51午夜精品免费视频| 中文字幕精品一二三四五六七八| 久久亚洲精品视频| 亚洲国产91精品无码专区| 精品久久久久久中文字幕无码| 久久99国产精品视频| 香蕉久久综合精品首页| 国产尤物在线视精品在亚洲| 青青青在线观看国产精品| 亚洲国产精品一区| 亚洲欧洲国产精品香蕉网| 亚洲国产精品视频| 国产精品国产三级国产av剧情 | 久久99精品久久久久婷婷| 中文字幕精品亚洲无线码二区| 精品综合一区二区三区| 国产精品亚洲一区二区在线观看| 精品人妻码一区二区三区| 国产精品jizz视频| 国产成人麻豆亚洲综合无码精品 | 国产精品成人一区二区| 国产精品好好热在线观看| 好吊妞视频这里有精品| 91精品国产色综合久久不| 久久青草精品38国产| 亚洲国产另类久久久精品黑人| 国产精品龙口护士门在线观看| 国产亚洲美女精品久久| 真实国产精品视频国产网| 久久人午夜亚洲精品无码区| 91精品免费在线观看| 91精品国产91热久久久久福利|