加入星計劃,您可以享受以下權(quán)益:

  • 創(chuàng)作內(nèi)容快速變現(xiàn)
  • 行業(yè)影響力擴散
  • 作品版權(quán)保護
  • 300W+ 專業(yè)用戶
  • 1.5W+ 優(yōu)質(zhì)創(chuàng)作者
  • 5000+ 長期合作伙伴
立即加入
  • 正文
    • 1.概述
    • 2.搭建原則
    • 3.高性能仿真平臺
    • 4.系統(tǒng)構(gòu)成
    • 5.后注
  • 相關(guān)推薦
  • 電子產(chǎn)業(yè)圖譜
申請入駐 產(chǎn)業(yè)圖譜

老貓內(nèi)參3:搭建高性能仿真平臺

2021/05/01
431
閱讀需 25 分鐘
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論

1.概述

高性能計算(High Performance Computing,簡稱HPC)是計算機科學(xué)的一個分支,研究并行算法和開發(fā)相關(guān)軟件,致力于開發(fā)高性能計算機(High Performance Computer),滿足科學(xué)計算、工程計算、海量數(shù)據(jù)處理等需要。自從1946年設(shè)計用于導(dǎo)彈彈道計算的世界上第一臺現(xiàn)代計算機誕生開始,計算技術(shù)應(yīng)用領(lǐng)域不斷擴大,各應(yīng)用領(lǐng)域?qū)τ嬎銠C的處理能力需求越來越高,這也促使了高性能計算機和高性能計算技術(shù)不斷向前發(fā)展。隨著信息化社會的飛速發(fā)展,人類對信息處理能力的要求越來越高,不僅石油勘探、氣象預(yù)報、航天國防、科學(xué)研究等需求高性能計算機,而金融、政府信息化、教育、企業(yè)、網(wǎng)絡(luò)游戲等更廣泛的領(lǐng)域?qū)Ω咝阅苡嬎愕男枨笠惭该驮鲩L。應(yīng)用需求是高性能計算技術(shù)發(fā)展的根本動力。傳統(tǒng)的高性能計算應(yīng)用領(lǐng)域包括:量子化學(xué)、分子模擬、氣象預(yù)報、天氣研究、油氣勘探、流體力學(xué)、結(jié)構(gòu)力學(xué)、核反應(yīng)等。隨著經(jīng)濟發(fā)展和社會進步,科學(xué)研究、經(jīng)濟建設(shè)、國防安全等領(lǐng)域?qū)Ω咝阅苡嬎阍O(shè)施及環(huán)境提出了越來越高的需求,不僅高性能計算的應(yīng)用需求急劇增大,而且應(yīng)用范圍從傳統(tǒng)領(lǐng)域不斷擴大到資源環(huán)境、航空航天、新材料、新能源、醫(yī)療衛(wèi)生、金融、文化產(chǎn)業(yè)等經(jīng)濟和社會發(fā)展的眾多領(lǐng)域。

圖 1 全球HPC TOP500統(tǒng)計數(shù)據(jù)顯示高性能計算能力成倍增長解決上述關(guān)系國家戰(zhàn)略和國計民生的重大挑戰(zhàn)性問題都離不開高性能計算的強力支撐,可以預(yù)見在戰(zhàn)略層面,各國對高性能計算的投入會持續(xù)增長,而中國將更加發(fā)力;在技術(shù)層面上,高性能計算的應(yīng)用范圍將越來越廣,發(fā)過來應(yīng)用需求也將催生高性能計算新技術(shù)的誕生與發(fā)展。

 

2.搭建原則

計算平臺建設(shè)要充分考慮未來的發(fā)展需求,包括多項目、多任務(wù)并行協(xié)同,遠(yuǎn)程任務(wù)提交與監(jiān)控等。高性能仿真平臺的建設(shè)總體原則是立足眼前、面向未來,仿真平臺不僅要能夠完全滿足目前我部門的設(shè)計需要,還要具有前瞻性和可擴展性,滿足未來至少5年的應(yīng)用需求。

能夠適應(yīng)復(fù)雜的計算需求

由于高性能計算中心需求復(fù)雜,需要滿足各種應(yīng)用需求。對于天線陣列與天線罩的仿真與建模,需要采用高性能的圖形工作站;對于常規(guī)的計算密集型應(yīng)用,往往適合大規(guī)模的多節(jié)點并行,使用常規(guī)的刀片集群來滿足;對于無法進行多節(jié)點跨節(jié)點并行的多線程應(yīng)用,對內(nèi)存、IO需求的較為強烈,SMP胖節(jié)點可以提供單節(jié)點更強的性能,更高的內(nèi)存和IO擴展性需求,和廣泛的外插卡擴展性,一般配置SMP 胖節(jié)點來滿足應(yīng)用需求。

采用高速互聯(lián)網(wǎng)絡(luò)

大規(guī)模并行計算在計算過程中對網(wǎng)絡(luò)有較大的需求,高帶寬和低延時的InfiniBand網(wǎng)絡(luò)會帶來應(yīng)用性能和擴展性的大幅提升,尤其隨著CPU多核化的快速發(fā)展,單節(jié)點的計算性能越來越強,帶來節(jié)點間通訊的壓力越來越大,InfiniBand網(wǎng)絡(luò)幾乎成為許多高性能計算應(yīng)用的標(biāo)配。同時,高性能集群對共享文件系統(tǒng)的需求也要求數(shù)據(jù)通過網(wǎng)絡(luò)來對集中存儲進行訪問,高帶寬的InfiniBand網(wǎng)絡(luò)也會帶來數(shù)據(jù)訪問性能的快速增長。文件系統(tǒng)并行和權(quán)限分級高性能計算中心應(yīng)用計算能力強、應(yīng)用數(shù)量多,除了一部分高IO應(yīng)用會給共享文件系統(tǒng)帶來較大壓力,同時,海量任務(wù)的并發(fā)讀寫也會帶給文件系統(tǒng)的較大負(fù)載。同時,海量的數(shù)據(jù)和高性能集群統(tǒng)一文件映像的需求,也要求高性能計算中心有一個海量的單一文件分區(qū)。需要采用并行文件系統(tǒng),并行文件系統(tǒng)通過軟件的方式能夠?qū)崿F(xiàn)多個存儲空間的單一分區(qū)和并發(fā)讀寫,突破硬件資源設(shè)計的瓶頸,帶來靈活的擴展性和性能的大幅提升。同時,面對不同的用戶的權(quán)限要求,需要分出幾個層次,用戶享有的數(shù)據(jù)安全性程度也有不同。同時,不同應(yīng)用的文件訪問類型也有明顯不同,有的是大文件為主,有的是小文件,但是數(shù)量巨大。所以在方案設(shè)計中,最好使用分層次的分級存儲。

配置管理調(diào)度系統(tǒng)

由于高性能計算中心用戶數(shù)量多,權(quán)限有一定差異,離散度高,帶來管理的難度加大。同時,由于計算中心的運維方主要給用戶提供服務(wù),所以對用戶的使用權(quán)限、記帳、管理等方面要求比較高。所以高性能計算中心對管理軟件和調(diào)度軟件的要求較高,一般除了普通的調(diào)度功能外,還要可以實現(xiàn)靈活的策略分配和權(quán)限分配,作業(yè)記帳、用戶搶占,限制用戶登入、報警、系統(tǒng)快速恢復(fù)等等功能。同時,還要制定一定的規(guī)章制度,來規(guī)范用戶對資源的申請、使用和分配。

低能耗要求

由于高性能計算中心規(guī)模大,所以電費開支是一項不小的開銷。一般一年的電量達(dá)到上萬甚至數(shù)十萬千瓦時,所以節(jié)能環(huán)保不但能實現(xiàn)設(shè)備的綠色低碳,同時也能大大降低運維費用??紤]到節(jié)能需求,方案中采用刀片服務(wù)器、低功耗處理器、節(jié)能軟件、高制冷效率基礎(chǔ)設(shè)施(水冷機組或封閉式制冷機柜)等方式實現(xiàn)綠色節(jié)能。

能實現(xiàn)遠(yuǎn)程操作與監(jiān)控

傳統(tǒng)的HPC應(yīng)用軟件有一定的使用難度,尤其Linux操作系統(tǒng)和作業(yè)提交腳本,對于大部分習(xí)慣windows的用戶來說,成為擺在面前的一個技術(shù)壁壘。同時,常規(guī)的用戶通過SSH 遠(yuǎn)程登錄的使用模式,使得用戶有很多權(quán)限可以順利登陸到高性能集群上進行各種操作,也帶來了巨大的安全隱患。定制化的、針對應(yīng)用軟件的Web Portal可以很好的解決這些問題。Web Portal可以大大降低應(yīng)用軟件使用難度,保證系統(tǒng)安全性,更好的為用戶提供高性能計算服務(wù)。

高數(shù)據(jù)安全性

在高性能集群上的用戶數(shù)據(jù)眾多,數(shù)據(jù)安全非常重要,數(shù)據(jù)安全主要包含兩方面的內(nèi)容第一方面,可能遭到網(wǎng)絡(luò)黑客的遠(yuǎn)程攻擊,或者其它用戶的竊取,或者由于用戶名密碼的丟失被竊取。解決方法可以是使用防火墻、加密文件系統(tǒng)、以及加密認(rèn)證登陸系統(tǒng)來進行安全防護(如堡壘機等)。第二方面,指的是由于設(shè)備故障或地震、火災(zāi)等因素造成的數(shù)據(jù)丟失。解決方法可以使用數(shù)據(jù)備份等方式來解決。

3.高性能仿真平臺

高性能仿真平臺包含兩大部分:軟件系統(tǒng)和硬件系統(tǒng)。根據(jù)模型計算量首選確定仿真軟件的配置規(guī)模,進一步牽引出硬件的合理搭配環(huán)境。

3.1. 軟件系統(tǒng)

為完成高性能計算,軟件系統(tǒng)從兩方面來解決超大計算量問題:1.多種混合算法實現(xiàn)電大尺寸問題的精確求解2.采用高性能計算(HPC)擴展求解規(guī)模

 

3.1.1.多種混合算法實現(xiàn)電大尺寸問題的精確求解

在HFSS的多種算法中,有限元法(FEM)擅長處理復(fù)雜結(jié)構(gòu)和介質(zhì)材料,矩量法(MoM)則擅長求解純金屬電大尺寸的開放空間問題,而PO光學(xué)法可以快速評估大尺寸模型的性能與結(jié)果,SBR彈跳射線法作為一種高效高精度的光學(xué)算法,適用于金屬材料的大尺寸快速求解,并作為混合算法的其中一項,主要針對天線類布局與RCS計算等。例如,天線與天線罩裝配到飛機上之后是典型的大尺寸且復(fù)雜的問題。在ANSYS軟件中,HFSS(有限元法模塊)和HFSS-IE(積分方程法模塊),PO光學(xué)法模塊(包含于IE模塊內(nèi)部),即三維矩量法)實現(xiàn)了完美融合,可通過FEBI邊界和IE Region、PO Region技術(shù)將幾種算法應(yīng)用到一個模型的求解中,結(jié)合了各種算法的優(yōu)點,非常適合電大尺寸問題的精確求解以及快速評估。1)可以將邊界(FEBI邊界)設(shè)置的離目標(biāo)更近,減小求解網(wǎng)格量;

圖2 天線罩與天線的的混合算法示意圖——FEBI邊界的應(yīng)用2)可以是凹形的,容易實現(xiàn)與任意形狀復(fù)雜結(jié)構(gòu)共形;3)模型可以分離,用于仿真模型分離的情況;

圖3 天線罩與天線的的混合算法示意圖——模型的分離

 

3.1.2.采用高性能計算(HPC)擴展求解規(guī)模

ANSYS軟件中高性能計算(HPC)選項采用了區(qū)域分解(DDM)技術(shù),可以突破單節(jié)點硬件的限制,實現(xiàn)高性能并行計算,擴展求解規(guī)模。

 圖4a

 

圖4b

 

圖5 HPC與DDM加速比、內(nèi)存占用與子域個數(shù)的關(guān)系曲線DDM技術(shù)通過利用局域網(wǎng)內(nèi)計算機的所有內(nèi)存對大規(guī)模問題進行仿真。HFSS會根據(jù)網(wǎng)格規(guī)模和用于計算的處理器核/計算機數(shù)目將待求解問題的劃分子域數(shù)目進行優(yōu)化;DDM算法會自動將有限元網(wǎng)格按上述優(yōu)化的結(jié)果分解成若干子域。每個子域會單獨進行分析,然后通過在子域間的交接面上的迭代重構(gòu)出整個域的解。這種網(wǎng)絡(luò)內(nèi)存共享機制可對超出單機計算規(guī)模的大型問題進行仿真。

此外,DDM技術(shù)還可降低仿真時間和總內(nèi)存需求,在某些問題上隨著參與計算的核數(shù)的增加可提供超線性的加速比。由于HFSS仿真所需的求解時間和內(nèi)存隨求解未知量增長的關(guān)系大約滿足N1.4(N為未知量數(shù)目)。采用8核的計算機進行求解時,去除一個核作為頭節(jié)點,可將待求解模型分為7個子域,因此,求解速度可以提升約71.4(15倍)。如下圖顯示了采用DDM求解F-35上的機載天線時的加速比和內(nèi)存占用隨求解核數(shù)(求解核數(shù)=子域數(shù)目+1)增加的規(guī)律,在此問題上,DDM呈現(xiàn)出了超線性加速比特性。HPC高效并行算法,是一種結(jié)合了MPI技術(shù)的并行算法。消息傳遞MPI是目前使用最為廣泛的實現(xiàn)并行計算的一種方式.在消息傳遞模型中,計算由一個或者多個進程構(gòu)成,進程間的通信通過調(diào)用庫函數(shù)發(fā)送和接收消息來完成.通信是一種協(xié)同的行為。HPC結(jié)合DDM,可以實現(xiàn)大規(guī)模問題的高效并行求解。最新的HPC模塊增加了頻譜分解(SDDM)功能,可自動將寬帶掃頻的各個頻點分配到多個處理器或計算機求解,并自動生成掃頻結(jié)果。該方法極大減少了獲取寬帶頻域求解的總仿真時間。

圖6 HPC 區(qū)域分解示意圖最新的HPC模塊增加了頻譜分解(SDDM)功能,支持離功掃頻與插值掃頻??勺詣訉拵哳l的各個頻點分配到多個處理器或計算機求解,并自動生成掃頻結(jié)果,極大減少了獲取寬帶頻域求解的總仿真時間。

 

圖7 頻譜分解技術(shù)——并行的掃頻方式分布式求解DSO技術(shù),與OPT模塊結(jié)合,可支持多參數(shù)的分布式掃描與計算, 將設(shè)計參數(shù)分配到多個處理器或計算機求解,加速設(shè)計參數(shù)掃描進程。

 

圖 8  分布式參掃技術(shù)——并行的參數(shù)掃描與加速2017版本以后,HFSS軟件增加了GPU加速的功能,可加速頻域FEM有限元的直接法求解與時域有限元模塊的求解。GPU加速功能的加入,并不會增加License的購買成本,而是免費提供。例如,客戶購買了一個8核的HPC,可調(diào)用一塊GPU顯示。如果購買更多的HPC,則每8個CPU,可搭配一個GPU使用。

圖 9  介質(zhì)諧振天線的頻域FEM求解

 

圖 10  探地雷達(dá)連接器等的時域有限元求解

 

3.2.硬件系統(tǒng)

  • 依據(jù)大規(guī)模電磁計算軟件的特點,采用普通刀片節(jié)點和胖刀片節(jié)點結(jié)合的集群方案,集群計算系統(tǒng)共可實現(xiàn)2240核CPU、12TB內(nèi)存資源總和,整體雙精度浮點計算理論峰值性能達(dá)到75萬億次每秒。

配置雙路胖刀片計算節(jié)點10臺(每臺512GB內(nèi)存), CPU采用Intel E5 V4系列,CPU總核心數(shù)達(dá)到560,總內(nèi)存數(shù)達(dá)到5TB,雙精度浮點計算峰值性能達(dá)到10.7萬億次每秒。該配置的刀片主要適用于內(nèi)存空間開銷非常大的電磁計算,并行前處理或DMP方式并行計算的問題的仿真計算。配置高性能圖形工作站10臺,用于仿真計算過程的建模與前處理等對圖形要求較高的工作,并且可以用于小規(guī)模問題的計算,提高高性能計算的靈活性。集群存儲采用分布式并行存儲系統(tǒng),裸容量200TB,提供集群軟件的基本共享存儲空間,及所有用戶數(shù)據(jù)的統(tǒng)一集中存儲和管理(各用戶的算例數(shù)據(jù)可共享也可私有)。集群配置管理/登錄節(jié)點2臺。集群滿載總功耗峰值按照集群配置核算,機房配電、冷卻、及電費與此密切相關(guān)。計算及存儲網(wǎng)絡(luò)采用100Gb/s EDR InfiniBand(為當(dāng)前業(yè)界帶寬最大且速度最快網(wǎng)絡(luò)),采用模塊化InfiniBand交換機,實現(xiàn)系統(tǒng)全線速交換。提供完備的集群系統(tǒng)軟件,包括:節(jié)點Linux操作系統(tǒng);供應(yīng)商集群操作系統(tǒng)應(yīng)提供系統(tǒng)監(jiān)控、管理、告警、統(tǒng)計、作業(yè)調(diào)度等功能和組件;OpenMP及MPI并行開發(fā)環(huán)境,GPU開發(fā)環(huán)境,以及其它相關(guān)的HPC開發(fā)運行環(huán)境。作業(yè)提交和管理軟件。實現(xiàn)所有日常計算作業(yè)的提交和作業(yè)管理,以及滿足某些不了解Linux的Windows用戶,在無需另外學(xué)習(xí)了解Linux的情況下,能有效便捷地使用Linux高性能計算集群。

 

  • 配置雙路普通刀片計算節(jié)點60臺(每臺128GB內(nèi)存), CPU采用Intel E5 V4系列,CPU總核心數(shù)達(dá)到1680,總內(nèi)存數(shù)達(dá)到7TB,雙精度浮點計算峰值性能達(dá)到64.5萬億次每秒。該配置的刀片主要適用于,絕大多數(shù)常規(guī)CAE流體、結(jié)構(gòu)、電磁等問題的仿真計算。

4.系統(tǒng)構(gòu)成

4.1.系統(tǒng)拓?fù)浣Y(jié)構(gòu)

圖11 高性能計算系統(tǒng)拓?fù)浣Y(jié)構(gòu)

 

4.2.計算系統(tǒng)

高性能計算應(yīng)用最為核心的需求仍然是計算能力,高性能計算機峰值計算能力代表著高性能計算機的整體處理能力,而對于大部分的高性能計算應(yīng)用,對計算資源的海量需求仍然是最為迫切和直接的需求。在高性能計算過程中,會進行大量的內(nèi)存訪問,對內(nèi)存的容量和訪問速度都有很高的需求。尤其隨著CPU多核化的快速發(fā)展,對內(nèi)存的訪問能力提出了新的需求,同時,隨著CPU的不斷升級,內(nèi)存通道的數(shù)量及內(nèi)存的頻率也在不斷升級。從應(yīng)用需求出發(fā),高性能計算機的部件及架構(gòu)要適合具體的高性能計算應(yīng)用。我們目前關(guān)注的電大尺寸復(fù)雜天線罩的結(jié)構(gòu)和電磁計算,需要大內(nèi)存、共享存儲擴展等需求,因此系統(tǒng)需要配置大內(nèi)存及多路胖節(jié)點,并考慮總體計算峰值??紤]到上述要求,本集群系統(tǒng)整體雙精度峰值達(dá)到75萬億次。共配置70片刀片服務(wù)器,配置雙路普通刀片計算節(jié)點60臺(128GB DDR4內(nèi)存),配置雙路胖刀片計算節(jié)點10臺(512GB DDR4內(nèi)存),這70片刀片安裝在高性能刀箱中。每個刀片服務(wù)器配置2顆14核Intel Xeon E5-2680 v4處理器,主頻2.4GHz。這樣的配置可以滿足我們未來五年的計算需求,實現(xiàn)大型電磁仿真計算。

4.3. 存儲系統(tǒng)

高性能計算集群在多個節(jié)點進行大規(guī)模并行計算的同時,需要進行大量文件及數(shù)據(jù)訪問,對于系統(tǒng)的存儲性能也提出非常高的要求。為保證參與計算的所有節(jié)點具有統(tǒng)一的文件映象,需要通過網(wǎng)絡(luò)文件系統(tǒng)來實現(xiàn),由于集群規(guī)模的增大和訪問性能的要求逐漸提高,并行文件系統(tǒng)在中大規(guī)模的高性能集群中使用越來越廣泛。對于某些規(guī)模較大集群,或者某些高IO應(yīng)用集群,由于對存儲的訪問量很大,對共享存儲的訪問性能也提出了較高要求,可以通過并行存儲系統(tǒng)來實現(xiàn)海量文件的并發(fā)讀寫。并且集群集中存儲的容量要求能夠適應(yīng)我單位的應(yīng)用要求。高性能集群承擔(dān)著重要的科研任務(wù),存儲的數(shù)據(jù)具有極高的價值,同時,存儲為全局系統(tǒng),一旦出現(xiàn)故障,將導(dǎo)致整個系統(tǒng)不可用。所以在存儲系統(tǒng)中,無論IO節(jié)點、存儲交換機、還是存儲磁盤陣列,存儲介質(zhì),每個環(huán)節(jié)都要盡可能的保證高可靠性和高可用性。可以通過冗余電源、高級別RAID、雙機熱備、數(shù)據(jù)備份等各種手段保證存儲系統(tǒng)的高可靠性。本方案采用1套分布式并行存儲系統(tǒng),作為集群共享存儲系統(tǒng),總?cè)萘窟_(dá)到200TB,并且具有可擴展性,滿足我單位未來五年的仿真設(shè)計要求。

4.4.網(wǎng)絡(luò)系統(tǒng)

4.4.1.管理網(wǎng)絡(luò)

本項目核心層采用一臺48端口千兆交換機。管理節(jié)點、登錄節(jié)點、刀片計算節(jié)點,采用千兆以太網(wǎng)絡(luò)直接連入千兆交換機,該方案在保證管理網(wǎng)絡(luò)性能的同時,為系統(tǒng)的擴充也預(yù)留了一定空間。

4.4.2.EDR InfiniBand計算/存儲網(wǎng)絡(luò)

以MPI為代表的并行高性能計算程序,在多節(jié)點并行運行時有頻繁大量的網(wǎng)絡(luò)數(shù)據(jù)通信,計算網(wǎng)絡(luò)的性能對并行程序的計算性能、并行加速比以及可擴展性有決定性的影響。這主要反映在兩方面。如果并行計算程序的數(shù)據(jù)通信以小數(shù)據(jù)包為主,且數(shù)據(jù)交換非常頻繁,這一類并行程序?qū)τ嬎憔W(wǎng)絡(luò)的延遲性能非常敏感,計算網(wǎng)絡(luò)的延遲越低,程序的并行性能越好;如果并行計算程序數(shù)據(jù)通信大數(shù)據(jù)包較多,則對計算網(wǎng)絡(luò)的帶寬性能敏感,計算網(wǎng)絡(luò)的帶寬越高,程序的并行性能越好。實際情況中,大部分并行應(yīng)用程序對計算網(wǎng)絡(luò)的帶寬和延遲性能都非常依賴,低延遲、高帶寬的計算網(wǎng)絡(luò)是大規(guī)模并行計算必不可少的要素。另一方面,目前大規(guī)模高性能計算集群均采用分布式并行存儲架構(gòu),集群的規(guī)模越大,或者應(yīng)用程序?qū)Υ鎯/O性能要求越高,則對并行存儲系統(tǒng)的存儲網(wǎng)絡(luò)性能要求越高,要求存儲網(wǎng)絡(luò)具有低延遲、高帶寬的特性。因此,本系統(tǒng)方案采用目前業(yè)界最高性能的100Gb/s InfiniBandEDR高速網(wǎng)絡(luò),用作并行計算程序的計算網(wǎng)絡(luò)以及并行存儲系統(tǒng)的存儲網(wǎng)絡(luò)。系統(tǒng)配置1臺108端口模塊化EDR InfiniBand交換機實現(xiàn)全線速交換。

4.5.管理服務(wù)節(jié)點

管理節(jié)點主要用于運行集群監(jiān)控管理軟件license、用戶信息管理服務(wù)、InfiniBand子網(wǎng)管理服務(wù)、作業(yè)調(diào)度服務(wù)、時間同步服務(wù)等集群系統(tǒng)服務(wù)。這些關(guān)鍵系統(tǒng)服務(wù)均配置為互備冗余模式,保障整個集群系統(tǒng)的高可用性。管理節(jié)點硬件本身也配置有冗余電源、本地硬盤RAID保護等可靠性保障措施。登錄節(jié)點主要用于用戶程序編譯、算例準(zhǔn)備,文件上傳下載,作業(yè)提交控制等用戶交互操作。登陸節(jié)點CPU與計算節(jié)點架構(gòu)相同,保障用戶編譯程序的執(zhí)行效率。登陸節(jié)點也可配置CPU、MIC和GPU等開發(fā)環(huán)境,方便用戶進行相關(guān)程序的開發(fā)調(diào)試。管理和登陸節(jié)點采用千兆直接接入集群管理網(wǎng)絡(luò),可通過獨立硬件負(fù)載均衡設(shè)備,實現(xiàn)用戶接入的動態(tài)負(fù)載均衡和高可用。

4.6.高性能圖形工作站

為符合工程仿真設(shè)計的應(yīng)用場景及要求,包括多人多任務(wù)操作、前后處理要求具有較好的圖形顯示功能、小規(guī)模問題計算等,此次平臺建設(shè)選擇多臺高性能圖形工作站配合刀片集群配合使用的方案。圖形工作站有出色的圖形處理能力,搭配工程師更為熟悉的Windows操作系統(tǒng),非常適合仿真設(shè)計中的前后處理等對圖形處理要求比較高的工作,尤其在對復(fù)雜天線罩建模的過程中,需要高性能的GPU支持才能有較好的設(shè)計體驗。

5.后注

高性能計算中心的配置屬于大型投資,需要應(yīng)用方和供應(yīng)商深度協(xié)作,達(dá)成符合應(yīng)用方需求的最佳配置和使用方式,這里只是將其搭建的各個方面簡單展現(xiàn),且高性能計算市場風(fēng)起云涌,變幻莫測,這里的信息以及是幾年前的建議,不具有實際操作價值,勿照搬本文所列配置。

相關(guān)推薦

電子產(chǎn)業(yè)圖譜

公眾號“老貓電磁館”主筆,仿真軟件專家,高頻電磁問題專家,從事電磁場仿真與天線設(shè)計工作近二十年,關(guān)注方向包括各類天線設(shè)計與優(yōu)化,高頻電磁兼容,強電磁脈沖防護,5G與物聯(lián)網(wǎng)等。愛好美的事物,喜歡用文字和光影與讀者交流,工匠精神,人文關(guān)懷,從心開始。