有關(guān)人工智能(AI)快速發(fā)展的新聞報(bào)道層出不窮,與此同時(shí),對(duì)先進(jìn)、高效的硬件基礎(chǔ)結(jié)構(gòu)的需求也變得愈加迫切。大語(yǔ)言模型(LLM)越來(lái)越復(fù)雜,所需參數(shù)量每四到六個(gè)月就會(huì)翻一番。事實(shí)上,GPT-4的參數(shù)量超過(guò)一萬(wàn)億!這個(gè)數(shù)字看似很直白,但其所對(duì)應(yīng)的數(shù)據(jù)量龐大到令人咋舌──2萬(wàn)億字節(jié)就相當(dāng)于200,000張高分辨率照片或500,000個(gè)文檔。要想高效且穩(wěn)定地遷移如此龐大的數(shù)據(jù)集,就必須依賴于高可靠性、高帶寬的互連技術(shù)。