有關(guān)人工智能(AI)快速發(fā)展的新聞報道層出不窮,與此同時,對先進、高效的硬件基礎(chǔ)結(jié)構(gòu)的需求也變得愈加迫切。大語言模型(LLM)越來越復(fù)雜,所需參數(shù)量每四到六個月就會翻一番。事實上,GPT-4的參數(shù)量超過一萬億!這個數(shù)字看似很直白,但其所對應(yīng)的數(shù)據(jù)量龐大到令人咋舌──2萬億字節(jié)就相當(dāng)于200,000張高分辨率照片或500,000個文檔。要想高效且穩(wěn)定地遷移如此龐大的數(shù)據(jù)集,就必須依賴于高可靠性、高帶寬的互連技術(shù)。