加入星計劃,您可以享受以下權(quán)益:

  • 創(chuàng)作內(nèi)容快速變現(xiàn)
  • 行業(yè)影響力擴散
  • 作品版權(quán)保護
  • 300W+ 專業(yè)用戶
  • 1.5W+ 優(yōu)質(zhì)創(chuàng)作者
  • 5000+ 長期合作伙伴
立即加入
  • 正文
    • |為生成式AI時代打造最強超級芯片平臺
    • |推出AI Workbench服務(wù),企業(yè)級AI項目本地也能開發(fā)部署
    • |萬億芯片老大,要用AI守擂
  • 推薦器件
  • 相關(guān)推薦
  • 電子產(chǎn)業(yè)圖譜
申請入駐 產(chǎn)業(yè)圖譜

老黃又來“搶錢”:英偉達再推超強芯片平臺,守住萬億芯片老大擂臺

2023/08/09
3199
閱讀需 12 分鐘
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論

文| Juny??編輯| VickyXiao

算力到服務(wù),英偉達AI賽道上毫不松懈。

在最近風(fēng)起云涌的AI圈里,每一片英偉達H100 GPU的走向都被大家緊盯著。原因無它,就因為H100是當(dāng)前進行人工智能訓(xùn)練的最強引擎。

如今,全球約90%以上的大模型都在使用英偉達的GPU芯片,作為生成式AI時代下最為關(guān)鍵的基礎(chǔ)硬件,幾乎所有人工智能企業(yè)都在四處搜尋H100的蹤影。一定程度上來說,誰擁有了更多的H100,誰就在當(dāng)前AI競賽中占據(jù)著上風(fēng)。

而今天,在洛杉磯的SIGGRAPH大會上,英偉達宣布了新一代GH200 Grace Hopper超級芯片平臺的到來。GH200專門為加速計算和生成人工智能時代而打造,旨在處理世界上最復(fù)雜的生成式人工智能工作負載,涵蓋大型語言模型、推薦系統(tǒng)和矢量數(shù)據(jù)庫,并將提供多種配置。

不僅僅只是超級芯片,圍繞著生成式AI的方方面面,英偉達今天還發(fā)布了一系列更新,包括全新AI服務(wù)平臺、推出了4款新顯卡、服務(wù)器等等,試圖全方位加速和簡化生成式AI項目的開發(fā)、訓(xùn)練、部署和應(yīng)用。

|為生成式AI時代打造最強超級芯片平臺

此次,全新的Grace Hopper 超級芯片該平臺配備了全球首款 HBM3e 處理器,通過大幅增加帶寬和內(nèi)存,將為更大的 AI 模型提供訓(xùn)練和計算能力。該配置經(jīng)過優(yōu)化,GH200還可以執(zhí)行 AI 推理功能,從而有效地為 ChatGPT 等生成式 AI 應(yīng)用程序提供支持。

英偉達之所以稱GH200為“超級芯片”,因為它將基于 Arm 的 Nvidia Grace CPU 與 Hopper GPU 架構(gòu)結(jié)合在了一起。GH200 與目前最高端的 AI 芯片 H100 具有相同的 GPU,H100 擁有 80GB 內(nèi)存,而新款 GH200 的內(nèi)存高達141GB同時與 72 核 ARM 中央處理器進行了配對。

新版本的GH200采用了全球最快的內(nèi)存技術(shù)HBM3e。英偉達表示,HBM3e內(nèi)存技術(shù)帶來了50%的速度提升,總共提供了10TB/秒的組合帶寬。因此,新平臺能夠運行比先前版本大3.5倍的模型,并以3倍的內(nèi)存帶寬提高性能。

擁有更大的內(nèi)存也意味著未來可以讓模型駐留在單個 GPU 上,而不必需要多個系統(tǒng)或多個 GPU 才能運行。

不僅能力得到了大幅提升,英偉達還Nvidia 還發(fā)布了NVIDIA NVLink?服務(wù)器設(shè)計對GH200進行了擴展。NVIDIA NVLink?將允許Grace Hopper超級芯片可以與其他超級芯片連接組合,這一技術(shù)方案為GPU提供了完全訪問CPU內(nèi)存的途徑。

英偉達表示,目前正在開發(fā)一款新的雙GH200基礎(chǔ)NVIDIA MGX服務(wù)器系統(tǒng),將集成兩個下一代Grace Hopper超級芯片。在新的雙GH200服務(wù)器中,系統(tǒng)內(nèi)的CPU和GPU將通過完全一致的內(nèi)存互連進行連接,這個超級GPU可以作為一個整體運行,提供144個Grace CPU核心、8千萬億次的計算性能以及282GB的HBM3e內(nèi)存,從而能夠適用于生成式AI的巨型模型。

GH200還能夠兼容今年早些時候在COMPUTEX上公布的NVIDIA MGX?服務(wù)器規(guī)格。有了MGX,制造商可以迅速且經(jīng)濟高效地將Grace Hopper技術(shù)整合到100多種服務(wù)器變體中。

NVIDIA首席執(zhí)行官黃仁勛強調(diào),數(shù)據(jù)中心需要應(yīng)對生成型AI的激增需求,因此也需要有更具針對性的加速計算平臺,GH200平臺正是為滿足這一需求而生。

“你幾乎可以將任何你想要的大型語言模型放入其中,它會瘋狂地進行推理。大型語言模型的推理成本將大幅下降,同時將大幅提高數(shù)據(jù)中心的運作效率和性能?!?/p>

目前,英偉達計劃銷售GH200的兩種版本:一種是包含兩個可供客戶集成到系統(tǒng)中的芯片,另一種則是結(jié)合了兩種 Grace Hopper 設(shè)計的完整服務(wù)器系統(tǒng)。

英偉達表示,全新的GH200將大大降低訓(xùn)練成本和提升訓(xùn)練速度,預(yù)計將于明年第二季度上市。

|推出AI Workbench服務(wù),企業(yè)級AI項目本地也能開發(fā)部署

除了全新的超級芯片平臺,英偉達今天還宣布了推出了一個新的AI服務(wù)——AI Workbench,這是一個易于使用的統(tǒng)一工具包,讓開發(fā)人員能夠在 PC 或工作站上快速創(chuàng)建、測試和自定義預(yù)訓(xùn)練的生成式 AI 模型,然后將其擴展到幾乎任何數(shù)據(jù)中心、公共云或NVIDIA DGX? 云。

英偉達認為,當(dāng)前企業(yè)級AI的開發(fā)過程太過繁瑣和復(fù)雜,不僅需要在多個庫中尋找合適的框架和工具,當(dāng)項目需要從一個基礎(chǔ)設(shè)施遷移到另一個基礎(chǔ)設(shè)施時,過程可能會變得更加具有挑戰(zhàn)性。

研究機構(gòu)KDnuggets曾進行過一個調(diào)查,80%或更多的項目在部署機器學(xué)習(xí)模型之前停滯不前。Gartner的另一項研究也顯示,由于基礎(chǔ)設(shè)施的障礙,有接近85%的大數(shù)據(jù)項目失敗。

總體來看,企業(yè)模型投入生產(chǎn)的成功率總體較低,世界各地的企業(yè)都在尋找合適的基礎(chǔ)設(shè)施來構(gòu)建生成AI模型和應(yīng)用。而此次,AI Workbench則為這個過程提供了簡化的路徑。

黃仁勛在會議上表示,為了推動AI技術(shù)普惠,必須讓其有可能在幾乎任何地方運行。因此,AI Workbench將支持在本地機器上進行模型的開發(fā)和部署,而不是云服務(wù)上。

AI Workbench提供了一個簡單的用戶界面,開發(fā)人員能夠?qū)⒛P?、框架?a class="article-link" target="_blank" href="/tag/SDK/">SDK 和庫從開源資源整合到統(tǒng)一的工作區(qū)中,可以在本地計算機上運行并連接到 HuggingFace、Github以及其他流行的開源或商用 AI 代碼存儲庫。也就是說,開發(fā)人員可以在一個界面上輕松訪問大部分AI開發(fā)所需資源,不用打開不同的瀏覽器窗口。

英偉達表示,使用 AI Workbench 的一些主要優(yōu)勢包括:

易于使用的開發(fā)平臺。 AI Workbench 通過提供單一平臺來管理數(shù)據(jù)、模型和計算資源,支持跨機器和環(huán)境的協(xié)作,從而簡化了開發(fā)流程。

與 AI 開發(fā)工具和存儲庫集成。 AI Workbench 與 GitHub、NVIDIA NGC 和 Hugging Face 等服務(wù)和 Git 服務(wù)器集成,用戶可以使用 JupyterLab 和 VS Code 等工具跨平臺和基礎(chǔ)設(shè)施進行開發(fā),具有高度的可重復(fù)性和透明度。

增強協(xié)作。該項目結(jié)構(gòu)有助于自動化圍繞版本控制、容器管理和處理機密信息的復(fù)雜任務(wù),同時還支持跨團隊協(xié)作。

訪問加速計算資源:AI Workbench 部署是客戶端-服務(wù)器模型,用戶能夠開始在其工作站中的本地計算資源上進行開發(fā),并隨著訓(xùn)練作業(yè)的規(guī)模擴大而轉(zhuǎn)向數(shù)據(jù)中心或云資源。

英偉達表示,目前戴爾、惠普、Lambda、聯(lián)想等人工智能基礎(chǔ)設(shè)施提供商已經(jīng)采用了 AI Workbench服務(wù),并看到了其提升最新一代多 GPU 能力的潛力。在實際用例中,Workbench 可以幫助用戶從單臺 PC 上的開發(fā)轉(zhuǎn)向更大規(guī)模的環(huán)境,在所有軟件都保持不變的情況下幫助項目投入生產(chǎn)。

|萬億芯片老大,要用AI守擂

此次,圍繞著生成式 AI 和數(shù)字化時代的開發(fā)和內(nèi)容創(chuàng)作,英偉達還一口氣推出了多項的新產(chǎn)品和服務(wù),可以說是涵蓋了生成式AI開發(fā)的方方面面。

在桌面AI工作站方面,推出了RTX 6000、RTX 5000、RTX 4500和RTX 4000四款新顯卡,旨在為全球?qū)I(yè)人士提供最新的 AI圖形和實時渲染技術(shù)。并基于新GPU推出了一套一站式解決方案 RTX Workstation。

針對 AI 訓(xùn)練和推理、3D 設(shè)計和可視化、視頻處理和工業(yè)數(shù)字化等計算密集型應(yīng)用的需求,推出了配備 Nvidia L40S GPU 的 Nvidia OVX 服務(wù)器,旨在加速多個行業(yè)的工作流程和服務(wù)。

發(fā)布最新版本的企業(yè)軟件平臺 Nvidia AI Enterprise 4.0,同時引入用于構(gòu)建和定制生成式 AI 基礎(chǔ)模型的端到端框架 Nvidia NeMo,旨在為企業(yè)提供在其運營中集成和部署生成式 AI 模型的工具,但以安全的方式和穩(wěn)定的 API 連接。

推出了GPU 加速的軟件開發(fā)套件和云原生微服務(wù) Maxine,讓專業(yè)人士、團隊和創(chuàng)作者能夠利用人工智能的力量并創(chuàng)造高質(zhì)量的音頻和視頻效果,從而改進實時通信服務(wù)。此外Nvidia Research 還宣布推出人工智能驅(qū)動的 3D 視頻技術(shù),在沉浸式通信領(lǐng)域取得進展。

隨著英偉達一個接一個新產(chǎn)品和新服務(wù)的揭曉,我們似乎也看到生成式AI的生產(chǎn)力爆炸時代正在加速到來。

在人工智能的驅(qū)動下,英偉達今年的來收益和股價節(jié)節(jié)攀升,公司市值一度突破萬億美元。但越是風(fēng)光,競爭對手就越是虎視眈眈。隨著人工智能芯片荒的加劇,巨頭們都開始加大投資、奮起直追。

比如,就在今天的大會不久前,AMD剛剛發(fā)布了自己“大模型專用”的AI芯片MI300X,直接對標(biāo)H100。此外,谷歌、亞馬遜、特斯拉等也都在設(shè)計自己的定制人工智能推理芯片。但目前來看,在越來越激烈的賽道上,跑在最前邊的英偉達絲毫沒有松懈。

靠AI“翻身”的英偉達,顯然還想要乘著AI的風(fēng)跑得更快、更遠。

*參考資料:Nivida Technical Blog

推薦器件

更多器件
器件型號 數(shù)量 器件廠商 器件描述 數(shù)據(jù)手冊 ECAD模型 風(fēng)險等級 參考價格 更多信息
LPC1768FBD100K 1 NXP Semiconductors RISC Microcontroller

ECAD模型

下載ECAD模型
$17.16 查看
AT90CAN128-16MU 1 Atmel Corporation RISC Microcontroller, 8-Bit, FLASH, AVR RISC CPU, 16MHz, CMOS, GREEN, MO-220VMMD3, QFN-64

ECAD模型

下載ECAD模型
$7.93 查看
ATMEGA88PA-MMHR 1 Atmel Corporation RISC Microcontroller, 8-Bit, FLASH, AVR RISC CPU, 20MHz, CMOS, PQCC28, 4 X 4 MM, 1 MM HEIGHT, 0.45 MM PITCH, GREEN, PLASTIC, VQFN-28
$2.43 查看
英偉達

英偉達

NVIDIA(中國大陸譯名:英偉達,港臺譯名:輝達),成立于1993年,是一家美國跨國科技公司,總部位于加利福尼亞州圣克拉拉市,由黃仁勛、克里斯·馬拉科夫斯基(Chris Malachowsky)和柯蒂斯·普里姆(Curtis Priem)共同創(chuàng)立。公司早期專注于圖形芯片設(shè)計業(yè)務(wù),隨著公司技術(shù)與業(yè)務(wù)發(fā)展,已成長為一家提供全棧計算的人工智能公司,致力于開發(fā)CPU、DPU、GPU和AI軟件,為建筑工程、金融服務(wù)、科學(xué)研究、制造業(yè)、汽車等領(lǐng)域的計算解決方案提供支持。

NVIDIA(中國大陸譯名:英偉達,港臺譯名:輝達),成立于1993年,是一家美國跨國科技公司,總部位于加利福尼亞州圣克拉拉市,由黃仁勛、克里斯·馬拉科夫斯基(Chris Malachowsky)和柯蒂斯·普里姆(Curtis Priem)共同創(chuàng)立。公司早期專注于圖形芯片設(shè)計業(yè)務(wù),隨著公司技術(shù)與業(yè)務(wù)發(fā)展,已成長為一家提供全棧計算的人工智能公司,致力于開發(fā)CPU、DPU、GPU和AI軟件,為建筑工程、金融服務(wù)、科學(xué)研究、制造業(yè)、汽車等領(lǐng)域的計算解決方案提供支持。收起

查看更多

相關(guān)推薦

電子產(chǎn)業(yè)圖譜