Supercomputing Conference 2025(SC25)在11月17日至20日舉行,原本是美國、日本、歐洲等各大專院校與研究單位交流以CPU為主的超級電腦的展覽,這幾年除了超級電腦外,AI伺服器已是另一個焦點。
仁寶表示,在SC25展出的焦點產品之一是10U 機架式旗艦 AI 伺服器,搭配英特爾CPU、採用輝達B300與NVL8(8顆輝達GPU互聯),系統可同時滿足AI訓練、推論與高效能運算(HPC)的雙重負載需求,在大規模模型運算中展現出更高的吞吐量與能源效率。
仁寶表示,另一款AI伺服器則是採用偏向於工作站設計的輝達RTX Pro6000、採輝達MGX架構,為4U 高密度設計,兼容 EIA 19 吋與ORv3 21吋機架,可支援多達八張RTX Pro 6000 GPU,內建輝達BlueField-3 DPU與輝達ConnectX-8 SuperNIC (內建 PCIe Gen 6 交換器),可支援AI 推論、代理式AI、數位分身、機器人模擬及科學運算等多樣應用。
在系統層面,仁寶在SC25攤位展示記憶體擴展與資料流通架構的現場示範,系統透過PCIe介面,在GPU記憶體與儲存層之間建立直接資料通道,並結合智慧型直接記憶體存取(DMA)卸載與低延遲資料傳輸設計,使傳統非揮發性記憶體通用介面(NVMe )的儲存區,轉化為具記憶體延伸屬性的儲存層,讓資料能以接近動態隨機存取記憶體(DRAM )的速度即時存取,同時有效降低CPU的運算負載。
此外,遠端直接記憶體存取(RDMA)技術透過高速互連技術(IB)或RoCE協定,可在伺服器與資料中心節點間直接搬移資料,實現跨節點記憶體共享與彈性資源配置。
仁寶認為,AI 資料中心的資料流通架構成果,協助資料中心從現有PCIe架構,邁向以GPU 直接儲存技術為核心的下一代高效能運算時代。
