HBM3記憶體:突破更高頻寬

作者 : Frank Ferro,Rambus IP核心產品行銷資深總監

隨著資料中心對人工智慧和機器學習(AI/ML)的利用率越來越高,大量資料不斷被產生和消耗,對於資料中心快速而高效地儲存、移動和分析資料提出了巨大挑戰。

隨著資料中心對人工智慧和機器學習(AI/ML)的利用率越來越高,大量資料不斷被產生和消耗,對於資料中心快速而高效地儲存、移動和分析資料提出了巨大挑戰。

而中國的情況尤其如此:隨著中國不斷推進AI的發展,對高性能處理的需求持續增加,而傳統資料中心已然成為必須解決的瓶頸。為了因應這一挑戰,中國公佈了《新型資料中心發展三年行動計畫》。與傳統資料中心相比,新型資料中心具有高技術、高算力、高能效和高安全的特徵。

在市場需求和產業政策支持的雙驅動下,資料中心伺服器迫切需要更大的記憶體頻寬和容量,以更好地支援AI/ML的持續發展。

自2013年推出以來,高頻寬記憶體(HBM)日益被視為將資料中心伺服器和AI加速器的性能提升至新高度的理想方式之一。HBM是一種基於3D堆疊製程的高性能SDRAM架構,能夠實現巨大的記憶體頻寬。

2018年年底,JEDEC固態技術協會宣佈了HBM2E標準,以支援更高的頻寬和容量。HBM2E每個接腳的傳輸速率提升到3.6Gbps,可以實現每個堆疊461GB/s的記憶體頻寬。此外,HBM2E最高支援12個DRAM的堆疊高度,並且單堆疊記憶體容量高達24GB。

在HBM2E中,四個連接到處理器的堆疊將提供超過1.8TB/s的頻寬。透過記憶體的3D堆疊,HBM2E可以在極小的空間內實現高頻寬和高容量。在此基礎上,下一代的HBM3記憶體將資料傳輸速率和容量推向了新的高度。

HBM3 Memory Subsystem Example

新一代的HBM3記憶體子系統

新一代的HBM3於2016年正式發佈,大幅擴展記憶體容量、提升記憶體頻寬(512GB/s或更高)並降低了電壓與價格。高頻寬記憶體的密度增加推測是因為裸晶數量及其密度增加所致;業界現已開發出HBM3 DRAM 記憶體, 較上一代整體頻寬大幅提高。

Rambus HBM3記憶體子系統則針對高頻寬和低延遲進行了最佳化,能夠以緊湊的架構和高效能的封裝提供最佳的性能和靈活性。這一解決方案由完全整合的實體層(PHY)和數位控制器組成,包含完整的HBM3記憶體子系統。

相較於HBM2E,Rambus HBM3記憶體子系統將最大資料傳輸速率提高了一倍以上,達到每個資料接腳8.4Gbps (當此速度下的DRAM可用時)。該系統介面具有16個獨立通道,每個通道包含64位元,總數據寬度為1024位元。在最大資料傳輸速率下,可以提供1075.2GB/s的總介面頻寬,換言之,頻寬超過1TB/s。

這一記憶體子系統專為2.5D架構設計,帶有一個內插器,以在SoC上的3D DRAM堆疊和PHY之間傳輸訊號。同時,這種訊號密度和堆疊架構的組合還要求特殊的設計考量。為提高設計的易實施性和靈活性,Rambus對整個2.5D架構的記憶體子系統進行了完整的訊號和電源完整性分析,以確保滿足所有的訊號、電源和熱量要求。

本文原刊登於EDN China網站

加入LINE@,最新消息一手掌握!

發表評論