規格進度
| 版本 | 釋出 | 關鍵能力 |
|---|---|---|
| CXL 1.1 | 2019 | type-1/2/3 device,單一主機 attach 記憶體 |
| CXL 2.0 | 2020 | switch、pooling、hot-plug |
| CXL 3.0 | 2022 | fabric、shared memory、PBR routing |
| CXL 3.1/3.2 | 2024-2025 | 更細顆粒度的 fabric、security 改進 |
紙上很美。實際呢?
實際部署現況
- type-3(記憶體擴充):Samsung、SK Hynix、Micron 都有 CXL.mem 模組產品,部分超大客戶(Meta、Microsoft)有 production deployment,但「公開可買到的標準伺服器」極少。
- type-2(加速器記憶體共享):NVIDIA 持續用自家 NVLink/NVSwitch;AMD MI 系列有限度支援。
- CXL switch / fabric:主要 vendor 是 Astera Labs、XConn、Microchip。實際 production 規模仍小。
卡住的三件事
- CPU 原生支援:Intel Granite Rapids 與 AMD Turin 級才有比較完整的 CXL 2.0/3.0 控制器;之前的 CPU 跑 CXL.mem 是「能跑但有 caveat」。
- 作業系統:Linux kernel 對 CXL hot-plug、tiered memory、NUMA-aware migration 的支援還在快速演化。生產級 stability 尚未完全成熟。
- 總體經濟學:CXL.mem 的延遲(~100-200ns 額外)跟 DRAM 比起來不算離譜,但比 local DDR5 慢 1-2 倍。在哪些 workload 用 CXL pool 比直接堆本機 DRAM 划算——這道題目還沒有清晰答案,目前明顯划算的是「冷熱分層 + 大記憶體 inference」這類案例。
跟 SmartNIC / DPU 的交集
CXL 對 DPU 的影響有兩條:
- DPU 變成 CXL host:BlueField-3 已經宣稱可作 CXL initiator,意義是 DPU 可以管理一池記憶體,從主機觀點看 DPU 既是 NIC 也是「另一個 NUMA node」。
- CXL switch 取代部分 PCIe topology:未來 AI 伺服器內可能不再是「CPU → PCIe switch → GPU/NIC」,而是「CPU + GPU + NIC + memory pool」全部掛在 CXL fabric 上。這個願景需要 2-3 個世代的 silicon 對齊。
編輯部判讀
CXL 是「規格跑得很快、實際落地比較慢」的典型案例。短期內最務實的 CXL use case 是雲端 memory expansion(type-3),生態系成熟後才會輪到 fabric 級應用。台灣 retimer / signal integrity / packaging 廠商會是長線受益者。