規格進度

版本 釋出 關鍵能力
CXL 1.1 2019 type-1/2/3 device,單一主機 attach 記憶體
CXL 2.0 2020 switch、pooling、hot-plug
CXL 3.0 2022 fabric、shared memory、PBR routing
CXL 3.1/3.2 2024-2025 更細顆粒度的 fabric、security 改進

紙上很美。實際呢?

實際部署現況

  • type-3(記憶體擴充):Samsung、SK Hynix、Micron 都有 CXL.mem 模組產品,部分超大客戶(Meta、Microsoft)有 production deployment,但「公開可買到的標準伺服器」極少。
  • type-2(加速器記憶體共享):NVIDIA 持續用自家 NVLink/NVSwitch;AMD MI 系列有限度支援。
  • CXL switch / fabric:主要 vendor 是 Astera Labs、XConn、Microchip。實際 production 規模仍小。

卡住的三件事

  1. CPU 原生支援:Intel Granite Rapids 與 AMD Turin 級才有比較完整的 CXL 2.0/3.0 控制器;之前的 CPU 跑 CXL.mem 是「能跑但有 caveat」。
  2. 作業系統:Linux kernel 對 CXL hot-plug、tiered memory、NUMA-aware migration 的支援還在快速演化。生產級 stability 尚未完全成熟。
  3. 總體經濟學:CXL.mem 的延遲(~100-200ns 額外)跟 DRAM 比起來不算離譜,但比 local DDR5 慢 1-2 倍。在哪些 workload 用 CXL pool 比直接堆本機 DRAM 划算——這道題目還沒有清晰答案,目前明顯划算的是「冷熱分層 + 大記憶體 inference」這類案例。

跟 SmartNIC / DPU 的交集

CXL 對 DPU 的影響有兩條:

  • DPU 變成 CXL host:BlueField-3 已經宣稱可作 CXL initiator,意義是 DPU 可以管理一池記憶體,從主機觀點看 DPU 既是 NIC 也是「另一個 NUMA node」。
  • CXL switch 取代部分 PCIe topology:未來 AI 伺服器內可能不再是「CPU → PCIe switch → GPU/NIC」,而是「CPU + GPU + NIC + memory pool」全部掛在 CXL fabric 上。這個願景需要 2-3 個世代的 silicon 對齊。

編輯部判讀

CXL 是「規格跑得很快、實際落地比較慢」的典型案例。短期內最務實的 CXL use case 是雲端 memory expansion(type-3),生態系成熟後才會輪到 fabric 級應用。台灣 retimer / signal integrity / packaging 廠商會是長線受益者。