ODCC成果回顾:《CXL 应用技术研究报告》
开放算力中心委员会(ODCC)在2024年度正式发布了《CXL应用技术研究报告》成果。该项成果以CXL技术的应用为切入点,介绍了主流CXL设备的使用场景、应用范围和主要瓶颈。提出了一种基于CXL设备的解决方案,并对该解决方案的性能评估进行了验证。
CXL协议概述
CXL(Compute Express Link)是一种新型的高速互连标准,旨在解决算力中心内部处理器、加速器、存储器等各种设备之间的互连问题,具有如下优势:
更高的传输带宽:CXL协议的物理层采用PCIe5.0协议,因此在大规模数据传输的场景下,CXL协议能够以极快的速度进行数据传输。
更低的延迟:CXL技术可以将CPU、GPU、FPGA等计算设备与内存直接连接,避免了传统的I/O总线带来的时延,提高了计算效率。
更高的内存利用率:CXL协议支持池化技术,能够使得多台服务器共享CXL内存池,通过合理的算法让服务器错峰使用内存,能够极大地提升服务器的内存使用率。
研究报告提出了基于CXL设备的解决方案
CMM-D应用解决方案:包括CMM-DRedis和CMM-DDLRM。其中,CMM-DRedis以CXL Memory expander存储介质为依托,目的是增加Redis的数据存储能力,同时在大压力环境下大幅度提高Redis的吞吐量。在CMM-DDLRM方案中,通过引入并行映射、近似替换算法、流水线预取,从而提高DLRM模型训练的效率。
CMM-H应用解决方案:报告提出使用CMM-H优化Rocks DB读写性能,通过将WAL保存在CMM-HPM模式下,一方面可以保证WAL在掉电情况下的非易失性,另一方面还可以加快WAL的写入速度,进而提升整个Rocks DB读写性能。报告同时提出在实际业务场景中使用CMM-HPM来减少DAOS对DRAM和SSD的容量需求。一方面,持久化保证了小IO和非对齐数据即使在掉电后,也不会丢失,无需额外的WAL、Checkpoint软件开销,另一方面,作为内存,CMM-HPM的读写性能接近Memory,远高于SSD。
总结与展望
CXL协议除了本研究报告所应用的特性以外,更有许多新的特性值得进行进一步探索。以CXL池化技术为例,该项技术通过主机端共享CXL设备资源,从而实现跨服务器的资源共享,分配和管理,实现了真正意义上的“存算分离”,为算力中心降本增效提供了技术基础。展望未来,随着业界对CXL研究的持续加深,CXL技术在算力中心架构中的作用将变得至关重要,CXL设备的应用场景也将进一步得到拓展。
点击https://mp.weixin.qq.com/s/oxF7ea7ZaTbzWWDy_acNWw,下载文档
服务器工作组联系人
邵老师 13436424629 shaojianfeng@caict.ac.cn
ODCC秘书处
刘老师 13488889649(微信同号) 邮箱:liupengyun@caict.ac.cn