CXL(Compute Express Link)은 PCIe 기반의 차세대 인터커넥트 기술로, CPU와 가속기 간 메모리 공유 및 캐시 일관성을 지원하여 고성능 컴퓨팅과 데이터 센터 인프라를 혁신합니다.
CXL 1.0~3.0을 거치며 메모리 풀링, 패브릭 구성, 다중 호스트 환경을 지원하는 등 진화를 거듭해 왔으며, AI/ML, 클라우드, HPC 분야에서 핵심 기술로 자리 잡고 있습니다.


목차

  1. CXL이란 무엇인가?
  2. 기술 구조 및 작동 원리
  3. CXL 1.0과 1.1: 기술적 출발점과 한계
  4. CXL이 해결하는 문제와 기술적 장점
  5. 실제 적용 사례 및 산업 활용
  6. CXL 2.0과 3.0: 진정한 상용화를 향한 진화
  7. 향후 전망 및 엔지니어가 주목해야 할 포인트
  8. 참고 링크

1. CXL이란 무엇인가? (What is Compute Express Link?)

CXL(Compute Express Link)은 다양한 컴퓨팅 자원(CPU, GPU, FPGA 등) 간에 저지연, 고대역폭, 캐시 일관성이 보장되는 연결을 제공하기 위한 오픈 인터커넥트 기술입니다. Intel을 중심으로 2019년부터 개발되었으며, 업계 전반의 채택이 확산되고 있습니다.

  • 기반 기술: PCI Express (PCIe) 5.0 이상
  • 핵심 목적: CPU와 가속기, 메모리 장치 간 자원 공유 최적화

2. 기술 구조 및 작동 원리

CXL은 하나의 물리적 링크에서 3가지 프로토콜이 동시에 동작하는 멀티프로토콜 아키텍처를 기반으로 합니다.

🧩 CXL의 3가지 프로토콜

프로토콜 설명 사용 용도
CXL.io PCIe와 동일한 기능 수행 초기 장치 설정, 관리, I/O
CXL.cache CPU가 장치 메모리를 캐시 일관성 있게 접근 캐시 데이터 일관성
CXL.mem CPU가 장치 메모리를 직접 로드/스토어 메모리 확장, 공유

이 구조는 CPU와 가속기 간의 데이터 이동 최소화, 처리속도 향상, 메모리 자원 효율화를 가능하게 합니다.


3. CXL 1.0과 1.1: 기술적 출발점과 한계

⚙️ CXL 1.0 (2019년)

  • 최초 릴리즈 버전
  • CXL.cache와 CXL.mem의 프로토콜 구조 정의
  • PCIe 5.0 기반의 단일 CPU-장치 연결만 지원
  • 캐시 일관성 제공은 가능하지만, 스위칭이나 메모리 풀링은 미지원

⚙️ CXL 1.1 (2020년)

  • 1.0 기반 안정화 버전
  • 시그널링, 오류 처리, I/O 관리 등 하드웨어 구현 가능 수준으로 개선
  • 여전히 1:1 연결만 지원, 확장성은 제한적

🔍 CXL 1.x 버전의 한계

  • 멀티호스트 불가
  • 스위칭 및 Fabric 토폴로지 미지원
  • 메모리 풀링, Persistent Memory 미지원
  • 실제 데이터 센터 환경에는 적용이 어려움

4. CXL이 해결하는 문제와 기술적 장점

🔧 기존 시스템의 한계

  • 가속기는 독립된 메모리 공간을 사용 → 데이터 복사 비용 증가
  • CPU 메모리 확장 시 소켓 수 증가 → 전력 및 비용 증가
  • NUMA 기반 시스템의 복잡한 메모리 접근

✅ CXL의 기술적 이점

기능 기존 방식 CXL 도입 시
데이터 공유 복사 후 처리 직접 메모리 공유
캐시 일관성 소프트웨어 레벨 동기화 하드웨어 기반 일관성 보장
메모리 확장 CPU 기반 DRAM만 사용 장치 메모리 통합 가능
시스템 확장성 복잡한 버스 아키텍처 유연한 메모리 풀링 및 패브릭 구성

5. 실제 적용 사례 및 산업 활용

🏭 적용 분야

  • AI/ML: GPU, TPU 등 가속기와 CPU 간 파라미터 동기화
  • HPC (High Performance Computing): 병렬 연산 시 메모리 병목 해결
  • Cloud Infrastructure: 메모리 디스아그리게이션(Memory Disaggregation)
  • SmartNIC, DPU: 네트워크 및 스토리지 가속기와 CPU 간 효율적 연동

🏢 기업 도입 사례

기업 활용 방향
Intel CXL 호환 플랫폼 및 CPU 출시
Samsung / SK hynix CXL 기반 DRAM/SSD 메모리 모듈 개발
Microsoft / Meta / Google 메모리 풀링 및 패브릭 실증 테스트 진행
Dell / HPE / Lenovo CXL 지원 서버 라인업 준비

6. CXL 2.0과 3.0: 진정한 상용화를 향한 진화

🔁 CXL 2.0 (2020년)

  • 스위칭 지원: 여러 장치를 한 CPU와 연결
  • Persistent Memory 지원
  • 보안 강화: 암호화 및 접근 제어 기능 추가
  • Memory Pooling 도입

🌐 CXL 3.0 (2022년)

  • Fabric 구조 정식 지원: 다수의 CPU와 장치가 메모리 네트워크를 구성
  • 64 GT/s 대역폭: PCIe 6.0 수준
  • Multi-host, Multi-device 환경 최적화
  • Dynamic Capacity Device (DCD) 도입

📊 기술 스펙 요약

항목 CXL 1.0 CXL 1.1 CXL 2.0 CXL 3.0
Cache Coherency
Multi-device
Switch Support
Memory Pooling
Persistent Memory
Fabric Topology
Bandwidth 32 GT/s 32 GT/s 32 GT/s 64 GT/s

7. 향후 전망 및 엔지니어가 주목해야 할 포인트

🔮 기술 발전 방향

  • CXL + PCIe 6.0/7.0 결합으로 더욱 강력한 인터커넥트 가능
  • 서버 메모리 아키텍처의 전면적 변화 예고
  • CXL-Pooled Memory 기반의 클라우드 플랫폼 확산

📌 엔지니어를 위한 전략적 인사이트

  • 시스템 아키텍처 설계 시 CXL 기반 확장성 고려 필수
  • 기존 NUMA/DRAM 기반 설계 → CXL 기반 메모리 접근 모델로 리디자인
  • CXL-aware 소프트웨어 최적화 역량 확보 필요

8. 참고 링크

+ Recent posts