대규모 GPU 병렬 시스템에서 네트워크는 GPU 간 데이터 교환의 핵심 통로입니다. 비효율적인 네트워크 구성은 전체 시스템 성능의 병목으로 이어지므로, 네트워크 토폴로지, 인터커넥트 기술, 통신 프로토콜, 소프트웨어 최적화 전략 등을 종합적으로 고려하여 최적의 통신 환경을 구축하는 것이 중요합니다. 최신 기술 동향과 함께 다양한 통신 방식 및 최적화 기법을 자세히 살펴보겠습니다.

1. 왜 GPU 병렬 시스템에서 네트워크가 중요한가?

대규모 Deep Learning (DL) 모델 학습 및 High Performance Computing (HPC) 환경에서는 수많은 GPU가 협력하여 연산을 수행합니다. 이 과정에서 GPU 간의 빠르고 효율적인 데이터 동기화와 파라미터 교환은 전체 시스템의 성능을 결정짓는 핵심 요소입니다. 네트워크 성능이 뒷받침되지 않으면 아무리 많은 GPU를 사용하더라도 성능 향상에 제한이 발생합니다.

GPU 병렬 구조에서 발생하는 주요 병목 요소

병목 요소설명

GPU-to-GPU 대역폭 부족 PCIe 또는 NVLink 등의 인터커넥트 대역폭 한계
Host-to-GPU 복사 비용 CPU 메모리와 GPU 메모리 간 데이터 이동 시 발생하는 오버헤드
Cross-node 통신 지연 이더넷 또는 InfiniBand 등 노드 간 통신 시 발생하는 지연 시간 및 혼잡도
Collective 연산 병목 AllReduce, AllGather 등 집단 통신 연산 시 발생하는 성능 저하

2. 주요 네트워크 구성 방식 및 특징

대규모 GPU 병렬 시스템에서는 다양한 네트워크 구성 방식이 사용됩니다. 각 방식은 성능, 확장성, 비용 측면에서 Trade-off를 가지므로, 시스템의 요구 사항에 맞춰 적절한 방식을 선택해야 합니다.

GPU 통신 방식의 분류

통신 방식설명대표 기술/프로토콜

PCIe 기반 CPU를 중심으로 통신하며, GPU 간 직접 연결은 어렵습니다. CUDA-aware MPI
NVLink/NVSwitch 동일 서버 내의 GPU들을 고속으로 연결하여 높은 대역폭과 낮은 지연 시간을 제공합니다. NVIDIA NVLink
RDMA 기반 통신 CPU 개입 없이 GPU 또는 노드 간 직접적인 메모리 접근을 가능하게 하여 통신 지연 시간을 줄입니다. InfiniBand + GPUDirect
Ethernet 기반 범용적인 네트워크 구성을 제공하며, 비용 효율적인 구축이 가능합니다. RoCE (RDMA over Converged Ethernet)

GPU Cluster Network Topology

  • Fat-Tree: 대부분의 HPC 시스템에서 채택하는 구조로, 모든 노드가 가능한 짧은 경로로 연결되어 병목 현상을 줄입니다.
  • Dragonfly: 대규모 스케일 아웃 환경에 최적화된 토폴로지입니다.
  • Ring/Hypercube: 집단 통신(Collective Operation)에 유리한 구조입니다.

3. 통신 최적화 전략 (네트워크 관점)

네트워크 관점에서 대규모 GPU 병렬 시스템의 통신 성능을 극대화하기 위한 다양한 전략이 존재합니다.

3.1. GPUDirect RDMA 활용

  • 장점: CPU 메모리를 거치지 않고 GPU 메모리 간 직접 통신이 가능하여 통신 지연 시간을 크게 줄입니다.
  • 요구사항: NIC와 GPU가 동일 NUMA 노드에 위치해야 최적의 성능을 발휘합니다.

3.2. Collective 통신 최적화

  • AllReduce 알고리즘 선택: 작업 유형에 따라 Ring 기반, Tree 기반, 계층적 방식 등 최적의 알고리즘을 선택합니다.
  • 라이브러리 활용: NVIDIA NCCL, OpenMPI, Horovod 등은 GPU 환경에 최적화된 집단 통신 기능을 제공합니다.

3.3. Topology-aware 통신 설계

  • GPU 간 지연 시간과 대역폭 정보를 기반으로 통신 경로를 미리 설계하여 통신 효율성을 높입니다.
  • Slurm, Kubernetes 등 배치 시스템과의 통합을 통해 자동화된 최적화가 가능합니다.

3.4. Zero-copy 및 Pinned memory 활용

  • 데이터 복사 횟수를 최소화하고, 통신에 사용될 메모리를 고정(Pinned memory)하여 DMA 성능을 극대화합니다.

4. NCCL vs MPI vs SHARP: 통신 프레임워크 비교

항목NCCLMPI (CUDA-aware)Mellanox SHARP

최적화 대상 GPU 간 collective 통신 범용 메시지 전달 통신 Offload 기반 collective 연산
장점 NVLink/NVSwitch 최적화 지원 범용성, 다양한 네트워크 지원 Infiniband switch에서 연산 처리
단점 Non-NVIDIA 환경에서 제한적 상대적으로 지연 시간(Latency)이 클 수 있음 하드웨어 의존성 높음
사용 예시 PyTorch DDP, TensorFlow Horovod HPC, 기상, CFD 등 DGX SuperPOD 등 Mellanox 기반 시스템

5. 최신 기술 동향 및 미래 방향

더욱 빠르고 효율적인 GPU 간 통신을 위한 기술들은 꾸준히 발전하고 있습니다.

5.1. AI 전용 인터커넥트

  • NVIDIA Spectrum-X: AI 네트워크 최적화를 위한 고성능 이더넷 패브릭입니다.
  • Intel Gaudi 및 AMD ROCm: 자체 통신 백엔드를 탑재하여 NVLink와 유사한 성능을 목표로 합니다.

5.2. SmartNIC + DPU 활용

  • 통신 처리 부담을 NIC 레벨에서 오프로드하여 CPU 자원을 효율적으로 활용하고 통신 지연 시간을 줄입니다.
  • NVIDIA BlueField, Pensando, Intel Mount Evans 등 다양한 DPU (Data Processing Unit) 솔루션이 등장하고 있습니다.

5.3. Software-defined Network for AI

  • AI 워크로드의 특성에 맞춰 네트워크를 유연하게 구성하고 관리합니다.
  • 실시간 트래픽 재분배, QoS (Quality of Service) 제어 등을 통해 전체 시스템의 효율성을 향상시킵니다.

6. 대규모 GPU 통신 방식 요약 비교

분류특징성능 (Latency/BW)확장성비용주요 사용처

PCIe 일반 서버 간 연결 낮음 / 보통 낮음 저렴 중소 규모 실험
NVLink 고속, 동일 노드 내 연결 매우 낮음 / 높음 낮음 고가 동일 노드 병렬
InfiniBand + RDMA 고성능 분산 통신 매우 낮음 / 높음 매우 높음 매우 고가 대규모 AI 학습, HPC
RoCE Ethernet 기반 RDMA 중간 / 높음 높음 보통 클라우드 기반 환경
SmartNIC/DPU 오프로드 지원, CPU 우회 낮음 / 높음 높음 고가 AI 클러스터, DPU 기반 시스템

 

참고 링크


- [NVIDIA NCCL 공식 문서](https://docs.nvidia.com/deeplearning/nccl)
- [OpenMPI CUDA 지원 정보](https://www.open-mpi.org/faq/?category=building#build-cuda)
- [Mellanox SHARP](https://www.nvidia.com/en-us/networking/technologies/sharp/)
- [RDMA 사용 가이드 (ROCE/Infiniband)](https://rdma.readthedocs.io)
- [GPUDirect 기술 개요](https://developer.nvidia.com/gpudirect)

현대의 IT 환경에서 네트워크 인터페이스 카드(NIC)는 시스템의 성능과 효율성을 좌우하는 중요한 역할을 합니다. 그중에서도 SmarNIC(Smart Network Interface Card)과 SuperNIC(Super Network Interface Card)는 각각 독특한 강점과 특징을 가진 NIC 기술로 주목받고 있습니다. 이번 블로그 글에서는 SmarNIC과 SuperNIC의 특징과 장점을 살펴보고, 두 기술을 비교하여 어떤 환경에서 더 적합한 선택인지를 알아보겠습니다.

SmarNIC: 네트워크 효율성과 관리에 집중하다

SmarNIC은 데이터 패킷의 관리와 라우팅을 최적화하여 네트워크 작업의 효율을 극대화할 수 있도록 설계된 NIC입니다. 특히 고성능 애플리케이션의 안정성을 지원하는 QoS(Quality of Service)를 제공하며, 가상화 환경에서도 뛰어난 성능을 발휘합니다. 클라우드 기반 시스템을 사용하는 환경에서 매우 유용하게 활용될 수 있습니다.

SmarNIC의 가장 큰 장점은 네트워크 작업의 부하를 분산시키는 데 있습니다. 서버 CPU의 부담을 줄이고 시스템 전반의 성능을 향상시킴으로써 네트워크 병목 현상을 최소화합니다. 또한 안정적이고 빠른 데이터 전송을 실현하여 대규모 데이터 센터와 가상화 환경에서 매우 효율적으로 작동합니다.

하지만 초기 도입 비용이 비교적 높을 수 있으며, 특정 소프트웨어와의 호환성 문제가 발생할 가능성이 있다는 점은 고려해야 할 사항입니다.

SuperNIC: 초고속 데이터 처리의 중심

SuperNIC은 초고속 데이터 전송과 대용량 데이터 처리를 지원하는 NIC로, 빅데이터 분석 및 고성능 컴퓨팅 환경에서 탁월한 성능을 발휘합니다. 네트워크 연결의 초저지연(low latency)을 제공하며 대규모 작업에서도 안정성과 속도를 극대화할 수 있도록 설계되었습니다.

SuperNIC은 대량 데이터를 신속하고 효과적으로 처리하며, 이를 통해 복잡한 데이터 분석과 처리가 원활하게 이루어질 수 있습니다. 또한 빅데이터 환경과 초고속 컴퓨팅 작업에서 빠르고 안정적인 연결을 제공하여 대규모 프로젝트에서도 높은 신뢰성을 유지합니다.

그러나 높은 전력 소모와 하드웨어 요구 사양으로 인해 초기 설치 비용이 증가할 가능성이 있으며, 전력 효율성을 중요시하는 환경에서는 제한적으로 사용될 수 있습니다.

SmarNIC vs SuperNIC: 어떤 NIC가 더 나은 선택일까?

SmarNIC과 SuperNIC의 비교는 각 기술의 목적과 특징을 더 깊이 이해하는 데 도움을 줄 수 있습니다.

목표 지능형 네트워크 프로세싱 및 관리 초고속 데이터 전송 및 대용량 처리
적합한 환경 클라우드 및 가상화 환경 빅데이터 분석 및 고성능 컴퓨팅 환경
장점 효율적 네트워크 작업, CPU 부담 감소 빠른 데이터 처리와 안정성
한계점 도입 비용과 호환성 문제 높은 전력 소모와 하드웨어 요구 사양

두 기술은 각각의 강점을 가지고 있어 사용자가 직면한 요구 사항에 따라 선택이 달라질 수 있습니다. SmarNIC은 클라우드 기반 애플리케이션이나 가상화 환경에 적합하며 네트워크 효율성과 안정성에 초점을 맞추고 있습니다. 반면, SuperNIC은 빅데이터와 대규모 데이터 작업에서 높은 성능과 속도를 제공하므로, 초고속 처리와 안정성을 필요로 하는 환경에 적합합니다.

결론

SmarNIC과 SuperNIC은 현대 IT 환경에서 중요한 NIC 솔루션입니다. SmarNIC은 데이터 관리와 효율성 향상에 중점을 둔 기술로 가상화와 클라우드 기반 작업 환경에서 강점을 발휘합니다. SuperNIC은 초고속 연결과 대량 데이터 처리를 필요로 하는 고성능 컴퓨팅 환경에 더 적합합니다.

출처 : Napatech DN-1185 문서 참조 

* 한글번역본은 번역자료에 Napatech 디렉토리에서 확인 하시면 됩니다.

SOLUTION DESCRIPTION

4x TRex Performance Increase for Tx & Rx Napatech Link™ Capture Software for Intel® PAC with Intel Arria® 10 GX FPGA

Testing and validating network performance is of the utmost importance to network equipment manufacturers, operators and owners. In the past, the traditional approach to testing network performance was based on proprietary traffic generators. But while such solutions have indeed proved efficient for a long series of use cases, they either fall short or prove massively cost prohibitive when it comes to complex and realistic traffic generation.

To manage the cumulating density of functionalities and workloads, the industry now demands a testing regime that not only delivers outstanding performance – but also offers better scalability and drastic cost improvements.

TRex

TRex is an open source traffic generator developed specifically to address these shortcomings through an innovative and extendable software implementation. What differentiates TRex is its portability, cost, capacity and flexibility.

As for any other traffic generation solution, the ability for TRex to reliably generate packets at line rate across all packet sizes is paramount. Whether simply packet blasting or replaying PCAP files for testing, the ability to send traffic for small packets at the maximum speed is a prerequisite.

Traffic reception is also of critical importance. The ability to receive the generated traffic once it has traversed the Device Under Test (DUT) is the only way of measuring the effectiveness of the solution. If the traffic reception does not match the generation capabilities, testing is compromised as one cannot identify if it is the DUT that is dropping traffic or the test equipment itself.

Accelerated

TRex performance In addressing this challenge, Napatech has created a hardware acceleration solution that greatly increases TRex performance. This has been achieved by making the Napatech Link™ Capture Software available as an Acceleration Stack for the Intel® Programmable Acceleration Card (PAC) with Intel Arria® 10 GX FPGA.

Optimized for lossless transmit and receive, the solution demonstrates substantial performance advantages for TRex compared to a standard Network Interface Card (NIC):
• 2x traffic generation performance
• 4x traffic reception performance

Turning acceleration into value

These performance advantages ultimately allow you to:
• Maximize your server performance by improving CPU utilization
• Minimize your TCO by reducing number of servers, thus optimizing rack space, power, cooling and operational expenses
• Diminish your time-to-resolution, thereby enabling greatly increased efficiency

TRex generates layer 4-7 traffic based on pre-processing and smart replay of real traffic templates. TRex amplifies both client and server-side traffic. When running on the Intel PAC with Napatech Link™ Capture Software, TRex can both generate and receive traffic at 40G line rate regardless of packet size. This enables scalability both of bandwidth and feature complexities, thus providing businesses a highperformance and massively cost-efficient alternative to proprietary traffic generators.

TRex Stateless functionality includes support for multiple streams, the ability to change any packet field and provides per stream statistics, latency and jitter. Advanced Stateful functionality includes support for emulating L7 traffic with fully-featured scalable TCP layer.

Test configuration

The outstanding improvements achieved with this solution were demonstrated by comparing TRex performance running on a Dell PowerEdge R740 with a standard 40G NIC card and the Intel PAC. Test configuration: dual-socket Dell R740 with Intel® Xeon® Gold 6138 2.0 GHz, 128GB RAM running CentOS 7.5.

Key solution features

• Line rate network throughput for all packet sizes
• Lossless capture for perfect inspection and detection
• Onboard packet buffering during micro-burst or PCI Express bus congestion scenarios
• Advanced host memory buffer management for ultra-high CPU cache performance
• Packet classification, match/action filtering and zero-copy forwarding
• Intelligent and flexible load distribution to as many as 64 queues improving CPU cache performance by always delivering the same flows to the same cores

Napatech Link™ Capture Software for Intel® PAC

The Intel® Programmable Acceleration Card (PAC) with Intel Arria® 10 GX FPGA is a PCIe-based FPGA accelerator card for data centers supporting both inline and lookaside acceleration.

As the leader in FPGA-based SmartNIC software and hardware, Napatech has made its Link™ Capture Software available as an Acceleration Stack for the Intel PAC.

Napatech’s Reconfigurable Computing Platform flexibly offloads, accelerates and secures open, standard, high-volume and low-cost server platforms allowing them to meet the performance requirements for networking, communications and cybersecurity applications.

TRex

TRex is an ideal example of the type of critical enterprise security application that can achieve better performance through hardware acceleration with the Intel PAC and Napatech dataplane software.

TRex is an open source, low cost, stateful and stateless traffic generator. Typical use cases include:

• Creating high scale benchmarks for stateful networking gear, e.g. firewalls, DPI, IPS and load balancers
• Simulating high scale DDOS attacks
• Performing high scale, flexible testing for switches
• Performing scale tests for huge numbers of clients/ servers for controller-based testing
• Performing EDVT and production tests

TRex can be compiled with native support for hardware acceleration based on the Intel hardware and Napatech software. Instructions specific to building TRex with support for Napatech are listed in the Installation Quick Guide available at the Napatech Documentation Portal.


 

* Napatech Virtualization SmartNIC과 관련된 Hardware 자료입니다.

SmartNICs for Reconfigurable Computing

NT200B01
2-PORT 2x100G PCIe GEN3

 

THE NAPATECH NFV SmartNIC


Consolidate your network functions virtualization (NFV) performance with high-end technology designed specifically for NFV. The Napatech NFV SmartNIC is a common hardware platform that supports multiple SmartNIC solutions for virtualized environments. Based on a Xilinx UltraSCALE FPGA, the NFV SmartNIC is production-ready and can be reconfigured on-the-fly to support specific SmartNIC functionality.

Supporting from 1G to 100G data rates, the NFV SmartNIC is a versatile and flexible platform that can be used in multiple network locations. The programmability and reconfigurability of FPGAs can be exploited to extend the lifetime of the NFV SmartNIC and server hardware by allowing capacity, features and capabilities to be extended in line with data growth and new industry standards and demands.

Specific SmartNIC solutions are delivered as FPGA images that can be downloaded to the NFV SmartNIC to support the given application.

 

FEATURE HIGHLIGHTS

• Supports multiple solutions on-the-fly The re-configurable FPGA technology allows multiple SmartNIC solutions to be deployed on-the-fly.
• Supports multiple rates at various locations Designed to support multiple data rates including 8x10Gbps, 4x10Gbps, 8x25 Gbps, 2x40 Gbps, 2x50 Gbps and 2x100 Gbps.
• Extends hardware lifetime and improves TCO Can be upgraded on-the-fly with increased capacity, functionality and capabilities. This extends the lifetime of your infrastructure, reducing capital expenditure needs and operational costs.
• Enables centralized automation and management Facilitates centralized automation and management as it supports multiple virtual services, applications and functions using the same hardware platform.

 

NAPATECH-SmartNIC SOLUTIONS

Napatech SmartNIC solutions are designed specifically for virtual environments. Examples include:

• Open Virtual Switch (OVS) SmartNIC Solution Napatech OVS SmartNIC Solution enables full throughput data delivery to virtual functions with zero packet loss at high-speed, using only a single CPU core and without the need to bypass or fully offload the virtual switch to the NIC.
• Hardware SmartNIC Solutions Napatech Hardware SmartNIC Solutions provide common data processing services, such as encryption and compression, that can operate at high data line rates using only a single CPU core.

 



SPECIFICATIONS

GENERAL FEATURES

• Full line-rate processing for all frames from 64 bytes to 10,000 bytes - keep or discard erroneous frames
• IEEE standard: IEEE 802.3 2x100 Gbps Ethernet support
• Network interface: 2 × QSFP28 ports
• Supported QSFP28 modules:100GBASE-SR4 and 100GBASE-LR4
• Data rate: 2x100 Gbps
• Typical CPU load: < 5%
• Time formats: PCAP-ns/-µs and UNIX 10 ns
• Time stamp resolution: 1 ns
• Pluggable options for IEEE 1588-2008 PTP and PPS time synchronization


SmartNIC SOFTWARE

• Operating systems: Linux
• Napatech API for high performance and advanced features
• libpcap
• SDK tools included in source code for debugging and prototyping and as application examples


SmartNIC HARDWARE

• Bus type: 16-lane 8 GT/s PCIe Gen3*
• 5 GB onboard DDR4 RAM
• Flash: Support for two boot images
• Built-in thermal protection
• Physical dimensions: ½-length and low-profile PCIe
• Weight excluding pluggable modules:
• NT200B01: 455 g
• MTBF according to UTE C 80-810:
• NT200B01: TBD hours
• Power consumption including 2 x QSFP28: 
• NT200B01: max 75 Watts * To enable the throughput of 16-lane PCIe Gen3, the COTS server must support PCIe bifurcation.


ENVIRONMENT FOR NT200B01

• Operating temperature: 0 °C to 45 °C (32 °F to 113 °F)
• Operating humidity: 20% to 80%

REGULATORY APPROVALS AND COMPLIANCES

• Please contact Napatech for more information

아래 내용은 Napatech의 고성능 Packet Capture Card를 사용하기 위한 Software Package 설치에 필요한 사전 준비사항과 설치 방법에 대한 내용을 정리한 것입니다.


Installing the Napatech Linux Driver and the Tools


In this chapter

This chapter explains how to install the Napatech Linux Driver and the tools.
Compile and Install the Linux Driver and the Tools

Before you begin

For more information about supported versions of Linux, please refer to the relevant Release Summary.
The following are required in order to build and install the driver software:

·         Linux kernel development headers

·         GCC version 4.0 or later

·         GNU make

The following are required in order to build and install libpcap:

·         GCC version 4.0 or later

·         GNU make

·         flex and bison or lex and yacc. Some versions of lex are insufficient to compile libpcap;
         if this is the case, install 
flex and bison.


The following libraries are needed to run the tools:


·        
glibc version 2.5 or later

·         ncurses version 5.0 or later (only applies to the monitoring and profiling tools)

Note: Root privileges are required for installing and compiling the Linux driver and the tools.


Steps

To install the Napatech Linux driver including libraries, tools, and optionally libpcap:

Procedure

1.       Download the product package from supportportal.napatech.com (the Napatech Support Portal).

2.       Unpack the product package.

$ tar xzf ntanl_package_3gd-x.y.z-linux.tar.gz
$ cd ntanl_package_3gd-x.y.z-linux


The unpacked product directory contains:

·         A PDF with product package release notes

·         readme_3gd-x.y.z.txt, describing the product package content

·         package_install_3gd-x.y.z.sh, a product package install script.

·         documentation subdirectory.

·         source_rpm subdirectory with sample source RPMs for the driver and tools components.

·         A subdirectory for each product package component, in general containing release notes and an installer file 
         for the component.

3.       Install the Napatech driver and tools in one of these ways:


·        
By running the product package installer script package_install_3gd-x.y.z.sh, located in the root directory.
          This will install the driver software, the tools, documentation, FPGA images and imgctrl, and optionally a
          version of libpcap.

·         By running installer scripts for the individual components.

·         For the driver and tools packages, by building RPM packages from source RPM packages and installing the
          resulting RPM packages.

4.       Install by running the product package installer script:


$ sudo package_install_3gd-x.y.z.sh


If the product package installer script detects that a version of the driver software is already installed, you will be offered the choice between updating the existing installation, deleting the existing installation before commencing, or quitting the installation script.


You will be offered the option of installing a version of libpcap with Napatech extensions. For more information about libpcap with Napatech extensions, please refer to DN-0428.


5.      
Alternatively, install by running individual component installer scripts:


a.           
To compile and install the driver, execute the driver install script:


$ cd software

$ sudo nt_driver_3gd_linux-x.y.z-short-sha1.run


To get information about driver install script options,

run nt_driver_3gd_linux-x.y.z-short-sha1.run –help

For instance, the --installpath <directory> option allows you to select a user-defined installation directory instead of /opt/napatech3/.


b.          
To install the tools, execute the tools install script:


$ cd tools

$ sudo nt_tools_3gd_linux-x.y.z-short-sha1.run


To get information about tools install script options, run 
nt_tools_3gd_linux-x.y.z-short-sha1.run --help


6.      
Alternatively, for the driver and tools packages, by building RPM packages from source RPM packages and installing the resulting RPM packages. This process is described in Building and Installing RPM Packages for the Napatech Driver and Tools.


7.      
Optionally, to list installed Napatech SmartNICs, run the imgctrl tool with root privileges:


$ sudo /opt/napatech3/bin/imgctrl –q


imgctrl v3.5.5.3-38534 (Sep 29 2017 08:15:04) (Logfile: /tmp/imgctrl.log)

Scanning for Napatech adapters..
Adapter 0:
     PCI SLOT        : 0000:00:09.0
     PCI DEVICE ID   : 0175
     PCI LANES       : x8
     ADAPTER TYPE    : NT20E3_2_PTP_NEBS PCI Express Gen3 2x10Gb SFP+ platform
. . .


imgctrl
 is a stand-alone tool for updating and controlling the FPGA firmware on Napatech SmartNICs. As a security measure, imgctrl will not run if the Napatech kernel mode driver is loaded.
Please refer to DN-0487 for more information about the 
imgctrl tool.


Results

The /opt/napatech3/ directory (or a user-defined one) including subfolders is created; and the driver is installed and compiled to match the target Linux kernel version.

 

출처 : https://docs.napatech.com/reader/Uv567tRMiPssSRRWlhc_3A/Y_KXPO0Zr093XtARORd3PQ

 

+ Recent posts