일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- convolution
- jhDNN
- CUDA
- stl
- 쿠버네티스
- 클라우드
- GPU
- cloud
- Compression
- FPGA
- Semiconductor
- CuDNN
- kubernetes
- deep_learning
- 딥러닝
- Qubit
- 반도체기초
- jhVM
- HA
- DRAM
- flash_memory
- 반도체
- nvidia
- dnn
- C++
- quantum_computing
- 양자역학의공준
- POD
- sycl
- SpMM
Archives
- Today
- Total
목록집합통신 (1)
Computing

이전글 2022.04.04 - [Parallel Computing/개념] - Collective communication 이전에 collective communication 집합 통신에 대하여 정리한 적이 있었다. 집합 통신은 여러 개의 프로세스(or thread) 간의 데이터를 전송하는 통신 패턴을 의미하는 것으로, 2개의 프로세스간 통신(Point-to-point communication)과 대비되는 개념이다. 오늘은 이 여러 개의 GPU들간의 집합 통신을 구현한 NVIDIA NCCL에 대하여 정리하면서, NCCL의 집합 통신 최적화의 기본 아이디어인 Ring 기반 집합 통신 최적화 방법에 대해서도 정리하고자 한다. Collective Communication 집합 통신 2개의 프로세스간의 통신 패턴..
Parallel | Distributed Computing/개념
2022. 7. 22. 23:51