일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- Compression
- convolution
- jhDNN
- sycl
- DRAM
- cloud
- stl
- 반도체기초
- nvidia
- 반도체
- HA
- 쿠버네티스
- CuDNN
- FPGA
- SpMM
- deep_learning
- kubernetes
- POD
- 딥러닝
- dnn
- 양자역학의공준
- jhVM
- GPU
- CUDA
- flash_memory
- C++
- Semiconductor
- Qubit
- quantum_computing
- 클라우드
Archives
- Today
- Total
목록MatrixMultiplication (1)
Computing
SpMM - 1 : Introduction
Sparse Matrix Multiplication Matrix multiplication은 우리가 흔히 아는 다음 그림과 같은 행렬곱을 의미한다. Matrix multiplication(MM) 연산은 기존의 선형대수 관련 문제 계산, 3D graphics 뿐만 아니라 딥러닝에서도 활발하게 사용되고 있는 중요한 연산이다. 특히 딥러닝에서 convolution layer나 fully connect layer 연산을 MM 연산으로 변환하여 계산하고 있으며, 매우 많은 성능상의 이점을 보이고 있다. MM 연산은 operand인 행렬이 dense인지, sparse 인지에 따라 dense matrix multiplication 또는 sparse matrix multiplication으로 나뉜다. Dense vs...
Parallel | Distributed Computing/알고리즘
2022. 3. 22. 19:47