일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- C++
- Semiconductor
- 쿠버네티스
- cloud
- sycl
- GPU
- CuDNN
- HA
- FPGA
- 반도체
- nvidia
- CUDA
- jhVM
- flash_memory
- deep_learning
- POD
- 반도체기초
- 양자역학의공준
- Qubit
- DRAM
- SpMM
- quantum_computing
- stl
- dnn
- Compression
- kubernetes
- jhDNN
- convolution
- 딥러닝
- 클라우드
Archives
- Today
- Total
목록pytroch (1)
Computing

이전글 2022.03.29 - [Deep Learning/Optimization (Algorithm)] - Compression - 1 : Overview Pruning 기법 소개 이전글에서 소개한 Pruning 기법에 대하여 PyTorch framework를 통해 구현해 보고, 성능에 대하여 분석해보고자 한다. 많은 컴퓨터공학 전공자들은 Pruning(가지치기)이라는 개념을 tree 자료구조에서 탐색할 노드의 개수를 줄이는 방법에 대해 배울 때 배웠을 것이다. 딥러닝에서도 비슷한 개념으로 Fig 1.과 같이 딥러닝 layer(=graph)의 node(=feature)사이의 edge(=weights)를 제거하여 총 계산할 node(feature)의 개수를 줄이고자 한다. Pruning은 딥러닝 네트워크의..
Deep Learning/Optimization (Algorithm)
2022. 4. 29. 21:20