Fig. 1. GPU Architecture. 그림 1. GPU 아키텍처
Fig. 3. Thread allocation of the fully connected layer. 그림 3. 풀리 커넥티드 레이어의 스레드 할당
Fig. 2. Thread allocation of the convolution layer. 그림 2. 컨볼루션 레이어의 스레드 할당
Fig. 3. Branch divergence in the convolution layer. 그림 3. 컨볼루션 레이어에서의 branch divergence
Table 1. MNIST CNN architecture. 표 1. MNIST 분류 CNN 아키텍처
Table 2. Processing time of conventional CNN, zero-skipping CNN. 표 2. 기존의 CNN, zero-skipping CNN의 연산 시간 비교
Table 3. Processing time comparison. 표 3. 연산 시간 비교
References
- Kwanho Lee, "A Design of a SIMT architecutre based GP-GPU for parallel acceleration of algorithms," Master thesis, Seokyeong University, 2017.
- SeongHyun Han, Kwang-Yeob Lee "GPGPU performance enhancement through master scheduler design with priority," 2018 IKEEE Summer Conference. 2018.
- Albericio, Jorge, et al. "Cnvlutin: Ineffectualneuron-free deep neural network computing," ACM SIGARCH Computer Architecture News. Vol. 44. No. 3. IEEE Press, 2016.
- Sang-il Lee, Jun-Mo Jung, Kwang-Yeob Lee, "Implementation of Numerical CNN using GPGPU," 2017 IKEEE Summer Conference, 2017.