데이터 꿈나무
[Deep Learning] Conv Net(feat. Max Pooling) 본문
마지막 부분(빨간색) 에 '1960 units'를 하나의 벡터(row 벡터)로 핀 후에, Neural Network에 넣어준다.
그리고 이것은 softmax의 입력으로 들어가게 된다.


📌 Tip !
모델이 깊어질 수록, 채널의 수는 증가하고, 요약된 이미지 크기(height, weight)는 줄어들게 하면 학습이 잘 이루어 진다.
Neural Network example

Max Pooling을 사용하는 이유는
필요 이상의 해상도 일 때, 필요하지 않은 해상도를 버리기 위해 사용한다.
필요하지 않은 해상도까지 사용하게 되면, 연산이 복잡해진다.
따라서, 연산량을 줄이고 그림의 크기를 줄이고자 사용한다.

'AI > Deep Learning' 카테고리의 다른 글
| [Deep Learning] Data augmentation (0) | 2024.03.24 |
|---|---|
| [Deep Learning] Inception Network (0) | 2024.03.23 |
| [Deep Learning] Optimizing Parameters (0) | 2024.03.21 |
| [Deep Learning] Feed Forward Networks (0) | 2024.03.19 |
| [Deep Learning] Linear Combination of Matrices(선형 결합) (0) | 2024.03.18 |
Comments