data augmentation
입력 이미지를 알고리즘을 동원해서 인위적으로 확장.
회전시키거나 이동 등 미세한 변화로 데이터 개수 늘림 / crop이나 flip 할수도 있음
VGG
기본적인 CNN의 층을 16층이나 19층으로 심화 (VGG16 / VGG19)
3x3의 작은 필터를 사용하는 합성곱계층을 연속으로 거침
합성곱 계층을 2~4회 연속으로 풀링계층을 두어서 크기를 반씩 줄이고
마지막에는 affine계층을 통과해서 결과 출력
GoogLeNet
가로 세로 층이 모두 깊음
1x1 크기의 필터를 쓰는 합성곱 계층을 많이 씀,
1x1 합성곱 연산은 채널 쪽으로 크기를 줄이는 거라서 매개변수를 없애고 빠른 처리에 기여
가로 방향에 폭이 있는 이 구조를 인셉션 구조라고 부름
크기가 다른 필터랑 풀링을 여러개 적용해서 결과 결합 > GoogLeNet은 이 구조를 하나의 구성요소로 사용
ResNet
층이 깊으면 성능이 좋아지지만 너무 깊어도 안되기 때문에 스킵 연결을 도입
스킵연결 입력 데이터를 합성곱 계층을 건너뛰고 바로 출력에 더하는 구조, 아무짓도 안하고 그냥 보냄
역전파 때 스킵 연결이 신호 감쇠를 막아줘서 층이 깊어도 학습을 효율적으로 할 수 있게 해줌
'CV > 밑바닥부터 시작하는 딥러닝' 카테고리의 다른 글
7장 합성곱 신경망 CNN (0) | 2021.02.18 |
---|---|
6장 학습 관련 기술들 (1) | 2021.02.13 |
4장 신경망 학습 (1) | 2021.01.23 |