본문 바로가기
공부자료/Deep Learning

분류 신경망 유형

by mogazi 2022. 9. 26.

 

 

  • LeNet-5

 

LeNet-5는 합성곱 신경망이라는 개념을 최초로 얀 르쿤(Yann LeCun)이 개발한 구조. 

 

LeNet-5는 합성곱(convolutional)과 다운 샘플링(sub-sampling)(혹은 풀링)을 반복적으로 거치면서 마지막에 완전연결층에서 분류를 수행한다.

 

 

 

 

구체적으로 살펴보면 C1에서 5×5 합성곱 연산 후 28×28 크기의 특성 맵(feature map) 여섯 개를 생성한다. 

 

 

S2에서 다운 샘플링하여 특성 맵 크기를 14×14로 줄인다.

 

다시 C3에서 5×5 합성곱 연산하여 10×10 크기의 특성 맵 16개를 생성하고, S4에서 다운 샘플링하여 특성 맵 크기를 5×5로 줄인다. 

 

 

 

 

 

C5에서 5×5 합성곱 연산하여 1×1 크기의 특성 맵 120개를 생성하고, 마지막으로 F6에서 완전연결층으로 C5의 결과를 유닛(unit)(또는 노드) 84개에 연결시킨다. 

 

 

 

 

이때 C로 시작하는 것은 합성곱층을 의미하고, S로 시작하는 것은 풀링층을 의미한다.

또한, F로 시작하는 것은 완전연결층을 의미한다.

 

 

 

 

 

 

 

 

 

 

 

  • AlexNet

 

AlexNet은 ImageNet 영상 데이터베이스를 기반으로 한 화상 인식 대회 ‘ILSVRC 2012’에서 우승한 CNN 구조이다.

 

CNN은 그림과 같이 3차원 구조를 갖는다는 것을 이해해야 합니다 (이미지를 다루기 때문에 기본적으로 3차원 데이터를 다룹니다). 

 

이미지 크기를 나타내는 너비(width)와 높이(height)뿐만 아니라 깊이(depth)를 갖습니다. 

 

 

 

보통 색상이 많은 이미지는 R/G/B 성분 세 개를 갖기 때문에 시작이 3이지만, 합성곱을 거치면서 특성 맵이 만들어지고 이것에 따라 중간 영상의 깊이가 달라집니다. 

 

 

 

 

 

 

 

 

AlexNet은 합성곱층 총 다섯 개와 완전연결층 세 개로 구성되어 있으며, 맨 마지막 완전연결층은 카테고리 1000개로 분류하기 위해 소프트맥스 활성화 함수를 사용하고 있다. 

 

 

전체적으로 보면 GPU 두 개를 기반으로 한 병렬 구조인 점을 제외하면 LeNet-5와 크게 다르지 않다. 

 

하지만 GPU 두 개를 사용하면서 연산 속도가 빨라졌다는 것은 그 당시 획기적인 기술이었다.

 

 

 

 

 

 

 

 

 

 

 

  • VGGNet

 

VGGNet은 합성곱층의 파라미터 개수를 줄이고, 훈련 시간을 개선하려고 탄생했다.

 

 

네트워크 계층의 총 개수에 따라 여러 유형의 VGGNet(VGG16, VGG19 등)이 있으며, 이 중 VGG16 네트워크의 구조적 세부 사항은 다음 그림과 같다.

 

 

VGG16에는 파라미터가 총 1억 3300만 개 있습니다. 

 

여기에서 주목할 점은 모든 합성곱 커널의 크기는 3×3, 최대 풀링 커널의 크기는 2×2이며, 스트라이드는 2입니다.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

  • GoogLeNet

 

 

GoogLeNet은 주어진 하드웨어 자원을 최대한 효율적으로 이용하면서 학습 능력은 극대화할 수 있는 깊고 넓은 신경망입니다.

 

 

 

깊고 넓은 신경망을 위해 GoogLeNet은 인셉션(Inception) 모듈을 추가했습니다. 

 

인셉션 모듈에서는 특징을 효율적으로 추출하기 위해 1×1, 3×3, 5×5의 합성곱 연산을 각각 수행합니다.

 

3×3 최대 풀링은 입력과 출력의 높이와 너비가 같아야 하므로 풀링 연산에서는 드물게 패딩을 추가해야 합니다. 

 

 

 

 

결과적으로 GoogLeNet에 적용된 해결 방법은 희소 연결(sparse connectivity)입니다. 

 

 

CNN은 합성곱, 풀링, 완전연결층들이 서로 밀집(dense)(정교하고 빽빽하게)하게 연결되어 있습니다. 

 

 

빽빽하게 연결된 신경망 대신 관련성(correlation)이 높은 노드끼리만 연결하는 방법을 희소 연결이라고 합니다. 

이것으로 연산량이 적어지며 과적합도 해결할 수 있습니다.

'공부자료 > Deep Learning' 카테고리의 다른 글

AR, MA, ARMA, ARIMA  (0) 2022.09.26
시계열 분석  (0) 2022.09.26
그래프 합성곱 네트워크  (0) 2022.09.26
전이학습  (0) 2022.09.26
1D, 2D, 3D 합성곱  (0) 2022.09.26