본문 바로가기
IT공부/인공지능-딥러닝,머신러닝

2. 딥러닝 이론

by 초보전산 2023. 4. 25.
반응형

1. 주요 딥러닝 모델

 1.1 '특징'에 따른 CNN

 1.2 '생성'에 따른 GAN, Auto Encoder

 1.3 '메모리'에 따른 RNN

 

 

2. 신경망 학습 매커니즘

신경망 학습 매커니즘

 

3. CNN (이미지)

  -Convolution Layer 와 Pooling Layer로 구성된, 이미지 처리에 좋은 성능을 가지는 인공신경망

  -Convolution Layer : 컨볼루션 연산(필터연산)을 통해 특징(feature)를 추출하는 레이어

  -Pooling Layer : Sub sampling 통한 차원의 축소로 max-pooling, average-pooling 활용

  -Fully connected layer : 이전레이어의 모든 처리결과를 하나로 연결하여 이미지의 특징을 구분

  -패딩(Padding) : 입력 이미지 주변을 0으로 감싸서, 이미지 크기가 줄어드는 것을 보완

  -스트라이드(Stride): 컨볼루션 연산 시, 픽셀을 건너뛰는 단위

Convolution Neural Network

  ->전이학습(Transfer Learning, Fine Learning): 기존의 모델을 사용하여 새로운 모델을 만드는 방법

      GooLeNet, VGGNet, ResNet,MNIST Classification

 

4. GAN (생성)

 -이미지/영상을 생성하는 생성자(Generator)와, 이미지의 진짜/가짜를 판별하는 판별자(Discriminator)가

  상호경쟁하며 정확성을 높이는 머신러닝 알고리즘

 -GAN을 활용하여 유명화풍을 반영한 이미지생성, 웹툰제작 등 다양한 컨텐츠를 제작 가능

 -판별자(Discriminator): 클래스 간의 경계를 학습, 이미지의 정답 값으로 부터 피드백

 -생성자(Generator): 각 클래스의 분포를 모델링, Discriminator로부터 피드백

Generative Adversarial Networks

5. 오토인코더 (AutoEncoder)

 -MNIST

 

6. RNN (메모리)

 -유닛 사이의 연결이 Directed Cycle을 형성하며, 자신을 가리키는 Recurrent Weight을 포함하는 신경망 알고리즘

 -오류 역전파를 확장한 알고리즘(시간 방향 학습)

Recurrent Neural Network

 -> 시간이 흐름에 따라 역전파 에러신호가 급격히 증가 -> GRU, LSTM 으로 해결

 -LSTM(Long Short Term Memory) : Input,Output,Forget 3가지의 Gate로 이루어진 알고리즘

 -GRU(Gated Recurrent Unit) : Reset게이트(r)와 Update게이트(z)로 구성

반응형

댓글