생성자와 판별자는 신경망과 같은 미분가능한 함수로 표현된다. 이 신경망은 각자 자신만의 비용 함수를 가진다. 판별자의 손실을 사용해 역전파로 두 네트워크를 훈련한다. 판별자는 진짜와 가짜 샘플에 대한 손실을 최소화하려고 노력한다. 반면 생성자는 자신이 생성한 가짜 샘플에 대해 판별자의 손실이 최대화되도록 노력한다.
이 구조가 다음 그림에 요약되어 있다.
생성자가 흉내 내려는 샘플의 종류는 훈련 데이터셋으로 결정된다. 조금 더 기술적으로 말하면 생성자의 목적은 훈련 데이터셋의 데이터 분포를 흉내 내는 샘플을 생성하는 것이다. 패턴 인식이 아닌 패턴을 합성하는 것을 학습한다.
<비용 함수>
앞서 설명한 두 가지 차이점은 GAN 훈련 과정에 큰 영향을 가져올 수 있다. 다음 그림은 비용 함수를 최소화 하는 최적화 과정을 보여준다.
'GAN > 이론' 카테고리의 다른 글
6. 훈련 평가 (0) | 2021.06.24 |
---|---|
5. DCGAN - 구현 (0) | 2021.06.23 |
4. DCGAN - 배치정규화 (0) | 2021.06.23 |
3. GAN 훈련 알고리즘 (0) | 2021.06.22 |
2. 생성자와 판별자 (0) | 2021.06.22 |