VAE - (3) Results
Previous Article: VAE - (2) Architecture 총 두가지 데이터셋에 대하여 학습을 진행하였다. 동일하게 100 epoch만큼 훈련시켰으며, 사용한 Adam Optimizer의 parameter는 beta1이 0.9, beta2가 0.999이다. batch 크기는 100, learning rate은 0.001로 설정하였다. MNIS
Previous Article: VAE - (2) Architecture 총 두가지 데이터셋에 대하여 학습을 진행하였다. 동일하게 100 epoch만큼 훈련시켰으며, 사용한 Adam Optimizer의 parameter는 beta1이 0.9, beta2가 0.999이다. batch 크기는 100, learning rate은 0.001로 설정하였다. MNIS
Previous Article: VAE - (1) Auto-Encoding Variational Bayes 다른 Auto Encoder와 마찬가지로 VAE도 여러 가지 Architecture로 구현할 수 있을 것이다. 다만, Fully Connected Layer로만 구성된 모델은 Image 데이터의 크기가 커질수록 성능에 한계가 있기 때문에 Convolu
어쩌다 보니 인턴을 시작한 지 한 달이 지났다. 그동안 VAE, WAE 등의 Auto Encoder 모델을 공부하였는데, 이번 글에서는 내가 주로 맡은 VAE에 대해 적어보고자 한다. Auto Encoder는 주어진 이미지를 낮은 차원의 latent vector로 mapping 하는 Encoder와, 이 latent vector를 다시 주어진 이미지와
Previous Article: DCGAN - (4) Generator 구현 tensorflow tutorial에서 제시하는 Discriminator Architecture는 좀 더 간단하며, 총 세가지의 layer로 이루어져 있다. Generator와 다르게 크기를 줄여나가야 하므로 일반적인 convolutional layer를 사용한다. tensorfl
Previous Article: DCGAN - (3) Architecture pytorch tutorial에서 제시한 celebA데이터의 경우에는 크기가 제법 되기에 1차적인 목표는 MNIST 데이터를 통해 구현해보는 것이다. MNIST data를 pytorch로 가져오는 방법은 여기, MNIST data에 대한 DCGAN model은 여기에 나와있다. A
Previous Article: DCGAN - (2) Architecture 이번 글에서는 DCGAN의 학습과정을 다뤄보자. 지금까지 그래왔듯이 pytorch구현을 위한 기술적인 부분은 미뤄두고, 개념만 다뤄볼 것이다. 기본적으로 Stochastic Gradient Descent(SGD)방법을 기반으로 하는 Adam Optimizer를 사용한다. SGD방법
Previous Article: DCGAN - (1) Generative Adversarial Networks 이번 글에서는 DCGAN이 어떠한 Architecture을 가지는지 알아보자. 기본적으로는 Deep Neural Network의 한 종류인 CNN(Convolutional Neural Network)의 구조를 가진다. DCGAN의 CNN은 Conv
인턴 1주 차 목표는 pytorch가 제공하는 DCGAN tutorial을 공부해오는 것이었다. 디테일한 코드보다는 용어의 의미와 전체적인 흐름 및 이론에 주목하여 살펴보도록 하자. GAN (Generative Adversarial Networks)먼저, GAN 이란 Generator와 Discriminator로 이루어진 Adversarial Network