U-net
By Imagination is more important than knowledge (지식보다 상상) | 2021년 12월 2일 |
U-netImage segmentation with a U-Net-like architecture (keras.io)U-Net - Wikipedia U-net은 수축경로와 확장경로를 가지고 있다. U-net은 contracting pathway와 expansive pathway로 나누어진다. autoencoder구성과 유사한 점이 있다. 하지만, 서로 다른 것이다. Imagination is more important than knowledge (지식보다 상상) : 가장 쉬운 VAE (variational autoencoder) 예제 (egloos.com)Imagination is more important than knowledge (지식보다 상상) : 가장 쉬운 AE (autoencoder) 예제
가장 쉬운 denoising autoencoder
By Imagination is more important than knowledge (지식보다 상상) | 2020년 1월 12일 |
가장 쉬운 Denoising autoencoder 노이즈를 없애버리는 autoencoder, denoising autoencoder autoencoder의 변형으로 denosing autoencoder를 생각할 수 있다.아래의 왼쪽의 오염된 문서를 오른쪽의 문서로 변환하는 식으로 응용될 수 있다. denoising autoencoder 는 x-->x 가 아니라 x' --> x 가 되도록 훈련한 것. 여기서 x'은 노이즈를 가지고 있는 객체이다. 노이즈를 업애는 작업을 훈련시킬 수 있다.x'--> x가 되는 훈련을 시키면 된다. autoencoder: # get MNISTimport numpy as npfrom keras.datasets import mnist(x_t
가장 쉬운 Adversarial AutoEncoder (AAE)
By Imagination is more important than knowledge (지식보다 상상) | 2020년 1월 26일 |
가장 쉬운 Adversarial AutoEncoder (AAE) 데이터들 각각의 암호화와 복원의 과정을 통해서 일반적인 암호화와 복원의 규칙을 찾아내는 것이 autoencoder(AE)이다.보다 더 좋은 암호화와 복원의 방법으로 VAE(variational autoencoder)가 제안되기도 했다.VAE는 AE와 달리 latent space에 특정 분포함수를 만들어 내고자 한다. 하나의 점보다 더 일반적인 분포를 선택하는 것이다.이러한 목표는 보다 더 좋은, 더 일반적인 암호화 규칙을 의미한다. 따라서, VAE는 보다 더 좋은 생성모델이 될 수 있다. AAE(adversarial autoencoder)는 VAE와 다른 방식으로 암호화된 분포를 제어하는 방법이다.VAE에서 사용하는 KL divergence
가장 쉬운 GAN(generative adversarial network) 예제
By Imagination is more important than knowledge (지식보다 상상) | 2019년 11월 9일 |
가장 쉬운 GAN(generative adversarial network) 예제 아래의 컴퓨터 프로그램은 적대적 생성자 (GAN) 모델을 아마도 가장 쉽게 이해할 수 있게 해주는 것이다. 아래 그림에서 붉은색 sin 함수를 모양을 형성할 수 있는 데이터(alpha, beta)를 생각해 볼 수 있다.이들 데이터는, 그 이유를 알 수 없지만, sin 함수 관계를 만족하고 있다. 다시 말해서, 우리는 y=sin(x) 를 만족하는 데이터들을 가지고 있다. 생성자 모형을 이용하는 우리의 목표는 이들 데이터들과 아주 유사한 가짜 데이터를 만들어내는 것이다.즉, 아주 유사한 데이터를 위조해서 만들어 내는 것이다. [y=sin(x) 관계를 만족하는 데이터를 만들어 내는 것이다.]컴퓨터 계산으로 만들어낸 데이터들은