목록paper review (7)
rueki
ML, DL에서 가장 좋은 성능을 보일 수 있는 간단한 방법은 큰 모델을 학습시키는 것이다. 그러나 실제 환경에서 큰 모델을 사용하는 것은 자원의 한계가 있는 부분이 많기 때문에 사실상 어렵다. 그래서 나온 방법이 학습된 큰 모델을 작은 모델로 안의 내용을 전달, 즉 지식을 전달하는 프로세스를 적용한 Knowledge Distilation 기법이 나왔다. 이를 통해서 누릴 수 있는 효과는, 모델의 사이즈는 작은 것을 사용하지만 성능은 큰 모델과 최대한 유사한 성능을 낼 수 있다는 점이다. 큰 모델의 일반화된 부분을 작은 모델로 이전하는 방법은 큰 모델의 아웃풋을 작은 모델의 target 값으로 사용하는 것인데 이를 soft target이라고 한다. 여기서 전이시킬 때 큰 모델 학습시킬 때와 같은 데이터를..

Abstract 비디오 data에서 시간축에 대한 부분은 딥러닝에서 사실상 2d 공간정보를 다룰 때처럼 다루기도 했었는데, 이런 접근방법은 같은 장소일지언정, 임의의 프레임에서 객체 위치가 다르기 때문에 공간의 정보만으로는 각 프레임 간 연관성을 지으며 학습하기가 어렵다. 그래서 temporal한 정보를 학습하기 위해서 trajectory attention을 제안한다. Introduction Transformer에서 Attention 메커니즘은 데이터 간에서도, 도메인 간에서도 서로 잘 작동하게 되어있다. 그러나 inductive bias가 낮기 때문에 (새로 본 데이터에 대해서 추론할 수 있는 능력이 많이 부족함) 이를 보완할 수 있는 가장 단순한 방법은 데이터 양이 엄청 많거나, 도메인 확장이 이루어..
Wasserstein GAN에서 GAN의 loss 함수에 대해서 새로운 개념이 나왔는데, 이것과 이를 개선한 WGAN-GP라는 것을 알아보려고 이렇게 정리하게 되었다. WGAN을 이해하기 위해서 먼저 Earth Mover Distance에 대해서 알아보자. 예를 들어서 1이 적힌 박스가 7의 위치로 갈때 6만큼 이동하게 된다. 여기서 1의 박스는 가중치라고 생가하면 될 것 같다. 움직인 거리는 cost로 생각하자. 아래의 사진에서 보면 왼쪽 상단의 박스에 대해서 총 이동 거리를 계산해보면 박스 1은 1에서 7로 (6), 박스 4는 2에서 8로 (6), 박스 5와 6은 3에서 9로(6, 6), 박스 2와 3은 1에서 10으로(9) 이동해서 총 거리는 42가 된다. 그래서 transfort cost는 42로..

ICCV 2019에 나온 SinGAN에 대해 오늘 리뷰해보고자 한다. 기본적인 컨셉은 하나의 이미지로 훈련을 해서 생성을 하겠다라는 것이다. Unconditional GAN의 개념을 따르며, 네트워크 구조도 pyramid of fully convolutional Gan이라는 점이다. 1. introduction single natural image로 unconditional generation을 하는데 기존의 GAN은 많은 데이터가 학습에 필요했으며, 이 분포를 통해서 이미지를 생성해내곤 했다. 그러나 여기서는 하나의 이미지로 이미지 생성을 이루어내는데 이게 가능한 것은 네트워크 구조가 큰 특징인 것 같다. CNN기반의 피라미드 구조, 그리고 보통은 Generator 및 Discriminator 모델 크..