FCN 2

Week 11/12/13 - Semantic Segmentation - FCN 한계점

지난 글에서 요악한 FCN은 Transpose Convolution과 1x1 Convolution을 사용해 다양한 size의 feature map을 잘 섞어서 활용하였다. 이번 포스팅에서는 FCN의 한계점을 살펴보자. 1. 객체의 크기가 크거나 작은 경우 예측을 잘 하지 못한다. -> 한마디로 너무 작거나 큰, 그런 극단적인 상황은 예측을 잘 하지 못한다. 왼쪽의 예시를 보면 object가 이미지의 거의 90프로를 차지할정도로 크다. FCN을 사용하면 이런 큰 scale을 바라보지 못하고, 오히려 유리창에 비친 자전거등을 인식하는 경우도 발생한다. 마찬가지로 물체가 너무 작을때도 문제가 발생한다. 작은 object는 무시되는 문제가 생기는데 이는 upconvolution 과정에서 pooling과정에서 국..

Week 11/12/13 - Semantic Segmentation - FCN

FCN : Fully Convolutional Network FCN은 Semnatic Segmentation task의 시초격인 모델이다. 초기 모델인 만큼 단점도 많지만 중요한 contribution 2개를 남겼다. 주요 Contribution 1. 1x1 Convolution 여기 32x32(HxW) x 512(C)의 shape를 갖는 feature map이 존재한다. 이 feature block을 fully connected layer에 집어 넣기 위해서는 Flatten해야 한다. 이 과정에서 32x32x512 = 524288의 1D vector가 생성되고 이 과정이 반복되면 될수록 pixel의 위치정보는 사라진다. 1x1 Conv를 사용하면 Resolution을 그대로 유지하면서 채널수만 원하는 ..