본문 바로가기

딥러닝/CS1829

CS182 - [Lecture 8] Computer Vision 이번 강의에서는 computer vision이 사용되는 문제들에 대해 다룬다. 현재까지 우리는 이미지가 들어오면 해당 이미지의 label(class)를 분류하는 Object Classification 문제만 다루었다. 하지만 실제 computer vision이 사용되는(해결하고 있는) 문제들에는 Object Localization, Object Detection, Semantic Segmentation 등이 있다. Object Localization은 하나의 object에 대해 해당 object의 class와 좌표 및 크기를 구한다. 이때 object를 감싸고 있는 굵은 선으로 이루어진 네모 박스를 bounding box라 한다. Object Detection은 여러 object에 대한 class와 bo.. 2022. 7. 24.
CS182 - [Lecture 7] Getting Neural Nets to Train 이번 강의에서는 모델을 더 잘 학습시키기 위한 방법에 대해 배운다. 현재까지 배운 내용들을 모델에 적용시켰음에도 불구하고 모델의 성능이 좋지 않을 수 있다. 학습을 더 잘 시키기 위해서는 많은 '트릭'들이 요구되며, 우측 상단에 표시된 방법들에 대해 배울 예정이다. Part 1 Batch Normalization 모델의 학습을 어렵게 하는 요소로, 먼저 input과 관련된 요소를 살펴보자. 만약 two dimension(두 개의 features이라 생각해도 될 것 같다)을 가지는 input이 있다고 가정하자. 이때 우측 그래프와 같이 \(x_{1}, x_{2}\)의 magnitude 차이가 크다면 모델이 적절한 학습을 하기 어렵다. 좌측 상단에 표시된 \( \frac {dL}{dW}\)의 경우, Magn.. 2022. 7. 23.
CS182 - [Lecture 6] Convolutional Networks Part 1 Idea of Convolutional Networks 해당 챕터에서는 이미지 데이터에 좋은 성능을 보이는 Convolutional neural networks에 대해 배운다. 그전에, 이전 챕터에서 배운 neural network를 활용하여 이미지 데이터를 처리해보자. 이미지는 기본적으로 픽셀 단위의 가로와 세로, 그리고 rgb를 의미하는 채널로 이루어진다. 즉, 왼쪽의 강아지 이미지가 가로 세로 각각 128 픽셀을 가진다면, 이 이미지는 컬러 이미지이기 때문에 128x128x3의 크기를 가진다. 따라서 만약 x가 linear layer를 거쳤을 때 나오는 출력층 \(z^{(1)}\)의 크기가 64x1이라면 해당 linear layer의 크기는 128 x 128 x 3 x 64 가 되어 약.. 2022. 7. 10.
CS182 - [Lecture 5] Backpropagation Part 1 Neural Networks 이번 강의에서는 neural network의 구조와 파라미터의 업데이트 방법인 backpropagation에 대해 배운다. 먼저 neural network의 구조에 대해 살펴보자. 2개의 input으로 이루어진 x가 2개의 파라미터를 가진 모델에 입력되었을 때, MSE loss를 계산하는 과정을 도식화하면 다음과 같다. 최종적인 결과는 \( ||(x_{1}\Theta_{1} + x_{2}\Theta_{2}) - y||^{2} \)이 된다. 하지만 실제 계산에서는 각각의 원소에 대해 고려하는 것이 아닌, Input과 파라미터를 구성하는 여러 원소들을 하나의 vector 혹은 matrix로서 간주한다. 이에 따라 계산 과정을 도식화하면 위와 같으며, 곱은 dot pr.. 2022. 7. 2.