250x250
반응형
Notice
Recent Posts
Recent Comments
Link
«   2024/12   »
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31
Archives
Today
Total
관리 메뉴

개발자라면 한번쯤은 보러오는 곳

[Computer Vision] Regression 본문

학교 수업/Computer Vision

[Computer Vision] Regression

okpyo11 2022. 10. 21. 15:13
728x90
반응형

Linear Functions

- 파라메타(베타)를 전치시키고 곱해주면 함수의 꼴로 표현 할 수 있다. 이러한 파라메타를 찾는것이 목표

- 입력값 x는 한개만 존재하는 것이 아닌 R^d 즉 d는 차원으로써 3차원 4차원 등등 여러개의 값을 가질 수 있다. 이를 벡터로 표현할 수 있다.

- 즉 가장 찾아야하는 원본 y와 비슷한 함수를 찾는 것이 목표이다. 이를 위해서는 파라메타(베타)를 가장 최적에 가깝도록 만들어야 한다.

Loss-Function or Cost-Function(손실함수)

MSE(Mean squared error)

MSE

- 오차의 제곱값을 평균을 만든다. 이를 통해서 모델이 얼마나 잘 들어맞는지 평가 가능

 손실 최소 함수

손실최소함수

Intuition on Minimizing MSE Loss = MSE 손실 최소화에 대한 직관

베타 = 1 이기때문에 손실함수가 0이 되어 완벽하다고 할 수 있다.

손실함수는 2차원의 함수형태를 가질 것이다.

 

손실함수를 미분하여 극소값의 지점을 찾으면 된다.

하지만 현실에서의 데이터는 깔끔하지 않고, 모든 loss를 계산하기 때문에 비효율적이다.

Quadratic Funcion

위와 같은 데이터들의 분포가 있다는 가정하에, 1차함수로써 데이터를 표현하면 어떻게 될까? 아무리 기울기를 바꾸어보아도 곡선의 모양에 최적화 시킬 없을 것이다. 1차원으로써는 최적의 값을 찾을 없다는 뜻이다. 그렇다고 non-linear model 설정하면 해결 같지만, 앞서 배웠듯 non-linear 처리하기 까다롭다. 그래서 feature map라는 개념이 등장한다.

feature map을 적용한 알고리즘의 순서이다.

Why not throw in lots of features? = 왜 많은 features를 사용하지 않을까?

- 차원이 커지면 모델의 자유도가 높아져 표현범위가 넓어진다. -> 오버피팅

- 낮은 차원의 모델이 new data에 대해 오차값이 적다.

 

Higher capacity -> more likely to overfit (model family has high variance)

-> High variance : Increase data size n(i.e. gather more labeled data)(모델 데이터를 줄려서 해결/but 질 좋은 데이터가 있다면 극복 가능)

Lower capacity -> more likely to underfit (model family has high bias)

-> High bias : Increase model capacity d(모델 데이터를 더 늘려서 해결)

 

728x90
반응형

'학교 수업 > Computer Vision' 카테고리의 다른 글

[Computer Vision] Classification  (0) 2022.10.27
[Computer Vision] Gradient Descent  (0) 2022.10.22
[Computer Vision] Machine Learning  (1) 2022.10.15
[Computer Vision] Edge detection  (0) 2022.10.12
[Computer Vision] Filters  (1) 2022.10.08
Comments