목록학교 수업/Computer Vision (9)
개발자라면 한번쯤은 보러오는 곳
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/1po25/btrPhnx2Lo4/PtoO3ynLcIUF8cB78g1eE1/img.png)
Classification - 지도 학습의 한종류 - Regression은 연속적인값, Classification은 분류 - Binary Classification, mulit-class Classification Binary Classification - 0과 1, 양성과 음성 등 두개의 결과로 나눌 수 있는 분류를 말한다. - Training examples with t = 1 are called positive examples, and training examples with t = 0 are called negative examples. - Binary Classification은 데이터의 bias 가 너무 크다면 정확한 모델 학습이 되지 않을 수 있다. 때문에 SIgmoid라는 함수를 이용해 L..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bhfu1j/btrPevDISWc/nj2k4DVip8zMNbUCUkT2f0/img.png)
Gradient Descent - 경사 하강법 - lost function을 가장 만족하는(극소값) 값을 찾는다. - Iterative algorithm(반복적으로 한다) - batch training - 기울기가 가장 작은 위치를 찾는 것 -> 최솟값/극소값 찾기 - 점 하나 선택해서 미분하면 기울기가 양수/감소 -> 기울기가 감소하는 방향, y축이 가장 낮은 지점으로 가야 하기 때문에 기울기의 방향의 반대방향으로 감 - 이러한 미분 -> 기울기 감소 방향으로 이동을 하면 최솟값에 도달 할 수 있다. Learning rate - w 값을 어느 정도로 움직일 것인지에 대한 값 - a(알파값) == learning rate이다. - 알파값이 작으면 조금 전진, 진행이 느리게 됨 - 알파값이 크면 많이 전진..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/MDXTQ/btrNNAljSfw/KLNiKshLr4GpES5Ji2B3x1/img.png)
Linear Functions - 파라메타(베타)를 전치시키고 곱해주면 함수의 꼴로 표현 할 수 있다. 이러한 파라메타를 찾는것이 목표 - 입력값 x는 한개만 존재하는 것이 아닌 R^d 즉 d는 차원으로써 3차원 4차원 등등 여러개의 값을 가질 수 있다. 이를 벡터로 표현할 수 있다. - 즉 가장 찾아야하는 원본 y와 비슷한 함수를 찾는 것이 목표이다. 이를 위해서는 파라메타(베타)를 가장 최적에 가깝도록 만들어야 한다. Loss-Function or Cost-Function(손실함수) MSE(Mean squared error) - 오차의 제곱값을 평균을 만든다. 이를 통해서 모델이 얼마나 잘 들어맞는지 평가 가능 손실 최소 함수 Intuition on Minimizing MSE Loss = MSE 손실..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/qQVXD/btrNv0TY2wV/wk1hHZVS9zxiyXveqEXOCk/img.png)
기계 학습의 기초 -> 어떤 컴퓨터 프로그램이 T라는 작업을 수행한다. 이 프로그램의 성능을 P라는 척도로 평가했을 때 경험 E를 통해 성능이 개선된다면 이 프로그램 은 학습을 한다고 말할 수 있다. 컴퓨터 비전에 대입하면 T = 분류(인식) E = 학습 집합 P = 인식률 Types of Learning Supervised(inductive) learning : 지도 학습 Given : training data + desired outputs(labels) Output : Model that predicts unknown output given a new input 입력 데이터에 대한 정답(labels)가 주어진다. Unsupervised learning : 비지도 학습 Given : training ..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/5gIGH/btrNCgtVPSD/VJppi3uWAMLomFxfKBLmKK/img.png)
디지털 영상의 미분 가우시안을 사용하는 이유 - 미분은 잡음을 증폭시킴으로 스무딩 적용이 중요하다. LOG 필터 - 입력 영상에 가우시안 G를 적용한 후, 결과에 라플라시안을 다시 적용하는 두 단계의 비효율설 - 계산 시간 과다 - 이산화에 따른 오류 누적 가우시안과 scale의 관계 블러를 먹일 수록 scale이 커진다. Scale의 의미는 사물을 넓은 시야에서 본다는 의미 즉 이미지 크기가 작아지면 스케일이 커짐
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/MGosj/btrNw9PWt9Z/iA4rbkq8KvSf1ORXSymexk/img.png)
영역 연산 (Filters) 컨볼루션 == 선형 연산 - 수평 에지와 수직 에지는 에지 검출 효과 있음 비선형 연산 예 ) 메시안 필터 = 중간값 필터 솔트페퍼 잡음에 효과적임 메디안은 가우시안에 비해 에지 보존 효과 뛰어남 - 기하 연산 -> 이미지를 회전, 이동 시킬때 하는 연산 동차 좌표(Homogeneous coordinate) -> 차원 확장 ex) (3,5) -> 한차원 추가(의미없는 좌표) -> (3,5,1) -> (6,10,2) ... -> 차원 확장 동차 행렬 -> 동차 좌표, 동차 행렬 사용하는 이유 : 선형적으로 이해하기 쉽게 이미지들을 나타내기 위해 복합 변환을 이용한 계산 효율 함수로서의 이미지 - 이미지는 f(x, y) 의 2차원 이미지로 생각 할 수 있다. - 컬러 이미지는 3..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/MLsX8/btrNyE3eEXu/iTMp0RWqqlhbCfQZOrdkWK/img.png)
영상처리(Image processing)란? - 주어진 목적을 달성하기 위해 원래 영상을 새로운 영상으로 변환 - 컴퓨터 비전의 전처리 과정 히스토그램(histogram) 계산 히스토그램 평활화 이진화 = 명암 영상을 흑과 백만 가진 이진 영상으로 변환 임계값 (threshold) 방법 - 두 봉우리 사이의 계곡을 임계값 T로 결정 - 자연 영상에서는 계곡 지점 결정이 어려움 영상 처리 기본 연산 점 연산 = 오직 자신의 명암값에 따라 새로운 값을 결정 선형 연산 비선형 연산 = 감마 수정 (모니터나 프린터 색상 조절에 사용) 디졸브 영역 연산 = 이웃 화소의 명암값에 따라 새로운 값 결정 - 컨볼루션 : 윈도우를 뒤집은 후 상관 적용, 임펄스 반응 -> 선형 연산 - 2차원 영역 연산 예) 메시안 필터..