목록학교 수업 (22)
개발자라면 한번쯤은 보러오는 곳
Secret sharing algorithms - 참가자 그룹간에 비밀을 배포하는 방법 - 각 참가자에게 비밀의 몫이 할당됨 - 공유된 것들이 함께 결합되어야만 비밀 재구성이 가능해진다. - 개별은 그 자체로 아무런 쓸모가 없다. 왜 필요할까? - 엄격한 제어기능 제공 및 단일 지점 취약성 제거 - 개별 키 공유자가 데이터 변경 / 액세스 할 수 없음 - k 개 이상의 조각이 모여 S를 만든다. - k-1이하의 조각으로는 S를 만들 수 없음 Blind signatures - 발신자의 프라이버시가 중요한 프로그램에서 많이 사용 - ex) 전자 투표 프로토콜 Kerberos - 대칭 기반 인증 시스템
Classification - 지도 학습의 한종류 - Regression은 연속적인값, Classification은 분류 - Binary Classification, mulit-class Classification Binary Classification - 0과 1, 양성과 음성 등 두개의 결과로 나눌 수 있는 분류를 말한다. - Training examples with t = 1 are called positive examples, and training examples with t = 0 are called negative examples. - Binary Classification은 데이터의 bias 가 너무 크다면 정확한 모델 학습이 되지 않을 수 있다. 때문에 SIgmoid라는 함수를 이용해 L..
Symmetric key cryptography 대칭키 암호화 발신자와 수신자가 공유하는 비밀키가 필요함 O(n^2), 키 관리와 유통이 어렵다. Asymmetric key cryptography 비대칭키 암호화 == 공개키 암호화라고도 함 근본적으로 다른 접근 방식 발신자와 수신자가 비밀키를 공유하지 않는다. 모두에게 알려진 공개 암호화 키 수신자에게만 알려진 개인 암호 해독키 O(n) 공개키 암호화 사용의 목적 암호화 복호화 가믕 -> confidentially 기밀성을 지킨다. -> encryption 전자 서명 -> non-repudiation 부인봉쇄 -> digital signature 공개키 암호화 Encryption - Bob에게 m을 주기 위해선 Bob의 public키로 encrytion..
Cryptographic hash function - 임의의 길이 메시지 매핑 고정 길이 출력(message digest) - message digest function - one-way function -> H(m)으로 m을 추측 할 수 없다. - 임력의 임의적인 변경의 경우, 출력의 모든 비트는 50%의 변경 가능성을 가진다. - 계산상으로는 같은 다이제스트의 두 메세지를 찾을 수 없음 MD5(Message digest5) -> 현재 사용 X Input: arbitrary number of bits Output: 128 bits SHA-1 -> Secure Hash Algorithm-1 Input: arbitrary number of bits Output : 160 bits SHA-256 Step 1..
Gradient Descent - 경사 하강법 - lost function을 가장 만족하는(극소값) 값을 찾는다. - Iterative algorithm(반복적으로 한다) - batch training - 기울기가 가장 작은 위치를 찾는 것 -> 최솟값/극소값 찾기 - 점 하나 선택해서 미분하면 기울기가 양수/감소 -> 기울기가 감소하는 방향, y축이 가장 낮은 지점으로 가야 하기 때문에 기울기의 방향의 반대방향으로 감 - 이러한 미분 -> 기울기 감소 방향으로 이동을 하면 최솟값에 도달 할 수 있다. Learning rate - w 값을 어느 정도로 움직일 것인지에 대한 값 - a(알파값) == learning rate이다. - 알파값이 작으면 조금 전진, 진행이 느리게 됨 - 알파값이 크면 많이 전진..
Linear Functions - 파라메타(베타)를 전치시키고 곱해주면 함수의 꼴로 표현 할 수 있다. 이러한 파라메타를 찾는것이 목표 - 입력값 x는 한개만 존재하는 것이 아닌 R^d 즉 d는 차원으로써 3차원 4차원 등등 여러개의 값을 가질 수 있다. 이를 벡터로 표현할 수 있다. - 즉 가장 찾아야하는 원본 y와 비슷한 함수를 찾는 것이 목표이다. 이를 위해서는 파라메타(베타)를 가장 최적에 가깝도록 만들어야 한다. Loss-Function or Cost-Function(손실함수) MSE(Mean squared error) - 오차의 제곱값을 평균을 만든다. 이를 통해서 모델이 얼마나 잘 들어맞는지 평가 가능 손실 최소 함수 Intuition on Minimizing MSE Loss = MSE 손실..
Symmetric encryption - conventional / private-key / single-key - 발신자와 수신자가 공통된 키를 사용한다. Symmetric encryption을 사용할 때 필요한 두가지 보안 a strong encrytion algorithm a secret key known only to sender / receiver 키를 나누어 가지기 위한 별도의 안전한 채널이 있다고 가정 필요한 키의 수 = n(n-1)/2 Caesar Cipher 최초의 암호 제한점 26가지 경우의 수 밖에 없음 쉽게 우츄 가능함 Crypto analysis(암호 분석) 메시지뿐만 아니라 키를 복구하는 목적 일반적인 접근 cryptanalytic attack brute-force attack ..
기계 학습의 기초 -> 어떤 컴퓨터 프로그램이 T라는 작업을 수행한다. 이 프로그램의 성능을 P라는 척도로 평가했을 때 경험 E를 통해 성능이 개선된다면 이 프로그램 은 학습을 한다고 말할 수 있다. 컴퓨터 비전에 대입하면 T = 분류(인식) E = 학습 집합 P = 인식률 Types of Learning Supervised(inductive) learning : 지도 학습 Given : training data + desired outputs(labels) Output : Model that predicts unknown output given a new input 입력 데이터에 대한 정답(labels)가 주어진다. Unsupervised learning : 비지도 학습 Given : training ..