👩‍💻LEARN : ML&Data 91

[CS231n] Lecture3. Loss Functions and Optimization

Loss Function Loss function(오차함수)란 classifier가 얼마나 잘 작동하는 지 보여줌 즉 모델이 나타내는 확률 분포와 데이터의 실제 분포 간의 차이를 나타내는 것 이는 해당 모델의 가중치 W가 얼마나 잘 작동하는지를 보여줌 일반적으로 모델이 나타낸 값과 실제 데이터의 값 사이 오차(다양한 공식 사용)를 샘플 수로 나눠서 사용함 1. Multiclass Support Vector Machine Loss Multiclass SVM 이미지 x, 라벨 y, 그리고 모델로부터 만든 점수 s를 활용 s = f(x_i,W)로 나타남 SVM Loss는 (1) 정답일 때의 score가 다른 score+1 보다 같거나 크면 0 (2) 그렇지 않다면 다른 score-정답 score +1 을 수행..

[CS231n] Lecture2. Image Classification Pipeline

Image Classification 이미지 input → 사전에 정해둔 label(category) 중 input 이미지에 적합한 label 도출 문제 : Semantic Gap 사람이 보고 판단하는 개념과 컴퓨터가 보고 판단하는 개념이 다름 (컴퓨터는 행렬 형태 0~255의 값으로 인식) Challenges Viewpoint variation : 카메라가 움직일 때 픽셀값이 바뀜 Illumination : 조명 문제 Deformation : 다양한 포즈(변형된 이미지) Occlusion : 객체가 숨거나 가려진 경우 Background Clutter : 바탕과 유사한 색상일 경우 Intraclass variation : 같은 class여도 그 안에서 다양한 형태로 존재함 → edge, corner간의..

[CVPR2022] Self-supervised object detection from audio-visual correspondence

https://arxiv.org/abs/2104.06401 Self-supervised object detection from audio-visual correspondence We tackle the problem of learning object detectors without supervision. Differently from weakly-supervised object detection, we do not assume image-level class labels. Instead, we extract a supervisory signal from audio-visual data, using the audio compone arxiv.org 1. Introduction 목표 : 아무 label이 없..

[ECCV 2022] Object Discovery via Contrastive Learning for Weakly Supervised Object Detection(작성중)

https://arxiv.org/abs/2208.07576 Object Discovery via Contrastive Learning for Weakly Supervised Object Detection Weakly Supervised Object Detection (WSOD) is a task that detects objects in an image using a model trained only on image-level annotations. Current state-of-the-art models benefit from self-supervised instance-level supervision, but since weak supervision arxiv.org 개요 WSOD(Weakly Sup..

[알고리즘 구현으로 배우는 선형대수] #13. LU분해

1. 기본 행렬 기본 행렬(E) : 단위 행렬에서 기본 행 연산을 수행한 행렬 단위행렬에서 n행에 p를 곱해서 j 행에 더하는 등의 연산을 수행한 모든 행렬을 기본 행렬이라고 함 기본 행렬의 역행렬 대각 행렬일 경우 : 주 대각 원소의 역수를 대각 원소에 대입 대각 행렬이 아닐 경우 : 주 대각 원소가 아닌 값(0이 아님)에 마이너스를 취함 2. LU분해 개념 Ax = b 일 때, A = LU 의 곱 형태로 분해하는 것 L : 하삼각행렬, U : 상삼각행렬 방법 A를 가우스 행렬 형태인 U로 변환하는 과정에서 L을 구할 수 있음 행렬 A에 기본행렬을 계속 곱해가며 가우스 행렬을 만들어가면서 LU분해 진행 가능 En x En-1 x ...x E2 x E1 x A = U A = (En x En-1 x .....

[알고리즘 구현으로 배우는 선형대수] #12. 대각화

1. 대각화의 개념 행렬의 대각화 : 행렬을 대각 행렬로 만드는 것 정사각 행렬 A에 대해, P-1AP가 대각 행렬이 되는 가역 행렬 P가 존재한다면 행렬 A은 대각화 가능 이라고 함 행렬의 대각화 가능 여부 : 해당 행렬의 고유값 개수가 nxn 행렬에서 n개의 서로 다른 고윳값을 가져야 함 2. 직교 대각화의 개념 D = P-1AP = PtAP (D:대각행렬) 행렬 A에 선형 변환(P,P-1)을 취한 결과 대각 원소만 남는 대각 행렬이 됨 위 식을 만족하는 직교 행렬 P가 존재할 경우 A는 직교대각화 가능하며 직교 행렬 P가 A를 직교대각화하는 것임 조건1. 행렬A의 고유벡터는 n개의 정규 직교 벡터를 만족해야 함 조건2. A는 반드시 대칭 행렬이어야 함 대칭행렬이란 At=A인 행렬을 의미함 (ex. ..

[알고리즘 구현으로 배우는 선형대수] #11. 직교 행렬

#11. 직교 행렬 1. 직교 행렬의 개념 어떤 행렬의 행벡터와 열벡터가 정규직교 기저를 이루는 행렬을 의미함 벡터 사이의 각도가 90도 두 벡터의 내적 값이 0 정규직교 행렬이란 각 행 벡터 혹은 열벡터의 길이가 1이며 수직인 것을 의미함 특징 AAt = AtA = I 자기자신과 자신의 전치행렬을 행렬곱하면 단위 행렬이 됨 즉 직교행렬의 역행렬은 자신의 전치행렬임 직교 행렬끼리의 곱의 결과는 직교행렬 직교 행렬의 행렬식은 1 또는 -1임 2. 닮음 정사각 행렬 A, B가 있을 때 B = P-1 A P (P : 가역행렬, 직교행렬) 위를 만족시키는 P행렬이 존재하면 행렬B는 행렬 A에 직교 닮음이라고 함 성질 det(A) = det(B) 서로 닮은 행렬의 행렬식은 동일하다 행렬 A가 가역행렬이라면, B도..

[알고리즘 구현으로 배우는 선형대수] #10. 고유값과 고유벡터

#10. 고유값과 고유벡터 1. 고윳값과 고유 벡터의 개념 Ax = λx 고유 벡터(x) 벡터에 선형 변환(A)을 취했을 때, 방향은 변하지 않고 크기만 변하는 벡터 고윳값 (eigenvalue, λ) 행렬의 특성을 나타내는 값으로 선형 변환 이후 변한 크기 (λ)로, 기존 벡터 x의 방향은 변하지 않고 길이만 λ만큼 변한 것을 의미 구분 길이 변화 방향 변화 λ

[알고리즘 구현으로 배우는 선형대수] #9. 다양한 곱 연산

1. 외적과 크로네커 곱 벡터의 외적 (텐서곱) 벡터의 내적과 달리 외적의 연산 결과는 행렬로 도출됨 크로네커 곱 외적의 특수한 경우로, 표기법은 동일함 행렬 A가 nxp행렬이고 B가 mxd 행렬일 때, A,B의 크로네커 곱은 크기가 nmxpd인 행렬이다. 2. 벡터곱 (크로스곱) 정의 3차원 공간의 벡터들 간에 적용할 수 있는 연산으로, 벡터 u,v의 벡터곱 uxv의 의미는 u와 v에 수직인 벡터를 의미한다 기하학적 의미 벡터 a,b가 있을 때 a x b는 두 벡터에 수직인 벡터를 의미한다. ||a x b|| = 0 : 만약 벡터 a,b가 평행한다면 (같은 선 상에 있다면) 벡터 곱의 크기는 0이다. ||a x b||의 의미 벡터 a,b와 수직하는 벡터의 길이 a,b가 만드는 평행사변형의 넓이(!) 평..

[알고리즘 구현으로 배우는 선형대수] #8. 내적(inner product)

아 선생님 살려주세용 내적 자체는 안어렵네 했는데 직교 나오고 분해 나오면서 정신이 안드로메다로 가버렸어용 #8. 내적(inner product) 1. 내적의 개념 내적 공간 다음 공리를 만족하는 벡터 공간을 내적 공간이라고 한다. = = + = a >= 0 내적 정의 내적이란 벡터 간 연산의 한 종류로, 벡터와 벡터의 연산 결과로 스칼라가 나온다. 이 때 두 벡터 간 n*p , p*m 형태여야 하는데 그렇지 못할 경우 (p*n등)한 행렬을 전치시켜서 내적 연산을 수행한다. 내적 성질 내적 → 벡터의 길이(norm) , 벡터 사이 관계 파악 가능 벡터 사이의 관계 내적 > 0 → 두 벡터 사이의 각도 90 내적 = 0 → 두 벡터 사이의 각도 = 90 ⭐️ (추후 직교와 연관) 벡터의 길이 (||u||)..