👩‍💻LEARN : ML&Data/Lecture 35

[알고리즘 구현으로 배우는 선형대수] #11. 직교 행렬

#11. 직교 행렬 1. 직교 행렬의 개념 어떤 행렬의 행벡터와 열벡터가 정규직교 기저를 이루는 행렬을 의미함 벡터 사이의 각도가 90도 두 벡터의 내적 값이 0 정규직교 행렬이란 각 행 벡터 혹은 열벡터의 길이가 1이며 수직인 것을 의미함 특징 AAt = AtA = I 자기자신과 자신의 전치행렬을 행렬곱하면 단위 행렬이 됨 즉 직교행렬의 역행렬은 자신의 전치행렬임 직교 행렬끼리의 곱의 결과는 직교행렬 직교 행렬의 행렬식은 1 또는 -1임 2. 닮음 정사각 행렬 A, B가 있을 때 B = P-1 A P (P : 가역행렬, 직교행렬) 위를 만족시키는 P행렬이 존재하면 행렬B는 행렬 A에 직교 닮음이라고 함 성질 det(A) = det(B) 서로 닮은 행렬의 행렬식은 동일하다 행렬 A가 가역행렬이라면, B도..

[Reinforcement learning]#2. State-action value function & #3. Continuous state spaces

#2. State-action value function ▶️ State-action value function definition (=Q function, Q*) Q(s,a) = total return if you starts in state s take action a (once) then behave optimally after that Picking actions state s에서는 Q(s,a)를 최대화할 수 있는 행동이 가장 좋음 ▶️ Bellman Equation s',a' : s,a 이후의 state, action terminal state에서의 Q(s,a) = R(s)임 ▶️ Random(stochastic) environment Expected Return → 최대로 할 수 있어야 함 잘..

[Reinforcement learning]#1. Introduction

#1. Introduction ▶️ What is reinforcement learning 특정 State 에 따라 rewards를 정적강화(+n)/부적강화(-m) 을 세팅해서 자동으로 good action으로 행동하게 하는 것 ▶️ Mars rover example (s,a,R(s),s') = state, action, rewards, updated state after take action ▶️ The return in reinforcement learning Discount factor (감마) : 이동(action)에 대한 비용을 계산하는 것 . 증권에서는 돈의 가치 하락 등을 반영함. State에 따라 행동에 따른 return 값이 다르므로 이를 행동 가이드에 반영할 수도 있음 To summa..

[Unsupervised Learning, Recommenders, Reinforcement Learning] #4. Content-based filtering

2주차 강의에서 배울 추천 시스템 종류 #4. Content-based filtering ▶️ Collaborative filtering vs Content-based filtering Collabo : ratings of user를 사용하여 유사한 rating을 준 사람들의 rating값에 기반하여 추천 Content : user, item's features를 사용하여 추천 r(i,j) : 사용자가 해당 아이템을 rating한 경우 (0,1) y(i,j) : 사용자가 아이템에 대해 매긴 점수 Examples of user and item features User feature (xu(j) for user j) 나이, 성별, 나라 본 영화 수 , 각 장르에 대한 평균 점수 Movie feature (x..

[Unsupervised Learning, Recommenders, Reinforcement Learning] #3. Collaborative Filtering

#3. Collaborative Filtering ▶️ Making Recommendation 예시 - nu = 사용자 수 - nm = 작품 수 - rij : 사용자 j가 작품 i를 평가했는지 여부 (0,1) - yij : j가 i를 평가한 점수 ▶️ Using per-item features 각 작품에 대한 Featurer가 있을 때 어떻게 사용 할 수 있을까 r(i,j) = user j 가 작품 i에 대해 점수를 매겼는지 여부 (1,0) y(i,j) = j가 i에 매긴 점수 wj, bj = j에 대한 파라미터들 xi = 작품 i에 대한 feature 벡터 wj * xi + bj = j의 i에 대한 점수를 예측하는 식 mj = j가 점수를 매긴 작품의 수 Cost function r(i,j)=1 일때만..

[Unsupervised Learning, Recommenders, Reinforcement Learning] #2. Anomaly detection

#2. Anomaly detection ▶️ Finding unusual events 새로운 데이터셋이 기존의 데이터 plot과 유사한 곳에 있지 않을 경우, anomaly 하다고 판단할 수 있다 Density estimation 기존 데이터로 모델 P(x)를 학습시킨 이후 새로운 X가 데이터셋에서 나타날 확률을 P(X)라고 한다. 이때 P(X)가 epsilon(작은수)보다 작을 경우 anomaly로 분류한다 ▶️ Gaussian (normal) distribution 정규분포! 평균(Mu), 표준분포(sigma, 분산은 sigma**2)로 이뤄진 종모양 분포 x의 확률을 구하는 식은 p(x)이며, x가 중심에서 멀어질수록 p(x)도 낮아진다. Parameter estimation dataset이 주어졌..

[Unsupervised Learning, Recommenders, Reinforcement Learning] #1. Clustering

7일 안에...끝내기로 한 것은..매우 잘못된..선택이었던거같다...⭐️ 일단 우겨넣고...나중에 이해해보려 한다...🫥 개념들은 크게크게 이해가 되는데, 이걸 코드로?구현? 어? 이게 되네? 어 ? 이게 안되네? 이렇게 되는 상황 → 일단 끝내놓고 ...다시..코드...백지에서 구현해보자...화이팅... #1. Clustering ▶️ What is Clustering label y 가 없이 수행하는 것으로, 데이터 자체에서 structure을 찾도록 하는 것 ▶️ K-means intuition 1. 임의의 K개의 점을 cluster의 중심 (Cluster centroids)으로 가정 2. 각각의 데이터를 가장 가까운 centroid에 배정 3. 소속된 데이터들의 평균치로 centroid의 위치를 변..

[Advanced Learning Algorithms] #10. Decision Trees

#10. Decision Trees Decision Trees ▶️ Decision Tree model Root node → Decision nodes → Leaf nodes ▶️ Learning Process 1️⃣ Decision 1 : How to choose what features to spit on at each node Maximize purity (or minimize impurity) : 최대한 하나의 클래스만 결과값에 나오도록 하는 것 2️⃣ Decision 2 : When do you stop splitting? When a node is 100% one class When Splitting a node will result in the tree exceeding a maximum d..

[Advanced Learning Algorithms] #9. Machine learning development process

#9. Machine learning development process Iterative loop of ML development Error analysis 에러들 (분류의 경우 잘못 분류된 예시들)을 에러들 간의 common traits 들로 카테고리화 해보는 것 해당 카테고리 중 에러 해결의 중요도, 에러들의 수 들을 검토하여 순차적으로 해결 → model, data를 어떻게 설정해야 할지 인사이트를 얻을 수 있음 Adding data Add more data of the types where error analysis has indicated it might help Data augmentation: Distortion for Image , Audio (noise) , etc doesn't hel..

[Advanced Learning Algorithms] #8. Bias and variance

편향과 분산!이라고 보면 되는데 개념 자체는 어렵지 않다. Bias → 얼마나 '정확'하게 타겟을 예측하느냐 Variance → 예측값들이 모여있느냐 퍼져있느냐 (유연성?) 하지만 앤드류응쨩은 또 쉽지 않은 것들을 알려주겠지.... #8. Bias and variance Diagnosing bias and variance train / cv 데이터에서 두개를 확인하면 모델의 성능을 짐작해볼 수 있음 (그래프를 그릴 수 없을정도로 변수가 많을 경우) Polynomial이 적을 경우 (일차방정식 등) Train, cv의 Cost가 모두 높음 → Hifh bias Polynomial이 너무 클 경우 (5차방정식 등) Train의 Error는 작지만 cv는 높을 수 밖에 없음 → Train의 cost < Cv의..