분류 전체보기 104

[Advanced Learning Algorithms] #2. TensorFlow implementation & #3. Neural network implementation in Python

#2. TensorFlow implementation Inference in Code Forward propagation을 한다면 간단하게 아래와 같은 플로우로 진행된다 #x를 먼저 세팅해준다. 200도에 17분 로스팅 하면 어떤 결과가 나올까 x = np.array([[200.0, 17.0]]) #레이어를 세팅해준다. 이 레이어는 3개의 뉴런유닛을 갖고 있으며 활성함수로는 시그모이드를 쓴다.(나중엔 relu쓰겠지..?) layer_1 = Dense(3, activation = 'sigmoid') #레이어1에서 나온 활성함수값을 a1에 할당한다 a1 = layer_1(x) #레이어2를 세팅한다. output레이어는 binary로 나오므로 유닛을 1로 설정한다 layer_2 = Dense(1,activat..

[Advanced Learning Algorithms] #1. Neural network

#1. Neural network Demand Prediction 예시 : 어떤 티셔츠가 top seller 티셔츠가 될 것인가 ? → input : x = price , shipping cost, marketing, material ... → output : y = yes or no (binary:sigmoid) → activation : f(x) = 1 / 1+np.exp(-(wx+b)) Neural network에서 이를 사용하게 될 경우 → input layer : vector x [price,shipping cost, marketing, material] and vector y [1,1,0,1,...n] → layer1(hidden layer) : input layer와 fully connect..

[Supervised Machine Learning: Regression and Classification]#7. Gradient descent for logistic regression & #8. The problem of overfitting

#7. Gradient descent for logistic regression 로지스틱 회귀에서 cost function 수식까지 구해봤는데, 이를 최소화할 수 있는 경사하강법은 어떻게 수행할 수 있을까 Cost function을 줄이기 위해 기존에 배웠던 경사하강법 처럼 아래 내용을 반복하며 파라미터를 업데이트해나갈 수 있음 - wj = wj - alpha * (dj/dw) - b = b - alpha * (dj/db) 그런데 여기서 문제는, j의 수식이 cost function for logistic regression으로 바뀌었다는 것임. 이때의 기울기는 어떻게 구할 수 있을 지 살펴봐야 함 - ... 사실 똑같음. f(x)가 다르기 때문에 기존 선형회귀때 기울기 구했던 것과 똑같이 수행하면 됨...

[Supervised Machine Learning: Regression and Classification] #6. Classification with logistic regression & #7. Cost function for logistic regression

#6. Classification with logistic regression Logistic regression Binary classification : 2개의 class(0,1)만 output으로 나오는 것 - 기존 선형회귀로는 binary classification을 수행하기 어려움 - 이에 sigmoid(Logistic) 함수를 활용하여 1과 0 을 구분(threshold = .5 기준) Logistic regression - z = w*x + b 라고 가정 - z를 시그모이드 함수의 변수로 설정 - 해석 : 시그모이드 함수의 값이 0.7일 경우 → 1일 확률이 70%이다 - 표기법 (베이지안 언제 공부하지..) Decision boundary : 결과값을 0으로 판단할 지 1로 판단할 지 나누..

[Supervised Machine Learning: Regression and Classification] #5. Gradient descent in practice

회사원일때 좋았던 점 = 주중엔 노답인데 주말엔 뇌빼고 놀 수 있음 회사원일때 싫었던 점 = 회사일이 내 인생으 ㅣ전부가 된 느낌 (업무 커버리지가 넓어서 주중엔 맨날 일생각만 함...) vs 공부하니까 좋은점 = 내 맘대로 일정 짜서 공부하면됨 공부하니까 싫은 점 = 근데 그게 주말까지 이어짐 아니야 그래도 아직은....할만하다..화이팅! ^^ #5. Gradient descent in practice Feature scaling : 경사하강법이 더 빠르게 수행될 수 있도록 하는 테크닉 중 하나 Feature size and parameter size Feature size와 parameter size는 서로 반비례 하게 됨 (Feature size가 클수록 이에 해당하는 parameter는 작아짐. ..

[Supervised Machine Learning: Regression and Classification] #4. Multiple linear regression

코세라 지도학습 강의 2주차엔 다중회귀와, 다중회귀에 따른 경사하강법을 학습하게 된다. 다중회귀 그냥 파이썬으로 돌릴땐 참 쉬웠는데 ... (아련 #4. Multiple linear regression Multiple features 표기방식 협의 - i번째 집에 대한 특징을 벡터로 나타낼때 표기법과 i번째 집의 j번째 특징을 나타날때 표기법 헷갈리지 말기 - f(x) = w1*x1 + w2*x2 + w3*x3 ... +b = 결국 w의 벡터들과 x의 벡터들간의 매칭곱 + b 로도 표현 가능 Vectorization w = [w1, w2, w3] n=3 x = [x1, x2, x] b = 상수 → numpy 사용 시 np.array([w1,w2,w3])으로 선언 가능 벡터가 없다면 아래처럼 수행해야 함 ..

[Supervised Machine Learning: Regression and Classification] #2. Regression Model & #3. Gradient descent

이 강의 오리지널 버전(코세라 처음 생겼을 쯤)을 듣다가 말았었는데, 그때 그냥 진작에 들을걸... 물론 지금이 강의자료도 더 많고 번역본도 많아서 공부하긴 편하지만 그때 알아뒀으면 출발선이 지금보단 훨씬 앞에 있을 것 같다 흑흑 #2. Regression Model Linear regression model 기존 데이터들에 기반하여 예측선을 그리고, New input이 들어왔을때 해당 선에 매칭되는 output을 예측값으로 하는 것 Process training set (x : features, y : targets) -> learning algorithms(F, 즉 모델) 구축 -> new x(feature)를 모델에 넣어 y(prediction)을 도출하는 것 f(x) = w * x + b Nota..

[Supervised Machine Learning: Regression and Classification] #1. Supervised vs Unsupervised Learning

Coursera의 근본과 같은 코세라 오리지널 머신러닝 강의를 듣기로 했다. [Link] 하루에 8시간씩 공부하면 2주 안에 끝날텐데, 아마..불가능하겠지...?^^ 3주안에 완강을 목표로 달려본다. #1. Supervised vs Unsupervised Learning [What is ML] 정의 machine learning as the field of study that gives computers the ability to learn without being explicitly programmed.(Arthur Samuel) ※예시 : 체스 프로그램을 컴퓨터가 tens of thousands 학습할 수 있게 하며 좋은 체스 플레이어가 되게 함 종류 Supersivsed learning - 현실에서..

[TensorFlowDeveloper Certificate] #2. 취득

얼라리..생각보다 빨리 따버렸다. 총 소요일 : 5일 - 일상생활하며 8시간 가량의 강의 완강 후 기출문제 기반으로 문제 당 2,3개의 모델링 - 다만 머신러닝 기본 서적 완독 후 강의를 들은 것이라, 노베이스라면 시간이 더 걸리지 않을까 생각 후기 1번 : 기본문제 5/5/5 2번 : fashion_mnist 5/5/5 3번 : New Beans 5/5/5 4번 : sarcasm 5/5/5 5번 : HEPC 5/5/5 기출문제 안에서 나와서 문제 푸는 것은 어렵진 않았다. 다만 코랩 기준으로 성능이 괜찮았던 모델들이 오히려 4/4/4가 나오는 바람에 모델을 조금씩 변경하면서 5/5/5로 모두 맞췄다. 공부하다보니 개개인마다 모델 레이어 쌓는 방식이 다른데, 이미지 관련 문제의 경우엔 dropout을 레..

[TensorFlowDeveloper Certificate] #1. 준비

생각보다 원서 접수가 빠르다... 오히려 부트캠프 코스웍 시작했으면 아무 생각 없이 노니노니 하다가 접수를 놓쳤을텐데 부트캠프 코스웍을 시작하지 않게 되면서 오히려 정보를 빠르게 확보할 수 있었다 (덜덜덜) 아무리 회사에서 이것저것 해봤다. 해도 내 소속은 Hr이었기 때문에 나에 대해 증명할 서류들이 필요한데 그 서류를 지금에서라도 확보해야겠다 싶어서 빠르게 자격증 위주로 따놓으려고 한다. 다행히 지난달에 열심히 달린 텐서플로우 기반 딥러닝 도서 덕에 기본기는 있고, 빠르게 복습하면서 취득하려고 한다. 기초 학습 모두의 딥러닝 [완료] 제시하고 있는 모든 내용이 텐서플로우 기반으로 작성되어 다시 복습하면서 공부 준비 인프런 텐서플로 자격증 취득 과정 [완료] 모두의 딥러닝 내용 빠르게 복습하는 차원 학습..