728x90
#6. Additional Neural Network
Advanced Optimization
Gradient Descent 보다 더 좋은 Optimizer가 있다!
Adam algorithm
모든 step에 하나의 학습률만 사용하는 것이 아니라 각 스텝별로 적합한 학습률을 자동으로 사용함
- model.compile(optimizer = ADAM!! )
Additional Layer Types
Convolutional Layer
픽셀로 이루어진 이미지를 입력받을 때 hidden layer의 하나 하나의 뉴런을 해당 이미지의 일부만 받아오도록 하는 것
2D 뿐 아니라 1D일때도 동일하게 가능 ( 작은 벡터 window를 여러개 세팅 )
'👩💻LEARN : ML&Data > Lecture' 카테고리의 다른 글
[Advanced Learning Algorithms] #8. Bias and variance (0) | 2023.03.28 |
---|---|
[Advanced Leaning Algorithms] #7. Advice for applying machine learning (0) | 2023.03.28 |
[Advanced Learning Algorithms] #5. Multiclass Classification (0) | 2023.03.27 |
[Advanced Learning Algorithms]#3. Neural network training & #4. Activation Functions (0) | 2023.03.27 |
[Advanced Learning Algorithms] #참고. Vectorization (0) | 2023.03.27 |