-
Chapter7 깊은 인공신경망의 고질적 문제와 해결방안교육/혁펜하임의 AI DEEP DIVE 2023. 2. 7. 09:20728x90
chapter7-1 직관적으로 이해하는 vanishing gradient
chapter7-2 Vanishing Gradient의 해결방안 ReLU
chapter7-3 Vanishing gradient 실습 (layer별 gradient 크기 관찰)
chapter7-4 BN 직관적으로 이해하기 (왜 BN이 대박인가)
chapter7-5 Batch Normalization 실습 ("들"값의 histogram)
chapter7-6 Loss landscape 문제와 skip-connection (왜 Resnet이 아직까지도 사랑받는 모델일까?)
chapter7-7 Loss Landscape 실습
chapter7-8 Overfitting 개념과 Data augmentation
overfitting : training땐 잘했는데 test땐 못하는 것
overfitting 방지법
1. 모델 경량화 - 모델을 단순하게 다시 만들기
2. data augmentation
3. dropout
chapter7-9 Overfitting 방지 방안 - Dropout개념 및 실험
chapter7-10 Regularization의 개념 및 실험
본 게시글은 패스트캠퍼스 [혁펜하임의 AI DEEP DIVE] 체험단 활동을 위해 작성되었습니다.
'교육 > 혁펜하임의 AI DEEP DIVE' 카테고리의 다른 글
chapter8. 왜 CNN이 이미지 데이터에 많이 쓰일까? (0) 2023.02.13 Chapter6 인공신경망, 그 한계는 어디까지인가? (0) 2023.02.06 Chapter5 이진분류와 다중분류 (0) 2023.02.05 Chapter4 딥러닝, 그것이 알고싶다. (0) 2023.02.02 Chapter3 왜 우리는 인공신경망을 공부해야하는가? (0) 2023.01.27