학습 과정에서 신경망의 일부를 사용하지 않는다.
ex) 드롭아웃의 비율이 0.5라면 학습 과정마다 랜덤으로 절반의 뉴런만 사용한다
드롭아웃은 신경망 학습 시에만 사용하고, 예측시에는 사용하지 않는것이 일반적.
앙상블 효과와 유사한 결과를 낸다.
(매 학습마다 서로 다른 서브네트워크를 학습시키기 때문에)
학습 과정에서 신경망의 일부를 사용하지 않는다.
ex) 드롭아웃의 비율이 0.5라면 학습 과정마다 랜덤으로 절반의 뉴런만 사용한다
드롭아웃은 신경망 학습 시에만 사용하고, 예측시에는 사용하지 않는것이 일반적.
앙상블 효과와 유사한 결과를 낸다.
(매 학습마다 서로 다른 서브네트워크를 학습시키기 때문에)