분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
학습양상에 대해 궁금한 점이 있습니다.
안녕하세요?
모델은 Baseline코드대로 두고, 메타데이터만 테이블에 살짝 붙이는 식으로 개량을 하고 있는 개인팀 돌고래입니다.
보통의 러닝커브는 TrainLoss보다 ValidationLoss가 높은 아래의 모양이고, ValidationLoss와 TrainLoss의 차이가 커지는 부분을 보고 과적합이라고 판단한다고 이해하고 있는데요.
제가 돌리는 대부분의 학습의 경우 TrainLoss보다 ValidationLoss가 항상 낮게 나옵니다.
세 가지에 대해 어떻게 생각하셨는지 궁금합니다.
1번 질문에 대해 현 모델의 ValidationLoss측정은 파라미터 업데이트 후 계산 + 드롭아웃노이즈가 없는 상태로 계산하기 때문에 Train보다 낮게 나온다고 결론을 내리자니 그러면 Train보다 늘 낮은 Validation이 일반화 성능 척도로서의 쓸모가 없지 않나? 하고 혼동이 옵니다.
제가 어느 부분을 잘 못 생각하고 있나요?
아 그러네요. 랜덤스플릿으로 분리하는 코드를 보고 Train과 Vaildation 데이터가 완전히 분리됐다고 오해하고 있었어요!
알려주셔서 고맙습니다.
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
Baseline의 train val set 분리는 sliding window로 나뉜 데이터의 분리이기 때문에, sliding window 특성 상 서로 겹치는 데이터가 많아 그런 현상이 나타나는 것으로 보입니다.