분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
CNN, data augmentation X (pytorch, test acc: 74.2)
pytorch dataloader 연습을 목적으로 짠 코드입니다.
data augmentation, cross validation
lr_scheduler
parameter: 5131210
(https://rabo0313.tistory.com/entry/Pytorch-모델-구조-확인-parameter확인)
(https://aigong.tistory.com/196)
댓글 감사합니다!
말씀하신 대로 batch normalization 추가하고, dropout 비율도 늘려봐야겠습니다.
nn.Linear(512, 256),
# batchnorm
nn.ReLU(),
# dropout
nn.Linear(256, 128),
# batchnorm
nn.ReLU(),
# dropout
nn.Linear(128, 10)
이런 식으로 dropout을 두 번 넣어서 비율을 늘려보려 하는데, 이런 방식도 괜찮을까요?
제 cnn 코드에서는 nn.conv -> batchnorm -> relu 이런식으로 batchnorm은 convolution사이에만 사용하고 dropout은 linear에서만 사용하긴 했습니다.
제안하신 방식도 사용하는 방법은 맞아서 효과가 있을것 같습니다. (두개를 같이 사용하면 성능이 더 좋아질지는 궁금하네요) dropout을 많이 사용하면 인자를 0.7보다 작게 잡아도 괜찮을것 같습니다.
(만약 빠른 성능향상을 위해서는 conv 레이어를 더 추가하거나, augmentation을 구현해서 적용해보는게 가장 확실할것 같습니다.)
감사합니다.
conv layer에 batchnorm 써보고,수도 늘려보고, data augmentation도 해봐야겠네요.
batch size를 늘려서 빠르게 학습시키고 성능이 가장 좋은 모델으로 정해야겠습니다.
감사합니다
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
깔끔한 코드공유 감사합니다. 제 생각에는 dropout의 비율을 조정하거나, Conv 레이어를 더 추가하거나, batch normalization 모듈을 사이에 추가해서 Conv -> batch norm -> relu 이런식으로 구현하면 성능이 더 좋아질것 같습니다.