사물 이미지 분류 AI 해커톤

Computer Vision | Accuracy

  • moneyIcon 상금 : 참가시 최소 50 XP, 특별상 데이콘 후드
  • 502명 마감

 

CNN, data augmentation X (pytorch, test acc: 74.2)

2022.03.03 16:05 2,179 조회 language

pytorch dataloader 연습을 목적으로 짠 코드입니다.

data augmentation, cross validation
lr_scheduler
parameter:  5131210

(https://rabo0313.tistory.com/entry/Pytorch-모델-구조-확인-parameter확인)
(https://aigong.tistory.com/196)

코드
로그인이 필요합니다
0 / 1000
lastdefiance20
2022.03.04 09:08

깔끔한 코드공유 감사합니다. 제 생각에는 dropout의 비율을 조정하거나, Conv 레이어를 더 추가하거나, batch normalization 모듈을 사이에 추가해서 Conv -> batch norm -> relu 이런식으로 구현하면 성능이 더 좋아질것 같습니다.

gs
2022.07.25 21:19

댓글 감사합니다!
말씀하신 대로 batch normalization 추가하고, dropout 비율도 늘려봐야겠습니다.
nn.Linear(512, 256),
# batchnorm
nn.ReLU(),
# dropout

nn.Linear(256, 128),
# batchnorm
nn.ReLU(),
# dropout

nn.Linear(128, 10)
이런 식으로 dropout을 두 번 넣어서 비율을 늘려보려 하는데, 이런 방식도 괜찮을까요?

lastdefiance20
2022.03.04 09:39

제 cnn 코드에서는 nn.conv -> batchnorm -> relu 이런식으로 batchnorm은 convolution사이에만 사용하고 dropout은 linear에서만 사용하긴 했습니다. 

제안하신 방식도 사용하는 방법은 맞아서 효과가 있을것 같습니다. (두개를 같이 사용하면 성능이 더 좋아질지는 궁금하네요) dropout을 많이 사용하면 인자를 0.7보다 작게 잡아도 괜찮을것 같습니다.

(만약 빠른 성능향상을 위해서는 conv 레이어를 더 추가하거나, augmentation을 구현해서 적용해보는게 가장 확실할것 같습니다.)

gs
2022.07.25 21:18

감사합니다.
conv layer에 batchnorm 써보고,수도 늘려보고, data augmentation도 해봐야겠네요.
batch size를 늘려서 빠르게 학습시키고 성능이 가장 좋은 모델으로 정해야겠습니다.
감사합니다