월간 데이콘 제 2회 컴퓨터 비전 학습 경진대회

알고리즘 | CV | 분류 | 제어 | Accuracy

  • moneyIcon Prize : 100만원
  • 1,201명 마감

 

[Private 12th, 0.86733] effnet-b7 함께하는우리 (2)

2021.03.07 13:15 7,346 Views language

'함께하는 우리'팀은 각 팀원이 모델을 구성하고, 예측한 결과를 앙상블하여 최종 제출했습니다.
제가 구성한 모델과 설정 등은 다음과 같습니다.
각종 설정에 대한 이유는 아래의 게시물 중 'Augmentation, Hyper parameter의 성능 실험'을 참고해주시면 감사하겠습니다.

Model 등
 - Back bone : EfficientNet b7
 - Activation function : silu
 - Image channels : 3 Channels (Color)
 - Optimizer : Adam
 - Criterion : BCE

Hyper Parameter 등
 - Epochs : 30
 - LR : 0.001
 - Batch size : 8
 - LR Scheduler : StepLR
 - LR Scheduler step : 5
 - LR Scheduler gamma : 0.75

Augmentation 등
 - Resize : 331x331
 - RandomHorizontalFlip : 0.6
 - RandomVerticalFlip : 0.6
 - RandomRotation : 40
 - Normalize : mean=(0.485, 0.456, 0.406), std=(0.229, 0.224, 0.225)

이외의 특이사항
 - 여러 세션에서 동시에 학습하기 간편하도록 코드를 구성
 - Epoch별 validation loss의 평균 값을 구하고 모델을 저장
 - Google Cloud에서 메모리 이슈가 생기지 않도록, 이전 모델을 제고하는 코드 구성
 - Google Cloud에서 데이터를 Load하는 속도를 줄이고자 File로 관리

Code
로그인이 필요합니다
0 / 1000
도비콘
2021.03.30 07:22

화이팅 입니다.