분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[Private 3th, 0.88713] EfficientNet-b7 + Ensemble
우선 비전 분야에서 결과를 얻어내는 재미를 느끼게 해준 데이콘 측에 감사의 말씀부터 전합니다. 정말 운이 좋게도 상위권에 오르게 되어 기쁘고, 한편으로는 시도해본 여러 방법론들이 생각보다 효과가 좋지 않았어서 아쉬운 마음 또한 많은 대회였습니다.
GPU, 모델 및 대표적인 hyper-parameter 등은 아래와 같습니다.
- GPU: RTX2080ti
- 모델: EfficientNet-b7
Seed만 다르게 설정한 세개의 5-fold model을 학습 -> Soft-voting Ensemble
- Batch size: 20
- Epochs: 40
- Optimizer: RAdam
- Learning Rate: 0.0015
- LR scheduler: multistep (30, 40, 60%)
- Warmup: until 15% of epochs
이외 수행 내용은 아래 각 파트별로 적어놨습니다. 다만 저희 팀의 경우 notebook을 염두에 두지 않고 코드를 작성해서, 사용한 모듈에 설명을 추가하여 업로드하였습니다. 노트북에서 사용하실 경우 argparser의 변수를 직접 설정하셔야 하나, 수정할 부분이 많기 때문에 만일이라도 본 코드를 사용하실 분들은 위해서는 아래와 같은 디렉토리로 모듈 생성하여 사용하시면 됩니다.
--main.py
|---logs
|---ckpt
|---dataset
|---train
|---00001.png ...
|---test
|---50000.png ...
|---src
|---model.py
|---train.py
|---utils
|---call_model.py
|---dataloader.py
|---earlystopping.py
|---imageprocess.py
|---radams.py
좋은 말씀 감사합니다. ㅎㅎ 올려주신 코드가 많이 도움 되었고, 대회 진행하고 관리하시느라 고생 많으셨습니다.
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
Automatic Mixed Precision, Label smoothing, Custom loss 이 세 주제는 제가 대회 기간동안 시간이 된다면 공유하고 싶었던 주제들이었는데
다 실험해보셨다니 대단하십니다.. ㅎㅎ 이러한 기법들이 힘을 발휘할때가 분명이 있을거라고 생각합니다.
고생하셨습니다.