월간 데이콘 제 2회 컴퓨터 비전 학습 경진대회

알고리즘 | CV | 분류 | 제어 | Accuracy

  • moneyIcon Prize : 100만원
  • 1,201명 마감

 

[Private 17th, 0.86561] EfficientNET 7 ensemble

2021.03.07 22:04 8,276 Views language

좋은 대회 개최해주신 데이콘 측에 정말 감사드리고, 이번 대회에서도 고수분들에게 많이 배워갑니다! 

부족하지만 코드 공유합니다:)

Code
로그인이 필요합니다
0 / 1000
DACON.JIN
2021.03.08 10:54

좋은 코드 공유 감사합니다 ! 저도 예전에는 무거운 모델을 사용하는게 최고다? 였었는데 요즘은 최대한 가볍게 만들고 다양한 시도를 하는게 얼마나 중요한 건지를 깨닫고 있습니다. 가벼운 모델, 무거운 모델을 사용했을때 각각의 트레이드 오프가 있기 때문에 가벼운 모델에서 무거운 모델로 갈아타는 시기를 결정하는 것도 참 중요한 것 같습니다. 고생 많이 하셨습니다.

킹왕짱정혁
2021.03.08 10:48

감사합니다:) JIN님이 공유해주신 부분들이 정말 큰 도움이 되었습니다. 

jinoan
2021.03.08 18:29

저희 팀 코드를 테스트 해보셨군요 ㅎㅎ
개인적으론 최종 학습 모델로 좀 더 무거운 모델을 돌려보고 싶었지만 시간이 부족해서 못한 아쉬움이 있습니다. 
DACON.JIN님 말씀처럼 결국 시간과 성능의 trade-off를 잘 찾는 것이 중요한 것 같습니다.

킹왕짱정혁
2021.03.08 22:19

넵! 너무 유익했습니다 ㅎㅎㅎ image size를 키우는 것이 확실히 성능에 이득을 주는 것 같습니다.(최종 제출은 안해봤지만 valid_loss만 보면 그렇습니다) 하지만 gpu 자원에 제약이 있는지라 image size를 키우면 batch size를 엄청 줄여야 OOM을 피할 수 있더라구요..  그렇다면 b3를 b7로 모델을 키우고 image 사이즈를 키우지 않는 것이 좀 더 큰 향상을 얻을 수 있지 않을까..라고 추측해봅니다.  b7를 다시 돌리는 것은 너무 시간이 오래 걸려서 다음 대회에서 참고해봐야겠네요 ㅎㅎ 무튼 공유해주신 코드 너무 유익했습니다!