데이스쿨 할인 리턴-즈!
분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
큰 이미지 학습 문제
모델들 학습을 시도해보면 batch_size=1으로 해도 cuda out of memory가 뜨는데 다들 큰 이미지 학습을 어떻게 하는지 조언 구하고 싶습니다ㅠㅠ.
그렇군요. 감사합니다.
자세한 답변 감사합니다
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
직업정보제공사업 신고번호: J1204020250004
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io |
전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
거의 모든 super-resolution에서는 분류나 디텍션 문제와는 다르게 매우 높은 resolution의 이미지를 사용합니다.
이미지 분류나 디텍션 태스크에서도 큰 이미지가 주어지긴 하는데 보통 224x224 또는 384x384 정도로 이미지 사이즈를 강제로 낮추고 시작하죠. (random resized crop 등)
근데 super-resolution에서는 원본(HR, LR 모두)에서 약간의 데이터 손실만 나더라도 치명적인 성능저하로 이어질 수 있습니다.
그래서 대부분의 super-resolution에서는 이미지를 patch 단위로 잘라서 사용합니다.
논문에서 자주 쓰는 patch 크기는 LR기준 48x48 또는 64x64인데 이 역시 연구자의 선택에 달린 것이라서 적당한 사이즈를 고르시면 됩니다.
가장 이상적인 방법은 아주 큰 cpu 및 gpu에서 원본을 그대로 넣어서 사용하는 것인데 현실적으로 불가능하기 때문에 절충안으로써 적당한 patch size로 자른 후 학습을 하시면 좀 낫습니다.