12월에도 스테이지1 무료 혜택은 쭈~욱 계속됩니다!
분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
Sharpness-Aware Minimization(SAM) Optimizer
안녕하세요. 이번 시간에는 작년말 ImageNet 에서 SOTA 를 달성한 Sharpness-Aware Minimization Optimizer 에 대해 간단히 알아보는 시간을 가져보겠습니다.
네 큰 문제는 없는 것으로 알고 있습니다. 다만 보기 좀 그러시면 아래 lr 스케줄러를 loss(first_step) 계산하는 곳보다 위에 위치 시켜주시면 됩니다.
# Learning rate 조절
lr_scheduler.step()
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
Detected call of `lr_scheduler.step()` before `optimizer.step()`. 전에는 보진 못했던 다음과 같은 에러가 뜨는데 정상인가요??