분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
Sharpness-Aware Minimization(SAM) Optimizer
안녕하세요. 이번 시간에는 작년말 ImageNet 에서 SOTA 를 달성한 Sharpness-Aware Minimization Optimizer 에 대해 간단히 알아보는 시간을 가져보겠습니다.
네 큰 문제는 없는 것으로 알고 있습니다. 다만 보기 좀 그러시면 아래 lr 스케줄러를 loss(first_step) 계산하는 곳보다 위에 위치 시켜주시면 됩니다.
# Learning rate 조절
lr_scheduler.step()
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
Detected call of `lr_scheduler.step()` before `optimizer.step()`. 전에는 보진 못했던 다음과 같은 에러가 뜨는데 정상인가요??