월간 데이콘 제 2회 컴퓨터 비전 학습 경진대회

알고리즘 | CV | 분류 | 제어 | Accuracy

  • moneyIcon Prize : 100만원
  • 1,196명 마감

 

Sharpness-Aware Minimization(SAM) Optimizer

2021.02.10 10:41 15,891 Views language

안녕하세요. 이번 시간에는 작년말  ImageNet 에서 SOTA 를 달성한 Sharpness-Aware Minimization Optimizer 에 대해 간단히 알아보는 시간을 가져보겠습니다.

Code
로그인이 필요합니다
0 / 1000
OPEN_해인이
2021.02.21 21:45

Detected call of `lr_scheduler.step()` before `optimizer.step()`. 전에는 보진 못했던 다음과 같은 에러가 뜨는데 정상인가요??

DACON.JIN
2021.02.22 07:22

네 큰 문제는 없는 것으로 알고 있습니다. 다만 보기 좀 그러시면  아래 lr 스케줄러를 loss(first_step) 계산하는 곳보다 위에 위치 시켜주시면 됩니다.

# Learning rate 조절
lr_scheduler.step()