서두르세요! "데이스쿨 40% 할인" 12월 2일까지!
분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[Baseline] Embedding Layer + LSTM
안녕하세요. 데이콘입니다.
데이콘 베이스라인은 모든 참가자의 '제출'을 목표로 합니다.
해당 내용에 관한 질문은 [토크] 게시판에 게시해 주세요.
베이스라인이 여러분만의 고도화된 모델 작성에 도움이 되면 좋겠습니다.
감사합니다.
데이콘 드림
안녕하세요 클로드섀넌님,
train 함수를 확인해보시면 model.train()이 있습니다.
감사합니다.
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
```
model = BaseModel()
model.eval()
optimizer = torch.optim.Adam(params = model.parameters(), lr = CFG["LEARNING_RATE"])
scheduler = torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max=len(train_loader)*CFG['EPOCHS'], eta_min=0)
best_score = train(model, optimizer, train_loader, val_loader, scheduler, device)
print(f'Best Validation F1 Score : [{best_score:.5f}]')
```
train하기 전에 model.eval() 을 하는데 이러면 훈련이 안되지 않나요?