2022 AI 대학원 챌린지

LG | 채용 | B-cell | Epitope | Classification | macro-f1

  • moneyIcon 상금 : 총 2,500만원
  • 304명 마감

 

[Baseline] Embedding Layer + LSTM

2022.07.04 09:04 2,064 조회 language

안녕하세요. 데이콘입니다.

데이콘 베이스라인은 모든 참가자의 '제출'을 목표로 합니다. 
해당 내용에 관한 질문은 [토크] 게시판에 게시해 주세요.

베이스라인이 여러분만의 고도화된 모델 작성에 도움이 되면 좋겠습니다.

감사합니다. 
데이콘 드림

코드
로그인이 필요합니다
0 / 1000
클로드섀넌
2022.07.23 22:12

```
model = BaseModel()
model.eval()
optimizer = torch.optim.Adam(params = model.parameters(), lr = CFG["LEARNING_RATE"])
scheduler = torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max=len(train_loader)*CFG['EPOCHS'], eta_min=0)

best_score = train(model, optimizer, train_loader, val_loader, scheduler, device)
print(f'Best Validation F1 Score : [{best_score:.5f}]')
```


train하기 전에 model.eval() 을 하는데 이러면 훈련이 안되지 않나요?

DACONIO
2022.07.24 11:49

안녕하세요 클로드섀넌님,
train 함수를 확인해보시면 model.train()이 있습니다.
감사합니다.

이전 글
Train data 탐색적 데이터 분석(EDA)
대회 - 2022 AI 대학원 챌린지
좋아요 17
조회 5,556
댓글 0
2년 전
현재 글
[Baseline] Embedding Layer + LSTM
대회 - 2022 AI 대학원 챌린지
좋아요 8
조회 2,064
댓글 2
2년 전
다음 글
다음 글이 존재하지 않습니다.