월간 데이콘 제 2회 컴퓨터 비전 학습 경진대회

알고리즘 | CV | 분류 | 제어 | Accuracy

  • moneyIcon Prize : 100만원
  • 1,196명 마감

 

파이토치를 이용한 정말 간단한 Multi-Label Classification

2021.01.28 14:20 29,372 Views language

파이토치를 이용한 정말 간단한 Multi-Label Classification입니다.

아래 베이스라인 코드에서 OOF(out of folds)를 잘 모르시는 분은 이 코드로 validation set 정도 나누고
epoch 정도만 늘리셔도 스코어 0.8 정도 나오실 겁니다. 이대로 학습하시면 과적합으로 순위 변동이 심하실 겁니다.

* 파이토치에서 Multi-Label Loss Function을 지원하기 때문에 모형에 따로 추가할 활성화 함수는 필요없습니다.

감사합니다.

Code
로그인이 필요합니다
0 / 1000
당쇠
2021.01.28 14:41

코유 감사합니다.

에르모
2021.01.28 15:03

와 코유가 뭔지 생각하고 있었네요..

DACON.edu
2021.02.25 23:54

하하하

내맘대로T
2021.01.31 09:36

감사합니다 XD

heegon
2021.02.01 20:35

좋은 코드 공유 감사해요

박경태
2021.02.02 10:15

좋은 코드공유 감사합니다

kobi2000
2021.02.04 01:41

삭제된 댓글입니다

kobi2000
2021.02.08 19:36

코드 공유 고맙습니다.
```
outputs = outputs > 0.5
acc = (outputs == targets).float().mean()
```
일단 torch.sigmoid(outputs) > 0.5 이 맞겠지요? 
그리고 이렇게 계산한 acc 로 local cv score랑 LB score랑 맞추어 지셨나요?

우주대마왕
2021.02.09 10:36

감사합니다. 
1. Out of samples와 LB 스코어는  비슷한 수준입니다. 

2. 현재 공개한 코드로는 예측값에 sigmoid로 후처리 한 후 0.5로 하시면 점수가 더 낮게 나오실 겁니다. 예측값이 +-값으로 0을 기준으로 바이너리 마스크 생성하셔도 sigmoid로 후처리 한 결과와 비슷한 점수가 나오실 겁니다.  
결과: sigmoid 적용 0.874 미적용 0.877

3. 제가 모형 마지막 단에 sigmoid 활성화 함수를 사용하지 않은 이유는 리팩토링할 시간이 없어서 예전에 쓰던 코드로 대충 돌리다보니 multi-gpu, automatic mixed precision 적용 시 매우 불안정하고 학습속도가 느려져서 빼버렸습니다. 

기타치는고양이
2021.03.08 23:15

삭제된 댓글입니다

kisooofficial
2022.09.19 18:53

안녕하세요 혹시 여기선 아직 data augmentation을 적용시키지 않은건가요?