분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[Private 2위] DeBERTa with Label Smoothing Loss
pdf 용량이 너무 커서 파일 업로드에 올라가지 않네요 (100장 정도) ㅠㅠ 앞부분만 올리고 링크로 첨부하겠습니다..! 다들 수고하셨습니다!
ChatGPT 프롬프트 전략 (ChatGPT 4 사용) : https://github.com/juicyjung/Code_By_ChatGPT/blob/main/Prompt_Strategy_for_Programming_with_ChatGPT.pdf
모델 weight 파일 (다운로드 링크) : https://drive.google.com/drive/folders/1guAMyNXOnBnKFZgDksFn4XWIMsiRVYwi?usp=sharing
Inference 할 때는 위 링크 모델 파일 다운 받고 맨 마지막 셀 돌려보시면 됩니다!!
사용 환경 : Google Colab Pro Plus, Ubuntu GeForce RTX 3080 Lite Hash Rate
- Stratified K-Fold로 train / val dataset 나누기
- train set에 해당하는 data들 augmentation (Back translation / Summarization)
- Preprocessing
- “sileod/deberta-v3-base-tasksource-nli” 모델 fine-tuning
- token max_len = 512, batch size = 32
- optimizer = AdamW, lr = 1e-5
- loss funtion은 Label smoothing loss, smoothing = 0.01 사용
- 1 Fold와 3 Fold ensemble.
봐주셔서 감사합니다! 궁금한 부분이나 피드백 있으면 편하게 답글 남겨주세요 ㅎㅎ
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
안녕하세요, Ensemble부분과 Data Augmentation (Summary)부분의 코드가 똑같아서 무언가 헷갈린 모양입니다.
코드 잘 봤습니다... 공유해주셔서 감사합니다.