분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[Private 5위] Roberta-Large
OS: Ubuntu 22.04.41LTS
GPU: NVIDIA RTX 3090ti x 2
ChatGPT: GPT-4
ChatGPT Link: https://shareg.pt/6A45AWU
Model Weights: https://drive.google.com/file/d/1dTAS6aOM06UxwGaAMhGRMk8X7pbe40Eq/view?usp=share_link
prompt 전략:
한국어보다는 영어로 프롬프트를 작성하고, 구체적으로 사용해야 할 모델이나 loss 등을 지정 해 주었을 때 더 고품질의 코드를 더 잘 생성해 주었습니다.
여러가지 실험을 해봤지만 Roberta-large + Focalloss를 사용했을 때 성능이 가장 좋았습니다. data imbalance를 해결하기 위해 EDA와 같은 data augmentation도 적용해봤지만 성능이 더 내려가서 그 부분은 최종 코드에서 제외했습니다.
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved