ChatGPT 활용 AI 경진대회 월간 데이콘

알고리즘 | ChatGPT | 프롬프트 엔지니어링 | 언어 | 분류 | Macro F1 Score

  • moneyIcon 상금 : 인증서
  • 1,212명 마감

 

[Private 5위] Roberta-Large

2023.04.16 00:53 1,769 조회 language

OS: Ubuntu 22.04.41LTS
GPU: NVIDIA RTX 3090ti x 2
ChatGPT: GPT-4

ChatGPT Link: https://shareg.pt/6A45AWU
Model Weights: https://drive.google.com/file/d/1dTAS6aOM06UxwGaAMhGRMk8X7pbe40Eq/view?usp=share_link

prompt 전략:
한국어보다는 영어로 프롬프트를 작성하고, 구체적으로 사용해야 할 모델이나 loss 등을 지정 해 주었을 때 더 고품질의 코드를 더 잘 생성해 주었습니다.
여러가지 실험을 해봤지만 Roberta-large + Focalloss를 사용했을 때 성능이 가장 좋았습니다. data imbalance를 해결하기 위해 EDA와 같은 data augmentation도 적용해봤지만 성능이 더 내려가서 그 부분은 최종 코드에서 제외했습니다.

PDF
코드