분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[Private 5위] Roberta-Large
OS: Ubuntu 22.04.41LTS
GPU: NVIDIA RTX 3090ti x 2
ChatGPT: GPT-4
ChatGPT Link: https://shareg.pt/6A45AWU
Model Weights: https://drive.google.com/file/d/1dTAS6aOM06UxwGaAMhGRMk8X7pbe40Eq/view?usp=share_link
prompt 전략:
한국어보다는 영어로 프롬프트를 작성하고, 구체적으로 사용해야 할 모델이나 loss 등을 지정 해 주었을 때 더 고품질의 코드를 더 잘 생성해 주었습니다.
여러가지 실험을 해봤지만 Roberta-large + Focalloss를 사용했을 때 성능이 가장 좋았습니다. data imbalance를 해결하기 위해 EDA와 같은 data augmentation도 적용해봤지만 성능이 더 내려가서 그 부분은 최종 코드에서 제외했습니다.
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved