분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[Private 9th] roberta-base + preprocessing
공동작성자
시드 설정
- random.seed(42)
- np.random.seed(42)
- torch.manual_seed(42)
- torch.cuda.manual_seed_all(42)
모델은 트위터 기반 감정분석 학습모델을 사용하였고 large모델은 GPU메모리 때문에 사용하지 못해 base모델을 사용했습니다.
모델: cardiffnlp/twitter-roberta-base-sentiment-latest
url: https://huggingface.co/cardiffnlp/twitter-roberta-base-sentiment-latest
전처리를 간단하게 했을 때와 n-gram 등 캐글 코드를 참고하여 작성하였을때 public fl score가 0.5정도 차이나서 전처리에 집중을 하였습니다.
배치크기를 늘리거나 max_len를 늘리면 GPU 메모리가 오버되서 배치 크기는 32, max_len는 320, learning_rate는 5e-5를 사용했습니다.
validation data로 하이퍼 파라미터를 조절하며 성능이 그나마 제일 잘나온 하이퍼 파라미터를 사용했습니다.
캐글 함수 사이트: https://www.kaggle.com/competitions/nlp-getting-started/code?competitionId=17777&sortBy=voteCount
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved