분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[Private 10th] roberta + preprocessing
공동작성자
1. Preprocessing
- translator를 사용하여 test_data['text']에 있는 각 텍스트에 대해 번역을 적용하였습니다.
2. roberta 모델 사용
- PyTorch와 HuggingFace의 Transformers 라이브러리를 사용하여 RoBERTa 모델을 감정 분석 작업에 맞게 미세 조정하는 작업을 수행하였습니다.
- 모델과 토크나이저: RoBERTa base model (roberta-base)
- 텍스트 처리: 최대 텍스트 길이: 256 토큰 (max_length=256), 입력 텍스트는 truncation과 padding 처리가 되어 있습니다.
- 데이터셋 분할: 훈련 데이터: 90% (train_size = int(0.9 * len(dataset))), 검증 데이터: 10% (나머지)
- Dataloader 설정: 훈련 데이터 배치 크기: 32 (batch_size=32), 검증 데이터 배치 크기: 32 (batch_size=32)
- 옵티마이저: Optimizer - AdamW, Learning rate (lr) - 5e-5
- 훈련 에폭: 3
- GPU 설정: CUDA가 가능한 경우 GPU를 사용하며, 그 중 'Tesla T4'인지 확인하고 출력하고 CUDA가 불가능한 경우 CPU를 사용하였습니다.
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
직업정보제공사업 신고번호: J1204020250004
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io |
전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved