분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
private 5th 0.96802) gemma-2b + 9b + Rule postprocessing
다들 수고 많으셨습니다.
LLM 관련해서 공부하고자 참여했는데 아주 재밌는 대회였습니다.
코드 공유해주신 분들을 보고 다르게 접근 할 수도 있었구나.. 생각했습니다. 많이 배웠습니다.
간략하게 전략을 소개해보자면,
1. gemma 2b / 9b 학습
2. 데이터 증강 -> ( 학습에서는 사용 x )
3. train 데이터 전처리
4. LLM + train 전처리 데이터 이용한 후처리
식으로 진행하였습니다.
이번 대회는 문장의 글자 수와 위치가 상당히 score에 영향을 많이 미쳤습니다. 즉, 띄어쓰기 기준으로 정확한 글자수를 유지해야 하는게 키였던것 같습니다.
Gemma 2b/9b는 글자, 띄어쓰기를 추가하여 0.91(gemma-9b) 점수를 달성하는 모습을 보였습니다.
문장의 길이를 맞추기위해, 띄어쓰기 기준으로 gemma가 생성한 어절의 글자수가 다르면, 주어진 문장의 어절을 대신 사용하는 것으로 문장의 띄어쓰기, 길이를 유지하였습니다. 대신 사용하게 된 어절은 train의 데이터를 이용하여 전처리를 통해 보다 해독된 어절을 사용할 수 있도록 유도했습니다.
학습, 데이터 생성, 전처리, 후처리 파일이 나눠져있어 구글 드라이브로 업로드 후 공유하겠습니다.
code) https://drive.google.com/drive/folders/1E8RmNeUmjgX6nuek4qKwwh_ndhVMLatc?usp=sharing
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
직업정보제공사업 신고번호: J1204020250004
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io |
전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved