분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
문맥 기반 문장 순서 예측 AI 경진대회
LLM의 블랙박스 문제에 관하여
여러분 대회 고생 많으셨습니다.
LLM 특성상 블랙박스적인 요소는 항상 있습니다만,
이번 대회의 경우 프롬프팅에 따라 같은 모델도 score가 크게 왔다갔다하는 특징이 있어
더욱 까다로웠던 것 같습니다. 특히 순서 편향 문제가 어려웠던 거 같아요.
아마 프롬프팅과 finetuning, 모델 선정 등이 중요했을 것으로 보이는데
다들 어떤 방식으로 접근하셨는지,
score 향상에 어떤 점이 주요했는지 궁금합니다.
저도 최신 qwen reranker 8b를 사용해 봤는데 결과가 좋지는 않았던 것으로 기억합니다.
contrastive learning 관련해서는 Back-translation을 시도해 봤었는데, 역번역 품질이 별로였는지 이 또한 결과가 좋지 않았습니다.
Loss 관련해서는 전역적인 문장 순서를 반영하는 lambda loss 등을 반영해 봤는데 큰 영향은 없었던 것 같아요.
대회 고생하셨습니다.
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
저는 문단 시작토큰, 끝 토큰을 추가하고 reranker모델을 사용해서 pair wise로 예측, 이를 바탕으로 6! 의 경우의 수 중 문단의 종합예측 score가 가장 높은 경우를 예측했습니다.
qwen reranker 4b 모델을 활용했고 contrastive learning을 통해 성능을 올리려했는데 잘 안되었네요.
encoder 계열(reranker 포함)로 문장 4개 [sep]로 나열하고 원래 위치 예측과 더불어, sep 토큰을 이용해서 attention map상에서의 상대적 문장 위치 예측 loss를 보조적인 loss로 활용해볼까 하고 생각은 했는데 하지 못했군요