분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
도배 하자 질의 응답 처리 : 한솔데코 시즌2 AI 경진대회
현 대회의 방향성과 국내 LLM의 한계성
'yanolja/KoSOLAR-10.7B-v0.2', 'ONS-AI-RESEARCH/ONS-SOLAR-10.7B', 'kimwooglae/WebSquareAI-Instruct-KoSOLAR-10.7b-v0.5.34', 'LDCC/LDCC-SOLAR-10.7B'
`2. 허깅페이스 ko-llm 리더보드와 en-llm 리더보드를 LDCC/LDCC-SOLAR-10.7B 모델로 비교해보면, 같은 모델임에도 불구하고 전체적인 벤치마크에서 en-llm 능력이 우수한 것을 확인할 수 있는데 이는 LDCC의 모델이 upstage/SOLAR-10.7B-v1.0,를 기반으로 한 야놀자의 모델을 사용해서 그런 것 뿐만 아니라, 토크나이저의 차이로 인한 결과로 보인다.
`3. SOLAR 10-7B를 기반으로 한 모델들은 토크나이저 이슈로 GGUF 변환을 사용할 수 없고 이에 따라 llama-cpp를 이용할 수 없는 단점이 존재한다.
`4. SOLAR 10-7B를 기반으로 한 모델들은 LoRA를 내부적으로 Merge하여 사용하기 때문에, Exellama를 사용할 수 없다.
위와 같은 사실은 전통적인 허깅페이스식 인퍼런스를 요구하므로, Generation Task 과정에서 시간적으로 비효율적인 Token 생산 과정을 사용하도록 제약한다.
`5. 최종 리더보드 스코어는 0.9를 넘기지 않을 것이며, 0.85 +- 0.01 정도에서 상주 할 것으로 예상된다. (LB, PB 모두 적용)
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
아주 훌륭한 통찰력이시네요. 많이 배워갑니다.