분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
LLM ( LLama2 )를 이용한 정답 구하기
머신러닝 알고리즘 ( random forest, boosting )계열 모델은 많은 것 같아 기초적이지만 LLM 관련 학습을 시도했습니다.
GPU : 4090 , single 입니다 ! ( 코드내 4080 오타입니다 ! )
점수는 많이 낮지만 LLM 관련 코드라 혹시나 코드 중에 조언 주실 부분이나 수정할 부분 있으시면 언제든 환영입니다!
감사합니다! 😊
nlp도 xai가 가능한지 모르겠는데, 혹시 한번 써보시는건 어떤가요?
LLM의 경우 COT 프롬프팅으로 LLM의 단계별 추론 과정을 유도해서 XAI를 실행하는 것으로 알고는 있지만
아직 그 정도로 정교하게 프롬프팅 하는 것은 저한테 어렵더군요 ㅠㅜ
만약 실행해서 LLM이 판단하는 피처들의 관계나 , 중요도를 알 수 있다면 정말 흥미로울 것 같습니다 !
이런 접근법도 있군요 ㅋㅋㅋ 너무 신기합니다
안녕하세요 공유해주셔서 정말로 감사합니다 llm에 관심이 있었는데 이렇게 학습시킨 경운 처음 본 것 같네요 혹시 다음 질문이 있는데 답변해주시면 더더욱 감사하겠습니다.
1) 혹시 현재 결과로 public score가 어느정도 나오는지 궁금합니다
2) llama이외의 다른 모델이나 혹은 다른 비트 규모로 돌려보셨는지도 궁금합니다
3) 아울러 혹시 코드 작성 관련해서 참고하신 레퍼런스가 있을까요? 공유해주시면 너무나 감사하겠습니다
다시 한 번 좋은 코드 공유해주셔서 감사합니다.
질문 감사드립니다!
1. public score 의 경우 1 epoch 했을 때는 0.15 정도 2 epoch 했을 때 0.17 초반 나왔습니다! 아예 못하는 task 에서 어느 정도 정답률이 나왔다는 것에 의의를 두고 있습니다. 학습 과정에 좀 더 부채 등급을 판단하는 채점 과정이나 , COT처럼 상세하게 작성해볼 계획입니다 !
2. 다른 bit의 경우는 제가 개인적으로 사용 가능한 리소스 내에서 시도해보지 못했습니다. 다른 모델의 경우 solar 나 mistral 같은 경우가 있을 텐데
Solar (instruct tuning x ) 의 경우는 시도 1 epoch기준 비슷한 score였고 또 10.7B다 보니 추가로 디벨롭하지는 못했습니다.
3. 해당 작업은 전부 다 직접 작성하긴 했지만 이전에 LLM finetuning을 위해 레퍼런스로 봤던 부분은 이 정도 입니다 !
: https://gathnex.medium.com/mistral-7b-fine-tuning-a-step-by-step-guide-52122cdbeca8
: https://huggingface.co/docs/peft/task_guides/image_classification_lora
:https://github.com/brevdev/notebooks/blob/main/mistral-finetune.ipynb
빠른 답변 및 상세한 답변 감사합니다! 도움 많이될 듯 합니다 감사합니다.
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
크 멋있는 인사이트입니다!