분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
LLM Inference Baseline on CPU or GPU
## Introduction
코드 링크 : https://dacon.io/competitions/official/236216/codeshare/9690?page=1&dtype=recent
## Experiment
Generator parameters:
CPU - 7B_q4
T4 - 7B_q4
V100 - 7B_fp16
A100 - 7B_fp16
CPU 기준 테스트 샘플 인퍼런스는 1시간 30분 이내로 소요되며, T4 기준 10분내로 처리됩니다.
## 사용 모델
https://huggingface.co/davidkim205/komt-mistral-7b-v1
## Etc
GPU를 사용하고자 하는 분들께
The default pip install behaviour is to build llama.cpp
for CPU only on Linux and Windows and use Metal on MacOS.
코드 설명
## Update History
2024.02.13
2024.02.14
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
👏🏻