분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
2025 금융 AI Challenge : 금융 AI 모델 경쟁
인덱싱시 추론 시간에 포함되나요?
RAG가 가능한 상황으로 이해가 됩니다.
감사합니다.
안녕하세요,
추론 과정의 Retrieve(검색) 단계에서 '질문'을 '벡터'로 변환할 때 청킹/인덱싱 과정에서 사용했던 임베딩 모델을 사용하는 것도 복수 LLM을 사용하는 것인지 문의드립니다. 이 모델은 직접적으로 답변을 생성하진 않습니다.
임베딩 모델은 복수 LLM에 고려되지 않습니다. 그러나 추론 리소스에서는 임베딩 모델까지 포함한 동작이 가능해야합니다.
Deleted Comment
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
1) 제출 시 평가 데이터셋에 대한 추론 코드를 별도로 제출해야하며, 이 코드의 실행 시간을 측정합니다.
2) 청킹/인덱싱 과정에서의 임베딩 모델은 별도 사용이 가능하지만, 실제 추론 과정(Retrieve + Generate)에서 복수 LLM을 사용하는 것은 허용되지 않습니다.