분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
2025 Samsung Collegiate Programming Challenge : AI 챌린지
모델 파라미터 수 측정 방식
def count_parameters(model):
return sum(p.numel() for p in model.parameters())
안녕하세요.
양자화를 공부해보고 있습니다. 모델 파라미터 수 제한 사항이 3B였는데요. 양자화 된 경우에는 바이트수가 줄어들면서 파라미터 수가 줄어드는 것처럼 보이는 것 같습니다.
아래 문서에서 numel() 함수의 용법이 나와있는데 해당 함수를 사용해서 모델의 파라미터 수를 측정하면 되는 것인지 궁금합니다. 비양자화 모델과 양자화 모델의 파라미터수가 같다고 생각했지만 count_parameters()를 써보면 양자화 모델이 훨씬 줄어든 것으로 보입니다. 양자화 모델이 3B 이하이면 해당 모델을 써도 되는 것일까요?
https://docs.pytorch.org/docs/stable/generated/torch.numel.html
>>> a = torch.randn(1, 2, 3, 4, 5) >>> torch.numel(a) 120 >>> a = torch.zeros(4,4) >>> torch.numel(a) 16
감사합니다.
load_도 마찬가지일 것 같아요. 저는 transformers 라이브러리에서 .from_pretrained() 쓰고 있습니다.
본 대회에서는 추론에 로드되는 모든 모델의 가중치(parameter)의 수를 기준으로 총합이 3B(30억 개) 미만이어야 합니다.
이 기준은 '모델이 실제 추론 과정에서 로드되는 전체 파라미터 수의 합계'를 의미하며, 양자화 여부와 관계없이 모델의 논리적 구조 상 포함되는 모든 가중치를 포함합니다.
혹시 제가 공유한 코드 말고 파라미터 수를 측정하는 방법이 있다면 알려주실 수 있을까요?
모델이 3B 미만인지 어떻게 검증할까요?
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
안녕하세요 load_ 함수로 부를 경우를 말씀하시나요?
파라미터 저장방식 때문에 적게 보이는데, 실제는 같지 않을까요?