분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
월간 데이콘 음성 중첩 데이터 분류 AI 경진대회
다들 훈련데이터 전부 다쓰시나요????
mfcc로 변환한 후, lstm을 사용해서 학습을 하는중인데... 1epoch당 2시간은 걸리네요 ㅠㅠ
batch_size를 늘리자니 gpu 메모리가 터져버리고....
다들 어떻게 하고계신가요??
혹시 돌리시는 모델 파라미터 갯수가 어떻게 되시나요??? 제가 너무 큰 모델을 쓰고있나 싶습니다...제꺼는 100만개 정도 되는데 너무 큰 모델이 아닌가 싶네요
저는 LSTM을 사용하지는 않고 있으며 1.5M 정도의 param을 가지고 있습니다. RTX 2070에서 1 epoch 학습하는데 2분 정도 걸립니다.
감사합니다!
파라미터 갯수 100만개면 굉장히 작은 모델 아닌가요? // 아니면 data loader에서 전처리하실 때 파일 IO 과정에서 bottleneck이 있을 수 있습니다. //준호님 말처럼 dense layer에서 생길수도 있습니다. num workers를 조정해서 IO에 할당되는 process를 여러개 두셔도 될듯합니다. // 아니면 전처리 한 데이터를 저장해 주셔도 되고요..
오오...cpu에서 gpu로 넘길때의 IO bottleneck 말씀하시는건가요??미처 고려를 못해봤네요 감사합니다 ㅎㅎ
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
저는 훈련데이터 전부 사용하고 있고 학습데이터를 train/valid로 나누어서 hyperparameter를 튜닝합니다. 튜닝이 끝나면 학습데이터 전부로 학습해서 제출합니다. LSTM을 써도 그렇게 오래 걸리지는 않을 것 같은데 아마 dense layer에서 bottleneck이 생기는 것이 아닌지 추측해봅니다.