분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
월간 데이콘 반도체 박막 두께 분석 경진대회
데이터가 크다보니 계속 오류가 나는데 다들 어떻게 해결하시나요?
데이터가 커서인지, 제가 못해서인지 계속 cannot allocate vector of size 와 같은 오류가 발생하는데 어떻게 해결하시나요?
R로 진행하고 있습니다.
데이터 읽는 것은 fread를 이용하여 하였는데요. 그 이후 모델을 생성한다든가 그 부분에서 또 막히어 질문드렸습니다 ㅠㅠ 이 부분은 제 RAM을 늘리는 것 아닌 이상 해결할 수 없는건가요?
Python을 사용하신 다면... 다음과 같이 pd.read_csv()에서 chunksize라는 것을 사용해서, 파일의 일부분씩 순차적으로 읽어와서 작업을 할 수 있습나다.
for df_train in pd.read_csv('train.csv', chunksize=100000):
# 읽어들인 record에 대한 작업 수행.
참고로 나는 RAM이 16G인 노트북에서 작업을 하고 있는데, Memory 오류가 발생하지 않습니다.
감사합니다! 음 제 RAM이 작다보니 생긴 문제같습니다...ㅠ
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
R 사용자시고, 파일을 읽을 때 문제가 된다면, fread 함수를 찾아보시면 될 것 같습니다.