분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[DACON CUP] 베이스라인코드 BASELINE
안녕하세요 데이콘입니다.
LSTM을 이용한 baseline입니다.
<예측> 부분 코드가 수정되었습니다.
참고바랍니다!
감사합니다.
데이콘 드림.
#python #machinelearing #deeplearning #baseline #code #data #datascience #ai #dacon #competiton #tableu #jupyternotebook #code #ML #DL
삭제된 댓글입니다
만드신 LSTM에 대해서 여쭤봐도 되나요 ??
네 편하게 문의주시기 바랍니다!
forward에서 hidden_lstm을 1번만 쓰는 걸로 알고 있는데요. 3번 쓰여있어서 제가 잘못 알고있는건지 아니면 3번을 쓰신 이유가 있는건지 궁금합니다.
데이콘측이 아니더라도 의견이 있으시다면 댓글 부탁드리겠습니다:)
안녕하세요 gambit님.
lstm hidden layer를 여러 층으로 쌓아서 복잡한 특징을 추출하기도 합니다. 다음 글을 참고로 읽어보시면 좋을 것 같아요. (https://towardsdatascience.com/choosing-the-right-hyperparameters-for-a-simple-lstm-using-keras-f8e9ed76f046)
이러한 이유로 pytorch에서도 lstm은 num_layers라는 하이퍼 파라미터를 통해서 hidden_layer의 수를 사용자가 결정할 수 있도록 만들어 두었습니다.(pytorch 공식문서 : https://pytorch.org/docs/stable/generated/torch.nn.LSTM.html)
저희 baseline 코드는 이러한 num_layers 파라미터를 따로 조정하지 않고 연속적으로 쌓아서 여러층의 hidden_layer를 구현하였는데요. 두 코드는 같은 동작을 수행하는 코드입니다. (https://stackoverflow.com/questions/49224413/difference-between-1-lstm-with-num-layers-2-and-2-lstms-in-pytorch)
감사합니다.
친절한 답변 정말 감사합니다!! pytorch에서 이런방식으로 hidden layer를 추가할 수 있군요. 그럼 여기에서는 lstm 을 4개 층으로 쌓아서 사용했다고 볼 수 있겠군요!! 이렇게 또 하나 배웁니다:)
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
삭제된 댓글입니다
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
<예측> 부분 코드가 수정되었습니다.
참고바랍니다!