분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[초보의 경량화 시도] Multi-Head Self-Attention
안녕하세요 데이터를 갓 배운 초보 입니다.
베이스라인 코드들을 참고하며 경량화를 시도해봤습니다.
아직 초보여서 부족한 코드 입니다ㅠㅠ
감사합니다.
밑에 Self-Attention 코드보다 Attention 헤드수 등 논문 파라미터 경량화한 코드입니다.
2나 6같은 숫자도 예측하고 싶은데 쉽지 않네요 ㅠㅠ
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
좋은 코드 감사합니다! ㅎㅎ 기존 베이스 라인 학습 속도 보다 조금 느린거 같은데 혹시 어떤 부분이 경량화 된것일까요 ?? ㅎㅎ 감사합니다 !