12월에도 스테이지1 무료 혜택은 쭈~욱 계속됩니다!
분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[LB:0.4313] Transformer feature encoding
transformer 구조중 multihead attention을 18개의 feature에 적용해서 feature간의 연관성에 좀 더 집중하는 모델을 만들고자 했습니다. Brain_AI_이희원님의 전처리를 참고하였습니다.
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved