분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[LB:0.4313] Transformer feature encoding
transformer 구조중 multihead attention을 18개의 feature에 적용해서 feature간의 연관성에 좀 더 집중하는 모델을 만들고자 했습니다. Brain_AI_이희원님의 전처리를 참고하였습니다.
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved