분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[HAICON2021] feature attention을 이용한 lstm
안녕하세요. 먼저 좋은 대회 열어주셔서 감사합니다.
아래 코드는 기존의 back-bone이었던 lstm에 특정 feature를 강조할 수 있도록 attention[1]을 적용했습니다.
그리고 마지막에 residual-connection을 할 때, learnable한 비율[2]을 통해서 진행했습니다.
대회 당시에 Transformer와 같은 inductive bias가 낮은 모델들을 이해하지 못해서 적용하지 못했지만, 이를 적용하면 좋은 결과를 얻을 수도 있을 것 같습니다.
+) 코드 설명에 Transformer가 성능이 좋지 않았다고 되어있지만, 이는 Transformer 코드를 잘못 짜서 그렇습니다.
참고 논문
[1] Woo, S., Park, J., Lee, J. Y., & Kweon, I. S. (2018). Cbam: Convolutional block attention module. In Proceedings of the European conference on computer vision (ECCV) (pp. 3-19).
[2] Wu, H., Qu, Y., Lin, S., Zhou, J., Qiao, R., Zhang, Z., ... & Ma, L. (2021). Contrastive learning for compact single image dehazing. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 10551-10560).
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
오리 도리 님 공유 감사합니다.~