월간 데이콘 생체 광학 데이터 분석 AI 경진대회

1등 솔루션입니다

2020.06.26 19:17 6,644 Views





대회 주최와 대회 참여하신 분들께 감사합니다. 다들 정말 고생하셨습니다!


우리 솔류션에 다음과 같은 features 사용했습니다. rho, log(src), log(dst), src==0, dst.isnull(), wavelength 그리고 신경망을 11 레이어 GRU+attention으로 만들었습니다.


수고하셨습니다!~~

로그인이 필요합니다
0 / 1000
최정명
2020.06.26 19:34

와 ... 저는 신경망으로 아무리 구성을 해보아도 모델이 훈련을 잘 하지 못하는 모습이었는데 코드가 정말 기대되네요 !!

고생하셨습니다 ! 1등 축하드립니다.

SF
2020.06.26 19:57

감사합니다

알레나
2020.06.26 20:27

감사합니다^^~ 정명님도 고생하셨습니다~

처음해봐요
2020.06.26 19:35

혹시 소스코드 공개도 가능할까요? 저희도 LSTM Attention이나 1d Convolution을 하긴 했는데 성능이 좋지 못하였습니다.(0.89) // Is it possible to release the source code? We also did LSTM Attention or 1d Convolution, but the performance was not good.(0.89)

SF
2020.06.26 19:51

I try to answer in english first. Let me know if you don't speak english, I'll ask my teammate to translate in this case. Sure, we can share our solution, actually it's a single google colab notebook. But we need the approval of the organizers of the competition for this, don't we? 

처음해봐요
2020.06.26 20:06

삭제된 댓글입니다

처음해봐요
2020.06.26 20:08

Perhaps the instructions will go to Mail.

I saw your Data science Bowl 2019 Solution. We also participated in the competition.

SF
2020.06.26 20:10

I'm sorry to hear about DS Bowl, yeah it was much harder fight too. It seems I deleted your message. Oooops, It wasn't by demand. I'm sorry again. Yeah, we will share code a little bit later as far as dacon'll confirm that it's ok. 

SF
2020.06.26 23:27

I've shared our code here: https://dacon.io/competitions/official/235608/codeshare/1274?page=1&dtype=recent&ptype=pub

처음해봐요
2020.06.26 23:31

Thank you for sharing. I should study and make it with Pytorch version.

SF
2020.06.26 23:34

This is the link on pytorch version of the same model https://colab.research.google.com/drive/19GJRcBCkje0h7Sbtfx2ta2c2G_WJFKJ_?usp=sharing

SF
2020.06.26 23:36

I have no idea why, but the pytorch version above is slightly worse.

처음해봐요
2020.06.27 01:40

Wow!! Thank you so much!

Team
2020.06.26 19:44

Your score is so amazing..!

SF
2020.06.26 19:56

Thanks! It looks like a simple solution, but it wasn't an easy fight ;) I'm so happy it's all over now.

당쇠
2020.06.26 23:10

Thank you for taking time with DACON. Mr. SF !!

Kim KyungHwan
2020.06.27 01:20

Thanks for the sharing. Can we tell how did you think of implementing attention on this dataset?

SF
2020.06.27 01:44

The brain is a some kind of translator from "src" to "dst" and some of NLP technics are very applicable there. So we've tried bidirectional RNN with self-attention because even 35 elements sequence is long enough for RNN and it can "forget" something important. Is it what you asked me for?

Kim KyungHwan
2020.06.27 02:40

Exactly. I've just tried vanila NN approach, and gave up improving that. So, wondered how GM tackled it.
Appreicate for the detailed explanation.  Congrats for the 1st place!