월간 데이콘 반도체 박막 두께 분석 경진대회

how to decrease score 1.x -> 0.x ?? Help Bro.

2020.01.26 12:40 5,594 조회

안녕하세요? 월간 데이콘 참가자 여러분.


민족의 대명절에도 쉬지 않고 데이터를 바라보는 우리 모두의 열정에 박수를 보냅니다.


저희 팀은 BASEline Code + MLP parameter change를 바탕으로


Score 1.XX까지는 imporve 시켰으나 더 이상 진전이 없어, 여러분의 도움을 받고자 토론에 글을 올립니다.




우선 저희는


  1. dataset


데이터 셋에는 딱히 전처리할 필요가 없이 깔끔하다? 지금 토론창 다른 글에 올라와 있는 음의 반사율 data의 비율도 test에 골고루 분포되어 있고, 파장에 따른 outlier도 test에 비슷하게 분포되어 있어서 건드리지 않아도 되겠다! 라고 생각했습니다.


  1. MLP Modeling


기본 BASE코드에 여러 Parameter를 변경하면 1점대 까지는 갑니다. (다른 토론글에도 명시되어 있음.)

layer / node / activation / epoch / batch size / validation split + weight initialization / normalization(user by user)



여기서 학습(오히려 학습을 시킬 수록 score가 떨어지는 경우도 있음) 을 더 시키거나 modeling을 변경하여도 score의 발전이 딱히


없는 것 같은데, 단순 layer / node 수를 변경시키며 최적의 model을 찾는 것이 이 대회의 방향인가 싶기도 합니다.....


다른 분들은 어떻게 생각하시나요?



서로의 도움이 되었으면 합니다!

하루 남은 연휴 잘보내세요~

로그인이 필요합니다
0 / 1000
최정명
2020.01.26 17:25

lstm, cnn, mlp 모델을 여러개 섞어가며 몇 시간 막 훈련을 시켰는데 0.9~1.1 정도는 나오는데 더 이상 진전이 없네요.

저는 output을 linear로 뽑았는데 test셋을 입력하여 예측값을 봤을 때 300이 넘어가는 값이 있어서 이 값은 300으로 고정 시켜 제출하는 방법도 있을것 같습니다.

호랑이기운이불끈
2020.01.26 22:16

오 그런 방법도 있네요!
모델 섞는건 어떤식으로 진행하는 건가요?

코코
2020.01.26 20:42

보통 epoch를 어느정도까지 학습시키시나요? base code로 training mae가 1에 가까워지려면 1~2시간(GPU 1080TI)가지고는 안되는 것 같은데;...

호랑이기운이불끈
2020.01.26 22:15

그래서 레이어랑 노드 늘려서 학습 시켰습니다 보통 레이어 1~2개 추가 노드 X2~3하면
Epoch 40쯤에 mae 9~10초반 나오고 score는 1점 중후반에 수렴하더군요..

ChrisYang
2020.01.27 18:45

단순 mlp로 0.7까진 나오네요 0.3에서 0.5 사이는 잘 모르겠습니다

호랑이기운이불끈
2020.01.28 23:16

감사합니다!

JunhwaKim
2020.01.28 22:34

저희는 mlp 모델 복잡성을 증가시키는 구조로 만들었습니다.  특별한 기법은 아니고 다 공개된 여러가지 딥러닝 네트워크 구조 설계방법 중 하나를 선택했고 단일 모델로는 0.4xx 가 나오지만 모델 파라미터와 같은 변수를 변경해서 앙상블하는 방식으로  결과를 얻고 있습니다.

호랑이기운이불끈
2020.01.28 23:16

감사합니다!