분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[Public 점수 :0.17616(private 기준 14위)] 코드 공유 합니다.
사용한 모델은 AutoKeras의 TextClassifier 입니다.
다만, TextClassifier가 동작하면서 Pre-trained Model이 사용되었을 수 있습니다.
그렇기에 짧은 코드로도 꽤 준수한 성능(?)을 낼 수 있음을 공유하는 것과 AutoML을 소개하는 것에 좀 더 의의를 두고자 합니다.
코드는 모두 Google Colab 환경에서 구동하였습니다.
서두에 언급한 것처럼 사용한 AutoML 라이브러리 특성상 Pre-trained가 사용되었을 수 있다고 생각했는데 현재 다시 한 번 돌리면서 Vanilla RNN -> Transformer -> Bert 순으로 동작하는 걸 확인했습니다. 링크로 달아주신 부분을 보면서 조금 더 명확해지는 것 같네요.
+ Toona 님이 이번 대회에 공유하신 코드도 잘 보았습니다.
리뷰 감사합니다!
한국어는 지원 안되나요??
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
안녕하세요 코드 잘 봤습니다. 정말 다양한 automl들이 상당한 성능을 내고 있네요.
공유해주신 코드 실행시켜보니, vanilla로 불리는 모델(무슨 모델인지는 정확히 모르겠습니다 ^^;), transformer 모델, bert 모델 세 모델을 학습한 후,
가장 validation 성능이 뛰어난 모델을 반환합니다.
그런데, bert 모델의 경우 사전 학습된 모델을 사용하고 있습니다.
(https://github.com/keras-team/autokeras/blob/0e24f14038fd49f655ff1249c5f84a9d01d66362/autokeras/keras_layers.py#L72)
사전학습된 모델 weight의 경로는 아래입니다.
(https://github.com/keras-team/autokeras/blob/0e24f14038fd49f655ff1249c5f84a9d01d66362/autokeras/constants.py)
transformer 모델도 vocab을 지정해줘야 하는데, 아마 사전에 구축된 vocab을 사용하지 않을까 생각해봅니다.
비록 사전학습된 모델을 사용하지만, 간단한 코드로도 상당한 성능을 내는 것 같습니다.