분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[Private 12위] Knowledge Distillation, CatBoost
안녕하세요. 새삥_H의 WOONGSONVI 라고 합니다.
100등 안에 드는 것이 목표였는데
생각보다 높은 등수를 기록해서 너무 기쁘네요
저희는 Amazon Sagemaker Studio Lab을 이용했습니다.
변수 선택 작업과 AutoML을 통해 CatBoost를 채택했고,
Knowledge Distillation을 이용하여 결과를 만들었습니다.
Github 링크를 아래 첨부했습니다.
https://github.com/K-imlab/Classification_of_oil_condition
끝으로 코드 공유와 토크 게시판에서 좋은 인사이트를 주신 많은 참여자분들과 데이콘 임직원분들께 감사의 말씀을 드립니다.
아직 많이 부족하니 사소한 것이라도 의견 남겨주시면 감사드리겠습니다! :)
넵 감사합니다!
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
좋은 인사이트 감사합니다!