분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[Private 12위] Knowledge Distillation, CatBoost
공동작성자
안녕하세요. 새삥_H의 WOONGSONVI 라고 합니다.
100등 안에 드는 것이 목표였는데
생각보다 높은 등수를 기록해서 너무 기쁘네요
저희는 Amazon Sagemaker Studio Lab을 이용했습니다.
변수 선택 작업과 AutoML을 통해 CatBoost를 채택했고,
Knowledge Distillation을 이용하여 결과를 만들었습니다.
Github 링크를 아래 첨부했습니다.
https://github.com/K-imlab/Classification_of_oil_condition
끝으로 코드 공유와 토크 게시판에서 좋은 인사이트를 주신 많은 참여자분들과 데이콘 임직원분들께 감사의 말씀을 드립니다.
아직 많이 부족하니 사소한 것이라도 의견 남겨주시면 감사드리겠습니다! :)
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
좋은 인사이트 감사합니다!