DASCHOOL! Fall Special Discount
분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
DecisionTreeClassifier모델, Label인코딩, log1p스케일링
기사 시험을 준비하면서 배운 분류모델 세가지를 사용했습니다.
하이퍼파라미터 설정을 하자 점수가 떨어져서 생략했습니다.
XGBClassifier --> 0.511469062751114
RandomForestClassifier --> 0.46178450513381275
DecisionTreeClassifier --> 0.5270466552850682
각각 점수는 위와 같으며 가장 점수가 높은 의사결정나무모델을 선택했습니다.
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved