DASCHOOL 할인 리턴즈
분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[스터디 4기 정규반 2조 셋째주 화요일] 숙제인증
>>> 보다 다양한 트리, 편향은 증가하지만 분산은 낮추어 보다 휼륭한 모델생성.
from sklearn.ensemble import RandomForestClassifier rnd_clf = RandomForestClassifier(n_estimators=500, max_leaf_nodes=16, random_state=42) rnd_clf.fit(X_train, y_train) y_pred_rf = rnd_clf.predict(X_test) #배깅으로 랜덤포레스트 구현, 약간 다르지만 거의 유사함. bag_clf = BaggingClassifier( DecisionTreeClassifier(max_features="auto", max_leaf_nodes=16), n_estimators=500, max_samples=1.0, bootstrap=True, n_jobs=-1) bag_clf.fit(X_train, y_train) y_pred = bag_clf.predict(X_test) #Extremly randomized tree, Extra-Trees ExtraTreesClassifier 사용! # >>> 극단적으로 무작위한 트리의 랜덤포레스트!
📌 랜덤포레스트를 통해 특성의 상대적 중요도를 손쉽게 측정 가능하다!
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved