안녕하세요.🏌️♂️🏌️♂️ 오늘은 이전 시간에 배운 Voting Classifier실습을 진행 하도록 하겠습니다. 👴🧓 Voting Classifier에는 Hard voting 과 Soft voting 두 개중 Soft Voting을 이용 할 예정입니다. VotingClassifier은 sklearn라이브러리에서 제공합니다.😎 Voting Classifier에 사용할 모델은 Random Forest, Xgboost, Light GBM 입니다. ✅ 복습 하러 가기 🧈 Random Forest 🍞 XGBoost 🥞 Light GBM from sklearn.ensemble import VotingClassifier
VC = VotingClassifier(estimators=[('rf',RF),('xgb',XGB),('lgbm',LGBM)],voting = 'soft')
------------------------------------------------------------------------------------------------------------------------------ from lightgbm import LGBMClassifier from xgboost import XGBClassifier from sklearn.ensemble import VotingClassifier from sklearn.ensemble import RandomForestClassifier # 모델 정의 LGBM = LGBMClassifier() XGB = XGBClassifier() RF = RandomForestClassifier() VC = VotingClassifier(estimators=[('rf' ,RF),('xgb' ,XGB),('lgbm' ,LGBM)],voting = 'soft' ) # 모델 학습 # X 는 train에서 quality 를 제외한 모든 변수 # y 는 train의 qulity 변수 X = train_one.drop('quality' ,axis= 1 ) y = train_one['quality' ] # fit 메소드를 이용해 모델 학습 VC.fit(X,y) # predict 메소드와 test_one 데이터를 이용해 품질 예측 pred = VC.predict(test_one) ------------------------------------------------------------------------------------------------------------------------------ [Colab 실습 링크] ↩️ 오늘의 파이썬 리스트 #데이콘_101 #AI #머신러닝 #딥러닝 #파이썬 #파이선 #데이터분석 #데이터사이언티스트 #코랩 #Python #colab #kaggle #pandas #numpy #sckit-learn # read_csv #스케일링 #stratified kfold #교차검증 #LGBM