좋아요는
1분 내에 한 번만 클릭 할 수 있습니다.
Lv4 모델링 8/8 파이썬 python Voting Classifier 실습
안녕하세요.🏌️♂️🏌️♂️ 오늘은 이전 시간에 배운 Voting Classifier실습을 진행 하도록 하겠습니다. 👴🧓
Voting Classifier에는 Hard voting 과 Soft voting 두 개중 Soft Voting을 이용 할 예정입니다. VotingClassifier은 sklearn라이브러리에서 제공합니다.😎
Voting Classifier에 사용할 모델은 Random Forest, Xgboost, Light GBM 입니다.
✅ 복습 하러 가기
🍞 XGBoost
from sklearn.ensemble import VotingClassifier VC = VotingClassifier(estimators=[('rf',RF),('xgb',XGB),('lgbm',LGBM)],voting = 'soft')
------------------------------------------------------------------------------------------------------------------------------
from lightgbm import LGBMClassifier
from xgboost import XGBClassifier
from sklearn.ensemble import VotingClassifier
from sklearn.ensemble import RandomForestClassifier
# 모델 정의
LGBM = LGBMClassifier()
XGB = XGBClassifier()
RF = RandomForestClassifier()
VC = VotingClassifier(estimators=[('rf',RF),('xgb',XGB),('lgbm',LGBM)],voting = 'soft')
# 모델 학습
# X 는 train에서 quality 를 제외한 모든 변수
# y 는 train의 qulity 변수
X = train_one.drop('quality',axis= 1)
y = train_one['quality']
# fit 메소드를 이용해 모델 학습
VC.fit(X,y)
# predict 메소드와 test_one 데이터를 이용해 품질 예측
pred = VC.predict(test_one)
------------------------------------------------------------------------------------------------------------------------------
↩️ 오늘의 파이썬 리스트
#데이콘_101 #AI #머신러닝 #딥러닝 #파이썬 #파이선 #데이터분석 #데이터사이언티스트 #코랩 #Python #colab #kaggle #pandas #numpy #sckit-learn # read_csv #스케일링 #stratified kfold #교차검증 #LGBM
done
✅
done
✅
✅
✅
done
✅
✅
✅
done