Python 튜토리얼

기초

  • moneyIcon 상금 : 교육
  • 9,999명 D-100720

 

Lv4 튜닝 4/6 python 파이썬 Light GBM 튜닝

2021.09.03 12:23 4,670 조회

안녕하세요. 🧓 이번 시간에는 Bayesian Optimization 을 이용해 Light GBM모델을 튜닝 해보도록 하겠습니다.

튜닝에 앞서 Light GBM의 하이퍼 파라미터를 알아 보겠습니다.


Light GBM 파라미터중 주요한 n_estimators, max_depth, subsample 3가지 파라미터를 튜닝 해보도록 하겠습니다.

------------------------------------------------------------------------------------------------------------

# X에 학습할 데이터를, y에 목표 변수를 저장해주세요

X = train.drop(columns = ['index''quality'])

y = train['quality']


# LGBM의 하이퍼 파라미터의 범위를 dictionary 형태로 지정해주세요

## Key는 LGBM hyperparameter이름이고, value는 탐색할 범위 입니다.

lgbm_parameter_bounds = {

                      'n_estimators' : (30,100),

                      'max_depth' : (1,3), # 나무의 깊이

                      'subsample' : (0.5,1)

                      }


# 함수를 만들어주겠습니다.

# 함수의 구성은 다음과 같습니다.

# 1. 함수에 들어가는 인자 = 위에서 만든 함수의 key값들

# 2. 함수 속 인자를 통해 받아와 새롭게 하이퍼파라미터 딕셔너리 생성

# 3. 그 딕셔너리를 바탕으로 모델 생성

# 4. train_test_split을 통해 데이터 train-valid 나누기

# 5 .모델 학습

# 6. 모델 성능 측정

# 7. 모델의 점수 반환


def lgbm_bo(n_estimators,max_depthsubsample):

  lgbm_params = {

              'n_estimators' : int(round(n_estimators)),

              'max_depth' : int(round(max_depth)),

               'subsample' : int(round(subsample)),      

              }

  lgbm = LGBMClassifier(**lgbm_params)


  X_train, X_valid, y_train, y_valid = train_test_split(X,y,test_size = 0.2, )


  lgbm.fit(X_train,y_train)

  score = accuracy_score(y_valid, lgbm.predict(X_valid))

  return score


# 이제 Bayesian Optimization을 사용할 준비가 끝났습니다.

# "BO_lgbm"라는 변수에 Bayesian Optmization을 저장해보세요

BO_lgbm = BayesianOptimization(f = lgbm_bo, pbounds = lgbm_parameter_bounds,random_state = 0)


# Bayesian Optimization을 실행해보세요

BO_lgbm.maximize(init_points = 5, n_iter = 5)


# 튜닝된 파라미터를 바탕으로 test 데이터 셋 예측


#학습

lgbm_tune =LGBMClassifier(n_estimators = 43 ,max_depth = 3, subsample = 1)

lgbm_tune.fit(X,y)



#예측

pred = lgbm_tune.predict(test.drop(columns = ['index'] ))


#정답파일 내보내기

sub = pd.read_csv('data/sample_submission.csv')

sub['quality'] = pred

sub.to_csv('tune_lgbm.csv',index = False)

------------------------------------------------------------------------------------------------------------


[Colab 실습 링크]


↩️ 오늘의 파이썬 리스트

#데이콘_101 #AI #머신러닝 #딥러닝 #파이썬 #파이선  #데이터분석 #데이터사이언티스트 #코랩 #Python  #colab #kaggle #pandas #numpy #sckit-learn # read_csv #Bayesian #Optimization #bayesianoptimization #베이지안옵최적화

로그인이 필요합니다
0 / 1000
그린티
2021.09.13 21:17

done

다욤
2021.09.20 02:23

done

왼쪽눈썹왁싱
2021.11.02 15:13

changhyeon
2022.01.03 17:21

done

dbnoid
2022.01.19 09:56

hijihyo
2022.01.28 00:11

acebed
2022.03.10 21:09

done

Kdata
2022.05.04 14:45

krooner
2022.05.20 00:08

dirno
2022.08.02 15:38

Choijyun
2022.08.05 05:35

done

highllight
2023.02.12 22:40

김시옷
2023.05.28 18:58

done+

이전 글
인덱싱을 위한 Pandas .iloc .loc 사용 방법 데이터 분석 및 조작을위한
대회 - Python 튜토리얼
좋아요 4
조회 1,707
댓글 0
일 년 전
현재 글
Lv4 튜닝 4/6 python 파이썬 Light GBM 튜닝
대회 - Python 튜토리얼
좋아요 9
조회 4,670
댓글 13
3년 전
다음 글
다음 글이 존재하지 않습니다.