Python 튜토리얼

Lv2 튜닝 2/4 python 파이썬 변수 제거

2021.07.02 16:14 5,709 Views

변수중요도가 낮은 피쳐를 파악하고 나면 차례대로 하나씩 피쳐를 제거하면서 모델을 새로 훈련할 수 있습니다. 각 모델로 예측하여 성능을 비교해보겠습니다.


우선 id 피쳐는 예측에 의미가 없는 피쳐입니다. id 와 count 를 drop 한 X_train_1 훈련 df 을 새로 생성합니다. 예측을 할 때 test 는 훈련 셋과 동일한 피쳐를 가져야 합니다. 따라서 동일하게 피쳐를 drop 한 test_1 df 를 생성해줍니다.


hour_bef_windspeed 와 hour_bef_pm2.5 피쳐에 관하여도 추가로 drop 을 수행하면서 위의 과정을 반복해보세요. 그럼 총 3 쌍의 X_train 셋과 test 셋이 생성됩니다.


이에 따라 각 모델로 예측한 예측값들을 submission 에 저장한 후, 리더보드에 제출해 점수를 비교해보세요.



# X_train 에서 drop 할 피쳐의 경우의 수 대로 3개의 X_train 을 생성하세요.

X_train_1 = train.drop(['drop 할 피쳐'], axis=1)

# 각 train 에 따라 동일하게 피쳐를 drop 한 test 셋들을 생성하세요.

test_1 = test.drop(['drop 할 피쳐'], axis = 1)

# 각 X_train 에 대해 모델 훈련을 해주세요.

model_input_var1 = RandomForestRegressor(criterion = 'mse')
model_input_var1.fit(X_train_1, Y_train)

# 각 모델로 test 셋들을 예측해주세요.

y_pred_1 = model_input_var1.predict(test_1)

# 각 결과들을 submission 파일로 저장해주세요.

submission_1 = pd.read_csv('data/submission.csv')
submission_1['count'] = y_pred_1
submission_1.to_csv('sub_1.csv', index = False)


[Colab 실습 링크]


⬅️Lv2 튜닝 1/5 랜덤포레스트 변수중요도 확인 /

Lv2 튜닝 3/5 하이퍼파라미터 / GirdSearch 개념 ➡️

↩️ 오늘의 파이썬 리스트


#데이콘 #데이콘_101 #파이썬 #머신러닝 #딥러닝 #인공지능 #앙상블 #의사결정나무 #코랩 #데이터 #데이터분석 #판다스 #넘파이 #데이터사이언티스트 #AI #Python # Pandas #Numpy #lightgbm #read_csv #DACON #kaggle #sckit-learn

로그인이 필요합니다
0 / 1000
정장입고시퍼요
2021.08.02 15:50

done

분석을할상인가
2021.08.06 00:05

해만이
2021.08.17 04:40

done

세라자데
2021.08.30 15:25

B-Jay
2021.08.31 22:54


phu
2021.09.06 20:59

DSJY
2021.09.08 18:10

다욤
2021.09.12 18:52

찬찬이
2021.09.24 14:52

changhyeon
2021.09.29 21:01

done

Holte
2021.09.30 12:47

가르치조림
2021.11.04 14:38

coddinggoldfish
2021.11.15 23:47

yulia.
2021.11.16 21:06

cberrys
2021.11.17 21:39


지금노플
2021.12.08 10:40

sotanfdl
2021.12.09 18:36

done

Hod0ri
2021.12.10 21:50

비회원
2021.12.13 00:07


Soohobi
2021.12.15 15:52

녹삭
2021.12.18 18:53

done

River-T
2021.12.18 23:47

moran
2021.12.27 14:49

s_nana
2021.12.28 10:56

암냠냠
2021.12.29 00:42

삭제된 댓글입니다

MMMMMMMMMMMMMMMMMMMM
2022.01.01 04:01

done

201702018
2022.01.05 17:16

cm
2022.01.05 23:17

하랴랴
2022.01.06 19:37

done

inuin
2022.01.14 19:50

done

jj150618
2022.01.17 00:51

dbnoid
2022.01.18 18:50

hijihyo
2022.01.18 23:03

done

djffjdEndEkd
2022.01.22 19:54

done

호랭이띠
2022.01.27 20:50

done

확통
2022.02.04 17:17

확통
2022.02.05 16:06

찹쌀아빠
2022.02.09 20:16

일렁
2022.02.16 18:49

ChimChim
2022.02.19 23:55

하랴랴
2022.02.28 16:15


acebed
2022.03.10 17:58

done

kimgugu
2022.03.16 19:51

졔이
2022.03.17 22:17

비회원
2022.04.05 14:42

Kdata
2022.04.06 18:09

코딩백수
2022.04.22 04:03

done

KIM2327
2022.05.16 09:20

krooner
2022.05.19 13:49

김현배
2022.05.29 16:33

이쑤
2022.05.31 17:17


jaka
2022.06.06 18:11

dnd404
2022.06.30 13:51

Y2J
2022.07.04 17:15

MINKYU
2022.07.20 02:14

nigel
2022.07.21 09:58

우주인
2022.07.26 14:49

whdgus928
2022.07.26 15:31

done

부기온앤온
2022.08.06 13:21

SauberHands
2022.08.07 16:45

간지나는패션
2022.08.11 23:02

done

slave
2022.08.12 10:33

유희
2022.08.19 20:51

굿전
2022.08.30 15:53

완료

재상쓰
2022.09.19 11:24

done

skanehfud279
2022.09.21 14:19

baeksh0330
2022.09.25 13:02

지수98
2022.10.05 11:06

엿장수
2022.10.10 21:25

gnt0000
2022.10.27 22:10

done

sk100
2022.11.01 13:35

done

yun_
2022.11.03 20:57

done

savvyall
2022.11.30 14:34

done

유정잉
2023.01.05 18:35

ickhwan
2023.01.11 16:58

highllight
2023.01.12 10:11

김시옷
2023.05.29 17:35

done+

johnchoi44
2023.06.02 17:18

done

wjdwltn11
2023.11.24 21:34