분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
2024 생명연구자원 AI활용 경진대회 코드 공유 - 아기 돼지 삼형제 팀
안녕하세요, 아기 돼지 삼형제 팀입니다:)
저희는 외부데이터와 함께, 다양한 전처리 기법들을 통하여 Private 2위로 마무리할 수 있었습니다.
밑에 첨부한 PDF 자료와 함께 코드 공유하였는데, 많은 분들께 도움이 되었으면 합니다:)
먼저 수상 축하드립니다!
사실 적당히 파라미터를 주면 성능이 거의 비슷하게 나와서 아무거나 넣은 감이 없지 않아 있습니다..
그렇게 모델 향상에 큰 부분은 아니라고 생각했기에 크게 신경 쓰지 않고 전처리를 더 만져보았던 것 같습니다
감사드립니다!
데이터셋도 크고 lgbm 모델인데 estimator 10 을 사용하셨길래 특별하게 쓰신 이유가 있는지 궁금하여 여쭤봤습니다!
전처리 하는 부분 너무나도 잘 보고 갑니다.
2개월 동안 너무 수고 많으셨습니다!.!
Deleted Comment
코드 너무 감사합니다.
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
코드 너무 나도 잘 보았습니다! feature engineering 과정이 인상 깊네요.
코드를 보면서 하나 궁금한 것이 있습니다
LGBM_PARAM_K = dict(
boosting_type='gbdt',
num_leaves=20,
verbose=-1,
reg_alpha=0,
reg_lambda=0,
n_estimators=10,
learning_rate=0.1,
min_child_samples=20,
importance_type='gain',
# class_weight='balanced',
)
LGBM_PARAM_K 를 설정하실 때, estimator 값을 10 을 주셨는데 따로 이유가 있으실까요?