ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

电信客户流失预测挑战赛baseline分析

2022-06-15 00:31:45  阅读:221  来源: 互联网

标签:baseline val clf iteration 流失 train 挑战赛 model matrix


1、使用了五折

kf = KFold(n_splits=folds, shuffle=True, random_state=seed)

2、lgbm的结果最好,训练速度相比于xgb和cat也比较快

 train_matrix = clf.Dataset(trn_x, label=trn_y)
            valid_matrix = clf.Dataset(val_x, label=val_y)

            params = {
                'boosting_type': 'gbdt',
                'objective': 'binary',
                'metric': 'auc',
                'min_child_weight': 5,
                'num_leaves': 2 ** 5,
                'lambda_l2': 10,
                'feature_fraction': 0.7,
                'bagging_fraction': 0.7,
                'bagging_freq': 10,
                'learning_rate': 0.2,
                'seed': 2022,
                'n_jobs':-1
            }

            model = clf.train(params, train_matrix, 50000, valid_sets=[train_matrix, valid_matrix], 
                              categorical_feature=[], verbose_eval=3000, early_stopping_rounds=200)
            val_pred = model.predict(val_x, num_iteration=model.best_iteration)
            test_pred = model.predict(test_x, num_iteration=model.best_iteration)
            
            print(list(sorted(zip(features, model.feature_importance("gain")), key=lambda x: x[1], reverse=True))[:20])

3、对每一折中,预测测试集后的结果除以5,每一折都加上之前折结果和。

4、baseline结果

 

 5、简单的三个模型融合平均,结果会降低

 

 普通的融合使得错误预测的结果增加,lgbm的训练验证结果是最好的,使用三者平均之后,没有提高性能,这个问题还在考虑。

6、需要把重心放在特征工程上。

标签:baseline,val,clf,iteration,流失,train,挑战赛,model,matrix
来源: https://www.cnblogs.com/zhong-minghao/p/16376944.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有