ICode9

精准搜索请尝试: 精确搜索
首页 > 编程语言> 文章详细

AI-机器学习-自学笔记(三)逻辑回归算法

2021-10-27 01:35:11  阅读:184  来源: 互联网

标签:AI print 算法 train test import 自学 data sklearn


逻辑回归(Logistic)是二分类任务的首选方法。它输出一个 0 到 1 之间的离散二值结果。简单来说,它的结果不是 1 就是 0。所以逻辑回归解决的是分类问题,不是回归问题。它就是通过拟合 一个逻辑函数 (Logit Function )来预测一个事件发生的概率 所以它预测的是一个概率值。它的输出值应该为 0~1,因此非常适合处理二分类问题。

在 scikit-learn 中的实现类是 LogisticRegression 。

下面以一个Titanic数据集的例子来演示逻辑回归算法

 1 import numpy as np
 2 import pandas as pd
 3 import sklearn
 4 # 从sklearn导入LogisticRegression方法
 5 from sklearn.linear_model import LogisticRegression
 6 # 导入划分训练集和测试集的方法
 7 from sklearn.model_selection import train_test_split
 8 from sklearn.preprocessing import LabelEncoder
 9 from sklearn.metrics import classification_report
10 from sklearn.metrics import accuracy_score
11 
12 
13 #读取数据
14 data = pd.read_csv("./data/titanic/train.csv") 
15 label = LabelEncoder()
16 data['sex'] = label.fit_transform(data['sex'])
17 data['class'] = label.fit_transform(data['class'])
18 data['alone'] = label.fit_transform(data['alone'])
19 #data['Embarked'] = data['Embarked'].astype(str)
20 data['embark_town'] = label.fit_transform(data['embark_town'])
21 
22 features = ['class', 'age', 'n_siblings_spouses', 'parch', 'fare', 'sex', 'alone', 'embark_town','survived']
23 data = data[features]
24 print(data.head())
25 
26 #划分训练集和测试集
27 X = data[['class', 'age', 'n_siblings_spouses', 'parch', 'fare', 'sex', 'alone', 'embark_town']]
28 y = data[['survived']]
29 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=2)#random_state为随机种子,确保每次划分的结果是相同的
30 
31 
32 model = LogisticRegression(penalty='none')  # 请在此处修改 penalty 的参数值,只有l2 和 none两个值
33 model.fit(X_train,y_train)
34 
35 # 测试模型
36 pred_y = model.predict(X_test)
37 # 输出判断预测是否与真实值相等
38 y_predict = model.predict(X_test[:20])
39 # 打印预测结果
40 print('===================预测值=======================')
41 print(y_predict)
42 
43 # 打印真实值
44 print('===================真实值=======================')
45 print(np.array(y_test[:20]).tolist())
46 print('==================预测准确率======================')
47 Accuracy = accuracy_score(y_test[:20], y_predict)
48 print('准确率为:{:.2f}%'.format(Accuracy*100))

 

标签:AI,print,算法,train,test,import,自学,data,sklearn
来源: https://www.cnblogs.com/tonymarvel/p/15468691.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有