机器学习最好入门的是什么?根基是什么?
我觉得是分类。
我当然不会讲什么具体的分类算法的实现,我们直接用Scikit-learn。关于scikit-learn,唯一需要知道的是,它除了深度学习,传统机器学习它都很好用,也就是直接调个函数的事儿(如果你会那么一点点的python)。
但,这次要用到的不是分类,是回归。在我看来它们差不多,如果你把连续的数,一个一个来看,也就是分类了。
从uci获取北京的pm2.5数据
从这个csv网址你可以直接获得数据。
打开看一下,它大概是这个样子:
No,year,month,day,hour,pm2.5,DEWP,TEMP,PRES,cbwd,Iws,Is,Ir
1,2010,1,1,0,NA,-21,-11,1021,NW,1.79,0,0
2,2010,1,1,1,NA,-21,-12,1020,NW,4.92,0,0
3,2010,1,1,2,NA,-21,-11,1019,NW,6.71,0,0
4,2010,1,1,3,NA,-21,-14,1019,NW,9.84,0,0
5,2010,1,1,4,NA,-20,-12,1018,NW,12.97,0,0
6,2010,1,1,5,NA,-19,-10,1017,NW,16.1,0,0
7,2010,1,1,6,NA,-19,-9,1017,NW,19.23,0,0
8,2010,1,1,7,NA,-19,-9,1017,NW,21.02,0,0
9,2010,1,1,8,NA,-19,-9,1017,NW,24.15,0,0
第一列是编号,第二个是年份,第三个是月份,第四个是日期,第五个小时,第六个是pm2.5的值,单位是ug/m^3,第七个是露点(Dew point),又称露点温度,第八个是温度,第九个是气压,第十个是风向,下来是风速,下来是积累雪量与积累雨量。
如果数据缺失,就用NA,代表。
1.先把数据用python加载了
这个很简单,只需要用numpy库的genfromtxt函数
import numpy as np
//dtype是转换的数据类型,这里是一个元组,分别是字符串与float
2.对数据集做些预处理
我们随机选取100个数据,作为训练数据。
from random import sample
tran = sample(rawdata, 100)
我们再选取pm2.5的值作为目标值剩下的作为特征值。
tranX=[]
tranY=[]
for item in tran:
tranX.append([item[4],item[6],item[7],item[8],item[9],item[10],item[11],item[12]])
tranY.append(item[5])
把字符串转化成数字,用平均值来处理缺失值,并把它们从列表转化成numpy的数组。
trainX=np.array(tranX)
tranytmp=[]
for item in tranY:
if item!='NA':
tranytmp.append(int(item))
mean=sum(tranytmp)/len(tranytmp)
for i in range(len(tranY)):
if tranY[i] == 'NA':
tranY[i]=mean
else:
tranY[i]=int(tranY[i])
trainY=np.array(tranY)
把trainX的字符串的特征,例如风向的‘cv’,’nw’转换成数字
from sklearn import preprocessing
tmpcol4=preprocessing.LabelEncoder().fit_transform(trainX[:,4])
trainX[:,4]=tmpcol4
3.使用Scikit-learn线性回归
scikit-learn要求X是一个特征矩阵,y是一个NumPy向量.所以我们上面已经把列表转成numpy的向量。
from sklearn.linear_model import LinearRegression
linreg = LinearRegression()
linreg.fit(trainX,trainY)
Out[15]:
LinearRegression(copy_X=True, fit_intercept=True, n_jobs=1, normalize=False)
一旦你用LinearRegression的fit构建好了线性回归模型,接下来就可以拿它来预测了,其中的X_test是待测试向量。
linreg.predict(X_test)
我们可以使用linreg来轻易的打出相应的回归系数
print linreg.intercept_
2889.16443903
print linreg.coef_
[ 7.28287635e-02 4.14856097e+00 -6.23696623e+00 -2.67270208e+00
6.20566609e+00 -2.70742577e-01 1.52082272e+02 -1.10300471e+01]