[ 翻译4.4 ]4.4 Logistic regression

逻辑回归模型是预测连续值或者是任何真数的。现在我们将展现一个类似“这是垃圾邮件么?”问题回答Yes-No这种类型问题的模型。

这里通常用的函数是逻辑回归函数(logistic function).由于这个函数的形状是S型的,所以该函数也被称为sigmoid function。

《[ 翻译4.4 ]4.4 Logistic regression》 以上是逻辑/sigmoid函数绘制图像,呈现的是S形状;

逻辑回归函数是一个概率分布函数:给出指定的输入值,并且计算输出正确的可能性。

这个函数只能接受一个单一的值。为了让函数接收来自训练数据集的多维数据值或特征值,我们需要将他们转换成一个单一值。这个时候我们可以使用线性回归函数表达式来这样做。这一点我们在上一节讲过。

上述的内容在代码上展示的话,你可以再次使用线性模型;但是你需要修改成应用sigmoid的预测模型:

《[ 翻译4.4 ]4.4 Logistic regression》

现在,让我们关注一下这个模型的损失函数(loss function).我们将会使用平方差。逻辑函数会计算答案是“Yes”的概率。在训练集合中,一个“Yes”代表着答案是“Yes”的概率是100%或者说是输出的值将会是1;那么loss应该计算的是模型针对指定样本分配的概率小于1的概率的平方。所以(consequently),一个“no”的答案的概率应该是0;于是(hence),loss是为该示例分配的模型的概率,再次平方。

(PS:其实作者这句话说的有点低估大家的数学基础了。人人都知道(x-y)^2中当y=0的时候,那就是x自身的平方。当y=1的时候,就是x与1的距离再次平方。注意是距离,标量,不是向量)

考虑这样一种情况:当期望输出的答案是Yes (P.S:这里的yes在机器学习中是被称为label),而模型的对于这个期望的可能值非常小,接近于0,那就意味着这个模型输出的结果100%的是“no”.

如果模型的预测结果是20,30甚至是有50%的可能性是“no”,那么平方差应该去惩罚(penalizes)这样的情况(a case)。

针对这种情况,有一种loss function的效果会比较好,那就是交叉熵(cross entrpy)函数。

《[ 翻译4.4 ]4.4 Logistic regression》

我们可以根据预测“yes”的可能性,对两种loss function的变化做出对比。

《[ 翻译4.4 ]4.4 Logistic regression》

交叉搧和平方差(L2)被绘制在了一起。交叉熵的输出是一些很大的值,这是因为他计算出的输出与期望的结果距离很远。

在交叉验证上,预测的概率接近于0的时候表示“Yes”,惩罚值会接近于无穷大。这会使得训练后的模型不会做出任何错误预测。交叉熵更加适合作为该模型的损失函数。

tensorflow中有提供直接计算S函数输出的交叉熵、优化步骤等:

《[ 翻译4.4 ]4.4 Logistic regression》

好了,现在让我们给模型一些数据来训练。我们的数据集合来自Titanic survivor

Kaggle contest datasethttps://www.kaggle.com/c/titanic/data.

这个模型会根据乘客的年龄、性别以及车票等级来推断乘客是否能够幸存下来。

为了使程序更有趣,我们来使用文件来读取数据。所以要继续下载train.csv文件。

以下是读取cvs文件的基本代码。在我们写的框架里面添加一个新的方法。这个方法可以读取并且解析csv文件,同时可以创建一个批次来读取在单个张量中打包的许多行,以有效地计算推理。

《[ 翻译4.4 ]4.4 Logistic regression》

在这个数据集合中你不得不使用分类数据(categorical data)。票类和性别是字符串类型的特征,这两类是具有预定义的可能的值集合。我们要在推理模型中使用它们,就需要将它们转换为数字。最简单的方法(A naive approach)可能为每个可能的值分配一个数字。例如,您可以使用“1”作为第一门票类,“2”为第二,“3”为第三。然而,这迫使价值观在它们之间存在一个并不存在的线性关系。

实际上,你可以把每个分类扩展为N个Boolean特征,或者给它设置一个初始值。这样就可以独立的里哦阿杰每个可能值的重要性了。在我们数据样本中,买“一等”票的人,应该比其他人有更大可能性幸免。

When working with categorical data, convert it to multiple boolean features,one for each possible value. This allows the model to weight each possiblevalue separately.

在这个分类的例子中,可能出现的值只有两种,比如数据集中的性别。任何一个单一变量就可以表示一种性别,这是因为可以用数值来表达值之间的线性关系。

例如,如果female=1,且male=0,那么:female= 1- male (男性= 1-女性), 同时一个权重就可以学的两种可能状态。

《[ 翻译4.4 ]4.4 Logistic regression》

在上面的代码中,我们在调用read_csv作为定义输入,同时在转换数据。为了转换boolean,我们使用tf.equal方法去对比一个去定常量值。我们还必须将布尔值转换为一个数字,需要用tf.to_float的推断。然后我们用tf.pack将所有的布尔包装在一个单张张量中。

最终,让我们看看我们的模型:

《[ 翻译4.4 ]4.4 Logistic regression》

为了评估结果,我们将对一批训练集进行推理,并计算正确预测的实例数量。

我们称之为测量精度(measuring the accuracy)。

《[ 翻译4.4 ]4.4 Logistic regression》

由于模型计算出答案为“yes”的概率,如果示例的输出大于0.5,我们将其转换为正确回答(也就是“Yes”)。然后我们使用tf.equal比较实际值的关系。最后,我们使用tf.reduce_mean,它计算所有正确答案(每个都添加1),并将该批次中的样本总数除以正确答案的百分比。

下期介绍:

4.4 Softmax classification

敬请期待。。。

    原文作者:斐波那契的数字
    原文地址: https://www.jianshu.com/p/94b536ea4616
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞