机器学习: 逻辑回归

机器学习的笔记, 主要参考吴恩达的机器学习线上课, 以及"AI引论"课程.

2021.5.31, 2024.3.25

1 Hypothesis

虽然叫做逻辑回归(logistic regression), 但是是用于分类的模型.

对于一个二分类问题, 数据集 D={(x(i),y(i))}i=1N, 其中 y(i){0,1}. Logistic回归假设可以用超平面 θTx=0 分开两类, 即当 θTx<0 时(负类), 标签 y=0; θTx0 时(正类), 标签 y=1. 我们进一步假设样本服从sigmoid函数的分布, 即标签 y=1 的概率为 p(y=1|x;θ)=sigmoid(θTx)=(1+exp(θTx))1.

这个累积分布函数 sigmoid(x):=11+exp(x) 满足一些性质, 例如严格单调增加, 图像关于点(0,12)对称, 光滑性等.

自然, 标签 y=0​ 的概率 p(y=0|x;θ)=1sigmoid(θTx)=sigmoid(θTx).

  • 上面第二个等号用到了sigmoid函数的对称性.
  • 注意到 p(y=1|x;θ)12 当且仅当 θTx0​.

假设函数: 相较于线性回归, Logistic回归的假设函数是线性函数 g(x)=θTx 和sigmoid函数的复合, hθ(x)=11+exp(θTx).

决策边界(decision boundary): 两类边界上的数据点构成的图形, 即超平面 θTx=0.

实际上, 可以在 x 中引入非线性项, 使得决策边界为曲面.

例如, hθ(x)=1+0x1+0x2+1x12+1x22的决策边界 C:1+0x1+0x2+1x12+1x22=0,x12+x22=1 是平面直角坐标系x1Ox2中的单位圆.

2 Maximum Likelihood Estimation

如果我们使用线性回归的方差损失函数 J(θ)=1Ni=1N12(hθ(x(i))y(i))2, 由于假设函数非线性, 所以损失函数是非凸函数, 梯度下降不能保证收敛到全局最小值, 在这里我们采用另一种思路, 即最大似然估计(MLE).

对于模型 hθ(x), 把数据集 D 由这个模型生成的概率 p(y|x;θ)=i=1Nhθ(x(i))y(i)[1hθ(x(i))]1y(i) 称为似然函数, 记作 L(hθ). 我们假设似然函数取最大值, 也就是说, 最终找到的模型 hθ 应当是最有可能生成出数据集 D 的那个模型.

为了方便计算机计算, 取对数得到对数似然, (hθ)=log(L(hθ))=i=1N[y(i)loghθ(x(i))+(1y(i))log[1hθ(x(i))]].

  • 当预测值与真实值非常接近时, 损失接近 0; 当预测值与真实值的相反类接近时, 损失趋于 +​.

最终得到代价函数为 J(hθ)=1N(hθ). 最大似然即最小化损失函数.

Note. 线性回归的MLE方法. 对于线性回归, 一般认为确定平方差函数作为代价函数(经验风险最小化, ERM), 实际上可以用MLE解释.

模型 hθ(x)=θTx; 假设数据 x(i),y(i) 服从带有(正态分布)误差的线性关系, 即 y(i)=hθ(x(i))+ϵ(i),ϵN(0,σ2). 于是, 似然函数 L(hθ)=p(y|x;θ)=i=1N12πσ2exp[12σ2(y(i)hθ(x(i)))2], 损失函数 J(hθ)=1NlogL(hθ)=1Ni=1N[12log(2πσ2)+12σ2(y(i)hθ(x(i)))2]. 可以发现, 损失函数与平方差函数具有相同的梯度(相差一个正常数), 两者会得出相同的最优解.

3 Gradient Descent

3.1 Derivation

我们可以用梯度下降算法求得最佳参数, 首先对代价函数求导得到 Jθ=1Ni=1N(hθ(x(i))y(i))x(i).

具体推导过程: 先计算

hθθ=dsigmoid(g)dggθ=hθ(1hθ)x. (其中 g(x)=θTx) 对代价函数求偏导, 有 Jθ=1Ni=1N[y(i)1hθ(x(i))hθθ(1y(i))11hθ(x(i))hθθ]=1Ni=1N[y(i)1hθ(x(i))(1y(i))11hθ(x(i))]hθθ=1Ni=1N[y(i)1hθ(x(i))(1y(i))11hθ(x(i))]hθ(x(i))(1hθ(x(i)))x(i)=1Ni=1N[y(i)(1hθ(x(i)))(1y(i))hθ(x(i))]x(i)=1Ni=1N(y(i)hθ(x(i)))x(i)=1Ni=1N(hθ(x(i))y(i))x(i).

这样我们就可以用下面的方法来更新参数 θ: Repeat until convergence {θ:=θαNi=1N(11+exp(θTx(i))y(i))x(i)} 可以发现, 似然代价函数的偏导和线性回归中的方差代价函数的偏导看起来一样, 唯一的差异是假设函数 hθ(x) 不同.

3.2 Optimization

算法优化:

  • Conjugate gradient
  • BFGS
  • L-BFGS

它们的优点:

  • 不需要手动选择学习率 α.
  • 通常比梯度下降快.

缺点: 复杂.

4 Multi-Class Classification

一对多(one-vs-all)一对余(one-vs-rest): 将多元分类问题转化为多个二元分类问题.

  • 对于每个类 k{1,2,,K}, 将其当作正类, 其余当作负类, 训练得到一个分类器 hθ(k)(x).

    那么对于每个新的测试数据 x(i), hθ(k)(x(i))=P(y(i)=k), 我们只需要取概率最大的那个类, Predict: y(i)=argmaxkhθ(k)(x(i)).

  • 此种方法存在一个问题, 即各个分类器是独立的, 无法统一成一个模型. 进而当类别数 K​ 较大时, 分别训练各个分类器的代价太高.

可以利用Softmax回归方法解决多分类问题. 共同训练 K 个模型 fk(x)=θkTx, 标签 y=k 概率 p(y=k|x,θ)=expfk(x)j=1Kexpfj(x),

  • 这里的指数函数可以保证, 当 fk(x) 比其他 fj(x) 大一些时, 概率 p(y=k) 能够比 p(y=j) 大很多.

进而得到似然函数 L(θ)=i=1Nexpfy(i)(x(i))j=1Kexpfj(x(i)).

5 Overfit & Regularization

一个模型对于测试数据需要有一定的假设, 即偏见(bias). 偏见的存在使得我们具有归纳的能力, 即对于相似的事物, 抓住主要相似点, 忽略其次要差异, 将它们归为同一类群; 如果没有偏见, 我们就缺乏归纳的能力. 模型亦如此. 由于模型的偏见不同, 造成的拟合结果也不同:

  • 欠拟合(underfit): 高偏见(在训练集上代价过高).
  • 合适的拟合.
  • 过拟合(overfit): 高方差. 对于N个数据的回归问题, 总存在N1次多项式函数能够穿过这些数据点, 但这通常对新的数据预测能力差(在测试集上代价明显高于训练集).

过拟合的原因一般有

  1. 某几个特征维度支配了预测, 即 θ 的某些分量过大.
  2. 存在大量无用特征, 但仍赋予了非零权重.

要解决第1个, 可以利用L2正则化(regularization)方法, 即将 θ​ 的L2范数添加到代价函数中(以线性回归为例), J(hθ)=12N[i=1N(hθ(x(i))y(i))2]+λ2Nj=1Mθj2

  • 其中的 θj2 会对较大的权重给出很大的惩罚, 使得权重分配更平均.
  • 注意最后的求和是从 j=1 开始的, 即不考虑 θ0 的大小.
  • L2正则化的线性回归也称为岭回归(rindge regression).
  • 式中 λ>0, 称为正则化参数(regularization parameter). 它和学习率 α 一样是在学习前预先设定的, 成为超参数 (hyperparameter). 选择哪种模型, 哪种代价函数, 哪种正则化也可看作超参数. 对于超参数的选择, 一般先找出所有可能的超参数组合, (分别训练完毕后)在验证集(validation set)上找出误差最小的超参数集.

要解决第2个, 可以手动选择要保留的特征, 或使用模型选择算法; 也可以利用L1正则化方法, 即将 θ 的L1范数添加到代价函数中(以线性回归为例), J(hθ)=12N[i=1N(hθ(x(i))y(i))2]+λNj=1M|θj|

  • 鼓励稀疏的 θ​, 即大部分维度的权重为零.
  • L1正则化的线性回归也称为Lasso回归.

以线性回归+L2正则化为例, 新的代价函数的导数是 Jθ=1Ni=1N(hθ(x(i))y(i))x(i)+λNθ 迭代中更新的步骤(注意 θ0 要单独更新): θ:=θα[1Ni=1N(hθ(x(i))y(i))x(i)+λNθ]=(1αλN)θα1Ni=1N(hθ(x(i))y(i))x(i) 可以关注到蓝色的部分是略小于 1 的数, 它在每次迭代的时候都把 θ 变小一点点.


机器学习: 逻辑回归
https://disembo.github.io/Note/logistic-regression/
作者
jin
发布于
2024年3月25日
许可协议