统计学习方法笔记——第2章-感知机

感知机(perceptron)是二分类线性分类模型。其输入为实例的特征向量,输出为实例的类别,取+1 和–1 二值。

感知机模型:对应于输入空间(特征空间)中将实例划分为正负两类的分离超平面,属于判别模型

感知机学习策略:基于误分类的损失函数;

感知机算法:利用梯度下降法对损失函数进行极小化(包括原始形式和对偶形式)。

感知机模型对线性可分的数据集比较有效。

数据集的线性可分性

给定一个数据集,如果存在某个超平面S能够将数据集的正、负实例点完全正确地划分到超平面两侧,即对所有yi=+1的实例i ,有w·x+b>0,对所有 yi=1的实例i ,有则称 数据集w·x+b<0,则数据集是线性可分地(linearly separable data set);否则,称数据集线性不可分。

感知机模型

输入x:输入空间(特征空间)XRn中的点xX

输出y:输出空间为Y={+1,1}yY

感知机:$f(x)=sign(w·x+b) w$ 和b 为感知机模型参数,wRn 叫作权值(weight)或权值向量(weight vector),wR 叫作偏置(bias),w·x 表示 w 和$ x sign$是符号函数,即: (1)sign={+1,if x01,x<1 感知机模型的假设空间:定义在特征空间中的所有线性分类模型(linear classification model)或线性分类器(linear classifier),即函数集合{f|f(x)=w·x+b}

感知机模型的几何解释

超平面:线性方程w·x+b=0,对应于特征空间中的一个超平面,w为超平面法向量,b 是超平面的截距。如果特征空间是N维的,超平面就是N1维的子空间。

分离超平面(separating hyperplane):一个超平面S将特征空间划分为两个部分,位于两部分的点(特征向量)分别被分为正、负两类。

特征空间维度为2的感知机模型如下图所示:

感知机学习策略

假设训练数据集是线性可分的,感知机学习的目标是求得一个能够将训练集正实例点和负实例点完全正确分开的分离超平面。

为了确定感知机模型(超平面)参数 w,b ,需要确定一个学习策略,即定义(经验)损失函数并将损失函数极小化。

感知机学习的策略:在假设空间中选取使损失函数式最小的模型参数w,b, 即感知机模型。

选择损失函数

方案1:误分类点的总数。但是,这样的损失函数不是参数 w , b 的连续可导函数,不易优化。

方案2(感知机采用):误分类点到超平面的总距离。

输入空间中任一点x0到超平面 S 的距离: 1||w|||w·x0+b|||w||wL2 对于误分类的数据(xi,yi)yi(w·xi+b)>0成立,对于一个正样本有(w·xi+b)>0,预测错误则yi=1,而对于一个负样本有(w·xi+b)<0,预测错误则y_i=+1$。

因此,所有误分类点 xi 到超平面 S 的总距离是: 1||w||xiMyi(w·xi+b)M 由于1||w||不影响正负号且算法结束时,整项都为0,不影响算法的最终结果,因此不考虑1||w||,就得到感知机的损失函数(对于给定数据集,为经验风险函数): L(w,b)=xiMyi(w·xi+b) 一个特定的样本点的损失函数:在误分类时是参数 w,b 的线性函数,在正确分类时是 0。因此,给定训练数据集T ,损失函数 L(w,b)w,b 的连续可导函数。

感知机算法

感知机学习问题转化为求解损失函数式的最优化问题,最优化的方法是随机梯度下降法。感知机学习的具体算法,包括原始形式和对偶形式

感知机学习算法的原始形式

给定一个训练数据集,求参数w,b使得损失函数最小: minw,bL(w,b)=xiMyi(w·xi+b),M 感知机学习算法是误分类驱动的,具体采用随机梯度下降法(stochastic gradient descent)。每次随机选取一个误分类点使其梯度下降。

感知机学习算法由于采用不同的初值或选取不同的误分类点,解可以不同。

算法的收敛性

证明:对于线性可分数据集感知机学习算法原始形式收敛,即经过有限次迭代,可以得到一个将训练数据集完全正确划分的分离超平面及感知机模型

定理表明,误分类的次数 k 是有上界的,经过有限次搜索可以找到将训练数据完全正确分开的分离超平面。也就是说,当训练数据集线性可分时,感知机学习算法原始形式迭代是收敛的

感知机学习算法存在许多解,这些解既依赖于初值的选择,也依赖于迭代过程中误分类点的选择顺序

为了得到唯一的超平面,需要对分离超平面增加约束条件。

当训练集线性不可分时,感知机学习算法不收敛,迭代结果会发生震荡。

感知机学习算法的对偶形式

对偶形式的基本想法是,wb 表示为实例 xi 和标记 yi的线性组合的形式w=i=1Nαiyixi,b=i=1Nαiyi,通过求解其系数而求得 wb

与原始形式一样,感知机学习算法的对偶形式迭代是收敛的(证明相同),存在多个解。

为什么要引出对偶形式?

参考资料:《浅析感知机(三)--收敛性证明与对偶形式以及python代码讲解》第一个评论。

进行随机梯度下降,选择一个样本xi,进行条件判断时,原始形式是需要做wxi的内积。这样每次条件判断时这个内积都得重新做一次,因为w每次迭代后都会更新。这样时间复杂度为O(n),n为特征维度。

w写成xi的线性组合后,wxi的内积可以转化为xj,xi的内积的线性组合形式,变化的是线性组合中的系数αjxj,xi的内积可以通过预先算好并存表。每次条件判断时只需查表并做线性求和即可。对于xi来说,xi,xj的组合共有N个,N表示训练集大小,因此共需查表求和N次,时间复杂度为O(N)。

当n明显大于N时,对偶形式可以减少计算时间。

习题

主要参考资料:

DataWhale资料-第2章 感知机 (datawhalechina.github.io)

习题2.1

题目

Minsky 与 Papert 指出:感知机因为是线性模型,所以不能表示复杂的函数,如异或 (XOR)。验证感知机为什么不能表示异或。

证明

异或函数(XOR)
a b y=a⊕b
0 0 0
0 1 1
1 0 1
1 1 0

假设x向量只有两个维度x1x2,有以下四个样本:

样本 x1 x2 y
0 0 0 -1
1 0 1 1
2 1 0 1
3 1 1 -1
图例法

在二维坐标系上可视化样本,从下图可以看出,无法使用一条直线完全将两类样本分开,所以异或问题是线性不可分的。

反证法

假设感知机模型可以表示异或问题,带入上述四个样本点,逐步求w1,w2b

  1. 根据x1=0,x2=0,y=1,则wx+b<0,可得b<0
  2. 根据x1=0,x2=1,y=1,则w2+b>0,结合b<0,可得w2>b>0
  3. 根据x1=1,x2=0,y=1,则w1+b>0,结合b<0,可得w1>b>0
  4. 根据x1=1,x2=1,并结合w1+b>0w2>0,则w1+w2+b>0,可得y=1,与异或条件中的y=1矛盾。

所以假设不成立,原命题成立,即感知机模型不能表示异或。

sklearn感知机代码验证

使用sklearn的Perceptron类构建感知机模型,从模型的参数上观察,感知机模型的参数:w= [0. 0.] b= 0.0,无法表示异或。

python
from sklearn.linear_model import Perceptron
import numpy as np

# 构造异或问题的训练数据集
X_train = np.array([[1, 1], [1, 0], [0, 1], [0, 0]])
y = np.array([-1, 1, 1, -1])

# 使用sklearn的Perceptron类构建感知机模型
perceptron_model = Perceptron()
# 进行模型训练
perceptron_model.fit(X_train, y)

# 打印模型参数
print("感知机模型的参数:w=", perceptron_model.coef_[
0], "b=", perceptron_model.intercept_[0])

#感知机模型的参数:w= [0. 0.] b= 0.0

习题2.2

题目

模仿例题 2.1,构建从训练数据求解感知机模型的例子。

训练集需要线性可分,使用鸢尾花的前100个数据样本:

python
from sklearn.datasets import load_iris
iris=load_iris()
import pandas as pd
data=pd.DataFrame(iris.data,columns=iris.feature_names)
data['label']=iris.target
X,y=data.iloc[:100,[0,1]].values,data.iloc[:100,-1].values
y[y==0]=-1
plt.scatter(X.T[0][:50],X.T[1][:50],label='0')
plt.scatter(X.T[0][50:100],X.T[1][50:100],label='1')
plt.show()

sklearn.linear_model.Perceptron实现
python
from sklearn.linear_model import Perceptron
import numpy as np

# 使用sklearn的Perceptron类构建感知机模型
perceptron_model = Perceptron()
# 进行模型训练
perceptron_model.fit(X, y)

# 打印模型参数
print("感知机模型的参数:w=", perceptron_model.coef_[
0], "b=", perceptron_model.intercept_[0])
plt.scatter(X.T[0][:50],X.T[1][:50],label='0')
plt.scatter(X.T[0][50:100],X.T[1][50:100],label='1')
x_points=np.arange(4,8)
y_=-(perceptron_model.coef_[0][0]*x_points+perceptron_model.intercept_)/perceptron_model.coef_[0][1]
plt.plot(x_points,y_)

#感知机模型的参数:w= [ 23.2 -38.7] b= -5.0

可视化结果如下:

numpy实现

回顾一下算法的原始形式:

python
import numpy as np
from matplotlib import pyplot as plt

class Perceptron:
def __init__(self, X, Y, lr=0.1):
"""
初始化感知机
:param X: 训练样本的特征向量
:param Y: 训练样本对应的类别
:param lr: 学习率
:param plot: 是否绘制图形
"""
self.X = X
self.Y = Y
self.lr = lr

def fit(self):
# (1)初始化weight, b,都为0
weight = np.zeros(self.X.shape[1])
b = 0
# 训练次数
train_counts = 0
# 分类错误标识
mistake_flag = True
while mistake_flag:
# 开始前,将mistake_flag设置为False,用于判断本次循环是否有分类错误
mistake_flag = False
# (2)从训练集中选取x,y
for index in range(self.X.shape[0]):
# 损失函数
loss = self.Y[index] * (weight @ self.X[index] + b)
# (3)如果损失函数小于0,则该点是误分类点
if loss <= 0:
# 更新weight, b
weight += self.lr * self.Y[index] * self.X[index]
b += self.lr * self.Y[index]
# 训练次数加1
train_counts += 1
print("Epoch {}, weight = {}, b = {}".format(
train_counts, weight, b))
# 本次循环有误分类点(即分类错误),置为True
mistake_flag = True
break
# (4)直至训练集中没有误分类点
return weight, b
python
model = Perceptron(X, y)
weight, b = model.fit()
print("感知机模型的参数:w=", weight, "b=", b)
plt.scatter(X.T[0][:50],X.T[1][:50],label='0')
plt.scatter(X.T[0][50:100],X.T[1][50:100],label='1')
x_points=np.arange(4,8)
y_=-(weight[0]*x_points+b)/weight[1]
plt.plot(x_points,y_)
#感知机模型的参数:w= [ 7.9 -10.03] b= -12.499999999999972

可视化结果如下:

习题2.3

题目

证明以下定理:样本集线性可分的充分必要条件是正实例点所构成的凸壳与负实例点所构成的凸壳互不相交。

证明

凸壳定义:

设集合SRn,是由Rn中的k个点所组成的集合,即S={x1,x2,,xk}。定义S的凸壳conv(S)为: conv(S)={x=i=1kλixi|i=1kλi=1,λi0,i=1,2,,k}

线性可分

给定一个数据集,如果存在某个超平面S能够将数据集的正、负实例点完全正确地划分到超平面两侧,即对所有yi=+1的实例i ,有w·x+b>0,对所有 yi=1的实例i ,有则称 数据集w·x+b<0,则数据集是线性可分地(linearly separable data set);否则,称数据集线性不可分。

必要性:线性可分->凸壳互不相交

反证法:

  1. 假设原命题不成立,即:样本集线性可分,正实例点所构成的凸壳与负实例点所构成的凸壳相交。

    设数据集T中的正例点集为S+S+的凸壳为conv(S+),负实例点集为SS的凸壳为conv(S)

    假设样本集线性可分,正实例点所构成的凸壳与负实例点所构成的凸壳相交,即存在某个元素s,同时满足sconv(S+)sconv(S)

充分性:凸壳互不相交->线性可分

证明思路:

  1. 根据凸壳不相交,找到一个超平面;
  2. 证明这个超平面可将两个互不相交的凸壳分隔开(反证法),即存在一个超平面分隔两类样本,则样本集满足线性可分。

证明步骤:

  1. 根据凸壳不相交,找到一个超平面:可以根据两个凸壳最近样本(x+S+,xS)的连线作为法线,过法线中点的超平面作为分割超平面,当维度为2维时,示意图如下图所示:

    定义dist(x+,x)为两个凸壳集合中点距离的最小值。定义以(x+,x)为法线,且过两点中点的超平面为f(x|w,b)=0,则参数为: (2)f(xw,b)=(x+x)T(xx++x2)(3)w=(x+x)T,(4)b=12(||x+||22||x||22)

  2. 证明这个超平面可将两个互不相交的凸壳分隔开(反证法),即存在一个超平面分隔两类样本,则样本集满足线性可分:

参考资料

李航 统计学习方法 第2版

DataWhale资料-第2章 感知机 (datawhalechina.github.io)