神经网络计算步骤如下:
(1)选定权系数初值;
(2)正向计算隐含层和输出层各节点输出;
(3)反向计算误差梯度;
(4)调整权值;
(5)重复(2)、(3)、(4)步直到样本输出误差足够小.
2.3 支持向量机
2.3.1 分类超平面
假定 决定一个决策界面,当 为线性时,这个决策界面便是个超平面 .其中超平面 的法向量为 ,决定了超平面方向; 决定超平面位置.一般的,超平面 把输入空间分为两个半空间,既 ~ 空间.当 在 空间时, , 指向 ,为 的正侧;反之为 的负侧.
超平面有以下性质:源'自:751-'论/文'网"www.751com.cn
(1) 与 正交;
(2)任意点 到超平面的代数距离 ,既 正比于 到 的代数距离;
(3)原点到超平面的代数距离 ,既原点到H的代数距离与偏置 成正比;
(4)若 ,则H在原点的正侧;若 ,则H在原点的负侧;若 ,则 ,说明超平面 通过原点.
2.3.2 线性可分支持向量机
设两类问题训练样本集为 ,其中 .问题线性可分是指,存在着超平面 ,使得训练样本中的正确输入和负类输入分别位于该超平面的两侧,或者说存在参数对 ,使得:
(2.1)
对于线性可分问题,不失一般性,可假定训练集中的向量满足:
(2.2)
由于支持向量与超平面之间的距离为 ,支持向量之间距离为 ,既为分类间隔.因此构造最优超平面使分类间隔最大的问题就转化为在式(2.2)的约束下求下式的最小值:
(2.3)
它属于二次规划的问题,利用 优化方法可以把上述最优分类面问题转化为其对偶问题,其最优解为下列 函数的鞍点:
(2.4)
其中 为非负 乘数.值得注意的是,式(2.4)是一个凸二次规划问题,存在唯一的最优解.在鞍点处,由于 和 的梯度为0,可得:
又最优解满足:
任取 ,可求的 由上式可知,结果可得大部分 为零.将 不为零所对应的样本称为支持向量.因此在权重向量的表达式中,只有这些点包括在内