这些先驱者的工作激发了许多学者从事这一领域的研究,从而为神经计算的出现打下了基础。
2.第二阶段从五十年代中期到751十年代末
1958年,F.Rosenblatt等人研制出了历史上第一个具有学习型神经网络特点的模式识别装置,即代号Mark I的感知机,这一重大事件是神经网络研究进入第二阶段的标志。对于简单的没有中间层的感知机,Rosenblatt证明了一种学习算法的收敛性,这种学习算法通过迭代地改变连接权来使网络执行预期的计算。
3.第三阶段从751十年代末到八十年代初
第三阶段的标志是1969年M.Minsky和S.Papert所著的《感知机》一书的出版。该书对单层神经网络进行了深入分析,并且从数学上证明了这种网络功能有限,甚至不能解决像“异或”这样的简单逻辑运算问题。同时,他们还发现有许多模式是不能用单层网络训练的,而多层网络是否可行还是很值得怀疑。
由于M.Minsky在人工智能领域中的巨大威望,他在论著中作出的悲观结论给当时神经网络沿感知机方向的研究泼了一盆冷水。在《感知机》一书出版后,美国联邦基金有15年之久没有资助神经网络方面的研究工作,前苏联也取消了几项有前途的研究计划。
但是,即使在这个低潮期里,仍有一些研究者继续从事神经网络的研究工作,如美国波士顿大学的S.Grossberg、苏兰赫尔辛基技术大学的T.Kohonen以及日本东京大学的甘立俊一等人。他们坚持不懈的工作为神经网络研究的复兴开辟了道路。
4.第四阶段从八十年代初至今
1982年,美国加州理工学院的生物物理学家J.J.Hopfield采用了全互连型神经网络模型,利用所定义的计算能量函数,成功地求解了计算复杂度为NP完全型的旅行商问题。这项突破性进展标志着神经网络方面的研究进入了第四阶段,也是蓬勃发展的阶段。
4.1.2 神经网络的定义及构筑理念
人工神经网络(Artificial Neural Networks, ANN),也简称神经网络(Neural Networks, NN),是一种应用类似于大脑神经突触连接的结构进行信息处理的数学模型。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称“神经元”,或“单元”)和节点之间相互连接构成。每个节点代表一种特定的输出函数,称为激励函数(Activation Function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称为权重(Weight),这相当于人工神经网络的记忆。网络的输出则依网络的连接方式、权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。
它的构筑理念是受到生物(人或其他动物)神经网络功能的运作启发而产生的。人工神经网络通常是通过一个基于数学统计学类型的学习方法(Learning Method)得以优化,所以人工神经网络也是数学统计学方法的一种实际应用,通过统计学的标准数学方法我们能够得到大量的可以用函数来表达的局部结构空间;另一方面在人工智能学的人工感知领域,我们通过数学统计学的应用可以来做人工感知方面的决定问题,也就是说,通过统计学的方法,人工神经网络能够类似人一样具有简单的决定能力和判断能力,这种方法比正式的逻辑学推理演算更具有优势。
4.1.3 神经网络的特性
一种常见的多层结构的前馈网络(Multilayer Feedforward Network)由3部分组成:
输入层(Input Layer),众多神经元(Neuron)接受大量非线性输入信息。输入的信息称为输入向量。
输出层(Output Layer),信息在神经元链接中传输、分析、权衡,形成输出结果。输出的信息称为输出向量。 基于神经网络的移动机器人的故障诊断方法研究(10):http://www.751com.cn/zidonghua/lunwen_2256.html