模型的组合 (HMMs)。
原则上,神经网络被用于提取所需建模的概率充当时间顺序的角色,这是静态模式,而
隐马尔可夫模型对数据的动态熟悉进行建模。由Mohammed 等人的方法[26]
,DBNs 在预训练
阶段使用无监督训练方式。为了对于给定输入在 HMM 状态建立后部密度,在此之后是有监
督的微调,如使用反向传播算法。在此方法中,n 个连续的输入送入深度置信网络作为训练
集。在有监督的学习阶段对 HMM 每个阶段的交叉熵损失进行优化,以往的方式通常以GMM
代替 DBN。与传统方法较之不同的是,[26]
HMM 的后验状态得以使用。
2.1.2 条件深度置信网络
条件深度置信网络 (Conditional Deep Belief Network) 的基石是条件玻耳兹曼机
(Conditional Restricted Boltzmann Machines, CRBMs) 。这种条件依赖性用于处理数据中的时
间信息。 普通RBMS不传达这种信息。 之前的时间片可能会被当作网络额外的固定输入处理。
在此深度结构中有两种连接:从前一层的 n 个可见节点到当前层的可见节点;从前一层的 m
个可见节点到当前层的隐含节点。由于这是一种条件依赖,所有的连接都是定向的。这种新
的结构被称为条件玻耳兹曼机。
M 和N是展示时间依赖性的深度的两个重要参数。在两个参数无法自动生成,且需要根
据现有任务决定。例如,在对行为建模时设N = F =10,N = M,其中F是数据的帧速率。
简而言之,我们假定N = M,{ t-1,,t-N }是之前N个时间步骤,则可以在一个向量串联起
输入的所有 N个之前的时间片,向量可以成为历史向量�<�。如果没个输入的文度都是D,则历史向量�<�的文度是N·D。此外还有两个权值矩阵 A和B。A是前层的权值矩阵,对现一层
可见,文度为 N·D×D。B与前层有关,对现一层可见,文度与隐含层有关,为 N·D×H,其中
H 是二值隐含节点数[27]。 将当前隐含层的每个之前的输入视为一个动态的偏差项, CRBMs 推理和训练算法并不比
标准 RBMS 难。 此时训练中仍可以使用对比分歧 (contrastive pergence)。 如同普通的DBN,
一旦 CRBMs 的训练开始就可以将它们堆叠在彼此的顶部上以形成一个条件 DBN,较低级别
的隐藏状态向量被认为是作用于上层的一个完全观察到的数据[27]
。设�0是自上而下生成权重,�0
- 上一篇:局部描述子方法及其在图像识别中的应用
- 下一篇:基于图像分析的打印缺陷在线检测方法研究与实现
-
-
-
-
-
-
-
大众媒体对公共政策制定的影响
河岸冲刷和泥沙淤积的监测国内外研究现状
十二层带中心支撑钢结构...
电站锅炉暖风器设计任务书
酸性水汽提装置总汽提塔设计+CAD图纸
杂拟谷盗体内共生菌沃尔...
乳业同业并购式全产业链...
java+mysql车辆管理系统的设计+源代码
当代大学生慈善意识研究+文献综述
中考体育项目与体育教学合理结合的研究