菜单
  

    模型的组合 (HMMs)。
    原则上,神经网络被用于提取所需建模的概率充当时间顺序的角色,这是静态模式,而
    隐马尔可夫模型对数据的动态熟悉进行建模。由Mohammed 等人的方法[26]
    ,DBNs 在预训练
    阶段使用无监督训练方式。为了对于给定输入在 HMM 状态建立后部密度,在此之后是有监
    督的微调,如使用反向传播算法。在此方法中,n 个连续的输入送入深度置信网络作为训练
    集。在有监督的学习阶段对  HMM 每个阶段的交叉熵损失进行优化,以往的方式通常以GMM
    代替 DBN。与传统方法较之不同的是,[26]
    HMM 的后验状态得以使用。
    2.1.2 条件深度置信网络
    条件深度置信网络  (Conditional Deep Belief Network)  的基石是条件玻耳兹曼机
    (Conditional Restricted Boltzmann Machines, CRBMs) 。这种条件依赖性用于处理数据中的时
    间信息。 普通RBMS不传达这种信息。 之前的时间片可能会被当作网络额外的固定输入处理。
    在此深度结构中有两种连接:从前一层的 n 个可见节点到当前层的可见节点;从前一层的 m
    个可见节点到当前层的隐含节点。由于这是一种条件依赖,所有的连接都是定向的。这种新
    的结构被称为条件玻耳兹曼机。
    M 和N是展示时间依赖性的深度的两个重要参数。在两个参数无法自动生成,且需要根
    据现有任务决定。例如,在对行为建模时设N = F =10,N = M,其中F是数据的帧速率。
    简而言之,我们假定N = M,{ t-1,,t-N }是之前N个时间步骤,则可以在一个向量串联起
    输入的所有 N个之前的时间片,向量可以成为历史向量�<�。如果没个输入的文度都是D,则历史向量�<�的文度是N·D。此外还有两个权值矩阵 A和B。A是前层的权值矩阵,对现一层
    可见,文度为 N·D×D。B与前层有关,对现一层可见,文度与隐含层有关,为 N·D×H,其中
    H 是二值隐含节点数[27]。 将当前隐含层的每个之前的输入视为一个动态的偏差项, CRBMs 推理和训练算法并不比
    标准 RBMS 难。 此时训练中仍可以使用对比分歧 (contrastive pergence)。 如同普通的DBN,
    一旦 CRBMs 的训练开始就可以将它们堆叠在彼此的顶部上以形成一个条件 DBN,较低级别
    的隐藏状态向量被认为是作用于上层的一个完全观察到的数据[27]
    。设�0是自上而下生成权重,�0
  1. 上一篇:局部描述子方法及其在图像识别中的应用
  2. 下一篇:基于图像分析的打印缺陷在线检测方法研究与实现
  1. 基于MATLAB的图像增强算法设计

  2. 基于Kinect的手势跟踪与识别算法设计

  3. JAVA基于安卓平台的医疗护工管理系统设计

  4. 基于核独立元分析的非线...

  5. 基于Hadoop的制造过程大数据存储平台构建

  6. 基于安卓系统的测量软件...

  7. 基于VC++的GIS矢量图形系统开发

  8. 大众媒体对公共政策制定的影响

  9. 河岸冲刷和泥沙淤积的监测国内外研究现状

  10. 十二层带中心支撑钢结构...

  11. 电站锅炉暖风器设计任务书

  12. 酸性水汽提装置总汽提塔设计+CAD图纸

  13. 杂拟谷盗体内共生菌沃尔...

  14. 乳业同业并购式全产业链...

  15. java+mysql车辆管理系统的设计+源代码

  16. 当代大学生慈善意识研究+文献综述

  17. 中考体育项目与体育教学合理结合的研究

  

About

751论文网手机版...

主页:http://www.751com.cn

关闭返回