传统的数据清洗方法大部分是针对海量静态数据的,为了达到更好的通用性主要使用统计和策略匹配的方法来实现对于海量数据中有误差的不真确的部分或者是冗余的部分进行修正或是剔除。在这些清洗算法中,数据被看做是稳定的数据流。这种假设的数据流数据之前虽然有先后之分,遵从一定的时序,但是清洗算法并没有关心数据之间的时间间隔是否均等,在考虑数据的有效性真确性时也没有考虑数据与时间t之间的关系。举一个简单地例子,如表1所示考虑对于倾角数据的如下两种测量情况。假设在这两种情况下所测得的倾角值x的散点序列是一样的都记做x1(1、1.1、1、5、1、1.2)、x2(1、1.1、1、5、1、1.2)在不考虑记录时间的情况下当我们认定x1的测量结果 智慧城市管理系统中的传感器数据采集与清洗方法研究(9):http://www.751com.cn/jisuanji/lunwen_6748.html