基于遗忘特性的数据流概要结构及其应用研究

被引:0
作者
陈华辉
机构
[1] 复旦大学
关键词
数据流; 数据遗忘; 概要结构; 小波; 聚类分析;
D O I
暂无
年度学位
2008
学位类型
博士
导师
摘要
随着计算机网络和各类电子设备应用的越来越广泛,越来越多的数据以连续的流的形式出现,如网络路由信息,传感器网络采集的实时信号,证券交易、信用卡交易、商场购物交易等的实时记录,因特网网站点击流,电信网络的电话呼叫业务记录,聊天室、短信等的实时文本流等,均产生连续不断的各类数据。这些数据被称为流数据或数据流。因为数据流和传统数据库等系统中处理的数据的巨大差别,迫使研究人员对数据流模型和处理方法进行深入研究。 数据流处理的关键是应用单趟数据扫描算法,建立流数据的概要结构,以便随时能根据该结构提供数据流的近似处理结果。数据遗忘是数据流的一种重要特性,在数据流概要结构构造中应充分考虑这种遗忘特性。本文工作利用这种遗忘特性,提出了一种基于数据流遗忘特性的概要结构的框架,称为分层遗忘概要(Hierarchical AmnesicSynopses,简称HAS)。应用HAS结构,可将原来不考虑遗忘特性的概要结构构造方法改造为结合了数据流遗忘特性的方法。本文工作将HAS结构应用于直方图、抽样、小波、sketch、随机投影等主要的数据流概要结构中,并给出了几个典型应用。 本文主要贡献包括: (1)提出了一种数据流概要结构的通用框架,HAS结构。该框架嵌入了数据流的遗忘特性,并且具有遗忘速度和重构误差控制的能力。利用该框架,可将现有的多种典型数据流概要结构改造成具有数据流遗忘特性处理能力。 (2)实现了基于小波数据压缩的HAS结构(W-HAS),提出了小波概要的归并方法,并讨论了在基于误差平方和(sse)和基于最大绝对误差(maxabs)两种误差度量标准下的W-HAS,以及如何进行W-HAS中的重构误差控制的方法。 (3)讨论了基于加权随机抽样的HAS结构(WS-HAS),分别对有放回和无放回加权随机抽样设计了WS-HAS概要结构的维护算法。 (4)提出了结合HAS结构和直方图数据压缩方法的H-HAS结构,讨论了等宽直方图下的H-HAS结构的实现,用动态规划方法实现了最优直方图下的H-HAS结构。 (5)基于数据流的W-HAS结构,讨论了数据流之间的近似距离和聚类中心的计算,并进而提出了适合并行多数据流的K-means聚类方法:W-HAS-clustering。同时,利用数据流的遗忘特性,应用随机投影,构造了基于随机投影的数据流分层概要结构RP-HAS,并设计了规范化后数据流的RP-HAS结构维护的方法。提出了基于RP-HAS结构的适合并行多数据流的聚类方法RP-HAS-clustering。 (6)讨论了高维数据流中HAS结构的实现,并将其应用到数据流的分类和聚类中。 (7)提出了一种基于sketch的数据流概要结构EFM sketch,并用EFM sketch来估算集合的相似度。在HAS结构的基础上,应用EFM sketch分析数据流上数据的相似度和演化。
引用
收藏
页数:123
共 26 条
[1]
Improved algorithms for polynomial-time decay and time-decay with additive error [J].
Kopelowitz, Tsvi ;
Porat, Ely .
THEORY OF COMPUTING SYSTEMS, 2008, 42 (03) :349-365
[2]
Sequential reservoir sampling with a nonuniform distribution [J].
Kolonko, M. ;
Waesch, D. .
ACM TRANSACTIONS ON MATHEMATICAL SOFTWARE, 2006, 32 (02) :257-273
[3]
Stable distributions, pseudorandom generators, embeddings, and data stream computation [J].
Indyk, Piotr .
JOURNAL OF THE ACM, 2006, 53 (03) :307-323
[4]
Making SVMs scalable to large data sets using hierarchical cluster indexing [J].
Yu, HJ ;
Yang, J ;
Han, JW ;
Li, XL .
DATA MINING AND KNOWLEDGE DISCOVERY, 2005, 11 (03) :295-321
[5]
Tracking set-expression cardinalities over continuous update streams [J].
Ganguly, S ;
Garofalakis, M ;
Rastogi, R .
VLDB JOURNAL, 2004, 13 (04) :354-369
[6]
Aurora: a new model and architecture for data stream management [J].
Abadi, DJ ;
Carney, D ;
Cetintemel, U ;
Cherniack, M ;
Convey, C ;
Lee, S ;
Stonebraker, M ;
Tatbul, N ;
Zdonik, S .
VLDB JOURNAL, 2003, 12 (02) :120-139
[7]
Finite Newton method for Lagrangian support vector machine classification.[J].Glenn Fung;O.L. Mangasarian.Neurocomputing.2003, 1
[8]
On the need for time series data mining benchmarks: A survey and empirical demonstration [J].
Keogh, E ;
Kasetty, S .
DATA MINING AND KNOWLEDGE DISCOVERY, 2003, 7 (04) :349-371
[9]
Training invariant support vector machines [J].
Decoste, D ;
Schölkopf, B .
MACHINE LEARNING, 2002, 46 (1-3) :161-190
[10]
Locally adaptive dimensionality reduction for indexing large time series databases [J].
Chakrabarti, K ;
Keogh, E ;
Mehrotra, S ;
Pazzani, M .
ACM TRANSACTIONS ON DATABASE SYSTEMS, 2002, 27 (02) :188-228