实值多变量维数约简:综述

被引:4
作者
单洪明 [1 ,2 ]
张军平 [1 ,2 ]
机构
[1] 上海智能信息处理重点实验室
[2] 复旦大学计算机科学技术学院
关键词
维数约简; 维数灾难; 回归分析; 条件独立性; 互信息;
D O I
10.16383/j.aas.2018.c160812
中图分类号
TP181 [自动推理、机器学习];
学科分类号
摘要
维数约简作为机器学习的经典问题之一,主要用于处理维数灾问题、帮助加速算法的计算效率和提高可解释性以及数据可视化.传统的维数约简算法如主成分分析(Principal component analysis,PCA)和线性判别分析等只能处理无标签数据或者分类数据.然而,当预测变量为一元或多元连续型实值变量时,这些处理无标签数据或分类数据的维数约简方法则不能形成有效的预测性能.近20年来,有一系列工作从多个角度对这一问题展开了研究,并取得了系统性的研究成果.在此背景下,本文将综述这些面向回归问题的降维算法,即实值多变量维数约简.本文将介绍与实值多变量维数约简密切相关的基本概念、算法、理论,并探讨一些潜在的研究方向.
引用
收藏
页码:193 / 215
页数:23
相关论文
共 33 条
  • [1] 基于序的空间金字塔池化网络的人群计数方法
    时增林
    叶阳东
    吴云鹏
    娄铮铮
    [J]. 自动化学报, 2016, 42 (06) : 866 - 874
  • [2] 稀疏子空间聚类综述
    王卫卫
    李小平
    冯象初
    王斯琪
    [J]. 自动化学报, 2015, 41 (08) : 1373 - 1384
  • [3] 概率图模型学习技术研究进展
    刘建伟
    黎海恩
    罗雄麟
    [J]. 自动化学报, 2014, 40 (06) : 1025 - 1044
  • [4] Sufficient Dimension Reduction via Distance Covariance
    Sheng, Wenhui
    Yin, Xiangrong
    [J]. JOURNAL OF COMPUTATIONAL AND GRAPHICAL STATISTICS, 2016, 25 (01) : 91 - 104
  • [5] Gradient-Based Kernel Dimension Reduction for Regression
    Fukumizu, Kenji
    Leng, Chenlei
    [J]. JOURNAL OF THE AMERICAN STATISTICAL ASSOCIATION, 2014, 109 (505) : 359 - 370
  • [6] Sufficient Dimension Reduction via Squared-Loss Mutual Information Estimation
    Suzuki, Taiji
    Sugiyama, Masashi
    [J]. NEURAL COMPUTATION, 2013, 25 (03) : 725 - 758
  • [7] Nonlinear dimension reduction with Wright–Fisher kernel for genotype aggregation and association mapping[J] . Hongjie Zhu,Lexin Li,Hua Zhou.Bioinformatics . 2012 (18)
  • [8] Feature Screening via Distance Correlation Learning
    Li, Runze
    Zhong, Wei
    Zhu, Liping
    [J]. JOURNAL OF THE AMERICAN STATISTICAL ASSOCIATION, 2012, 107 (499) : 1129 - 1139
  • [9] Dimensionality reduction based on non-parametric mutual information[J] . Lev Faivishevsky,Jacob Goldberger.Neurocomputing . 2011
  • [10] Multilabel Dimensionality Reduction via Dependence Maximization
    Zhang, Yin
    Zhou, Zhi-Hua
    [J]. ACM TRANSACTIONS ON KNOWLEDGE DISCOVERY FROM DATA, 2010, 4 (03)