We use cookies to improve your experience with our site.

基于数据依赖后悔分析的内存受限在线核选择的可学习性研究

Learnability in Online Kernel Selection with Memory Constraint via Data-Dependent Regret Analysis

  • 摘要:
    研究背景 在线核选择动态地选择再生核希尔伯特空间并实时地预测,是在线核学习算法的一个关键问题。为了保证在线核选择过程具有最优的后悔,已有在线核选择算法必须存储所有的历史数据,具有O(t) 的空间复杂度,不适用于大规模的在线学习问题。其中,t表示回合数。为此,考虑内存受限的在线核选择问题。其中,算法可用的内存资源限制为\mathcalR 。一个基本问题是最优的假设空间是否仍然在线可学习。已有工作证明了任意预算保持的在线核选择算法的最坏情况后悔为\theta\left(\max\left(\sqrtT,\fracT\sqrt\mathcal R\right)\right) ,T是回合数。该结果表明:常数规模的内存资源无法保证亚线性后悔,且任意候选假设假设空间均不是在线可学习的。在实际问题中,已有算法在常数规模的内存约束下具有好的学习性能。因此,最坏情况后悔分析不足以解释算法在实际数据上的表现,也无法很好地回答内存受限在线核选择中的可学习性问题。有必要从新的角度研究内存受限条件下的在线可学习性。
    目的 内存受限条件下的可学习性与后悔之间存在间隙。这是由于最坏情况的后悔分析仅给出了依赖于T 的后悔界,没有考虑实际问题的结构和困难性。本文应用数据依赖的后悔分析,旨在建立依赖于问题结构的后悔界,并弥合可学习性于后悔之间的间隙。具体地,本文研究以下两个问题:1)数据依赖的后悔界与数据复杂度、内存约束的折中关系是什么?2)在O(ln(T)) 的内存约束下,最优假设空间是否在线可学习,即后悔是否是亚线性的。
    方法 在无内存约束的情况下,已有工作给出了两种数据依赖的后悔界,分别称为核对齐后悔界和小损失后悔界。在内存约束下,提出了一个由专家建议和新的缓冲区维护框架组成的算法框架。其中,缓冲区维护框架包含自适应采样和移除一半的样本两个部分。针对合页损失函数和光滑的损失函数,分别导出了一个算法。为了得到数据依赖的后悔界,主要的技术挑战是确保缓冲区维护导致的后悔可由数据依赖的复杂度界定。对于合页损失函数,证明了自适应采样和移除样本导致的后悔均由核对齐界定。对于光滑损失函数,自适应采样和移除样本导致的后悔均由小损失界定。最后,对于光滑损失函数,证明了一个匹配的后悔下界。构造了一个困难的样本序列,关键是分析任意算法的累计损失下界,并构造一个竞争假设。
    结果 根据计算和证明得到的后悔下界表明,所提出的算法对于光滑损失函数是最优的。计算得到的后悔上界表明:如果最优核函数的核对齐是亚线性的,或者最优假设空间中的小损失是亚线性的,则在对数规模的内存约束下,算法的具有亚线性的后悔。最优的假设空间是在线可学习的。此外,在基准数据集上验证了两种数据复杂度的值。结果表明,核对齐和小损失的值均远远小于回合数T
    结论 应用数据依赖的后悔分析,给出了内存受限条件下新的在线可学习性结果。理论分析和实验结果均表明:对于实际问题,对数规模的内存资源足以保证最优假设空间在线可学习。该结果完全不同于已有结果,在一定程度上弥合了可学习性和后悔之间的间隙。所提出的算法仅需要关于回合数对数依赖的内存资源,适用于计算资源受限的移动设备,并且所提出的理论也可指导合理配置计算资源。进一步的工作包括:根据问题的不同性质,设计具有数据依赖后悔界的算法,给出内存受限条件下在线可学习性更加丰富的结果。

     

    Abstract: Online kernel selection is a fundamental problem of online kernel methods. In this paper, we study online kernel selection with memory constraint in which the memory of kernel selection and online prediction procedures is limited to a fixed budget. An essential question is what is the intrinsic relationship among online learnability, memory constraint, and data complexity. To answer the question, it is necessary to show the trade-offs between regret and memory budget. Previous work gives a worst-case lower bound depending on the data size, and shows learning is impossible within a small memory budget. In contrast, we present distinct results by offering data-dependent upper bounds that rely on two data complexities: kernel alignment and the cumulative losses of competitive hypothesis. We propose an algorithmic framework giving data-dependent upper bounds for two types of loss functions. For the hinge loss function, our algorithm achieves an expected upper bound depending on kernel alignment. For the smooth loss functions, our algorithm achieves a high-probability upper bound depending on the cumulative losses of competitive hypothesis. We also prove a matching lower bound for smooth loss functions. Our results show that if the two data complexities are sub-linear, then learning is possible within a small memory budget. Our algorithmic framework depends on a new buffer maintaining framework and a reduction from online kernel selection to prediction with expert advice. Finally, we empirically verify the prediction performance of our algorithms on benchmark datasets.

     

/

返回文章
返回