We use cookies to improve your experience with our site.

使用自适应方法的线性和二次可分分类机

Linearly and Quadratically Separable Classifiers Using Adaptive Approach

  • 摘要: 1.本文的创新点
    本文提出了一种快速自适应迭代方法以解决线性可分分类器问题,并通过空间映射,将其扩展到线性不可分的二次可分分类器问题上。本文的创新点在于其提出的方法计算速度较快,通过较少的迭代次数,该算法就能找到数据分类的最优超平面。 2.实现方法
    在二分类问题情况下,该算法首先探测属于不同类别数据点的边界,在边界周围的不同类别数据点之间的距离达到最小。接着,在该边界周围选择一定数量的n维数据点,构建超平面,以使得这些被选择的属于不同类别n维数据点以预先选定ε距离落在该超平面的两侧。存在且仅存在着两个这样的满足该性质的超平面。如果该被构建的超平面正确分类所有的数据点,计算终止。否则,其它的n维数据点将会被选择以开始下一次迭代。自适应选择其它n维数据点的依据是尽可能选择当先迭代下的误分类点,因为这些误分类点最有可能在两类数据的临界区域内。然后,重新构建该超平面,直到所有数据点被正确分类或者达到最大迭代次数。 3.结论及未来待解决的问题
    1)该算法由于其自适应特征使得其拥有快速性能。
    2)该算法的复杂度为C1N+C2n2,C1为类别1的数据点个数,C2为类别2的数据点个数,N为所有数据点的个数,n为样本数据的特征个数。
    3)该算法假定n为数据点必须处于与超平面相距预先给定的间隔带外,也就是,预先给定的间隔带能够区分两类数据。收敛速率取决于n,ε的选择与依赖于具体问题而定。
    4)该算法的收敛速率以得到分类超平面的迭代次数来衡量或者以一定迭代次数过后的误分类点的个数来衡量。理论分析和数值实现表明该算法的收敛速率与N无关,随着n的增大而减小,并且,在n较小的情况下,通常少量的迭代次数就能达到收敛。 4.实用价值或应用前景该算法具有简单、快速、其分类性能与样本数据个数无关、分类准确的特点,仅需要唯一参数ε。在低维样本数据情况下,该算法能够快速收敛,在高维样本数据情况下,该算法通过空间映射实施降维。该算法具有一定的实用价值和应用前景。

     

    Abstract: This paper presents a fast adaptive iterative algorithm to solve linearly separable classification problems in Rn. In each iteration, a subset of the sampling data (n-points, where n is the number of features) is adaptively chosen and a hyperplane is constructed such that it separates the chosen n-points at a margin ε and best classifies the remaining points. The classification problem is formulated and the details of the algorithm are presented. Further, the algorithm is extended to solving quadratically separable classification problems. The basic idea is based on mapping the physical space to another larger one where the problem becomes linearly separable. Numerical illustrations show that few iteration steps are sufficient for convergence when classes are linearly separable. For nonlinearly separable data, given a specified maximum number of iteration steps, the algorithm returns the best hyperplane that minimizes the number of misclassified points occurring through these steps. Comparisons with other machine learning algorithms on practical and benchmark datasets are also presented, showing the performance of the proposed algorithm.

     

/

返回文章
返回