VC Dimensions of Principal Component Analysis

Yohji Akama, Kei Irie, Akitoshi Kawamura, Yasutaka Uwano

研究成果: ジャーナルへの寄稿学術誌査読

7 被引用数 (Scopus)

抄録

Motivated by statistical learning theoretic treatment of principal component analysis, we are concerned with the set of points in ℝd that are within a certain distance from a k-dimensional affine subspace. We prove that the VC dimension of the class of such sets is within a constant factor of (k+1)(d-k+1), and then discuss the distribution of eigenvalues of a data covariance matrix by using our bounds of the VC dimensions and Vapnik's statistical learning theory. In the course of the upper bound proof, we provide a simple proof of Warren's bound of the number of sign sequences of real polynomials.

本文言語英語
ページ(範囲)589-598
ページ数10
ジャーナルDiscrete and Computational Geometry
44
3
DOI
出版ステータス出版済み - 2010

!!!All Science Journal Classification (ASJC) codes

  • 理論的コンピュータサイエンス
  • 幾何学とトポロジー
  • 離散数学と組合せ数学
  • 計算理論と計算数学

フィンガープリント

「VC Dimensions of Principal Component Analysis」の研究トピックを掘り下げます。これらがまとまってユニークなフィンガープリントを構成します。

引用スタイル