Analyse en composantes principales à noyaux
Dans le domaine des statistiques multivariées, l'analyse en composantes principales à noyau (ACP à noyau; en anglais : kernel principal component analysis, KPCA)[1] est une extension de l'analyse en composantes principales (ACP) utilisant l'astuce du noyau (méthodes à noyau). En utilisant un noyau, les opérations initialement linéaires de l'ACP sont effectuées dans un espace de Hilbert à noyau reproducteur, un espace à grande dimension.
Contexte : ACP linéaire
Rappelons que l'ACP conventionnelle fonctionne sur des données centrées sur zéro; c'est-à-dire,
- ,
où est l'un des observations multivariées. Il fonctionne en diagonalisant la matrice de covariance,
en d'autres termes, cela donne une décomposition en éléments propres de la matrice de covariance :
qui peut être réécrite comme
- .
(Voir aussi : Matrice de covariance comme opérateur linéaire)
Utilisation du noyau dans l'ACP
Pour comprendre l'utilité de l'ACP à noyau, en particulier pour le partitionnement de données, observez que, bien que N points ne puissent pas, en général, être séparés linéairement dans dimensions, elles peuvent presque sûrement être séparées linéairement dans dimensions. C'est-à-dire, étant donné N points, , si nous les projetons dans un espace N -dimensionnel avec
- où ,
il est alors facile de construire un hyperplan qui divise les points en groupes arbitraires. Bien sûr, ce crée des vecteurs linéairement indépendants, il n'y a donc pas de covariance sur laquelle effectuer une décomposition en éléments propres explicitement comme nous le ferions pour une ACP linéaire.
Au lieu de cela, dans l'ACP à noyau, la fonction, arbitraire non trivial, est « choisie » mais elle n'est jamais calculée explicitement. Ceci permet d'utiliser des fonctions de très grande dimension car nous n'avons jamais à évaluer réellement les données dans cet espace. Étant donné que nous voulons éviter de travailler dans le -espace, que nous appellerons « espace de re-description » (feature space, en anglais), nous allons utiliser l'astuce du noyau et créer le noyau N-par-N
qui représente l'espace du produit interne (voir matrice de Gram) de l'espace de re-description autrement intraitables. La forme duale qui apparaît lors de la création d'un noyau nous permet de formuler mathématiquement une version de l'ACP dans laquelle nous ne résolvons jamais réellement les vecteurs propres et les valeurs propres de la matrice de covariance dans l'espace des (voir Astuce du noyau). Les N éléments de chaque colonne de K représentent le produit scalaire d'un point des données transformées par rapport à tous les points transformés (N points). Dans la section exemple ci-dessous, nous présentons certains des noyaux les plus utilisés.
Parce que nous ne travaillons jamais directement dans l’espace de re-description, la formulation du noyau de l’ACP est limitée dans la mesure où elle ne calcule pas les composantes principales elles-mêmes, mais les projections de nos données sur ces composantes. Pour évaluer la projection à partir d'un point dans l'espace des fonctions sur la kème composante principale (où l'exposant k indique composante k, et non V à la puissance k)
Nous notons que désigne le produit scalaire, qui correspond simplement aux éléments de la matrice noyau . Il ne reste alors plus qu'à calculer et normaliser le , ce qui peut être fait en trouvant vecteur propre :
où est le nombre de points de données dans l'ensemble, et et sont les valeurs propres et les vecteurs propres de . Ensuite, pour normaliser les vecteurs propres , nous exigeons que
Il faut être prudent quant au fait que, peu importe si a une moyenne nulle ou non dans son espace d'origine, il n'est pas garanti qu'il soit centré dans l'espace de re-description (que nous ne calculons jamais explicitement). Étant donné que des données centrées sont nécessaires pour effectuer une analyse des composantes principales efficace, nous « centralisons » pour devenir
où désigne une matrice N x N pour laquelle chaque élément prend une valeur . Nous utilisons pour exécuter l'algorithme d'ACP à noyau décrit ci-dessus.
Une autre mise en garde concernant l'ACP à noyau est importante. Dans l'ACP linéaire, nous pouvons utiliser les valeurs propres pour classer les vecteurs propres en fonction de la part de variation des données capturée par chacune des composantes principales. Ceci est utile pour la réduction de la dimensionnalité des données et pourrait également être appliqué à la KPCA. Cependant, en pratique, il existe des cas où toutes les variations des données sont les mêmes. Cela est généralement dû à un mauvais choix du paramètre d'échelle du noyau.
Grandes bases de données
En pratique, une grande base de données conduit à un grand K, et le stockage de K peut devenir un problème. Une façon de résoudre ce problème est d’effectuer un partitionnement de données et de remplir le noyau avec les moyennes de ces clusters. Étant donné que même cette méthode peut produire un K relativement grand, il est courant de calculer uniquement les P valeurs propres les plus grandes.
Exemple
Considérons trois nuages de points concentriques (comme illustrés); nous souhaitons utiliser l'ACP à noyau pour identifier ces groupes. La couleur des points ne représente pas les informations impliquées dans l'algorithme, mais montre uniquement comment la transformation déplace les points de données.
Tout d’abord, considérons le noyau
En appliquant ceci à l'ACP à noyau, on obtient l’image suivante.
Considérons maintenant un noyau gaussien :
Ca noyau est une mesure de proximité, égale à 1 lorsque les points coïncident et égale à 0 à l'infini.
Notons en particulier que la première composante principale suffit à distinguer les trois groupes différents, ce qui est impossible en utilisant uniquement une ACP linéaire, car l'ACP linéaire ne fonctionne que dans l'espace donné (dans ce cas bidimensionnel), dans lequel ces nuages de points concentriques ne sont pas linéairement séparables.
Applications
Il a été démontré que l'ACP à noyau est utile pour la détection des nouveautés[2] et la suppression du bruit dans les images
Voir aussi
Références
- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Kernel principal component analysis » (voir la liste des auteurs).
- ↑ Schölkopf, « Nonlinear Component Analysis as a Kernel Eigenvalue Problem », Neural Computation, vol. 10, no 5, , p. 1299–1319 (DOI 10.1162/089976698300017467, S2CID 6674407, CiteSeerx 10.1.1.100.3636)
- ↑ Hoffmann, « Kernel PCA for Novelty Detection », Pattern Recognition, vol. 40, no 3, , p. 863–874 (DOI 10.1016/j.patcog.2006.07.009, Bibcode 2007PatRe..40..863H, lire en ligne)