Datamining3
DownloadTélécharger
Actions
Vote :
ScreenshotAperçu
Informations
Catégorie :Category: nCreator TI-Nspire
Auteur Author: gadder
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 2.19 Ko KB
Mis en ligne Uploaded: 15/12/2024 - 15:05:33
Uploadeur Uploader: gadder (Profil)
Téléchargements Downloads: 3
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4406934
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 2.19 Ko KB
Mis en ligne Uploaded: 15/12/2024 - 15:05:33
Uploadeur Uploader: gadder (Profil)
Téléchargements Downloads: 3
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4406934
Description
Fichier Nspire généré sur TI-Planet.org.
Compatible OS 3.0 et ultérieurs.
<<
Dimension Reduction Mode demploi pour déterminer la taille des matrices dans une PCA Matrice des données standardisées (X_std) : Taille : n x p (n = nombre dobservations, p = nombre de variables). Matrice de covariance (cov_mat) : Taille : p x p (covariances entre chaque paire de variables). Valeurs propres (Lamb) : Taille : p x 1 (une valeur propre par variable). Vecteurs propres (V) : Taille : p x p (chaque colonne est un vecteur propre). Projection des données (X_proj) : Taille : n x k (k = nombre de composantes principales choisies, k d p). Covariance et Corrélation Covariance : Mesure la relation linéaire entre deux variables (X et Y). Dépend de léchelle des variables (si X est multiplié par 10, la covariance est multipliée par 10). Corrélation : Normalisation de la covariance, variant entre -1 et 1. Indépendante des unités de mesure. Matrice de covariance/corrélation : Résume les relations entre toutes les variables dans une table K x K. La diagonale contient les variances (pour la covariance) ou des valeurs de 1 (pour la corrélation). Analyse en Composantes Principales (PCA) Objectifs : Réduire K variables en un plus petit nombre de composantes principales (PCs). Préserver la plus grande partie de la variance des données. Résoudre les problèmes de multicolinéarité. Principe : Les PCs sont des combinaisons linéaires des variables d'origine, définies par des coefficients (chargements ou loadings). Les PCs sont orthogonaux (non corrélés) entre eux. Critères optimisés : Maximiser la variance expliquée par chaque composante. Minimiser la distance entre les données d'origine et leur projection sur les nouvelles dimensions. Étapes de calcul : Calculer la matrice de covariance/corrélation. Trouver les valeurs propres (eigenvalues) et vecteurs propres (eigenvectors). Construire les PCs en utilisant les vecteurs propres associés aux plus grandes valeurs propres. Choix du nombre de PCs : Garder les k premières PCs expliquant 80 % de la variance totale. Proportion de variance expliquée : Somme des valeurs propres des k premières PCs / Somme totale des valeurs propres. Made with nCreator - tiplanet.org
>>
Compatible OS 3.0 et ultérieurs.
<<
Dimension Reduction Mode demploi pour déterminer la taille des matrices dans une PCA Matrice des données standardisées (X_std) : Taille : n x p (n = nombre dobservations, p = nombre de variables). Matrice de covariance (cov_mat) : Taille : p x p (covariances entre chaque paire de variables). Valeurs propres (Lamb) : Taille : p x 1 (une valeur propre par variable). Vecteurs propres (V) : Taille : p x p (chaque colonne est un vecteur propre). Projection des données (X_proj) : Taille : n x k (k = nombre de composantes principales choisies, k d p). Covariance et Corrélation Covariance : Mesure la relation linéaire entre deux variables (X et Y). Dépend de léchelle des variables (si X est multiplié par 10, la covariance est multipliée par 10). Corrélation : Normalisation de la covariance, variant entre -1 et 1. Indépendante des unités de mesure. Matrice de covariance/corrélation : Résume les relations entre toutes les variables dans une table K x K. La diagonale contient les variances (pour la covariance) ou des valeurs de 1 (pour la corrélation). Analyse en Composantes Principales (PCA) Objectifs : Réduire K variables en un plus petit nombre de composantes principales (PCs). Préserver la plus grande partie de la variance des données. Résoudre les problèmes de multicolinéarité. Principe : Les PCs sont des combinaisons linéaires des variables d'origine, définies par des coefficients (chargements ou loadings). Les PCs sont orthogonaux (non corrélés) entre eux. Critères optimisés : Maximiser la variance expliquée par chaque composante. Minimiser la distance entre les données d'origine et leur projection sur les nouvelles dimensions. Étapes de calcul : Calculer la matrice de covariance/corrélation. Trouver les valeurs propres (eigenvalues) et vecteurs propres (eigenvectors). Construire les PCs en utilisant les vecteurs propres associés aux plus grandes valeurs propres. Choix du nombre de PCs : Garder les k premières PCs expliquant 80 % de la variance totale. Proportion de variance expliquée : Somme des valeurs propres des k premières PCs / Somme totale des valeurs propres. Made with nCreator - tiplanet.org
>>