Datamining5
DownloadTélécharger
Actions
Vote :
ScreenshotAperçu
Informations
Catégorie :Category: nCreator TI-Nspire
Auteur Author: gadder
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 3.10 Ko KB
Mis en ligne Uploaded: 15/12/2024 - 15:06:43
Uploadeur Uploader: gadder (Profil)
Téléchargements Downloads: 3
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4406936
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 3.10 Ko KB
Mis en ligne Uploaded: 15/12/2024 - 15:06:43
Uploadeur Uploader: gadder (Profil)
Téléchargements Downloads: 3
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4406936
Description
Fichier Nspire généré sur TI-Planet.org.
Compatible OS 3.0 et ultérieurs.
<<
Prediction categorical variable 1. Analyse Discriminante (Discriminant Analysis - DA) Objectif : Classer une observation dans une classe en fonction de sa proximité avec les centres des classes. Étapes : - Calculer les centres de chaque classe : Moyenne des variables pour chaque classe. - Calculer la matrice de covariance de chaque classe. - Utiliser la distance de Mahalanobis : Distance entre lobservation et les centres des classes. La classe avec la distance la plus faible est attribuée à lobservation. Utilisation recommandée : Lorsque les données suivent une distribution proche de la normale. 2. K-Nearest Neighbors (KNN) Objectif : Attribuer une classe à une observation en fonction de ses k voisins les plus proches. Étapes : - Choisir k : Nombre de voisins à considérer. - Calculer les distances entre lobservation et les autres données (ex. distance Euclidienne standardisée). - Trouver les k plus proches voisins. - Attribuer la classe majoritaire parmi ces voisins. Utilisation recommandée : Préférer un faible nombre de dimensions pour éviter la malédiction de la dimension. 3. Régression Logistique Objectif : Prédire la probabilité quune observation appartienne à une classe donnée (binaire ou multinomiale). Étapes : - Modéliser la probabilité avec une fonction logistique : P(Y=1|X) = 1 / (1 + exp(-(beta0 + beta1X1 + ... + beta_kXk))). - Estimer les paramètres (beta) en utilisant la méthode du maximum de vraisemblance. - Prédire la classe : Si P > 0.5, attribuer la classe 1. Sinon, attribuer la classe 0. Utilisation recommandée : Facilement interprétable pour évaluer limpact des variables explicatives. 4. Règles dAssociation (Association Rules) Objectif : Identifier des relations entre des événements (ex. achat dun produit et achat dun autre). Étapes : - Construire une matrice dincidence : Lignes = Transactions. Colonnes = Objets ou événements (valeurs 0 ou 1). - Appliquer le théorème de Bayes pour estimer la probabilité conditionnelle : P(B|A) = P(A et B) / P(A). - Mesurer la confiance de la règle : Si A se produit, quelle est la probabilité que B se produise aussi ? Utilisation recommandée : Analyse des comportements dachat et recommandations personnalisées. --- ### Accuracy, Sensitivity, et Specificity 1. Accuracy (Précision globale) Définition : Proportion dobservations correctement classées parmi toutes les observations. Formule : Accuracy = (TP + TN) / (TP + TN + FP + FN). Utilisation : Évaluer la performance globale dun modèle. Limite : Peu fiable si les classes sont déséquilibrées. 2. Sensitivity (Rappel ou Taux de vrais positifs) Définition : Capacité du modèle à identifier correctement les observations positives. Formule : Sensitivity = TP / (TP + FN). Utilisation : Minimiser les faux négatifs, utile pour des cas critiques (ex. dépistage médical). 3. Specificity (Taux de vrais négatifs) Définition : Capacité du modèle à identifier correctement les observations négatives. Formule : Specificity = TN / (TN + FP). Utilisation : Minimiser les faux positifs (ex. diagnostics coûteux ou critiques). Résumé Comparatif : - Accuracy : Bonne métrique globale sauf en cas de déséquilibre des classes. - Sensitivity : Priorité si réduire les faux négatifs est crucial. - Specificity : Priorité si réduire les faux positifs est essentiel. Made with nCreator - tiplanet.org
>>
Compatible OS 3.0 et ultérieurs.
<<
Prediction categorical variable 1. Analyse Discriminante (Discriminant Analysis - DA) Objectif : Classer une observation dans une classe en fonction de sa proximité avec les centres des classes. Étapes : - Calculer les centres de chaque classe : Moyenne des variables pour chaque classe. - Calculer la matrice de covariance de chaque classe. - Utiliser la distance de Mahalanobis : Distance entre lobservation et les centres des classes. La classe avec la distance la plus faible est attribuée à lobservation. Utilisation recommandée : Lorsque les données suivent une distribution proche de la normale. 2. K-Nearest Neighbors (KNN) Objectif : Attribuer une classe à une observation en fonction de ses k voisins les plus proches. Étapes : - Choisir k : Nombre de voisins à considérer. - Calculer les distances entre lobservation et les autres données (ex. distance Euclidienne standardisée). - Trouver les k plus proches voisins. - Attribuer la classe majoritaire parmi ces voisins. Utilisation recommandée : Préférer un faible nombre de dimensions pour éviter la malédiction de la dimension. 3. Régression Logistique Objectif : Prédire la probabilité quune observation appartienne à une classe donnée (binaire ou multinomiale). Étapes : - Modéliser la probabilité avec une fonction logistique : P(Y=1|X) = 1 / (1 + exp(-(beta0 + beta1X1 + ... + beta_kXk))). - Estimer les paramètres (beta) en utilisant la méthode du maximum de vraisemblance. - Prédire la classe : Si P > 0.5, attribuer la classe 1. Sinon, attribuer la classe 0. Utilisation recommandée : Facilement interprétable pour évaluer limpact des variables explicatives. 4. Règles dAssociation (Association Rules) Objectif : Identifier des relations entre des événements (ex. achat dun produit et achat dun autre). Étapes : - Construire une matrice dincidence : Lignes = Transactions. Colonnes = Objets ou événements (valeurs 0 ou 1). - Appliquer le théorème de Bayes pour estimer la probabilité conditionnelle : P(B|A) = P(A et B) / P(A). - Mesurer la confiance de la règle : Si A se produit, quelle est la probabilité que B se produise aussi ? Utilisation recommandée : Analyse des comportements dachat et recommandations personnalisées. --- ### Accuracy, Sensitivity, et Specificity 1. Accuracy (Précision globale) Définition : Proportion dobservations correctement classées parmi toutes les observations. Formule : Accuracy = (TP + TN) / (TP + TN + FP + FN). Utilisation : Évaluer la performance globale dun modèle. Limite : Peu fiable si les classes sont déséquilibrées. 2. Sensitivity (Rappel ou Taux de vrais positifs) Définition : Capacité du modèle à identifier correctement les observations positives. Formule : Sensitivity = TP / (TP + FN). Utilisation : Minimiser les faux négatifs, utile pour des cas critiques (ex. dépistage médical). 3. Specificity (Taux de vrais négatifs) Définition : Capacité du modèle à identifier correctement les observations négatives. Formule : Specificity = TN / (TN + FP). Utilisation : Minimiser les faux positifs (ex. diagnostics coûteux ou critiques). Résumé Comparatif : - Accuracy : Bonne métrique globale sauf en cas de déséquilibre des classes. - Sensitivity : Priorité si réduire les faux négatifs est crucial. - Specificity : Priorité si réduire les faux positifs est essentiel. Made with nCreator - tiplanet.org
>>