π
<-

Datamining5


File hierarchy

 Downloads
 Files created online(47059)
 TI-Nspire
(27181)

 nCreator(4642)

DownloadTélécharger


LicenceLicense : Non spécifiée / IncluseUnspecified / Included

 TéléchargerDownload

Actions



Vote :

ScreenshotAperçu


Informations

Catégorie :Category: nCreator TI-Nspire
Auteur Author: gadder
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 3.10 Ko KB
Mis en ligne Uploaded: 15/12/2024 - 15:06:43
Uploadeur Uploader: gadder (Profil)
Téléchargements Downloads: 3
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4406936

Description 

Fichier Nspire généré sur TI-Planet.org.

Compatible OS 3.0 et ultérieurs.

<<
Prediction categorical variable 1. Analyse Discriminante (Discriminant Analysis - DA)   Objectif : Classer une observation dans une classe en fonction de sa proximité avec les centres des classes.   Étapes :   - Calculer les centres de chaque classe : Moyenne des variables pour chaque classe.   - Calculer la matrice de covariance de chaque classe.   - Utiliser la distance de Mahalanobis : Distance entre lobservation et les centres des classes. La classe avec la distance la plus faible est attribuée à lobservation.   Utilisation recommandée : Lorsque les données suivent une distribution proche de la normale.   2. K-Nearest Neighbors (KNN)   Objectif : Attribuer une classe à une observation en fonction de ses k voisins les plus proches.   Étapes :   - Choisir k : Nombre de voisins à considérer.   - Calculer les distances entre lobservation et les autres données (ex. distance Euclidienne standardisée).   - Trouver les k plus proches voisins.   - Attribuer la classe majoritaire parmi ces voisins.   Utilisation recommandée : Préférer un faible nombre de dimensions pour éviter la malédiction de la dimension.   3. Régression Logistique   Objectif : Prédire la probabilité quune observation appartienne à une classe donnée (binaire ou multinomiale).   Étapes :   - Modéliser la probabilité avec une fonction logistique :     P(Y=1|X) = 1 / (1 + exp(-(beta0 + beta1X1 + ... + beta_kXk))).   - Estimer les paramètres (beta) en utilisant la méthode du maximum de vraisemblance.   - Prédire la classe : Si P > 0.5, attribuer la classe 1. Sinon, attribuer la classe 0.   Utilisation recommandée : Facilement interprétable pour évaluer limpact des variables explicatives.   4. Règles dAssociation (Association Rules)   Objectif : Identifier des relations entre des événements (ex. achat dun produit et achat dun autre).   Étapes :   - Construire une matrice dincidence : Lignes = Transactions. Colonnes = Objets ou événements (valeurs 0 ou 1).   - Appliquer le théorème de Bayes pour estimer la probabilité conditionnelle : P(B|A) = P(A et B) / P(A).   - Mesurer la confiance de la règle : Si A se produit, quelle est la probabilité que B se produise aussi ?   Utilisation recommandée : Analyse des comportements dachat et recommandations personnalisées.   --- ### Accuracy, Sensitivity, et Specificity 1. Accuracy (Précision globale)   Définition : Proportion dobservations correctement classées parmi toutes les observations.   Formule : Accuracy = (TP + TN) / (TP + TN + FP + FN).   Utilisation : Évaluer la performance globale dun modèle.   Limite : Peu fiable si les classes sont déséquilibrées.   2. Sensitivity (Rappel ou Taux de vrais positifs)   Définition : Capacité du modèle à identifier correctement les observations positives.   Formule : Sensitivity = TP / (TP + FN).   Utilisation : Minimiser les faux négatifs, utile pour des cas critiques (ex. dépistage médical).   3. Specificity (Taux de vrais négatifs)   Définition : Capacité du modèle à identifier correctement les observations négatives.   Formule : Specificity = TN / (TN + FP).   Utilisation : Minimiser les faux positifs (ex. diagnostics coûteux ou critiques).   Résumé Comparatif :   - Accuracy : Bonne métrique globale sauf en cas de déséquilibre des classes.   - Sensitivity : Priorité si réduire les faux négatifs est crucial.   - Specificity : Priorité si réduire les faux positifs est essentiel.   Made with nCreator - tiplanet.org
>>

-
Search
-
Social TI-Planet
-
Featured topics
Grand Concours 2024-2025 - Programmation Python
Comparaisons des meilleurs prix pour acheter sa calculatrice !
"1 calculatrice pour tous", le programme solidaire de Texas Instruments. Reçois gratuitement et sans aucune obligation d'achat, 5 calculatrices couleur programmables en Python à donner aux élèves les plus nécessiteux de ton lycée. Tu peux recevoir au choix 5 TI-82 Advanced Edition Python ou bien 5 TI-83 Premium CE Edition Python.
Enseignant(e), reçois gratuitement 1 exemplaire de test de la TI-82 Advanced Edition Python. À demander d'ici le 31 décembre 2024.
Aidez la communauté à documenter les révisions matérielles en listant vos calculatrices graphiques !
12345
-
Donations / Premium
For more contests, prizes, reviews, helping us pay the server and domains...
Donate
Discover the the advantages of a donor account !
JoinRejoignez the donors and/or premium!les donateurs et/ou premium !


Partner and ad
Notre partenaire Jarrety Calculatrices à acheter chez Calcuso
-
Stats.
913 utilisateurs:
>866 invités
>39 membres
>8 robots
Record simultané (sur 6 mois):
6892 utilisateurs (le 07/06/2017)
-
Other interesting websites
Texas Instruments Education
Global | France
 (English / Français)
Banque de programmes TI
ticalc.org
 (English)
La communauté TI-82
tout82.free.fr
 (Français)