ML2
DownloadTélécharger
Actions
Vote :
ScreenshotAperçu

Informations
Catégorie :Category: nCreator TI-Nspire
Auteur Author: gadder
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 4.58 Ko KB
Mis en ligne Uploaded: 19/12/2024 - 17:27:33
Uploadeur Uploader: gadder (Profil)
Téléchargements Downloads: 4
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4424697
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 4.58 Ko KB
Mis en ligne Uploaded: 19/12/2024 - 17:27:33
Uploadeur Uploader: gadder (Profil)
Téléchargements Downloads: 4
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4424697
Description
Fichier Nspire généré sur TI-Planet.org.
Compatible OS 3.0 et ultérieurs.
<<
Decision tree GINI - Etape 1 : Verifiez les colonnes (caracteristiques et cibles). - Etape 2 : Identifiez la cible et les classes. - Etape 3 : Testez chaque split (Input1, Input2, etc.) une a la fois. - Etape 4 : Calculez le Gini pour le noeud parent : Gini_parent = 1 - somme des proportions au carre pour chaque classe. - Etape 5 : Testez chaque split : Divisez les donnees selon les valeurs possibles des caracteristiques (exemple : Fail ou Pass). Calculez le Gini pour chaque sous-groupe : Gini_sous_groupe = 1 - somme des proportions au carre pour chaque classe. - Etape 6 : Calculez le Gini pondere pour le split : Gini_apres = somme (poids du sous-groupe * Gini_sous_groupe). - Etape 7 : Calculez le gain de Gini pour chaque split : Gain = Gini_parent - Gini_apres. - Etape 8 : Comparez les gains et selectionnez le split avec le gain le plus eleve. Etape 9 : Si un split est selectionne, attribuez a chaque feuille la classe majoritaire. ENTROPY - Etape 1 : Verifiez les colonnes (caracteristiques et cibles). - Etape 2 : Identifiez la cible et les classes. - Etape 3 : Testez chaque split (Input1, Input2, etc.) une a la fois. - Etape 4 : Calculez l'entropie pour le noeud parent : Entropie_parent = - somme (proportion de chaque classe * log2(proportion de chaque classe)). - Etape 5 : Testez chaque split : Divisez les donnees selon les valeurs possibles des caracteristiques (exemple : Fail ou Pass). Calculez l'entropie pour chaque sous-groupe : Entropie_sous_groupe = - somme (proportion de chaque classe dans le sous-groupe * log2(proportion de chaque classe dans le sous-groupe)). - Etape 6 : Calculez l'entropie ponderee pour le split : Entropie_apres = somme (poids du sous-groupe * Entropie_sous_groupe). - Etape 7 : Calculez le gain d'information pour chaque split : Gain = Entropie_parent - Entropie_apres. - Etape 8 : Comparez les gains et selectionnez le split avec le gain d'information le plus eleve. Etape 9 : Si un split est selectionne, attribuez a chaque feuille la classe majoritaire. Machine Learning Supervisé : Introduction et Naïve Bayes Introduction au Machine Learning Supervisé Définition : Utilise des données étiquetées (x : variables d'entrée, y : sortie attendue) pour entraîner un modèle capable de prédire y pour de nouvelles données. Types : Classification : Prédire une catégorie (exemple : spam ou non-spam). Régression : Prédire une valeur continue (exemple : prix dune maison). Naïve Bayes Principe : Basé sur le théorème de Bayes : P(y|x) = P(x|y) * P(y) / P(x) On prédit la classe ayant la probabilité P(y|x) la plus élevée. Hypothèse Naïve : Les caractéristiques sont indépendantes conditionnellement à la classe y. Types : Bernoulli : Données binaires (présence ou absence dun mot). Multinomial : Fréquences ou comptages (textes). Gaussian : Variables continues (taille, poids). Exemple : Données : Présence ou absence des mots Urgent, Offre, Argent. Classe cible : Spam ou Non-Spam. Calculer P(Spam|x) et P(Non-Spam|x). Prédire la classe avec la probabilité maximale. Avantages : Simple et rapide. Performant sur les données textuelles. Limites : Hypothèse d'indépendance rarement réaliste. Moins performant avec des données corrélées. A retenir : Différence Classification et Régression. Savoir appliquer le théorème de Bayes. Comprendre les types de Naïve Bayes et leur application. Partie 3 : Arbres de décision et forêts aléatoires Arbres de décision Modèle basé sur une structure en arbre où les données sont divisées en fonction de conditions simples. Exemple : Entrée : Âge et revenu dune personne. Condition : Si âge < 30 classe A ; sinon classe B. Fonctionnement : Sélectionner la variable à diviser (exemple : âge ou revenu). Déterminer le seuil de division (exemple : âge = 30 ans). Répéter jusquà ce que les feuilles contiennent des données homogènes. Critères de pureté : Gini : Mesure dimpureté (1 - somme des carrés des proportions). Entropie : Mesure de lincertitude (-somme des proportions * log des proportions). Forêts aléatoires Ensemble darbres de décision indépendants créés à partir de différents échantillons de données. Fonctionnement : Générer plusieurs sous-échantillons de données (méthode bootstrap). Construire un arbre pour chaque sous-échantillon en limitant le nombre de variables utilisées. Prédiction par vote majoritaire (classification) ou moyenne (régression). Avantages : Réduit le risque de surapprentissage (overfitting). Gère bien les données bruitées et les grandes dimensions. Limites : Moins interprétable quun arbre unique. Nécessite plus de calculs. Points clés à retenir Les arbres de décision sont faciles à comprendre mais peuvent sur-apprendre. Les forêts aléatoires sont robustes et efficaces pour gérer des données complexes. Savoir appliquer les critères de pureté (Gini, Entropie) pour construire un arbre. Adaboost et Gradient Boosting Adaboost Définition : Algorithme de Boosting qui combine des modèles faibles (comme des arbres de décision simples) pour créer un modèle
[...]
>>
Compatible OS 3.0 et ultérieurs.
<<
Decision tree GINI - Etape 1 : Verifiez les colonnes (caracteristiques et cibles). - Etape 2 : Identifiez la cible et les classes. - Etape 3 : Testez chaque split (Input1, Input2, etc.) une a la fois. - Etape 4 : Calculez le Gini pour le noeud parent : Gini_parent = 1 - somme des proportions au carre pour chaque classe. - Etape 5 : Testez chaque split : Divisez les donnees selon les valeurs possibles des caracteristiques (exemple : Fail ou Pass). Calculez le Gini pour chaque sous-groupe : Gini_sous_groupe = 1 - somme des proportions au carre pour chaque classe. - Etape 6 : Calculez le Gini pondere pour le split : Gini_apres = somme (poids du sous-groupe * Gini_sous_groupe). - Etape 7 : Calculez le gain de Gini pour chaque split : Gain = Gini_parent - Gini_apres. - Etape 8 : Comparez les gains et selectionnez le split avec le gain le plus eleve. Etape 9 : Si un split est selectionne, attribuez a chaque feuille la classe majoritaire. ENTROPY - Etape 1 : Verifiez les colonnes (caracteristiques et cibles). - Etape 2 : Identifiez la cible et les classes. - Etape 3 : Testez chaque split (Input1, Input2, etc.) une a la fois. - Etape 4 : Calculez l'entropie pour le noeud parent : Entropie_parent = - somme (proportion de chaque classe * log2(proportion de chaque classe)). - Etape 5 : Testez chaque split : Divisez les donnees selon les valeurs possibles des caracteristiques (exemple : Fail ou Pass). Calculez l'entropie pour chaque sous-groupe : Entropie_sous_groupe = - somme (proportion de chaque classe dans le sous-groupe * log2(proportion de chaque classe dans le sous-groupe)). - Etape 6 : Calculez l'entropie ponderee pour le split : Entropie_apres = somme (poids du sous-groupe * Entropie_sous_groupe). - Etape 7 : Calculez le gain d'information pour chaque split : Gain = Entropie_parent - Entropie_apres. - Etape 8 : Comparez les gains et selectionnez le split avec le gain d'information le plus eleve. Etape 9 : Si un split est selectionne, attribuez a chaque feuille la classe majoritaire. Machine Learning Supervisé : Introduction et Naïve Bayes Introduction au Machine Learning Supervisé Définition : Utilise des données étiquetées (x : variables d'entrée, y : sortie attendue) pour entraîner un modèle capable de prédire y pour de nouvelles données. Types : Classification : Prédire une catégorie (exemple : spam ou non-spam). Régression : Prédire une valeur continue (exemple : prix dune maison). Naïve Bayes Principe : Basé sur le théorème de Bayes : P(y|x) = P(x|y) * P(y) / P(x) On prédit la classe ayant la probabilité P(y|x) la plus élevée. Hypothèse Naïve : Les caractéristiques sont indépendantes conditionnellement à la classe y. Types : Bernoulli : Données binaires (présence ou absence dun mot). Multinomial : Fréquences ou comptages (textes). Gaussian : Variables continues (taille, poids). Exemple : Données : Présence ou absence des mots Urgent, Offre, Argent. Classe cible : Spam ou Non-Spam. Calculer P(Spam|x) et P(Non-Spam|x). Prédire la classe avec la probabilité maximale. Avantages : Simple et rapide. Performant sur les données textuelles. Limites : Hypothèse d'indépendance rarement réaliste. Moins performant avec des données corrélées. A retenir : Différence Classification et Régression. Savoir appliquer le théorème de Bayes. Comprendre les types de Naïve Bayes et leur application. Partie 3 : Arbres de décision et forêts aléatoires Arbres de décision Modèle basé sur une structure en arbre où les données sont divisées en fonction de conditions simples. Exemple : Entrée : Âge et revenu dune personne. Condition : Si âge < 30 classe A ; sinon classe B. Fonctionnement : Sélectionner la variable à diviser (exemple : âge ou revenu). Déterminer le seuil de division (exemple : âge = 30 ans). Répéter jusquà ce que les feuilles contiennent des données homogènes. Critères de pureté : Gini : Mesure dimpureté (1 - somme des carrés des proportions). Entropie : Mesure de lincertitude (-somme des proportions * log des proportions). Forêts aléatoires Ensemble darbres de décision indépendants créés à partir de différents échantillons de données. Fonctionnement : Générer plusieurs sous-échantillons de données (méthode bootstrap). Construire un arbre pour chaque sous-échantillon en limitant le nombre de variables utilisées. Prédiction par vote majoritaire (classification) ou moyenne (régression). Avantages : Réduit le risque de surapprentissage (overfitting). Gère bien les données bruitées et les grandes dimensions. Limites : Moins interprétable quun arbre unique. Nécessite plus de calculs. Points clés à retenir Les arbres de décision sont faciles à comprendre mais peuvent sur-apprendre. Les forêts aléatoires sont robustes et efficaces pour gérer des données complexes. Savoir appliquer les critères de pureté (Gini, Entropie) pour construire un arbre. Adaboost et Gradient Boosting Adaboost Définition : Algorithme de Boosting qui combine des modèles faibles (comme des arbres de décision simples) pour créer un modèle
[...]
>>