π
<-

ML2


File hierarchy

 Downloads
 Files created online(46458)
 TI-Nspire
(26782)

 nCreator(4657)

DownloadTélécharger


LicenceLicense : Non spécifiée / IncluseUnspecified / Included

 TéléchargerDownload

Actions



Vote :

ScreenshotAperçu


Informations

Catégorie :Category: nCreator TI-Nspire
Auteur Author: gadder
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 4.58 Ko KB
Mis en ligne Uploaded: 19/12/2024 - 17:27:33
Uploadeur Uploader: gadder (Profil)
Téléchargements Downloads: 4
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4424697

Description 

Fichier Nspire généré sur TI-Planet.org.

Compatible OS 3.0 et ultérieurs.

<<
Decision tree  GINI - Etape 1 : Verifiez les colonnes (caracteristiques et cibles). - Etape 2 : Identifiez la cible et les classes. - Etape 3 : Testez chaque split (Input1, Input2, etc.) une a la fois. - Etape 4 : Calculez le Gini pour le noeud parent : Gini_parent = 1 - somme des proportions au carre pour chaque classe. - Etape 5 : Testez chaque split : Divisez les donnees selon les valeurs possibles des caracteristiques (exemple : Fail ou Pass). Calculez le Gini pour chaque sous-groupe : Gini_sous_groupe = 1 - somme des proportions au carre pour chaque classe. - Etape 6 : Calculez le Gini pondere pour le split : Gini_apres = somme (poids du sous-groupe * Gini_sous_groupe). - Etape 7 : Calculez le gain de Gini pour chaque split : Gain = Gini_parent - Gini_apres. - Etape 8 : Comparez les gains et selectionnez le split avec le gain le plus eleve. Etape 9 : Si un split est selectionne, attribuez a chaque feuille la classe majoritaire. ENTROPY - Etape 1 : Verifiez les colonnes (caracteristiques et cibles). - Etape 2 : Identifiez la cible et les classes. - Etape 3 : Testez chaque split (Input1, Input2, etc.) une a la fois. - Etape 4 : Calculez l'entropie pour le noeud parent : Entropie_parent = - somme (proportion de chaque classe * log2(proportion de chaque classe)). - Etape 5 : Testez chaque split : Divisez les donnees selon les valeurs possibles des caracteristiques (exemple : Fail ou Pass). Calculez l'entropie pour chaque sous-groupe : Entropie_sous_groupe = - somme (proportion de chaque classe dans le sous-groupe * log2(proportion de chaque classe dans le sous-groupe)). - Etape 6 : Calculez l'entropie ponderee pour le split : Entropie_apres = somme (poids du sous-groupe * Entropie_sous_groupe). - Etape 7 : Calculez le gain d'information pour chaque split : Gain = Entropie_parent - Entropie_apres. - Etape 8 : Comparez les gains et selectionnez le split avec le gain d'information le plus eleve. Etape 9 : Si un split est selectionne, attribuez a chaque feuille la classe majoritaire. Machine Learning Supervisé : Introduction et Naïve Bayes Introduction au Machine Learning Supervisé Définition : Utilise des données étiquetées (x : variables d'entrée, y : sortie attendue) pour entraîner un modèle capable de prédire y pour de nouvelles données. Types : Classification : Prédire une catégorie (exemple : spam ou non-spam). Régression : Prédire une valeur continue (exemple : prix dune maison). Naïve Bayes Principe : Basé sur le théorème de Bayes : P(y|x) = P(x|y) * P(y) / P(x) On prédit la classe ayant la probabilité P(y|x) la plus élevée. Hypothèse Naïve : Les caractéristiques sont indépendantes conditionnellement à la classe y. Types : Bernoulli : Données binaires (présence ou absence dun mot). Multinomial : Fréquences ou comptages (textes). Gaussian : Variables continues (taille, poids). Exemple : Données : Présence ou absence des mots Urgent, Offre, Argent. Classe cible : Spam ou Non-Spam. Calculer P(Spam|x) et P(Non-Spam|x). Prédire la classe avec la probabilité maximale. Avantages : Simple et rapide. Performant sur les données textuelles. Limites : Hypothèse d'indépendance rarement réaliste. Moins performant avec des données corrélées. A retenir : Différence Classification et Régression. Savoir appliquer le théorème de Bayes. Comprendre les types de Naïve Bayes et leur application. Partie 3 : Arbres de décision et forêts aléatoires Arbres de décision Modèle basé sur une structure en arbre où les données sont divisées en fonction de conditions simples. Exemple : Entrée : Âge et revenu dune personne. Condition : Si âge < 30 ’ classe A ; sinon ’ classe B. Fonctionnement : Sélectionner la variable à diviser (exemple : âge ou revenu). Déterminer le seuil de division (exemple : âge = 30 ans). Répéter jusquà ce que les feuilles contiennent des données homogènes. Critères de pureté : Gini : Mesure dimpureté (1 - somme des carrés des proportions). Entropie : Mesure de lincertitude (-somme des proportions * log des proportions). Forêts aléatoires Ensemble darbres de décision indépendants créés à partir de différents échantillons de données. Fonctionnement : Générer plusieurs sous-échantillons de données (méthode bootstrap). Construire un arbre pour chaque sous-échantillon en limitant le nombre de variables utilisées. Prédiction par vote majoritaire (classification) ou moyenne (régression). Avantages : Réduit le risque de surapprentissage (overfitting). Gère bien les données bruitées et les grandes dimensions. Limites : Moins interprétable quun arbre unique. Nécessite plus de calculs. Points clés à retenir Les arbres de décision sont faciles à comprendre mais peuvent sur-apprendre. Les forêts aléatoires sont robustes et efficaces pour gérer des données complexes. Savoir appliquer les critères de pureté (Gini, Entropie) pour construire un arbre. Adaboost et Gradient Boosting Adaboost Définition : Algorithme de Boosting qui combine des modèles faibles (comme des arbres de décision simples) pour créer un modèle
[...]

>>

-
Search
-
Social TI-Planet
-
Featured topics
Grand Concours 2024-2025 - Programmation Python
Comparaisons des meilleurs prix pour acheter sa calculatrice !
"1 calculatrice pour tous", le programme solidaire de Texas Instruments. Reçois gratuitement et sans aucune obligation d'achat, 5 calculatrices couleur programmables en Python à donner aux élèves les plus nécessiteux de ton lycée. Tu peux recevoir au choix 5 TI-82 Advanced Edition Python ou bien 5 TI-83 Premium CE Edition Python.
Enseignant(e), reçois gratuitement 1 exemplaire de test de la TI-82 Advanced Edition Python. À demander d'ici le 31 décembre 2024.
Aidez la communauté à documenter les révisions matérielles en listant vos calculatrices graphiques !
12345
-
Donations / Premium
For more contests, prizes, reviews, helping us pay the server and domains...
Donate
Discover the the advantages of a donor account !
JoinRejoignez the donors and/or premium!les donateurs et/ou premium !


Partner and ad
Notre partenaire Jarrety Calculatrices à acheter chez Calcuso
-
Stats.
975 utilisateurs:
>921 invités
>48 membres
>6 robots
Record simultané (sur 6 mois):
6892 utilisateurs (le 07/06/2017)
-
Other interesting websites
Texas Instruments Education
Global | France
 (English / Français)
Banque de programmes TI
ticalc.org
 (English)
La communauté TI-82
tout82.free.fr
 (Français)