π
<-

Datamining4


File hierarchy

 Downloads
 Files created online(47069)
 TI-Nspire
(27188)

 nCreator(4642)

DownloadTélécharger


LicenceLicense : Non spécifiée / IncluseUnspecified / Included

 TéléchargerDownload

Actions



Vote :

ScreenshotAperçu


Informations

Catégorie :Category: nCreator TI-Nspire
Auteur Author: gadder
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 3.63 Ko KB
Mis en ligne Uploaded: 15/12/2024 - 15:06:11
Uploadeur Uploader: gadder (Profil)
Téléchargements Downloads: 3
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4406935

Description 

Fichier Nspire généré sur TI-Planet.org.

Compatible OS 3.0 et ultérieurs.

<<
Prediction continus variable Les méthodes de validation croisée permettent dévaluer la performance dun modèle sur des données non vues. La méthode choisie dépend de la taille de léchantillon, de la nature des données et de la robustesse aux valeurs aberrantes. Le MAE et le RMSE sont les indicateurs les plus couramment utilisés pour comparer les modèles. Le MAE est à privilégier lorsque lon souhaite minimiser limpact des valeurs aberrantes, car il traite toutes les erreurs de manière équitable. Le RMSE, en revanche, est préférable lorsque les grandes erreurs doivent être pénalisées plus fortement, car il amplifie leur impact en les élevant au carré. Cross-validation methods are used to evaluate the performance of a model on unseen data. The choice of method depends on the sample size, the nature of the data, and robustness to outliers. MAE and RMSE are the most commonly used metrics to compare models. **MAE is preferred when minimizing the impact of outliers is important, as it treats all errors equally. On the other hand, RMSE is better suited when large errors need to be penalized more heavily, as it amplifies their impact by squaring them.** 1. **MAE (Mean Absolute Error) :**    - Indique lerreur moyenne en valeur absolue.    - Plus le MAE est faible, mieux le modèle prédit les données. 2. **RMSE (Root Mean Squared Error) :**    - Sensible aux grandes erreurs (pénalise les écarts importants).    - Utile si lobjectif est de minimiser les grandes erreurs. ### Mode d'emploi : Prédiction de variables catégoriques ### **Mode demploi : Validation croisée** #### **1. Critères pour choisir une méthode de validation croisée** 1. **Taille de léchantillon :**    - **Petits échantillons :** Préférez **Leave-One-Out (LOO)**, car elle utilise presque toutes les données pour lentraînement.    - **Grands échantillons :** Préférez **K-Fold**, car elle est plus rapide et robuste. 2. **Nature des données :**    - **Séries temporelles :** Utilisez **Rolling validation**, qui respecte lordre chronologique des données. 3. **Complexité du modèle :**    - **Modèles simples :** **LOO** est acceptable même si elle est coûteuse en calcul.    - **Modèles complexes :** **K-Fold** est préférable pour réduire les coûts de calcul. 4. **Résistance aux valeurs aberrantes :**    - **LOO :** Sensible aux valeurs aberrantes (car chaque observation est testée seule).    - **K-Fold :** Plus robuste grâce à lagrégation sur plusieurs sous-ensembles. --- #### **2. Comment appliquer chaque méthode** **A. Leave-One-Out (LOO)** 1. Exclure une seule observation du dataset. 2. Entraîner le modèle sur les (N-1) observations restantes. 3. Tester le modèle sur lobservation exclue. 4. Répéter (N) fois pour chaque observation. 5. Calculer la performance moyenne (ex. MAE ou RMSE). Si les clusters (groupes) partagent le même centre ou sont très proches dans lespace, les ellipses se chevauchent, rendant la séparation difficile, et donc une performance pauvre. **Phrase en anglais :**   "Leave-One-Out trains the model N times, each time excluding one observation for testing." --- **B. Validation croisée K-Fold** 1. Diviser les données en (K) sous-ensembles égaux (folds). 2. Entraîner le modèle sur (K-1) folds et valider sur le fold restant. 3. Répéter (K) fois, en changeant le fold de validation à chaque itération. 4. Calculer la moyenne des performances des (K) itérations. **Phrase en anglais :**   "K-Fold divides the data into K subsets and evaluates the model K times by training on K-1 subsets and testing on the remaining fold." --- **C. Validation Rolling** 1. Choisir une fenêtre glissante de (T) observations. 2. Entraîner le modèle sur la fenêtre et prédire la valeur suivante. 3. Déplacer la fenêtre dune unité temporelle et répéter. 4. Agréger les performances des prédictions. **Phrase en anglais :**   "Rolling validation trains the model on a sliding window of data to predict the next observation, moving the window forward each time." Made with nCreator - tiplanet.org
>>

-
Search
-
Social TI-Planet
-
Featured topics
Grand Concours 2024-2025 - Programmation Python
Comparaisons des meilleurs prix pour acheter sa calculatrice !
"1 calculatrice pour tous", le programme solidaire de Texas Instruments. Reçois gratuitement et sans aucune obligation d'achat, 5 calculatrices couleur programmables en Python à donner aux élèves les plus nécessiteux de ton lycée. Tu peux recevoir au choix 5 TI-82 Advanced Edition Python ou bien 5 TI-83 Premium CE Edition Python.
Enseignant(e), reçois gratuitement 1 exemplaire de test de la TI-82 Advanced Edition Python. À demander d'ici le 31 décembre 2024.
Aidez la communauté à documenter les révisions matérielles en listant vos calculatrices graphiques !
12345
-
Donations / Premium
For more contests, prizes, reviews, helping us pay the server and domains...
Donate
Discover the the advantages of a donor account !
JoinRejoignez the donors and/or premium!les donateurs et/ou premium !


Partner and ad
Notre partenaire Jarrety Calculatrices à acheter chez Calcuso
-
Stats.
902 utilisateurs:
>861 invités
>33 membres
>8 robots
Record simultané (sur 6 mois):
6892 utilisateurs (le 07/06/2017)
-
Other interesting websites
Texas Instruments Education
Global | France
 (English / Français)
Banque de programmes TI
ticalc.org
 (English)
La communauté TI-82
tout82.free.fr
 (Français)