Datamining4
DownloadTélécharger
Actions
Vote :
ScreenshotAperçu
Informations
Catégorie :Category: nCreator TI-Nspire
Auteur Author: gadder
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 3.63 Ko KB
Mis en ligne Uploaded: 15/12/2024 - 15:06:11
Uploadeur Uploader: gadder (Profil)
Téléchargements Downloads: 3
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4406935
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 3.63 Ko KB
Mis en ligne Uploaded: 15/12/2024 - 15:06:11
Uploadeur Uploader: gadder (Profil)
Téléchargements Downloads: 3
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4406935
Description
Fichier Nspire généré sur TI-Planet.org.
Compatible OS 3.0 et ultérieurs.
<<
Prediction continus variable Les méthodes de validation croisée permettent dévaluer la performance dun modèle sur des données non vues. La méthode choisie dépend de la taille de léchantillon, de la nature des données et de la robustesse aux valeurs aberrantes. Le MAE et le RMSE sont les indicateurs les plus couramment utilisés pour comparer les modèles. Le MAE est à privilégier lorsque lon souhaite minimiser limpact des valeurs aberrantes, car il traite toutes les erreurs de manière équitable. Le RMSE, en revanche, est préférable lorsque les grandes erreurs doivent être pénalisées plus fortement, car il amplifie leur impact en les élevant au carré. Cross-validation methods are used to evaluate the performance of a model on unseen data. The choice of method depends on the sample size, the nature of the data, and robustness to outliers. MAE and RMSE are the most commonly used metrics to compare models. **MAE is preferred when minimizing the impact of outliers is important, as it treats all errors equally. On the other hand, RMSE is better suited when large errors need to be penalized more heavily, as it amplifies their impact by squaring them.** 1. **MAE (Mean Absolute Error) :** - Indique lerreur moyenne en valeur absolue. - Plus le MAE est faible, mieux le modèle prédit les données. 2. **RMSE (Root Mean Squared Error) :** - Sensible aux grandes erreurs (pénalise les écarts importants). - Utile si lobjectif est de minimiser les grandes erreurs. ### Mode d'emploi : Prédiction de variables catégoriques ### **Mode demploi : Validation croisée** #### **1. Critères pour choisir une méthode de validation croisée** 1. **Taille de léchantillon :** - **Petits échantillons :** Préférez **Leave-One-Out (LOO)**, car elle utilise presque toutes les données pour lentraînement. - **Grands échantillons :** Préférez **K-Fold**, car elle est plus rapide et robuste. 2. **Nature des données :** - **Séries temporelles :** Utilisez **Rolling validation**, qui respecte lordre chronologique des données. 3. **Complexité du modèle :** - **Modèles simples :** **LOO** est acceptable même si elle est coûteuse en calcul. - **Modèles complexes :** **K-Fold** est préférable pour réduire les coûts de calcul. 4. **Résistance aux valeurs aberrantes :** - **LOO :** Sensible aux valeurs aberrantes (car chaque observation est testée seule). - **K-Fold :** Plus robuste grâce à lagrégation sur plusieurs sous-ensembles. --- #### **2. Comment appliquer chaque méthode** **A. Leave-One-Out (LOO)** 1. Exclure une seule observation du dataset. 2. Entraîner le modèle sur les (N-1) observations restantes. 3. Tester le modèle sur lobservation exclue. 4. Répéter (N) fois pour chaque observation. 5. Calculer la performance moyenne (ex. MAE ou RMSE). Si les clusters (groupes) partagent le même centre ou sont très proches dans lespace, les ellipses se chevauchent, rendant la séparation difficile, et donc une performance pauvre. **Phrase en anglais :** "Leave-One-Out trains the model N times, each time excluding one observation for testing." --- **B. Validation croisée K-Fold** 1. Diviser les données en (K) sous-ensembles égaux (folds). 2. Entraîner le modèle sur (K-1) folds et valider sur le fold restant. 3. Répéter (K) fois, en changeant le fold de validation à chaque itération. 4. Calculer la moyenne des performances des (K) itérations. **Phrase en anglais :** "K-Fold divides the data into K subsets and evaluates the model K times by training on K-1 subsets and testing on the remaining fold." --- **C. Validation Rolling** 1. Choisir une fenêtre glissante de (T) observations. 2. Entraîner le modèle sur la fenêtre et prédire la valeur suivante. 3. Déplacer la fenêtre dune unité temporelle et répéter. 4. Agréger les performances des prédictions. **Phrase en anglais :** "Rolling validation trains the model on a sliding window of data to predict the next observation, moving the window forward each time." Made with nCreator - tiplanet.org
>>
Compatible OS 3.0 et ultérieurs.
<<
Prediction continus variable Les méthodes de validation croisée permettent dévaluer la performance dun modèle sur des données non vues. La méthode choisie dépend de la taille de léchantillon, de la nature des données et de la robustesse aux valeurs aberrantes. Le MAE et le RMSE sont les indicateurs les plus couramment utilisés pour comparer les modèles. Le MAE est à privilégier lorsque lon souhaite minimiser limpact des valeurs aberrantes, car il traite toutes les erreurs de manière équitable. Le RMSE, en revanche, est préférable lorsque les grandes erreurs doivent être pénalisées plus fortement, car il amplifie leur impact en les élevant au carré. Cross-validation methods are used to evaluate the performance of a model on unseen data. The choice of method depends on the sample size, the nature of the data, and robustness to outliers. MAE and RMSE are the most commonly used metrics to compare models. **MAE is preferred when minimizing the impact of outliers is important, as it treats all errors equally. On the other hand, RMSE is better suited when large errors need to be penalized more heavily, as it amplifies their impact by squaring them.** 1. **MAE (Mean Absolute Error) :** - Indique lerreur moyenne en valeur absolue. - Plus le MAE est faible, mieux le modèle prédit les données. 2. **RMSE (Root Mean Squared Error) :** - Sensible aux grandes erreurs (pénalise les écarts importants). - Utile si lobjectif est de minimiser les grandes erreurs. ### Mode d'emploi : Prédiction de variables catégoriques ### **Mode demploi : Validation croisée** #### **1. Critères pour choisir une méthode de validation croisée** 1. **Taille de léchantillon :** - **Petits échantillons :** Préférez **Leave-One-Out (LOO)**, car elle utilise presque toutes les données pour lentraînement. - **Grands échantillons :** Préférez **K-Fold**, car elle est plus rapide et robuste. 2. **Nature des données :** - **Séries temporelles :** Utilisez **Rolling validation**, qui respecte lordre chronologique des données. 3. **Complexité du modèle :** - **Modèles simples :** **LOO** est acceptable même si elle est coûteuse en calcul. - **Modèles complexes :** **K-Fold** est préférable pour réduire les coûts de calcul. 4. **Résistance aux valeurs aberrantes :** - **LOO :** Sensible aux valeurs aberrantes (car chaque observation est testée seule). - **K-Fold :** Plus robuste grâce à lagrégation sur plusieurs sous-ensembles. --- #### **2. Comment appliquer chaque méthode** **A. Leave-One-Out (LOO)** 1. Exclure une seule observation du dataset. 2. Entraîner le modèle sur les (N-1) observations restantes. 3. Tester le modèle sur lobservation exclue. 4. Répéter (N) fois pour chaque observation. 5. Calculer la performance moyenne (ex. MAE ou RMSE). Si les clusters (groupes) partagent le même centre ou sont très proches dans lespace, les ellipses se chevauchent, rendant la séparation difficile, et donc une performance pauvre. **Phrase en anglais :** "Leave-One-Out trains the model N times, each time excluding one observation for testing." --- **B. Validation croisée K-Fold** 1. Diviser les données en (K) sous-ensembles égaux (folds). 2. Entraîner le modèle sur (K-1) folds et valider sur le fold restant. 3. Répéter (K) fois, en changeant le fold de validation à chaque itération. 4. Calculer la moyenne des performances des (K) itérations. **Phrase en anglais :** "K-Fold divides the data into K subsets and evaluates the model K times by training on K-1 subsets and testing on the remaining fold." --- **C. Validation Rolling** 1. Choisir une fenêtre glissante de (T) observations. 2. Entraîner le modèle sur la fenêtre et prédire la valeur suivante. 3. Déplacer la fenêtre dune unité temporelle et répéter. 4. Agréger les performances des prédictions. **Phrase en anglais :** "Rolling validation trains the model on a sliding window of data to predict the next observation, moving the window forward each time." Made with nCreator - tiplanet.org
>>