Stat5
DownloadTélécharger
Actions
Vote :
ScreenshotAperçu
Informations
Catégorie :Category: nCreator TI-Nspire
Auteur Author: gadder
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 3.13 Ko KB
Mis en ligne Uploaded: 15/12/2024 - 14:50:05
Uploadeur Uploader: gadder (Profil)
Téléchargements Downloads: 3
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4406903
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 3.13 Ko KB
Mis en ligne Uploaded: 15/12/2024 - 14:50:05
Uploadeur Uploader: gadder (Profil)
Téléchargements Downloads: 3
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4406903
Description
Fichier Nspire généré sur TI-Planet.org.
Compatible OS 3.0 et ultérieurs.
<<
Résumé : Comment comprendre un OLS Regression Result dans un output Python Étape 1 : Identifier les informations globales Dep. Variable : La variable dépendante (cible) de la régression. Exemple : "Prix" dans le cas des voitures. Model : Indique le type de modèle utilisé, ici OLS (Ordinary Least Squares). R-squared et Adj. R-squared : R-squared : Mesure la proportion de la variance expliquée par le modèle. Plus c'est proche de 1, mieux le modèle explique les données. Adj. R-squared : Corrige R-squared pour le nombre de prédicteurs, utile pour éviter la surinterprétation lorsqu'on ajoute trop de variables. No. Observations : Nombre total d'observations utilisées pour entraîner le modèle. Df Residuals et Df Model : Df Residuals : Degrés de liberté des résidus (n - p - 1, où p est le nombre de prédicteurs). Df Model : Degrés de liberté associés au modèle (p, nombre de variables explicatives). Étape 2 : Analyser les coefficients (partie centrale) Intercept (const) : Représente la valeur prédite de la variable dépendante lorsque toutes les variables explicatives valent zéro. Important pour établir une base de référence dans les prédictions. Coefficients des variables explicatives : Chaque coefficient mesure l'effet moyen d'une unité supplémentaire de la variable explicative sur la variable dépendante, toutes choses égales par ailleurs. Si une variable explicative est en logarithme, le coefficient peut être interprété comme l'effet moyen d'un changement proportionnel ou en pourcentage. Significativité des coefficients : t-statistic : Permet de tester si un coefficient est significativement différent de zéro. P > |t| : Si P < 0.05, le coefficient est statistiquement significatif. Cela signifie que la variable explicative contribue significativement au modèle. [0.025 et 0.975] : Intervalle de confiance à 95 % pour chaque coefficient. Si cet intervalle inclut zéro, cela peut indiquer une absence de significativité. Étape 3 : Évaluer la qualité globale du modèle F-statistic et Prob(F-statistic) : F-statistic : Teste l'hypothèse que tous les coefficients (sauf l'intercept) sont égaux à zéro. Une valeur élevée indique que le modèle est significatif. Prob(F-statistic) : Si cette p-valeur est inférieure à 0.05, cela indique que le modèle global est significatif. AIC et BIC : Critères pour comparer plusieurs modèles : plus les valeurs sont faibles, meilleur est le modèle. Log-Likelihood : Indique dans quelle mesure le modèle ajuste bien les données observées. Utile pour comparer plusieurs modèles. Étape 4 : Vérifier les hypothèses du modèle Distribution normale des résidus : Omnibus et Prob(Omnibus) : Testent si les résidus suivent une distribution normale. Skewness et Kurtosis : Fournissent des informations supplémentaires sur la forme des résidus (asymétrie et concentration des données). Autocorrélation des résidus : Durbin-Watson : Mesure l'autocorrélation dans les résidus. Une valeur proche de 2 est idéale (absence d'autocorrélation). Outliers et points influents : Examiner les valeurs aberrantes qui peuvent influencer fortement les coefficients. Étape 5 : Interpréter les résultats pour répondre aux questions spécifiques Variables significatives : Regardez les p-valeurs (P > |t|) pour déterminer quelles variables explicatives ont un effet significatif sur la variable dépendante. Interprétation des coefficients : Comprenez l'effet direct ou proportionnel des variables explicatives, surtout pour les transformations comme ln(x) ou x^2. Conclusion globale : Combinez la significativité des coefficients et les métriques globales (R-squared, AIC, BIC) pour évaluer si le modèle est fiable et prédictif. Made with nCreator - tiplanet.org
>>
Compatible OS 3.0 et ultérieurs.
<<
Résumé : Comment comprendre un OLS Regression Result dans un output Python Étape 1 : Identifier les informations globales Dep. Variable : La variable dépendante (cible) de la régression. Exemple : "Prix" dans le cas des voitures. Model : Indique le type de modèle utilisé, ici OLS (Ordinary Least Squares). R-squared et Adj. R-squared : R-squared : Mesure la proportion de la variance expliquée par le modèle. Plus c'est proche de 1, mieux le modèle explique les données. Adj. R-squared : Corrige R-squared pour le nombre de prédicteurs, utile pour éviter la surinterprétation lorsqu'on ajoute trop de variables. No. Observations : Nombre total d'observations utilisées pour entraîner le modèle. Df Residuals et Df Model : Df Residuals : Degrés de liberté des résidus (n - p - 1, où p est le nombre de prédicteurs). Df Model : Degrés de liberté associés au modèle (p, nombre de variables explicatives). Étape 2 : Analyser les coefficients (partie centrale) Intercept (const) : Représente la valeur prédite de la variable dépendante lorsque toutes les variables explicatives valent zéro. Important pour établir une base de référence dans les prédictions. Coefficients des variables explicatives : Chaque coefficient mesure l'effet moyen d'une unité supplémentaire de la variable explicative sur la variable dépendante, toutes choses égales par ailleurs. Si une variable explicative est en logarithme, le coefficient peut être interprété comme l'effet moyen d'un changement proportionnel ou en pourcentage. Significativité des coefficients : t-statistic : Permet de tester si un coefficient est significativement différent de zéro. P > |t| : Si P < 0.05, le coefficient est statistiquement significatif. Cela signifie que la variable explicative contribue significativement au modèle. [0.025 et 0.975] : Intervalle de confiance à 95 % pour chaque coefficient. Si cet intervalle inclut zéro, cela peut indiquer une absence de significativité. Étape 3 : Évaluer la qualité globale du modèle F-statistic et Prob(F-statistic) : F-statistic : Teste l'hypothèse que tous les coefficients (sauf l'intercept) sont égaux à zéro. Une valeur élevée indique que le modèle est significatif. Prob(F-statistic) : Si cette p-valeur est inférieure à 0.05, cela indique que le modèle global est significatif. AIC et BIC : Critères pour comparer plusieurs modèles : plus les valeurs sont faibles, meilleur est le modèle. Log-Likelihood : Indique dans quelle mesure le modèle ajuste bien les données observées. Utile pour comparer plusieurs modèles. Étape 4 : Vérifier les hypothèses du modèle Distribution normale des résidus : Omnibus et Prob(Omnibus) : Testent si les résidus suivent une distribution normale. Skewness et Kurtosis : Fournissent des informations supplémentaires sur la forme des résidus (asymétrie et concentration des données). Autocorrélation des résidus : Durbin-Watson : Mesure l'autocorrélation dans les résidus. Une valeur proche de 2 est idéale (absence d'autocorrélation). Outliers et points influents : Examiner les valeurs aberrantes qui peuvent influencer fortement les coefficients. Étape 5 : Interpréter les résultats pour répondre aux questions spécifiques Variables significatives : Regardez les p-valeurs (P > |t|) pour déterminer quelles variables explicatives ont un effet significatif sur la variable dépendante. Interprétation des coefficients : Comprenez l'effet direct ou proportionnel des variables explicatives, surtout pour les transformations comme ln(x) ou x^2. Conclusion globale : Combinez la significativité des coefficients et les métriques globales (R-squared, AIC, BIC) pour évaluer si le modèle est fiable et prédictif. Made with nCreator - tiplanet.org
>>