π
<-

Regression linéaire et Classification


File hierarchy

 Downloads
 Files created online(36923)
 TI-Nspire
(22867)

 nCreator(4519)

DownloadTélécharger


LicenceLicense : Non spécifiée / IncluseUnspecified / Included

 TéléchargerDownload

Actions



Vote :

ScreenshotAperçu


Informations

Catégorie :Category: nCreator TI-Nspire
Auteur Author: yayah
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 6.20 Ko KB
Mis en ligne Uploaded: 20/10/2024 - 05:34:21
Uploadeur Uploader: yayah (Profil)
Téléchargements Downloads: 1
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4263792

Description 

Fichier Nspire généré sur TI-Planet.org.

Compatible OS 3.0 et ultérieurs.

<<
Regression linéaire Les coefficients dune régression linéaire reflètent-ils à limportance des attributs quils multiplient ? Si les données ont été normalisées, les coefficients dune régression linéaire reflètent limportance des attributs quils multiplient par rapport à la sortie. Ils peuvent alors être comparés entre eux. Si les données ne sont pas standardisées, alors il est impossible de comparer limportance des attributs avec la valeur des coefficients (ex. lâge avec un coefficient 1 peut avoir la même importance que le salaire avec un coefficient 0.0001 si les données ne sont pas standardisées).  Soit un jeu de données contenant 100 individus (points) ayant un seul attribut (axe des abscisses x) et une seule valeur de sortie numérique (axe des ordonnées y). Une régression linéaire sans biais a été appliquée sur les données, cependant les résultats ne sont pas bons (voir figure). Comment améliorer ce modèle ? PS sur la photo les points des données forment une parabole Dans lordre : 1. Retirer les deux données aberrantes après les avoir analysées, car lerreur quadratique utilisée par la régression est sensible aux outliers. 2. Ajouter un attribut correspondant à x 2 et/ou x 4 , car les points semblent alignés selon une fonction quadratique. À la place, il est possible de transformer sous-linéairement y avec 2 y ou 4 y. Cependant, transformer x est préférable, car on peut appliquer plusieurs transformations puis une régularisation. 3. Standardiser (Z-score) les données afin de ne pas avoir besoin de biais, de pouvoir interpréter les coefficients comme limportance des attributs, et dans une moindre mesure, éviter les instabilités numériques. 4. La sortie ne dépend que de x 4 , il est donc possible de retirer lattribut x ou dappliquer une pénalisation L1 pour essayer dobtenir un coefficient associé à x nul  Supposons que nous voulons trouver la meilleure fonction dajustement y = f(x) où y = w 2x + wx.Comment utiliseriez-vous la régression linéaire pour trouver la meilleure valeur de w ? Léquation y = wx(w+ 1) est de la forme y = mx où m est une constante égale à w(w+ 1). Nous pouvons utiliser la régression linéaire pour prédire m, et ensuite obtenir w. Quels sont les principaux avantages de lapprentissage profond par rapport aux autres méthodes de lapprentissage automatique ? Parmi les principaux avantages de lapprentissage profond, nous pouvons citer :  Une plus grande flexibilité en termes de paramètres.  Un grand nombre de librairies et daides techniques disponibles.  Une mise en échelle plus naturelle que dautres modèles. Régression linéaire - améliorations " Le traitement approprié des données donne souvent de meilleurs modèles : " suppression des valeurs aberrantes (outliers) " ajustement par des fonctions non linéaires " mise à léchelle des variables dépendantes et indépendantes " nettoyage des attributs fortement corrélés Ajustement des fonctions non linéaires " La régression linéaire ajuste les données par des droites uniquement ! " Pas de soucis : nous pouvons les ajuster aussi par des fonctions quadratiques en créant une autre variable avec la valeur x 2 dans notre matrice de données. " Ainsi, le modèle 1-D f (x) = w1x + w2x 2 est quadratique, mais linéaire en w. " Nous pouvons faire de même avec des fonctions arbitraires en ajoutant explicitement les colonnes correspondantes dans X : ex.  x, log x, x^3 , 1/x La régression avec kk k -plus proches voisins (k-Nearest Neighbors Regression, ou KNN Regression) est une technique d'apprentissage supervisé utilisée pour prédire une variable continue en fonction de valeurs d'entrée. Elle fait partie des méthodes basées sur des exemples, où la prédiction pour une observation est déterminée par les valeurs de ses kk k voisins les plus proches dans l'espace des caractéristiques. Principe de la régression K plus proche voisin  Données d'entraînement : On commence avec un ensemble de données d'entraînement qui comprend des exemples avec des caractéristiques (features) et une valeur cible (target) continue. Mesure de distance : Pour chaque observation pour laquelle on souhaite faire une prédiction, on calcule la distance entre cette observation et toutes les observations de l'ensemble d'entraînement. Les distances sont souvent mesurées à l'aide de la distance euclidienne, mais d'autres métriques peuvent également être utilisées (par exemple, Manhattan, Minkowski). Sélection des voisins : On identifie les kk k voisins les plus proches (c'est-à-dire ceux qui ont les distances les plus courtes). Prédiction : La valeur prédite pour l'observation cible est généralement calculée en prenant la moyenne des valeurs cibles des kk k voisins les plus proches. D'autres méthodes de combinaison peuvent être utilisées, comme une pondération des voisins (les voisins plus proches ayant plus de poids) Fonction derreur - entropie croisée " Lentropie croisée est aussi une fonction convexe ! " Ainsi, nous pouvons trouver le meilleur sépa
[...]

>>

-
Search
-
Social TI-Planet
-
Featured topics
Comparaisons des meilleurs prix pour acheter sa calculatrice !
"1 calculatrice pour tous", le programme solidaire de Texas Instruments. Reçois gratuitement et sans aucune obligation d'achat, 5 calculatrices couleur programmables en Python à donner aux élèves les plus nécessiteux de ton lycée. Tu peux recevoir au choix 5 TI-82 Advanced Edition Python ou bien 5 TI-83 Premium CE Edition Python.
Enseignant(e), reçois gratuitement 1 exemplaire de test de la TI-82 Advanced Edition Python. À demander d'ici le 31 décembre 2024.
Reprise de ton ancienne fx-92 Collège ou Graph 25/35/90 à 3€ peu importe son état. Même non fonctionnelle et donc invendable, même ancienne Graph 35 non conforme aux programmes (pas de Python), même ancienne Graph 25/35 inutilisable aux examens (pas de mode examen) et donc invendable. Etiquette de retour fournie, pas de frais de port à payer.
Aidez la communauté à documenter les révisions matérielles en listant vos calculatrices graphiques !
12345
-
Donations / Premium
For more contests, prizes, reviews, helping us pay the server and domains...
Donate
Discover the the advantages of a donor account !
JoinRejoignez the donors and/or premium!les donateurs et/ou premium !


Partner and ad
Notre partenaire Jarrety Calculatrices à acheter chez Calcuso
-
Stats.
1012 utilisateurs:
>1002 invités
>2 membres
>8 robots
Record simultané (sur 6 mois):
6892 utilisateurs (le 07/06/2017)
-
Other interesting websites
Texas Instruments Education
Global | France
 (English / Français)
Banque de programmes TI
ticalc.org
 (English)
La communauté TI-82
tout82.free.fr
 (Français)