π
<-

exercice333


File hierarchy

 Downloads
 Files created online(39639)
 TI-Nspire
(25312)

 nCreator(4573)

DownloadTélécharger


LicenceLicense : Non spécifiée / IncluseUnspecified / Included

 TéléchargerDownload

Actions



Vote :

ScreenshotAperçu


Informations

Catégorie :Category: nCreator TI-Nspire
Auteur Author: Abdoulrahim
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 5.87 Ko KB
Mis en ligne Uploaded: 27/11/2024 - 02:09:17
Uploadeur Uploader: Abdoulrahim (Profil)
Téléchargements Downloads: 2
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4346032

Description 

Fichier Nspire généré sur TI-Planet.org.

Compatible OS 3.0 et ultérieurs.

<<
exercice 3 Détail de l'obtention de la matrice Jacobienne J J La matrice Jacobienne J J est définie comme la matrice des dérivées partielles de la fonctionnelle de moindres carrés S ( a 0 , a 1 ) S(a_0, a_1) par rapport aux paramètres a 0 a_0 et a 1 a_1 . La fonctionnelle est donnée par : S ( a 0 , a 1 ) =  i = 1 n [ log a 10 ( Y i )  ( a 0 + t i a 1 ) ] 2 . S(a_0, a_1) = sum_{i=1}^n left[log_{10}(Y_i) - (a_0 + t_i a_1)right]^2. 1. Calcul des dérivées partielles : Pour chaque point de données t i t_i , la fonction résiduelle est : r i ( a 0 , a 1 ) = log a 10 ( Y i )  ( a 0 + t i a 1 ) . r_i(a_0, a_1) = log_{10}(Y_i) - (a_0 + t_i a_1). Les dérivées partielles de r i r_i sont :  r i  a 0 =  1 ,  r i  a 1 =  t i . frac{partial r_i}{partial a_0} = -1, quad frac{partial r_i}{partial a_1} = -t_i. Ainsi, chaque ligne de la matrice Jacobienne J J est donnée par : J [ i , : ] = (  r i  a 0  r i  a 1 ) = (  1  t i ) . J[i, :] = begin{pmatrix} frac{partial r_i}{partial a_0} & frac{partial r_i}{partial a_1} end{pmatrix} = begin{pmatrix} -1 & -t_i end{pmatrix}. Mais dans la formule de mise à jour de Gauss-Newton, on considère directement J [ i , : ] = ( 1 t i ) J[i, :] = begin{pmatrix} 1 & t_i end{pmatrix} pour éviter les signes dans les résidus. Donc, au final : J = ( 1 t 1 1 t 2 î î 1 t n ) . J = begin{pmatrix}1 & t_1 \1 & t_2 \vdots & vdots \1 & t_nend{pmatrix}. 2. Application aux données : Pour les données t = [ 1 , 2 , 3 , 4 , 5 , 6 , 7 ] t = [1, 2, 3, 4, 5, 6, 7] , la matrice J J devient : J = ( 1 1 1 2 1 3 1 4 1 5 1 6 1 7 ) . J = begin{pmatrix}1 & 1 \1 & 2 \1 & 3 \1 & 4 \1 & 5 \1 & 6 \1 & 7end{pmatrix}. Réponse à la question 1 : Définir J J et e e Matrice J J : Comme expliqué, J J est la matrice des dérivées partielles de la fonction résiduelle par rapport à a 0 a_0 et a 1 a_1 . Avec t = [ 1 , 2 , 3 , 4 , 5 , 6 , 7 ] t = [1, 2, 3, 4, 5, 6, 7] , on a : J = ( 1 1 1 2 1 3 1 4 1 5 1 6 1 7 ) . J = begin{pmatrix}1 & 1 \1 & 2 \1 & 3 \1 & 4 \1 & 5 \1 & 6 \1 & 7end{pmatrix}. Vecteur e e : Le vecteur des erreurs e e est donné par la différence entre les observations log a 10 ( Y i ) log_{10}(Y_i) et les valeurs prédites par le modèle f ( t i ) = a 0 + t i Å a 1 f(t_i) = a_0 + t_i cdot a_1 . Il est calculé comme suit : e = ( log a 10 ( Y 1 )  ( a 0 + t 1 Å a 1 ) log a 10 ( Y 2 )  ( a 0 + t 2 Å a 1 ) î log a 10 ( Y 7 )  ( a 0 + t 7 Å a 1 ) ) . e = begin{pmatrix}log_{10}(Y_1) - (a_0 + t_1 cdot a_1) \log_{10}(Y_2) - (a_0 + t_2 cdot a_1) \vdots \log_{10}(Y_7) - (a_0 + t_7 cdot a_1)end{pmatrix}. Avec les valeurs initiales a 0 ( 0 ) = 1.0 a_0^{(0)} = 1.0 et a 1 ( 0 ) =  1.0 a_1^{(0)} = -1.0 , e e est calculé à chaque itération. Étapes pour la mise à jour des paramètres : Formule de mise à jour : La méthode de Gauss-Newton met à jour X k = ( a 0 a 1 ) X_k = begin{pmatrix} a_0 \ a_1 end{pmatrix} en utilisant : X k + 1 = X k + ( J T J )  1 J T e . X_{k+1} = X_k + (J^T J)^{-1} J^T e. Calculs nécessaires : J T J J^T J est une matrice 2 × 2 2 times 2 calculée à partir de J J . J T e J^T e est un vecteur 2 × 1 2 times 1 représentant la somme pondérée des erreurs. Résolution : Après chaque mise à jour, on calcule de nouveau J J , e e , et répète jusquà ce que les changements entre X k X_k et X k + 1 X_{k+1} soient inférieurs à une tolérance définie. Pour répondre complètement à la question 2 de l'exercice 3 en suivant toutes les étapes théoriques jusqu'à l'obtention de a 0 a_0 et a 1 a_1 , voici un développement détaillé : Données du problème Nous avons : t = [ 1 , 2 , 3 , 4 , 5 , 6 , 7 ] t = [1, 2, 3, 4, 5, 6, 7] , Y = [ 0.8 , 1.1 , 1.7 , 2.6 , 3.8 , 5.7 , 8.5 ] Y = [0.8, 1.1, 1.7, 2.6, 3.8, 5.7, 8.5] , La relation entre les variables est log a 10 ( Y i ) = a 0 + t i Å a 1 log_{10}(Y_i) = a_0 + t_i cdot a_1 . Valeurs initiales : X ( 0 ) = ( a 0 ( 0 ) a 1 ( 0 ) ) = ( 1.0  1.0 ) . X^{(0)} = begin{pmatrix} a_0^{(0)} \ a_1^{(0)} end{pmatrix} = begin{pmatrix} 1.0 \ -1.0 end{pmatrix}. Étape 1 : Calcul de log a 10 ( Y ) log_{10}(Y) Pour chaque Y i Y_i , nous calculons log a 10 ( Y i ) log_{10}(Y_i) car cette valeur est utilisée pour déterminer le vecteur des erreurs e e . log a 10 ( Y ) = ( log a 10 ( 0.8 ) log a 10 ( 1.1 ) log a 10 ( 1.7 ) log a 10 ( 2.6 ) log a 10 ( 3.8 ) log a 10 ( 5.7 ) log a 10 ( 8.5 ) ) . log_{10}(Y) = begin{pmatrix}log_{10}(0.8) \log_{10}(1.1) \log_{10}(1.7) \log_{10}(2.6) \log_{10}(3.8) \log_{10}(5.7) \log_{10}(8.5)end{pmatrix}. Étape 2 : Définir la matrice Jacobienne J J La matrice Jacobienne J J est définie comme : J [ i , : ] = ( 1 t i ) . J[i, :] = begin{pmatrix} 1 & t_i end{pmatrix}. Avec t = [ 1 , 2 , 3 , 4 , 5 , 6 , 7 ] t = [1, 2, 3, 4, 5, 6, 7] , nous obtenons : J = ( 1 1 1 2 1 3 1 4 1 5 1 6 1 7 ) . J =begin{pmatrix}1 & 1 \1 & 2 \1 & 3 \1 & 4 \1 & 5 \1 & 6 \1 & 7end{pmatrix}. Étape 3 : Calcul du vecteur des erreurs e e
[...]

>>

-
Search
-
Social TI-Planet
-
Featured topics
Comparaisons des meilleurs prix pour acheter sa calculatrice !
"1 calculatrice pour tous", le programme solidaire de Texas Instruments. Reçois gratuitement et sans aucune obligation d'achat, 5 calculatrices couleur programmables en Python à donner aux élèves les plus nécessiteux de ton lycée. Tu peux recevoir au choix 5 TI-82 Advanced Edition Python ou bien 5 TI-83 Premium CE Edition Python.
Enseignant(e), reçois gratuitement 1 exemplaire de test de la TI-82 Advanced Edition Python. À demander d'ici le 31 décembre 2024.
Aidez la communauté à documenter les révisions matérielles en listant vos calculatrices graphiques !
1234
-
Donations / Premium
For more contests, prizes, reviews, helping us pay the server and domains...
Donate
Discover the the advantages of a donor account !
JoinRejoignez the donors and/or premium!les donateurs et/ou premium !


Partner and ad
Notre partenaire Jarrety Calculatrices à acheter chez Calcuso
-
Stats.
897 utilisateurs:
>865 invités
>24 membres
>8 robots
Record simultané (sur 6 mois):
6892 utilisateurs (le 07/06/2017)
-
Other interesting websites
Texas Instruments Education
Global | France
 (English / Français)
Banque de programmes TI
ticalc.org
 (English)
La communauté TI-82
tout82.free.fr
 (Français)