exercice333
DownloadTélécharger
Actions
Vote :
ScreenshotAperçu
Informations
Catégorie :Category: nCreator TI-Nspire
Auteur Author: Abdoulrahim
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 5.87 Ko KB
Mis en ligne Uploaded: 27/11/2024 - 02:09:17
Uploadeur Uploader: Abdoulrahim (Profil)
Téléchargements Downloads: 2
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4346032
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 5.87 Ko KB
Mis en ligne Uploaded: 27/11/2024 - 02:09:17
Uploadeur Uploader: Abdoulrahim (Profil)
Téléchargements Downloads: 2
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4346032
Description
Fichier Nspire généré sur TI-Planet.org.
Compatible OS 3.0 et ultérieurs.
<<
exercice 3 Détail de l'obtention de la matrice Jacobienne J J La matrice Jacobienne J J est définie comme la matrice des dérivées partielles de la fonctionnelle de moindres carrés S ( a 0 , a 1 ) S(a_0, a_1) par rapport aux paramètres a 0 a_0 et a 1 a_1 . La fonctionnelle est donnée par : S ( a 0 , a 1 ) = i = 1 n [ log a 10 ( Y i ) ( a 0 + t i a 1 ) ] 2 . S(a_0, a_1) = sum_{i=1}^n left[log_{10}(Y_i) - (a_0 + t_i a_1)right]^2. 1. Calcul des dérivées partielles : Pour chaque point de données t i t_i , la fonction résiduelle est : r i ( a 0 , a 1 ) = log a 10 ( Y i ) ( a 0 + t i a 1 ) . r_i(a_0, a_1) = log_{10}(Y_i) - (a_0 + t_i a_1). Les dérivées partielles de r i r_i sont : r i a 0 = 1 , r i a 1 = t i . frac{partial r_i}{partial a_0} = -1, quad frac{partial r_i}{partial a_1} = -t_i. Ainsi, chaque ligne de la matrice Jacobienne J J est donnée par : J [ i , : ] = ( r i a 0 r i a 1 ) = ( 1 t i ) . J[i, :] = begin{pmatrix} frac{partial r_i}{partial a_0} & frac{partial r_i}{partial a_1} end{pmatrix} = begin{pmatrix} -1 & -t_i end{pmatrix}. Mais dans la formule de mise à jour de Gauss-Newton, on considère directement J [ i , : ] = ( 1 t i ) J[i, :] = begin{pmatrix} 1 & t_i end{pmatrix} pour éviter les signes dans les résidus. Donc, au final : J = ( 1 t 1 1 t 2 î î 1 t n ) . J = begin{pmatrix}1 & t_1 \1 & t_2 \vdots & vdots \1 & t_nend{pmatrix}. 2. Application aux données : Pour les données t = [ 1 , 2 , 3 , 4 , 5 , 6 , 7 ] t = [1, 2, 3, 4, 5, 6, 7] , la matrice J J devient : J = ( 1 1 1 2 1 3 1 4 1 5 1 6 1 7 ) . J = begin{pmatrix}1 & 1 \1 & 2 \1 & 3 \1 & 4 \1 & 5 \1 & 6 \1 & 7end{pmatrix}. Réponse à la question 1 : Définir J J et e e Matrice J J : Comme expliqué, J J est la matrice des dérivées partielles de la fonction résiduelle par rapport à a 0 a_0 et a 1 a_1 . Avec t = [ 1 , 2 , 3 , 4 , 5 , 6 , 7 ] t = [1, 2, 3, 4, 5, 6, 7] , on a : J = ( 1 1 1 2 1 3 1 4 1 5 1 6 1 7 ) . J = begin{pmatrix}1 & 1 \1 & 2 \1 & 3 \1 & 4 \1 & 5 \1 & 6 \1 & 7end{pmatrix}. Vecteur e e : Le vecteur des erreurs e e est donné par la différence entre les observations log a 10 ( Y i ) log_{10}(Y_i) et les valeurs prédites par le modèle f ( t i ) = a 0 + t i Å a 1 f(t_i) = a_0 + t_i cdot a_1 . Il est calculé comme suit : e = ( log a 10 ( Y 1 ) ( a 0 + t 1 Å a 1 ) log a 10 ( Y 2 ) ( a 0 + t 2 Å a 1 ) î log a 10 ( Y 7 ) ( a 0 + t 7 Å a 1 ) ) . e = begin{pmatrix}log_{10}(Y_1) - (a_0 + t_1 cdot a_1) \log_{10}(Y_2) - (a_0 + t_2 cdot a_1) \vdots \log_{10}(Y_7) - (a_0 + t_7 cdot a_1)end{pmatrix}. Avec les valeurs initiales a 0 ( 0 ) = 1.0 a_0^{(0)} = 1.0 et a 1 ( 0 ) = 1.0 a_1^{(0)} = -1.0 , e e est calculé à chaque itération. Étapes pour la mise à jour des paramètres : Formule de mise à jour : La méthode de Gauss-Newton met à jour X k = ( a 0 a 1 ) X_k = begin{pmatrix} a_0 \ a_1 end{pmatrix} en utilisant : X k + 1 = X k + ( J T J ) 1 J T e . X_{k+1} = X_k + (J^T J)^{-1} J^T e. Calculs nécessaires : J T J J^T J est une matrice 2 × 2 2 times 2 calculée à partir de J J . J T e J^T e est un vecteur 2 × 1 2 times 1 représentant la somme pondérée des erreurs. Résolution : Après chaque mise à jour, on calcule de nouveau J J , e e , et répète jusquà ce que les changements entre X k X_k et X k + 1 X_{k+1} soient inférieurs à une tolérance définie. Pour répondre complètement à la question 2 de l'exercice 3 en suivant toutes les étapes théoriques jusqu'à l'obtention de a 0 a_0 et a 1 a_1 , voici un développement détaillé : Données du problème Nous avons : t = [ 1 , 2 , 3 , 4 , 5 , 6 , 7 ] t = [1, 2, 3, 4, 5, 6, 7] , Y = [ 0.8 , 1.1 , 1.7 , 2.6 , 3.8 , 5.7 , 8.5 ] Y = [0.8, 1.1, 1.7, 2.6, 3.8, 5.7, 8.5] , La relation entre les variables est log a 10 ( Y i ) = a 0 + t i Å a 1 log_{10}(Y_i) = a_0 + t_i cdot a_1 . Valeurs initiales : X ( 0 ) = ( a 0 ( 0 ) a 1 ( 0 ) ) = ( 1.0 1.0 ) . X^{(0)} = begin{pmatrix} a_0^{(0)} \ a_1^{(0)} end{pmatrix} = begin{pmatrix} 1.0 \ -1.0 end{pmatrix}. Étape 1 : Calcul de log a 10 ( Y ) log_{10}(Y) Pour chaque Y i Y_i , nous calculons log a 10 ( Y i ) log_{10}(Y_i) car cette valeur est utilisée pour déterminer le vecteur des erreurs e e . log a 10 ( Y ) = ( log a 10 ( 0.8 ) log a 10 ( 1.1 ) log a 10 ( 1.7 ) log a 10 ( 2.6 ) log a 10 ( 3.8 ) log a 10 ( 5.7 ) log a 10 ( 8.5 ) ) . log_{10}(Y) = begin{pmatrix}log_{10}(0.8) \log_{10}(1.1) \log_{10}(1.7) \log_{10}(2.6) \log_{10}(3.8) \log_{10}(5.7) \log_{10}(8.5)end{pmatrix}. Étape 2 : Définir la matrice Jacobienne J J La matrice Jacobienne J J est définie comme : J [ i , : ] = ( 1 t i ) . J[i, :] = begin{pmatrix} 1 & t_i end{pmatrix}. Avec t = [ 1 , 2 , 3 , 4 , 5 , 6 , 7 ] t = [1, 2, 3, 4, 5, 6, 7] , nous obtenons : J = ( 1 1 1 2 1 3 1 4 1 5 1 6 1 7 ) . J =begin{pmatrix}1 & 1 \1 & 2 \1 & 3 \1 & 4 \1 & 5 \1 & 6 \1 & 7end{pmatrix}. Étape 3 : Calcul du vecteur des erreurs e e
[...]
>>
Compatible OS 3.0 et ultérieurs.
<<
exercice 3 Détail de l'obtention de la matrice Jacobienne J J La matrice Jacobienne J J est définie comme la matrice des dérivées partielles de la fonctionnelle de moindres carrés S ( a 0 , a 1 ) S(a_0, a_1) par rapport aux paramètres a 0 a_0 et a 1 a_1 . La fonctionnelle est donnée par : S ( a 0 , a 1 ) = i = 1 n [ log a 10 ( Y i ) ( a 0 + t i a 1 ) ] 2 . S(a_0, a_1) = sum_{i=1}^n left[log_{10}(Y_i) - (a_0 + t_i a_1)right]^2. 1. Calcul des dérivées partielles : Pour chaque point de données t i t_i , la fonction résiduelle est : r i ( a 0 , a 1 ) = log a 10 ( Y i ) ( a 0 + t i a 1 ) . r_i(a_0, a_1) = log_{10}(Y_i) - (a_0 + t_i a_1). Les dérivées partielles de r i r_i sont : r i a 0 = 1 , r i a 1 = t i . frac{partial r_i}{partial a_0} = -1, quad frac{partial r_i}{partial a_1} = -t_i. Ainsi, chaque ligne de la matrice Jacobienne J J est donnée par : J [ i , : ] = ( r i a 0 r i a 1 ) = ( 1 t i ) . J[i, :] = begin{pmatrix} frac{partial r_i}{partial a_0} & frac{partial r_i}{partial a_1} end{pmatrix} = begin{pmatrix} -1 & -t_i end{pmatrix}. Mais dans la formule de mise à jour de Gauss-Newton, on considère directement J [ i , : ] = ( 1 t i ) J[i, :] = begin{pmatrix} 1 & t_i end{pmatrix} pour éviter les signes dans les résidus. Donc, au final : J = ( 1 t 1 1 t 2 î î 1 t n ) . J = begin{pmatrix}1 & t_1 \1 & t_2 \vdots & vdots \1 & t_nend{pmatrix}. 2. Application aux données : Pour les données t = [ 1 , 2 , 3 , 4 , 5 , 6 , 7 ] t = [1, 2, 3, 4, 5, 6, 7] , la matrice J J devient : J = ( 1 1 1 2 1 3 1 4 1 5 1 6 1 7 ) . J = begin{pmatrix}1 & 1 \1 & 2 \1 & 3 \1 & 4 \1 & 5 \1 & 6 \1 & 7end{pmatrix}. Réponse à la question 1 : Définir J J et e e Matrice J J : Comme expliqué, J J est la matrice des dérivées partielles de la fonction résiduelle par rapport à a 0 a_0 et a 1 a_1 . Avec t = [ 1 , 2 , 3 , 4 , 5 , 6 , 7 ] t = [1, 2, 3, 4, 5, 6, 7] , on a : J = ( 1 1 1 2 1 3 1 4 1 5 1 6 1 7 ) . J = begin{pmatrix}1 & 1 \1 & 2 \1 & 3 \1 & 4 \1 & 5 \1 & 6 \1 & 7end{pmatrix}. Vecteur e e : Le vecteur des erreurs e e est donné par la différence entre les observations log a 10 ( Y i ) log_{10}(Y_i) et les valeurs prédites par le modèle f ( t i ) = a 0 + t i Å a 1 f(t_i) = a_0 + t_i cdot a_1 . Il est calculé comme suit : e = ( log a 10 ( Y 1 ) ( a 0 + t 1 Å a 1 ) log a 10 ( Y 2 ) ( a 0 + t 2 Å a 1 ) î log a 10 ( Y 7 ) ( a 0 + t 7 Å a 1 ) ) . e = begin{pmatrix}log_{10}(Y_1) - (a_0 + t_1 cdot a_1) \log_{10}(Y_2) - (a_0 + t_2 cdot a_1) \vdots \log_{10}(Y_7) - (a_0 + t_7 cdot a_1)end{pmatrix}. Avec les valeurs initiales a 0 ( 0 ) = 1.0 a_0^{(0)} = 1.0 et a 1 ( 0 ) = 1.0 a_1^{(0)} = -1.0 , e e est calculé à chaque itération. Étapes pour la mise à jour des paramètres : Formule de mise à jour : La méthode de Gauss-Newton met à jour X k = ( a 0 a 1 ) X_k = begin{pmatrix} a_0 \ a_1 end{pmatrix} en utilisant : X k + 1 = X k + ( J T J ) 1 J T e . X_{k+1} = X_k + (J^T J)^{-1} J^T e. Calculs nécessaires : J T J J^T J est une matrice 2 × 2 2 times 2 calculée à partir de J J . J T e J^T e est un vecteur 2 × 1 2 times 1 représentant la somme pondérée des erreurs. Résolution : Après chaque mise à jour, on calcule de nouveau J J , e e , et répète jusquà ce que les changements entre X k X_k et X k + 1 X_{k+1} soient inférieurs à une tolérance définie. Pour répondre complètement à la question 2 de l'exercice 3 en suivant toutes les étapes théoriques jusqu'à l'obtention de a 0 a_0 et a 1 a_1 , voici un développement détaillé : Données du problème Nous avons : t = [ 1 , 2 , 3 , 4 , 5 , 6 , 7 ] t = [1, 2, 3, 4, 5, 6, 7] , Y = [ 0.8 , 1.1 , 1.7 , 2.6 , 3.8 , 5.7 , 8.5 ] Y = [0.8, 1.1, 1.7, 2.6, 3.8, 5.7, 8.5] , La relation entre les variables est log a 10 ( Y i ) = a 0 + t i Å a 1 log_{10}(Y_i) = a_0 + t_i cdot a_1 . Valeurs initiales : X ( 0 ) = ( a 0 ( 0 ) a 1 ( 0 ) ) = ( 1.0 1.0 ) . X^{(0)} = begin{pmatrix} a_0^{(0)} \ a_1^{(0)} end{pmatrix} = begin{pmatrix} 1.0 \ -1.0 end{pmatrix}. Étape 1 : Calcul de log a 10 ( Y ) log_{10}(Y) Pour chaque Y i Y_i , nous calculons log a 10 ( Y i ) log_{10}(Y_i) car cette valeur est utilisée pour déterminer le vecteur des erreurs e e . log a 10 ( Y ) = ( log a 10 ( 0.8 ) log a 10 ( 1.1 ) log a 10 ( 1.7 ) log a 10 ( 2.6 ) log a 10 ( 3.8 ) log a 10 ( 5.7 ) log a 10 ( 8.5 ) ) . log_{10}(Y) = begin{pmatrix}log_{10}(0.8) \log_{10}(1.1) \log_{10}(1.7) \log_{10}(2.6) \log_{10}(3.8) \log_{10}(5.7) \log_{10}(8.5)end{pmatrix}. Étape 2 : Définir la matrice Jacobienne J J La matrice Jacobienne J J est définie comme : J [ i , : ] = ( 1 t i ) . J[i, :] = begin{pmatrix} 1 & t_i end{pmatrix}. Avec t = [ 1 , 2 , 3 , 4 , 5 , 6 , 7 ] t = [1, 2, 3, 4, 5, 6, 7] , nous obtenons : J = ( 1 1 1 2 1 3 1 4 1 5 1 6 1 7 ) . J =begin{pmatrix}1 & 1 \1 & 2 \1 & 3 \1 & 4 \1 & 5 \1 & 6 \1 & 7end{pmatrix}. Étape 3 : Calcul du vecteur des erreurs e e
[...]
>>