CODE Z value intervall de confiance
DownloadTélécharger
Actions
Vote :
ScreenshotAperçu
Informations
Catégorie :Category: nCreator TI-Nspire
Auteur Author: NSRBIKE
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 3.58 Ko KB
Mis en ligne Uploaded: 24/10/2024 - 08:00:45
Uploadeur Uploader: NSRBIKE (Profil)
Téléchargements Downloads: 1
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4272601
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 3.58 Ko KB
Mis en ligne Uploaded: 24/10/2024 - 08:00:45
Uploadeur Uploader: NSRBIKE (Profil)
Téléchargements Downloads: 1
Visibilité Visibility: Archive publique
Shortlink : http://ti-pla.net/a4272601
Description
Fichier Nspire généré sur TI-Planet.org.
Compatible OS 3.0 et ultérieurs.
<<
import numpy as np import matplotlib.pyplot as plt # Paramètres N = 100 # Taille de chaque échantillon K = 1000 # Nombre d'échantillons X = np.random.normal(loc=10, scale=3, size=10000) # Génération d'une distribution normale comme population # Initialisation des tableaux pour stocker les moyennes et écarts-types des échantillons sample_mean = np.zeros(K) sample_std = np.zeros(K) # Simulation du processus d'échantillonnage for i in range(K): s = np.random.choice(X, N) # Prendre un échantillon aléatoire de taille N sample_mean[i] = np.mean(s) # Calculer la moyenne de l'échantillon sample_std[i] = np.std(s) # Calculer l'écart-type de l'échantillon # Affichage de la moyenne et de l'écart-type des moyennes d'échantillons print(f'Moyenne : {np.mean(sample_mean)}, Écart-type : {np.std(sample_mean)}') # Tracé de l'histogramme des moyennes d'échantillons plt.hist(sample_mean, 30) plt.title('Distribution des moyennes d'échantillons') plt.xlabel('Moyennes d'échantillons') plt.ylabel('Fréquence') plt.show() import numpy as np N = 100 # Taille de l'échantillon # Calcul des intervalles de confiance à différents niveaux CI_90 = [10 - 1.645 * 2 / np.sqrt(N), 10 + 1.645 * 2 / np.sqrt(N)] CI_95 = [10 - 1.96 * 2 / np.sqrt(N), 10 + 1.96 * 2 / np.sqrt(N)] CI_99 = [10 - 2.58 * 2 / np.sqrt(N), 10 + 2.58 * 2 / np.sqrt(N)] # Affichage des intervalles de confiance print(CI_90, CI_95, CI_99) import numpy as np # Valeurs théoriques mean_theoretical = 15 std_dev = 5 N = 100 # Taille de l'échantillon K = 1000 # Nombre d'échantillons # Calcul de l'erreur standard std_error = std_dev / np.sqrt(N) # Intervalle de confiance à 95% : [14.02, 15.98] lower_bound = 15 - 1.96 * std_error upper_bound = 15 + 1.96 * std_error # Simulation des moyennes d'échantillons sample_means = np.zeros(K) for i in range(K): sample = np.random.normal(loc=mean_theoretical, scale=std_dev, size=N) sample_means[i] = np.mean(sample) # Vérification de la proportion dans l'intervalle [14.02, 15.98] proportion_within_interval = sum((sample_means > lower_bound) & (sample_means < upper_bound)) / K print(proportion_within_interval) CRITICAL VALUE (RIGHT SIDE) Consider a standard normal distribution (mean=0, standard deviation=1) For any ± alpha ± between 0 and 1, there is a value z ± z_alpha z ± called the critical value, that separates the normal curve into two parts. One with area = 1 ± 1 - alpha 1 ± and the other with area ± alpha ± . In Python, it is computed like this for the right side: import scipy.stats alpha = .05 z = scipy.stats.norm.ppf(1-alpha) print(z) CRITICAL VALUE (LEFT SIDE) Consider a standard normal distribution (mean=0, standard deviation=1) For the left side, the code is similar but without the 1 1 - 1 inside the ppf function. import scipy.stats alpha = .05 z = scipy.stats.norm.ppf(alpha) print(z) CRITICAL VALUE (TWO SIDED) Consider a standard normal distribution (mean=0, standard deviation=1) For a two-sided test, we allocate one half of the rejection region to each side, so there are two (symmetrical) critical values, computed as follows: import scipy.stats alpha = .05 z_right = scipy.stats.norm.ppf(1 - alpha / 2) z_left = scipy.stats.norm.ppf(alpha / 2) print(z_left, z_right) ONE-SIDED (RIGHT) TEST, NORMAL DISTRIBUTION AND KNOWN VARIANCE Étapes : Calculer la moyenne de l'échantillon X É bar{X} X É Calculer la valeur critique z ± z_alpha z ± Calculer la valeur Z : Z = X É ¼ 0 à n Z = frac{bar{X} - mu_0}{frac{sigma}{sqrt{n}}} Rejeter l'hypothèse nulle si Z > z ± Z > z_alpha Z > z ± Z mesure à quel point la moyenne de l'échantillon est différente de la moyenne hypothétique de la population. z ± z_alpha z ± représente notre limite de tolérance. Si l'échantillon mesuré est plus différent que cela, nous rejetons l'hypothèse nulle. Hypothèses : H 0 H_0 H 0 : ¼ d ¼ 0 mu leq mu_0 ¼ d ¼ 0 H 1 H_1 H 1 : ¼ > ¼ 0 mu > mu_0 ¼ > ¼ 0 Où : ± alpha ± est choisi par nous à sigma à et n n n sont connus Made with nCreator - tiplanet.org
>>
Compatible OS 3.0 et ultérieurs.
<<
import numpy as np import matplotlib.pyplot as plt # Paramètres N = 100 # Taille de chaque échantillon K = 1000 # Nombre d'échantillons X = np.random.normal(loc=10, scale=3, size=10000) # Génération d'une distribution normale comme population # Initialisation des tableaux pour stocker les moyennes et écarts-types des échantillons sample_mean = np.zeros(K) sample_std = np.zeros(K) # Simulation du processus d'échantillonnage for i in range(K): s = np.random.choice(X, N) # Prendre un échantillon aléatoire de taille N sample_mean[i] = np.mean(s) # Calculer la moyenne de l'échantillon sample_std[i] = np.std(s) # Calculer l'écart-type de l'échantillon # Affichage de la moyenne et de l'écart-type des moyennes d'échantillons print(f'Moyenne : {np.mean(sample_mean)}, Écart-type : {np.std(sample_mean)}') # Tracé de l'histogramme des moyennes d'échantillons plt.hist(sample_mean, 30) plt.title('Distribution des moyennes d'échantillons') plt.xlabel('Moyennes d'échantillons') plt.ylabel('Fréquence') plt.show() import numpy as np N = 100 # Taille de l'échantillon # Calcul des intervalles de confiance à différents niveaux CI_90 = [10 - 1.645 * 2 / np.sqrt(N), 10 + 1.645 * 2 / np.sqrt(N)] CI_95 = [10 - 1.96 * 2 / np.sqrt(N), 10 + 1.96 * 2 / np.sqrt(N)] CI_99 = [10 - 2.58 * 2 / np.sqrt(N), 10 + 2.58 * 2 / np.sqrt(N)] # Affichage des intervalles de confiance print(CI_90, CI_95, CI_99) import numpy as np # Valeurs théoriques mean_theoretical = 15 std_dev = 5 N = 100 # Taille de l'échantillon K = 1000 # Nombre d'échantillons # Calcul de l'erreur standard std_error = std_dev / np.sqrt(N) # Intervalle de confiance à 95% : [14.02, 15.98] lower_bound = 15 - 1.96 * std_error upper_bound = 15 + 1.96 * std_error # Simulation des moyennes d'échantillons sample_means = np.zeros(K) for i in range(K): sample = np.random.normal(loc=mean_theoretical, scale=std_dev, size=N) sample_means[i] = np.mean(sample) # Vérification de la proportion dans l'intervalle [14.02, 15.98] proportion_within_interval = sum((sample_means > lower_bound) & (sample_means < upper_bound)) / K print(proportion_within_interval) CRITICAL VALUE (RIGHT SIDE) Consider a standard normal distribution (mean=0, standard deviation=1) For any ± alpha ± between 0 and 1, there is a value z ± z_alpha z ± called the critical value, that separates the normal curve into two parts. One with area = 1 ± 1 - alpha 1 ± and the other with area ± alpha ± . In Python, it is computed like this for the right side: import scipy.stats alpha = .05 z = scipy.stats.norm.ppf(1-alpha) print(z) CRITICAL VALUE (LEFT SIDE) Consider a standard normal distribution (mean=0, standard deviation=1) For the left side, the code is similar but without the 1 1 - 1 inside the ppf function. import scipy.stats alpha = .05 z = scipy.stats.norm.ppf(alpha) print(z) CRITICAL VALUE (TWO SIDED) Consider a standard normal distribution (mean=0, standard deviation=1) For a two-sided test, we allocate one half of the rejection region to each side, so there are two (symmetrical) critical values, computed as follows: import scipy.stats alpha = .05 z_right = scipy.stats.norm.ppf(1 - alpha / 2) z_left = scipy.stats.norm.ppf(alpha / 2) print(z_left, z_right) ONE-SIDED (RIGHT) TEST, NORMAL DISTRIBUTION AND KNOWN VARIANCE Étapes : Calculer la moyenne de l'échantillon X É bar{X} X É Calculer la valeur critique z ± z_alpha z ± Calculer la valeur Z : Z = X É ¼ 0 à n Z = frac{bar{X} - mu_0}{frac{sigma}{sqrt{n}}} Rejeter l'hypothèse nulle si Z > z ± Z > z_alpha Z > z ± Z mesure à quel point la moyenne de l'échantillon est différente de la moyenne hypothétique de la population. z ± z_alpha z ± représente notre limite de tolérance. Si l'échantillon mesuré est plus différent que cela, nous rejetons l'hypothèse nulle. Hypothèses : H 0 H_0 H 0 : ¼ d ¼ 0 mu leq mu_0 ¼ d ¼ 0 H 1 H_1 H 1 : ¼ > ¼ 0 mu > mu_0 ¼ > ¼ 0 Où : ± alpha ± est choisi par nous à sigma à et n n n sont connus Made with nCreator - tiplanet.org
>>