je n'ai pas encore testé les tests mais ils me semblent souffrir du même défaut que ceux des TI : ils sont basés sur la méthode anglo-saxonne de calculer d'abord la p-value et ensuite regarder s'il y a intérêt à rejeter l'hypothèse nulle.
En France on fait un peu l'inverse :
- On se fixe un seuil de risque (typiquement 5%)
- On calcule un intervalle de fluctuation (typiquement à 95%) auquel appartient la mesure avec forte probabilité, sous hypothèse nulle
- Maintenant seulement on effectue une mesure (moyenne ou fréquence) dans l'échantillon
- On regarde si le résultat de la mesure est, ou non, dans l'intervalle de fluctuation
- On décide d'accepter ou rejeter l'hypothèse nulle selon la constatation faite au point précédent
Cela revient en quelque sorte à se fixer un intervalle pour la p-value et regarder a posteriori si la p-value est ou non dans cet intervalle. Ce que je veux dire par « on fait l'inverse en France ». Le vocabulaire de la p-value n'étant pas non plus au programme des examens en France, je déconseille à mes élèves d'utiliser la calculatrice pour des tests. D'autant que les t-tests et les lois sur lesquels ils sont basés (Fisher, Student) sont également hors programme.
Aucune calculatrice ne semble donc apporter une aide pour la statistique inférentielle dans un examen français.
Par contre pour les intervalles de confiance les calculatrices sont très pratiques. Sur TI par exemple c'est dans le menu des tests (sous-menu des stats), il faut choisir
Z-IntConf
ou 1-Prop-ZInt
selon le cas (intervalle de confiance pour une moyenne ou pour une proportion).