L'intervalle de confiance (la fourchette aux élections) est tout à la fois popularisé, mal utilisé, objet de fantasmes et d'abord, fondamentalement, souvent victime d'un contre-sens majeur dans sa définition.
Quand débute une soirée électorale à 20 heures, que les bulletins de vote sont loin d'avoir tous été dépouillés et que la fourchette à 95% d'un candidat à l'élection présidentielle est annoncée entre 49% et 53%, chacun pense qu'il y a 95 chances sur 100 pour que sa proportion finale de voix soit comprise entre 49% et 53%. Beaucoup le pensent mais c'est un contre-sens !
La signification exacte d'un intervalle de confiance à 95% est, qu'avant de choisir l'échantillon devant servir à en calculer les bornes, il y avait 95 chances sur 100 d'obtenir un échantillon qui donnera un intervalle contenant la vraie valeur. Mais une fois l'échantillon obtenu, soit la vraie valeur sera dans l'intervalle, soit elle n'y sera pas, il n'y a plus de probabilité !
Ce n'est pas le fait d'ignorer si la vraie valeur est ou n'est pas dans l'intervalle obtenu qui crée la probabilité mais le choix aléatoire de l'échantillon qui va servir à le construire |
Supposons par exemple que le vrai résultat, qui ne peut plus être modifié et sera connu à minuit, soit 51,5% des voix. Il serait ridicule de dire que la probabilité d'avoir 51,5 compris entre 49 et 53 vaut 95% !!! Ce n'est pas l'ignorance de ce nombre qui crée la probabilité. La probabilité apparaît AVANT de chercher l'échantillon : selon les personnes choisies pour le constituer, la fourchette trouvée pourra varier. C'est cette variabilité qui génère une probabilité et non l'ignorance de l'observateur quant à la valeur finale.
L'objectif de cet article va être d'exposer cela plus en détail. Puis je complèterai, dans un autre article, par des considérations particulières sur les intervalles de confiance pour les odds ratio qui apparaissent dans les études dites cas-témoins. Ils y sont tout à la fois maltraités et mal traités tout en étant parfaitement inutiles !
Modèle théorique et objet observé
Tout enfant chacun a appris à dessiner un chat : un gros ovale surmonté d'un rond, les oreilles, les moustaches, les yeux la bouche, la queue … donnant un modèle théorique de représentation du chat. Confrontant un chat persan ou angora à ce modèle théorique et, malgré les différences importantes entre les deux, on reconnaitra le modèle commun pour déclarer : « ce sont des chats ! ».
Le principe est simple et incontournable : confronter un objet observé à un modèle théorique au moyen d'un test qualitatif pour décider si l'objet observé correspond au modèle ou pas avec une prise de décision "c'est un chat" ou "ce n'est pas un chat". Cette capacité de tester ainsi est une propriété innée de notre cerveau. De plus, elle est indispensable pour vivre.
Elle s'applique encore pour décider si tel comportement s'apparente à l'audace ou à la témérité qui sont des modèles théoriques, tout comme le bois, le cuivre, le rouge, le bleu ...
Le principe du test statistique
Quand les données sont numériques, un problème analogue se pose : mon village a-t-il voté comme la France, les résultats globaux servant ici de modèle théorique. Plus simplement, ayant obtenu 54 piles après avoir lancé une pièce de monnaie 100 fois, est-ce que je peux admettre que la pièce est équilibrée ? Là il n'est plus possible d'apprécier valablement à vue et surtout pas sur les pourcentages, contrairement à une habitude très répandue dans les commentaires électoraux : en effet, obtenir 540 piles en 1000 jets est un résultat totalement différent de 54 piles en 100 coups.
Ayant obtenu 54 piles en 100 jets d'une pièce, on veut tester si on peut la considérer comme étant équilibrée. En supposant donc que la pièce soit équilibrée et qu'elle n'a pas de mémoire*, on peut alors calculer la probabilité d'obtenir au moins 54 piles qui sera la somme des probabilités d'obtenir 54, 55,... 100 piles quand la pièce est équilibrée.
* Pas de mémoire signifie, plus précisément, que la probabilité d'obtenir pile au trentième jet, par exemple, n'est pas modifiée par les résultats observés auparavant.
Cette probabilité, qu'on peut calculer sur une calculatrice *, vaut 24,21%. Elle paraît suffisamment élevée pour rendre plausible le fait d'obtenir 54 piles en 100 jets. On pourra dire alors qu'on accepte l'hypothèse que la pièce soit équilibrée.
Voici ces probabilités selon le nombre de piles obtenus. Les résultats sont symétriques par rapport à 50 ; plus précisément, pour 42 on calcule la probabilité d'obtenir au plus 42 piles qui est égale ici à la probabilité d'obtenir au moins 58 piles. Elles ont été calculées directement** sans recourir à une approximation comme l'approximation classique par une loi normale. Aux arrondis près, les valeurs trouvées ainsi sont "exactes".
Piles |
58 - 42 |
59 - 41 |
60 - 40 |
61 - 39 |
62 - 38 |
63 - 37 |
64 - 36 |
65 - 35 |
66 - 34 |
Proba |
6,66% |
4,43% |
2,84% |
1,76% |
1,05% |
0,60% |
0,33% |
0,18% |
0,09% |
* Voir par exemple Wikipedia : http://fr.wikipedia.org/wiki/Loi_binomiale
** http://www.logamaths.fr/spip/IMG/docs/Tes/AATS-TES-FicheBac05_Loi-Binomiale-et-Calculatrices.pdf
J'ai utilisé des programmes écrits par moi-même sur une calculatrice HP48
On constate que plus le nombre de piles obtenus s'éloigne de la moyenne théorique 50 et plus cette probabilité est faible. Si elle est trop faible on peut penser que la pièce n'est pas équilibrée. Il a été décidé de fixer des seuils qui ont leur part d'arbitraire mais qui permettent de prendre une décision, ou plutôt de déclencher une alarme invitant à s'interroger sur la validité de l'hypothèse.
Pour un test bilatéral à 5%, l'alarme se déclenchera quand la probabilité est inférieure à 2,5%, la moitié de 5%. Ici l'alarme se déclenchera si on obtient au moins 61 piles ou au plus 39 piles car la probabilité d'avoir entre 0 et 39 piles est égale à celle d'obtenir entre 61 et 100 piles. C'est le sens du terme bilatéral : on teste de part et d'autre de la moyenne.
Il apparaît ainsi une zone d'acceptation de l'hypothèse que la pièce soit équilibrée. Elle se situe entre 40 et 60. On a aussi 2 zones où l'hypothèse sera mise en doute, entre 0 et 39 d'une part et entre 61 et 100 d'autre part.
En gros, si la pièce est équilibrée on aura 95% de chances d'obtenir un nombre de piles entre 40 et 60 (en réalité 96,48% en raison des discontinuités) et 5% de chances de tomber dans les zones d'alarme (en réalité 3,52% ).
Traditionnellement, on considère aussi des tests aux seuils 10% et 1%. Pour le test au seuil 10% la zone d'acceptation sera ici [42 58] car l'alarme se déclenche quand la probabilité sera inférieure à 5% soit pour au moins 59 piles ou au plus 41. Pour le test au seuil 1% l'alarme se déclenche à moins de 0,5% soit la zone d'acceptation [37 63].
Risque de première espèce
Le principe même du test implique que le signal d'alarme puisse se déclencher alors que l'hypothèse est vraie. Si on teste au seuil 5% l'alarme se déclenchera plus souvent à tort que si on teste à 1%. Le risque que l'alarme se déclenche à tort est, en principe, le niveau du test. On l'appelle risque de première espèce.
Dans notre exemple, en raison des discontinuités, la probabilité que l'alarme se déclenche alors que la pièce est équilibrée sera 3,52% au lieu de 5% quand on teste au seuil théorique de 5%. Elle sera de 0,66% au lieu de 1% pour un test à 1% et de 8,86% au lieu de 10% pour un test à 10%.
Bien entendu, si on parle du risque de première espèce c'est qu'il existe un risque de seconde espèce : c'est le risque que l'alarme ne se déclenche pas alors que l'hypothèse est fausse. Les voleurs sont dans l'appartement mais l'alarme ne se déclenche pas. Pour le calculer on peut procéder ainsi : supposons que la pièce ait en réalité 60% de chances de tomber sur pile alors qu'on teste au seuil 5% si elle est équilibrée (on est obligé de choisir une vraie valeur supposée comme ici 60%). On va alors calculer la probabilité d'obtenir entre 40 et 60 piles quand la pièce a 60% de chances de tomber sur pile. Elle vaut 53,79%. Par l'expérience faite et le test pratiqué on a près de 54% de chances pour que le signal d'alarme nous invitant à regarder l'affaire de plus près ne se déclenche pas. Pour réduire ce risque il faudra augmenter le nombre de jets de la pièce.
Intervalle de confiance
Avec 54 piles obtenus en 100 jets on accepte que la pièce soit équilibrée (seuil 5%). Mais on va aussi accepter, bien sûr, que la pièce ait 54% de chances de tomber sur pile et aussi beaucoup d'autres valeurs. On démontre que l'ensemble des valeurs théoriques ainsi acceptées par un test à 5% à partir d'une valeur observée (par exemple 54) est un intervalle dit intervalle de confiance à 95%. Pour 54 on trouve [43,73% 64,02%]. Comme on va le voir, cela ne peut signifier qu'il y a 95% de chances pour que la probabilité que la pièce tombe sur pile soit comprise entre 43,73% et 64,02%.
On remarquera que l'intervalle de confiance n'est pas symétrique : ici les bornes sont 54-10,27 et 54+10,02.
Les vraies bornes [p1 p2] de l'intervalle de confiance existent avec les propriétés suivantes :
1- si la pièce a la probabilité p1 de tomber sur pile alors la probabilité d'obtenir au moins 54 piles vaudra exactement 2,5%.
2- si la pièce a la probabilité p2 de tomber sur pile alors la probabilité d'obtenir au plus 54 piles vaudra exactement 2,5%.
Ici, en raison des arrondis et approximations, avec p1= 43,73%, la probabilité vaut 2,487% au lieu de 2,5% et avec p2=64,02% ce sera 2,495%.
Définition Ayant obtenu une valeur observée correspondant à un paramètre théorique, l'intervalle de confiance à 95% pour ce paramètre sera l'ensemble des valeurs théoriques de ce paramètre qui seront acceptées par un test bilatéral au seuil 5%. |
Cet intervalle est lié au test utilisé. Un autre test pourrait donner un autre intervalle. On peut rencontrer cette situation avec un échantillon de n valeurs aléatoires selon une loi normale N(m ; v) de moyenne m et de variance v. A partir des n valeurs observées sur l'échantillon on peut associer 2 intervalles de confiance centrés sur la moyenne observée :
1- par la loi normale ( qui sera donc exacte ici) : la demi largeur de l'intervalle sera 1,96√(v). (√(v) est la racine carrée de la variance v, nommée écart-type)
2- par la loi de Student (théorie exacte ici) : pour n=10 ce sera 2,26s où s est l'écart-type calculé sur l'échantillon des 10 valeurs trouvées. Comme la variable aléatoire associée à s² a pour moyenne théorique la variance v, la valeur numérique s² sera souvent supérieure à v. Aussi, 2,26s sera souvent supérieur à 1,96xracine carrée(v) . Souvent l'intervalle de confiance calculé par la loi de Student contiendra celui obtenu par la loi normale et pourra même en être très différent sans que l'on puisse attribuer ces différences à des approximations numériques ou théoriques (les lois utilisées étant exactes ici).
Si on s'autorisait à écrire Proba( 25 <m<35)=95% et Proba(23<m<37)=95% on devrait accepter
Proba( 25 <m<35)= Proba(23<m<37) !!!
L'enseignement de la statistique "évacue" ainsi le problème : si on connait l'écart-type on nous dit d'utiliser la première formule et si on l'ignore on nous dit d'utiliser celle donnée par les lois de Student. Ainsi, les champs d'applications des 2 formules s'excluent ! Mais le fait de connaitre l'écart-type n'interdit pas d'utiliser Student et ignorer sa valeur ne change rien au fait qu'il existe ainsi que l'intervalle de confiance associé.
Une seule façon pour traiter un tel paradoxe : comprendre qu'écrire Proba( 25 <m<35)=95% est un non sens car m est une valeur numérique parfaitement définie Qu'elle soit inconnue ne change rien à l'affaire. Ce n'est pas la conscience ou la non conscience de l'observateur qui crée la probabilité, c'est l'expérience aléatoire ! |
Aussi, si les bornes de l'intervalle de confiance sont des variables aléatoires et non des nombres, la formule devient vraie :
Notons Inf et Sup les variables aléatoires donnant les bornes inférieures et supérieures de l'intervalle de confiance en fonction aléatoire de l'échantillon. Il est alors possible d'écrire :
Proba(Inf < m < Sup)=95%
Par contre, on ne peut remplacer Inf et Sup par leurs valeurs numériques prises sur l'échantillon.
Une histoire de lunettes
On peut exprimer le problème ainsi : je lance une pièce ; constatant qu'elle est tombée sur pile, j'annonce pile ! Oui, mais j'avais mes lunettes ! Sans lunettes je ne sais pas si c'est pile ou face. Si je dis alors que j'ai une chance sur deux que ce soit pile, je commets une erreur. La pièce est tombée sur pile, que je le sache ou pas. Ce n'est pas le fait de ne pas avoir mes lunettes qui crée la probabilité mais le fait de lancer la pièce qui crée une expérience aléatoire.
Test d'hypothèse ou intervalle de confiance ?
A priori, ayant obtenu 54 piles en 100 jets d'une pièce, on aurait le choix entre tester l'acceptation d'une hypothèse faite sur la probabilité pour la pièce de tomber sur pile ou en chercher un intervalle de confiance.
Dans quelles situations utiliser l'un plutôt que l'autre ?
La réponse est très simple : si on formule une hypothèse sur la valeur cherchée on fait un test, nommé d'ailleurs test d'hypothèse. Si aucune hypothèse n'est formulée on cherche alors un intervalle de confiance pour cette valeur.
Cette dernière situation se rencontre, par exemple, quand on cherche la moyenne de la taille d'une population. On ne formule généralement aucune hypothèse du type "cette moyenne est 175 centimètres ". Par contre, dans le cas d'une pièce de monnaie, une hypothèse paraît s'imposer : "est-elle équilibrée ?" Dans ce cas il n'y a pas lieu de chercher un intervalle de confiance, la probabilité associée au test donnant une indication beaucoup plus précise puisqu'elle mesure très précisément le degré d'éloignement de la valeur observée par rapport à la valeur théorique.
Pourtant, dans les études cas-témoins les auteurs donnent systématiquement l'intervalle de confiance alors que la moyenne théorique testée vaut 1. De plus, ils ne calculent pas la probabilité relative au test alors qu'elle est beaucoup plus informative que l'intervalle de confiance.
Mon article : "Intervalle de confiance et test par l'odds ratio dans les études cas-témoins" [4].
Les pourcentages face à loi des grands nombres
Obtenir 540 piles en 1000 jets d'une pièce de monnaie ce n'est pas du tout la même chose que 54 en 100 jets. Pour le constater il suffit de calculer la probabilité d'obtenir au moins 540 piles (la pièce étant équilibrée). Elle vaut 0,62% contre 24,21% pour au moins 54 piles en 100 jets. Ce n'est pas du tout la même chose.
Voir aussi mes autres articles sur le même thème :
1- "Comparaison de deux proportions : un fort risque d'occulter un signal !"
http://questionvaccins.canalblog.com/archives/2014/02/06/29133753.html
2- "Comparaison de 2 proportions : un test doublement biaisé"
http://questionvaccins.canalblog.com/archives/2014/02/09/29163341.html
Et aussi :
3- Comparaison de 2 proportions par l'odds ratio
4- Intervalle de confiance et test par l'odds ratio dans les études cas-témoins
5- Le paradoxe de Simpson en statistiques médicales : un match de Coupe Davis !
Annexe
Voici, entre-autres, ce qu'on peut trouver sur la toile.
Interprétation des essais cliniques pour la pratique médicale [1]
UMR CNRS 5558, Faculté de médecine Lyon Laennec
« Définition de l’intervalle de confiance
L'intervalle de confiance (IC) à 95% est un intervalle de valeurs qui a 95% de chance de contenir la vraie valeur du paramètre estimé. Avec moins de rigueur, il est possible de dire que l'IC représente la fourchette de valeurs à l'intérieur de laquelle nous sommes certains à 95% de trouver la vraie valeur recherchée »
Institut national de la statistique et des études économiques [2]
« Lorsqu'un intervalle de confiance à 95 % est fourni pour une grandeur, cela signifie que cet intervalle a 95 % de chances de contenir la valeur qu'aurait donnée une interrogation exhaustive. »
Médiamétrie [3]
« C'est l'intervalle dans lequel, en fonction d'un niveau de confiance fixé à l'avance, se trouve la vraie valeur du paramètre que l'on cherche à connaître. Il mesure la marge d'incertitude d'une estimation. La longueur de l'intervalle de confiance diminue lorsque la taille de l'échantillon croît ; inversement, cette longueur augmente lorsque la taille de l'échantillon diminue.
-
Exemple 1 : dans un échantillon de 500 personnes, il y a 95 chances sur 100 (niveau de confiance de 95 %), pour qu'un résultat estimé à 20 % soit réellement situé entre 16,4 % et 23,6 % (intervalle de confiance) ; »
La bibliothèque des mathématiques [4]
« il est souhaitable de pouvoir dire à partir de l'estimation que la valeur de m est dans l'intervalle [a,b] avec un risque d'erreur inférieur ou égal à p%. On dit alors que [a,b] est un intervalle de confiance du paramètre m avec un niveau de risque de p% (ou un niveau de confiance de (100-p)%).
"En l’occurrence, il s’agit de déterminer un intervalle, connaissant la proportion p observée dans l’échantillon, au sein duquel la proportion π réelle de la population étudiée se situe avec une probabilité égale à une valeur fixée à l’avance, usuellement 95 %, et notée 1-α.
Nous pouvons interpréter cet intervalle de confiance par “il y a une probabilité de 1-α pour que π soit compris entre a et b”.
CHU de Brest [10] Page 5 :
« L'intervalle de confiance étant [1,2 ; 3,2], « dans la population d'où est issu l'échantillon de l'étude, cette multiplication du risque chez les exposés à l'ozone à 95% de chance de se situer entre 1,2 et 3,2. »
Université de La Rochelle [11]
Statistiques IUT Biotechnologie 2e année
« C'est pourquoi on a introduit la notion d'intervalle de confiance : c'est un intervalle dans lequel se trouve la moyenne théorique recherchée avec une grande probabilité (95% par exemple). »
Études marketing [5]
« Définition :
Le taux de précision est l'intervalle de confiance que l'on peut accorder aux résultats obtenus auprès d'un échantillon de la population, comparé au résultat que l’on aurait obtenu si on avait interrogé la totalité de la population.
Exemple :
Sur la base de 20 % de clients insatisfaits sur une question précise, un échantillon de 100 personnes vous garantit un intervalle de confiance de 8 points. Ceci veut dire que si vous aviez interrogé tout le monde, la réponse à cette question serait comprise entre 12 % et 28 % (20 % à +/- 8). »
Sur forum au féminin [6]
http://forum.aufeminin.com/forum/f636/__f494_f636-Intervalle-de-confiance.html
« Je sais, je vais paraître idiote mais fallait que je la pose, cette question... Qu'est-ce que l'intervalle de confiance dans un test de QI ? »
Non, ce n'est pas du tout une question idiote !
« Je suis étudiante en neuropsychologie donc je peux vous l'expliquer . On a 5% de risque de se tromper (ou 95% de chances d'avoir raison) que l'estimation du QI de l'enfant soit compris entre les 2 valeurs de l'intervalle de confiance.
L'enfant a 10 ans et 6 mois, son QI a été estimé à 97. Avec un seuil de confiance à 95%, son QI se situe dans l'intervalle de confiance 90-104, ce qui signifie qu'il y a 95 % de chances pour que son QI soit compris entre 90 et 104.
Mon explication vous convient-elle ? »
« Merci c'est parfaitement clair ! »
C'est parfaitement clair mais c'est faux ! Ce n'est pas forcément l'étudiante qui avait mal compris l'enseignement de son professeur ...
Sur d'autres sites comme ici, la définition est correcte. Elle correspond à ce que j'ai écrit plus haut :
Proba(Inf < m < Sup)=95%
MAIS où Inf et Sup sont des variables aléatoires fonctions de l'échantillon et non des nombres !
Cependant, ces sites ne font aucun effort pédagogique particulier pour éviter que le lecteur plonge la tête la première à contre-sens.
Sur Wikipedia [7] http://fr.wikipedia.org/wiki/Intervalle_de_confiance
La définition de Wikipedia montre d'abord que le problème semblait avoir été compris mais sans l'exprimer très clairement. Wikipedia entretient plus loin, sur un exemple, une certaine ambigüité :
« Il est constitué d'un intervalle qui n'est pas un intervalle dans lequel le paramètre à estimer a une forte probabilité de se trouver, puisqu'il n'est pas aléatoire, mais dans lequel, s'il ne se trouve pas, il y avait a priori une faible probabilité d'obtenir l'estimation obtenue. »
Mais plus loin :
« L'intervalle de confiance à 95 % vaut alors [0,127 ; 0,172]. On est sûr à environ 95 % qu'entre 12,7 % et 17,2 % de personnes ont une voiture rouge avec ce sondage ».
Pour amender dans une note :
« L’interprétation correcte de cette probabilité est la suivante. Si l’on prend 100 échantillons de 1000 personnes et pour chaque échantillon on calcule un intervalle de confiance alors dans 95 de ces intervalles on trouve P et dans 5 la proportion P est en dehors. On a donc une confiance de 95 %. »
Cette "confiance" n'a évidemment jamais été définie ! C'est donc bien l'ambigüité qui domine chez Wikipedia.
L’Éducation nationale a aussi investi les intervalles de confiance qui sont désormais au programme des terminales [8]. Selon les instructions publiées, on demande de présenter aux élèves une formule calculant les bornes du fameux intervalle. Il ne semble pas que le test d'hypothèse soit présenté *, en tout cas aucun lien n'est fait entre lui et l'intervalle de confiance alors que ce dernier en dépend directement. Cela pourrait conduire au calcul systématique de l'intervalle et à l'acceptation ou le rejet de l'hypothèse selon qu'elle se trouve ou non dans l'intervalle alors qu'il est inutile en pareil cas et que la probabilité d'obtenir un écart au moins aussi grand que celui observé entre la valeur théorique et observée donne une bien meilleure information.
* Vers l'an 2000, j'avais pu consulter les directives ministérielles à ce sujet : il y était formellement interdit de présenter le test d'hypothèse aux élèves !!!
Cependant, la remarque 2 page 34 exprime explicitement que l'intervalle de confiance est aléatoirement lié à l'échantillon et qu'il serait incorrect de conclure qu'il y aurait 95% de chances pour que la valeur cherchée soit entre les bornes.
Aujourd'hui les calculatrices pour le bac sont dotées de programmes pour les lois binomiales. Il serait ainsi possible d'initier très rapidement les élèves au test statistique sans avoir à exposer la loi normale et ses limites d'utilisation avec un échantillon trop petit ou une probabilité trop proche de 0 ou de 1. Cette orientation, pédagogiquement efficace et scientifiquement utile, paraît absente. Dommage ...
Additif du 6 mai 2014
Voir aussi cet article écrit par un des promoteurs de l'intervalle de confiance en classe de terminale qui illustre pleinement l'adage "pourquoi faire simple quand on peut faire compliqué ..." :
"Intervalle de confiance : pourquoi tant de défiance ?"
Par Jean-Pierre Raoult Professeur des universités honoraire, Comité Scientifique des IREM (Instituts de Recherche sur l'Enseignement des Mathématiques)
http://images.math.cnrs.fr/Intervalle-de-confiance-pourquoi.html
Et aussi cet autre article du même auteur : "Pourquoi enseigner les probabilités et la statistique dans le cours de mathématiques ?"
http://images.math.cnrs.fr/Pourquoi-enseigner-les.html
Extrait : " y a un an, au cours de l’été 2012, Pierre Colmez avait publié dans « Images des mathématiques » deux billets, titrés respectivement Faut-il arrêter d’enseigner les maths à l’école ? (le 6 août 2012) et Faut-il arrêter d’enseigner les statistiques au lycée ? (le 1er septembre 2012). Les réponses de l’auteur étaient en substance NON à la première question et OUI à la seconde."
Evidemment ... quand c'est pas clair, les profs ne comprennent pas, les élèves non plus et ça remet tout en question. Pas vraiment surpris !!!
Extrait de l'article (très raisonnable) de Pierre Colmez :
"(l'enseignement de la statistique ainsi pratiqué) transforme le cours de mathématiques en un cours de mauvaise magie (à l’opposé de la magie des mathématiques que j’évoquais dans mon billet précédent dont le ressort était bien l’explication des phénomènes). Si on conjugue cela avec le flou entourant les définitions d’analyse, on arrive au résultat paradoxal que les bons élèves ne comprennent plus vraiment ce que l’on attend d’eux et que beaucoup doivent attendre d’arriver en classe préparatoire pour enfin avoir l’impression qu’on leur offre un discours compréhensible."
BRAVO !!! BRAVO !!! BRAVO !!!
Cela confirme complètement qu'en voulant enseigner l'intervalle de confiance et non le test d'hypothèse (pour une loi binomiale) comme il aurait été raisonnable de faire et tout à fait réalisable, les promoteurs de cette réforme se sont tirés une balle dans le pied. Le problème est que tout cela nuit aussi aux élèves, à leurs enseignants et à la réputation de rigueur des mathématiques.
NAVRANT ... NAVRANT ... NAVRANT ...
Fin (provisoire !) de l'additif ...
[1] http://www.spc.univ-lyon1.fr/polycop/Intervalle%20de%20confiance.htm
[2] http://www.insee.fr/fr/methodes/default.asp?page=definitions/intervalle-de-confiance.htm
[3] http://www.mediametrie.fr/motsdesmedias/definitions.php?mot=210
[4] http://www.bibmath.net/dico/index.php?action=affiche&quoi=./i/intconfiance.html
[5] http://www.init-marketing.fr/chantillon/intervalle-de-confiance-quelle-precision/
[6] http://forum.aufeminin.com/forum/f636/__f494_f636-Intervalle-de-confiance.html
[7] http://forum.aufeminin.com/forum/f636/__f494_f636-Intervalle-de-confiance.html
[9] http://joseph.larmarange.net/?Intervalle-de-confiance-bilateral
[10] https://www.chu-brest.fr/documents/10156/108763/Epidemiologie+pour+les+nuls.pdf
[11] http://perso.univ-rennes1.fr/jean-christophe.breton/Fichiers/stat_IUT.pdf
PS : quand vous citez Wikipedia, il serait bon que vous indiquiez le jour, voire même l'heure, de sa consultation.