Contribution N°10 au rapport Gradation

Sur les limites de la régression logistique conditionnelle

 

 

Dans mes premières contributions au rapport Gradation* j'avais présenté des exemples indiscutables qui révèlent l'existence de très gros problèmes concernant les études cas-témoins, tout particulièrement quand elles sont appliquées aux vaccinations en raison du calendrier vaccinal qui organise celles-ci en classes d'âge se succédant au pas cadencé comme un défilé militaire (voir les contributions n°1 et n°2)*. Comme je l'ai montré, cela peut tuer l'aléatoire nécessaire pour maintenir une indépendance suffisante entre l'exposition des cas et de leurs témoins associés et neutraliser des signaux forts.

 

* Dans la contribution n°1 j'explique ce qu'est le rapport Gradation et dont l’objectif est d’établir un barème pour noter (une seule note par étude) les études épidémiologiques sur les vaccinations afin d’attribuer une FORCE aux recommandations vaccinales. Il y aura les recommandations de force 4 comme les vents ou les tremblements de terre .... Mes précédentes contributions :

 

   N°1 : http://questionvaccins.canalblog.com/archives/2016/03/18/33532611.html

    N°2 et 3 : http://questionvaccins.canalblog.com/archives/2016/03/28/33580870.html

   N°4 : http://questionvaccins.canalblog.com/archives/2016/03/28/33582629.html

   N°5 :  N°5 La force des recommandations vaccinales : un critère sans véritable signification ? 

   N° 6 et 7  http://questionvaccins.canalblog.com/archives/2016/03/28/33582686.html

 N° 8  http://questionvaccins.canalblog.com/archives/2016/04/09/33643161.html

 N°9 :  http://questionvaccins.canalblog.com/archives/2016/04/13/33660052.html

 

Il faut aussi constater que les auteurs et commentateurs de ces publications n'ont pas vu le problème et que l'ensemble des épidémiologistes ne paraît pas l'avoir vu non plus. Ce constat ne se limite pas à la France comme l'illustre la publication américaine Langer Gould. Il me paraît donc intéressant et important d'essayer de comprendre comment l'épidémiologie en est arrivé à générer une telle situation. C'est pourquoi j'essaie maintenant de remonter vers la théorie de la régression logistique pour essayer de mieux en cerner la source.

 

Je m'appuie pour cela sur le cours de Jean Bouyer sur la régression logistique (voir ma contribution n°9 ). Pourtant, dès l'introduction l'auteur affiche une vigoureuse mise en garde formelle :

 

 

La mise en garde générale est donc

 

"Les conclusions ... sont en partie conditionnées par le bien-fondée des hypothèses faites...".

 

Mais que propose-t-il pour procéder à la vérification du bien-fondée des hypothèses faites sur la modélisation utilisée ? Rien ! L'auteur semble penser qu’ainsi il aura accompli son devoir et qu’il peut se laver les mains des conséquences.

Quel impact ces restrictions formelles ont-elles en pratique ?

Qui s'occupe de ces restrictions et fait un effort pour contribuer à la vérification de ces hypothèses ?

J'ai montré quelles conséquences pouvait avoir cette absence de correspondance entre la réalité et la modélisation. On juge l'arbre à ses fruits, c'est catastrophique et c'est la preuve irréfutable qu'il y a un problème dans la formation. J'ai suffisamment enseigné pour savoir qu'en voulant d'emblée trop généraliser, plus personne ne comprend, même les choses les plus simples.

 

Comme me le disaient de jeunes épidémiologistes avec lesquelles je déjeunais au congrès Sfsp de Lille en 2011,

''en école on nous donne plein de conditions pour utiliser les tests statistiques

mais ensuite, en pratique on ne s'en occupe jamais''.

Une autre d'ajouter

''si on le faisait on en ferait beaucoup moins !''

Pas sûr d'ailleurs ! Comme je l'ai aussi montré, en respectant mieux les conditions de validité des tests statistiques on aurait des études plus fiables et des analyses plus riches qui stimuleraient la recherche. Les auteurs peuvent être hantés par le désir de publier, c'est une obsession commune à toutes les disciplines, mais il ne faudrait pas que cela compromette à ce point la valeur des résultats.

 

En particulier, pour construire la régression logistique présentée par Jean Bouyer, l'indépendance entre les évènements considérés est indispensable tout le long des calculs. J'ai insisté sur ce point dans ma précédente contribution pour constater qu'il faut attendre la page 74 du document pour que l'indépendance des événements soit enfin mentionnée pour présenter la régression logistique conditionnelle qui cherche à tenir compte de cette absence d'indépendance (copie d'écran) :

 

 

Jean Bouyer présente alors des formules amendées pour tenir compte de l'absence d'indépendance entre les évènements précédemment utilisés sous cette hypothèse implicite d'indépendance pour la régression logistique non conditionnelle. Mais sa présentation contient une certaine dose d'ambigüité en laissant croire qu'on pourrait ainsi s'affranchir d'une absence totale d'indépendance par une solution exacte (page 72 copie d'écran) :

 

Présentées comme étant assises sur une démonstration rigoureuse, ces nouvelles expressions de la vraisemblance de l'échantillon paraissent régler le problème de l'absence d'indépendance et c'est sans doute compris ainsi par beaucoup d'utilisateurs. Pourtant, les exemples que j'ai donnés démontrent qu'on ne peut pas conclure ainsi car il peut ne pas y avoir une adéquation suffisante entre le modèle choisi et la réalité à décrire.

 

 

Les grandes étapes de tout ajustement

 

Tous les ajustements de données suivent le même rituel qu'on peut présenter en 4 étapes. Les voici avec l'exemple le plus simple, celui de la régression linéaire.

 

On s'intéresse à la relation entre la taille et le poids chez des enfants. Pour 100 garçons, les couples de données se répartissent sur une droite croissante à 45 degrés. Pour 100 filles anorexiques les 100 couples de données se répartissent sur une droite décroissante à 45 degrés (plus elles sont grandes et moins elles pèsent lourd !) Pour tous, les données sont suffisamment dispersées sur les droites. On obtient ainsi 200 points du plan correspondant aux 200 couples de données.

 

 Première étape : on décide de modéliser le nuage des 200 points par une droite. Autrement dit on cherche s'il existe une relation linéaire entre la taille et le poids. C'est un choix fait a priori et avec lequel on tente sa chance. Un tel choix n'est pas de nature mathématique même si le choix porte sur des objets mathématiques.

 

Seconde étape : ce choix étant fait, on cherche la droite la plus adaptée pour ajuster les 200 points. On est ici guidé par les mathématiques qui permettent d'en choisir une parfaitement définie, la droite de régression. Au sens dit des moindres carrés* elle est la meilleure droite ajustant le nuage. Elle est une “solution exacte,” si on veut employer cette expression trompeuse.

* La somme des carrés des distances des points  à la droite est minimale.

 

Troisième étape : on cherche à apprécier si la droite sélectionnée par les mathématiques parmi toutes les droites du plan est un modèle adapté aux données. On pourra être aidé par un indicateur de nature mathématique, le coefficient de corrélation linéaire ainsi que par une représentation graphique du nuage de points et de la droite sélectionnée.

Quatrième étape : sur l'exemple ces indicateurs nous conduiront à abandonner notre projet initial de modélisation, aussi “exact” qu’il pouvait être pour chercher autre chose, soit dans une autre famille de courbes soit par une partition judicieuse des données. En l'occurrence ce sera évidemment la partition garçons-filles à laquelle il faudra penser pour trouver le secret du nuage plutôt que d’essayer une autre famille de courbes comme les exponentielles par exemple. 

 

Il en va de même pour tous les ajustements, que le modèle choisi soit une droite ou une exponentielle, une loi normale ou binomiale pour des données statistiques. Ce qui fait défaut quand on décide de modéliser par une régression logistique, c'est l'étape 3 qui est absente et bloque l'étape 4. Sous prétexte qu'il n'y a pas d'équivalent proposé du coefficient de corrélation ni de représentation graphique suggestive, personne ne semble se demander si le modèle choisi correspond aux données.

 

Pire que cela, le fait de traiter les données en cas-témoins semble être la méthode devant dire le vrai et le faux de manière absolue et définitive. Si cette méthode n'a pas produit de signal, il arrive que son absence soit qualifiée de démonstration qu'il ne saurait exister de signaux qui pourraient apparaitre autrement comme le confirme (entre autres ...) le communiqué de l'Académie de Médecine du 12 février 2008 [1] portant une telle appréciation sur les 2 premières publications Tardieu de décembre 2007.

Pourtant, les données de 2007 contenaient au moins 2 signaux :

 

1- Le signal significatif sur la sclérose en plaques qui sera publié quelques mois plus tard le 8 octobre 2008 et fera  couler beaucoup d’encre ...

2- Le signal que j'ai présenté dans ces contributions (62 cas sur les 4 premières années qui suivent la vaccination contre 12 sur les 2 années suivantes) qui pourrait apparaitre en cas-témoins mais à la condition expresse que les témoins se répartissent à peu près à la proportionnelle sur ces durées de 4 et 2 ans, ce que le calendrier vaccinal interdit.

Sans parler de 2 autres signaux qu'on obtient en ajoutant les données publiées en 2008 et qui ne peuvent apparaitre en cas-témoins :

3- Les taux de transformation d'une atteinte démyélinisante en sclérose en plaques chez les enfants sont de 52% chez les vaccinés hépatite B contre 32% chez les non vaccinés hépatite B

4- La moyenne d'âge de l'apparition de la première atteinte démyélinisante est 11,5 pour la sclérose en plaques contre 7,8 pour les atteintes démyélinisantes qui n'ont pas évolué en sclérose en plaques (dans les limites de l'observation).

Par exemple encore, en complément :

5- Les résultats obtenus par Langer Gould sur des données américaines et qui démontreraient qu'il n'y a pas de lien entre une vaccination quelconque et l'apparition d'une atteinte démyélinisante sur un délai de 3 ans. Mais avec  854 témoins sur la première année qui suit la dernière vaccination pratiquée avant l'apparition d'une atteinte démyélinisante contre 508 sur les 2 années suivantes cumulées, soit moins de 60% alors qu'il en faudrait le double, soit 1708 ! Cela suffit pour démontrer que la modélisation cas-témoins sur ces délais de 1 et 3 ans est plus que désastreuse !

Même construite pour tenir compte du défaut d'indépendance, la régression logistique conditionnelle utilisée par les auteurs ne peut gérer correctement des écarts aussi énormes entre les critères d'indépendance et la réalité. La modélisation étant trop éloignée de celle-ci, les tests correspondants n'ont aucune valeur comme on le constate aisément sur les cas puisqu'il y en a 195 sur la première année contre 106 sur les 2 années suivantes cumulées. C'est évidemment un signal très fort (qui ne signifie pas forcément que les vaccins seraient particulièrement dangereux la première année qui suit une vaccination mais qui pointerait plutôt le fait que beaucoup de participants à cette étude avaient reçu au moins une vaccination chaque année. Notons aussi que la période de suivi incluait l'année 2009 avec le H1N1 mais peu importe ici).

J'avais déjà parlé de cela mais j'ai pensé qu'il était intéressant de le relier à la théorie de la régression logistique pour mieux comprendre ses conditions d'utilisation et  ses limites. Même si cette théorie cherche à tenir compte du fait que  cas et témoins n'ont pas tous une même probabilité d'avoir été exposés et  même si la régression conditionnelle cherche à tenir compte de l'absence d'indépendance, il ne faut pas que les écarts par rapport aux conditions binomiales soient trop importants pour que l'ajustement obtenu puisse être un bon ajustement des données.

 

 

Il  faut que l'écart avec les conditions binomiales soit modéré

pour que l'ajustement obtenu

puisse être un bon ajustement des données.

 

 

On observe le même phénomène avec l'ajustement linéaire : les calculs pour trouver l'équation de la droite de régression n'ont pas pour effet de rendre à peu près linéaires des données qui ne le seraient pas du tout. De même, si les données, cas ou témoins, ne sont pas du tout de type binomial, l'ajustement logistique même conditionnel n'y pourra rien changer. On en constate les effets avec les exemples que j'ai proposés et qui sont évidemment essentiels pour réaliser l'importance de ces conditions non explicitées.

 

 

Le test cas-témoins,

un test de comparaison de 2 binomiales

 

Fondamentalement, je l'ai déjà rappelé, un test cas-témoins compare 2 tirages binomiaux, celui des cas et celui des témoins. L'ajustement logistique conditionnel a pour objectif de chercher les meilleurs paramètres binomiaux à associer aux données, c'est à dire les paramètres qui rendent maximale la vraisemblance de l'échantillon. Mais, comme pour la droite de régression, si les données ne sont pas du tout binomiales, l'ajustement ne sera pas satisfaisant.

On peut facilement mesurer l'impact de l'ajustement sur les données en comparant les probabilités associées au test binomial, au test avec l'odds ratio direct et avec ajustement conditionnel. Voici les résultats pour les tests quand le critère d’exposition est l’apparition de la maladie dans les 4 années qui suivent la vaccination hépatite B. La publication Tardieu 2007  donne 62 cas et 476 témoins exposés parmi les 143 cas et 1122 témoins :

 

Test binomial : probabilité associé au test 41,63%

Test odds ratio direct : probabilité associée 41,59% (OR=1,04)

Test odds ratio ajusté : probabilité associée 41,84%

 

J'ai calculé cette dernière probabilité à partir de OR=1,05 et IC [0,66 1,68] donnés par les auteurs en utilisant le fait que OR suit une loi log-normale, ce qui permet de récupérer la variance.

La probabilité associée au test est la probabilité d'obtenir un écart au moins aussi grand que celui observé entre la moyenne théorique (1 pour l'odds ratio) et la valeur observée (la valeur de OR).

On constate que les résultats des 3 tests sont exactement les mêmes. Autrement dit, l'ajustement par régression logistique conditionnelle n'a pas modifié l'estimation des paramètres binomiaux utilisés dans le test de comparaison de 2 binomiales bien que les données ne soient pas du tout binomiales, tout particulièrement du point de vue de l'indépendance. 

 

Rétrospectivement, sur cet exemple du moins, on pourrait se demander à quoi ça sert d'aller chercher des calculs complexes pour un effet nul alors que les données sont très éloignées des conditions binomiales, tout particulièrement pour l'indépendance et que l'ajustement conditionnel est pratiquement présenté comme devant permettre de s'affranchir de cette contrainte ?

 

En faisant la même chose avec le premier test du tableau 2 de la même étude, soit 80 cas exposés parmi 143  et 609 témoins exposés pour 1122, l’exposition étant “avoir été vacciné contre l’hépatite B”. On obtient :

 

Test binomial : probabilité 35,32%

Test odds ratio direct : probabilité 35,32% (OR=1,07)

Test odds ratio ajusté : probabilité 33,48% avec OR=1,10 IC [0,71 1,69} donnés par les auteurs.

 

Là aussi on constate que l'impact de la correction logistique conditionnelle est pratiquement nul bien que les données ne soient pas du tout binomiales en raison des écarts énormes sur les probabilités individuelles : l'estimation de la probabilité pour un cas ou un témoin d'avoir été vacciné (hépatite B) varie entre 25% et 82% selon les classes d'âge et les régions.

 

 Détérioration des tests quand les écarts sont significatifs

Mêmes tests avec le résultat significatif de l'étude Tardieu 2008 sur la sclérose en plaques (tableau 4 donnant 19 cas exposés parmi 72 et 48 témoins exposés parmi 347) :

 Test binomial : probabilité 1,18%

 Test odds ratio direct : probabilité 0,47% (OR=2,23)

 Test odds ratio ajusté : probabilité 0,7% avec OR=2,77 IC [1,23 6,24} donnés par les auteurs.

 

Ici on constate au contraire que les écarts relatifs entre les différents résultats ne sont pas négligeables. En particulier, le test binomial s'écarte très sensiblement des 2 autres (1,18/0,47=2,51) même s'il est lui aussi significatif. Mais cet écart a une explication mathématique intéressante : pour le test binomial j’ai utilisé un estimateur sans biais pour la variance. A ce sujet on peut voir mon article “Comparaison de 2 proportions : un test doublement biaisé !” [2]. Ce n’est pas l’usage le plus courant, l’estimateur le plus communément utilisé étant biaisé. En l’utilisant je trouve la probabilité 0,41% très proche de 0,47%. Or l’estimation de la variance utilisé dans le test odds ratio direct n’est pas un très bon estimateur. On constate qu’après ajustement la probabilité 0,7% obtenue par le test de l’odds ratio se rapproche de 1,18%. Cela correspond sans doute à une meilleure estimation de la variance obtenue grâce à l’ajustement.
Pour la première série de tests, le test binomial avec une variance biaisée donne 41,59%  comme avec l'odds ratio direct. Pour la seconde série on trouve aussi le même résultat 35,32%.

Dans le test de comparaison de 2 proportions, on suppose a priori que les 2 proportions observées proviennent de 2 tirages binomiaux avec des probabilités égales de réalisation à chaque tirage. L'estimation de la variance est faite sous cette hypothèse. Si elle est réalisée, l'estimation de la variance sera satisfaisante. Par contre, plus les probabilités associées aux 2 tirages binomiaux seront éloignées et plus l'estimateur usuel de la variance sera fortement biaisée. J'étudie ce problème dans [2] ou je donne un estimateur sans biais même si ces probabilités sont différentes. Je donne des exemples où le test peut être significatif avec l'estimateur sans biais et non significatif avec l'estimateur usuel.

Un test cas-témoins est aussi un test de comparaison de 2 proportions. Là aussi l'hypothèse de base est que cas et témoins ont une même probabilité d'avoir été exposés. C'est l'hypothèse que l'on veut tester. Tous les calculs d'ajustements, qu'ils soient conditionnels ou pas, reposent sur cette hypothèse car l'expression de la vraisemblance de l'échantillon est faite sous cette condition. Si cas et témoins ont à peu près la même probabilité d'avoir été exposés, le test pourra être valable de ce point de vue. Par contre, si ce n'est pas du tout le cas, la qualité des estimations des paramètres d'ajustement peut devenir contestable pour les mêmes raisons que précédemment. Autrement dit, en cas-témoins les tests significatifs sont, de ce point de vue, de moins bonne qualité que les tests non significatifs :

 

 

 

En cas-témoins,

les tests significatifs sont de moins bonne qualité

que les tests non significatifs

 

 

 

De plus, avec l'estimateur biaisé de la variance on peut constater que le groupe le plus nombreux pèsera plus lourd que l'autre dans le test de comparaison de 2 proportions. Or les témoins sont toujours beaucoup plus nombreux que les cas : 5 fois plus dans l'étude Langer Gould, 10 fois plus dans celle d'Hernan, 7,85 fois plus dans celle de Tardieu 2007. Tout cela peut contribuer à fausser les résultats :

 

 

Beaucoup plus nombreux, les témoins pèsent plus lourd que les cas

sur l'orientation des tests

 

 

Autre constat, bien que l'odds ratio direct 2,23 soit nettement plus faible que l'odds ratio ajusté 2,77, la probabilité associée 0,47% indique un résultat plus fortement significatif avec OR=2,23 que celle de 0,7% avec OR=2,77. Cela montre que la variance correspondant à 2,23 est plus faible que celle associée à 2,77. Notons que l'odds ratio "crude" donné par les auteurs vaut 2,38.

 J'ai lu que certains épidémiologistes voudraient que seuls soient considérés comme significatifs les odds ratio supérieurs à 2 ! C'est oublier que l'unité en probabilités-statistiques n'est pas 1 mais l'écart-type et qu'elle est donc variable. Ici on mesure l'écart entre la moyenne théorique 1 de l'odds ratio et sa valeur observé OR=2,23 par le nombre d'écarts-type séparant ces 2 nombres (ou leurs logarithmes). Ces écarts-type ne sont pas les mêmes dans les 2 tests et suffisamment différents pour inverser ce qu'on pourrait attendre.

 

L'odds ratio seul ne permet pas de tester valablement.

Le meilleur critère :

 la probabilité associée au test

 

Confirmation avec le test significatif obtenu par Langer-Gould : 588 cas et 2927 témoins dont 14 cas  et 29 témoins exposés pour l’apparition d’une première atteinte démyélinisante dans les 14 jours qui suivent une vaccination quelconque chez les moins de 50 ans.

Tests binomiaux : sans biais,  probabilité 1,69%  ; avec biais 0,26%

Test odds ratio direct : probabilité 0,34% (OR=2,44)

Test odds ratio ajusté : probabilité 0,73% avec OR=2,32   IC [1,18    4,57] donnés par les auteurs.

Constats :

1- écart notable entre les 2 tests binomiaux avec ou sans biais pour la variance (1,69/0,26=6,5).

2- Le test binomial  avec biais et le test odds ratio direct donnent des résultats très proches.

3- La probabilité du test ajusté (0,73%) est plus de 2 fois plus grande que celle du test non ajusté (0,34%)  tout en étant plus de 2 fois plus faible que celle du test binomial sans biais (1,69%).

 

 

Traitons de la même façon ces 2 exemples, le premier avec un signal et pas le second :

Pour le premier :

 

Données

Non

Oui

Total

Oui

21

18

39

Non

8

22

30

 

 La régression logistique a donné  OR=3,2  IC [1,2   8,9] pour les données traitées en lignes (21 oui sur 39 contre 8 non sur 30).

 Tests binomiaux : sans biais,  probabilité 0,92%  ; avec biais 1,17%

Test odds ratio direct : probabilité 1,29% (OR=3,2)

Test odds ratio ajusté : probabilité 1,00% avec OR=3,2   IC [1,2    8,9] donnés par les auteurs.

 

Pour le second :

 

Données

Non

Oui

Total

Oui

18

24

42

Non

25

56

81

 

 La régression logistique donne OR=1,7  IC [0,78   3,6] pour les données traitées en lignes (18 oui sur 42 contre 25 non sur 81).

 Tests binomiaux : sans biais,  probabilité 9,85%  ; avec biais 9,3%

Test odds ratio direct : probabilité 9,39% (OR=1,68)

Test odds ratio ajusté : probabilité 9,1% avec OR=1,7 IC [0,78 3,6] donnés par les auteurs.

 Constat :

Les écarts relatifs sont négligeables pour les données non signicatives (le plus grand rapport 9,85/9,1=1,08) mais plus importants pour les données significatives (le plus grand rapport 1,29/0,92=1,40). Il y a une logique à cela

 

 On constate que les probabilités associées aux tests permettent

des comparaisons intéressantes qui seraient impossibles autrement.

 

[1] Bulletin Académie de Médecine 2008 page 433

 http://www.academie-medecine.fr/wp-content/uploads/2013/03/2008.2.pdf

[2] “Comparaison de 2 proportions : un test doublement biaisé !”

http://questionvaccins.canalblog.com/archives/2014/02/09/29163341.html

 

ANNEXE

Voici un encart d’un article sur la pharmacovigilance. Il a été rédigé par la pharmacovigilance de Tours et publié en novembre 2011. L’encart parle de l’absence de risque de SEP chez l’enfant après vaccination hépatite B.

Notons : “un premier épisode aigu de démyélinisation survenu avant l’âge de 16 ans dont 41 % ont rechuté”. Le problème est que si les 41% ciblés par les auteurs sont ceux de la publication Tardieu de février 2007 (146/356=41%) pour laquelle il n'y a pas d'écart significatif entre les vaccinés et non vaccinés, on trouve la même proportion 143/349=41% dans la publication Tardieu d'octobre 2008 et que ce 41% là est une moyenne entre 52% de rechutes parmi les vaccinés contre 32% chez les non vaccinés. Ils étaient pourtant 4 spécialistes de pharmacovigilance pour écrire ce texte. Après avoir pensé à noter la proportion  globale de rechutes en 2007 et à comparer les rechutes chez les vaccinés et non vaccinés (c'est l'objet de la publication de février 2007), personne, à commencer par les auteurs, n’a songé à faire la même chose chez les vaccinés et les non vaccinés en 2008 !  Va falloir surveiller les veilleurs qui semblent dormir dans les tours de guet !

Revue de pharmacovigilance

La pharmacovigilance des vaccins

LA REVUE DU PRATICIEN MÉDECINE GÉNÉRALE l TOME 25 l N° 869 l NOVEMBRE 2011

Par Élisabeth Autret-Leca, Hawaré Cissoko, Frédérique Beau-Salinas, Annie-Pierre Jonville-Béra, service de pharmacologie clinique et centre régional de pharmacovigilance et d’informations sur le médicament, CHRU, 37044 Tours Cedex. autret-leca@med.univ-tours.fr P

Hépatite B : pas de risque de SEP chez l’enfant

page 716

Disponible depuis plus de 25 ans, ce vaccin est la mesure de prévention la plus efficace contre l’infection par le virus de l’hépatite B (VHB). Mais les débats sur son innocuité, et notamment sur le risque de sclérose en plaques (SEP), ont diminué le suivi des recommandations vaccinales. Jusqu’en 2004, aucune étude n’avait montré de lien entre le vaccin et la survenue d’une affection démyélinisante centrale. En 2004, une étude cas-témoins a conclu à une association significative, chez l’adulte, dans les 3 ans qui suivent la vaccination. [1] Toutefois, selon les autorités de santé, ces résultats ne remettaient pas en cause les recommandations vaccinales en vigueur. [2] En 2007 et 2008, deux études chez des enfants de 6 à 16 ans ne trouvent pas d’association entre cette vaccination et le risque de survenue ou de récidive de SEP. [3, 4]

La première a comparé 143 enfants ayant eu un premier épisode de SEP suivi d’au moins 1 autre épisode entre 1994 et 2003 à 1 122 témoins sans SEP appariés au cas sur l’âge (± 6 mois), le sexe et le lieu de résidence. Elle conclut qu’il n’y a pas de lien entre cette vaccination chez l’enfant et le risque de survenue ultérieure d’une atteinte démyélinisante du SNC, incluant la SEP, quels que soient le nombre d’injections, le délai et la marque du vaccin. [4] Cependant, dans un des sous-groupes, celui ayant respecté le calendrier vaccinal et vacciné depuis plus de 3 ans par Engerix B®, on observe une association statistiquement significative avec la survenue d’une affection démyélinisante. Les autorités de santé ont cependant estimé que les données de cette analyse complémentaire, conduite a posteriori, avaient les caractéristiques d’un résultat statistique fortuit et qu’il n’y avait pas lieu de modifier les recommandations vaccinales.[5] L’OMS, en octobre 2008, parvient à la même conclusion.

La seconde étude est une cohorte française (KIDSEP) de 356 enfants ayant eu entre janvier 1994 et décembre 2003 un premier épisode aigu de démyélinisation survenu avant l’âge de 16 ans dont 41 % ont rechuté. Elle a exclu un risque accru de récidive chez l’enfant vacciné.

 Références

[1] Hernán MA, Jick SS, Olek MJ, Jick H. Étude cas-témoins sur le risque de survenue de SEP et la vaccination contre l’hépatite B. Neurology 2004;63:838-42.

[2]. Commission nationale de pharmacovigilance du 29 septembre 2004 et audition publique sur la vaccination contre le VHB et SEP. Paris : 9 novembre 2004.

[3]. Mikaeloff Y, Caridade G, Rossier M, Suissa S, Tardieu M. Hepatitis B vaccination and the risk of childhood-onset multiple sclerosis. Arch Pediatr Adolesc Med 2007;161:1176-82.

[4] Mikaeloff Y, Caridade G, Suissa S, Tardieu M. Hepatitis B vaccine and the risk of CNS inflammatory demyelination in childhood. Neurology 2009;72:873-80.

[5]. Haut Conseil de la santé publique. Avis relatif à la vaccination contre l’hépatite B. http://www.hcsp.fr/docspdf/avisrapports/hcspa 20081002_HepB.pdf

[6]. Mikaeloff Y, Caridade G, Assi S, Tardieu M., Suissa S; KIDSEP study group of the French Neuropaediatric Society. Hepatitis B vaccine and risk of relapse after a first childhood episode of CNS inflammatory demyelination. Brain 2007;130:1105-10.