Cette grippe plus et moins meurtrière

Variations chiffrées sur la réalité

Saura-t-on un jour expliquer les raisons d’une cacophonie décidemment récurrente ? En France les autorités sanitaires laissent entendre que le « pic est atteint » avant que l’OMS nous informe que la France est l’un des rares pays européens où le H1N1pdm continue sa progression… Comment comprendre ? Seule certitude objective dans l’Hexagone, celle des chiffres de l’Institut de veille sanitaire qui, le 11 décembre, signalait 13 nouveaux décès liés au virus de la grippe en métropole en deux jours, soit 139 depuis le début de l’épidémie. Le même Institut a, en deux jours, recensé 80 nouveaux cas graves. Au total, depuis le début de l’épidémie, 710 cas graves ont été hospitalisés en métropole. Parmi ces personnes, 184 sont toujours en réanimation ou unités de soins intensifs.

Une autre comptabilité nous vient de Grande Bretagne où un travail épidémiologique officiel  vient de conclure que les infections dues au H1N1pdm seraient associées à une mortalité moins importante que celle initialement redoutée. Publiée par le British Medical Journal (pdf de l’article en anglais) la première analyse complète (jusqu’au 8 novembre) des décès dus au nouveau virus pandémique en Angleterre conclut à un taux de mortalité de 0,026%, soit environ un décès pour environ 3.800 infections. Ces résultats font suite au taux de 0,048% publié il y a quelques jours  par une équipe de chercheurs américains. En Angleterre près de deux tiers des personnes décédées des suites de l’infection grippale souffraient de maladies préexistantes. Ce travail conclut d’autre part  que si les personnes âgées de plus de 65 ans sont moins exposées au risque de contamination celles qui sont infectées risquent plus  d’en mourir.

« La première pandémie de grippe du XXIe siècle est considérablement moins mortelle que ce que l’on a pu le redouter au début » résume Sir Liam Donaldson principal conseiller du gouvernement britannique en matière de santé et responsable de cette étude menée  par l’Agence britannique de protection de la santé. En toute hypothèse les auteurs expliquent que  le taux de mortalité actuellement observé est nettement inférieur à celui des trois pandémies du XXe siècle: celle de 1918 avec un taux de mortalité de 2 à 3%, et celles de 1957-1958 et 1967-1968 (environ 0,2%). Pour Sir  Donaldson il faut peut-être compter ici avec les améliorations progressives réalisées, à l’échelon collectif, dans le domaine de la nutrition, du logement, de la prise en charge médicale  et tout particulièrement de réanimation intensive.

Mais ce travail très pragmatique apporte d’autres enseignements chiffrés : les taux de mortalité les plus bas ont été enregistrés chez les 5-14 ans et les plus élevés chez les plus de 65 ans. L’âge moyen des victimes a été de 39 ans (et le plus souvent compris entre 17 et 57 ans). La majorité d’entre elles n’aurait pas été susceptibles d’être protégées par la première phase de vaccination telle qu’elle avait été programmée en Angleterre. Plus de trois victimes sur quatre avaient reçu une prescription de médicament antiviral mais parmi celles-ci la même proportion n’avait pas pu le prendre avant les 48 premières heures de l’infection déclarée.

Conclusions de ces responsables britanniques : l’affaire est peut-être moins grave que prévu. Pour autant aucune raison de baisser la garde, notamment pour ce qui est de la vaccination des groupes à risque et de l’amélioration de l’accès le plus rapide possible aux médicaments antiviraux. Une nouvelle fois l’ambiguïté du message à faire entendre : moins grave que prévu mais pas anodin quand même…  Une vache anglaise atteinte d’une pseudo-variole  peinerait durablement ici à retrouver ses veaux et ses fermières.

Il faut ici ajouter que les dernières données épidémiologiques de mortalité en provenance du Japon (une mort pour 50 000 infections) semblent fortement plaider en faveur du recours à la fois précoce et massif aux deux antiviraux antigrippaux que sont le Tamiflu (de chez Roche) et le Relenza (GlaxoSmithKline). Est-ce dire que le Japon  (premier consommateur mondial du Tamiflu-Roche nous dira-t-il un jour pourquoi sinon comment ?)) aurait mieux su anticiper que les autres pays industriels ? Ou faut-il comme souvent appeler à l’aide, pour mieux comprendre, les experts en santé publique ?

Jean-Yves Nau


Bilan provisoire : une mortalité indirecte basse, et une mortalité directe élevée

Cet article britannique est d’une grande importance : il est le premier à tenter une évaluation documentée de la mortalité liée à la grippe H1N1pdm à l’échelle d’un pays. L’étude est rigoureuse. Elle est basée sur les 138 certificats de décès portant la  mention « infection par le virus de la grippe H1N1pdm » durant la période du 1er juin au 8 novembre 2009. Cela constitue le numérateur. Le dénominateur est basé sur les estimations produites par la veille sanitaire britannique évaluant à  540 000 le nombre total d’infections symptomatiques par le virus pandémique durant la même période.

Le résultat : un taux de létalité compris entre 22 et 34 pour 100 000 avec de fortes variations selon l’âge (les plus de 65 ans ayant un taux de létalité de l’ordre de 1%). Les auteurs notent qu’il est heureux de constater que ces résultats sont très en dessous de ce que l’expérience des pandémies passées laissaient présager : 2-3% en 1918, 0,2% en 1957 et 1968. Le film n’est cependant pas terminé préviennent les auteurs, qui redoutent, si l’activité épidémique devait remonter durant l’hiver comme en 1957, que les personnes âgées soient davantage touchées (et donc davantage exposées au risque de décès) venant alors  alourdir le bilan. Les auteurs remarquent cependant qu’un tel scénario ne s’est pas produit jusqu’à présent  dans l’hémisphère Sud  avec H1N1pdm (mais là-bas, leur hiver austral s’est terminé avec la fin de la vague épidémique).

Il est donc à espérer que cette pandémie ne sera pas associée à une mortalité totale élevée. Pour autant restons prudent (peut-on le dire sans être aussitôt accusé de faire du catastrophisme ?) puisque  l’hiver n’a pas encore seulement commencé dans l’hémisphère Nord. Et l’on peut aussi noter  que la mortalité directe est plus élevée que la moyenne habituelle. Ce qui est inexplicablement bas, c’est la mortalité indirecte chez les personnes âgées.

En France (la chose est vraie dans d’autres pays) selon les derniers chiffres recensés par l’Institut de Veille Sanitaire, cités par Jean-Yves Nau, il y a tout lieu de penser que l’on est – vis-à-vis de cette mortalité directement liée au virus H1N1pdm – dans des rapports de fréquence de l’ordre de 100 fois supérieur, comme nous l’estimions au mois d’août, avec l’expérience acquise dans l’hémisphère sud (Plos Currents Influenza, en ligne, en anglais). Attention, je n’ai jamais dit comme le suggèrent certains blogs déformant mes propos que la pandémie serait cent fois plus meurtrière que la grippe saisonnière, je n’ai parlé que de la mortalité directe, celle que l’on observe et qui est rapportée chaque jour, lorsque l’issue est fatale au sortir d’un séjour en unité de soins intensifs pour pneumonie virale. C’est elle et seulement elle qui semble être beaucoup plus fréquente qu’habituellement. Or habituellement cette mortalité directe ne représente que moins d’un millième de la surmortalité totale liée à la grippe, qui est donc essentiellement indirecte.

Car il faut le redire : cette mortalité directe est, habituellement, exceptionnelle ; entre 2004 et 2008, seuls 5 cas de pneumopathies virales avec syndrome de détresse respiratoire aigüe (SDRA) ont été recensés en moyenne chaque année, dont 1 à 3 avaient connu une issue fatale. Or voici qu’en quelques mois l’épidémie, en France, a causé 710 cas graves dont la plupart directement liés à l’infection par le virus, et 138 décès, dont un très grand nombre de SDRA. Soit des proportions jamais observées dans le passé saisonnier récent. Ce qui s’est passé dans l’hémisphère Sud durant l’hiver austral s’est ainsi reproduit de façon assez fidèle dans l’hémisphère Nord durant l’automne, sans présumer encore de l’évolution de l’activité de ce nouveau virus durant l’hiver à venir.

Ainsi donc, vis-à-vis de la mortalité nous sommes dans une situation apparemment paradoxale et totalement inédite. La mortalité totale attribuée au virus H1N1pdm (somme de la mortalité directe et de la mortalité indirecte) semble faible, peut-être même plus faible que la mortalité liée à la grippe saisonnière. Et ce parce que la mortalité indirecte serait très faible, alors que la mortalité directe serait, elle, beaucoup plus élevée, et frapperait des jeunes inhabituellement victimes de la grippe. En proportion relative, la mortalité directe passerait du millième de la mortalité totale à une fraction qui pourrait dépasser la moitié, c’est un résultat assez stupéfiant.

Notons que les Britanniques ont changé de « thermomètre » en cours de route. Ils reconnaissent qu’habituellement ils faisaient référence  au concept d’ « excès de mortalité » (que nous avons déjà exposé dans ces colonnes) et qui repose sur l’analyse des statistiques de mortalité « toutes causes». Comme tous les pays développés jusqu’à présent, et depuis les années 80. Or il est encore trop tôt pour disposer des statistiques de mortalité « toutes causes ».  Ils travaillent donc à partir des certificats de décès dont on sait (en France et aux USA notamment) qu’ils ne représentent que moins de 10% de l’estimation de la mortalité en excès au cours de la grippe saisonnière (en France 600 certificats rapportant l’infection grippale pour une mortalité en excès de 6000, en moyenne). Les auteurs tablent cette année sur une faible sous-notification des décès ; ce qui est possible en raison de la médiatisation et des efforts faits pour favoriser le recueil des données par les médecins. Ce n’est cependant pas encore certain. Il faut donc rester prudent, même si l’on a l’impression qu’une forte surmortalité liée à H1N1pdm est probablement à exclure, car elle aurait été sans doute repérée par les cliniciens ou les services de pompes funèbres. Ce qui n’a pas été le cas à ce jour. On n’est pas dans une configuration du type de la canicule, que l’on redoutait.

Que conclure ? Si la pandémie  devait disparaître au terme de cette vague automnale il est possible (mais pas encore certain) que nous aurions été confrontés  à un virus responsable d’une surmortalité inhabituelle chez les adultes jeunes et les jeunes enfants, souvent atteints préalablement d’affections chroniques, parfois non.  Dans le même temps ce virus n’aurait  été à l’origine que d’un faible excès de mortalité dans la population générale et notamment des personnes âgées encore épargnées car peu infectées par ce virus à ce jour. Les auteurs de cette publication importante recommandent de vacciner les personnes âgées et à risque (comme pour la grippe saisonnière) de manière à  les protéger contre une prochaine vague épidémique, toujours possible. Il n’est pas interdit de les entendre.

Antoine Flahault

66 commentaires pour “Cette grippe plus et moins meurtrière”

  1. OU EST LE PIC ?

    Pour le savoir il y a une solution qui consiste à utiliser des chiffres .

    Mais là ATTENTION, comparer des chiffres c’est, de facto, utiliser un « outil » mathématique.
    Il est donc indispensable d’en connaître le mode d’emploi.
    Je constate que peu connaissent les modes d’emploi…et que l’on risque des « délires » …

    Que ce soit Sentinelles ou les GROG ils estiment chaque semaine un « truc » qui varie en fonction du temps.
    Ce n’est apparemment pas la même chose pour les deux, mais peu importe pour l’instant.

    Sur le temps il est fait un découpage en classe, l’unité devient la semaine : Si, i = 1, 2 ,…., 52 voire 53.

    Ce qui se passe dans une semaine n’est pas uniforme. On perd donc de l’information en estimant une fréquence Fi, i = 1, 2 , ….52 pour chaque semaine Si. Mais on n’a pas le choix.

    On obtient donc des couples de points (Si, Fi) que l’on peut positionner sur un système d’axes orthogonaux, avec en abscisse le temps et en ordonnée la fréquence.

    La tentation est forte de relier ces points par des segments de droite et obtenir ainsi un graphe.

    On pourrait aussi faire un histogramme, mais c’est plus compliqué car alors c’est la surface des rectangles qui représente la fréquence des classes et attention si toutes les classes n’ont pas la même étendue.

    Alors là attention ! Dans quel cas a-t-on le droit, mathématiquement parlant, de construire un graphe (une courbe) ?

    Il faut que tous les couples (Si, Fi) soient comparables les uns aux autres !

    Il s’agit ici de l’estimation de l’espérance mathématique de la fonction aléatoire A(t) qui représente pour Sentinelle le nombre de cas de grippe clinique (pas forcément dus au H1N1).

    Pour chaque estimation Fi il faut avoir un intervalle de confiance ICi.

    Si l’on prend deux semaines consécutives Si et S(i+1) il faut que leurs intervalles de confiance ICi et IC(i+1) n’aient aucun point commun pour que l’on puisse dire que Fi est différent de F(i+1).
    De plus il faut que tous les ICi soient du même ordre de grandeur sinon, les estimations n’étant pas faites avec la même précision, elles ne sont pas comparables.

    Donc il est INDISPENSABLE d’avoir les intervalles de confiance de chaque valeur de Fi.

    Sentinelle les donne, je ne les ai pas trouvé pour les GROG.

    Allez sur le site du réseau Sentinelle et vous verrez les courbes avec pour chaque point les intervalles de confiance.
    Voilà pourquoi j’ai dit que seul sentinelle était sérieux !!!!!

    ATTENTION POUR LA RECHERCHE DU PIC !

    Selon que l’on va associer Fi au premier jour ou au dernier jour de la semaine Si on va décaler la courbe.
    En principe on attribue la fréquence à la valeur centrale de classe.

    Si Fi n’est pas significativement différent de F(i+1) la REGLE mathématique veut que l’on fasse une nouvelle classe englobant les deux, donc ici de deux semaines, et qu’on lui attribue comme fréquence la moyenne arithmétique des deux fréquences.

    On peut être obligé ainsi de regrouper plusieurs classes !

    C’est apparemment ce qui arrive pour le PIC chez Sentinelle

    On a : semaine 47 : 378924 cas, semaine 48 : 467551 cas, semaine 49 : 473718 cas , semaine 50 : 382312 cas.

    Donc il est INCONTESTABLE que la courbe Sentinelle a un plateau, puisqu’il faut regrouper les semaines 48 et 49 et que le pic des relevés sentinelles, que l’on ne connaîtra vraisemblablement jamais, se situe quelque part entre le 23 novembre et 6 décembre !

    Maintenant si pour les GROG vous pouvez obtenir les intervalles de confiance, après vérification, vous pouvez chercher le pic de la courbe des GROG, si l’on peut prétendre qu’il en existe une.
    Sans me tromper je peux vous dire que c’est illusoire.

    En effet j’ai écrit, non sans raisons, que Dame Bachelot s’était « coincée » avec plus de 850000 cas (corrigé à 812 000) en semaine 47. Suivi d’un 930000 annoncé en conférence de presse.

    La raison est simple, ce point est subitement anormalement grand. Si les chiffres ne sont pas truqués, c’est-à-dire construits à postériorité, on va mathématiquement constater un « divorce » d’avec les autres estimations.
    Alors ou les GROG font n’importe quoi ou Dame Bachelot a menti et avec elle l’InVS.

    C’est ce qui m’a fait dire que son staf n’était pas très compétent… personnellement je n’aurais pas fait une erreur aussi grossière.

    Excusez-moi, mais je ne peu pas accepter, tant que les intervalles de confiance des GROG n’auront pas été rendus publics, que l’on compare les chiffres des GROG d’une semaine sur l’autre, cela n’ayant aucun sens mathématiquement parlant !

    Par contre, une fois que les chiffres ont été correctement traités à partir d’informations qualitatives ou de connaissances spécifiques, que les doctes en médecine maîtrisent, ils peuvent affiner la réponse et situer correctement le pic dû au H1N1.
    Un mathématicien ne peut pas le faire.
    Chacun son métier et les vaches seront bien gardées….

    Autre sujet : le QUIZZZ de Zénon.

    Inutile de penser que je suis un inconditionnel du Pr Flahault, j’ai montré clairement que je ne me mettais pas des gants pour lui dire ce que je pensais.
    Et c’est justement pour cela que j’aborde ce sujet.
    OUI, c’est bien le Pr Flahault qui a donné comme indication : possible 30 000 morts.

    Il a mis en œuvre un excellent modèle qui a mis en évidence un scénario pouvant avoir des conséquences dramatiques. En temps qu’expert son devoir était d’en informer qui de droit. A sa place j’aurais obtenu les même résultats et fait la même chose.
    Ensuite n’oublions qu’il est en charge de certaines responsabilités. Donc s’il a fait ces déclarations sur une radio c’est qu’il devait le faire pour des raisons que nous ignorons.
    Alors évitons jugements et sous-entendus à l’avenir.
    Lors de son intervention sur France Info je lui avais reproché justement de ne pas avoir donné de chiffres.

    Discutons les chiffres qu’il donne, mais ne lui reprochons pas d’avoir été alarmiste !
    Et n’oublions jamais qu’un modèle donne un résultat toujours fonction des paramètres qu’on lui fixe. Quand en faisant varier les paramètres, on a plusieurs résultats, il n’est pas aberrant de vouloir se garantir du pire.
    C’est facile une fois l’orage passé de dire ce qu’il aurait fallu décider au mois d’avril !

    Je dois avouer qu’aujourd’hui, à la lumière des informations de Kp, Babaorum et réverentFR, je me pose sérieusement la question d’une deuxième vague. Et ce d’autant plus que l’observation des courbes de mortalité de l’hiver 1918-1919 (celles de l’époque) et des chiffres issus du Canada militent peut-être dans ce sens.

    Et de facto, je pourrais bien être amené à revoir ma position sur (contre) la vaccination de masse.
    A ce sujet Gordinho le 23/12 a écrit : « Article intéressant si ce n’est le parti pris de M. Flahault »
    Ce n’est pas du parti pris : il est convaincu du bien fondé de la vaccination et il le dit.
    Il nous donne la parole, à nous de le convaincre du contraire.
    Je crois qu’il accepte certaines idées telles la vaccination urgente des vieux… c’est déjà beaucoup dans le contexte Français.

  2. Oh là ! Je ne sais pas si mon propos a été bien compris !

    Il se limitait à poser une question : est-il légitime de modéliser les données de la grippe par une courbe de Gauss ? Même si ”à vue” on peut croire reconnaître une telle courbe, c’est très insuffisant et les illusions d’optique ça existe.

    J’ai pris comme premier exemple les diagrammes en bleu des GROG (grippe A) qui suggèrent assez bien une courbe de Gauss alors que les calculs démontrent qu’il n’en est rien et de très loin. D’où ma conclusion restée trop implicite : méfions-nous d’abord de nos impressions premières. Qu’il faille aussi se méfier des données GROG est un autre problème.

    Bien sûr il est possible d’utiliser une restriction sur la qualité des données GROG pour soutenir que cela ne démontre pas qu’il faille abandonner le modèle de Gauss pour la grippe et pour continuer d’espérer qu’avec des données plus fiables l’ajustement par Gauss serait valable. Reste à le vérifier. Et si cela était, eh bien on aurait alors un bon argument pour montrer que les données GROG ne sont pas valables puisqu’elles ne sont pas gaussiennes !

    Je précise la procédure que j’ai utilisé pour tester le caractère gaussien des données qui pourraient être GROG ou autres, peu importe, il faut bien commencer par quelque chose. On peut espérer localiser 2 points sur des données de grippe : le pic et la plus grande croissance. Une loi de Gauss étant symétrique on a 50% à gauche du pic. En discontinu il faut partager les données du pic en 2 pour les répartir de chaque côté. En prenant la semaine 49 et 993 000 je majore au maximum le nombre de cas à gauche du pic. Selon les chiffres communiqués semaine 49 cela fait 3 824 000-993 000/2=3 327 500. J’avais calculé de même 2 181 000 à gauche du point d’inflexion placé au milieu de la semaine 47 qui sont 65,45% des 3 327 500. Si on place le pic en semaine 48 ou si on prend une valeur plus faible que 993 000 la proportion trouvée sera encore plus grande et l’ajustement avec une loi de Gauss encore plus mauvais :
    en effet, l’aire à gauche du point d’inflexion d’une courbe de Gauss est 15,86% du total soit 31,73% de la moitié alors qu’on trouve ici 65,45%. Cette valeur est indépendante de l’espérance et de la variance de la loi de Gauss. On a certainement là un élément qui montre que la distribution des données GROG ne suit pas du tout une loi normale. Mon propos ne voulait pas aller plus loin. Mais peut-être allait-il déjà trop loin car il pourrait suggérer la nécessité d’envisager l’abandon du modèle gaussien.

    Faut-il sauver le soldat Gauss ?
    Il n’est peut-être pas encore perdu ! Il faut procéder à d’autres vérifications et j’aimerais ne pas être le seul à le faire. D’ailleurs Gauss a-t-il jamais proposé ce genre de courbes pour modéliser des épidémies ? J’ai l’impression qu’on a projeté sur des données une courbe théorique très célèbre et très commode sans autres vérifications. Il n’existe très probablement AUCUNE justification théorique à cette modélisation par une mise en équation à partir d’hypothèses. J’ai tenté de le faire. Mes hypothèses ne sont pas forcément réalisées en pratique, ça se discute. J’obtiens une courbe avec un pic certes mais d’une part elle n’est pas symétrique et d’autre part ne se distribue pas du tout de la même façon qu’une loi de Gauss même si elle en a la couleur et l’odeur. Les données sont discontinues comme les données communiquées pour la grippe, c’est un premier avantage par rapport à une loi continue pour faire des comparaisons. En appliquant la même procédure je trouve 54,4% à comparer à 65,45%, ce qui est déjà beaucoup mieux que les 32% à peine avec la loi normale. Cette valeur 54,4% n’est pas universelle comme pour la loi de Gauss : elle varie avec les valeurs des paramètres mais cela donne une idée.

    Je vais essayer de faire les mêmes comparaisons avec les données Sentinelles. On verra bien.

  3. Je viens de regarder les données Sentinelles. J’ai pris les données consolidées.

    La progression maximale se situe entre la semaine 46 et 47. En coupant là aussi la poire en 2 je trouve 1 148 300 cas cumulés au moment de l’inflexion au milieu de la semaine. Le pic s’étend sur 2 semaines : 48 et 49 avec 414 400 et 419 400. J’ai pris la moitié de leur somme pour obtenir 2 279 900 cas cumulés. Le rapport entre ces 2 nombres est 50,37% qui paraît très éloigné des 31,73% pour une répartition de Gauss. On pourrait ”forcer” les chiffres des semaines 48 et 49 aux limites supérieures des intervalles de prédiction afin de réduire cette proportion. Ces intervalles ne sont pas donnés pour les données consolidées. Cela pourrait faire 45000 cas en plus, ce qui ferait 49,39%, c’est encore bien loin.

    La conclusion semble s’imposer, même si j’ai pu faire des erreurs un soir de réveillon mais je ne bois pas ! Comme les données GROG, les données Sentinelles ne paraissent pas se distribuer selon une loi de Gauss. Avec 54,4% mon modèle paraît plus proche.

  4. Après une très brève trêve de Noël !

    Jean Rabat, bonjour.

    Le 24 décembre 2009 ( message de 8h45 pm) vous écriviez à propos des courbes de Gauss :
    « Donc à gauche du point où la pente s’accélère il peut y avoir une grande surface ou presque rien du tout. C’est la connaissance de la surface à gauche de ce point qui, si l’on connaît la surface totale (à partir du taux d’attaque supposé) permet de fixer approximativement la hauteur du sommet.
    Ce modèle, qui n’est pas probabiliste, est acceptable car il traduit bien l’idée que le pic sera d’autant moins haut pour un taux d’attaque donné, qu’il y aura plus de personnes immunisées au départ de l’explosion des cas. »

    Mais s’il s’agit d’une courbe de Gauss cette surface à gauche sera à peu près 16% du total. Aussi, sa connaissance détermine (aux variations aléatoires près) la surface totale que vous n’avez donc pas la possibilité de choisir librement. Si ce nombre à gauche est 1,6 millions le total sera 10 millions. Si vous choisissez 16 millions parce que cela correspondrait à une observation faite ailleurs par exemple, la partie gauche ne sera plus que 10% et vous ne pourrez plus affirmer avoir modélisé par une courbe de Gauss.
    S’il n’y a presque rien du tout à gauche, par exemple 160 cas, le total sera de l’ordre de 1000 si c’est modélisable par Gauss.

    A gauche donc, c’est 32% de la moitié du total, cette moitié étant obtenue en données discrètes avec seulement la moitié du nombre de cas sur le pic. Il faut donc qu’entre le point d’inflexion et le pic il y ait au moins 2 fois plus de cas qu’avant. Cela demande qu’il y ait suffisamment de semaines entre l’inflexion et le pic. Si l’inflexion est TROP PROCHE du pic on peut fortement douter qu’on ait une répartition gaussienne. Or c’est bien plutôt cela qu’on observe, il me semble, sur les courbes de la grippe comme celles données par Google.

    A vue, un œil non exercé sur ce problème dira ”c’est une courbe de Gauss”. Mais il suffirait d’exercer son regard autrement, avec le critère que je propose, pour se montrer rapidement beaucoup plus prudent. Cette observation, vérifiée également par mon modèle (le pic suit de peu le point d’inflexion) permet de donner une interprétation mathématique à votre affirmation :
    « le pic sera d’autant moins haut pour un taux d’attaque donné, qu’il y aura plus de personnes immunisées au départ de l’explosion des cas. »

    En effet, si le pic suit de peu la plus grande progression il ne pourra pas être beaucoup plus haut qu’elle et le nombre total de cas au moment du pic restera dans une proportion modérée par rapport au nombre total au moment de l’inflexion (moins du double par exemple au lieu de plus de 3 fois plus avec la courbe de Gauss, pic divisé par 2).

    Certes, j’ai conscience qu’en avançant qu’une épidémie de grippe (ou autres) ne serait pas modélisable par une courbe de Gauss, j’ai sans doute lancé un pavé dans la mare, mais…bon… c’est fait !!! Il y a déjà longtemps que j’avais vu cela puisque j’enseignais ce modèle fortement non gaussien à mes étudiants de sciences de la vie en l’an 2000.

    Pour sauver la modélisation gaussienne il ne suffira certainement pas de faire jouer les nombres autour de leurs intervalles de confiance pour tenter de trouver malgré tout une possible courbe de Gauss. Non, je pense qu’il y a à cela des raisons directement liées au processus de propagation d’une épidémie comme on peut le voir quand on suppose la contagion aléatoire dans un groupe.

    Quand ce n’est pas le cas, on suppose qu’il existe un découpage en sous-groupes pas forcément disjoints où cette condition est réalisée. Si l’épidémie se développe en phase dans ces différents sous-groupes la même règle générale s’appliquera (le pic suivra de près l’inflexion). Si le déphasage est important et concerne beaucoup de sous-groupes on pourra avoir une succession de pics (dromadaires). Pour le premier pic, la durée étant plus courte, les risques de déphasage entre les groupes actifs sont plus limités. C’est pourquoi la première partie, jusqu’au premier pic, est la plus intéressante pour une modélisation. Après, les chiffres globaux peuvent représenter des situations trop entrelacées et inextricables.

  5. Erreur mon cher Bernard,

    Erreur à la base de votre raisonnement : 16% invariablement ??

    Vous confondez avec une N(0,1) !

    Je ne parle pas de variable centrée et réduite, mais bien de courbes de Gauss c’est-à- dire déduite de là par un déplacement : soit une homothétie et une translation.
    On a donc la surface fixe de la loi N(0,1) qui est multipliée par une fonction de l’écart type de la variable aléatoire, paramètre qui caractérise l’homothétie. Et qui est différent dans chaque cas .

    De plus, le point d’inflexion est le point où la tangente traverse la courbe.
    Ce n’est pas de ce point dont je parle.

    Je m’explique : supposons que la courbe soit la trajectoire d’un mobile.
    La dérivée première, tangente de la courbe, modélise la vitesse du mobile

    Elle s’annule au « pic » (maximum de la courbe) et change de signe.

    La dérivée seconde, tangente de la courbe de la vitesse, modélise l’accélération du mobile.

    Le point dont je parle c’est celui où l’accélération augmente brutalement : celui où le conducteur du mobile « écrase le champignon » juste avant d’attaquer la côte, qui correspond à l’explosion des contagions.

    Le point d’inflexion se trouve sur la montée brusque quelque part entre ce point et le sommet.

    Pour calculer la valeur théorique du point dont je parle, il faut tripatouiller avec la dérivée troisième, tangente à la courbe qui modélise l’accélération, et bonjour les calculs. Je m’y refuse. En fait j’utilise les courbes Google pour l’estimer.

    Certains calculent à partir de là un coefficient d’aplatissement , bien sûr fonction des deux paramètres qui caractérisent une loi normale : espérance mathématique et variance.
    De toute façon l’aire à gauche de ce point dépend du pic de la courbe, elle n’est pas fixe et elle peut aller de quelques pour cent à près de cinquante pour cent. Allez voir les courbes de 1918 et comparez celle de Berlin et de Londres !
    Cette surface représente les personnes immunisées.

    De plus TOUS les modèles statistiques ou presque, mis a part les tests non paramétriques, nécessitent soit que les variables soient normales (donc courbes de Gauss) soit que la taille de l’échantillon soit infini, qui pour le dénombrable (pas pour le continu) est obtenu quand n=n+1.
    Si on n’a pas cette normalité on ne sait quasiment rien démontrer à n fini car seule cette fonction exponentielle, qu’est la loi normale, permet une manipulation aisée des écritures.

    En statistique : HORS DE LA LOI NORMALE POINT DE SOLUTION à n fini!

    Je vous rapelle qu’en aucun cas on ne peut vérifier avec un modèle M2 qu’un modèle M1 est bon.
    En effet il aurait d’abord fallu vérifier avec un modèle M3 que M2 est bon et ainsi de suite…

    C’est le principe de base de la modélisation : ON NE VERIFIE PAS UN MODELE AVEC UN AUTRE MODELE.

    L’énoncé de ce principe a été pendant 30 ans la première affirmation de mon cours intitulé ; « théorie des modèles » ;
    La deuxième phrase du cours était : « un avion est tombé, un barrage a cédé…parce qu’une intégrale n’était pas convergente ! »
    Ces deux phrases exposaient toute la problématique.

    Faites calculer à votre ordinateur la série harmonique de terme général 1/n. Elle est divergente et pourtant votre ordinateur va lui trouver une valeur finie ! Pourquoi ? Où est l’erreur ?
    Cela vient du fait que pour calculer une série il utilise un modèle de calcul qui n’est pas valide pour les séries divergentes.
    Pour un ordinateur il n’existe que des séries convergentes et donc que des intégrales convergentes et tant pis pour les barrages et les avions…

    La justification de l’emploi d’un modèle ne peut se faire qu’à partir d’une évaluation, par l’utilisateur, du degré d’adéquation du modèle avec le réel étudié. Avant de faire calculer une intégrale il faut d’abord vérifier qu’elle est convergente ! Et le plus souvent un informaticien en est incapable…

    La décision de représenter un phénomène quelconque par une courbe de Gauss est donc totalement « subjectif » !
    On refuse la normalité et on n’applique pas le modèle, on accepte la normalité et on applique le modèle.
    Ce qui est discutable c’est la décision subjective qui est prise, pas le modèle.

    De plus il est très important sur une courbe de facto continue, approchée avec des points estimés, de procéder à un « lissage » de la courbe : c’est-à-dire regarder tous les points qui présentent une particularité et voir si cette particularité est due au hasard (c’est-à-dire pas d’explication à notre niveau) ou imputable à une raison particulière évidente ou à trouver.

    Ensuite s’assurer que tous les intervalles de confiance sont compatibles. Si tel n’est pas le cas il faut supprimer tous les points qui paraissent aberrants.

    C’est parce que cela n’a pas été fait que l’on entend parler de plusieurs vagues, sans justification, à la vue de la courbe « expérimentale » d’une épidémie qui présente de ci de là un petit pic.

    Si l’on relie des points entre eux c’est que l’on fait, de facto, l’hypothèse de continuité du phénomène.
    En effet en mathématique la définition du graphe G (la courbe) est : « G est une partie de l’ensemble ExE (E que multiplie E), constitué par l’ensemble des couples (x,y) éléments de ExE, pour lesquels la relation R(x,y) est vraie, R définie pour tout élément x et y appartenant à E »

    Si l’on veut mettre en évidence deux vagues (soit deux courbes) différentes qui se complètent ou interfèrent il faut impérativement mettre en évidence une discontinuité, point de passage d’une vague à l’autre.
    C’est-à-dire l’existence de deux relations réputées vraies, différentes, reliant le nombre de cas au temps. J’ai proposé une telle relation pour les vieux, en France, en cas de glissement du virus.

    Le Pr Flahault a proposé comme critère le passage sous la courbe qui modélise le seuil épidémique.
    Ce peut être un critère à retenir, parce qu’acceptable au sens mathématique du graphe. Il peut y en avoir d’autres. A proposer et à discuter.

    Comme quoi, lorsque l’on a bien approfondi les mathématiques théoriques : théorie des ensembles, théorie de la mesure, théorie du calcul des probabilités…. on peut de visu « interpréter » une courbe si on maîtrise en plus la théorie de l’estimation et la théorie des modèles…et de nombreuses années de pratique.

    Le drame : on se demande alors, lorsqu’on est seul , face à des milliers , à affirmer une chose exacte, s’il ne vaut pas mieux laisser tomber et partir garder les moutons dans les Pyrénées…eux au moins ils comprennent ce qu’on leur explique. On leur porte du sel, ils viennent , on envoie le chien à droite, ils partent à gauche,…
    Je plaints beaucoup les experts « sérieux », ils vont en « prendre plein la gueule », alors qu’il auront, en fait, bien fait leur travail.
    Mais combien y a-t-il de Français capables de faire la différence, chez les journalistes entre- autre ?

  6. Dans le post du 15 décembre 6 :04 j’avais joint 2 liens sur la grippe de 1918 dont celui sur les morts constatés à Londres, Berlin Paris , New York que commente Mr Rabat et un lien donnant le suivi à Genève. La question qui peut se poser c’est peut on en tirer quelque chose. J’avais idée de calculer la surface de chaque courbe, mais je n’arrive pas avec mes logiciels de dessins. Nous aurions eu une petite idée sur l’incidence de cette grippe.
    On pourrait faire de même avec les courbes actuelles.

    Ce qui serait aussi intéressant, ce serait de définir les critères qui permettront de parler de la 2° vague en France.
    Faut il que l’incidence de la grippe descende en dessous de la limite puis remonte mais jusqu’à quel niveau ? Où alors faut il qu’elle dépasse une droite de tendance baissière passant par le sommet de la courbe en semaine 48-49 et en abscisse la semaine numéro 9 (qui devrait être au plus tard la fin de l’épidémie en France ) sur une période de 2 semaine au moins ?
    D’autre part une future éventuelle vague en France doit intervenir avant la prochaine saison hivernale (plus exactement avant la semaine 42, date du début de l’épidémie en France) sinon c’est un peu facile, vu que chaque année il y a une vague de grippe ! Je commence à entendre qu’il faudra faire le bilan dans 3 ans. Et pourquoi pas dans 5 ou dans 10 ans ? On a déjà changer en avril 2009 la définition de la grippe pandémique pour faire que cette grippe A en soit une , alors pour que ce ne soit pas un fiasco on cumulera les cas sur plusieurs années et on obtiendra bien un taux d’attaque de 30% !!.
    Dès maintenant on peut dire d’après les données Suisse tirées de l’article sus-mentionné qu’en 1919 et 1920 il y a eu beaucoup moins de morts qu’en 1918 et pas l’inverse. La politique de la peur n’a pas de fondement de ce côté là.

    Quant au fait de vacciner les personnes des maisons de retraite je ne partage pas vos avis. Je crains fort que le nombre de mort augmente après cette campagne au vu des morts subits qui surviennent chez les personnes fragiles qui me semble avoir comme facteur de risque, un risque cardio-vasculaire . Peut être qu’au Canada c’est ce genre de problème qu’ils ont eu Mr Rabat ? ( je connais au moins un cas en France). Il est urgent d’en savoir plus avant de continuer cette vaccination. Serons nous entendu je l’ignore mais je ne risquerai pas la vie de mes patients dans ce contexte. Que chaque prescripteur en son âme et conscience le fasse s’il le veut.
    Mais pas question de se cacher derrière « on n’avait pas de données qui nous auraient fait douter » ce n’est pas vrai. La balance risque/ bénéfice n’est pas en faveur de la vaccination.

    Enfin je persiste à demander aux experts du scénario du pire, qui est la mutation du virus, qu’ils donnent un ordre de grandeur en terme de probabilité. Je sais que c’est difficile mais faire croire qu’il y a le même risque de mutation, que la possibilité d’extinction de l’épidémie au vu des courbes Canadienne Suédoise Belge Suisse de 2009 et de celle de 1918, me semble illégitime et de mauvaise foi.
    Peut on en savoir un peu plus aussi, sur l’épidémie de 1968 (début fin ?) qui a chassé celle de 1969 , information donnée par le Pr Flahault dans « c’est dans l’air » le 23décembre 2009 tiré des archives de l’institut Pasteur ? Y a t’il eu une autre vague après celle de 1968 et à quelle moment de l’année a t’elle frappé ?

  7. Pour Gyuran,

    Je suis d’accord avec vous pour ce qui est de 1918/1919. Tout s’est passé entre septembre et novembre 1918, en Europe et aux USA, partout en même temps.
    La seconde vague de 1919 ?
    On est en droit de penser qu’il n’y avait pas que le H1N1 …les courbes de l’époque donnent toutes morts confondues, mais quel était le « bruit de fond » l’hiver en Europe à cette époque ?

    J’ai écrit précédemment : « J’ai bien l’impression que pour le H1N1 1918 et le H1N1 2009, les explications que l’on avance ne collent pas et de loin avec des chiffres correctement interprétés. »

    Il faudrait retrouver les textes d’où sont extraites ces courbes pour essayer de les « faire parler »

    Pour la vaccination , n’étant pas docte en médecine, je n’ai aucune idée clinique la concernant, mais vous connaissez ma position « viscérale »…Dans ma famille personne ne se fait vacciner contre le H1N1 : vieux, jeunes, femme enceinte, médecins(2), infirmières(2) …

    Je suis contre le vaccin avec adjuvant et conservateur car je vois les dégâts qu’à fait ce type de vaccin sur les 150 millions de vaches françaises vaccinées. En ce qui me concerne, par exemple, nous allons refuser la vaccination obligatoire quitte à être traduits en justice. J’ai 130 bovins, cela pourrait me coûter cher le passage en correctionnelle, mais moins que ce que me coûtent les conséquences de la vaccination de 2008. Et nous sommes de plus en plus nombreux….de quoi encombrer les tribunaux pour plusieurs années.
    Il serait intéressant de voir quel est le pourcentage d’éleveurs de bovins qui sont allés se faire vacciner !

    Vous dites : «Peut être qu’au Canada c’est ce genre de problème qu’ils ont eu Mr Rabat ? »

    Oui c’est très possible, même très vraisemblable, mais là c’est le virus qui est en cause.

    Ils ont beaucoup vacciné et, semble-t-il, pas de morts déclarés plus ou moins liés au vaccin.
    En Suède il y aurait eu quelques cas . En Hongrie peut-être aussi et dans l’UE, combien de vieux sur les 55 cas ?

    Si le virus « glisse » comme le dit Kp, je crois qu’il fera chez les très vieux plus de morts directs et induits que n’en ferait le vaccin surtout s’il était comme celui des américains, sans adjuvant ni conservateur.
    Mais, je crois …à la vue des informations qualitatives et quantitatives que j’ai pu avoir.
    Si Dame Bachelot réservait les vaccins « sans rien » pour les vieux et donnait le reste ce serait bien !

    On ne peut pas traiter le problème de la vaccination qu’avec des chiffres. Il faut les commentaires des doctes spécialistes en virus et vaccination et essayer de « fabriquer » un « truc » qui va permettre de « soutenir » un raisonnement, en associant tout cela.
    En gros on se construit un schéma de pensée le plus objectif possible.

  8. Mon cher Jean je n’arrive pas à comprendre comment il est si difficile de se comprendre ! Pour une loi N(m, s), s étant l’écart-type, la probabilité que la variable aléatoire ne dépasse pas m-s a exactement la même valeur que pour -1 pour la loi N(0,1) et les points d’inflexion sont en m-s et m+s. Donc moi non plus je ne pensais pas qu’à la loi N(0, 1) ?!

    « En statistique : HORS DE LA LOI NORMALE POINT DE SOLUTION à n fini! » dites-vous.
    Cela était vrai autrefois et vient des 2 propriétés extraordinaires de la loi normale : d’une part convergence (à l’infini) des autres lois vers la loi normale (théorème de la limite centrée) et d’autre part le fait que l’on ramène le calcul d’une probabilité pour N(m, s) à une probabilité sur N(0,1) d’où une seule table pour calculer pour toutes les N(m, s). Je le répète : ces 2 faits conjugués sont absolument extraordinaires et peuvent remplir d’admiration le mathématicien devant un tel phénomène. Je pense que sur ce point nous serons d’accord !!!

    Mais aujourd’hui, avec les outils de calcul dont on dispose on peut s’affranchir des approximations limites ou douteuses par la loi normale en faisant des calculs directs sur les lois de probabilités comme celles de Poisson (très mal approximée par la loi normale) et la binomiale. Il y a plus de 20 ans je donnais déjà à mes étudiants de programmes de calcul pour leurs calculatrices afin de s’affranchir de certaines approximations douteuses par la loi normale. Alors je pense connaître assez bien cette question.

    Oui, on peut s’affranchir de la tyrannie pesante et dangereuse de la loi normale !!! Ert on y a tout intérêt.

    Mais ici, sommes-nous en statistiques ?
    Si on s’occupe de la répartition des tailles d’adultes dans une population, il y en a un certain nombre à 1,72m etc. Cela fait une distribution de probabilités, pour trouver par exemple une personne entre 1,75 et 1,78m par un choix aléatoire. On modélise toujours cela par une loi normale.

    Mais ici, on a l’évolution d’une épidémie. Alors on peut dire : il y a ceux qui sont tombés malades en semaine 42; ceux en semaine 45 etc comme il y a ceux qui mesure 1,72m. On peut alors dire : qu’elle est la probabilité de trouver, parmi les malades, une personne en semaine 45 ? D’où une distribution de probabilités selon les nombres de malades chaque semaine. D’où l’idée en apparence ”naturelle” si on présente l’affaire ainsi, de modéliser aussi par une loi normale comme pour les tailles et faute d’autre chose.

    Sauf qu’ici, contrairement aux tailles adultes, il existe un lien entre le nombre de malades en semaine 44 et ceux en semaine 45 qui s’appelle la contagion. Trois fois rien !!! Il est donc possible d’envisager calculer (estimer) le nombre de cas en semaine 45 à partir de ceux en semaine 44. Et cela, la loi normale avec l’approche statistique NE PERMET PAS de le faire !

    C’est là le problème FONDAMENTAL que je soulève et je vous remercie infiniment, Jean, de me permettre, par votre opposition, de préciser et d’expliciter ces points, y compris pour moi car je ne me raconte pas cela tous les jours. Le modèle que j’ai construit n’est donc pas un modèle statistique mais un modèle qui fait passer, sous certaines hypothèses, du nombre de malades au temps n au nombre de malades au temps n+1.

    ATTENTION : c’est TOTALEMENT différent de l’approche statistique. Les courbes obtenues n’ont RIEN à voir avec des lois normales mêmes si elles sont d’abord croissantes avec une inflexion pour atteindre un pic puis décroître avec une inflexion.

    Les années passées je n’ai jamais confronté mes courbes avec celles de la grippe. Je pensais qu’elles n’étaient pas adaptées en raison du caractère saisonnier. Aussi je découvre cette année le problème. Je constate, depuis peu, une certaine analogie entre ces courbes et celles reproduites par Google ou les GROG. En particulier, l’observation suivante que je me suis faite il y a seulement quelques jours : sur les courbes grippes, le pic suit de peu la période de plus grande progression, il suffit de regarder pour le voir; sur mes courbes aussi, je ne m’en étais jamais fait la remarque avant. Par contre, et j’en suis désolé, ce n’est pas vrai pour les lois normales.

    Ces courbes, ou plutôt ces points, sont générés par des systèmes de suites, donc pas de dérivées etc. Mais elles se génèrent très bien avec les machines. C’était inutilisable auparavant, contrairement à la loi normale avec sa fameuse table…C’est un autre état d’esprit pour travailler avec ce type d’outils. J’avais commencé dans les années 80 et j’y ai passé beaucoup de temps pour apprendre ainsi à gérer le discontinu sans les outils classiques des maths comme les dérivées. Ici comme en activité j’ai constaté qu’il n’était pas facile de faire réaliser qu’il y avait de nouvelles possibilités à explorer. J’ai l’habitude ! Je n’ai jamais désarmé !!!

  9. Jean, voici ce que j’ai trouvé sur Wikipedia en tapant courbe de Gauss sur Google :

    « Critères de normalité
    Le recours à une distribution gaussienne est si fréquent qu’il peut finir par être abusif. Il faut alors rechercher des critères de normalité.
    Le premier critère, le plus simple, consiste à tracer l’histogramme ou le diagramme en bâtons de la distribution et à vérifier si le diagramme est en forme de « cloche ». Ce critère, subjectif, permet cependant d’éliminer une partie des distributions jugées alors non gaussiennes.
    Le critère suivant consiste à utiliser les plages de normalité ou intervalles de confiance. On a vu que si une distribution est gaussienne :
    68% de la population est dans l’intervalle [m-s m+s]
    95% de la population est dans l’intervalle [m-2s m+2s]
    99% de la population est dans l’intervalle [m-3s m+3s].
    Lorsque ces pourcentages ne sont pas respectés, il y a fort à parier que la distribution n’est pas gaussienne. »

    C’est pourquoi je ne comprends vraiment pas votre réaction. Mais je n’avais pas besoin de Wikipedia pour cela !!!

  10. “Je ne parle pas de variable centrée et réduite, mais bien de courbes de Gauss c’est-à- dire déduite de là par un déplacement : soit une homothétie et une translation.On a donc la surface fixe de la loi N(0,1) qui est multipliée par une fonction de l’écart type de la variable aléatoire, paramètre qui caractérise l’homothétie. Et qui est différent dans chaque cas ”

    Je me disais, aussi … ;p)

  11. Message @ Jean RABAT,

    Bonjour,

    Vous écrivez :
    « Je suis contre le vaccin avec adjuvant et conservateur car je vois les dégâts qu’à fait ce type de vaccin sur les 150 millions de vaches françaises vaccinées. En ce qui me concerne, par exemple, nous allons refuser la vaccination obligatoire quitte à être traduits en justice. J’ai 130 bovins, cela pourrait me coûter cher le passage en correctionnelle, mais moins que ce que me coûtent les conséquences de la vaccination de 2008. »

    Je suis écrivain et je suis actuellement en train de réaliser des recherches sur le thème des vaches laitières. Pourriez-vous m’en dire plus sur les “dégâts” du vaccin avec adjuvant et conservateur sur les vaches vaccinées. Merci. De plus, j’ai récemment discuter avec des éleveurs bios, ils m’ont rapidement évoqués cette histoire de refus de vaccination et de menace de justice. Pourriez-vous svp détailler un peu plus cette affaire ? Vous pouvez, si vous le souhaitez me contacter à mon adresse mail : julien.michelle (at) yahoo.fr

    d’avance merci
    cordialement

  12. Ben oui Babaorum, c’est triste pour un soir de Noêl !

    Normal, j’ai pas de télé….alors…

  13. Réponse à Gyuran, concernant la pandémie de 1968-69 :
    Cette troisième pandémie du XXème siècle, due au virus H3N2 et partie de Hong Kong en 1968 a causé une première (petite) vague entre janvier et avril 1968 (environ 15% de l’ensemble des décès attribuables à cette pandémie s’y sont produits à ce moment-là), et une seconde vague (plus importante) entre décembre 1968 et mars 1969 (le complément, soit 85% de la mortalité totale attribuée à ce virus s’est produit alors). Ce que j’ai dit (ou voulu dire) mercredi soir à l’émission “C dans l’air” d’Yves Calvi sur France 5, c’était que dans les cahiers de laboratoire de l’Institut Pasteur, dès le début du mois de janvier 1969, il n’y avait plus d’autres virus identifiés que le nouveau sous-type H3N2 pandémique. Le virus de la pandémie précédente, H2N2, qui avait émergé en 1957 et était devenu le sous-type saisonnier circulant, avait complètement disparu de la circulation en France. Un peu comme aujourd’hui, le H1N1pdm semble avoir progressivement remplacé les sous-types saisonniers H3N2 et H1N1 qui circulaient dans le monde durant les années précédentes. La circulation d’un sous-type H1N1 saisonnier, sans rapport direct avec la souche pandémique H1N1pdm rend la compréhension de cet exposé un peu difficile, mais c’est ainsi. On a expliqué (et l’on pourra ré-expliquer à la demande) en d’autres occasions l’origine de cette co-circulation exceptionnelle de deux sous-types de virus saisonniers de la grippe de type A entre 1977 et 2009 dans le monde, je n’y reviens pas ici.
    Un des enseignements importants, si les sous-types saisonniers H3N2 et H1N1 ne devaient pas revenir en 2010, c’est que l’immunité croisée ou résiduelle naturelle contre H1N1pdm ne serait pas si importante que cela dans la population générale, y compris âgée, ou du moins pas au point d’autoriser la co-circulation des sous-types pandémiques et saisonniers. La “compétition” immunologique semble très en faveur de H1N1pdm, c’est cela qui nous préoccupe particulièrement pour les personnes âgées en cas de nouvelle vague, cet hiver ou l’hiver prochain.
    On peut voir le déroulement des vagues pandémiques du siècle passé dans plusieurs articles, dont celui de Mark Miller et coll, NEJM, du 7 mai 2009, en ligne (en anglais) et gratuit sur :
    http://content.nejm.org/cgi/content/full/NEJMp0903906
    Ou bien les figures uniquement (sans le texte), des mêmes auteurs : http://content.nejm.org/cgi/content-nw/full/360/25/2595/F1

    Nota : Comme en 1969, il persiste actuellement une circulation concomitante de virus grippaux de type B qui ne semblent pas affectés par l’émergence de la souche pandémique A(H1N1). Les antigènes de cette souche B circulante étaient dans la composition vaccinale saisonnière administrée en septembre 2009.

  14. Non Bernard ce n’est pas ce que je dis !

    Tout d’abord : l’hypothèse de normalité peut être soumise à un test statistique. C’est tout ce qui est mathématiquement acceptable !
    Quand j’assimile une courbe de Gauss je considère ses principales propriétés : courbes symetriques avec une liaision certaine entre le sommet, ses points d’inflexion, et le coefficient d’aplatissemebnt, en fonction de seulement deux paramètres.

    Le point dont je parle n’est pas le point d’inflexion ! Il n’est pas forcement à l’abscisse m-s, ni m-2s…

    Le point où démarre une augmentation rapide de l’angle de la tangente n’est pas le point où elle traverse la courbe, définition du point d’inflexion. Il est bien à gauche du point d’inflexion. Donc pas obtenu avec la dérivée seconde.

    Le point dont je parle se définit à partir de celui d’une loi N(0,1) pas par une simple translation, mais bien par un déplacement : une translation et une homothétie . A condition qu’on ait su le définir pour une N(0,1) !

    Ce point n’est pas sur l’axe mais sur la courbe, c’est un point de RxR dont l’abscisse n’est pas m-s et dont l’ordonnée est en liaison avec l’aplatissement, donc bien une homothétie, puisque pour passer du maximum d’une N(0,1) au maximum d’une N(a, b) il faut une homothétie !
    On ne peut l’atteindre qu’à partir d’une dérivée troisième ou quatrième: c’est le point « d’accélération de l’accélération »
    De plus théoriquement il va poser un problème car il faut définir mathématiquement ce concept de « début de la forte montée » et l’intégrer dans l’étude de la dérivée troisième qui risque de nécessiter la dérivée quatrième. Alors bonjour les calculs avec au départ une exponentielle.

    Ce point existe, il suffit, en pratique d’en trouver une évaluation.

    Quid des tables de la loi Normale ! Ce n’est pas là le problème on a des ordinateurs, OK.

    Mais si la loi de la VA étudiée n’est pas normale, à n fini plus de F de Ficher, plus de T de Student, plus d’utilisation du coef. de corrélation, grosses difficultés pour calculer la loi d’un carré de variable aléatoire (exit le chi2), donc exit les plans d’expérience….grosse difficultés pour additionner des variables aléatoires, étudier certains types de fonctions de variables aléatoires (non linéaires), difficulté en régression non linéaire…plus de tests statistique classiques…
    Sans loi normale au départ la quasi totalité des résultats de la statistique dite paramétrique ne sont plus démontrables.
    Seule la statistique non paramétrique n’utilise pas la loi normale.

    Je parle de statistique mathématique pas d’analyse des données.

    Alors lorsque vous dites : « Oui, on peut s’affranchir de la tyrannie pesante et dangereuse de la loi normale !!! Et on y a tout intérêt. »
    Je ne peux vous dire non, vous faites ce que vous voulez, mais vous n’avez plus à votre disposition tous les outils énoncés si-dessus.
    C’est ce qui est fait en analyse des données…les résultats sont ce qu’ils sont.

    En ce qui concerne l’estimation des cas au cours des différentes semaines si l’on veut conserver une démarche probabiliste il n’y a qu’un type de modèle possible.
    On considère qu’il s’agit d’une fonction aléatoire dont on veut estimer l’espérance mathématique au temps t.
    Et là deux alternatives
    a) on utilise les processus aléatoires comme le fait le professeur Flahault
    b) on utilise une technique d’estimation statistique (avec intervalles de confiance) à partir des observations passées, on obtient un début de courbe, avec toutes les précautions que j’ai déjà énumérées et on fait une extrapolation pour obtenir le point suivant.

    Pour faire une extrapolation il faut avoir l’équation de la courbe (sa forme) et on estime ses paramètres avec les informations dont on dispose.
    Quand on fait une extrapolation pas possible d’attribuer une probabilité d’occurrence au résultat obtenu.
    Avoir dit qu’il s’agit d’une fonction aléatoire signifie de facto que l’on considère que l’on ne sais pas appréhender le problème réel, donc qu’on le considère comme dû au hasard et que l’on va appliquer les règles mathématiques de gestion du hasard.
    C’est épouvantable à faire tel quel.

    En respectant ce schéma, si l’on suppose à priori une courbe symétrique du type loi normale on a une approche réaliste mais beaucoup plus facile, tout simplement réalisable.
    Ce n’est pas un brillant modèle mais il présente les choses de façon un peu plus lisible, ce qui est la seule utilité d’un modèle : présenter l’information autrement pour aider à une prise de décision.
    On ne démontre rien avec un modèle probabiliste, on ouvre simplement des pistes de réflexion.

    Les modèles non probabilistes je ne connais pas.
    Pour moi utiliser un modèle déterministe c’est dire que le hasard n’intervient pas , donc que l’on maîtrise le sujet.
    Alors pourquoi faire un modèle ?

  15. Jean, j’avais bien compris que votre point n’était pas le point d’inflexion. Mais si la répartition n’est pas normale et que vous supposez qu’elle l’est pour le positionner, ça peut poser des problèmes, non ? Je posais donc celui de la vérification de la normalité.

    En fait, et vos explications le confirment bien, avec la loi normale on dispose d’une Ferrari avec toute une équipe de mécaniciens autour. Pour s’en servir on décide que la route est un circuit de formule 1 sinon exit les belles performances et le ravitaillement aux stands. Très bien ! Sauf que on est sur une piste forestière défoncée dont on ignore tout du parcours…

    A quoi peut servir un modèle comme le mien ? Y constatant que le pic suit la semaine de plus haute progression et ayant constaté que cela pouvait se vérifier assez souvent sur le terrain, le mercredi qui suivait la semaine 48 et où les données Sentinelles et GROG montraient un ralentissement de la croissance de l’épidémie (même avec le 993 000), on pouvait penser que le pic était atteint et le cas échéant gagner une bouteille de champagne à boire le soir de Noël au lieu d’être devant l’ordinateur !!!

  16. Pour Gyuran.

    En allant sur : http://www.flutrackers.com/forum/archive/index.php/t-9245.html

    vous trouverez des indications sur 1918 intéressantes

    A paris :
    15-21 septembre 1918 : 64 morts
    6-12 octobre 1918 : 616 morts
    puis 1046, 1473, 1329, ..

    Des chiffres qui correspondent très bien aux courbes…

« »