Plus le temps passe, plus la pandémie avance et plus ceux qui se passionnent pour ce phénomène sont sans cesse tentés de dresser de premiers bilans. Etonnante course-poursuite qui voit une continuelle efflorescence de prises de parole venir commenter en direct les derniers faits en date. Comment ne pas comprendre ces commentateurs puisque nous faisons bel et bien partie du peloton?
Pour ce qui nous concerne, il y eut le baptême de l’esquif — fin mai (sept mois déjà!) — avec le projet de l’écriture d’un journal de bord «papier» du phénomène pandémique; entreprise suicidaire sans la précieuse boussole d’Antoine Flahault — doublée de ses cartes sanitaires et de ses phares épidémiologiques. Une aventure initialement bien incertaine mais soutenue mordicus par les éditions Plon.
Hasard ou fatalité, la Toile devait bientôt prendre, tout naturellement, le relais du livre grâce au havre de Slate.fr. Avec – pour ce qui me concerne- cette (certes bien tardive) mais redoutable découverte qu’est l’émergence des «commentaires» sur un «Blog»… Trois décennies – depuis la rue des Italiens… — à classer des «lettres de lecteurs », rarement recommandées, souvent intéressantes, avant d’entrer dans l’arène de l’immédiateté écrite. Répondre à chacun au risque de se perdre? Ne répondre à personne au risque de passer pour un hautain à jamais inaccessible? Faire savoir –mais comment – que nous ne sommes ni l’un ni l’autre?
Les lumières et les gentilles cruautés de la Toile et de ses Blogs en somme. Avec en prime l’émerveillement quotidien de l’arborescence qui la définit et qu’elle génère tout à la fois. Découverte des commentaires suscités par notre Blog ; lectures automatiques pour enregistrements ultérieurs ; nouveaux billets postés… Forum? Agora moderne? Comment savoir? Dans d’autres lieux on aurait peut-être, jadis, parlé de barrique perpétuelle et de part des anges.
Bien évidemment, rien n’est simple avec la Toile et ce tonneau moderne et planétaire des Danaïdes. Blogosphère, rumeurs en échos perpétuels, vésanie, raison parfois déraisonnante et contagieuse… Et puis ces commentaires; commentaires foisonnants (plus de 800 validés) dont on connaîtra peut-être, un jour futur, sinon l’identité du moins le visage des auteurs.
La Toile, donc. La Toile révélatrice, ses mots, ses outrances et ses liens. Comme celui que nous transmet Antoine Flahault. Un lien qui renvoie au site Atoute.org; site qui propose des forums médicaux et des articles sur la pratique, l’enseignement et l’éthique de la médecine. Site aussi et surtout qui phosphore de manière bien utile, bien originale, sur la stratégie de réponse gouvernementale à la pandémie.
L’auteur n’avance pas masqué:
Dr Dominique Dupagne. Je suis un médecin français. J’ai créé ce site seul et j’ai été progressivement rejoint par d’autres bénévoles intéressés par son exigence de qualité, qui se retrouvaient dans l’esprit du site. Il s’agit majoritairement de femmes. J’exerce à Paris et j’ai d’autres activités que mon cabinet de médecin généraliste : enseignement de la médecine générale à Paris VI, consultant dans l’édition médicale , membre du Formindep. Le site est déclaré à la CNIL sous le numéro 722655. Adresse légale : Dr Dupagne 2 rue de Phalsbourg 75017 Paris.
Dont acte. Bonne fin d’année 2009.
Jean-Yves Nau
Les sirènes médiatiques de l’instantané
L’an 2009 arrive à son terme et, en France, la vague épidémique automnale redescend doucement. Elle est presque passée sous le seuil épidémique aux USA.
Avec elle, sagement, la vague médiatique reflue également. L’actualité reprend de «l’infodiversité» : la réhospitalisation de Johnny Hallyday ; un Boeing 737 rompu en trois segments sur un tarmac lointain ; un attentat avorté sur un vol Amsterdam-Detroit… Derniers soubresauts de la pandémie donc -au moins momentanément- et ce n’est que respiration.
Aurons-nous une seconde vague dans les semaines à venir ? Verrons-nous nos anciens virus saisonniers reprendre du service avec l’hiver? Ces questions aujourd’hui sans réponse experte de part le monde suscitent les interrogations de bien des blogueurs dynamiques et prolixes (souvent forts en thème et en mathématiques) qui ont investi ce blog et semblent bien s’y sentir. A notre grand bonheur, il est vrai, et aussi à notre surprise, car ni l’un ni l’autre, ni le journaliste-médecin, ni l’épidémiologiste n’étions rompus à cet exercice. L’université ne nous y prépare pas. L’hôpital non plus. Mais la société nous y invite aujourd’hui.
Avons-nous cédé aux sirènes médiatiques de l’instantané? Certainement. Avons-nous eu le recul nécessaire pour analyser la situation et son évolution émaillée de rebonds et d’inconnues ? Certainement pas. Les « risques » que nous avons pris ne sont guère importants ni même intéressants, et nous les avons partagés avec nos co-blogueurs qui, comme nous, se sont jetés à l’eau ; une eau parfois glacée, parfois bouillante.
Depuis 7 mois, un millier de personnes ont été hospitalisées en France dans des services de soins intensifs à cause de ce virus H1N1pdm. C’est considérable, car ce n’était pas du tout ce qui était observé durant les saisons précédentes (rappelons-nous des 5 cas de syndromes de détresse respiratoire aigües enregistrés chaque année depuis 5 ans dans les bases du PMSI, système d’information hospitalier national). A l’heure où nous écrivons ces lignes, plus de 200 sont encore hospitalisées, la grande majorité survivra heureusement, mais le taux de mortalité indiqué par l’InVS a été de 15% chez les patients hospitalisés en soins intensifs, ce qui reste très préoccupant. Pour eux, pour leurs proches, et pour les personnels soignants qui en auront la charge pendant ces « fêtes », il n’y aura pas cette année de trêve des confiseurs.
Ce dernier billet de l’année sur notre blog, en ce lendemain de Noël, nous leur dédions.
Antoine Flahault
Il y a des choses qui ne s’apprennent pas à l’université nous dit Antoine Flahault. Oui, en particulier l’échange entre les disciplines. Elle en parle depuis longtemps mais une administration lourde est incapable de le mettre en œuvre.
Ce blog permet des échanges entre gens de formations très différentes et c’est sans doute assez nouveau. C’est plus facile quand on ne représente que soi-même. Dès qu’on sent au dessus de ses épaules la pesanteur d’une discipline ou d’une institution on est paralysé.
Bonjour Jean-Yves, je vous lisais quand j’étais étudiant. Merci pour cette citation. Votre éveil à la “culture 2.0” est touchante; votre capacité d’adaptation à ce média “bouleversant” vous honore.
Cela faisait plusieurs semaines que j’hésitais à vous faire une remarque ; vous m’en donnez l’occasion :
Votre titre n’est pas le bon. Ce n’est pas le “Journal de la Pandémie 2.0”, mais le “Journal 2.0 de la Pandémie”. La pandémie est finalement bien banale. Si cette grippe n’est pas un grippette, la pandémie est bien une pandémiette. En revanche, la rupture avec le passé se situe dans la communication qui l’entoure, rupture symbolisée par le terme 2.0
Ce n’est pas une grippette vu la mortalité faible mais bien supérieure à celle des autres virus pour la tranche d’âge 14-65 ans et notamment chez les pas à risque.
Mais est-ce une « pandemiette » pour autant ?
Pas sûr !
L’étude réalisée sur les femmes enceintes, en France faisait ressortir un taux de 10% de personnes de la classe concernée atteintes par le H1N1. Ce chiffre est un petit minimum, à mon avis de celui qui concernera la population totale d’ici juin :
a) même dans cette classe il va augmenter d’ici l’été
b) les autres classes et particulièrement les enfants ont vraisemblablement des taux bien plus élevés car ils ont pris moins de précautions…
c) il faudra évaluer correctement le pourcentage chez les plus de 65 ans à l’avenir…surtout si risque de glissement du virus.
On nous présente la grippe de 1918/1918 comme le modèle de la pandémie catastrophique : taux d’attaque de l’ordre de 50% évalué avec les moyens de l’époque…et attribués au H1N1 alors que plein d’autres copains étaient là aussi, avec une ribambelle de bacilles, bactéries et autres microbes. Quand on lit les textes de l’époque…
Alors un taux de 30% pour le H1N1 (cas constatés + asymptomatiques + paucisymptomatiques) on le classe comment, si bien sûr on peut affirmer que c’est l’œuvre du H1N1 2009 ?
Le pic a peine passé, le délire a commencé sur le Net ! Les experts en prennent pour leur grade !
Et cette cacophonie va s’amplifier…
Il me parait urgent de définir objectivement ce qu’est une pandémie et une deuxième vague.
Ceci parce que l’on va voir l’affrontement
Grippette + Pandemiette contre Risque de Deuxième Vague.
Et quand on sait que les journalistes ne se distinguent pas par leur quantité de matière grise sous le crane…
A mon avis (pas humble) ce n’est pas une grippette, pas une pandemiette et il n’y aura pas sauf mutation importante une deuxième vague meurtrière.
Donc, à l’avenir, des débats ubuesques, sans fondements scientifiques où le jeu consistera à se montrer plus bête et ridicule que l’adversaire.
Pire que le débat des pro et anti vaccination…
L’année s’achèvera bientôt et comme la fin d’un film, cette pandémie;
Peut on attendre des rebondissements ou bien assisterons nous aux analyses et aux inévitables réglements de comptes, car il faudra des fautifs à châtier;c’est classique!
Il me semble qu’il n’est pas simple avec toutes les connaissances, de prévoir ,de savoir avec certitude comment les événements de cette pandémie pouvaient tourner.
Sur ce blog,nous tous intervenants somment d’univers et formations différentes et il n’est pas toujours simple,pour ma part,de comprendre toutes les interventions par manque de connaissances.C’est parfois hérmétique.
Globalement,je constate qu’il est difficile d’avoir des idées sur tout ,et que les problèmes ne sont pas si simples qu’ils ne paraissent à première vue.Que l’expert comprend mieux car il est spécialisé et connait donc bien mieux les détails des choses.Cela aide t-il à mieux prévoir?Pas toujours.Les discussions entre eux peuvent être plus pointus mais arrivons nous à des réponses justes?et au réglements des problèmes?
Je vois aussi que la science n’est pas un dieu et que les limites existent comme dans toutes choses;c’est rassurant de savoir que tout n’est pas maitrisable.C’est un espace de liberté qui met du monde au même niveau.
Je crois aussi qu’à travers ce blog s’ ouvrent d’autres discussions bien plus vastes que la pandémie,elle même:c’est le reflet de toute une société qui doit un jour s’ aborder elle mème!Pour muter!
A vous!bonsoir!
Merci pour ces informations récentes sur cette “pandémie”
Gael
Je ne comprends pas d’où sortent le chiffre de 5 hospitalisation annuelles pour grippe saisonnière, quand on sait que le dernier rapport annuel du réseau Sentinelles fait état d’un taux de 0,1% d’hospitalisation pour 3 millions de cas estimés de grippes symptomatiques, dont 50% pour affections respiratoires.
Donc selon le réseau Sentinelles, il y aurait annuellement 3000 hospitalisations pour grippe, dont 1500 pour affections respiratoires.
Comment ce chiffre de 1500 hospitalisations estimé par le réseau Sentinelles devient 5 hospitalisations dans cette base hospitalière ????
Petit retour en arrière au sujet du pic épidémique en France.
D’après les dernières courbes de INVS le pic est toujours donné en semaine 48-49.
Mais au regard des commentaires de ReverendFR (cette grippe plus ou moins meurtrière du 19 décembre 2009) je me suis penché sur nos courbes, celles des Belges et des USA.
Force est de constater que le pic virologique influenzae et H1N1 en France, est survenu en semaine 47
semaine nbre prélev influenzae+ h1n1 + %h1n1
46 4409 1679 1584 38,08% 35,93%
47 7510 3346 3199 44,55% 42,60%
48 8752 3746 3554 42,80% 40,61%
49 8245 3190 3009 38,69% 36,49%
50 4587 1531 1495 33,38% 32,59%
51 4984 1279 1212 25,66% 24,32%
De plus d’après le dernier rapport de INVS le pic de mortalité et d’hospitalisation a eu lieu en semaine 48. Enfin la séroprévalence a montré un pic en semaine 48-49 mais il faut 15 j pour obtenir une séroconversion soit un pic théorique en semaine 46-47.
Donc au plus tard le pic est en semaine 48 et comme la dit ReverendFR il semblerait que ce soit plus en semaine 47 ce qui correspondrait avec la séroprévalence.
Les données sentinelles ne sont donc pas cohérentes et cela me rappelle la règle par 9 que j’ai apprise à l’école communale. Il est toujours nécessaire de vérifier si nos prévisions sont cohérentes. Alors même si les chiffres sentinelles ne disent pas, si il s’agit de grippe H1N1 on voit à travers le suivi virologique un pic en semaine 47 des virus grippaux. Donc Mr Rabat le modèle mathématique utilisé par le réseau sentinelles n’est pas pertinent.
Examinons si le raisonnement résiste à l’expérience de terrain ailleurs. D’après les données de INVS tiré du rapport intitulé : « A (H1N1) 2009 Irlande , Belgique point épidémiologique 06 décembre 2009 » on voit qu’en Irlande le pic virologique H1N1 a été atteint en semaine 43 de même que le pic des syndromes grippaux.
En Belgique le pic des syndromes grippaux a été atteint en semaine 44 de même pour le nombre de décès et le nombre d’hospitalisations pour cas graves, avec un pic virologique toutes grippes confondues en semaine 44.
semaine % Influenza % A/H1v
44 73% 57%
45 69% 58%
46 51% 42%
47 41% 36%
Au USA le pic virologique influenzae et H1N1 a eu lieu en semaine 42. Le pic des hospitalisations graves a eu lieu en semaine 43 ainsi que le pic des décès. Enfin le pic des syndromes grippaux clinique a eu lieu en semaine 43.
Donc dans ces 3 pays, entre le pic virologique des grippes et le pic des syndromes cliniques grippaux , soit il n’y a pas d’écart soit il est au maximum d’1 semaine. Par conséquent les commentaires fait pour la France sont valides. Les chiffres du réseau GROG et Sentinelle ne rendent pas compte des données de terrain et le pic devrait être en semaine 47 ou 48. D’ailleurs Mr Guennebaud avait mis en évidence la plus forte progression en semaine 46 -47.
Diable on est meilleur que les experts de INVS : BRAVO à nous. Alors à quand un rectificatif de la part de INVS au vu de l’expérience des autres pays et une subvention pour les chercheurs isolés ; moi je me contenterais de boire une bière ensemble quelque part au frais de Mme Bachelot. Messieurs Flahaut et Nau vous êtes des nôtres bien sûr.
A votre santé et bonne année.
Mon cher Gyuran,
Je regrette mais vos chiffres qui ne sont, de fait, que des estimations ne valent RIEN!!!
Ils ne sont pas assortis d’un intervalle de confiance qui serait sans doute révélateur de leur manque total de fiabilité.
Démontrez-moi que 42, 60% est sigificativement différent de 40,61%, ou même de 36,49%.
Pour faire de la “littérature” ces chiffres sont sûrement amusants.
Pour une démonstration rentrant dans le “scientiquement correct” ils sont inacceptables.
Mais vous n’êtes pas obligé de me croire…après tout je ne connais rien à la médecine.
Par contre il est certain que les modèles de Sentinelle sont “scientifiquement corrects” .
Il semble que Sentinelles parle d’intervalles de prédiction et non de confiance. Ces derniers se construisent à partir d’une loi de probabilité alors que Sentinelles fait de la météo en s’appuyant sur les données des 10 années précédentes, je crois, et construit ces intervalles à partir de ces données.
Le procédé ne peut sans doute pas permettre de gérer correctement un événement se développant de façon nouvelle par rapport aux années passées. Il faut sans doute, là aussi, se montrer prudent.
Pour la localisation du moment du fameux pic il n’est pas interdit de penser que même si les données GROG ont pu subir un traitement “orienté” il n’a pas forcément modifié considérablement le moment du pic même si l’amplitude en a été boostée.
L’idée que je chercherai à tester dans l’avenir -une année plus calme où les chiffres seront moins “sous pression”- sera que le pic suit de peu le moment de la plus grande progression, c’est à dire peu après l’inflexion de la courbe, alors que le modèle “loi normale” donne un délai nettement plus long après cette inflexion.
Derrière cela il y a la question importante, on en a déjà parlé, de savoir si on peut modéliser ou non par une loi normale.
Tout d’abord il faut préciser les choses au sujet des chiffres. Ils n ‘appartiennent pas plus à moi qu’a quiconque. Pour être précis on attribue les chiffres au réseau Sentinelle et au réseau Grog. Ils sont tirés d’un document compilé par INVS et mis à disposition de tous.
En zététique (voir les ouvrages de Henri BROCHProfesseur à l’Université de Nice-Sophia AntipolisDirecteur du Laboratoire de Zététique) on parle d’effet bi-standard quand on change les règles en cours , déjà pratiquée par OMS en avril lors du changement de définition de la grippe pandémique, on que l’on applique 2 règles différentes pour la même chose.
Or les chiffres de INVS du Grog ou sentinelle ne sont que des représentations d’un phénomène. On peut dire qu’ils nous servent de carte.Mais ils ne sont pas le territoire. Bien entendu on est en droit de demander l’intervalle de confiance des séries comme celle de INVS portant sur le taux de positivité H1N1 des tests viraux. Ceci s’applique aussi aux chiffres sentinelles concernant l’incidence des cas de grippe. Par conséquent Mr Rabat y a t’il vraiment une différence entre le nombre de la semaine 48 et celui de la semaine 49?
Quoiqu’il en soi par convention on prend la moyenne et c’est mieux que de ne rien dire je pense. Enfin par définition le pic et le point le plus haut. Donc d’après les chiffres attribués au réseau sentinelles lu dans les dossiers de INVS le pic est en semaine 49. Mais c’est incohérent au regard par exemple du nombre maximum de personnes hospitalisés pour cas graves en France qui lui est en semaine 48. Là on parle de malades on est au niveau du “territoire” ce n’est plus du théorique ou de l’échantillonnage. Comment expliquez vous qu’il y a ai moins de personnes hospitalisées après la semaine 48 alors qu’il y a aurait eu plus de malades de la grippe d’après le modèle mathématique du réseau sentinelle?
Maintenant que les chiffres sentinelles soient correctes mathématiquement je n’en doute pas . Pas plus que les pourcentages que je donne d’ailleurs. ce que je conteste c’est leur soit disant adéquation avec ce qui se passe sur le terrain.
Les mêmes chiffres dans les autres pays sont soumis au même aléas statistiques et pourtant sont cohérents avec le terrain . C’est ainsi. Toujours en référence au “rasoir d’ockham ” il est plus simple de poser que les chiffres attribués au réseau sentinelle sont erronés; soit 1 seule hypothèse que de postuler l’inverse.
Il me semble donc, qu’il y a déni de la réalité. Y a t’il un conflit d’intérêt ?
PS pour Mr Guennebaud:cEn téléchargeant le dossier sentinelle des 3 dernières semaines on peut lire en légende:
incid.
Taux d’incidence
inf.
Borne inférieure de l’intervalle de confiance
sup.
Borne supérieure de l’intervalle de confiance
min.
Valeur minimale pour la semaine de référence depuis 1984
max.
Valeur maximale pour la semaine de référence depuis 1984
On parle donc bien d’intervalle de confiance pour les chifffres sentinelles.
Il est exact, Gyuran, qu’en page 3 des bulletins Sentinelles la légende parle d’intervalle de confiance. C’est pour l’estimation du nombre de cas pour la semaine en cours en s’appuyant sur les données observées. On lit par exemple, pour la semaine 52 : le taux observé de 322 pour 100 000 auquel on associe un intervalle de confiance [282 362]. Il est sans doute calculé à partir de la taille de l’échantillon d’observation.
Comme vous le rappelez, ils donnent aussi les valeurs minimales et maximales observées les années précédentes : 21 et 1035. On peut d’ailleurs noter l’écart énorme. A partir de là ils définissent un intervalle dit de prédiction en éliminant les valeurs les plus faibles et les plus fortes (5% de chaque côté) pour obtenir un intervalle dit de prédiction à 90%.
On trouve ce terme page 1 du bulletin :
« Ainsi pour la semaine 52, le nombre de consultations attribuables à la grippe parmi les consultations pour syndromes grippaux est estimé à 136 000, [intervalle de prédiction à 90 % : 91 000 ; 181 000]. Cette estimation est en diminution par rapport à celle de la semaine précédente (185 200 en semaine 51, données consolidées au 28 décembre). »
De plus, dans la description de la méthode utilisée c’est bien le terme intervalle de prédiction qui est utilisé :
websenti.u707.jussieu.fr/sentiweb/?page=methodes&txt=430 (ajouter http:… sans les w)
« L’estimation de la ligne de base est assortie d’un intervalle dans lequel les incidences observées quand il n’y a pas de circulation grippale ont 90% de chances de se trouver (intervalle de prédiction à 90% : IP90%). Ainsi, lorsqu’une incidence est observée au dessus de cet intervalle : soit c’est une incidence non due à la grippe qui avait une probabilité de moins de 5% de se trouver là, soit c’est une incidence due à la grippe. La règle du Réseau Sentinelles est de confirmer l’arrivée de l’épidémie de grippe quand deux observations successives dépassent la borne supérieure de l’intervalle de prédiction. »
L’un des rôles de cet intervalle de prédiction semble donc être de prédire l’existence de l’épidémie en tenant compte des observations des années passées. Quel est son rôle par rapport aux IC données pour les taux ? C’est pas encore très clair pour moi mais tous ces échanges peuvent permettre d’avancer en mettant nos incompétences en commun !
Jusqu’à quel point faut-il tenir compte des intervalles de prédiction pour localiser le pic avec sécurité plutôt que de tenir compte uniquement des intervalles de confiance sur les taux qui eux sont de l’année en cours ? La logique voudrait, il me semble, qu’on ne tienne compte que des chiffres de l’année, mais, pour les données globales corrigées, le bulletin donne l’intervalle de prédiction [91000 181000] pour la valeur ”centrale” 136000 et non un IC à partir des données de l’année.
Le problème ne paraît donc pas être tant entre un IC et un IP mais entre “ne prendre que les données en cours” ou s’appuyer aussi sur celles des années précédentes.
L’idée de regarder aussi le pic des hospitalisations me parait en effet judicieux car les chiffres sont sans doute beaucoup plus fiables et sont pratiquement exhaustifs ? Surtout s’il est acquis que les cas graves apparaissent dans les jours qui suivent le début de la maladie et non pas 15 jours après.
Mon cher Gyuran, j’ai expliqué le 24 décembre sur le spot “Cette grippe plus et moins meutrière”, pourquoi le pic était, pour Sentinelle, obligatoirement sur les semaines 48 et 49, dont les nombres de cas ,ne sont pas statistiquement différents.
C’est tout ce que l’on peut faire mathématiquement parlant.
Par contre vous pouvez, à partir de considérations d’ordre médical, le positionner quelque part entre le 23 novembre et le 6 décembre.
Bonne remarque Guennebaud.
Il n’empêche que si c’est un intervalle de prédiction, il permet quand même d’établir une “règle de comparaison” des données, et donc de tracer un graphe (au sens mathématique).
Bien sûr il faut alors poser l’hypothèse que en 2009 les choses se reproduisent comme sur les années précédentes, ce qui, pour le nombre de consultations cliniques, n’a aucune raison de ne pas être le cas.
Les médecins sentinelle n’ont rien changé sur le terrain.
Sous cette hypothèse on peut traiter un intervalle de prédiction comme un intervalle de confiance pour concevoir un graphe, puisque alors la mesure de 2009 est considérée comme issue de la même population parente que les autres. C’est ce qui est fait pour la courbe qui symbolise le seuil épidémique (je crois)
Ce que j’ai utilisé c’est bien les intervalles de confiance qu’ils reportent sur le tracé de leur courbe concernant le nombre de cas par semaine.
L’IP concerne la courbe dite seuil épidémique, l’IC concerne l’estimation faite chaque semaine pour le nombre de cas.
Logique, un IC est toujours lié à une estimation, un IP à une prévision.
Si on a deux semaines consécutives un nombre de cas observé au dessus de l’IP on considère que l’épidémie a commencé.
A mon avis pour affirmer que l’on est au dessus de l’IP il faut s’assurer que l’on a un résultat fiable. Pour cela on vérifie que son IC est du même type que les IC des semaines précédentes. Voilà pourquoi, ici, il faut impérativement pour valider des estimations avoir toujours leur IC.
Ce qui est sûr c’est qu’il faut ajuster sur une exponentielle, du fait de la définition du processus de contagion.
Si on décide que son exposant est un polynôme du premier degré, pas de loi normale, mais on ne peut simuler que la montée , pas de pic , pas de redescente.
Si on décide d’un polynôme du second degré, quelle est l’écriture du dit polynôme qui représente mieux et plus simplement les choses qu’une loi normale ?
On a là un polynôme du second degré qui donne une montée, un pic, une redescente, le tout caractérisé seulement avec deux paramètres dont on connaît la signification.
Donc moins de problèmes en terme d’estimation, car nous connaissons pour ces paramètres deux estimateurs convergents et sans biais.
Si l’on prend un autre polynôme on n’aura pas la possibilité d’en estimer correctement les paramètres, à moins que l’on montre l’existence d’estimateurs convergents et sans biais.
Alors si l’on a, de visu, une meilleure approximation de la courbe expérimentale, on ne pourra pas évaluer, ni même parler, de « fiabilité » du modèle, puisque l’on ne pourra porter de jugement de valeur sur les méthodes d’estimation des paramètres.
C’est la difficulté que l’on rencontre lors de simulation non probabiliste, mais aussi bien souvent en analyse des données qui n’a plus grand chose à voir avec l’analyse stochastique..
Le troisième degré est beaucoup trop compliqué.
Personnellement je l’assimile à une loi normale par défaut ! J’ai rien de mieux, si je veux rester dans l’optique de la statistique mathématique tout en étant le plus simple possible.
Il est clair qu’en réalité il n’y a pas de symétrie parfaite, mais est-ce bien là une cause d’erreur grave ?
Avec un modèle on présente autrement l’information. Soit on a un modèle simple qui permet à un grand nombre d’échanger, soit un modèle plus complexe. Mais s’il est aussi obscur que les données brutes quel est son intérêt ?
Comment celui qui a utilisé le modèle fera-t-il comprendre à ses « commanditaires » la signification des résultats si ces derniers sont dépassés…
L’exemple type est ce que l’on voit sur la toile aujourd’hui : on traite de « prophète de malheur » celui qui a appliqué un modèle probabiliste on ne peut plus sérieux et en a indiqué les réponses.
Alors, ou on fait un travail sophistiqué pour répondre aux attentes des décideurs, ou on fait un travail plus didactique pour un autre public.
On pourrait essayer d’ajuster peut-être sur des lois Gamma. Mais qui, sur ce blog, va savoir de quoi il retourne ? Début à 0, une montée, un pic , une descente plus lente…Sans doute mieux que la loi de Gauss, mais d’une utilisation épouvantable et quelle est la signification exacte des paramètres ?
Alors qu’une courbe de Gauss tout le monde connaît et peut suivre des explications somme toute relativement proche du « mieux ».
Jean, merci pour ces explications. Ma façon d’aborder le problème est totalement différente de la vôtre. Au point où nous en sommes je crois utile de vous exposer ”mon” modèle qui résulte d’une mise en équation sous des hypothèses bien précises et que j’enseignais à mes étudiants il y a plus de 15 ans, ce qui permettait aussi de faire des maths.
Il y a 2 variables : M le nombre de malades (contagieux avec ou sans symptômes) au temps n et S le nombre d’immunisés par la maladie au temps n, c’est à dire la somme des nombres de malades depuis le début jusqu’au temps n-1 (pas de décès pour simplifier). Il s’agit de calculer le nombre moyen M’ de malades et d’immunisés S’ au temps n+1. On a aussitôt S’=S+M (on suppose les malades immunisés au bout d’un temps 1). Pour M’ c’est plus compliqué :
Soit P la taille de la population dans laquelle l’épidémie se propage de façon aléatoire, chaque contagieux contaminant C personnes ( nombre noté R0 par les épidémiologistes). Un individu i aura la probabilité C/P (ou plutôt P-1 en excluant le contaminant qui ne se contamine pas lui-même) d’être contaminé par un contaminant m donné. Et donc la proba 1-C/P=K de ne pas être contaminé par m. Soit la proba K^M (K puissance M) de n’être contaminé par aucun des M contagieux (indépendance des contaminations). Soit donc la proba 1-K^M que l’individu i soit contaminé par l’un au moins des M contagieux.
Reste à évaluer le nombre d’individus qui deviendront contagieux s’ils sont contaminés. R désignera le nombre d’individus résistants au départ (ou au temps n, par exemple après vaccination). Le nombre recherché sera alors P-R-S-M, les malades en cours guérissant de la même façon s’ils sont recontaminés. On a alors M’=(1-K^M)(P-R-S-M) qui est la valeur moyenne qu’il ne faut pas arrondir dans les calculs.
On suppose donc aussi que les contagieux au temps n ne le sont plus au temps n+1. Il est possible d’écrire les équations quand ils sont contagieux pendant plusieurs durées d’incubation.
Exemple avec P=1000, R=0, C=2 et les conditions initiales au temps 0 : M=1 et S=0. On a pour M la séquence (arrondie) : 2, 4, 8, 15, 30, 54, 91, 133, 154, 135, 88, 46, 21, 9, 4, 2, 0,6 soit 0 au temps 17. L’épidémie s’éteint avec 797 immunisés soit 79,7% alors que la barrière d’immunité est à 50%. Le pic est atteint au temps 9 avec 338 immunisés avec en plus les 154 contagieux cela fait 492 exclus soit sensiblement moins que les 500 ”nécessaires” pour entamer la décrue. Cela est lié au fait qu’avec 15,4% de contagieux il y aura sensiblement moins de 154×2 contaminés, des malades différents pouvant contaminer la même personne, ce que gère ma formule pas si compliquée.
La séquence ”dérivée”, c’est à dire la suite des différences est 1, 2, 4, 7, 15, 24, 37, 42, 21, -19, -47, -42, -25, -12, -5, -2, 0. On constate d’une part que le pic suit immédiatement la plus grande croissance (+42 suivi de +21 : inflexion de la courbe), d’autre part l’absence de symétrie, phénomène logique en raison de l’immunisation progressive de la population (faire correspondre 21 avec -19, 42 avec -47 etc).
Bien sûr, les hypothèses ne sont pas satisfaites sur l’ensemble de la France ! Mais on peut envisager que la population puisse se répartir en sous-groupes non disjoints et de petites tailles où les hypothèses seront à peu près satisfaites. D’où la possibilité que certaines propriétés qualitatives se transportent sur la résultante. En particulier l’existence d’un pic et l’absence de symétrie qui sont liés à l’immunisation.
Sans immunisation il suffit de supprimer S dans la formule et c’est très différent : M croit constamment pour tendre vers une valeur limite indépendante de la conditions initiale; pas de pic ni donc de décroissance; l’épidémie atteint un régime de croisière et s’y maintient avec un nombre moyen constant de malades.
Il y a aussi cette propriété : le pic suit immédiatement l’inflexion. Il y a des raisons pour qu’elle ne se maintienne pas forcément quand on a des résultats globaux sur une vaste population non homogène. Il y a pour cela des débuts d’épidémie décalés et des groupes de tailles différentes, 2 raisons qui décalent le moment du pic. Si on cumule de telles séquences en les décalant et avec des valeurs sensiblement différentes pour P ça peut donner à première vue toutes sortes de résultats !
Néanmoins, un coup d’œil sur les courbes Google montre que des propriétés semblent être assez souvent maintenues. En particulier, le moment du pic après l’inflexion : on peut l’admettre pour cette année et c’était pratiquement la même courbe en 2003-2004. Donc pour moi c’est une affaire à suivre…
J’ai comparé rapidement par région les incidences Sentinelles entre la semaine 48 et 49. On constate que l’incidence diminue par exemple pour l’Alsace (1455 à 1194), le Languedoc (1221 à 1158), la Bourgogne (631 à 478), la Corse (787 à 351). Par contre, elle augmente pour le Limousin (1428 à 1987), Rhône-Alpes (1119 à 1563) par exemple.
Dans ces conditions, discuter pour savoir si le pic pour la France était en 48 ou 49 me paraît un peu stérile. Il y a d’abord, je dirais plus fondamentalement, un décalage dans la propagation qui paraît très visible au niveau des régions.
Avec de la patience on pourrait au moins comparer les variations des courbes région par région. Le site Sentinelles le propose avec des cartes coloriées mais…Je l’ai déjà dit plusieurs fois ici, je suis plutôt partisan de dissocier les données que de les cumuler. On pourrait y voir une confirmation de cette nécessité.
J’ai patiemment recopié les 22×8 nombres donnant les incidences grippe clinique pour les 22 régions et les semaines 45 à 52 pour pouvoir faire des comparaisons.
Premier point : pic en 47 : 2 régions; en 48 : 9 régions; en 49 : 8 régions; en 50 : 3 régions.
Second point : des anomalies flagrantes pour les semaines 45, 46 47 dans certaines régions : Poitou-Charentes : on a successivement 816 cas, 6 cas et 588 cas ??? Moins flagrant mais à noter quand même : pour Pays de Loire : 38, 49, 590. Corse : 120, 66, 198.
Troisième point : pic apparu aussitôt après l’inflexion : Auvergne, Basse-Normandie, Bretagne, Franche-Comté, midi-Pyrénées, Picardie, Paca.
Quatrième point : pic apparu sur la plus grande croissance :
Alsace, Aquitaine, Bourgogne, Champagne, Hte Normandie, Languedoc, Limousin, Lorraine, Poitou.
Cas particuliers :
Région Centre : pic après 2 plus grandes croissances consécutives et égales.
Île de France : pratiquement stable (392, 330, 332, 341) jusqu’au pic à 341 qui paraît très faible par rapport aux autres ???
Nord : un plateau en 47, 48 suivi du pic en 49 (1074, 1108, 1298)
Loire : un plateau en 48-49 suivi du pic en 50 (1031; 981; 1274).
Rhône : un plateau en 47-48 suivi du pic en 49 (1134; 1119; 1563).
Ce sont les premières observations. Je n’ai pas encore regardé avec les IC. Mais tout cela semble bien confirmer la nécessité de dissocier au moins selon les régions à défaut d’un découpage plus en phase avec l’épidémie qu’avec l’administration…mais je rêve !!!