1 / 57

Principes généraux des tests d’hypothèse

Principes généraux des tests d’hypothèse. UE : Introduction à la biostatistique Master 1 Santé Publique (Parcours « B ») Faculté de Médecine – Université Rennes 1 Enseignant : B. Campillo-Gimenez. Objectif du Cours. Introduction à la comparaison de moyenne Hypothèses

ashley
Download Presentation

Principes généraux des tests d’hypothèse

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Principes généraux des tests d’hypothèse UE : Introduction à la biostatistique Master 1Santé Publique (Parcours « B ») Faculté de Médecine – Université Rennes 1 Enseignant : B. Campillo-Gimenez

  2. Objectif du Cours • Introduction à la comparaison de moyenne • Hypothèses • Risque α, β, puissance • Nombre de sujets nécessaires • Principes de causalité

  3. Plan • Rappel : • TCL • Fluctuation d’un paramètre d’échantillon • Intervalle de confiance d’une moyenne d’échantillon • Intervalle de confiance pour la différence de 2 moyennes • Principe des tests : • Illustrations • Démarche hypothético-déductive et raisonnement par l’absurde • Les hypothèses H0 et H1 • La situation sous H0 • L’observation et la confrontation : la statistique de test • Interprétation • Notion de risque • Le risque de premier espèce • Le risque de seconde espèce • La notion de puissance • Principes de causalité • Principe du calcul du nombre de sujets nécessaires • Quelques notions complémentaire à prendre en compte • Test unilatéral ou bilatéral • Echantillons indépendants ou appariés • Tests paramétriques ou non paramétriques

  4. La loi de probabilité d’une moyenne d’échantillon • Le théorème Central Limite : • à effectif (n) fixé de l’échantillon, • le TCL établit que la moyenne de l’échantillon (variable aléatoire) respecte une loi Gaussienne (loi normale).

  5. Paramètres de la population : N=7050; μ = 168; σ = 164 Population Echantillonnage La variation (m1, m2, m3, …) de mon indicateur est liée aux fluctuations d’échantillonnage Echantillon 3 : n3=100 m3=165 s3=165 Echantillon 1 : n1=100 m1=170 s1=150 Echantillon 2 : n2=100 m2=155 s2=170

  6. La loi de probabilité d’une moyenne d’échantillon • De la loi à l’intervalle de pari et l’intervalle de confiance : • On peut donc déterminer une limite z pour un risque α fixé telle que Mais je ne connais pas les paramètres (μ et σ) de cette loi Dont je connais les paramètres

  7. La loi de probabilité d’une moyenne d’échantillon • L’intervalle de pari et l’intervalle de confiance d’une moyenne : • L’inégalité permet de déduire : • La variance de la population s’approxime par la loi de Student, qui dit que la statistique t : • Remarque : • Si n>30, la loi de Student se superpose à la loi normale centrée réduite Intervalle de pari Mais je ne connais toujours pas σ Intervalle de confiance A condition que la distribution de X dans l’échantillon suive une loi normale

  8. La loi de probabilité d’une moyenne d’échantillon • L’intervalle de confiance d’une moyenne : Avec z, défini selon une loi normale centrée réduite si n>30 ou selon une loi de Student si n<30, au risque α (fixé a priori) près.

  9. Avec Z=1,96 et n>30, Correspondant à α = 5% (dans la loi N centrée réduite) L’intervalle de confiance à 95% signifie que : A partir de l’échantillon, j’ai 95% de chance que la moyenne (μ) de la population d’étude soit comprise dans l’intervalle [ ; ] Zone de confiance à (1-α)% de se tromper

  10. L’intervalle de confiance de la différence de 2 moyennes • En considérant la différence des moyennes m1 et m2 de 2 échantillons indépendants : • Je sais que : • Et donc que l’écart réduit approximé entre la différence des moyennes observées et la différence des moyennes théoriques varie autour de 0 suivant une loi Normale Centrée réduite : Si n1 et n2 >30 ; X1 et X2 ~N ; avec z défini selon la loi normale (ou de Student) au risque α fixé

  11. Principe des tests d’hypothèse • Illustration (voir diapo suivantes)

  12. Tirage au sort simple (représentatif) dans une population de référence Peu probable Fort probable Moins probable μ m m m

  13. Tirage non aléatoire (non représentatif) μ1 μ2 μ1 ≠ μ2 m1 m2

  14. Echantillon 3 avec Estimation m3 m3 éloigné de m1 et m2 = probabilité forte en faveur d’un tiers facteur Echantillon 2 avec Estimation m2 Echantillon 1 avec Estimation m1 m1 et m2 proche = forte probabilité d’ê issue de la même pop de référence de moyenne μ La moyenne retrouvée pour l’échantillon 3 a peu de chance d’ê retrouvée si TAS dans pop de référence Donc la moyenne de laPop d’où est issu l’échantillon 3 ≠ de la moyenne de la pop d’où sont issus les échantillons 1 et 2 au risque α de se tromper. μ

  15. La démarche dans les tests d’hypothèse • Une démarche hypothético-déductive (en 5 étape) : • Etape 1 : définition de l’hypothèse de travail, c’est-à-dire de l’hypothèse à tester (H0), et de son alternative (H1) • Etape 2 : Déduire de l’hypothèse nulle (H0), ce que l’on doit observer • Etape 3 : C’est l’expérimentation, l’observation à partir d’un échantillon • Etape 4 : Confrontation de l’hypothèse de travail et des observations (calcul de la statistique de test) • Etape 5 : Interprétation et conclusion (en fonction des hypothèses, des risques d’erreur, de la puissance, des principes de causalité, …)

  16. Les hypothèses • La démarche débute par l’établissement d’une hypothèse de travail : • Notée H0 • Le choix de H0 n’est pas anodin : • Il est fonction de ce que l’on connait Et je connais la distribution du paramètre si la Pop d’échantillon est issue d’une pop de référence • Il est plus facile de montrer qu’une hypothèse est fausse (que le contraire) Car il suffit de trouver un contre exemple pour rejeter une hypothèse

  17. Les hypothèses • Conséquences : • Raisonnement par l’absurde : Par exemple, pour prouver que la pop d’où est issu l’échantillon est différente d’une population de référence • Je connais : • μ et σ (de la pop de référence) • méch et séch (de mon échantillon) • la distribution des moyennes d’échantillons (m) issus de Pop Réf. • Je vais donc : • Regarder la probabilité d’observer au minimum une telle différence entre (méch) et (μ) quand Pop échantillon = Pop Réf. • Si P(observé diff.) est trop faible, alors je peux rejeter l’hypothèse Pop échantillon = Pop Réf. Pour prouver que Pop échantillon ≠ Pop Réf, je dois montrer que l’hypothèse Pop échantillon = Pop Réf. est peu probable

  18. Les hypothèses • H0 : l’hypothèse nulle est toujours l’hypothèse que l’on cherche à invalider • H1 : L’hypothèse alternative est toujours ce que l’on cherche à montrer • Exemple : • on veut montrer que 2 paramètres (μ1 et μ2) de 2 populations à • l’aide de 2 échantillons indépendants (issus de ces populations) • sont différents. • H0 : Les paramètres des populations d’où sont issus • les 2 échantillons sont identiques (μ1 = μ2) • H1 bilatérale : Les paramètres sont différents (μ1 ≠ μ2) • H1 unilatérale : un des paramètres est inférieur (ou • supérieur) à l’autre (μ1 > μ2) ou (μ1 < μ2) Attention !!! Les hypothèses sont toujours posées à partir des populations et non des échantillons

  19. La situation sous H0 Par exemple, pour prouver que la pop d’où est issu un échantillon est différente d’une population de référence, Je pose : H0 : Pop Réf. = Pop échantillon (μéch = μréf.) H1 : μéch≠μréf. Si H0 est vraie : Je sais que la moyenne observée (m) suit une loi normale de paramètre ~N(μréf ; σréf./racine(n)), et donc que l’écart réduit (z) de m suit ~N(0;1) Et Que Il suffit donc de calculer la statistique de test (z) correspondant à l’écart réduit de la moyenne observée et de la confronter à la table de l’écart réduit (loi normale centrée réduite) pour déterminer la probabilité d’observer au minimum (m- μ) quand H0 est vraie.

  20. J’observe m à partir mon échantillon Je connais Loi de distribution de l’écart réduit ~N(0;1) Loi de distribution de m Je transforme m en z μréf. 0 z m Généralement si p<5%, rejet de H0 car moins de 5% de chance d’observer cet écart si H0 est vraie Je déduis la probabilité (p) d’observer au minimum cet écart entre m et μ quand H0 est vraie Via la table de l’écart réduit (ou table de la loi normale centrée réduite)

  21. Interprétation N’est jamais nulle • A partir de quand doit on considérer que la probabilité d’observer un tel écart est trop petite pour que H0 soit vraie ? • Que veut dire trop petite ? Généralement, on fixe un seuil α en dessous duquel on considérera cette probabilité comme « trop petite » : α =0.05 Correspond à la part de risque que l’on est prêt à prendre quand on rejette H0 Rq: Ce seuil n’est pas immuable !!!!

  22. Notion de risque • Le risque de 1ère espèce : • Noté α, est la probabilité de rejeter H0 quand H0 est vraie • C’est le risque consenti de rejeter H0 (usuellement fixé à 5%) • Pour α=5%, la valeur seuil Z vaut 1,96 • Pour tout |z| 1,96, rejet de H0

  23. Notion de risque • Le risque de 2nde espèce : • Le rejet de H0 se fait au bénéfice de l’hypothèse alternative H1 • Comme sous H0, la statistique de test (Z) étudié sous H1 suit une distribution théorique • Une fois les données observées si le résultat de la statistique de test (Z) appartient à la zone de non rejet de H0, l’acceptation de H0 induit une autre erreur : • Appelée β • Correspondant à l’acceptation de H0 alors que H0 est fausse (ou H1 est vraie) • Egale à la probabilité de ne pas rejeter H0 alors que H0 est fausse

  24. Sous H0 Sous H1 0 Rejet de H0 Non Rejet de H0 Rejet de H0

  25. Finalement !!! • L’interprétation, ce n’est pas qu’un « petit p » ! • Premier cas : |u| = |z|  Z • p  α • On rejette H0 au risque α de le faire à tord • Cl : il existe une différence significative entre l’échantillon et la population de référence • Second cas : |u| = |z| < Z • p > α • On ne rejette pas H0 au risque β de le faire à tord • Cl : On ne met pas en évidence de différence significative entre la population de référence et l’échantillon

  26. La notion de puissance • Quand la conclusion d’un test ne permet pas de rejeter H0, on ne peut conclure à la différence : • Il est sous-entendu qu’une autre expérience (un autre échantillonnage) aurait potentiellement pu le faire • Et que le test cette fois aurait bien rejeter H0, alors qu’elle est fausse • La probabilité (1-β) de rejeter H0 quand H0 est fausse s’appelle la puissance • C’est la capacité de l’expérience à mettre en évidence une différence

  27. Sous H0 Sous H1 • Plus l’écart des paramètres sous H0 et H1 est grand • Plus le test est puissant • Ou • Plus le test est puissant • Plus l’écart entre H0 et H1 peut être petit Rejet de H0 Non Rejet de H0 Rejet de H0

  28. Sous H0 Sous H1 Si je diminue α : Le seuil de rejet augmente La capacité à mettre en évidence une différence diminue Rejet de H0 Non Rejet de H0 Rejet de H0

  29. Si n diminue (ou σ augmente) : L’écart type à la moyenne augmente La courbe s’écrase A risque α égal,la valeur du seuil de test augmente La capacité à mettre en évidence une différence (1-β)diminue Sous H0 0 Non Rejet de H0 Rejet de H0 Sous H1

  30. Principes de causalité • Et ce n’est pas tout !!! • Le résultat d’un test statistique s’interprète en fonction : • De la valeur de p • Du risque α (en cas de résultat significatif) • Du risque β (en cas de résultat non significatif) • … • Et en fonction de critères permettant d’évaluer la causalité !!!

  31. Principes de causalité • Par exemple, • Une enquête étiologique aboutit à mettre en cause un facteur (risque de contracter la maladie + élevé dans groupe exposé que dans groupe non exposé) • L’association (ou la significativité) mesurée par le calcul (test) peut être : • Réelle et causale : c’est l’idéal !!! • Réelle mais non causale : l’association observée en terme mathématique ne repose sur aucun lien de causalité • Due au hasard : lié au risque α • Due à un biais : ex, tirage non aléatoire (biais de sélection)

  32. Principes de causalité • Les 9 critères de causalité Austin Bradford Hill (1965) • La force de l’association (OR et RR) • Existence d’une relation dose-effet • La spécificité de la relation • La temporalité (le + indispensable) : • L’effet doit précéder la cause • La cohérence externe : • reproductibilité, constance du résultat dans la littérature • La cohérence interne : • Absence de biais dans le protocole • La plausibilité biologique • La preuve expérimentale (preuve de niveau 1 = essai clinique) • Analogie avec d’autres évènements (plutôt d’un autre temps !!!)

  33. Principe du calcul du nombre de sujets nécessaires • L’idée étant de se donner les moyens (avant de commencer une étude) de montrer ce que l’on veut montrer. • Ex : • Combien de participants est il nécessaire d’inclure dans un essai thérapeutique ? • Combien de temps va prendre l’inclusion ? • Combien d’argent ? L’étude est-elle réalisable ? • … • Il s’agit de considérer la puissance statistique nécessaire, avec pour limite : la différence minimale critique, cliniquement pertinente !!! • Avec suffisamment d’argent, de temps et de puissance, la + petite différence qui soit peut être retrouvée significative. • Si P1 a une taille moyenne de 180.00001 cm et P2 de 180.00002 cm • Avec un nombre de sujets nécessaires permettant de mettre en évidence une différence de 10-5, le test ressortira significatif • Mais y a-t-il du sens ????

  34. Principe du calcul du nombre de sujets nécessaires • C’est la statistique de test retenu qui permet de déterminer la procédure à utiliser pour le calcul. • Mais le principe général restent le même quelque soit le test utilisé : • On a déjà vu que la capacité à mettre en évidence une différence (1-β) était fonction de : • L’écart type à la moyenne, lui-même dépendant de n et de la variance du paramètre (σ) • Du risque α et β que l’on consent à prendre

  35. Principe du calcul du nombre de sujets nécessaires • L’exemple d’une variable quantitative continue • Soit 2 groupes E et R, • H0 : μR = μE • H1 : μR ≠ μE • Je sais que sous H0 : • Avec μR – μE = 0 • Avec mR – mE =|δ| la diff. Cliniquement pertinente • Et pour simplifier, nE = nR = n et σE = σR = σ : • On peut montrer que z se découpe en : α est une risque bilatéral, alors que β est un risque unilatéral

  36. Quelques notions supplémentaires • Test unilatéral et bilatéral : • Pour une même hypothèse H0, il existe 2 type d’hypothèse alternative H1 • H0 : μ1 = μ2 • H1 : μ1 ≠ μ2 (je ne connais pas le sens de la relation) • H1 : μ1 < μ2 ou μ1 > μ2 (si j’ai des bonnes raisons de le penser) • L’exemple type : l’essai thérapeutique contre placebo !!! Hypothèse bilatérale Hypothèse unilatérale

  37. Quelques notions supplémentaires • Echantillons indépendants : • Quand les 2 (ou plus) paramètres comparés sont mesurés sur des individus différents • Ex : Comparaison des poids moyens de 2 groupes • Echantillons dépendants (ou séries appariées) : • Quand les différents échantillons proviennent de mesures effectuées chez les mêmes individus • Comparaison d’un paramètre dans un même groupe mais dans des circonstances différentes • Ex : Comparaison du poids moyen d’1 groupe d’individus, avant et après régime

  38. Quelques notions supplémentaires • Les tests paramétriques et non paramétriques : • Comme on l’a vu tout au long du cours !!!! • Les tests décrits reposent sur une loi de distribution (loi normale ou loi de Student par exemple) • Seulement sous certaines conditions, par exemple : • Effectif dans chaque groupe suffisant (n>30) • Distribution gaussienne du paramètre échantillonné • Si les conditions ne sont pas remplies ces tests ne sont pas applicables : • On fait appel à des tests particuliers • Qui ne dépendent que des paramètres étudiés (moyenne, écart-type, …) • Et ne repose pas sur l’hypothèse d’une loi de distribution particulière Tests paramétriques Tests non paramétriques

  39. Pour récapituler ! • Faire un test statistiques repose sur plusieurs étapes • Le choix du test d’hypothèse : • Analyse du type de variables mises en relations • QLxQT : comparaison de moyenne • QLxQL : analyse de corrélation • QTxQT : comparaison de pourcentage • … • La taille de l’échantillon (n > ou < à 30) • Les conditions d’applications • Mesures sur échantillons dépendants ou non • Les étapes du test d’hypothèse lui-même : • La définition de la problématique (médicale notamment) • L’énoncé des hypothèse (H0 et H1) • L’établissement (à l’avance) du risque d’erreur α • La vérification des conditions d’applications du test choisi • Le calcul de la statistique de test et détermination du degré de signification • L’interprétation médicale des résultats

  40. Exercices • A vous de jouer !!!!!!!!

  41. Le diamètre de l’artère coronaire est estimée sur un échantillon de 100 sujets à d +/- écart-type = 2.5+/-0.4 mm • L’intervalle de confiance de d à 95% (si la distribution de la variable d est normale) est égal à : • [2.1;2.9] • [1.7;3.3] • [2.3;2.7] • [2.4;2.6]

  42. Le diamètre de l’artère coronaire est estimée sur un échantillon de 100 sujets à d +/- écart-type = 2.5+/-0.4 mm • L’intervalle de confiance de d à 95% (si la distribution de la variable d est normale) est égal à : • [2.1;2.9] • [1.7;3.3] • [2.3;2.7] • [2.4;2.6] d+/-1.96 x racine(0.42/100)

  43. Avec les données de l’exercice précédent. • Quelle est la probabilité d’observer un vaisseau dont le diamètre serait inférieur à 2 mm ?

  44. Avec les données de l’exercice précédent. • Quelle est la probabilité d’observer un vaisseau dont le diamètre serait inférieur à 2 mm ? L’écart réduit de la différence = (2-2.5) / (0.4/racine(100)) = -12.5 Avec z = -12.5, |z| = 12.5 Avec la table fournie : P(Z<z) P(Z>z) < 1-0. 998 < 0.002

  45. On s’intéresse à un score calculé sur une échelle de 0 à 100. Dans une population normal ce score vaut 83+/-44, dans un échantillon de 100 malades le score vaut 75+/-46 • Quelle est la probabilité à 2 décimales près (si un échantillon de 100 sujets est tiré de la population normale) d’avoir un score inférieur à 75 ?

  46. Résultat : |z| = |83-75|/(44/racine(100)) = 1.8 P(Z>1.8)= 1-0.97=3%

  47. Si sur cette même échelle, je tire 2 échantillons de 100 sujets chacun avec un score = 83+/-44 pour le 1er, et 75+/-44 pour le 2ème • Quelle est la probabilité à 2 décimales près que les moyennes des 2 populations d’où sont issus les échantillons soient différentes ? Rq : les distributions sont supposées normales dans les 2 groupes

  48. Hypothèses : • H0 : μ1 = μ2 • H1 : μ1 ≠ μ2 • Statistique de test : • Sous H0, |z| = |83-75|/((2 x 44)/racine(100)) = 0.9 • P(Z>0.9) = 1-0.82 = 18% Dc • P(Z< -0.9 et Z> +0.9) = 18% x 2 = 36%

  49. Je sais que : • μ+/-σ = 110+/-10 • Combien de sujets sont nécessaires à la mise en évidence d’une différence de moyenne de 10 (dans 2 échantillons indépendants, d’effectifs et de variances égales) • Avec un risque α = 5% et un risque β à 20% ? • Avec un risque α = 1% et un risque β à 20% ? • Avec un risque α = 5% et un risque β à 10% ? • Une différence de 5 avec α = 5% et β à 20% ? • Une différence de 1 avec α = 5% et β à 20% ?

More Related