1 / 59

Analyses IRMf

Analyses IRMf. Oury Monchi, Ph.D. Centre de Recherche, Institut Universitaire de Gériatrie de Montréal & Université de Montréal. But de ce cours. Donner une introduction à l ’ analyse IRMf la plus classique, c ’ est à dire celle qui utilise le modèle général linéaire

odin
Download Presentation

Analyses IRMf

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Analyses IRMf Oury Monchi, Ph.D. Centre de Recherche, Institut Universitaire de Gériatrie de Montréal & Université de Montréal

  2. But de ce cours • Donner une introduction à l’analyse IRMf la plus classique, c’est à dire celle qui utilise le modèle général linéaire • Cette introduction devrait être indépendante du software (à peu de choses prêt!) utilisé pour l’analyse, mais les exemples viendront des minc tools/fmristat (aussi implémenté dans Neurolens) et de SPM

  3. Plan pour une éxpérience IRMf et son analyse • Modèle statistique • Significativité et comparaison multiple • Moyennage des séries, des sujets, comparaison de groupes • Visualisation • A quelle étape devrait-on normaliser les données?

  4. Prétraitement – analyses SPM

  5. Plan pour une éxpérience IRMf et son analyse • Modèle statistique • Significativité et comparaison multiple • Moyennage des séries, des sujets, comparaison de groupes • Visualisation • A quelle étape devrait-on normaliser les données?

  6. Une Expérience simple Lateral Occipital Complex: responds when subject views objects Blank Screen TEMPS Intact Objects Scrambled Objects Un volume (12 tranches) chaque 2 secondes pour 272 secondes (4 minutes, 32 secondes) Conditions changent chaque 16 secondes (8 volumes)

  7. Quelles sont les données avec lesquels nous devons travailler? Expérience typique: • 64 voxels x 64 voxels x 12 slices x 136 points temporels • Cela fait 136 volumes • Ou vu autrement 64x64x12 = 49,152 voxels, chacun avec son décours temporel!!

  8. Signal beaucoup plus grand où le cerveau est, mais il y a encore du bruit Tranche 9, Voxel 0, 0 Tranche 9, Voxel 1, 0 Tranche 9, Voxel 22, 7 Même là où il n’y a pas de cerveau, il y a du bruit Tranche 9, Voxel 18, 36 Tranche 9, Voxel 9, 27 Ici quelques uns qui montrent à peu près le bon patron... mais est-ce réel? Ici un voxel qui réponb bien lorsqu’il y a un stimulus visuel Tranche 9, Voxel 13, 41 Tranche 9, Voxel 14, 42 Ici un qui répond bien lorsqu’il y a des objets intacts On pourrait en principe analyser les données en naviguant à travers les voxels: déplacer le curseur sur différentes régions et regarder si on trouve temporelle qui nous intéresse Pourquoi a-t-on besoin de statistique?

  9. Pourquoi a-t-on besoin de statistique? • Il est clair que naviguer à travers les voxels n’est pas plausible. Il nous faudrait le faire 49,152 fois cela demanderait beaucoup de décisions subjectives pour savoir si une activation est réelle. • C’est pour cela qu’on a besoin de statistiques • Statistiques: • Nous indiques ou regarder pour les activations qui SONT reliés à notre paradigme • Nous aide à décider à quel point les activations sont ‘réelles’ The lies and damned lies come in when you write the manuscript

  10. Statistiques: le test t • Le test t sert à comparer la grosseur des effets (i.e. la différence entre blocks) à la variance des données (i.e. déviation standard). En (A), l’effet est de 2 unités, variance est haute, donc t = 2,3. En (B), l’effet est de seulement 1 unité, mais la variance est beaucoup plus petite, donc t = 6,7, une valeur beaucoup plus grande

  11. Composantes temporelles (d.s., % variance expliquée) 1 0.68, 46.9% 2 0.29, 8.6% Composante 3 0.17, 2.9% 4 0.15, 2.4% 0 20 40 60 80 100 120 140 Cadre Composantes Spatiales 1 1 0.5 2 Composante 0 3 -0.5 4 -1 0 2 4 6 8 10 12 Tranche (0 based) 1: exclure les premières images PCA_IMAGE: PCA du temps x espace 2: drift (dérive) 3: long-range correlation or anatomical effect: remove by converting to % of brain 4: signal? PCA = Principal Component Analysis

  12. Le Modèle Linéaire Général (GLM) • Le test t, corrélations et analyse Fourier fonctionnent pour des dessins simples, et étaient très communs au début d’imagerie • Le modèle linéaire général (GLM) est maintenant disponible dans beaucoup de paquets software, et a tendance à être l’analyse préférée • Pourquoi le GLM est si populaire? • Le GLM est un outil qui peut faire tout ce que les tests plus simples peuvent faire • Vous pouvez imaginer n’importe quelle combinaison de contrastes (e.g. intact – scrambled, scrambled – repos) avec un GLM, plutôt que des corrélations multiples • Le GLM nous donne une plus grande flexibilité pour combiner les données intra- et inter-sujet • Il est aussi plus facile de contrebalancer les ordres et jeter les mauvaises sections des données • Le GLM nous permet de modéliser des choses qui pourraient faire partie de la variance des données, même si elles ne sont pas intéressantes par soi-même (e.g. mouvements de la tête • On verra plus tard dans le cours, le GLM permet aussi d’utiliser des dessins plus complexes (e.g. dessins factoriels)

  13. Modéliser la réponse attendue (assomptions) • La réponse est presque entièrement déterminée par le dessin expérimental • La réponse BOLD a la même forme et le même délai à travers toutes les régions du cerveau • The signal BOLD est décomposable de manière linéaire à travers les événements • La réponse devrait être la même pour tous les essais d’une même condition

  14. Modéliser la réponse attendue (fmridesign) Convoluer avec un modèle hrf

  15. Modéliser les données (GLM) = β + y x ε

  16. Modéliser les données (GLM) yi = xiβ + εi Pas justifié par le modèle PENDANT Du scanneur erreur JAMAIS paramètre données modèle Poids du modèle Vous créez APRÈS AVANT

  17. En recherche d’un critère On essaie de minimiser: Σ(yi – Xiβ)2 paramètre modèle données

  18. Estimation des Moindres Carrés Nous devons faire ceci pour chaque voxel séparément (i.e. on a le même nombre de β que de voxels Référence : J. Armony

  19. Déduction statistique Où, dans le cerveau, avons nous un paramètre expérimental (β) significativement plus grand que zéro? Référence : J. Armony

  20. Déduction statistique • Hypothèse: • Contraste: combinaison linéaire de paramètres • c = [1 -1] Référence : J. Armony

  21. FMRILM • Ajuste un modèle linéaire pour une série de temps IRMf avec AR(p) erreurs • Modèle linéaire: • Yt = (stimulust * HRF) b + drifttc + erreurt • AR(p) erreurs: • erreurt = a1 errort-1 + … + ap erreurt-p + s WNt Paramètres inconnus Référence : Dr. K. Worsley

  22. Implémentation FMRISTAT • Pour 120 scans, séparés par 3 secondes, et 13 tranches entrelacées chaque 0.12 secondes, utilisez: frametimes=(0:119)*3; slicetimes=[0.14 0.98 0.26 1.10 0.38 1.22 0.50 1.34 0.62 1.46 0.74 1.58 0.86];

  23. Implémentation FMRISTAT events=[ 1 9 9 1 2 27 9 1 1 45 9 1 2 63 9 1 1 81 9 1 2 99 9 1 1 117 9 1 2 135 9 1 1 153 9 1 2 171 9 1 1 189 9 1 2 207 9 1 1 225 9 1 2 243 9 1 1 261 9 1 2 279 9 1 1 297 9 1 2 315 9 1 1 333 9 1 2 351 9 1 ]; • Un dessin en block de «  3 scans de repos; 3 scans de stimulus chaud; 3 scans de repos; 3 scans de stimulus tiède », répété 10 fois (120 scans au total) • Contraste: contrast = [1 0; 0 1; 1 -1];

  24. FMRISTAT, étude paramétrique • Chaud = 49oC, Tiède = 35oC • Disons que la température du stimulus changeait d’une façon aléatoire sur 20 blocks, prenant 5 valeurs réparties également entre 35 et 49: temperature=[45.5 35.0 49.0 38.5 42.0 49.0 35.0 42.0 38.5 45.5 ... 38.5 49.0 35.0 45.5 42.0 45.5 38.5 42.0 35.0 49.0]'; events=[zeros(20,1)+1 eventimes duration ones(20,1); zeros(20,1)+2 eventimes duration temperature] contrast=[0 1];

  25. FMRISTAT, étude paramétrique

  26. Plan pour une éxpérience IRMf et son analyse • Dessin Expérimental • Prétraitement • Modèle statistique • Significativité et comparaison multiple • Moyennage des séries, des sujets, comparaison de groupes • Visualisation • A quelle étape devrait-on normaliser les données?

  27. Types d’erreurs statistique Hypothèse Vraie? H1 (active) H0 (inactive) Réponse du test statistique Accepter H0 Rejeter H0 (inactive) (active) Succès Erreur Type I Erreur Type II Rejet correct

  28. Significcativité et comparisons multiples • Comparaisons multiples à travers le cerveau: il y a ~200,000 voxels dans le cerveau!! • Options: • Pas de correction (p < 0.05 non corrigé) • Avantage: facile, minimise les erreurs de type II • Désavantage: Beaucoup trop de faux positifs • (Erreurs de Type I), 5% 200,000 = 10,000 voxels! • Correction de Bonferroni (p < 0.05/200,000 = 0.00000025) • Avantage: Facile, minimise les erreurs de type I • Désavantage: Trop strict. • Trop d’erreurs de Type II

  29. Correction de Bonferroni • Données pour un seul sujet à trois niveaux de signifiance • Probabilité ajustée à 0.05 • Probabilité ajustée à 0.001 • Correction de Bonferroni, ajustée à une valeur P de 0.05

  30. Significativité et comparaisons multiples • Les champs gaussiens aléatoires (sorte de lissage spatial) • Avantage: Marche bien pour les données spatialement corrélés. Résultats raisonnable. • Désavantage: Encore assez strict. Enlève un peu de spécificité spatiale (à cause du lissage) • “Pseudo-Bonferroni” correction (p < 0.001), il faut savoir le motiver • Analyses par régions d’intérêts

  31. Déductions au niveau du voxel • Retenir les voxels au-dessus du seuil du niveau de , u • Meilleure spécificité spatiale • L’hypothèse nulle à un seul voxel peut être rejetée u space Voxels significatives Voxels non-significatives

  32. Déductions au niveau du cluster • Procédé à deux étapes • Définir les clusters par seuil arbitraire uclus • Retenir les clusters plus grands que le seuil du niveau de , k uclus space Cluster non-significatif Cluster significatif k k

  33. Plan pour une éxpérience IRMf et son analyse • Dessin Expérimental • Prétraitement • Modèle statistique • Significativité et comparaison multiple • Moyennage des séries, des sujets, comparaison de groupes • Visualisation • A quelle étape devrait-on normaliser les données?

  34. Analyses de Groupe • Motivation & Définitions: Le problème d’inférence de groupe • Analyse à effets mixtes (FFX) • implémentation SPM • FMRISTAT (possible, mais pas recommandé!) • Analyse à effets aléatoire (RFX) • implémentation SPM du RFX ‘classique’ • FMRISTAT solution alternative: analyse à effets mélangés: Lissage du rapport des variances

  35. Motivation effets fixes vs. aléatoires Quelle est la question qui nous intéresse! • Qu’est-ce que nous voulons inférer: • Une conclusion sur l’échantillon ou groupe spécifique que nous avons examiné • Une conclusion sur toute la population d’ou provient cet échantillon • Pour le 1er problème, une analyse à effet fixe est suffisante • Conclusion: Ce groupe spécifique de patients de ‘type A’ révèle ce patron d’activation • Pour le 2nd problème une analyse à effet aléatoire est nécessaire • Conclusion: Ce patron d’activation devrait être observé chez tous les patients de ‘Type A’

  36. Effets Fixes • Avantages: • Beaucoup de degrés de liberté ( ~1000) • Prend en compte la concordance global du modèle • Faux négatifs peu probable • Désavantages: • La variance entre les sujets et les séries n’est pas prise en compte • Les résultats peuvent provenir majoritairement d’un ou de quelques sujets  Erreurs de Type I, c’est à dire des faux positifs

  37. Effets Aléatoires • Avantages: • Prend en compte la variabilité inter séries et inter sujets • Moins sensible à certains paramètres spécifique du modèle • Désavantages: • Très peu de degrés de liberté  erreur de type II, faux négatifs • Très sensible à la variation fonctionnelle et anatomique inter-sujets

  38. Effets fixes: implémentation SPM • Autre terme: analyse de premier niveau • Identique à l’analyse 1run/sujet, sauf que le nombre de scans doit être spécifié pour chaque run ou sujet • Par exemple: « (100, 100, 100, 100, 100) » pour 100 acquisitions, 5 runs ou sujets

  39. fwhm_varatio Effets fixes: implémentation fmristat • 1 Sujet, 1 contraste, 5 runs • df = multistat (input_files_effect, input_files_sdeffect, input_files_df, input_files_fwhm, X, contrast, output_file_base, which_stats, Inf) input_files_effect = [’run1_cont1_mag_ef_tal.mnc'; ’run2_cont1_mag_ef_tal.mnc'; ’run3_cont1_mag_ef_tal.mnc'; ’run4_cont1_mag_ef_tal.mnc'; ’run5_cont1_mag_ef_tal.mnc]; input_files_sdeffect = [’run1_cont1_mag_sd_tal.mnc'; ’run2_cont1_mag_sd_tal.mnc'; ’run3_cont1_mag_sd_tal.mnc'; ’run4_cont1_mag_sd_tal.mnc'; ’run5_cont1_mag_sd_tal.mnc’]; X = [1 1 1 1 1]

  40. Effets fixes: implémentation fmristat • Par contre, les analyses à effets fixes ne sont pas recommandées, parce qu’elles ne tiennent pas en compte la variance inter-run et inter-sujet • Solution fmristat: Variance ratio smoothing (voir ci-bas), autres logiciels analyses à effets mixtes

  41. Effets aléatoires: implémentation SPM • Importez les fichiers .con de l’analyse à 1er niveau (un seul contraste de différents sujets) dans une analyse a 2ème niveau • Degrés de liberté (DF) très bas, donné par le "nombre de sujets" - "rank of 2nd level design matrix" • Donc si nous avons 12 sujets dans un groupe, DF = 11 • Ce type d’analyse peut être trop conservateur, et requiert beaucoup de sujets, et beaucoup de données pour atteindre signifiance

  42. Effets aléatoires: implémentation fmristat • Il est possible de faire le même type d’analyse à effets aléatoires dans fmristat en ajustant le paramètre fwhm_variatio à 0. • df = multistat (input_files_effect, input_files_sdeffect, input_files_df, input_files_fwhm, X, contrast, output_file_base, which_stats, 0) • Par contre, fmristat nous permet d’implémenter une analyse à effets mixtes avec un nombre de degrés de liberté plus haut, et devient donc moins conservateur

  43. Ei = effect for run/session/subject i • Si = standard error of effect • Modèle à effets mixtes: Ei = covariatesi c + Si WNiF +  WNiR MULTISTAT: modèle linéaire à effets mixtes Sert à combiner les effets de différentes runs/sessions/sujets }de FMRILM ? ? D’habitude 1, mais pourrait ajouter groupe, traitement, âge, sexe, ... Effet aléatoire, dû à la variabilité de run en run Erreur des ‘Effets fixes’, dû à la variabilité au sein du même run

  44. Alternative fmristat: Variance Ratio Smoothing • La variance à effets aléatoires est très variable, à cause des degrés de liberté (dfs) très bas. L’idée de Variance Ratio Smoothing est d’utiliser la variance à effets fixes comme template pour estimer la variance à effets aléatoires • Ceci est fait par régularisant le rapport de variance à effets aléatoires (estimée) divisée par la variance à effets fixes (obtenus de l’analyse précédente) • Fwhm_varatio est un filtre qui permet de régulariser ce rapport Comment choisit-on Fwhm_variatio? • Sa valeur est motivée par les dfs conséquents. Une bonne valeur à viser est 100df. Les nouvelles versions d’fmristat vous permettent d’entrer le nombre de dfs désiré en insérant une valeur négative au paramètre fwhm_varatio: • df = multistat (input_files_effect, input_files_sdeffect, input_files_df, input_files_fwhm, X, contrast, output_file_base, which_stats, -100)

  45. Exemple: contraste entre populations n sujets, groupes patients vs contrôles Contraste = [1 -1 Patient > contrôles -1 1] Contrôles > patients input_files_effect = [’subj1_patient_mag_ef_tal.mnc’; ’subj2_patient_mag_ef_tal.mnc’; ’subjn_patient_mag_ef_tal.mnc’; ’subj1_control_mag_ef_tal.mnc'; ’subj2_control_mag_ef_tal.mnc; ‘sunjn_control_mag_ef_tal.mnc]; input_files_sdeffect =[’subj1_patient_mag_sd_tal.mnc'; ’subj2_patient_mag_sd_tal.mnc'; ’subjn_patient_mag_sd_tal.mnc'; ’subj1_control_mag_sd_tal.mnc'; ’subj2_control_mag_sd_tal.mnc; ‘sunjn_control_mag_sd_tal.mnc]; X = [1 0 sujet 1 groupe patient 1 0 sujet 2 groupe patient 1 0 sujet n groupe patient 0 1 sujet 1 groupe contrôle 0 1 sujet 2 groupe contrôle 0 1] sujet n groupe contrôle

  46. + + Combien de sujets? • La plus grande portion de variance vient de la dernière étape, i.e. la combinaison des sujets: sdrun2 sdsess2 sdsuj2 nrun nsess nsuj nsess nsuj nsuj • Si vous voulez optimiser le temps d’utilisation du scanneur, prenez plus de sujets • Ce que vous faites aux premiers stades importe peu!

  47. Plan pour une éxpérience IRMf et son analyse • Dessin Expérimental • Prétraitement • Modèle statistique • Significativité et comparaison multiple • Moyennage des séries, des sujets, comparaison de groupes • Visualisation • A quelle étape devrait-on normaliser les données?

  48. Visualisations 2D et 3D

More Related