labo2 25 février 2015

14
Laboratoire 2 25 février 2015 Récapitulatif du prétraitement de nos données pour une tâche fonctionnelle de type design en bloc: 1. Réalignement pour réorienter toutes nos images et corriger le mouvement 2. Normalisation (mettre le cerveau dans un espace standardisé) a. Coregistration : superposer l’image anatomique à l’image moyenne fonctionnelle b. Segmenter les différents types de tissus selon une carte de probabilité et faire « fitter » l’image anatomique dans un espace de coordonnées standardisé. c. Faire « fitter » les images fonctionnelles dans un espace de coordonnées standardisé. 3. Lissage spatial pour augmenter notre capacité de détecter des effets d’intérêt en moyennant l’activité des voxels avec leurs voxels voisins Maintenant, si on utilise un design de type événementiel pour notre tâche, on rajoute une étape au prétraitement des données, une correction temporelle : 1. Réalignement pour réorienter toutes nos images et corriger le mouvement 2. Correction temporelle ou « slice timing correction »: corriger pour les différents temps d’acquisition des tranches 3. Normalisation (mettre le cerveau dans un espace standardisé) a. Coregistration : superposer l’image anatomique à l’image moyenne fonctionnelle b. Segmenter les différents types de tissus selon une carte de probabilité et faire « fitter » l’image anatomique dans un espace de coordonnées standardisé. c. Faire « fitter » les images fonctionnelles dans un espace de coordonnées standardisé.

Upload: jsprovost

Post on 10-Aug-2015

71 views

Category:

Documents


0 download

TRANSCRIPT

Laboratoire 2 25 février 2015

Récapitulatif du prétraitement de nos données pour une tâche fonctionnelle de type design en bloc:

1. Réalignement pour réorienter toutes nos images et corriger le mouvement2. Normalisation (mettre le cerveau dans un espace standardisé) 

a. Coregistration : superposer l’image anatomique à l’image moyenne fonctionnelleb. Segmenter les différents types de tissus selon une carte de probabilité et faire « fitter » l’image anatomique dans un espace de coordonnées standardisé.c. Faire « fitter » les images fonctionnelles dans un espace de coordonnées standardisé.

3. Lissage spatial pour augmenter notre capacité de détecter des effets d’intérêt en moyennant l’activité des voxels avec leurs voxels voisins

Maintenant, si on utilise un design de type événementiel pour notre tâche, on rajoute une étape au prétraitement des données, une correction temporelle :

1. Réalignement pour réorienter toutes nos images et corriger le mouvement2. Correction temporelle ou « slice timing correction » : corriger pour les différents temps d’acquisition des tranches 3. Normalisation (mettre le cerveau dans un espace standardisé) 

a. Coregistration : superposer l’image anatomique à l’image moyenne fonctionnelleb. Segmenter les différents types de tissus selon une carte de probabilité et faire « fitter » l’image anatomique dans un espace de coordonnées standardisé.c. Faire « fitter » les images fonctionnelles dans un espace de coordonnées standardisé.

4. Lissage spatial pour augmenter notre capacité de détecter des effets d’intérêt en moyennant l’activité des voxels avec leurs voxels voisins

En effet, il existe une particularité quand on utilise un design événementiel, contrairement à un design en bloc. Dans un design en bloc, chaque condition est présentée au minimum 15 secondes d’affilé, et on va moyenner l’activité cérébrale dans ces blocs de 15 ou 25 secondes par exemple. Dans ce cas-ci, le fait que chacune des tranches du cerveau ne soit pas acquises exactement au même temps et qu’il y ait un petit décalage dans les réponses hémodynamiques associées à chaque acquisition de tranche ne dérange pas trop nos analyses, car on moyenne le signal d’un même événement continu de 15 ou 25 sec. Dans une tâche de type événementiel, certains événements sont aussi courts que 2 ou 3 secondes ! Et parfois, le TR (temps d’acquisition d’1 volume complet de cerveau) dure 2.5 sec. Ainsi, il y a 2.5 sec de différences entre l’acquisition de la 1re tranche versus la dernière tranche. Donc, on veut corriger pour les différents temps d’acquisition de chacune des tranches et faire en sorte que les données de chaque tranche du cerveau

correspondent toutes au même temps d’acquisition pour ainsi n’avoir qu’à modéliser qu’une courbe de réponse hémodynamique moyenne.

1. Pour apprendre à utiliser la fonction « Batch », on va créer une « Batch » avec l’ensemble des étapes du prétraitements pour une tâche de type événementiel.

Comment faire dans SPM   : - Premièrement, on ouvre toujours nos images fonctionnelles et structurelle à l’aide

de la fonction « Display » ( ou « Check Reg » pour voir 2 images en même temps). À cette étape, on peut déjà se rendre compte que nos images présentent des problèmes au niveau de l’acquisition. Il peut aussi y avoir de la distorsion dans nos images : elles ne semblent pas uniformes. Souvent, on dirait qu’il manque une petite partie du cerveau en arrière des yeux au niveau du cortex orbitofrontal, c’est dû à la distorsion du champ magnétique causé par les sinus, ou par des broches par exemple. Si tout semble ok on passe à l’étape suivante : le prétraitement.

- Deuxièmement, vous allez cliquer sur batch dans la fenêtre en haut à gauche. - Dans la nouvelle fenêtre batch qui est apparue, cliquez sur SPM, et ensuite

« Spatial », « Realign » et « Estimate & Reslice ».- Ensuite, cliquez à nouveau sur SPM, puis « Temporal », et « Slice Timing ».- Ensuite, rajoutez les étapes de « Coregistration : Estimate », « Segmentation »,

« Normalise : Write » et « Smooth ».

- Si vous avez des interrogations sur les fonctions des paramètres à entrer pour chacune des étapes, veuillez vous référer aux notes du Labo 1. Sinon, appliquez les paramètres suivants.

- Pour le Réalignement, vous n’avez qu’à entrer vos données fonctionnelles brutes dans Data, New Session et cliquer sur Select Files et allez chercher vos fichiers fonctionnels bruts.

- Les paramètres à changer :o Estimation Options : Interpolation :  4th Degree B-Spline o Resliced images : « Mean Image Only »

- Ensuite, passez au « Slice Timing ». Cliquez sur « Data », puis cliquez sur « New Session ». Comme pour les autres étapes, quand il y a « Session », c’est que SPM nous demande d’aller chercher nos fichiers de données. Or, pour l’étape du « Slice Timing », on veut prendre les fichiers qui auront été réalignés à l’étape précédente. Comme SPM n’a pas encore généré ces fichiers réalignés, on va cliquer sur le bouton «   Dependency   » et choisir les «   outputs » de l’étape «   Realign   : Estimate & Resclice   : Realigned Images (Sess 1)  » pour indiquer à SPM d’effectuer le slice timing sur ces fichiers spécifiquement. On n’a pas besoin de faire le « Slice Timing » sur notre fichier mean.

- Pour compléter les autres paramètres de l’étape « Slice Timing », vous aurez besoin de vos paramètres d’acquisition ! Si vous ne les avez pas pour votre étude, demandez-les aux techniciens IRM. Pour les données d’aujourd’hui, je vous les ai donnés sur la feuille.

o Number of Slices.o TR : Notre temps d’acquisition pour 1 volume complet.o TA : TR – (TR/nombre de tranches)o Slice order : Dépend si les tranches sont acquises de façon descendante,

ascendante ou bien entre-croisées. Veuillez vous référer à ce que propose SPM dans l’encadré en bas.

o Reference slice : Généralement la tranche du milieu, donc Nbre de tranches/2 et arrondi à l’unité supérieure.

- Coregistration : o Pour l’image de référence, cliquer sur « Dependency » et choisir le fichier

« mean » créé à l’étape du réalignement qui représente le mieux nos fichiers fonctionnels

o Pour l’image source : choisir l’image structurelle (aller la chercher dans votre dossier)

o Laisser les autres paramètres par défaut

- Segmentation :o Dans « Volumes » de « Channel », cliquer sur « Dependency » et choisir

l’image structurelle qui a été « coregistered » pour signifier à SPM de prendre l’output de la coregistration même si ce fichier n’a pas encore été généré.

o Save Bias Corrected : Choisir « Save Bias Corrected »o Dans les paramètres Warping & MRF, pour Deformation Fields: Choisir

Forwardo On laisse tous les autres paramètres proposés par SPM tel quel.

- Normalisation du fonctionnel :o Deformation Field : cliquer sur « Dependency » et choisir le fichier de

sortie anatomique de l’étape de la segmentation (Forward Deformations)o Images to Write : cliquer sur « Dependency » et choisir nos fichiers de

sortie de l’étape du « Slice Timing » et le fichier mean de l’étape du réalignement

o Voxels size : Changer la taille des voxels pour 3 3 3 (car c’est la taille de nos voxels lors que l’acquisition).

- Lissage spatial :o Images to smooth : cliquer sur « Dependency » et choisir les images

normalisées o Laisser les autres paramètres par défaut

Vous pouvez alors faire une revérification de tous les fichiers et données que vous avez spécifiés à chacune des étapes. Une fois que vous êtes certains qu’il n’y a pas d’erreur, enregistrez votre batch, car nous allons la réutiliser lors des prochains labos. Vous pouvez ensuite la lancer!

Pour savoir où en est rendu Matlab dans le traitement de données, ouvrez la fenêtre de Matlab : vous allez voir Realign : Done, ensuite Slice Timing : Done, etc.

**Important, SPM va sauvegarder automatiquement les différents fichiers de sortie qu’il produit lors du réalignement et de la coregistration par exemple. SPM les sauvegarde automatiquement dans le «directory» que vous avez spécifié au début dans Matlab. Allez chercher ces fichiers et copiez-les dans le dossier de votre participant. Ce sera plus facile de les retrouver par après.

Une fois terminé le traitement complet de nos étapes, nous allons faire un contrôle de la qualité pour les principales étapes avant de passer à créer le modèle linéaire général.

Contrôle qualité : Réalignement : Ouvrez le fichier de sortie du réalignement pour inspecter les transformations que SPM a faites à chacun de nos volumes. Ce qu’il faut retenir c’est qu’un mouvement graduel n’est pas tellement problématique, mais un mouvement rapide et brusque (un pic très escarpé) est beaucoup plus dommageable pour nos données. Généralement, on dit qu’un mouvement entre 3mm et 3 degrés est acceptable. Si le mouvement est plus fort que ça, on peut considérer enlever les volumes « problématiques » de notre analyse, ou carrément ne pas utiliser ce sujet dans nos analyses et voir si nos résultats se portent mieux.

Vous voyez que notre participant n’a pas beaucoup bougé, et que s’il l’a fait c’est de manière graduelle.

Coregistration : Cliquez sur « Check Reg » et aller chercher votre image structurelle (NV … nii) et votre image mean (m… nii). Assurez-vous que les 2 images sont bien alignées l’une avec l’autre. Cliquez sur les images pour vous déplacer dans le cerveau. Généralement, il n’y a pas de problèmes à cette étape.

Segmentation : Cliquer sur « Check Reg », et aller chercher le fichier c1 ….. nii (pour la matière grise) ainsi que le fichier structurel (NV…nii). Assurez-vous que la forme de la matière grise semble similaire dans les 2 images. Cliquer sur les images pour vous déplacer dans le cerveau. On peut également utiliser le programme MRIcron pour superposer notre matière grise, blanche et CSF pour s’assurer que la segmentation ait l’air normale, qu’on ait pas oublié de voxels, et que des zones en dehors du cerveau ne soient pas considérés comme de la matière grise.

Lissage spatial : Pour voir l’effet de l’étape de lissage spatial sur nos données, utiliser « Check Reg » et ouvrir notre premier fichier normalisé ainsi que notre premier fichier lissé (smoothed).

2. Créer notre modèle linéaire général, et créer nos conditions

À cette étape vous aurez besoin de votre matrice événementielle, design événementiel ou les détails de vos conditions (tous la même chose), car on va entrer ces informations dans notre modèle pour pouvoir estimer les paramètres β associés à ces conditions.

Comment faire   :

- Dans la fenêtre en haut à gauche de SPM, cliquer sur « Specify 1st-level », vous voyez donc qu’un « fMRI model specification » vient d’apparaître dans notre fenêtre de « Batch Editor »

- Jusqu’à maintenant, tous les fichiers transformés des étapes du prétraitement se sauvegardaient automatiquement dans le dossier où se trouvaient nos données fonctionnelles brutes.

- Directory : SPM nous demande où nous voulons sauvegarder le fichier GLM que nous allons créer à cette étape. Et il ne peut qu’y avoir qu’1 seul fichier GLM dans un dossier. Je vous suggère de créer un dossier ‘stats’ ou ‘GLM’ dans le dossier de notre sujet. Une fois le dossier créé, cliquer sur « Specify » et aller chercher ce nouveau dossier.

- Timing parameters :o Units for design : Généralement je choisis en secondes. Ici, SPM nous

demande dans quelle mesure de temps (secondes ou scans) nous voulons spécifier les temps de début de présentation, et les durées de nos conditions de notre tâche. Pour moi c’est plus simple de mettre ces temps en secondes, car je travaille avec le logiciel E-Prime qui m’indique les temps de présentations de mes stimuli en secondes.

o Interscan interval : En fait, c’est notre TR (en secondes)o Microtime resolution : Laisser ce paramètre par défaut à moins d’avoir fait

un « Slice timing correction ». Dans notre cas, on va donc changer le chiffre 16 pour 47, notre nombre de tranches acquises pour chaque TR. Si jamais on n’avait pas fait de « slice timing », on aurait aussi pu changer le 16 pour 47, mais vraiment ça n’aurait fait aucune différence.

o Microtime onset : Laisser ce paramètre par défaut à moins d’avoir fait un « Slice timing correction ». Dans notre cas, on va donc changer le chiffre 8 pour 24, le numéro de la tranche de référence. Cette étape est pour s’assurer que l’échantillonnage des régresseurs coïncide avec l’acquisition des données. Mais si votre tâche est un design en bloc, il n’est pas nécessaire de changer ce paramètre.

- Data & Design :o Cliquer sur « New Subject/Session »o Scans : Cliquer sur « Specify » puis aller chercher toutes nos images

sw…..nii (les fichiers « smoothed » et « normalized ».o Conditions : Cliquer sur « New Condition » et répliquer la Condition 6

autres fois pour avoir 7 conditions différentes. C’est ici qu’on spécifie la séquence de notre tâche fonctionnelle.

1re condition Name : Écrire le nom de la condition Onsets : Écrire tous les temps (en sec) de début de présentation de

cette condition Durations : Écrire tous les temps (en sec) de la durée de

présentation de cette condition Time modulation : Laisser par défaut. Si ça peut vous intéresser

dans votre étude, cette fonction a pour but d’investiguer l’effet d’habituation entre les blocs/événements d’une même condition

Parametric modulation : Laisser par défaut. Si ça peut vous intéresser dans votre étude, cette fonction a pour but d’investiguer l’effet d’habituation à l’intérieur d’un même bloc.

Orthogonalise modulation : Laisser par défaut.

o Multiple conditions : Si jamais vous trouvez trop long de rentrer tous les temps de présentations et durées des conditions à la main, au lieu de cliquer sur « Conditions », vous pouvez cliquer sur « Multiple Conditions » et aller chercher un fichier .mat que vous aurez créé et qui contient toutes ces informations pour chacune des conditions. Également, si vos temps de présentation et durées sont différents pour chacun de vos sujets, il est utile de générer le fichier .mat pour tous les sujets, ce sera moins long que rentrer les temps manuellement dans SPM.

o Multiple regressors : Cliquer sur « Specify » et aller chercher le fichier texte qui contient tous les transformations linéaires effectuées à nos volumes à l’étape du réalignement (rp….. .txt). Ces informations sont entrées dans le modèle à titre de variables de nuisance. Cela veut dire qu’on veut estimer la valeur de nos β qui nous rapprochent le plus des valeurs observées (Y) en excluant la possibilité que l’effet observé provienne de ces paramètres de réalignement. Ainsi, le mouvement qui est corrélé aux conditions de la tâche est problématique, car il sera en quelque sorte exclu du modèle, donc on peut perdre un peu de signal.

o Tous les autres paramètres sont laissés tel quel.

On vient donc de spécifier notre GLM ! Vous pouvez sauvegarder cette étape de « model specification » et cliquer sur RUN (triangle vert), une fois certain que tout est correctement inscrit.

Ça ne devrait prendre que quelques secondes à Matlab de faire cette étape. Une fois l’étape complétée, SPM vous affiche une représentation graphique de notre matrice événementielle ou nos conditions (Figure 1). La dernière colonne en blanc est une constance (β0) où la droite de régression devrait couper l’axe des y. Les 6 avant-dernières colonnes sont nos 3 paramètres de translation et nos 3 paramètres de rotations (qui proviennent du fichier texte) qui sont maintenant dans notre modèle. Les premières colonnes représentent chacune nos conditions que nous avons spécifiées.

Contrôle qualité : Vous pouvez également sauvegarder ce fichier en faisant « File », « Save As », car ce fichier nous permet de repérer facilement si une erreur s’est glissée dans l’entrée de données des conditions. *(Par exemple, il est impossible que 2 blocs/événements de condition différente soient présentés exactement au même temps; si c’est le cas, vous avez fait une erreur dans les durées ou temps de présentations des conditions). Il est également important de vérifier cette représentation graphique pour s’assurer que vous avez le nombre de paramètres que vous vous attendiez (Figure 1).

Dans votre dossier stats ou GLM pour le sujet 1, vous pouvez maintenant voir un fichier de type ‘spm.mat’ : notre GLM.

Figure 1. Matrice événementielle d’un sujet

3. Une fois que nos conditions ont été créées, nous allons estimer notre modèle linéaire général

Il nous reste seulement à estimer nos paramètres β. Pour ce faire, dans la fenêtre en haut à gauche de SPM, vous allez cliquer sur « Estimate ».

- Tout ce que vous avez à faire est de cliquer sur Select spm.mat et choisir le fichier que nous venons de créer dans le dossier stats ou GLM, pour indiquer à SPM d’estimer les paramètres de ce modèle.

- Laisser les autres paramètres par défaut.

Il n’est pas nécessaire de sauvegarder cette étape, car il est presque impossible de faire des erreurs ici. L’estimation ne crée pas un nouveau fichier.

La prochaine étape : Créer nos contrastes d’intérêts à partir de nos conditions = analyses intra-sujets. CE SERA POUR LE PROCHAIN COURS !

FIN pour ajourd’hui!