Ce document et toutes les figures sauf la Fig. 1 sont générés à la volée en compilant le fichier d’entrée via les interprètes R et LaTeX à l’aide du package knitr. Ceci produit le pdf de sortie ainsi que tous les chiffres statistiques et résumés démographiques quantitatifs.
Sélection de la cohorte
L’échantillon a été recruté entre janvier 2010 et février 2014. La sélection globale des cohortes a cherché à correspondre à la répartition démographique des enfants âgés de 7 à 18 ans aux États-Unis, sur la base des données du recensement américain, en termes de race, d’origine ethnique, de sexe et de revenu familial. Les données ont été collectées sur un seul site, le Centre de cartographie cérébrale Ahmanson-Lovelace de l’UCLA, par le Laboratoire de Technologie d’IRM Fonctionnelle (LOFT). Des enfants en développement généralement en bonne santé âgés de 7 à 18 ans ont été inscrits à cette étude. Les critères d’exclusion ont été conçus pour éliminer les enfants : (1) ayant des troubles médicaux diagnostiqués antérieurement (y compris des troubles du développement, neurologiques, psychiatriques et d’apprentissage); (2) qui répondaient aux critères d’un trouble d’apprentissage/psychiatrique ou d’une affection neurologique non diagnostiquée antérieurement; (3) qui ont été exposés à des conditions environnementales connues ou susceptibles d’avoir un impact sur le développement normal; (4) qui ne peuvent pas subir une IRM; et 5) avec une maîtrise limitée de l’anglais (car plusieurs tests à administrer dans le cadre de cette étude n’étaient pas disponibles dans des langues autres que l’anglais). La liste complète des critères d’exclusion est ci-dessous :
-
Développement &Troubles médicaux: Trouble connu du développement (Incapacité à prospérer; PCU, etc.).
-
Déficience auditive nécessitant une aide auditive.
-
Déficience visuelle (strabisme, handicap visuel non corrigible avec des lunettes régulières).
-
Diabète (Type I, traité à l’insuline).
-
Maladie rhumatologique systémique (par exemple, glomérulonéphrite, endocardite).
-
Malignité systémique nécessitant une chimio-&Radiothérapie du SNC Malformation cardiaque congénitale.
-
Troubles neurologiques, troubles épileptiques.
-
Infection au SNC (par exemple, méningite).
-
Tumeur cérébrale.
-
Antécédents de blessure à la tête fermée avec perte de conscience >5 min.
-
Dystrophie musculaire ou dystrophie myotonique.
-
Troubles Comportementaux, Psychiatriques, &Troubles d’apprentissage: Schizophrénie, Trouble du Spectre de l’Autisme, Troubles Bipolaires, Dépression Majeure Récurrente, Trouble Déficitaire de l’Attention Avec Hyperactivité (TDAH), Trouble des Conduites, Trouble de La Tourette, Trouble Obsessionnel Complusif (TOC), Toxicomanie.
-
Score de sous-échelle de la Liste de contrôle du comportement de l’enfant (CBCL) <70.
-
Indice de QI <80.
-
Score de réussite >2 s.d. en dessous des normes d’âge.
-
Trouble du langage actuel/passé (dyslexie, bégaiement).
-
Placement en éducation spécialisée.
-
Contre-indications de l’IRM : Implants métalliques (broches, broches) ou fragments métalliques, implants de stimulateur cardiaque ou médicaux électroniques, claustrophobie, grossesse.
-
Maîtrise limitée de l’anglais.
Le consentement éclairé écrit pour participer à l’étude et à la diffusion publique des données a été obtenu de chaque sujet et de leurs parents conformément aux directives de l’Institutional Review Board (IRB) de l’Université de Californie à Los Angeles (UCLA) avant l’évaluation du QI et les analyses de RM.
Évaluation du comportement et de l’environnement
Évaluation psychométrique
L’échelle d’intelligence abrégée de Wechsler (WASI) 30,31 a été administrée à chaque sujet, ce qui a donné trois mesures complémentaires du QI: le QI Verbal (Vocabulaire, Similarités), le QI de Performance (Raisonnement Matriciel, Conception de Blocs) et le QI à grande Échelle. Les corrélations entre le QI à grande échelle et le QI verbal sont de 0,89, entre le QI à grande échelle et le QI de performance est de 0,86 et entre le QI de performance et le QI verbal est de 0,54.
L’évaluation du statut socioéconomique et des antécédents parentaux
Le revenu familial a été quantifié dans une fourchette autodéclarée définie en USD. La distribution des données démographiques de base de la cohorte est illustrée à la Fig. 2. Les niveaux d’éducation paternelle et maternelle ont été déterminés par les années d’éducation avec, dans cette cohorte, un minimum de huit ans avec plusieurs matières ayant ≥20 ans d’éducation. Celles-ci ont ensuite été traduites en années d’études pour les deux parents, lorsqu’elles étaient disponibles. Les sujets ont également fourni des scores d’échelle d’auto-évaluation à la fois sur l’échelle de la communauté et sur l’échelle des SSE. L’échelle communautaire identifie la position sociale perçue du sujet au sein de sa communauté locale. L’échelle-SES identifie la richesse perçue du sujet par rapport à la société dans son ensemble. Les deux sous-échelles sont comprises entre 1 et 6, où les valeurs correspondent aux échelons de l’échelle.
Méthodes d’acquisition d’images
Toutes les données IRM ont été acquises sur un scanner Siemens 3 T TIM Trio à l’aide de la bobine de tête à 12 canaux du produit.
Acquisition pondérée T1
Des images d’Écho de Gradient d’Acquisition rapide préparées par aimantation (MPRAGE) ont été acquises à l’aide d’une séquence de récupération d’inversion 3D avec TR/TE/TI=2,170/4.33/1,100 ms. La résolution est de 1 × 1 × 1 mm3 avec une taille de matrice de 256 × 256× 192. L’angle de retournement = 7° et le temps de balayage total était de 8:08 min.
Flux sanguin cérébral
Des images marquées par spin artériel pseudo-continu (pCASL) ont été acquises à l’aide d’une imagerie planaire en écho de gradient (EPI) avec TR / TE = 4 000 / 12 ms. La résolution est de 3,125 ×3,125 ×6 mm (5 mm avec un écart de 1 mm) sur une matrice 64×64×24. 40 paires étiquette/contrôle ont été acquises. L’acquisition partiellement parallèle à autocalibrage généralisé (GRAPPA) a été utilisée avec un facteur d’accélération de 2. La durée d’étiquetage était de 1,5 s et le délai de post-étiquetage était de 1,2 s. Le temps d’imagerie total était de 5: 30 min.
Acquisition du tenseur de diffusion
Des images pondérées par diffusion ont été acquises avec des tranches multiples en une seule prise en utilisant des EPI à écho de spin avec TR/TE = 9 500 / 87 ms. Un seul volume b = 0 a été acquis le long d’images pondérées par diffusion pour 30 directions avec une valeur b = 1 000. La résolution est de 2×2×2 mm avec une taille de matrice de 128×128×75 voxels. L’angle de retournement = 90°.
Acquisition en GRAS
Des images en fonction du niveau d’oxygène dans le sang (en GRAS) ont été acquises à l’état de repos à l’aide d’EPI 2D avec TR/TE = 2 000 /27 ms. La résolution est de 4×4×4 mm sur une matrice de 64×64×25 et jusqu’à 244 points temporels ont été acquis. L’angle de retournement = 80°. Les sujets devaient se détendre tranquillement tout en regardant un point de fixation.
Méthodes de traitement d’image
Nous utilisons des Outils de normalisation avancés avec R (ANTsR)http://stnava.github.io/ANTsR/ afin de vérifier, d’organiser et d’assembler un fichier de base de données de modalité multiple qui résume la gamme de mesures disponibles dans le PTBP. Tous les scripts et le code source sont disponibles dans ANTsR et ses dépendances.
ANTsR (answer) est un cadre d’analyse en science ouverte qui vise à permettre des études biomédicales prédictives intégrant des modalités d’imagerie à d’autres données. ANTsR résout les besoins statistiques avec R, le langage de calcul statistique, tout en utilisant un noyau ANTs pour l’enregistrement d’images, la segmentation et la construction de templates 32-36. Ce cadre est particulièrement général en ce sens qu’il ne fait aucune hypothèse sur le contenu de l’image ou les systèmes d’organes auxquels il est appliqué et convient aux données à N dimensions (2D, 3D, 4D). Comme preuve de cette généralité, les outils ANTsR ont remporté deux concours d’enregistrement indépendants, l’un dans brain MRI37 et l’autre dans lung CT38. De plus, l’ANTsR joue un rôle déterminant dans l’une des principales méthodes de fusion d’étiquettes articulaires (segmentation multi-atlas) actuellement disponibles pour l’étiquetage anatomique automatisé39 et a récemment remporté des concours ouverts de segmentation / prédiction, BRATS 2013 au MICCAI 2013 (réf. 40) et les défis SATA à MICCAI 2012 et MICCAI 2013, ce dernier utilisant plusieurs modalités à travers les espèces et les systèmes d’organes. En même temps, le cadre est personnalisable de sorte qu’il peut être utilisé pour résoudre des problèmes d’analyse spécifiques en intégrant des connaissances préalables. Nous décrivons ci-dessous comment nous utilisons ANTsR pour :: (1) fournir un modèle de population multicanal représentatif des modalités disponibles dans le PTBP; (2) vérifier la qualité des données et la validité des décisions de traitement dans chaque modalité; (3) calculer des mesures sommaires qui permettent aux biostatisticiens et autres chercheurs d’accéder facilement aux données du PTBP sans charge de traitement d’images à grande échelle. Dans la section suivante, nous présenterons des mesures sommaires clés qui servent à appuyer la validité de l’acquisition et du post-traitement. Tous les logiciels utilisés pour atteindre ces résultats sont accessibles au public et des efforts importants sont déployés pour documenter à la fois des cas d’utilisation de haut niveau et des outils individuels. La publication des flux de données et de post-traitement, ensemble, constitue une approche de la science ouverte de plus en plus reconnue comme essentielle à l’avancement de la science41–43.
Modèle de population à modalité multiple
La normalisation des images dans un système de coordonnées standard réduit la variabilité intersubjective dans les études de population, permet de comparer les coordonnées entre les études et permet d’utiliser des techniques de segmentation / étiquetage antérieures. Ces derniers sont importants pour la segmentation tissulaire, l’extraction cérébrale, la parcellation corticale et les études de connectivité fonctionnelle ou structurelle. Diverses approches existent pour déterminer l’espace normalisé, telles que la sélection d’un modèle préexistant basé sur un seul sujet, par exemple, le Talairach atlas44, ou un groupe de sujets moyennés accessibles au public, par exemple, les modèles MNI45 ou ICBM46. Nous utilisons la méthode de normalisation symétrique par groupe (SyGN) de ref. 47 qui modélise explicitement la composante géométrique de l’espace normalisé lors de l’optimisation pour produire des images cérébrales qui représentent la population étudiée en termes à la fois de forme de l’anatomie et d’apparence de l’anatomie. Le couplage de la symétrie intrinsèque de l’enregistrement par paires syn33 et de la moyenne optimisée de l’apparence du modèle basée sur la forme de SyGN conduit à un cadre puissant pour les études d’imagerie spécifiques à une population à travers les modalités et les espèces47–51. Nous réalisons cette généralité d’application en stockant des informations préalables spécifiques à la population dans l’espace modèle pour faciliter l’extraction du cerveau ou d’autres étapes de quantification.
Traditionnellement, cette approche était utilisée pour des modalités uniques mais, plus récemment, elle est étendue à plusieurs modalités via des modèles spécifiques à la cohorte qui capturent la forme et l’apparence moyennes des images T1, DTI et fonctionnelles, comme dans les références 25, 32, 49, 52. Certains de ces modèles ont été mis à la disposition du public29 et comprennent des moyennes de population avec des variations selon l’âge et la modalité. Bien que ces ressources soient utiles, nous suivons la philosophie consistant à créer un modèle spécifique à la population pour le PTBP et ses modalités de manière à tirer parti de la dernière méthodologie d’enregistrement d’images.
Notre procédure de construction de modèles construit d’abord une image moyenne du cerveau T1 à partir de la population complète (n = 119). Nous extrayons ensuite le cerveau de modèle basé sur l’étiquetage multi-templates 39,53, actuellement à la pointe de la technologie pour l’étiquetage automatisé. En utilisant une procédure similaire, nous générons des antécédents tissulaires / structuraux probabilistes pour chacun des 6 tissus d’intérêt: cortex, matière grise profonde, liquide céphalo-rachidien, substance blanche et cervelet. Un résumé de la procédure de création de modèles est disponible, avec deux exemples d’ensembles de données, à l’adresse https://github.com/ntustison/TemplateBuildingExample (il s’agit d’un exemple d’utilisation pédagogique, pas d’un ensemble de données archivé ou d’un logiciel publié). Les mêmes méthodes ont construit les modèles disponibles à la réf. 29 que nous avons utilisé comme point de départ pour la génération précédente de tissus personnalisés PTBP. Une fois l’image moyenne et les antécédents terminés (fichier PTBP.zip), on peut transférer l’ensemble des données par un petit enregistrement de déformation dans l’espace MNI standard54 (fichier PTBP_MNI.zip).
Traitement basé sur un modèle d’images T1 de sujets individuels
Un aperçu du pipeline structurel basé sur ANTs est disponible en réf. 29. Avec un modèle T1 finalisé, nous sommes en mesure de segmenter et de traiter les données T1 individuelles. Nous traitons ensuite des modalités individuelles, y compris DTI, ASL et BOLD. Enfin, nous générons les transformations géométriques des modalités d’accompagnement à l’image anatomique T1 de base ainsi que l’espace modèle. Nous y parvenons après le traitement de l’ensemble de données de modalité multiple complet, comme décrit ci-dessous. Au total, les étapes de traitement d’un ensemble de données de modalité multiple individuel sont détaillées ici http://jeffduda.github.io/NeuroBattery/, ainsi qu’un exemple d’ensemble de données et de modèle pouvant être utilisés pour vérifier la reproductibilité de la procédure. Ceci est répété pour chaque individu d’une population. Nous donnons maintenant un aperçu des étapes de traitement pour T1 puis pour chaque modalité. La figure 1 résume le pipeline complet.
Extraction du cerveau T1
L’extraction du cerveau à l’aide de FOURMIS combine des modèles de prieurs, un enregistrement d’images cérébrales à haute performance33 et des Atropos32 avec des raffinements topologiques basés sur la morphologie mathématique, comme décrit dans ref. 29 et mis en œuvre en antsBrainExtraction.sh . Un exemple de cas d’utilisation est ici https://github.com/ntustison/antsBrainExtractionExample (il s’agit d’un exemple d’utilisation pédagogique, pas d’un ensemble de données archivé ou d’un logiciel publié). En bref, À cette étape, nous utilisons un enregistrement grossier et relativement rapide pour calculer une chaîne entre l’image de la tête entière du modèle et le sujet d’intérêt. Cela nous permet de déformer une extraction cérébrale probabiliste du modèle dans l’espace du sujet. La carte de probabilité du modèle déformé est seuillée à 0,5 et le masque résultant est dilaté avec un rayon de 2. Atropos est ensuite utilisé pour générer une estimation initiale de segmentation en 3 tissus dans la région du masque. Chacun des trois masques tissulaires subit des opérations morphologiques spécifiques qui sont ensuite combinées pour créer un masque d’extraction cérébrale destiné à être utilisé dans le reste du flux de travail sur l’épaisseur corticale. Une comparaison utilisant des données cérébrales en accès libre avec des algorithmes d’extraction cérébrale accessibles au public, y compris 3dIntracranial55 d’AFNI, BET2 de FSL (réf. 56), mri_watershed57 de Freesurfer et BrainSuite58 ont démontré que notre approche combinée d’enregistrement/ segmentation 47 fonctionne au plus haut niveau aux côtés de BrainSuite (tuned) et de FreeSurfer.
Six segmentation tissulaire
Notre procédure de segmentation s’appuie sur deux méthodes qui sont guidées par des antécédents anatomiques et qui fonctionnent de concert pour parceller le cerveau en six classes anatomiques / tissulaires: liquide céphalo-rachidien, matière grise corticale, matière grise profonde, substance blanche, tronc cérébral et cervelet. Ces prieurs tissulaires sont d’abord mappés dans l’espace sujet en effectuant un enregistrement SYN de déformation importante entre le cerveau modèle et le cerveau sujet individuel, comme dans les références 37, 42, 59. Les prieurs de modèle déformés sont ensuite utilisés pour guider la segmentation de maximisation des attentes (EM) (segmentation basée sur les prior Atropos32) en alternance avec une correction d’inhomogénéité via l’algorithme de correction de champ de polarisation n434. Le nom N4 provient du fait qu’il s’agit d’une amélioration de l’algorithme classique N360. Atropos fait référence à une figure de la mythologie grecque qui maniait des « cisailles du destin »; dans le cas de la segmentation, les cisailles font référence à la division de l’image en parties. En raison de l’interaction importante entre la segmentation et la correction de biais, nous effectuons plusieurs itérations N4 ⇔ Atropos. Afin de mieux intégrer Atropos et N4, nous utilisons un masque de poids de probabilité tissulaire pur généré à partir des probabilités postérieures générées par le processus de segmentation. Cette procédure est décrite plus en détail dans les références 29 et 32. Un exemple reproductible d’ensemble de données de segmentation et de ligne de commande pour la méthode ANTs antsAtroposN4.sh est ici https://github.com/ntustison/antsAtroposN4Example (il s’agit d’un exemple d’utilisation pédagogique, pas d’un ensemble de données archivé ou d’un logiciel publié).
Estimation directe de l’épaisseur corticale (alias KellySlater/KellyKapowski)
La segmentation cérébrale nous permet de calculer l’épaisseur corticale via l’algorithme d’épaisseur corticale (DiReCT) basé sur l’enregistrement difféomorphe. DiReCT a été introduit en réf. 61 et mis à disposition chez les fourmis avec le programme KellySlater. Depuis lors, plusieurs améliorations ont été apportées et intégrées au programme KellyKapowski, en particulier la détermination d’un jeu de paramètres automatisé basé sur une expérimentation approfondie et une comparaison avec des valeurs d’épaisseur corticale de référence disponibles dans la littérature. Fait important, nous avons récemment montré que ces méthodes surpassent le pack FreeSurfer 62 en termes d’extraction d’informations à partir de l’épaisseur corticale prédictives du sexe et de l’âge dans une grande collection de neuroimages à travers la vie29. Parmi les avancées les plus significatives, l’implémentation la plus récente est multithread, écrite dans un style de codage ITK rigoureux, et a été rendue publique via ANTs avec une conception d’interface utilisateur unique développée spécifiquement pour les outils ANTs. Un exemple de cas d’utilisation avec des données bidimensionnelles de référence se trouve dans https://github.com/ntustison/antsCorticalThicknessExample (il s’agit d’un exemple d’utilisation pédagogique, pas d’un ensemble de données archivé ou d’un logiciel publié). En fin de compte, l’algorithme DiReCT produit une image, dans l’espace T1 du sujet, qui contient des mesures d’épaisseur corticale en voxel appropriées pour une utilisation dans des études statistiques basées sur des voxels ou des régions comme dans les références 50, 63-65.
Marquage cérébral régional avec des étiquettes AAL
La dernière étape de notre pipeline T1 consiste à produire des mesures sommaires du volume cérébral global, de la segmentation des six tissus et de l’épaisseur corticale régionale et lobaire. À cet effet, nous utilisons l’ensemble d’étiquettes AAL largement utilisé66. Ces étiquettes sont transformées de notre espace modèle de groupe haute résolution en espace sujet individuel en suivant l’inverse du mappage difféomorphe du modèle. AAL contient des parcellations régionales standard du cortex, du cervelet et des structures de matière grise profonde, y compris le putamen, le thalamus, l’hippocampe et le caudé. Pour chaque sujet que nous traitons, nous mesurons ces volumes et l’épaisseur moyenne régionale en produisant une seule rangée d’informations qui sont finalement entrées dans un fichier démographique sommaire. Ceci est utilisé non seulement pour effectuer des études de variables de cohorte, mais aussi pour vérifier les données initiales, c’est-à-dire identifier les sujets avec des valeurs aberrantes globales ou régionales par rapport aux valeurs de référence connues.
Traitement DTI
Notre procédure d’analyse DTI avec des FOURMIS a été validée en réf. 67. En bref, nous avons développé un pipeline de traitement automatisé pour l’imagerie de diffusion à l’aide des outils open source Camino68 et ANTs, qui fournit le prétraitement, l’extraction cérébrale, le calcul du tenseur de diffusion et la normalisation dans l’espace modèle, ainsi que des images de diagnostic dans l’espace sujet pour faciliter le contrôle de la qualité, y compris l’anisotropie fractionnée, le DWI corrigé moyen et la variance du bruit. Le cœur de la méthode consiste d’abord à traiter les données dans l’espace DWI et, par la suite, à transformer les données en espace de modèle T1 individuel ou de groupe.
La première étape du traitement DTI consiste à effectuer une correction de mouvement et de distorsion des images pondérées par diffusion. La première image non pondérée de la séquence de diffusion est utilisée comme image de référence pour la correction de mouvement et de distorsion. Les images non pondérées restantes sont rigidement alignées sur l’image de référence et moyennées ; cette image moyenne est utilisée comme image de référence pour la correction affine des images pondérées par diffusion (DWI) pour le mouvement et la distorsion causés par les gradients de pondération de diffusion. Un masque cérébral est calculé en alignant le DWI moyen sur un modèle et en déformant le masque cérébral modèle dans l’espace sujet. Le traitement se poursuit ensuite sur l’image extraite du cerveau. Les tenseurs de diffusion sont calculés à l’aide d’un algorithme des moindres carrés linéaires pondérés itératif69.
Les DTI transformées sont déformées dans l’espace modèle en combinant la chaîne DWI intra-sujet à T1 avec la chaîne précédemment définie pour normaliser l’image T1 du sujet dans l’espace modèle. L’orientation anatomique correcte des tenseurs de diffusion est préservée en appliquant la méthode de conservation de la direction principale70, et des statistiques scalaires telles que FA et la diffusivité moyenne sont calculées à partir des tenseurs de diffusion normalisés.
Estimation des variables de nuisance dans les images fonctionnelles
Plusieurs étapes sont communes au traitement de l’IRM fonctionnelle en GRAS ou en ASL. Ceux-ci comprennent l’extraction du cerveau, la correction du mouvement et l’estimation de la variable de nuisance. Au cours des une à deux dernières années, nous avons introduit des méthodes dans ANTs pour estimer ces paramètres à partir de données de séries chronologiques 4D. La correction de mouvement est effectuée par le programme antsMotionCorr dans ANTs qui utilise une métrique de similarité d’informations mutuelles et un optimiseur de gradient conjugué non linéaire pour maximiser la similitude Affine ou rigide entre chaque image d’une série temporelle et une image de référence spécifique à une séquence. Ces méthodes sont basées sur la révision de la version 4 d’Insight ToolKit, comme décrit dans ref. 71. Les paramètres de mouvement pour chaque période de temps sont écrits dans un fichier CSV de sorte qu’ils puissent être résumés et éventuellement utilisés comme variables de nuisance dans les statistiques au niveau de la population72. Nous faisons différents choix d’image de référence pour chaque modalité. Pour GRAS, nous choisissons l’image moyenne de la série à temps plein. Pour CASL et pCASL, nous choisissons l’image étiquetée de contrôle moyen. Pour PASL, nous utilisons l’image M0 acquise. Un masque cérébral est calculé soit par une procédure morphologique simple (érosion morphologique suivie d’une sélection de composants les plus importants et d’une dilatation morphologique), soit en alignant l’image de correction de mouvement de référence sur un modèle spécifique à la séquence et en déformant le masque cérébral modèle dans l’espace sujet. Pour le PTBP, nous avons utilisé cette dernière approche.
La deuxième nuisance majeure, au–delà du mouvement, est le bruit physiologique73-75. Bien qu’il faille sélectionner des paramètres de nuisance optimaux pour chaque étude et en fonction de la qualité des données, nous choisissons d’utiliser l’approche CompCor pilotée par les données et automatique75 qui a été validée en ASL et en GRAS et ne repose pas sur la segmentation anatomique. L’approche effectue une décomposition en valeurs singulières sur des voxels à variance temporelle élevée et utilise (typiquement 3 à 6) des vecteurs singuliers comme régresseurs de nuisance. Il a été démontré que ces régresseurs capturent le mouvement physiologique, le bruit du scanner et d’autres facteurs sans rapport avec le flux sanguin cérébral ou l’activation AUDACIEUSE. La correction de mouvement et l’estimation de CompCor avec ANTs sont présentées ici https://github.com/stnava/fMRIANTs (ceci est un exemple d’utilisation pédagogique, pas un ensemble de données archivé ou un logiciel publié).
Le flux sanguin cérébral (CBF) issu de l’ASL
La perfusion parenchymateuse est un paramètre physiologique important dans l’évaluation et la prise en charge des troubles cérébraux ainsi qu’un indice de substitution de l’activité neurale76. L’IRM de perfusion ASL est également idéale pour les essais pharmaceutiques dans les populations pédiatriques car elle permet une quantification absolue de la CBF, est totalement non invasive et est potentiellement sensible à la réponse au traitement23. En revanche, les mesures définies neuroanatomiquement telles que l’épaisseur corticale22, 77, 78 et FA dérivent directement d’une propriété physique pertinente du tissu cérébral imagé et peuvent ne pas capturer les effets fonctionnels à plus court terme en raison d’une intervention ou d’un entraînement. Le PTBP établit la faisabilité de l’IRM ASL dans une tranche d’âge au cours de laquelle le cerveau se développe rapidement et lorsque des signes précoces de troubles neuropsychiatriques futurs peuvent apparaître. Cette mesure quantitative fonctionnelle (par rapport aux valeurs relatives fournies par BOLD) a le potentiel de révéler des altérations du cerveau dues à une blessure79, à une douleur80, à une intervention pharmacologique81,82 ou qui précèdent un changement structurel visible et peuvent indiquer une réorganisation corticale 83. CBF est une mesure fonctionnelle plus répétable que BOLD84, 85, peut être utilisée dans l’analyse de réseau au lieu ou en combinaison avec BOLD86 et fournit une vue unique sur le cerveau complémentaire de DTI et T1.
L’image M0 de chaque sujet, obtenue comme moyenne des images de contrôle, a été déformée sur l’image T1 du sujet à l’aide de la antsIntermodalityIntrasubject.sh scénario. Ces transformations ont été concaténées avec les transformations sujet à modèle pour déformer les étiquettes de modèle dans l’espace ASL natif du sujet. L’image M0 a servi de référence pour la correction de mouvement de tous les volumes temporels. En plus des régresseurs de mouvement et de nuisance décrits ci-dessus, nous avons inclus l’étiquette ou l’étiquette de contrôle de l’image en tant que régresseur, le coefficient de ce régresseur correspondant à la différence moyenne entre l’étiquette et le contrôle. Tous les régresseurs ont été inclus dans un schéma de régression robuste pour le calcul du cbf87. L’équation pour le calcul du CBF peut être trouvée dans la réf. 88 avec une efficacité d’étiquetage supposée de 0,85. Tous les détails sont disponibles dans le script open-source à https://raw.github.com/stnava/ANTs/master/Scripts/antsASLProcessing.sh (ceci est disponible dans le référentiel Figshare, Data Citation 1). La valeur de T1 dans le sang a été ajustée pour l’âge et le sexe en tant que T1 = (2115,6–21,5 * âge – 73,3 * sexe) ms, où le sexe féminin était réglé à 0 et le sexe masculin à 1, comme suggéré dans la réf. 88.
Analyse de réseau avec IRMf GRAS au repos
L’analyse de réseau peut être effectuée avec l’un des trois types de données de séries chronologiques d’entrée : GRAS standard, GRAS ASL ou CBF ASL. Le signal ASL-CBF peut présenter des avantages par rapport à BOLD, en particulier dans les régions orbitofronales et temporales antérieures où l’abandon du signal BOLD standard se produit89,90. Cependant, comme l’analyse de réseau ASL-CBF est relativement nouvelle et que nous avons d’autres méthodes de validation ASL-CBF, nous nous concentrons sur l’analyse de réseau en utilisant la modalité AUDACIEUSE au repos du PTBP. L’objectif est d’extraire des mesures de réseau standard qui peuvent être évaluées à des fins de comparaison avec des données démographiques pour aider à établir la validité de l’acquisition et du traitement.
Nous basons notre construction graphique / réseau sur les étiquettes corticales AAL standard que nous transformons de l’espace sujet T1 à l’espace GRAS. Nous préférons effectuer une analyse dans l’espace en GRAS pour minimiser les confusions associées à l’interpolation et au rééchantillonnage d’images de basse résolution car celles-ci peuvent biaiser les résultats d’une manière dépendante du sujet. Chaque image en GRAS est d’abord résidualisée par rapport aux paramètres de nuisance de base décrits ci-dessus, c’est-à-dire les paramètres de mouvement et les vecteurs singuliers de CompCor. Pour chaque étiquette AAL d’intérêt (ici seulement le cortex, étiquettes 1 à 90), un signal temporel moyen par région est calculé. Chaque série temporelle est ensuite filtrée passe-bande à l’aide du filtre de Christiano-Fitzgerald91, tel qu’implémenté par la fonction R cffilter dans le package mFilter, pour examiner une plage de fréquences appropriée au type de données spécifique. Pour le filtrage passe-bande, nous sélectionnons la gamme de fréquences 0,01-0,1 Hz sur la base de travaux antérieurs92 et d’analyses préliminaires, sur quelques sujets, de la reproductibilité du réseau. Le composant réseau du pipeline de traitement est disponible dans le script ANTS/ANTsR antsBOLDNetworkAnalysis.R qui suppose que les étiquettes cérébrales et les paramètres de mouvement sont disponibles. La sortie principale de ce script utilisé dans la vérification des données, ci-dessous, est la matrice de corrélation de Pearson N×N définie par la corrélation entre les signaux temporels filtrés pour chacune des N régions marquées.