Vous êtes ici : Accueil > Actualités > L’IA pour l’IRM à haut champ : les multiples pistes de NeuroSpin pour ne plus choisir entre temps et qualité de l’image

Résultat scientifique | Brevet | Cerveau | IRM | Intelligence artificielle

L’IA pour l’IRM à haut champ : les multiples pistes développées par l’équipe MIND pour ne plus choisir entre temps et qualité de l’image


​​Les chercheurs de l’équipe MIND (NeuroSpin, CEA/Inria), spécialisés dans l’accélération de l’acquisition et du traitement des images par résonance magnétique, ont récemment publié trois articles sur des méthodologies de Compressed Sensing et Deep Learning qu’ils ont développées. Décryptage des stratégies.

Publié le 30 août 2023

​L'imagerie par résonance magnétique (IRM) à haut champ permet d'atteindre une haute résolution, mais au prix d'un temps d'acquisition des données très long qui limite, de fait, son utilisation pour des applications cliniques : en plus de l'inconfort généré pour le patient, l'examen est source d'artefacts liés aux mouvement de la personne et, pour certaines modalités, ne permet pas de visualiser des phénomènes physiologiques rapides. De nombreuses équipes travaillent à réduire ce temps d'acquisition tout en maintenant une qualité d'image élevée, grâce à des méthodes d'intelligence artificielle.

Comme​nt limiter la sensibilité à certains artefacts des méthodes de Compressed Sensing ?

Les procédés de Compressed Sensing sont de plus en plus utilisés pour réduire le temps d'acquisition. Ils consistent à acquérir moins de données que ce qui est théoriquement nécessaire puis à reconstruire une image grâce à des algorithmes dédiés. Cela repose sur l'optimisation de l'échantillonnage des données mesurées (voir l'encadré « L'espace de Fourier en IRM » et l'échantillonnage de données). Très performants, ces procédés ont néanmoins tendance à être plus sensibles aux artefacts dits « hors résonance » qui provoquent des distorsions géométriques et du flou dans l'image. Ils sont liés aux inhomogénéités du champ magnétique induites par la variabilité de susceptibilité magnétique dans les tissus, notamment aux interfaces entre l'air et les régions bucco-nasales et les canaux auriculaires. L'équipe MIND de NeuroSpin, dirigée par Philippe Ciuciu, a récemment publié deux articles pour pallier ce problème artefactuel de deux manières différentes.

  • ​​​Réso​ud​re la q​uestion dès l'acquisition ? MORE SPARKLING et GoLF SPARKLING 

Une première solution, la plus élégante, consiste à travailler sur l'acquisition des données elle-même. L'équipe, en collaboration avec Siemens Healthcare, a introduit deux nouveaux « modules » [1] qui peuvent être utilisés individuellement ou de façon combinée et démontre leur efficacité sur les algorithmes qu'elle a elle-même développés, SPARKLING (voir l'actualité du 13 mars 2019) et SPARKLING 3D (voir l'actualité du ​28 avril 2022) :

  1. ​​​MOR​E (Minimized Off Resonance Effects).

  2. La sensibilité aux artefacts hors résonance est corrigée en ajoutant à l'algorithme de Compressed Sensing un facteur de pondération lié au temps : les points d'échantillonnage de l'espace de Fourier qui sont loin les uns des autres sont contraints de l'être aussi temporellement.

  3. ​​

    ​​​​​En complémen​​t, GoLF ​(Gridding of Low Fequencies), pour réduire davantage le temps d'acquisition​.

L'échantillonnage à densité variable de l'espace de Fourier suréchantillonne son centre car c'est la partie la plus informative (voir encadré). Comme cela génère beaucoup d'informations redondantes, il serait intéressant de limiter ce sur-échantillonnage. GoLF consiste à imposer que l'échantillonnage des trajectoires lorsqu'elles sont proches du centre ne se fasse que selon un quadrillage local : ne sont conservés que les points qui sont sur la grille.

MORE et GOLF ont fait l'objet de dépôts de brevets (avec Siemens Healthcare pour MORE).

  • ​​​​​Ou​ la résoudre pa​​​r post-traitement ?

Une autre solution, viable par exemple sur des données SPARKLING existantes présentant des artefacts hors résonance, consiste à agir plus tard, en corrigeant ces données. Les méthodes de correction conventionnelles sont trop lentes pour être utilisées en clinique car elles prennent plusieurs heures pour corriger un seul volume. L'équipe a donc eu l'idée de combiner ce type de méthode à :

  1. un algo​rithme d'apprentissage profond (deep learning) qui apprend les paramètres de l'algorithme de reconstruction. Les chercheurs se sont appuyés sur leur précédente architecture de deep learning, NCPDNet, publiée en 2022 (https://pubmed.ncbi.nlm.nih.gov/35041598/),
  2. une compression de l'opérateur de correction qui a été introduit dans l'algorithme de reconstruction pour modéliser et compenser les artefacts hors résonance, afin de réduire drastiquement le coût de calcul lors des phases de vérification de l'adéquation des images aux données
  3. ​et du Compressed Sensing pour réduire le temps.

Au fur et à mesure que le protocole avance, il vérifie que chaque transformation faite sur les pixels de l'image est bien toujours compatible avec les données. En plus d'améliorer la qualité des images et d'en accélérer leur traitement, l'intérêt réside dans le fait que l'entraînement de l'algorithme, qui est la partie consommatrice en calcul et en temps, ne se fait pas au moment de l'examen[2].

Agir sur les deux fronts à l​​a fois : l'acquisition des données et la reconstruction d'images

Comme on l'a vu dans les deux exemples précédents, le Compressed Sensing peut être utilisé pour optimiser l'échantillonnage de données mesurées dans l'espace de Fourier ou pour accélérer la reconstruction d'images, mais ce principe théorique ne maximise pas explicitement en pratique la qualité image. Par ailleurs, récemment, les méthodes d'apprentissage profond ont permis de reconstruire des images IRM avec une grande qualité et de façon très rapide mais pour des schémas d'acquisition fixés à l'avance, lors de la phase d'entraînement des réseaux de neurones. Aujourd'hui, il est désormais possible d'aborder les deux problèmes simultanément, mais avec là encore des difficultés à résoudre. Le travail supervisé par Philippe Ciuciu[3] a consisté à développer une architecture de deep learning qui apprend :

  • les trajectoires dans l'espace de Fourier, en tenant compte des contraintes matérielles (des gradients notamment) qu'il intègre durant son apprentissage ;
  • ainsi que l'algorithme de reconstruction modélisé par un réseau de neurones de type NCPDNet.

Le processus (PROJECTOR) a été entraîné sur un jeu de données brutes 3D multi-canaux déjà disponible (Calgary, 167 IRMs pondérées en T1 à une résolution millimétrique). Il a vérifié au fur et à mesure des itérations de reconstruction que les images obtenues étaient bien conformes aux images de références obtenues par un protocole classique.

Une prochaine étape consistera à utiliser l'architecture apprise directement lors d'un examen IRM, c'est-à-dire de jouer les trajectoires apprises directement sur le système IRM.  ​


L'espace de Fourier en IRM et l'échantillonnage des données

​​​Pour des raisons liées à la nature même du signal de résonance magnétique nucléaire, les signaux enregistrés durant un examen IRM sont stockés dans une matrice qui n'est pas l'espace réel mais un espace dit de Fourier (ou espace k) à partir duquel les images peuvent être reconstruites.

Toute acquisition d'image en IRM correspond à un balayage du plan de Fourier selon des trajectoires définies qui correspondent à autant de séquences d'acquisition. A chaque séquence, le signal est recueilli pendant un intervalle de temps durant lequel il se déplace dans l'espace de Fourier. A chaque nouvelle séquence, un ou des paramètres sont modifiés, le signal parcourt une nouvelle trajectoire dans l'espace de Fourier. Le recueil des signaux se fait de façon parcimonieuse (sous-échantillonnage des données notamment dans les hautes fréquences).

Pour obtenir une image de la meilleure qualité possible, il faudrait pouvoir balayer le plus possible de l'espace de Fourier. Or cela est d'autant plus long que la résolution est élevée. Appliquer des algorithmes de compressed sensing à l'acquisition des données IRM consiste à optimiser les trajectoires de recueil du signal et leur sous-échantillonnage pour que les images reconstruites soient d'aussi bonne qualité qu'en IRM classique. Cet échantillonnage optimisé se fait à densité variable : les basses fréquences (au centre de l'espace de Fourier) qui contiennent plus d'information sur le signal et le contraste concentrent plus de mesures que les hautes fréquences qui contiennent les informations sur les détails, les contours et le bruit.​
Financement européen
Une partie de Ce travail a bénéficié du programme européen NUMERICS pour le financement d'une thèse en simulation numérique.

Tous ces travaux ont bénéficié d'un accès aux ressources HPC du CEA (CCRT) et du GENCI (super calculateurs Jean Zay).  ​​

Haut de page