Zunächst wurde ein biventrikuläres Segmentierungsmodell auf dem öffentlich verfügbaren M&Ms-2-Kardio-MRT-Datensatz trainiert, um myokardiale Masken für den linken und rechten Ventrikel (LV und RV) zu erzeugen.4
Zusätzlich wurde ein Bildregistrierungsmodell auf Basis eines Convolutional Neuronal Networks entwickelt, um Vektorfelder ϕ zu generieren und damit die Grundlage für die spätere Bewegungsanalyse zu bilden.
In Anlehnung an die von Koehler et al. 2022 veröffentlichte Methode2 berechnet ein spezielles Direction-Modul für jedes Voxel xᵢ innerhalb der LV- und RV-Masken die relative Bewegungsrichtung zwischen zwei aufeinanderfolgenden Bildframes als Winkel αᵢ. Dafür wird der jeweilige Bewegungsvektor vᵢ in Beziehung zu einem Positionsvektor wi gesetzt, der die Position des Voxels xᵢ in Bezug auf einen aus der Segmentierung abgeleiteten anatomischen Referenzpunkt beschreibt. Durch anatomisches Mapping und anschließende räumliche Aggregation entstehen daraus zwei eindimensionale Kurven die Myokardbewegungsrichtung als Kosinus des Winkels αᵢ (cos(α)), dem „Myocardial motion descriptor“, und dessen Bewegungsausmaß (Betrag der Vektoren vᵢ) über einen Herzzyklus abbildet. Die Methode wurde anschließend an dem ebenfalls öffentlichen und von dem Trainingsdatensatz unabhängigen ACDC-Datensatz5 angewandt. Die resultierenden LV- und RV-Kurven wurden hinsichtlich Unterschiede zwischen gesunden Probanden (NOR) und an dilatativer (DCM) oder hypertropher Kardiomyopathie (HCM), Myokardinfarkt (MINF) oder rechtsventrikulären Auffälligkeiten (RVMP) erkrankten Personen untersucht.