Stiftung Tierärztliche Hochschule Hannover (TiHo)

Deep Learning in der tiermedizinischen Bildgebung : Entwicklung eines Algorithmus zur automatischen Erkennung von Bandscheibenvorfällen und anderen Rückenmarkserkrankungen auf MRT-Bildern von Hunden

Deep Learning basierte Convolutional Neural Networks sind die Grundlage maschinellen Lernens mit medizinischen Bilddaten. Sie besitzen die Fähigkeit, große Datenmengen zu verarbeiten und Bildeigenschaften direkt von den Rohdaten zu lernen. Aufgrund ihres Trainings sind diese Netzwerke im Endeffekt in der Lage, unbekannte Daten zu klassifizieren und Vorhersagen zu treffen.
Die Magnetresonanztomographie ist bei vielen Rückenmarkserkrankungen das Bildgebungsverfahren der Wahl. Die richtige Interpretation erfordert Zeit und Expertise von Radiologen, weshalb das Interesse groß ist, künstliche Intelligenz zur schnelleren Interpretation und Diagnosestellung medizinischer Bilddaten einzusetzen.
In dieser Studie wurde ein CNN mittels thorakolumbaler MRT-Bilder von 500 Hunden trainiert und getestet. Dabei wurden T1- und T2-gewichtete MRT-Bilder in sagittaler und transversaler Ebene verwendet. Das Netzwerk wurde sowohl mit unauffälligen Bildern trainiert als auch mit Bildern, auf denen folgende Rückenmarkspathologien zu erkennen waren: Bandscheibenextrusion, Bandscheibenprotrusion, ANNPE/FCE, Syringomyelie und Neoplasie.
Das Training des Netzwerkes war supervised und fand durch eine Person statt.
2693 MRT-Bilder von 375 Hunden wurden zum Netzwerktraining verwendet. Getestet wurde das Netzwerk anhand von 7695 MRT-Bildern von 125 Hunden.
Die besten Ergebnisse hat das Netzwerk im Erkennen von Bandscheibenprotrusionen auf sagittalen T1-gewichteten Aufnahmen mit einer Sensitivität von 100% und Spezifität von 95,10% erzielt. Auch im Erkennen von Bandscheibenextrusionen hat das Netzwerk vor allem auf sagittalen T2-gewichteten Aufnahmen mit einer Sensitivität von 90,80% und einer Spezifität von 98,98% sehr gute Ergebnisse erzielt.

FCEs und ANNPEs hat das Netzwerk mit einer Sensitivität von 62,22% und einer Spezifität von 97,90% auf sagittalen T2-gewichteten Aufnahmen erkannt und mit einer Sensitivität von 90,98% und einer Spezifität von 90,12% auf transversalen T2-gewichteten Aufnahmen.
Im Erkennen von Neoplasien und Syringomyelien hat das CNN keine guten Ergebnisse erzielt, da nicht hinreichend Trainingsdaten zur Verfügung standen bzw. das Netzwerk Probleme hatte, verschiedene Hyperintensitäten zu differenzieren und dadurch falsche Vorhersagen getroffen hat.
Limitationen dieser Studie sind daher der vergleichsweise kleine Datensatz mit einer ungleichen Verteilung der einzelnen Pathologien, woraus sich verschiedene Sensitivitäten und Spezifitäten für das Erkennen der jeweiligen Krankheitsbilder ergeben haben.
Zukünftige Studien könnten evaluieren, ob CNNs bessere Ergebnisse im Erkennen und Differenzieren von verschiedenen Rückenmarkspathologien mit größeren Datensätzen erzielen würden.
Diese Studie hat jedoch gezeigt, dass es grundsätzlich möglich ist, ein CNN in Hinsicht auf das Erkennen und Unterscheiden verschiedener Rückenmarkserkrankungen auf caninen MRT-Bildern zu trainieren.
CNNs haben daher großes Potenzial, in Zukunft als zweites Augenpaar für Bildgeber zu fungieren, einen schnelleren Fokus auf den veränderten Bildbereich zu legen und damit den Workflow in der Radiologie zu steigern.

Deep learning based Convolutional Neural Networks are the state-of-the-art machine learning technique with medical image data. They have the ability to process large amounts of data and learn image features directly from the raw data. Based on their training, these networks are ultimately able to classify unknown data and make predictions.
Magnetic resonance imaging is the imaging modality of choice for many spinal cord disorders. Proper interpretation requires time and expertise from radiologists, so there is great interest in using artificial intelligence to more quickly interpret and diagnose medical imaging data.
In this study, a CNN was trained and tested using thoracolumbar MRI images from 500 dogs. T1- and T2-weighted MR images in sagittal and transverse planes were used. The network was trained with normal images as well as with images showing the following spinal cord pathologies: Disc extrusion, disc protrusion, acute non-compressive nucleus pulposus extrusion / fibrocartilaginous embolism, syringomyelia and neoplasia.
Training of the network was supervised and took place by one person.
2693 MR images from 375 dogs were used for network training. The network was tested using 7695 MR images from 125 dogs.
The network performed best in detecting disc protrusions on sagittal T1-weighted images, with a sensitivity of 100% and specificity of 95.10%. The network also performed very well in detecting disc extrusions, especially on sagittal T2-weighted images, with a sensitivity of 90.80% and specificity of 98.98%.

The network detected FCEs and ANNPEs with a sensitivity of 62.22% and a specificity of 97.90% on sagittal T2-weighted images and with a sensitivity of 90.98% and a specificity of 90.12% on transverse T2-weighted images.
In detecting neoplasms and syringomyelia, the CNN did not perform well because of insufficient training data or because the network had problems differentiating different hyperintensities and thus made incorrect predictions.
Limitations of this study are therefore the comparatively small data set with an uneven distribution of each pathological entity, resulting in different sensitivities and specificities for detecting each pathology.
Future studies could evaluate whether CNNs would achieve better results in detecting and differentiating various spinal cord pathologies with larger data sets.
However, this study has shown that it is possible, in principle, to train a CNN in terms of recognizing and differentiating various spinal cord pathologies on canine MR images.
CNNs therefore have great potential to act as a “second eye” for imagers in the future, providing a faster focus on the altered image area and thus increasing workflow in radiology.

 

Cite

Citation style:
Could not load citation form.

Rights

Use and reproduction:

Export