Stiftung Tierärztliche Hochschule Hannover (TiHo)TiHo eLib

Evaluation einer neuen KI-basierten Software zur kameragestützten markerlosen objektiven Ganganalyse der Vordergliedmaße beim Hund

Neuste Studien im Bereich der objektiven Ganganalyse beim Tier beschäftigen sich mit der Erforschung und Einsatzbarkeit von Deep-Learning-Systemen zu markerlosen, kinematischen, kameragestützten Untersuchungen. Der Einsatz von kinematischen in Kombination mit kinetischen Untersuchungen gilt zurzeit als Goldstandard in der objektiven Ganganalyse. Meist werden hierbei noch markerbasierte Methoden zur kinematischen Untersuchung genutzt. Die Nutzung der Marker bringt jedoch einige Nachteile mit sich. Vor allem die mögliche Beeinflussung des Gangbildes durch die Befestigung der Marker am Tier erweist sich als enorme Beeinträchtigung einer adäquaten Gangbildanalyse. Der Einsatz markerloser Systeme ist somit ein sinnvoller Schritt. Erst die Entwicklungen im Bereich der künstlichen Intelligenz, welche eine automatische Erfassung der interessanten anatomischen Punkte ermöglichen, versprechen jedoch eine praktikable Anwendung, da ansonsten ein zeit-, kosten- und personalintensives Labeln aller einzelner Standbilder eines aufgezeichneten Videos zur Analyse nötig ist. In dieser Studie wurde eine neue Deep-Learning-Software des Unternehmens „VetVise“ auf die Genauigkeit der automatisierten Markerplatzierung bei unterschiedlichen Hunderassen untersucht. Das zugrundeliegende Deep Convolutional Neuronal Network (DCNN) wurde mit 2573 Standbildern trainiert. Ausgewertet wurden ausgewählte Sequenzen von jeweils zwei Videos von elf Hunden. Bei 67,28 % aller Daten konnte insgesamt eine korrekte automatische Platzierung durch das System festgestellt werden. Hier lässt sich unterscheiden in tatsächlich richtig gesetzte Markierungen (29,56 %) und richtig nicht gesetzte Markierungen (37,72 %), wenn der POI (point of interest) im Standbild verdeckt bzw. nicht sichtbar war. Gerade bei den Schulter- und Ellbogengelenken kam es vermehrt zu richtig nicht gesetzten Markierungen, da diese in vielen Sequenzen durchgängig von der Kamera abgewandt waren. Es zeigten sich dann kaum Fehlmarkierungen durch die Software. Die Karpalgelenke wurden meist gleichzeitig von beiden Seiten erfasst und waren nur selten verdeckt. Hier konnte ein höherer Anteil an richtig gesetzten Markierungen als bei den anderen Gelenken aufgezeichnet werden. Jedoch war auch der Anteil an Fehlmarkierungen mit 47,20 % bei beiden Karpalgelenken fast doppelt so hoch wie bei den anderen Gelenkpunkten. Bei der Aufschlüsselung der Werte nach den elf Probanden beziehungsweise nach den 22 Videos zeigte sich gerade bei einem Hund sehr schlechte Werte von unter 50 % richtig gesamt gesetzten Markierungen mit weniger als 10 % tatsächlich richtig gesetzten Markierungen. Hierbei handelte es sich um einen langhaarigen Hund mit schwarzer Fellfarbe. Die Gelenkpunkte wurden bei diesem Tier kaum von der Software erkannt. Sie waren jedoch auch für die Untersucher in den Standbildern schwierig zu identifizieren. Die Werte der anderen Probanden zeigten mit über 50 % bis zu über 80 % richtig gesamt gesetzten Markierungen teils sehr gute Ergebnisse. Limitationen der Studie zeigten sich vor allem in Bezug auf die geringe Probandenzahl in der Auswertung und in der geringen Anzahl an Trainingsbildern. Ein größerer Studienumfang dürfte weitere Erkenntnisse bezüglich der Robustheit des neuen Softwaresystems im Umgang mit unterschiedlichen Hunderassen aufzeigen. Weitere Trainingsdaten, vor allem von Tieren, bei denen die POI schlecht zu identifizieren sind, sollten eine Verbesserung des Systems mit sich bringen. Ein genauerer Vergleich der neuen Software zu den bereits verfügbaren Deep- Learning-Systemen zur Erkennung von POI für die Ganganalyse beim Tier wie beispielhaft „DeepLabCut“ sollte im Weiteren vorgenommen werden. Dabei wäre zu überprüfen, ob durch die neue Software perspektivisch bessere Leistungen erzielt werden können als durch die bereits verfügbaren Systeme. Es sollte stetig weiter an Deep-Learning-Systemen im Bereich der Ganganalyse beim Tier geforscht werden, um dem Tiermediziner eine einfach anwendbare, kostengünstige und schnelle, objektive Analyse des Gangbildes zu ermöglichen und ihn dadurch in der Diagnosefindung und der Auswahl der bestmöglichen Therapie zu unterstützen.

Recent studies in the field of objective gait analysis in animals focus on the exploration and applicability of "deep learning" systems to markerless, kinematic, camera-based examinations. The use of kinematic in combination with kinetic examinations is currently considered the gold standard in objective gait analysis. In most cases, marker-based methods are still used for kinematic examination. However, the use of markers has some disadvantages. Especially the possible influence on the gait pattern by attaching the markers to the animal proves to be an enormous impairment of an adequate gait analysis. The use of markerless systems is therefore a sensible step. However, only the developments in the field of artificial intelligence, which allow an automatic detection of the interesting anatomical points, promise a practicable application, since otherwise a time-, cost- and personnel-intensive labelling of all individual frames of a recorded video is necessary for the analysis. In this study, a new deep-learning software from the company “VetVise" was evaluated for accuracy of automated marker placement in different breeds of dogs. The underlying Deep Convolutional Neural Network (DCNN) was trained with 2573 frames. Selected sequences of two videos each from eleven dogs were evaluated. In 67,28 % of all data a correct automatic placement by the system could be detected. A distinction can be made between markings that were actually correctly placed (29,56 %) and markings that were correctly not placed (37,72 %) while the point of interest (POI) was covered or not visible in the still image. Especially in the case of the shoulder and elbow joints, there was an increased number of markings that were correctly not placed, since these were consistently turned away from the camera in many sequences. There were then hardly any mis-markings by the software. The carpal joints were mostly captured simultaneously from both sides and were only rarely covered. A higher proportion of correctly placed markings was recorded here than for the other joints. However, additionally the proportion of mislabeling for both carpal joints was with 47,20 % each almost twice as high as for the other joint points. The itemization of the values according to the eleven test individuals or rather the 22 videos showed very poor values for one dog in particular of less than 50 % correctly total set marks with less than 10 % actually correctly set marks. This was a long- haired dog with a black coat. The joint points of this animal were hardly recognized by the software but were also difficult to identify for the investigators in the frames. The values of the other test individuals showed with over 50 % up to over 80 % correctly set markings partly very good results. Limitations of the study were mainly related to the small number of subjects in the evaluation and the small number of training images. A larger study size should reveal further insights regarding the robustness of the new software system in dealing with different dog breeds. Additional training data, especially from animals in which POl are difficult to identify, should bring improvements to the system. A more detailed comparison of the new software to the already available deep learning systems for the recognition of POl for gait analysis in animals, such as “DeepLabÇut”, should be made in the future. It should be checked whether the new software can achieve better performance than the systems already available. Further research should be conducted on deep learning systems in the field of animal gait analysis in order to provide veterinarians with an easy-to-use, cost-effective and fast objective analysis of the gait pattern and thus support them in finding a diagnosis and selecting the best possible therapy.

Cite

Citation style:
Could not load citation form.

Access Statistic

Total:
Downloads:
Abtractviews:
Last 12 Month:
Downloads:
Abtractviews:

Rights

Use and reproduction: