Skip to main content

🧠 ADHS im Auge erkennen?

ADHS Diagnostik am Auge?
ADHS Diagnostik am Auge?

Was Retinabilder über Neurodivergenz verraten können

Stell dir vor, du könntest ADHS mit einem Foto vom Augenhintergrund erkennen – ganz ohne Fragebögen, keine langen Interviews, kein Ratespiel. Eine neue koreanische Studie zeigt: Genau das könnte in Zukunft möglich sein.

👁 Der Augenhintergrund als Fenster ins Gehirn

Der sogenannte Fundus oculi – also die Netzhaut samt ihrer Blutgefäße und dem Sehnervenkopf – ist mehr als nur ein Teil des Auges. Er gehört entwicklungsgeschichtlich zum zentralen Nervensystem. Deshalb gilt die Retina in der Medizin auch als „Fenster zum Gehirn“.

Und genau das hat sich ein koreanisches Forschungsteam zunutze gemacht.

🔍 Was wurde untersucht?

Ein interdisziplinäres Team unter Leitung von Prof. Chun Geun-ah (Pädiatrische Psychiatrie, Severance Hospital, Seoul) und Prof. Park Yoo-rang (Yonsei University) analysierte 1.108 Retina-Bilder von Kindern mit und ohne ADHS. Mithilfe künstlicher Intelligenz (KI) wurde untersucht, ob sich aus diesen Bildern Hinweise auf ADHS erkennen lassen.

🧠 Was hat die KI gelernt?

Die Forscher nutzten vier verschiedene Machine-Learning-Algorithmen sowie die sogenannte AutoMorph-Pipeline – ein System, das die Form und Verteilung der Netzhautgefäße analysiert.

Die KI erkannte mit einer Genauigkeit von 96,9 %, ob ein Kind ADHS hatte oder nicht. Die wichtigsten Merkmale laut SHAP-Analyse:

  • erhöhte Gefäßdichte

  • verringerte Arterienweite

  • Veränderungen im Bereich des Sehnervenkopfs (Papille)

Zusätzlich konnte die KI sogar Defizite in der visuellen selektiven Aufmerksamkeit mit einer Genauigkeit von 87,3 % vorhersagen – ein Aspekt der exekutiven Funktionen, der bei vielen ADHS-Betroffenen eingeschränkt ist.

📏 Wie genau sind bisherige ADHS-Tests?

Zum Vergleich hier eine Übersicht der Diagnosegenauigkeit verschiedener ADHS-Testverfahren:

📌 Hinweis: Die Werte schwanken je nach Studienqualität und Alter der untersuchten Person. Die Angaben zur Retina-KI stammen aus der Studie von Chun Geun-ah et al. (2025).

💡 Was die Tabelle zeigt

Die klassischen Verfahren haben solide, aber keine überragende Genauigkeit. Sie sind oft abhängig von der Erfahrung der Diagnostiker:innen, der Offenheit der Betroffenen und von Situationsfaktoren.

Die neue Retina-KI sticht hier durch ihre hohe Genauigkeit hervor – allerdings im kontrollierten Setting einer Pilotstudie. Der reale Einsatz im Alltag (mit unterschiedlichen Kameras, Altersgruppen, Komorbiditäten) muss erst noch geprüft werden.

⚠️ Aber Vorsicht: Kein Ersatz für klinische Diagnostik

So vielversprechend das klingt – diese Methode ist noch im Forschungsstadium. Die Ergebnisse müssen in größeren, diverseren Populationen bestätigt werden. Auch die Kausalzusammenhänge sind unklar: Sind die Veränderungen Folge, Marker oder Nebenbefund?

Zudem bleiben ethische Fragen offen – etwa, wie mit „falsch-positiven“ Ergebnissen umgegangen wird oder ob die Technologie irgendwann in der Routinediagnostik landet.

🧬 Fazit

Die Studie liefert faszinierende Hinweise auf biologische Marker von ADHS im Augenhintergrund. Ob daraus ein Tool für die Praxis wird, bleibt abzuwarten – aber sie öffnet die Tür zu einer objektiveren Diagnostik, gerade bei Kindern, deren Verhalten oft falsch interpretiert wird.

📚 Quelle

Originalmeldung zur Studie (April 2025):
Yonsei University Medical Center via Yonhap News
👉 https://en.yna.co.kr/view/AEN20240417003400320 (Opens in a new window)

Was denkst du? Wäre eine solche Diagnosehilfe hilfreich – oder zu riskant? Diskutier mit uns in der ADHSSpektrum-Community (Opens in a new window) oder kommentiere diesen Beitrag!

Ich verarbeite Fachartikel / Mitteilungen auch mit Hilfe von KI für meine Informationen, überprüfe aber natürlich die Infos. Aber kein Mensch oder keine KI ist fehlerfrei. Also immer lieber auch den Arzt / Psychotherapeuten fragen und nicht allein auf das Internet verlassen.

0 comments

Would you like to be the first to write a comment?
Become a member of ADHS Blog und Community ADHSSpektrum and start the conversation.
Become a member