Keynote „AI decoded“: In 4 Schritten zur KI-Lösung

 

ESC Digital & AI Summit 2025 | Keynote: In seinem Vortrag gab Dr. Max Tschochohei (Google Deutschland) Expertentipps zum erfolgreichen Einsatz von KI-Lösungen: „AI decoded: how researchers, practitioners and clinicians can leverage AI for the future of healthcare“. Im Interview verrät er, welche praktischen Schritte beim Start und bei der Umsetzung von KI-Projekten unverzichtbar sind, wie die Qualitätssicherung gelingen kann und welche KI-Fähigkeiten Kardiologinnen und Kardiologen für die Zukunft mitbringen sollten.

Von:

Martin Nölke

HERZMEDIZIN-Redaktion

 

21.11.2025

 

Bildquelle (Bild oben): Pani Garmyder / Shutterstock.com

KI als „Intelligenzverstärker“

 

HERZMEDIZIN: Welche Anwendungsbereiche von Künstlicher Intelligenz (KI) bieten heute und für die Zukunft das größte Potenzial für den Klinik- und Praxisalltag – und wo ist der Hype größer als der Nutzen?

Tschochohei: Meiner Einschätzung nach müssen wir bei KI im Gesundheitswesen stark zwischen „Science-Fiction“ und „Workflow-Optimierung“ unterscheiden. Das größte Potenzial sehe ich aktuell gar nicht unbedingt in vollautomatischen Agenten, die medizinisches Fachpersonal ersetzen, sondern in der administrativen Entlastung. Wenn wir KI nutzen, etwa durch Natural Language Processing, um die Erstellung und Verarbeitung von Arztbriefen zu automatisieren oder die Dokumentation per Sprache zu erledigen, gewinnen wir das Wichtigste zurück: Zeit für die Patientinnen und Patienten.

Medizinisch gesehen ist die bildgebende Diagnostik (Radiologie) bereits sehr weit. Hier ist KI ein unverzichtbarer Assistent für die Qualitätssicherung und das Screening geworden. Auch in der Pathologie, insbesondere in der Analyse von histopathologischen Slides, gibt es spannende Anwendungsfälle, die bereits heute im Einsatz sind.

Für die Zukunft sehe ich den größten Hebel in der Präzisionsmedizin. Dass wir wegkommen von Standardtherapien hin zu individuellen Behandlungen, die auf genetischen Daten basieren, die ein Mensch ohne KI gar nicht alle korrelieren könnte.

Kritisch sehe ich die Idee einer autonomen Behandlung, bei der mehrere Schritte, von der Anamnese bis zur Diagnose, vollautomatisiert ausgeführt werden sollen. Medizin ist zutiefst menschlich. Eine KI kann Muster erkennen, aber keine komplexen ethischen Abwägungen treffen. Der Mensch im Prozess, oder auch „Human in the Loop“, ist hier unersetzlich.

Kurz gesagt: KI sollte als „Intelligenzverstärker“ (Augmented Intelligence) für das medizinische Personal dienen, nicht als dessen Ersatz.

Zur Person

Dr. Max Tschochohei

Dr. Max Tschochohei ist Head of AI Engineering EMEA bei Google und berät mit seinem Team Unternehmen zu Cloud-basierten KI-Lösungen. Zuvor war er viele Jahre Berater bei der Boston Consulting Group. Er promovierte in Volkswirtschaftslehre und ist Co-Leiter der Forschungsgruppe „AI in Women’s Health“ am TUM Klinikum Rechts der Isar, München.

Dr. Max Tschochohei

4 Steps zur erfolgreichen KI-Implementierung

 

HERZMEDIZIN: Wenn eine Klinik oder Forschungseinrichtung ein KI-Projekt starten und umsetzen möchte: Welche praktischen Schritte sind unverzichtbar?

Tschochohei: Ein erfolgreiches KI-Projekt erfordert sowohl in der Versorgung als auch in der Forschung sehr viel Vorbereitung. Hier sind die vier Schritte, mit denen wir am TUM Klinikum in München bereits erfolgreich KI-Projekte umsetzen konnten:

Es beginnt mit der klaren Zieldefinition. Bevor wir über Technologie sprechen, müssen wir das klinische Problem verstehen. Wollen wir Prozesse beschleunigen oder Diagnosen präzisieren? Ein Projekt ohne klar definierte Anforderungen, die wir in Gesprächen mit Nutzenden erhoben haben, und messbaren Erfolgskriterien bleibt meist im Versuchsstadium stecken.

Als Nächstes kommt die Datenverfügbarkeit und deren Qualität. Das ist oft der Flaschenhals. Selbst wenn wir „Foundation Models“ nutzen, also validierte, vortrainierte Modelle, sind diese nur so gut wie der Kontext, den wir ihnen geben. Wir benötigen saubere, repräsentative Daten für die Systementwicklung und die anschließende Validierung. Diese Daten sollten idealerweise von medizinischem Fachpersonal annotiert werden, das heißt, geprüft und mit korrekten Erläuterungen versehen. Ohne gute Datenbasis riskieren wir Vorurteile und Fehler.

Als Drittes kommt die andere große Herausforderung: Die Compliance. Im Gesundheitswesen kommen wir an DSGVO, Ethik und der MDR (Medical Device Regulation) nicht vorbei. Diese Fragen müssen am Anfang geklärt werden, und nicht erst, wenn das Modell fertig ist. In meiner Zusammenarbeit mit deutschen Kliniken habe ich Ethik und Datenschutz dabei durchgängig als kollaborativer und offener wahrgenommen, als ihnen gemeinhin nachgesagt wird. Wichtig ist nur, ihnen in einem partizipativen Prozess und auf Augenhöhe zu begegnen, anstatt sie vor vollendete Tatsachen zu stellen. 

Als Viertes und Letztes kommt der Faktor Mensch. Wir brauchen nicht nur die IT-Infrastruktur, sondern auch die Skills. Wir müssen medizinisches Fachpersonal mitnehmen und schulen. Ein KI-Tool, das den Workflow stört, statt ihn zu erleichtern, wird nicht akzeptiert. 

Zusammenfassend: Technik ist wichtig, aber klare Zielsetzungen, Datenqualität, Compliance und die Einbindung der Menschen sind die eigentlichen Erfolgsfaktoren.

Qualität sichern: „Human in the Loop“

 

HERZMEDIZIN: Wie lassen sich Qualität und Verlässlichkeit der KI-Lösungen sicherstellen?

Tschochohei: Qualität und Verlässlichkeit stehen in der Medizin an erster Stelle. Um diese sicherzustellen, sehe ich drei wesentliche Verteidigungslinien: Zuerst müssen KI-Lösungen vor dem ersten Einsatz validiert werden. Es reicht nicht, hohe Trefferquoten im Labor zu haben. Wir müssen sicherstellen, dass die KI generalisierbar ist, also auch mit Daten aus anderen Kliniken oder von anderen Geräten funktioniert. Zudem müssen wir aktiv auf Bias testen, um sicherzugehen, dass keine Patientengruppe benachteiligt wird. 

Zweitens: „Human in the Loop“. Die KI agiert als Assistenzsystem; die finale Entscheidungshoheit bleibt beim Menschen. Das ist nicht nur ethisch, sondern auch haftungsrechtlich entscheidend. Durch „Explainable AI Features“, wie beispielsweise Heatmaps bei Bildanalysen, oder Quellenangaben bei textbasierten Systemen können die Nutzenden die Empfehlungen der KI nachvollziehen und validieren.

Drittens: Wir müssen die KI-Lösung im laufenden Betrieb überwachen. Dazu müssen risikoorientierte Kontrollen definiert werden, die entweder automatisch oder durch Menschen durchgeführt werden. Einfachstes Beispiel: Daumen hoch/Daumen runter bei Antworten.

HERZMEDIZIN: Sie sind selbst in einem Big-Tech-Unternehmen beschäftigt: Inwieweit prägen große Technologieunternehmen zunehmend die medizinische Forschung und mit welchen Chancen und Risiken ist das verbunden?

Tschochohei: Als Technologieoptimist schaue ich immer zuerst auf die Chancen: Große Technologieunternehmen sind ein echter Innovationsmotor. So stellt Google beispielsweise mit den „Health AI Developer Foundations“ mehrere Modelle als „Open Weight“ zur Verfügung. Das heißt, jede Organisation kann sich diese Modelle zu Forschungszwecken herunterladen, und beispielsweise selbst Applikationen im Bereich Röntgenbildanalyse, Dermatologie und natürlich alles rund um Sprachmodelle entwickeln. Diese Modelle können frei auf beliebiger Infrastruktur betrieben werden, also beispielsweise geschützt im Kliniknetz. So ein Modell selbst zu entwickeln würde Monate, vielleicht sogar Jahre und gewaltige Entwicklungskosten mit sich bringen. 

Das größte Risiko ist für mich dabei, dass Regularien und unsere Organisationen nicht mit dieser Entwicklung Schritt halten. Wie viele Ärztinnen und Ärzte verwenden heute bereits öffentlich verfügbare Chatbots, teilweise sogar mit Patientendaten, um Fragestellungen zu beantworten? Schlicht und ergreifend, weil das schon so gut funktioniert. Dabei werden die Risiken nicht kontrolliert. Hier sind Organisationen gefordert, schnell eigene, validierte Alternativen anzubieten. Weil genutzt wird es sowieso, auch wenn es eigentlich nicht erlaubt ist.

Future Skills in der Medizin

 

HERZMEDIZIN: Wenn Sie in die Zukunft blicken: Welche Kompetenzen sollten Medizinerinnen und Mediziner entwickeln, um KI sinnvoll nutzen und mitgestalten zu können?

Tschochohei: Ärztinnen und Ärzte müssen zukünftig nicht programmieren können, aber sie benötigen dringend eine solide Datenkompetenz, um zu verstehen, wie Algorithmen grundsätzlich arbeiten, wo ihre Grenzen liegen und wie man Ergebnisse kritisch auf Plausibilität und Bias prüft. Statt reinem Faktenwissen wird die Fähigkeit entscheidend, Wahrscheinlichkeiten richtig zu interpretieren und KI-Empfehlungen sinnvoll in den klinischen Kontext einzuordnen. Zudem sollten Ärztinnen und Ärzte lernen, als „Übersetzerinnen und Übersetzer“ zu fungieren, die klare Anforderungen an die Entwicklung von KI-Systemen (und diese Systeme selbst) artikulieren können, während sie sich gleichzeitig auf ihre Kernkompetenz fokussieren: die menschliche Zuwendung und komplexe ethische Abwägungen, die keine Maschine leisten kann.

FAQ: Schlüsselbegriffe zu Künstlicher Intelligenz

Explainable AI (XAI) umfasst Methoden, die die Entscheidungen von KI-Systemen für Menschen nachvollziehbar machen. Dabei geht es darum, die Gründe hinter Ergebnissen von KI-Systemen transparenter darzulegen und so Kontrolle, Sicherheit und Vertrauen zu erhöhen. XAI soll verhindern, dass KI-Entscheidungen zur „Black Box“ werden, die nicht mehr vollständig erklärbar sind.

Ein Foundation Model ist ein groß angelegtes Machine-Learning-Modell, das mit umfangreichen, vielseitigen Datensätzen trainiert wurde und sich als „Grundmodell“ für zahlreiche Anwendungen anpassen und weiterentwickeln lässt. Es zeichnet sich durch seine breite Einsetzbarkeit und hohe Anpassungsfähigkeit aus. Beispiele sind Large-Language-Modelle (LLM) wie ChatGPT oder Google Gemini.

Human-in-the-Loop (HITL) bezeichnet einen Ansatz der Mensch-Maschine-Interaktion, bei dem Menschen kontinuierlich eingebunden sind, um ein KI-Modell zu trainieren, zu testen, zu überwachen und zu optimieren. Zu den Zielen gehören die Fehlerreduzierung, die Qualitätssicherung, die Modellverbesserung sowie die (Rück-)Delegation an den Menschen bei komplexen Situationen und abschließenden Entscheidungen.

Bei einem Open-Weight-Modell sind die trainierten Parameter, also die Gewichtungen neuronaler Netze und damit das erlernte „Wissen“ frei zugänglich. Prinzipiell kann jeder das Modell herunterladen, lokal ausführen und weiterentwickeln. Im Gegensatz zu vollständig offenen Open-Source-Modellen werden jedoch häufig Quellcode, Trainingsdaten und -prozesse nicht offengelegt.


Zur Übersichtsseite ESC Digital & AI Summit 2025

Das könnte Sie auch interessieren

Wie gut berät KI Laien zu Kardiomyopathien und Herzinsuffizienz?

ESC Digital & AI Summit 2025 | ePoster Session: Ein systematischer Vergleich von 6 State-of-the-art LLM-Chatbots. Von Dr. C. Reich.

KI erlaubt neuartigen Blick auf komplexe Myokardbewegung

ESC Digital & AI Summit 2025 | ePoster Session: LV- und RV-Bewegungskurven mittels KI zur Diagnostik einsetzen. Dr. J. Kiekenap und S. K. Müller berichten.

Interview with the Summit's Programme Co-Chair

ESC Digital & AI Summit 2025 | Assoc. Prof N. Bruining introduces the first edition of the summit and highlights key points of the programme.

Laden, bitte warten.
Diese Seite teilen