· Fachbeitrag · Digitalisierung
KI-basierte LLMs sicher und nutzenorientiert in der Patientenversorgung einsetzen
von Prof. Dr. Kai Wehkamp, Partner und Geschäftsführer, LOHMANN konzept GmbH, Hamburg, lohmannkonzept.de
Auch wenn die prinzipiellen Limitationen (Halluzinationen, Auslassungen) kommerziell verfügbarer Large Language Modelle (LLMs) wie ChatGPT oder Claude in der Regel bekannt sind, nutzen Ärztinnen und Ärzte sie heute schon regelmäßig unter der Hand zur Beantwortung diagnostischer und therapeutischer Fragestellungen. Studien zufolge wenden inzwischen rund zwei Drittel der US-amerikanischen Ärzte generative künstliche Intelligenz (KI) an, und etwa jeder fünfte Arzt nutzt regelmäßig LLMs für eine zweite Einschätzung. Die Dunkelziffer und auch der Einsatz von LLMs als Primärquelle dürften deutlich höher sein. Um den Einsatz in der Klinik nutzenorientiert zu bahnen, müssen die Chancen und Risiken realistisch beurteilt werden.
LLMs in der Medizin: Prinzip und strukturelle Herausforderungen
LLMs basieren auf Maschinellem Lernen mit Neuronalen Netzen, die während des Trainings enorme Mengen an Textdaten analysieren. Ziel dieses Trainings ist es, statistische Muster in Sprache zu erkennen. Technisch gesehen lernt das Modell nicht medizinisches Wissen im klassischen Sinne, sondern Wahrscheinlichkeitsverteilungen von Wortfolgen auf der Basis von verfügbaren Informationsquellen, insbesondere auf Basis der im Internet öffentlich verfügbare Quellen. Das Modell berechnet welches Wort oder Wortfragment (auch als „Token“ bezeichnet) mit der höchsten Wahrscheinlichkeit im gegebenen Kontext als nächstes folgen sollte. Hieraus ergeben sich dann die Sätze und Texte. Die Systeme können dabei unterschiedlich streng eingestellt werden: je unkritischer das System, desto eher produziert es Inhalte, die nur mit mittlerer Wahrscheinlichkeit statistisch zutreffend sind (Einstellung der „Temperatur“).
LLMs sind sehr leistungfähig ...
Dieses Prinzip macht LLMs sehr leistungsfähig im Umgang mit Sprache und komplexen Zusammenhängen. Gleichzeitig bedeutet es jedoch, dass ihr „Wissen“ nicht auf einer strukturierten evidenzbasierten Wissensbasis beruht. Vielmehr spiegeln ihre Antworten die statistische Struktur der Trainingsdaten wider: Inhalte, die im Internet häufiger vorkommen, werden von diesen Systemen eher als „richtig“ interpretiert – für das Modell zählt statistische Häufigkeit, nicht wissenschaftliche Validität.
Möchten Sie diesen Fachbeitrag lesen?
Kostenloses CB Probeabo
0,00 €*
- Zugriff auf die neuesten Fachbeiträge und das komplette Archiv
- Viele Arbeitshilfen, Checklisten und Sonderausgaben als Download
- Nach dem Test jederzeit zum Monatsende kündbar
* Danach ab 17,80 € / Monat
Tagespass
einmalig 10 €
- 24 Stunden Zugriff auf alle Inhalte
- Endet automatisch; keine Kündigung notwendig