· Nachricht · Level Up Klinikführung Episode 12
Transkript: KI Update – neue Erkenntnisse und Aufgaben für Chefärztinnen und Chefärzte
In der neuesten Episode von „Level Up Klinikführung“ beleuchtet Dr. Benedict Carstensen gemeinsam mit Professor Kai Wehkamp die bedeutenden Fortschritte und Herausforderungen der Künstlichen Intelligenz (KI) in der modernen Medizin. Professor Wehkamp, ein Experte für angewandte KI und längst nicht mehr unbekannt im Podcast, analysiert die Entwicklungen der letzten zwölf Monate mit besonderem Augenmerk auf Sprachmodellen und deren Einsatz in Kliniken.
Das Wichtigste in Kürze |
Ein zentraler Schwerpunkt liegt auf der Anwendung von Large-Language-Modellen wie ChatGPT, die zunehmend im klinischen Umfeld Anwendung finden. Diese Modelle erleichtern die Verarbeitung von Patientendaten und die Erstellung medizinischer Texte, was effizientere Abläufe in Krankenhäusern ermöglichen könnte. Wehkamp warnt jedoch vor der Gefahr von Halluzinationen – falsche Informationen, die durch diese Modelle überzeugend dargestellt werden können –, was eine sorgfältige Überprüfung durch Ärzte erfordert.
Die Episode beleuchtet zudem die Fortschritte im Bereich der Radiologie, wo KI-Tools bereits Bilderkennung unterstützen und die Diagnostik verbessern. Trotz dieser Innovationen betont Wehkamp, dass menschliche Expertise unverzichtbar bleibt, um die Qualität der Ergebnisse sicherzustellen und zu interpretieren.
Wehkamp und Carstensen diskutieren auch die Möglichkeiten, wie KI im Klinikalltag, etwa durch Systeme, die Patientengespräche automatisch in medizinische Dokumentationen umwandeln, integriert werden kann. Hierbei unterstreichen sie die ethischen und regulatorischen Aspekte, die eine verantwortungsvolle Nutzung dieser Technologien voraussetzen.
Ein bedeutendes Thema ist die Ausbildung und Entwicklung einer KI-Kultur in der Medizin. Chefärzte sind gefordert, eine kritische Nutzung und Bewertung von KI-Tools zu fördern, um die medizinische Expertise zu bewahren und die Ausbildung an die technologischen Gegebenheiten anzupassen. Eine verbesserte Datenstrukturierung innerhalb der Kliniken wird als entscheidend angesehen, um die volle Leistungsfähigkeit von KI zu nutzen. |
Darüber hinaus thematisiert die Episode den Umgang mit Patienten, die mit selbst recherchierten KI-Informationen in den Arzt oder das Krankenhaus aufsuchen Diese Entwicklung erfordert von Ärzten eine neue Form der Kommunikation und Interaktion, um den Patientenbedarf besser zu adressieren und aufzuklären.
Zum Abschluss gibt Professor Wehkamp Chefärzten praktische Empfehlungen, um ihre Kliniken KI-ready zu machen, darunter die Integration digitaler Prozesse und die Schulung des Personals. Diese Maßnahmen sollen dazu beitragen, die Qualität der medizinischen Versorgung zu erhöhen und die Kliniken optimal auf die technologische Entwicklung vorzubereiten. Die Episode bietet wertvolle Einblicke für Chefärzte, die KI als strategischen Bestandteil ihrer Klinikführung annehmen und weiterentwickeln möchten. |
Dr. Benedict Carstensen: Ich freue mich, dass Sie auch heute wieder mit dabei sind. Ich habe schon einige Rückmeldungen zu den bisherigen Inhalten des Podcasts bekommen und da kommt natürlich eines immer wieder mit rüber: Das Interesse am Thema KI ist groß. Viele hoffen auf KI-Tools, die die Belastungen in Krankenhäusern rausnimmt und die medizinische Qualität weiter erhöht.
Deshalb habe ich heute einen Gast eingeladen, der bereits vor einem Jahr bei mir war: Professor Kai Wehkamp. Kai ist Professor für angewandte Künstliche Intelligenz in der Medizin. Er war langjährig klinisch als geschäftsführender Oberarzt an der Uniklinik Kiel tätig und bringt diese klinisch-ärztliche Erfahrung nun in seine Tätigkeit als Berater und Geschäftsführer der Lohmann Konzept GmbH ein. Kai, schön, dass du da bist.
Prof. Kai Wehkamp: Ja, vielen Dank für die Einladung.
Dr. Benedict Carstensen: Kai, als wir das letzte Mal miteinander gesprochen haben, ging es so ein bisschen um die Theorie von künstlicher Intelligenz, um verschiedene Lerntypen und breite Anwendungen. Von KI-Tools gab es damals wenig, wenn dann im diagnostischen Bereich. Vieles war in den Anfängen und du hast ja schon so ein bisschen Lust auf die weitere Entwicklung gemacht. Dementsprechend würde ich dich gerne fragen, was hat sich in den letzten zwölf Monaten aus deiner Sicht ergeben?
Prof. Kai Wehkamp: Also man muss schon sagen, dass sich was verändert hat und das haben glaube ich auch alle gemerkt. Schon bevor wir das letzte Mal gesprochen haben, ging es so allmählich los, dass die Large-Language-Modelle, also quasi alles, was ChatGPT-artig ist, immer mehr an Bedeutung gewonnen haben und sie auch immer mehr genutzt wurden. Insbesondere in diesem Bereich hat sich einiges getan, was zumindest echte Veränderungen sind.
Wenn man so den Gesamtüberblick nimmt, dann sind das ja ganz viele verschiedene Bereiche, in denen KI angewendet werden kann. Also zum Beispiel zur Bilderkennung, zur Verarbeitung von komplexeren Daten, also zum Beispiel alles, was wir so in der klinischen Akte haben, im Krankenhaus oder auch in der Praxis und dann auch das ganze Thema, wie man das in Sprache umwandelt, Sprache daraus lernen kann, Sprache daraus also generiert werden kann. Und in diesem Bereich kann man wiederum trennen in den Teil, wo mit klinischen Daten gearbeitet wird, also aus irgendwelchen Daten oder Informationen, die wir vom Patienten haben, etwas mit KI passiert. Oder wo wir die Wissensdaten nehmen, also das, was wir quasi aus PubMed und Co. kennen oder aus Leitlinien und wie das verarbeitet wird.
Und insbesondere in diesem Bereich, also wo es um Sprache geht, hat sich einiges getan und teilweise, wenn man so will, direkt als medizinische Produkte und teilweise aber auch so ein bisschen, könnte man sagen, an der Medizin und auch an der Regulierung vorbei. Also zum Beispiel, wenn Ärztinnen und Ärzte ChatGPT nutzen, um etwas besser zu formulieren. Das ist so etwas, was es auch vor einem Jahr vermutlich schon gab, aber was immer mehr genutzt wird, weil einfach immer mehr sich damit beschäftigen. Absolut grenzwertig, wenn es um Patientendaten dabei geht! Aber die Effekte, die da sind, sind natürlich teilweise beeindruckend und das, was relativ stark jetzt gerade kommt, sind, vereinfacht gesprochen, Systeme, die zuhören. Also dem Patienten-Gespräch zuhören, Arzt-Patienten-Gespräch zuhören und daraus dann Texte generieren und medizinische Arztbeschreibungen und so weiter.
Wir können vielleicht gleich mal ein bisschen mehr ins Detail gehen. Aber hier hat sich dann also doch einiges getan und der große Vorteil dabei ist, dass man dafür halt nicht erstmal einen Datenstandard braucht, sondern relativ viel, relativ niedrigschwellig einführen kann. Gibt aber auch eine ganze Reihe an Risiken, die, das ist so ein bisschen die Kehrseite, teilweise ganz schwer durch Prozessmaßnahmen, durch regulatorische Maßnahmen aufzufangen sind und das werden auch viele Chefärztinnen und Chefärzte und auch andere Leitungspersonal im Krankenhaus merken, dass man da teilweise so ein bisschen komisches Gefühl hat, weil es wird einfach irgendwie genutzt und selbst, wenn ich das als offizielle Entwicklung habe, dann bin ich mir immer nicht so ganz sicher vielleicht, ob es denn auch richtig genutzt wird und ob daraus bestimmte Risiken entstehen, die am Ende ja die medizinische Qualität schädigen und dann halt natürlich Patienten gefährden können und das ist wichtig, dass man sich das immer wieder klar macht und sich auch immer wieder fragt, ist das wirklich für diese Hilfe zugelassen und können wir das machen?
Dr. Benedict Carstensen: Ich würde mal gern einmal unterscheiden von Entwicklungen, die noch so eine Art Projektcharakter haben, die sozusagen am Anfang der Marktreife stehen und Produkten oder Tools, die quasi schon zugelassen sind oder die schon funktionieren. Die auch letztlich jetzt ein Kollege oder eine Kollegin, die schon eine Abteilung leiten, einsetzen können. Also, dass projektartig gerade ganz viel gemacht wird, das ist klar. Das ist natürlich auch immer ein Riesenaufwand und auch sehr individuell, also für jede Abteilung oder jede Klinik, jeden Träger.
Ich würde trotzdem mal ganz kurz fragen, so aus dem Gesichtspunkt Low-hanging fruits heraus, also wie wir jetzt Patientendaten in ChatGPT eingeben, um einen Verlauf zu erzeugen oder einen medizinischen Sachverhalt noch mal besser zu formulieren. Gibt es da aktuell schon Tools, die da hilfreich sein können und die man letztlich einfach abonnieren kann und nutzen kann?
Prof. Kai Wehkamp: Also am prominentesten ist vermutlich jetzt gerade ChatGPT Health, was ja letzte Woche ganz aktuell gelauncht wurde und sie postulieren, sie gehen ganz sicher mit den Daten um. Aber hier ist wichtig zu verstehen, als Arzt, als Behandler dürfen wir auf keinen Fall Patientendaten eingeben! Das gilt sowieso für ChatGPT ganz grundsätzlich. Also, darauf hast du vermutlich auch abgezielt und ich würde das einfach nochmal klarstellen, dass das nämlich genau nicht geht.
Als Patient selber kann ich natürlich meine Daten da eingeben und das werden auch viele jetzt schon machen und ChatGPT Health ist ja sogar dafür vorgesehen, dass es sich in andere Anwendungen mit einloggt. Aber das ist eher, wenn man so will, patientenseitig. Es empowert quasi den Patienten darin, dass er letztendlich vielleicht seine eigenen Daten auch besser versteht. Das ist nicht das, was du meintest. Ich wollte es der Vollständigkeit halber erwähnen.
Was kann im Krankenhaus also genutzt werden? Da gibt es zig Anwendungen inzwischen, die zugelassen sind. In den USA sind es inzwischen fast 1.300 Anwendungen und drei Viertel davon sind aus der Radiologie und auch in Deutschland sind viele zugelassen und die werden ja auch schon genutzt. Relativ unaufgeregt. Radiologen kennen das, dass sie ständig neueste Techniken nutzen, digitale Techniken, überhaupt nichts Neues für sie. Und da, wo sie zugelassen sind und Mehrwert bringen, werden sie halt auch genutzt und teilweise müssen sie sogar auch genutzt werden. Das wird auch zunehmend kommen, da wo sie richtig gut sind, insbesondere zu Verlaufsbeurteilungen und Ähnliches oder zu ganz konkreten Fragestellungen, wie Lungenkrebsdiagnostik zum Beispiel.
Dieser andere, etwas offenere Bereich, also all das, wo es um Sprachmodelle geht, da fragtest du grad „Naja, was ist Projekt? Was ist denn jetzt richtig marktfähiges Produkt?“ Und tatsächlich ist es so, dass die Hersteller gerade versuchen oder die Herausforderung haben, wie kriegen sie das Ganze eigentlich in die Kliniken rein? Als Produkt, das sie verkaufen, ohne Medizinprodukt zu sein. Denn für ein Medizinprodukt gelten ja ganz besondere Zulassungsvoraussetzungen, die auch nicht mal eben so zu erreichen sind. Ähnlich wie für die Medikamentenzulassung muss man hier zwar nicht ganz so aufwändige Studien betreiben, aber man muss letztendlich nachweisen, dass das Produkt sicher ist und für diesen Zweck geeignet ist. Dass es nur für diesen Zweck eingesetzt wird, muss wiederum sichergestellt werden und ein regulativer Prozess hängt dahinter, der ein bisschen braucht. Das ist erst mal auch richtig so, weil es um Patientensicherheit geht. Genauso, wie für ein Medikament, wie für einen Stent und so weiter, ist es richtig, dass das eingefordert wird.
Aktuell ist ganz oft die Frage, handelt es sich um ein Medizinprodukt oder nicht. Als Beispiel: Es gibt inzwischen Systeme – die man auch kaufen kann – die aus den medizinischen Daten, die wir im Krankenhausinformationssystem, im KISS, haben, versuchen, automatisiert einen Arztbrief zu erstellen. Jetzt ist die Frage, ist das ein Medizinprodukt oder nicht? Man steht hier in der Regel auf dem Standpunkt, nein, es ist kein Medizinprodukt, man nimmt ja nur das, was da ist, formuliert es und die Verantwortung liegt am Ende bei der Ärztin, beim Arzt, das Ganze zu überprüfen.
Insofern, das kann man auch aktuell schon erwerben, Aber es birgt genau eines der Risiken, die wir vorher beschrieben haben. Die sind ja nur dafür da, damit sie einen Vorschlag machen und Ärztinnen, Ärzte sollen das Ganze dann überprüfen. Wir alle wissen aber, die Zeit ist eigentlich dafür gar nicht da. Das heißt, es wird ganz schnell so sein, dass die dann einfach so genutzt werden. Hier haben wir irgendwie so einen Graubereich, wo es schon Produkte gibt, die auch gekauft werden können. Hier muss man aber sehr gut gucken, dass man an einen Anbieter gerät, der das Ganze auch seriös macht und da gibt es durchaus einige. Hier ist auch gerade noch einiges in Entwicklung. Aber da gibt es erste Tools, die richtig gut schon funktionieren. Aber trotzdem natürlich auch die typischen Probleme von Large-Language-Modellen haben, auf die wir nochmal eingehen sollten.
Dr. Benedict Carstensen: Welche Probleme? Du warst gerade ein bisschen schnell, das müssen wir, glaube ich, nochmal...
Prof. Kai Wehkamp: Okay, die typischen Probleme. Ich erzähle noch ein anderes Beispiel und dann gehe ich einmal kurz darauf ein. Das andere, was es auch jetzt wirklich schon zu kaufen gibt, sind Systeme, die zuhören und dann daraus die Anamnese zum Beispiel erstellen. Also Corti AI macht sowas, im ambulanten Bereich hat das Tomedo als Add-on im Angebot. Ich bin nicht ganz sicher, ob das schon verkauft wird oder ob das ein Test ist, aber auf jeden Fall kann man es als Niedergelassener da auch schon nutzen. An der Charité läuft ein Projekt mit Azure von Microsoft, was also auch zuhört und dann das Ganze in Text umwandelt. Das ist teilweise schon ganz schön gut, muss man sagen.
Grundsätzlich ist es so: Large-Language-Modelle – ChatGPT als bekanntestes Beispiel, aber es gibt ja inzwischen zig andere – haben die Problematik, dass sie halluzinieren und zwar sehr überzeugend. Und es ist unglaublich wichtig, dass man sich dessen bewusst ist! Das ist nicht ein Krankensproblem, das ist hochrelevant. Nur als ein Beispiel: Ich habe kürzlich für einen Kongress Teilnehmer gesucht und wollte gern auch noch eine ganz spezielle Spezifikation haben. Ich gehe mal hier nicht so genau drauf ein. Ich habe ein bisschen recherchiert, habe ein paar gefunden und dachte, jetzt frage ich nochmal ChatGPT. ChatGPT hat mir absolut konfident eine Liste von zwölf Menschen ausgespuckt. In dem Fall ging es um Chirurgen und Chirurginnen, die sich auch mit KI beschäftigen. Von den zwölf stimmte keiner! Die Ergebnisse waren mit Biografie und allem drin. Zwei waren zwar im Thema KI, aber waren keine Chirurgen und die anderen zehn waren komplett ausgedacht, komplett. Es gab diese Menschen nicht! Ich habe recherchiert. Ich habe natürlich den Prompt auch nicht so gut gemacht. Dann habe ich ihn stärker gemacht, dann wurde er auch besser, dann waren die Ergebnisse so, dass ChatGPT sich korrigiert hat. Man sollte zum Beispiel immer nach Quellen direkt fragen und so weiter.
ChatGPT hat sehr große Probleme in diesen Grenzbereichen, das gilt halt allgemein für Large-Language-Modelle. Wenn ich einen Arztbrief generiere oder zuhöre, ChatGPT wird im Zweifel das schreiben, was es selber für am wahrscheinlichsten hält. Es ist ganz wichtig, dass die Systeme so gut sind, dass sie bei Unsicherheiten nicht anfangen zu halluzinieren, sondern dann halt auf diese Unsicherheiten hinweisen. Da gibt es Anbieter, die genau darauf eingehen und ich glaube schon, dass wir hier Systeme brauchen, die auch auf unseren Kontext konkret trainiert sind.
Wenn es um Wissen geht, das ist ja die andere Seite, auch hier gibt es ja jetzt schon viele Ärzte, die fragen schon jetzt bei ChatGPT, wie behandle ich dieses oder jenes. Und früher haben sie bei Wikipedia geguckt, geht einfach schneller. Aber das ist hochgradig gefährlich und das ist keine Übertreibung. Es gibt eine sehr schöne Studie, die ist gerade herausgekommen, noch im Preprint. Harvard und Stanford haben mehrere Dutzend Sprachmodelle getestet, die für Wissen da sind, also wissensbasierte Sprachmodelle für Medizin, die Noharm-Studie, und konnten zeigen, dass bis zu 22 Prozent der Antworten nicht nur nicht ganz richtig sind, sondern wirklich zu schweren Schäden führen können. Und das ist schon ganz schön heftig. Ein Fünftel der Antworten sind gefährlich! Sie kommen aber so bei mir an, dass ich sie glaube, dass ich denke, das ist schon richtig. Und das Problem ist, es stimmt ja auch meistens, es stimmt halt nur bei den rund 20 Prozent nicht und vielleicht sind es dann am Ende auch doch nur 10 Prozent. Aber sobald ich mich darauf verlasse, wird es extrem schwierig. Übrigens der Großteil durch Auslassungen, also dass wichtige Dinge nicht dargestellt werden. Es sind gar nicht nur Halluzinationen, sondern auch fehlende Inhalte. Also hochgradig kritisch und ein Problem, das unbedingt ganz gezielt angegangen werden muss durch diese Modelle.
Das ist auch so wie die Gefahr an ChatGPT Health und anderen, dass sie uns in trügerischer Sicherheit wiegen. Und es ist ja gerade noch so, gerade sind da draußen noch ganz viele Ärzte, die wirklich Experten ihres Faches sind. Die alles wirklich evidenzbasiert gelernt haben und die dann auch sowas mal challengen können, sagen, das stimmt aber nicht, was hier steht. Aber wenn ich jetzt junger Assistenzarzt in, dann merke ich das gar nicht. Und das ist natürlich auch ein Problem der Ausbildung. Also es ist wichtig – das ist ein ganz zentraler Punkt, glaube ich – es ist ganz wichtig, dass wir auch hier darauf achten, es muss evidenzbasiert bleiben! Es müssen echte Evidenzen drin sein.
Übrigens bei dieser Noharm-Studie – da habe ich mich wirklich gefreut –fand ich schon toll, dass das beste Produkt tatsächlich aus Deutschland kam. Also AMBOSS, was ja viele kennen, ist ja ein Wissensdatenbank-Anbieter, der ursprünglich aus dem Medizinstudium kam, aber inzwischen ja auch Wissen aufbereitet für Ärzte auf Facharztniveau. Und die haben am besten abgeschnitten in dieser – es war keine deutsche – Studie, Stanford und Harvard wie gesagt dahinter. Und AMBOSS ist das beste Modell, was deswegen so ist, weil darunter eine Medizindatenbank liegt, die von Menschen kuratiert wird. Also darunter steckt quasi die Medizindatenbank, die auf aktuellen Leitlinien, deutschen Leitlinien, europäischen Leitlinien, basiert, auf dem, was aktuelle Studien zeigen, die vielleicht noch neuer sind. Und wo letztendlich menschliche Experten, echte Ärztinnen und Ärzte, diese aktuellen Studien immer wieder überprüfen und sagen, das hier ist unsere Datenbasis. Und nur auf Basis dieser Datenbasis arbeitet das Sprachmodell, was dahinter steckt. Und nur dann wird es gut.
Übrigens dieses KI-System, also ein Sprachmodell ähnlich wie ChatGPT, was dann auf der AMBOSS-Datenbank basiert, ist interessanterweise in den USA schon zugelassen worden. In Deutschland noch nicht, weil in Deutschland ist es ja ein bisschen schwieriger. Es kommt aber hoffentlich auch in den nächsten Monaten hier. Und dann haben wir, wenn man so will, das sichere KI-System für Wissensdaten auch hier zur Verfügung. Wird auch seinen Preis haben. Aber der ist, glaube ich, auch berechtigt, wenn man bedenkt, was dahinter steckt. Wenn man das Ganze einfach nur auf Basis von allem Wissen, was im Internet ist, macht, ist es natürlich billiger, als wenn man wirklich Experten hat, die das beurteilen. Aber leider braucht man das.
Dr. Benedict Carstensen: Eine kurze Zwischenfrage. Es gibt ja auch die Integration von AMBOSS in ChatGPT. Kennst du die Integration?
Prof. Kai Wehkamp: Also ich kenne die in Microsoft. Ich weiß nicht, ob es in Azure ist, aber auf jeden Fall da. Ich glaube, in Azure. Das sind teilweise ähnliche Konzepte. Also man muss ja immer bei Large-Language-Modellen zwischen zwei Dingen unterscheiden. Das eine ist quasi die Engine, also die Technik, die quasi die Sätze formuliert vereinfacht gesprochen, also den Prompt verarbeitet. Und dann ist die Frage, worauf basiert das, auf welcher Datenbank? Und die Engine kann man kombinieren mit verschiedenen Datenbanken. Das heißt, einfach gesprochen, das ChatGPT-System, die Engine, kann man auch nutzen, um auf AMBOSS-Daten oder auf nur Wikipedia-Daten oder nur auf die Bibel oder was auch immer zuzugreifen. Je nachdem, was man gerne darunter hätte.
Dr. Benedict Carstensen: AMBOSS und die Bibel in einen Satz zu bringen... Kai, nur du kannst das.
Prof. Kai Wehkamp: Du hast gefragt, was sich verändert. Ich habe jetzt mal positive Sachen gesagt. Aber ehrlich gesagt, ich glaube, eine ganz wichtige Erkenntnis des letzten Jahres ist auch, dass wir merken, die Systeme stoßen an ihre Grenzen. Also gerade, was dieses Thema Halluzinationen und so weiter angeht. Die Systeme werden da gar nicht mehr deutlich besser. Das heißt, wir müssen uns vermutlich darauf einstellen, dass da quasi immer eine gewisse Lücke bleibt, die das System nicht kann. Und deswegen ist es unglaublich wichtig, dass wir weiterhin Menschen haben, die das überschauen können. Du hast vermutlich auch diese Erkenntnis gehabt im letzten Jahr, dass es dann doch teilweise viele Fehler sind.
Dr. Benedict Carstensen: Das würde ich nämlich auch gerne nochmal ganz konkret benennen. Also wirklich die Erkenntnis aus dem letzten Jahr. Wenn du es mal wirklich in ein, zwei Sätzen sagen kannst. Was war für dich wirklich die Erkenntnis? Vielleicht in welchem Bereich es besonders gut funktioniert? Welche Entwicklungen besonders neu interessant sind? Oder was auch einfach Limitationen sind, die man frühzeitig noch nicht so richtig auf dem Schirm hatte.
Prof. Kai Wehkamp: Also alles, was mit Bilderkennung und so weiter zu tun hat, funktioniert ziemlich gut. Und da kann man eigentlich schon einen Haken dran machen, auch schon im letzten Jahr, dass so etwas gut klappt. Und das wird auch noch besser werden. Trotzdem werden wir weiterhin Radiologen brauchen, die den Gesamtblick haben.
Was jetzt auch letztes Jahr mich besonders beschäftigt und beeindruckt, aber auch teilweise beunruhigt hat, ist letztendlich das, was mit Sprachmodellen möglich ist. Auf der einen Seite. Auf der anderen Seite aber auch, welche ungelösten Limitationen dahinter sind und die dann durchaus gelöst werden können. Aber wo man sehr gut darauf achten muss, dass das auch passiert. Man könnte sagen, es gibt jetzt unheimlich viel Ramsch auf dem Markt. Ich will ChatGPT nicht als Ramsch bezeichnen, aber es ist nicht dafür gedacht, Medizin zu machen. Das heißt, es gibt günstige Systeme, die aber nicht richtig gut sind. Die sind völlig ausreichend für den Hausgebrauch, für alles Mögliche. Ja, aber sie sind halt nicht richtig gut. Und das ist eine große Gefahr. Wir werden quasi überflutet mit allgemeiner KI, Large-Language-Modelle meine ich damit jetzt, die gut genug für alles Mögliche sind, aber nicht für Expertenmedizin. Und deswegen ist das Licht und Schatten. Toll, was die können, auch wenn ich finde, so unglaublich viel hat sich im letzten Jahr bei den normalen, frei verfügbaren Systemen nicht mehr getan.
Toll, was jetzt passiert im Bereich spezialisierter Large-Language-Modelle. Also zum Beispiel das System von AMBOSS, wo man jetzt trotzdem noch ein bisschen kritisch sein muss. Es ist nicht so, dass da jetzt automatisch immer alles stimmt, aber es ist halt deutlich besser. Und wenn wir mal ehrlich sind, wenn man das benutzt, ich glaube, es gibt keinen Arzt, der da nicht besser wird. Vielleicht nicht in der eigenen Expertise, da weiß man hoffentlich alles. Aber gerade, wenn es um die Randbereiche geht, die man nicht täglich sieht, dann kriegt man damit schon ein bisschen Superkräfte.
Auf der anderen Seite Schatten, denn es ist immer eine Gefahr dabei, wenn man zu unkritisch damit umgeht. Und insofern haben wir eigentlich diesen Zwiespalt. Wir haben irgendwie eine gewisse Form von Hype, wo wir schon letztes Jahr, glaube ich, gesagt haben, da muss man mal aufpassen. Ich finde, es verdichtet sich, dass wir merken, KI kann zwar einiges, aber es kann bestimmt nicht alles. Zumindest sind wir da weit von entfernt. Es ist auch nicht so, dass es gerade linear oder exponentiell weitergeht, weil es ständig besser und besser wird, sondern manche Sachen lassen sich einfach nicht trainieren, weil die Daten nicht da sind. Die Daten werden auch nie da sein oder die Daten sind zu schlecht und so weiter. Trotzdem ist es toll, aber man muss einfach kritisch bleiben.
Die große Herausforderung, das ist das, was mir schon Sorgen macht, ist, dass es so schwierig ist, das in den Griff zu kriegen. So zu regulieren, dass gute Medizin dabei herauskommt. Wie schaffe ich es denn künftig, dass Ärztinnen und Ärzte weiter gut ausgebildet werden, weiterhin wachsam bleiben und kritisch damit umgehen? Das ist wirklich eine Herausforderung und teilweise auch ungelöst. Bei selbstfahrenden Autos kann man sich gut vorstellen, man rüttelt immer mal am Lenkrad. Aber wie machen wir das denn in der Medizin, dass wir immer wieder selber nachdenken müssen und das auch sicherstellen, wenn ich bei mir in der Klinik so etwas implementiere?
Dr. Benedict Carstensen: Also was mir da so ein bisschen einfällt, ist, ChatGPT Health wurde jetzt ja auch erst mal für Patienten und Patientinnen gelauncht. Also gar nicht für den medizinischen Bereich. Sicherlich aus strategischen Gründen oder unter anderem auch aus strategischen Gründen. Aber wenn wir jetzt mal uns an die Anfangszeiten von Google erinnern, wo wir Ärztinnen und Ärzte dann genervt waren, dass Patienten mit gegoogeltem Wissen kamen und wir da schon in so eine gewisse Drucksituation kamen, zu erklären, warum wir vielleicht irgendwas nicht machen, was sie irgendwo recherchiert und gelesen hatten. Oder warum wir etwas machen, was sie nicht gelesen hatten. Und die neue, ich nenne es mal KI-Zeit, die bringt ja diesen Faktor auf ein ganz anderes Level.
Also wenn man da personalisierte Patientendaten als Patient auch selbst eingibt und dann schlägt der XY vor, wovon ein Teil richtig ist, ein Teil nicht, ein Teil vielleicht auch für einen anderen Kontext richtig, weil es mit anderen Trainingsdaten gefüttert wurde, dann bringt es natürlich auch Ärztinnen und Ärzte wieder in so eine Drucksituation, wo man auch erst mal wieder relativieren muss, wo man vielleicht auch teilweise gar nicht relativieren kann. Also ich kenne das, in meine Arztpraxis kommen manchmal Menschen, die in den sozialen Medien, beispielsweise Instagram, was gesehen haben. Irgendein neues Präparat, irgendein neues Vitamin und sind dann ganz überzeugt, dass sie genau das brauchen oder das nicht brauchen. Und es ist ganz schwer, gegen so etwas zu argumentieren. Und das kostet dann einfach wieder Zeit. Das ist letztlich Zeit, die dann auch im Gesundheitswesen dann irgendwie kostentechnisch abgebildet wird. Also ich finde es schon spannend. Die Probleme verschieben sich so ein bisschen. Einfach diese nötige Zeiteffizienz, die wir vielleicht uns über KI-Tools irgendwann wiederholen können. Die können sozusagen durch KI-Tools auf Patientenseite gegebenenfalls wieder rausgeholt oder beziehungsweise neu generiert werden. Im Sinne von: Da wird wieder mehr Informations- oder Kontextualisierungsbedarf bei Ärztinnen und Ärzten geschaffen und das muss dann wieder mit Patienten besprochen werden. Also das ist vielleicht auch noch so ein Aspekt, den man häufig nicht so bedenkt. Aber ich erlebe das tatsächlich auch als ein häufig nicht benanntes Problem.
Prof. Kai Wehkamp: Ja, ein guter Punkt, den wir auch einmal einordnen sollten. Und das ist gar nicht so leicht, weil da ja ganz unterschiedliche Interessen letztendlich auch wieder mit dran hängen. Also erstmal müssen wir festhalten, dass das, warum wir hier Medizin machen, ja für die Patienten ist. Also wir wollen, dass es den Patienten besser geht, dass sie gesünder sind, weniger leiden und so weiter. Und es besteht auch Einigkeit darüber, dass optimalerweise wir einen möglichst gut aufgeklärten Patienten haben, der möglichst viel von seinen eigenen Erkrankungen versteht und deswegen auch alles, was rund um ihn passiert, besser einordnen kann. Das heißt, eigentlich ist das auf jeden Fall das Ziel. Und dann müssen wir glaube ich auch noch festhalten, dass Ärzte ganz schön viel wissen, aber nicht alles. Und wir alle kennen, glaube ich, Beispiele – sei es von uns selbst, sei es von anderen Kollegen – wo wir halt Lücken hatten. Und wir müssen uns auch klar machen, dass es teilweise einfach auch unsere Eitelkeit angreift oder verletzt, wenn da ein Patient ist, der plötzlich etwas vielleicht sogar weiß, was ich nicht weiß. Und das kennen wir glaube ich auch als Kollegen untereinander, dass man manchmal einen Kollegen auf irgendwas hinweist, wo er vielleicht daneben lag, weil er Wissen nicht hatte. Und es gibt Kolleginnen und Kollegen, die das dann überspielen und dann offensiv quasi in Gegenwehr gehen und das nicht wahrhaben wollen. Und es gibt andere, die sich freuen über den Hinweis.
So muss die Medizinkultur auch sein, dass wir versuchen, dadurch besser zu werden. Und natürlich ist es gar nicht so leicht, damit umzugehen, wenn vor mir ein Patient sitzt, der plötzlich vielleicht mehr weiß als ich, weil er sich mit einem Thema auseinandergesetzt hat, was nicht in meinem Bereich ist, was jetzt aber plötzlich relevant ist. Aber ich habe nicht damit gerechnet, ich konnte mich nicht darauf vorbereiten. Dann weiß ich es halt vielleicht gerade mal nicht. Das sind ja durchaus reale Situationen, die wir auch von früher immer mal kennen. Und das ist dann ja eigentlich erst mal gut, weil vielleicht dadurch bessere Medizin beim Patienten ankommt.
Aber du hast recht, es gibt natürlich auch diese Patienten, die dann irgendwie da völlig falsch liegen und denken, in diese Richtung muss man jetzt Diagnostik machen und so weiter. In alle Richtungen gibt es das ja von Überdiagnostik bis Unterdiagnostik. Sie wollen etwas nicht oder sie wollen etwas. Das hatten wir vorher auch schon, durch Wikipedia und Co. Jetzt kommt es über die KI. Ich glaube, die Qualität davon wird jetzt besser werden, trotz allem. ChatGPT ist jetzt da, Wikipedia ist das und gar nicht so schlecht und AMBOSS wird da noch besser sein, obwohl AMBOSS sich ja primär an Ärztinnen und Ärzte richtet und sowieso noch viel dezidiertere Informationen gibt, was Leitlinien und so weiter angeht. Also an sich empowern wir den Patienten. Natürlich wird es nerven, natürlich wird es teilweise mehr Arbeit machen, weil wir mehr erklären müssen, aber eigentlich ist es eine gute Sache.
Ich glaube, dass es für die medizinische Versorgung, für die Gesundheit insgesamt der richtige Weg ist. Wir brauchen den empowerten Patienten. Wir brauchen einen Patienten, der mehr versteht und da müssen wir unsere Befindlichkeiten loslassen und sagen, erstmal ist das gut. Es senkt den Status des Expertenarztes ab, beziehungsweise es hebt den Patienten ran. Das ist etwas, was wir vielleicht erstmal nicht unbedingt mögen, aber an sich ist das genau die richtige Entwicklung. Nur so kann Medizin besser werden und das verändert so ein bisschen unsere Rolle, weil wir dann nicht mehr nur glänzen können mit exklusivem Wissen. Aber es ist für die Versorgung der richtige Weg, dem wir uns stellen müssen. Auch da kriegen wir ja erst recht Superpower mit der KI dahinter und müssen es halt auch nutzen.
Übrigens glaube ich, dass die Medizinkultur genau in diese Richtung schon längst geht. Wir sind da ja heute schon ganz woanders als vor 20 Jahren, wo man quasi keinen Chefarzt kritisieren durfte. Alle Chefärzte, die ich heutzutage kenne, egal ob älter oder jünger als ich, haben da eine ganz andere Kultur, die evidenzbasierter ist, die auf Kritik eingeht und die sagt: Wir müssen offen miteinander reden können, auch Fehler ansprechen können, müssen Diagnosen und alles mögliche in Frage stellen dürfen, damit halt was möglichst Gutes herauskommt. Dafür hilft das Ganze.
Ein anderes Beispiel ist übrigens KI-basierte Dokumentation. Es schafft teilweise ganz schön lange Texte, weil man nicht mehr schnell in Schnellschrift als Arzt quasi fast schon stenografiert und nur fünf, sechs Worte in einen Rechner tippt, die man auch ganz schnell lesen kann. Plötzlich kommen lange Texte dabei raus. Ganz schlimm ist es, wo einfach nur Sprache aufgezeichnet wird und man jetzt rein diktieren kann. Dann hat man plötzlich so einen langen Lex und niemand im Dienst hat mehr Zeit, das zu lesen. Also brauchen wir die nächste KI, die das jetzt schnell zusammenfasst, damit wir uns im Dienst einen schnellen Überblick verschaffen können. Also wir sind gerade in einer In-Between-Zeit, die wirklich Licht und Schatten hat und wo wir jetzt echt gucken müssen, dass es in die richtige Richtung geht. Dafür ist ärztliche Expertise wichtig. Die darf sich da jetzt nicht raushalten.
Dr. Benedict Carstensen: Ja, also ich finde es schön, dass du nochmal ärztliche Expertise erwähnst, also gar nicht so Kompetenz. Expertise ist auch so das Stichwort, also Erfahrung, Dinge gesehen haben, Dinge einordnen können. Was mir noch wichtig war, mir ging es gerade nicht um die gekränkte Eitelkeit von Ärztinnen und Ärzten. Mir ging es eher um diesen Mismatch von Zeit, die Patientinnen und Patienten mit beispielsweise einem ChatGPT Health verbringen können. Das baut Vertrauen auf. Ich weiß nicht, inwiefern Patientinnen und Patienten über Halluzinierungsphänomene Bescheid wissen, wie viel sozusagen die dann wirklich ungefiltert als Wahrheit übernehmen. Das wird sicherlich auch unterschiedlich sein von Mensch zu Mensch.
Aber wenn man jetzt drei, vier, fünf Stunden mit medizinischen Problemen, mit personalisierten Daten, mit dem Denken, dass es sich auf das Wissen der ganzen Menschheit bezieht, verbringt und dann zum Arzt, zur Ärztin geht und der hat sechs Minuten Zeit, um mit mir meine kardiale Situation zu besprechen. Das ist für alle Beteiligten gegebenenfalls eine unbefriedigende Situation, weil häufig einfach viele Dimensionen besprochen werden könnten und eigentlich auch sollten, um die Patienten auch wirklich abzuholen. Das birgt einfach Gefahr. Natürlich, je besser die Informationen sind, mit denen die Patientinnen und Patienten dann kommen, desto einfacher ist es für die Behandler im Idealfall. Aber auch selbst dann gibt es ja immer wieder die Situation, dass auch Leitlinien, Empfehlungen gar nicht bei uns finanziell in der GKV abgedeckt sind und das schafft natürlich auch wieder Konfliktpotenzial.
Prof. Kai Wehkamp: Ja, da sind sicherlich ein paar unlösbare Probleme. Aber die Alternative, zu sagen, da haben wir lieber einen Patienten, der gar keine Ahnung hat und der nur staunt über die tollen Sachen, die wir ihm erzählen, das ist es ja nun mal auch nicht. Insofern wollen wir halt genau diesen Patienten. Und es verändert die Rolle von uns. Es verändert die ärztliche Rolle definitiv und der Patient wird zunehmend – das ist jetzt schon der Fall – das Gefühl haben, also das, was ich da im Internet gelesen habe, bei ChatGPT und Co. hat mich eigentlich mehr weitergebracht.
Also die Erfahrung einzubringen und zu wissen als Arzt, das ist schon nochmal ein großer Unterschied, als etwas nur zu lesen. Das ist ja letztendlich genau der gleiche Unterschied, warum wir nicht am Ende des Studiums tolle Ärzte sind, weil es steht zwar alles im Lehrbuch und ChatGPT weiß auch nicht mehr als ein Lehrbuch, denn so steht es halt da drin. Aber das, was die ärztliche Expertise ausmacht, ist ja dann ganz wesentlich auch die Erfahrung. Und das ist auch das, was wir einbringen können. Erfahrung bringt auch Nachteile. Mit Erfahrung hat man fast 2.000 Jahre lang einen Aderlass gemacht. Aber evidenzbasierte Erfahrung, das ist ja das, was gute Medizin ausmacht.
Dr. Benedict Carstensen: Vielleicht noch ein letzter Gesichtspunkt oder Gedanke. Also eine meiner Erkenntnisse vom letzten Jahr war: Ich habe auch viel mit KI-Tools getestet in verschiedenen Bereichen und habe immer den Eindruck, die bisherigen KI-Tools, die auf dem Markt oder marktreif zur Verfügung stehen, die wirken häufig über eine Art Produktivitätsfaktor. Also ich kann mal schnell eine Präsentation erstellen, ich kann mal schnell einen Text erstellen, ich kann mal schnell eine Recherche machen. Was ich aber gemerkt habe – und was sich auch durch das erklären kann, was wir gerade besprochen haben –, ist, wenn man die letzten Qualitätspunkte rausholen möchte, dann ist enorm viel, ich nenne es mal humane Intelligenz, nötig.
In der Medizin, wo wir einfach einen hohen Qualitätsanspruch haben, reichen häufig keine 80-prozentigen Lösungen. Wir haben es vorhin schon gesagt, wenn 20 Prozent der Entscheidungen Fehlentscheidungen sind und Patienten schaden, ist es nicht akzeptabel. Und es gibt ja dieses Pareto-Prinzip, dass man mit 20 Prozent des Arbeitsaufwandes 80 Prozent der Leistung erzeugt. Ich habe den Eindruck, manchmal ist die KI-Technologie heutzutage so eine Art Beispiel für das Pareto-Prinzip. Mit weniger als 1 Prozent des Arbeitsaufwandes kann ich 80 bis 90 Prozent der Leistung oder des Outcomes produzieren. Meine Frage ist, erst mal eine Einordnung dieser Erkenntnis. Würdest du die teilen und was erwartest du in Zukunft? Wird das kontinuierlich ein Problem sein oder wovon gehst du aus?
Prof. Kai Wehkamp: Also wenn wir diese Large-Language-Modelle von der Stange nehmen, also wie ChatGPT, dann wird das vermutlich so bleiben. Man muss sich halt immer wieder klar machen, worauf die basieren. Die basieren auf dem Wissen, was sie im Internet gefunden haben. Anfang des Jahres habe ich eine Frage zum Krankenhaustransformationsfonds gestellt, da war halt noch kaum Wissen vorhanden. Das, was da raus kam, war Quatsch. Stimmte einfach nicht, weil woher sollte das System das auch wissen? Oder kürzlich habe ich ein Ethik-Kapitel geschrieben – Ethik und KI – und habe dann auch nochmal ChatGPT gefragt, was es so meint. Und es war alles so auf Forenebene. Was steht in den Foren drin? Also es war alles irgendwie mau. Und andere Bereiche kann es wiederum ganz gut. Also es ist halt von bis.
Und gerade im Detail, da hast du völlig recht, fehlt es dann oft. Und ist dann vor allem sehr abgedroschen. Aber manchmal ist es auch ganz toll. Ich vermute, dass sich das einfach aufgrund der Technik auch nicht ändern lassen wird. Weil dafür müsste man ja das Wissen, auf dem es basiert, menschlich bewerten. Das tut man, wenn man Wissensdaten darunter hat, die menschlich kuratiert sind. Aber wenn man sagt, ich nehme das ganze Internetwissen und sage vielleicht Wikipedia ist ein bisschen besser als der Rest oder so, dann passiert das halt nicht. Und so wird das halt auch bleiben. Also man merkt, je nachdem, was man so für Fragen da rein gibt. Wenn das Wissen ist, was eher aus irgendwelchen Internetforen kommt, dann sind die Antworten oft katastrophal.
Was noch zusätzlich das Problem ist, und da gibt es ja inzwischen zig Studien zu, ist die kognitive Auslagerung. Also das wir bestimmte Sachen gar nicht mehr selber denken. Ich kippe es einfach in ChatGPT rein. Man braucht da ein bisschen Selbstdisziplin. Man merkt dann oft beim Ergebnis, ja auf die Idee wäre ich auch schon selbst gekommen. Aber warum hat man es dann überhaupt eingegeben? Und ist es nicht viel schöner, dann einmal selber nachzudenken? Macht nämlich auch Spaß. Also Empfehlung jetzt gerade, wenn es nicht um nur medizinische Dinge geht, sondern auch andere: Ich finde es immer gut – und so mache ich es inzwischen auch –, dass ich selber vorarbeite, mir Konzepte mache und die lasse ich dann vielleicht nochmal challengen und sage der KI, fällt dir dazu noch was ein? Und da hilft es dann toll. Dann kommen manchmal echt noch ein paar ganz gute Ideen. Und wenn das System dann sagt, nee, total toll, besser hätte ich es nicht machen können, dann freut man sich ja auch.
Dr. Benedict Carstensen: Ja, dieses challengen lassen, sparring, Dinge weiterentwickeln oder von einer anderen Perspektive nochmal aufzeigen lassen, das finde ich klappt ganz gut.
Prof. Kai Wehkamp: Ja, und insofern ist es schon eine tolle Entwicklung, was es da gibt. Die Hauptherausforderung ist jetzt: Wie kriegen wir das Ganze so gebahnt, in Bezug auf die Medizin, dass gute Mediziner dabei rauskommen? Und das ist wirklich nicht trivial. Also diese Sicherheit reinzukriegen, dass wir aufmerksam bleiben, dass wir unsere Expertise behalten, die weiterhin nötig sein wird. Und nicht einfach unser Wissen nur komplett auslagern, sondern es da benutzen, wo es hilft. Und das ist – also wenn man nochmal an den Chefarzt zurückdenkt – wirklich etwas, wo man jetzt erstmal die richtige Kultur, auch Ausbildungskultur finden muss. Weder verbieten, noch zu viel nutzen, nicht zu viel vertrauen. Also es wird dazu Regulierung hoffentlich geben, aber bislang gibt es sie nicht. Und es ist auch schwierig, die gut zu machen. Es hängt wohl schon auch in der Verantwortung der einzelnen Abteilung, das gut zu gestalten. Und das ist nicht leicht. Also ich bin gespannt, ob du in weiteren Podcast-Aufnahmen hier auch diesem Thema, mit anderen Kollegen nochmal nachgehst, wie die das eigentlich lösen. Weil am Ende brauchen wir jetzt eine KI-Medizinkultur, die im Sinne der Patientenversorgung das Ganze gut gestaltet. Aber natürlich auch im Sinne der Effizienz, weil wir haben ja nun mal nur bedingt Zeit.
Dr. Benedict Carstensen: Ja, zu KI-Medizinkultur, da kann man ja einen eigenen Podcast drüber machen. Also auf der einen Seite will man Effizienz, auf der anderen Seite braucht man diese Lernerfahrung, weil wir gerade schon herausgearbeitet haben, diese Expertise ist das, was uns gerade ganz stark abhebt. Und wenn man die Expertise nicht mehr erlangen kann, dadurch, dass man einfach schon frühzeitig kognitive Prozesse auslagert und gar nicht mehr Dinge so richtig intus lernen kann, wie jetzt früher, dann kann es schon schwierig sein. Ich meine, da denkt, glaube ich, jeder so ein bisschen an die Taschenrechner-Regel, früher in der Schule, dass man gesagt hat, okay, Taschenrechner gibt es, aber ab der und der Klasse.
Prof. Kai Wehkamp: Ja, sehr gutes Beispiel. Der Taschenrechner ist ein super Vergleich, weil es auch zeigt, dass es nämlich nicht KI das Thema ist, sondern Technik. Und an sich, dass wir Fähigkeiten abgeben, ist ja völlig in Ordnung. Dass wir nicht mehr so gut körperlich untersuchen können, wie früher, weil wir einfach jetzt tolle Ultraschallgeräte haben, ist schon okay. Medizin ist nicht schlechter geworden, eher besser. Aber trotzdem sind wir natürlich auch technikabhängig.
Was auch wichtig ist, ist natürlich der Vergleich mit dem Status Quo. Es ist ja nicht so, dass bislang die Medizin perfekt war und jetzt wird sie durch KI schlechter. Es ist ja eher so, die Medizin hat den Anspruch an Perfektion, da kommt sie aber eigentlich überhaupt nicht ran, weil wir schaffen es gar nicht, das ganze Wissen ständig zu verarbeiten. Dann könnte man ununterbrochen bei PUBMED rumhängen und dann auch noch die Evidenz bewerten und Patienten auch noch versorgen, damit man die Erfahrungen sammelt. Weder hinter dem Wissen, noch hinter den Daten, die Patienten produzieren oder die wir diagnostisch rausrechnen können, kommen wir hinterher, plus finanzielle, personelle Ressourcen, auch im Sinne von weiterführender Diagnostik und Therapie.
Medizin ist suboptimal, genauso wie übrigens auch der Straßenverkehr suboptimal ist und vielleicht besser wäre mit selbstfahrenden Autos. Trotzdem lassen wir selbstfahrende Autos nicht zu, weil sie halt ab und zu mal Fehler machen, auch wenn Menschen viel mehr Fehler machen. Und auch da brauchen wir natürlich eine gesamtgesellschafliche Diskussion, die geht gerade schon los. Trotzdem wollen wir eigentlich in der Medizin diesen Anspruch an Perfektion halten und ich denke auch, das ist das richtige Ziel.
Dr. Benedict Carstensen: Als du das letzte Mal so eine Art Fazit gezogen hast in unserer letzten Folge, was du Chefärztinnen und Chefärzten empfiehlst, hattest du damals gesagt, es geht darum KI-ready zu werden. Die Daten zu strukturieren, damit man später dann KI-Tools gut ansetzen lassen kann. Was wäre denn heute so nach den letzten zwölf Monaten für dich jetzt die Haupthausaufgabe für Chefärztinnen und Chefärzten? Ist es, wie kann ich KI gestalten, dass man trotzdem lernt und effizient ist? Oder ist es doch eher, wie werde ich KI-ready?
Prof. Kai Wehkamp: Ja, also ich glaube, dass das, was ich letztes Jahr gesagt habe, weiterhin hochrelevant ist, weil KI trotz allem nicht alles ist. Also die Strukturierung der Medizin – und dazu gehören auch die Daten –, das ist weiterhin wichtig. Nur ich brauche vernünftige Daten für alles Mögliche, nicht nur für maschinelles Lernen und KI, sondern auch, um vernünftige Prozesse darauf abzubilden. Das heißt, es ist weiterhin, finde ich, eine der ganz wichtigen Aufgaben jedes Krankenhauses, dass ich, wenn es noch nicht so weit ist, alles digitalisiere. Denn nur mit digitalen Daten kann ich vernünftig arbeiten. Das ist nun mal die Basis.
Es gibt wunderbare Anwendungen, wo ich das gar nicht unbedingt für muss. Weil ich vielleicht quasi an dem ansetze, was ich rede. Und am Ende kann ich es sogar per Copy und Paste irgendwo rüber kopieren. Das ist etwas, wo man sich jetzt wirklich mit beschäftigen kann: Was gibt es da für Anbieter, was sind die Systeme. Ich gehe davon aus, dass es sich in einem Jahr, falls wir dann wieder sprechen, noch weiter verbreitet hat und überall KI quasi zuhört. Wenn nicht überall, zumindest aber in sehr vielen Stellen. Aber das eine entlastet uns nicht von dem anderen.
Wenn wir jetzt diese Möglichkeiten durch Sprachmodelle sehen, dann ist es, glaube ich, sehr wichtig, die Geräte kritisch zu beurteilen. Wir müssen sie vernünftig in unsere medizinischen Versorgungsprozesse so eingliedern, dass dabei weiterhin gute Medizin rauskommt. Und dazu gehört schon eine gewisse Form der Ausbildungs-KI-Kultur und der medizinischen Praxis-KI-Kultur, die das also sicherstellt, weil wir das nicht nur technisch lösen können. Sondern da ist weiterhin unsere Verantwortung gefragt, die ja sowieso in der Medizin immer gefragt ist, aber hier auch ganz wichtig ist. Also diesen Verantwortungsteil können wir nicht auslagern. Wir sollten gucken, was da geht und das auch gerne nutzen, aber müssen immer den Gesamtprozess im Auge halten. Nicht nur die einzelne Aufgabe, wie dokumentiere ich es, sondern auch, wie wird damit weitergearbeitet, was für Medizin kommt dabei raus und was bedeutet das für den Gesamtboden der Ausbildung. Und da gibt es halt noch nicht so unglaublich viele Best Practices. Insofern ist es spannend, was sich da jetzt tut.
Dr. Benedict Carstensen: Super Kai. Ich würde auch das jetzt schon als Abschlusssatz gelten lassen. Ich bedanke mich herzlich, dass du heute da warst, dass wir jetzt noch mal ein bisschen rekapitulieren konnten, was in den letzten zwölf Monaten im Bereich KI sich entwickelt hat, wo wir da gerade stehen und was jetzt die Aufgaben sind. Kai, herzlichen Dank. Ich freue mich schon, wir sehen uns vermutlich nächsten Januar wieder.
Prof. Kai Wehkamp: Ja, wenn nicht vorher. Vielen Dank für das Interview und die guten Fragen und wir sehen, da ist noch viel, was man diskutieren kann.
Dr. Benedict Carstensen: Ich wünsche dir was und an alle Kolleginnen und Kollegen. Machen Sie es gut und bis zur nächsten Episode. Tschüss.