Praxiswissen auf den Punkt gebracht.
logo
  • Meine Produkte
    Bitte melden Sie sich an, um Ihre Produkte zu sehen.
Menu Menu
MyIww MyIww
  • · Fachbeitrag · KI im Klinikalltag

    „Die Antworten der Ärztinnen und Ärzte spielen die Hauptrolle!“

    Wenn künstliche Intelligenz (KI) dort eingesetzt werden soll, wo es um Leben und Tod geht, dann genügt es nicht, dass die KI fast immer richtig liegt. Wesentlich für den Einsatz in der Medizin ist aber nicht nur die Nachvollziehbarkeit der Aussagen, sondern auch das besondere Schutzerfordernis der für das Lernen verwendeten Daten. Für beide Probleme haben Prof. Dr. Jilles Vreeken und sein Team vom CISPA Helmholtz-Zentrum für Informationssicherheit in Saarbrücken Lösungsansätze (vgl. Abruf-Nr. 50646405 ).

     

    Frage: Herr Professor Vreeken, weshalb teilen Sie nicht die uneingeschränkte Euphorie vieler angesichts von KI, insbesondere im Hinblick auf LLM?

     

    Antwort: Nun, viele Leute merken derzeit, dass KI nicht immer so zuverlässig ist, wie vermutet. 80 oder 90 Prozent dessen, was ChatGPT, Claude oder andere produzieren, ist korrekt, der Rest allerdings nicht. Was sind die Konsequenzen? Wenn mir das genügt, dann fühle ich mich wohl in meiner 80-Prozent-Bubble. Bewege ich mich aber in einem sensiblen Bereich ‒ wenn ich an so etwas wie ein selbstfahrendes Auto denke ‒ dann möchte ich nicht dabei sein, wenn diese Technik zwar in 99 Prozent der Fälle funktioniert, im entscheidenden Moment aber den Baum im Weg nicht erkennt. Was ich sagen will: Wenn ich mich wirklich darauf verlassen muss, brauche in zu hundert Prozent faktenbasierte Ergebnisse. Und genau das ist in der Medizin der Fall.