DEEPTECH DEEPTALK Podcast
DEEPTECH DEEPTALK Podcast
Transkript: Wie KI und Roboter die Medizin neu definieren - mit Dr. Dr. Alexander El Gammal
Ja, da sind wir wieder beim Deep Tech Deep Talk mit Alois und meiner Wenigkeit und natürlich auch wieder mit Gast und zwar Herrn Doktor Dr. Alexander Elgermahl. Alex. Moin. Schön, dass du da bist. Schön, dass ich da sein darf. So viele Doktoren, wo hast du die denn alle gesammelt? Hier in Hamburg. An der Universität Hamburg. Also, es ist ein medizinischer Doktor und ein humanbiologischer Doktor. Genau, aber heißt du bist selber Acht? Du warst als Chirurg unterwegs?
Ich habe hier Medizin studiert an der Universität Hamburg. Bin dann in der Allgemeinen Visceral - und Thoraxchirurgie gestartet. Hab da meinen Facharzt für Visceralchirurgie damals gemacht. Relativ viel Krebsforschung, deswegen auch noch dieser zweite Doktor, hatte eine eigene Arbeitsgruppe und hab da an Bauchspeicheldrüsenkrebs vornehmlich geforscht, auch noch an ein paar anderen Krebsarten. Bin dann irgendwann rausgegangen, hab in der Medtech -Industrie gearbeitet bei einem großen
Konzern damals. Wurde dann abgeworben, bei einer Beratung tätig und hab dann vor einiger Zeit Caps & Colors gegründet. Also es bietet sich ja an, so ein Stück weit über das ganze Thema Deep Tech bzw. KI im medizinischen Bereich zu sprechen. Ich weiß, dass wir auch schon den ein oder anderen Ausflug in die Biologie oder in den Agrarbereich unternommen haben und du natürlich immer federführend dabei warst. Wo siehst du aktuell?
die großen Anknüpfungspunkte in der Medizin, bzw. hat das ganze Thema KI in die Medizin schon großen Einzug gefunden? Im Bereich der Gesundheit oder sagen wir so in der Medizin gibt es einige Bereiche, wo KI schon heutzutage verwendet wird, insbesondere in der Diagnostik. Da gibt es so ein paar Fächer wie Radiologie, Pathologie oder auch Mikrobiologie. Das sind alles diagnostische Fächer, wo MRT -Bilder, CT -Bilder ausgewertet werden oder
sogenannte histopathologische Schnitte, also Gewebe, was angefärbt wird mit verschiedenen Antikörpern, mit verschiedenen Färbungen und die, wo sozusagen Pathologen anhand der Mikroskopie, die sie machen, Befunde erstellen. Das sind alles Computervision -Themen und da wird schon seit einiger Zeit KI verwendet, auch sehr erfolgreich. Das heißt auf so eine Netzhaut kann man beispielsweise, ja, Netzhautscanner und ähnliches, kann ich durch Pattern -Rekognition, also Mustererkennung, nicht nur
so sie die üblichen verdächtigen Krankheiten ... inzwischen erkennen, sondern auch ... weitaus mehr Krankheiten, richtig? Also Netzhaut, ist ja, das spricht sogar ... ... Beispiel. Genau, aufthalme logisches Thema an, ... also Augenheilkunde, da kann man, ... da macht man ja mit einer Spaltlampe ... ein Abbild des Augenhintergrundes, zu schauen, wie da die ... Gefäße formiert sind ... oder auch der Sehnerv und ja, ... das ist auch wieder so ein diagnostisches Thema, ... wo man
also bei einem Augenarzt, der sich das anschaut, ... normalerweise eine Diagnose stellt. Auch da kann man natürlich ... mit Computervision, also deterministischer ... ... KI, wenn du so möchtest, ... das Ganze auswerten. Also das ist möglich, genau. Aber was ich ja möchte, wenn ich ... ... und deswegen setze ich ja vielleicht auch die KI ein, ... ich möchte ja so ein einigermaßen ... objektivieres, replizierbares Ergebnis haben. Und bei Ärzten ist es ja ganz oft so, ... die sind in Schichten unterwegs, die sind mal ein bisschen müde, ... weil sie zwei Schichten hintereinander geschoben haben ... und ähnliches.
Ich die Hoffnung, und ich glaube, das, sich auch inzwischen in den Resultaten widerspiegelt, ist, dass so eine KI, Aussagen zu treffen oder vielleicht Sachen zu erkennen, die der Arzt in seiner Routine, in seiner vielleicht auch Müdigkeit, dann nicht erkennt, verlässlich dann wirklich auch zu finden, richtig? Ja. Also es ist schon so, die Diagnostik, gerade in diesen Bereichen, wo es einfach darum geht, dass Ärzte sich irgendwas anschauen, ist natürlich tagesformabhängig, ist auch untersucherabhängig, also schwierig zu objektivieren. Und da würde theoretisch ein System,
was objektivierbar ist, natürlich einen Riesen -Mehrwert darstellen. Alex, wenn du dir einmal die KI anschaust und wir haben gerade so ein schönes Beispiel gemacht aus der Bilderkennung und KI. Das ist ja durchaus schon vor der generativen großen KI -Welle ein Thema gewesen. Wenn du jetzt mal einmal in Richtung der Gen -AI, der generativen KI guckst, was hat sich eigentlich seit dieser Zeit verändert? Also weg von der Bildverarbeitung, mehr in Richtung Natural Language Processing, also
der Arbeit mit Sprache, mit Regeln, mit SOPs, also Standard Operating Procedures. Siehst du da große Anwendungsfälle? Da sehe ich ganz große Anwendungsfälle. Da gibt es noch nicht so viel. Also aktuell gibt es insbesondere in den administrativen Bereichen relativ viel, weil diese Bereiche nicht oder nicht so stark reguliert sind. Man muss natürlich beachten, wenn man in den Bereich Therapie kommt oder auch Diagnostik, dann ist man per Definition im Bereich der Medizinprodukte.
unterwegs und die müssen zertifiziert werden. gibt es CE -Zertifizierungen, auch noch ein paar andere Zertifizierungen und die administrativen Bereiche, also die nicht medizinischen Bereiche, die nicht behandlungsrelevanten oder diagnostikrelevanten Bereiche sind in der Regel nicht so stark reglementiert. Da gibt es nicht so starke Auflagen, was dann eben zur Folge hat, dass diese Bereiche prädestiniert sind, zum Beispiel mit Gen -AI, die dadurch unterstützt werden können. Wir haben
Beispielsweise beim Thema Terminierung gibt es mittlerweile Bots, die Patienten anrufen, einbestellen in Praxen. Das ist ein Thema. Dann gibt es noch ein andere Dinge. Es gibt ein Projekt, an dem wir auch gerade selber arbeiten. Das ist der, ich nenne es immer den klinischen Co -Piloten, wo wir im Grunde ein Large -Language -Model mit gängigen Leitlinien, aber auch Fachliteratur trainieren, dann sozusagen eine Art Sparingspartner für den Arzt zu haben.
An diesen Stabaringspartner kann sich der Arzt dann wenden und sagen, ich habe hier einen Patienten, die und die Erkrankung, wie würde ich denn da vorgehen? Und dann hilft dieses Large -Language -Model kuratiert in dem Bereich, macht es dann Empfehlungen und kann dem Arzt unterstützen. Wenn ich einigermaßen standardisierte Leidlinien habe, das ist ja so, Und ein Arzt, der im Grunde in dem Fachbereich ausgebildet ist und denen sozusagen so eine Art Sidekick als KI an die Seite bringt, dann ist es vielleicht in dem Fall auch gar nicht so wild, wenn das Ding mal halluziniert.
weil der Arzt ja der Filter ist. Jein. Es ist schon so, dass natürlich Halluzinationen auf jeden Fall unterbunden werden sollten, denn man weiß ja nie, welcher Arzt da vor einem sitzt. Aber klar, generell gilt, man sollte als Arzt immer seinen medizinischen Sachverstand verwenden, etwaige Empfehlungen zu hinterfragen. Das gilt aber nicht nur für KI -Modelle, das gilt auch so für das Gespräch mit anderen Kollegen. Es gibt ja jetzt beispielsweise in den Unikliniken sogenannte Tumorboards.
Da kommen viele verschiedene Fachrichtungen zusammen und beraten darüber interdisziplinär, wie jetzt ein Patient behandelt wird. Auch da gibt es dann verschiedene Ärzte, die verschiedene Meinungen vertreten. In der Regel hat man sich aber in der Medizin immer auf eine Grundrichtigkeit geeinigt und das sind eben prospektiv randomisierte, multizentrische Studien, die in namenhaften, wissenschaftlichen, medizinischen Journals publiziert wurden.
Alex, wenn ich mir anhöre, den Co -Piloten quasi verärzte, dann ist es ja fast schon ein No -Brain, an das ich sagen würde, das schreit ja danach, wirklich implementiert und angewendet zu werden. Du hattest gerade gesagt, es gibt da noch nicht so viel. Was ist deine Einschätzung nach der Grund dafür, dass das nicht einen massiven Uptake, also eine massive Implementierungswelle nach sich zieht? Also generell ist die Medizin sehr, sehr langsam, was Innovation angeht. Das hat auch einfach den Grund, dass diese Zertifizierung, über die ich vorhin gesprochen
sehr lange dauern, was auch in gewisser Weise berechtigt ist. Wenn man daran denkt, wenn man sich zum Beispiel pharmazeutische Studien anschaut, da ist es ja so, es gibt auch negative Langzeitfolgen und die möchte man natürlich abgebildet sehen. Und bevor man jetzt ein Medikament flächenweit zulässt, möchte man erst mal sehen, hat das nicht vielleicht irgendwelche negativen Effekte langfristig. In der Medizintechnik selber ist es auch ähnlich, aber man muss auch sagen, es gibt
Noch ein weiteres Problem und das ist, dass Large -Language -Modelle in der Regel dynamisch sind. Die werden ja, je mehr man mit ihnen interagiert, je mehr man annotiert, werden die in der Regel besser. Und als Medizinprodukt zugelassen zu werden, muss man aber einen Status Quo einmal haben und sagen, diese Version, die wird jetzt zugelassen. Und dann darf daran auch erst mal nichts mehr verändert werden. Das heißt, diese klassischen Modelle, die wir gerade sehen,
Also in der generativen KI, sowohl was die Bildthematiken angeht, diese ganzen Diffusion -Modelle, ja, Mid Journey und so weiter, die entwickeln sich ja so schnell, weil sie ständig weiter trainiert werden. Und das ist in der Form, in der Schnelligkeit momentan in der Medizin nicht abbildbar. Aufgrund dieser Thematik der Zertifizierung, notwendig sind. Ich meine, es gibt auch einen Riesentrend, dass man nicht nur über diese großen Modelle, Large -Language -Models spricht, sondern über spezifische Domänen -Modelle.
die dann durchaus auch kleiner sein können, die dann auch in Anführungsstrichen festgefroren sein können in einem Zustand und damit die Versionierung weitermachen. Siehst du da auch einen großen Innovationshebel in der ganzen generativen KI? Also da sehe ich auf jeden Fall einen riesen Innovationshebel. Ich sehe ihn auch in dem Moment, wo wir sagen, wir haben diese Tools an der Hand. Wir lassen dieses eine Tool zu und lassen die verschiedenen Versionen, die dann danach kommen,
auch immer wieder zu. Was man natürlich in den Griff kriegen muss, sind die Halluzinationen. Das ist ganz wichtig, ... weil in dem anderen Podcast ging es ja Automobilindustrie. Auch da hat man ein ähnliches Thema. Wenn man jetzt plötzlich eine falsche Empfehlung bekommt ... ... im Medizinbereich, dann hat man direkt ein Haftungsthema. Wenn da jetzt jemand massiven Schaden davon trägt, weil da was Falsches empfohlen wurde, ... dann ist ja die Frage, wer haftet dafür. Und deswegen ist meine Meinung auch gerade jetzt ... ... in der Maturity, wo wir sind,
Was diese Large -Language -Models angeht, sollte man auf jeden Fall, und das ist auch vom Gesetzgeber momentan so vorgegeben, immer den Arzt das letzte Wort haben lassen. An der Stelle verweisen wir kurz an den Podcast mit Hendrik Kleinwächter, wo wir zum Thema Haftung im Automobilbereich, genau, so ein ähnliches Thema im Rahmen der RHG -Modelle. Also wer das verstehen möchte, hört am besten noch mal rein. Diese Idee, einen Large -Language -Model zu haben, was jetzt nicht den Arzt ersetzt, sondern mit dem Arzt sozusagen als Co -Pilot
fungiert, den Arzt zu beraten, den Arzt als Sparringspartner oder was der Arzt als Sparringspartner nehmen kann. Das ist, glaube ich, momentan Stand jetzt der Technik auf jeden Fall the way to go. Wenn du jetzt das Ganze noch mal weiter denkst und über die Zukunft nachdenkst. Ich meine, du kennst ja auch sagen Alltag als Arzt. Du kennst den Alltag als Forschender in einer großen Institution wie einem Universitätsklinikum.
Was würdest du so schätzen, wie viel Effizienz man nur durch den Einsatz von dem Status Quo eigentlich schon heben könnte? Also ich glaube, man kann wahnsinnig viel Effizienzen heben. Und zwar das beste Beispiel ist auch durch die Medien begeistert, Corona. Wir haben ja den Pflegenotstand. 60, 70 Prozent der Zeit von Pflegenden wird momentan für Administrationen aufgewendet. Dokumentation und solche Themen. Und das ist eine wahnsinnige Verschwendung.
In diesem Bereich könnte man mit der Kombination aus deterministischer Computervision AI plus Large Language Models, die dann eben die Dokumentation direkt vollautomatisch abbilden, extrem viel heben. Auch im ambulanten Bereich. Ihr kennt es selber, wenn ihr zum Arzt geht. Nichts ist meines Erachtens schlimmer, als wenn der Patient zu einem kommt. Der Arzt guckt die ganze Zeit auf den Bildschirm, guckt den Patienten gar nicht richtig an.
Er hämmert da irgendwas auf seine Tastatur ein und kann gar nicht richtig sich mit den Patienten befassen, weil er die ganze Zeit mit dieser Dokumentation beschäftigt ist. Auch da wäre es sowohl für den Patienten als auch für den Arzt so viel leichter, wenn es eine Möglichkeit gäbe, hier die Dokumentation zu voll automatisieren. Und ich meine hier jetzt nicht irgendwelche Diktiergeräte, irgendwelche Digitalen, die einfach nur das transkribieren, was der Arzt sagt.
Weil das würde nicht funktionieren, dann müsste der Arzt danach seinen ganzen Text noch mal revidieren, sondern eben ein smartes Large -Language -Model, was Punkt für Punkt die Inhalte wiedergibt und dann auch noch in Kombination mit einer Technik, die die Halluzination in den Griff kriegt. Und das wäre ein wahnsinniger Mehrwert. Okay, an der Stelle haben wir ein bisschen das Problem, dass wir in Deutschland Föderalismus leben. Also jedes Föderalland, jeder Träger und so macht das im Grunde selber, wie mit den Daten, mit den Patientendaten umgegangen wird. Dann gibt es auch unterschiedliche
die teilweise noch auf antiquierten MS -DOS -Themen basieren oder auf Windows 95 oder so was. Spannend wäre es ja tatsächlich, wenn man in Zukunft es schafft, Basis zu haben, Patientendatenhistorie aufzubauen, aus der im Grunde auch Lösungen für das Individuum getroffen werden können. Auch ärzteübergreifend, weil da gibt es ja schon Probleme, weil Patientendaten sind glaube ich die zweitkritischsten Daten.
am Markt und die einen packen das in die Cloud, die anderen on -premise, also praktisch auf dem Server im Keller. Die anderen spalten das irgendwie auf, aber es gibt da nicht diese einheitliche Lösung. Wo stehen wir da in Deutschland? Also ich glaube, dass leider immer wieder diese Themen als Innovationskiller vor uns hergetragen werden. Das heißt, man ist ganz schnell in der Diskussion, was alles nicht geht. Vom Datenschutz her, aber auch von den Konzepten, Olli, die du angesprochen hast, war sehr sensible Daten auf wirklich hochsicheren eigenen Servern.
zu behalten, dass man in die Möglichkeiten greift, Daten synthetisieren zu können, die Anonymisierungsverfahren. Ich glaube, haben da technisch einige Möglichkeiten. Aber das wird wirklich häufig als ein Argument genommen, etwas nicht zu machen. Da würde ich gerne, Alex, dich mit ins Spiel bringen. Du bist ja einfach ein Teil der Community, der Ärzte, aber auch derjenigen, die solche Systeme anwenden könnten und weiterentwickeln könnten.
Wie siehst du da die Einstellung zu den ganzen Themen Daten, Datenschutz? Glaubst du, dass das Akzeptanz finden würde, wenn es ein gutes Werkzeug ist? Oder glaubst du wirklich an dieses starke Ablehnungshaltung hier in Deutschland? Zunächst mal glaube ich, dass Gesundheitsdaten als Kritisdaten, als kritische Infrastrukturdaten absolut schützenswert sind. Sie gelten auch als die sensibelsten zivilen Daten, die es gibt. Und das hat auch eine Berechtigung, weil man natürlich
mit Gesundheitsdaten auch eine Menge Schindluder betreiben kann. Gesundheitsdaten müssen massiv geschützt werden ... und auch durch den Gesetzgeber. Also diese Diskussion, die ich immer wieder höre, ... ja, der Datenschutz in Deutschland ist zu stark, ... das teile ich nicht, weil ich glaube, dass diese ... Daten auf jeden Fall extrem schützenswert sind. Jetzt ist aber die Frage, ... natürlich muss das Ganze praktikabel sein. Was ich mir zum Beispiel sehr gut vorstellen könnte, ... wäre, dass man ein System hat, ... mit einer Secure Data Cloud, einer
einer Health Cloud. Ich meine, andere Länder machen es vor. Es ist jetzt nicht so, dass es irgendwie komplett unlösbar ist. Estland beispielsweise. Also da gibt es verschiedene Modelle, mit denen man arbeiten könnte, verschiedene Länder, bei denen man schon schauen könnte, wie die es machen. Das Problem, was wir in Deutschland sehen, hinsichtlich Gesundheitsdaten, ist eher, dass wir föderal organisiert sind und dass jedes Bundesland mit den Daten anders umgeht. Also während irgendwie in München beispielsweise die Gesundheitsdaten noch nicht mal das Krankenhausgelände verlassen dürfen.
dürfen sie in NRW beispielsweise das Bundesland nicht verlassen und in den meisten Bundesländern dürfen sie Deutschland nicht verlassen. Also wenn man sich da einfach auf einen bundesweiten Standard einigen würde, dann würde man schon mal sehr viel erleichtern, also den Entwicklern erleichtern. Natürlich muss das Ganze state of the art abgesichert sein und ich glaube auch, diesen Argumentationsschrank, den ich mit anderen Datenschützern teile, ich glaube, dass eine Cloud, die von diversen Playern benutzt wird und wo
relativ viel Geld mit dieser Cloud verdient wird ... mit dem Hosting, dass die ... wahrscheinlich besser geschützt ist, ... ... als wenn jedes Krankenhaus und jede Praxis ... in ihren Räumlichkeiten ... einen eigenen Servat, ... der natürlich nicht so gut geschützt wird. Natürlich Dezentralität ist auch ein Stück Resilienz, ... ist ... ... vielleicht kann man auch sich ein Hybridsystem vorstellen, ... aber die meisten, wenn man mal ganz ehrlich ist
Es gibt Praxen, haben Systeme aus den 90er Jahren, die sie noch verwenden. Und da frage ich mich, wie sicher können die sein? Oder der Standard, der in Praxen momentan verwendet wird, mit den Faxgeräten. Es wird ja immer gesagt, wir können keine Gesundheitsdaten e -mailen, das ist verboten. Aber Faxen geht. Und die Frage ist, wie sicher ist denn bitte ein Faxgerät? Meines Wissens nach ist es überhaupt nicht verschlüsselt, was über so ein Fax verschickt wird. Und deswegen frage ich mich, was das soll.
Also wir kommen jetzt ganz schnell auf so eine politische regulatorische Ebene. Das heißt, haben so Themen, die sind auf Föderalebene in Deutschland festgelegt, wie Gesundheitswesen, wie Bildungswesen und so weiter und so fort. Jetzt müssen wir mal überlegen, in Zukunft in Deutschland auch wettbewerbsfähig zu bleiben, ob man vielleicht ein Stück weit die Datenkontrolle, also Datenregulatorik auf internationales Niveau hebt. Weil ich glaube, da stehen wir uns in Deutschland ein Stück weit selber auf dem Fuß. Ich meine, wir sind immer noch irgendwo unter den Top.
Tierländern, wenn es Gesundheits-, also Versorgung von Patienten und Co. geht. Aber unsere demografische Entwicklung, die sehen wir auch. Die ganzen Boomer, kommen und so weiter. Also unser Gesundheitssystem wird schon ein Stück weit an die Grenze gebracht. Und wenn wir da nicht aufpassen, dass wir da mithalten in irgendeiner Form, werden wir im Zweifel, wird das Ganze externalisiert irgendwann, kann ich mir vorstellen. Oder? Wie siehst du das? Ja, ich sehe es auch so. Also ich sehe riesige Chancen, was das Thema KI im Gesundheitsbereich angeht.
eben durch das Heben dieser Effizienzen. Aber auch ein gutes Beispiel ist auch immer die deterministischen KI -Algorithmen, also die ganzen Computer Vision Themen, die ich vorhin angesprochen habe, sprich radiologische Befundungen von CTs und kernspintomografischen Untersuchungen oder den Schnitten. Es ist einfach so, momentan ist in den meisten medizinischen Prozessen der Arzt an sich, der Befunder an sich, einer der teuersten Faktoren.
In einer alternen Bevölkerung, wo wir immer mehr Patienten haben, die versorgt werden müssen und immer weniger Fachpersonal haben, die das Ganze leisten können, ist meines Erachtens KI eine extreme Chance. Denn wenn man sozusagen die Ärzte damit enables, sehr viel schneller, präziser und viel, relativ hochwertige Befunde zu erstellen,
dann stellt sich meines Erachtens gar nicht die Frage, ob man das verwendet. Ich bin mir auch ziemlich sicher übrigens, dass das in Zukunft Standard sein wird. Ich kann mir nicht vorstellen, dass so eine Technologie in der Medizin nicht verwendet wird. Es gibt natürlich Stimmen in der Ärzteschaft, sagen, die KI -Algorithmen werden uns Ärzte ersetzen. Das glaube ich nicht. Ich glaube, das ist ein Tool wie jedes andere auch. Das beste Beispiel ist ja immer, wenn man sich mal eine andere Technologie anguckt, die irgendwann in der Medizin Einzug erhalten hat. Beispielsweise das Mikroskop. Mittlerweile ist es halt so,
Ein Pathologe würde keine Diagnostik mehr ohne Mikroskop machen und das auch schon seit 200 oder 300 Jahren. Ich weiß nicht, wie lange es Mikroskope gibt. Das heißt, der Pathologe wird aber nicht ersetzt, sondern es wurden einfach die Pathologen ersetzt, die kein Mikroskop benutzt haben, durch welche, eins benutzen. Und genauso sehe ich das auch mit der KI. Also es ist ein Tool, was uns helfen wird. Und langfristig werden die Ärzte auch damit Hand haben müssen. Und ich glaube, was ganz wichtig ist, dass wir jetzt die Weichen dafür stellen, dass wir jetzt in den universitären Curricula
eine gewisse Data Literacy mit anbieten, dass wir den angehenden Ärztinnen und Ärzten beibringen, wie man mit Datenbanken umgeht, wie man mit Daten generell umgeht, wie man vielleicht auch Basic Python Coding oder ähnliches, also wie man mit KI umgeht. Da sehe ich momentan den größten Handlungsmaß. Wir sind ja jetzt nicht in einer wirtschaftlichen Domäne, wir sind nicht in einer Wettbewerbssituation. Wir sind in einer Bevölkerung, überaltert. Wir sehen gerade, was das mit Japan macht. Das steht uns bevor.
Im Grunde ist das, was wir in letzten Folge mit dem Frank auch besprochen hatten, dann irgendwann haben die Leute wieder mehr Zeit, sich den mildtätigen, gemeinnützigen Themen zu widmen. da würde ich jetzt einfach mal das Dasein des Arztes, Ärztin mit rein denken. Und wenn das jetzt so ist, dass ich im Grunde durch KI, durch Robotik und ähnliche Themen Assistenz an die Hand bekomme, die vorher gar nicht da war, die wirklich zuverlässig und objektiv funktioniert.
habe ich als Arzt oder als Ärztin natürlich entsprechend mehr Zeit, A, für den Patienten, B, für die Forschung, mich wirklich in Sachverhalte reinzudenken, also wirklich meinen Gehirn auch wieder zu benutzen. Und ich glaube, das kann ja wirklich keiner vom Tisch wischen, dass das irgendwie eine angenehme Situation eigentlich ist. Unbedingt. Also ich glaube auch, dass gerade wenn man in den ambulanten Bereich guckt, ich glaube, es hat kaum ein Arzt Lust, so viel Zeit mit Dokumentation zu verschwenden. Die meisten Ärzte würden sich wünschen, dass sie sich einfach mit dem Patienten hinsetzen können,
und sich mit den Patienten unterhalten können, ... eine vernünftige Anamnese zu machen, ... eine vernünftige klinische Untersuchung ... ... und nicht die ganze Zeit ... dem Hinterkopf haben zu müssen, das muss ich jetzt alles noch eingeben. Also ich glaube auch, dass jeder Arzt ... und jede Ärztin ... am liebsten ... seine oder ihre ganze Aufmerksamkeit ... auf den Patienten richten. Ich glaube nicht, dass irgendeiner dieser Ärzte ... gerne ... auf den Computer die ganze Zeit schaut ... ... und irgendwas auf der Tastatur eingibt, ... sondern im Grunde
ist es so, dass es ein notwendiges Übel ... was von allen ... toleriert wird, weil es sozusagen ... abrechnungsrelevant ist und auch ... dokumentationsrelevant aus forensischen Gründen ... und so weiter. Wenn man ... diese administrativen Prozesse ... ... mit einem KI -Tool ... eliminieren würde, ... würde meines Erachtens ... ... die medizinische Qualität steigen, massiv steigen ... ... und vor allen Dingen auch die Interaktion ... mit dem Patienten. Der Patient wird sich ... gewertschätzt fühlen, er wird sich verstanden fühlen, ... das sind alles Themen, die bleiben natürlich auf der Strecke.
wenn ein Arzt nur ein paar Minuten für den Patienten hat und davon die Hälfte der Zeit auf dem Bildschirm glotzt. Das kann man sich sehr gut vorstellen. Wenn ich das Ganze jetzt reflektiere, hast du uns ja schon ganz viele Hinweise gegeben für Use Cases, wo deine KollegInnen sozusagen würden, wir wollen das nutzen. Das heißt, die Akzeptanzfrage stellt sich kaum. Jetzt ist die Frage, warum sehen wir trotzdem noch so wenige wirkliche gute Fälle jetzt vielleicht außerhalb der bildgebenden KI -Verfahren?
Im Bereich beispielsweise der generativen KI, da wird immer wieder dieses Thema auch Regulatorik als große Hürde in Deutschland ins Spiel gebracht. Was müsste man da machen, viel mehr sozusagen gute, positive Beispiele zu erzeugen? Also ich habe vor einiger Zeit etwas von sogenannten Regulatory Sandboxes gehört. Das sind im Grunde politisch gewollte Bereiche, wo gesagt wird, in diesem Bereich lassen, das ist eine Spielwiese, das ist eine Sandbox, ein Sandkasten.
Und hier könnt ihr einmal so tun, als gäbe es überhaupt gar keine Einschränkungen. Und jetzt entwickelt mal. Natürlich muss man dann sagen, okay, das funktioniert in der Regulatory Sandbox, aber die best practices aus diesen Sandboxes dann zu nehmen, sie dann den komplizierten Zertifizierungsprozessen zu unterwerfen, das ist meines Erachtens genau the way forward. Also man müsste sagen, okay, man hat hier einen geschlossenen Raum, könnt hier, das ist alles experimentell, hier kommt niemand zu Schaden, aber in diesem Raum könnt ihr
experimentieren. Und das ist meines Erachtens der Weg, den man einschlagen sollte. Wichtig natürlich, dadurch, dass es eben eine Simulation ist, wenn man so möchte, muss das Ganze irgendwie monetär incentiviert sein, eben das Ganze nicht nur irgendwelche beförderten Forschungsprojekte sind, sondern wirklich auch Unternehmen, die aus meiner Sicht eben sehr viel schneller sind, was die Entwicklung angeht, auch incentiviert sind, damit zu arbeiten.
Wir sehen ja auch solche Regulatory Sandboxes im Bereich des autonomen Fahrens. da haben sie eigentlich als Werkzeug wirklich dazu geführt, dass man eine viel größere Implementierung von Projekten, wirklich eine Realisierung von Projekten auch beispielsweise in Innenstädten hatte, dass man wirklich dann an echte Testdaten kommt. Siehst du gerade auch dann im Bereich der Datenerhebung und auch des Datenpoolings eine Möglichkeit durch diese Rack Sandboxes in deinem Bereich.
entsprechend einen Schritt weiterzukommen? Ja, unbedingt. Ich hatte ja gerade gesagt, wir haben momentan die Situation, dass durch diese föderale Rechtsprechung in dem Bereich oder die föderale Regulatorik in diesem Bereich, dass wir da momentan keine einheitlichen Regelungen haben und die Regelungen auch selber sehr streng sind. Wenn man das jetzt auflockern würde in diesem geschlossenen Geschützensystem, dann könnte ich mir sehr gut vorstellen, dass da ganz viel kommt. Aber es klingt für mich als erst
ganz vereinfacht nach Meketon. Wer ruft so was aus? Eigentlich müsste das ja die Bundesregierung sein, beziehungsweise die Föderalregierung, die sagt, okay, wir machen hier jetzt mal einen geschützten Bereich, wo man sich ausrufen könnte. Weil sonst würden ja die großen Pharma - und Medizinunternehmen sofort sagen, ja, wir machen das jetzt alle auf, regulatory sandboxes. Also es ist so, dass die Europäische Union dort in den großen Förderforschungsrahmenprogrammen
genau solche regulatory sandboxes vorgesehen hat. Das heißt, da gibt es EU -weite Förderung für. Es gibt natürlich auch regionale Förderung, dass sich solche Cluster und Hubs bewerben können, entsprechend solche auch Ausnahmegenehmigungen zu bekommen. Auch hier in Hamburg, ich sagte schon, Beispiel des autonomen Fahrens hatten wir das bei einem der ITS Welt Kongresse, die hier stattgefunden haben, dass man einfach eine Erlaubnis hatte, wirklich im laufenden Verkehr
über eine gewisse Zeit mit natürlich gewissen Regeln das Ganze zu testen. was man gesehen hat, ist, dass wirklich viele, Datenpunkte entsprechend eingesammelt werden konnten, dass man wirklich die Chance hatte, etwas mal in der Realität einfach auf die Straße zu bringen. Diese Art von Förderinstrumenten werden zyklisch aufgelegt. Ich glaube auch, dass sie im nächsten Jahr auch hier eine Rolle spielen werden in Deutschland für Grundlagentechnologien, für solche Anwendungsfälle.
Und deswegen glaube ich, das wirklich, so wie du sagst, Alex, ein probates Mittel ist, in einem sehr sensiblen Umfeld auch voranzukommen. In meiner Welt ist das total durchreguliert. Das heißt, die Initiativen, die sich darauf bewerben, die bewerben sich mit einem Case, was sie da im Grunde in dieser Sandboxung durchspielen wollen. Und dann muss aber auch dahinter ein Prozess geben und auch entsprechende Gelder, die das, sollte das ein Erfolg sein, entsprechend in die Realität überführen.
Und in Deutschland, Medizinprodukt, Zulassung, easy, drei Jahre plus. Da muss man ja schon ein massives Invest im Zweifel hinter planen. Weil sonst hast du ein Sandbox -Resultat und dann gucken sich alle an und sagen, aber traurig, dass das jetzt nicht weitergeht. Also ich glaube, man muss das als einen Teil der Prozesskette sehen. Natürlich ist es wichtig, dass dann die Ergebnisse, die da produziert werden können, dass sie am Ende auch eine Chance haben, in die Realität auf einer anderen Skalierungsebene zu diffundieren. Aber...
Auf der anderen Seite braucht es halt diesen Kickoff erstmal. Man braucht erstmal diese Art von Experimentierraum. Und die Idee dahinter ist, dass natürlich auch die Privatwirtschaft incentiviert wird, dann aufgrund beispielsweise positiver Ergebnisse und auch Akzeptanz, Messung und so weiter entsprechend das aufzunehmen und natürlich diese Innovationskette weiter zu verfolgen. Ich habe eine plastische Sandkiste im Kopf, wo am Seitenrand die Corpods stehen und den
sage einfach mal den Kindern übertragen, sind die Neudenken, die Dinge einfach mal anfassen, ohne davor wirklich Angst und Respekt zu haben. Denn die richtigen Werkzeuge, die schaufeln und das Sieb und so hinschmeißen, sagen ja, das brauchst du noch und hier sind die Mittel. Und ach, die Burg finden wir jetzt richtig geil, die wollen wir fördern. Inwiefern gibt es da schon Schema F? Gibt es da einen Standard? Oder ist das alles noch wirklich so experimentell, dass man da sagt, okay, da fehlt uns noch ein bisschen was?
Also ich glaube, es gibt da so die ersten Konzepte, die wirklich auch einen großen Erfolg gezeigt haben, gerade in den sensiblen Bereichen, wo es sonst einfach nicht möglich wäre, in einem realen Umfeld zu testen. So wie Alex das auch gezeigt hat, wäre das gerade auch in dem Herz -Ker -Bereich eine gute Möglichkeit, einfach da wirklich einen Schritt weiterzukommen. Ich glaube, das Schema F gibt es deshalb noch nicht, weil einfach auch ganz neue Grundlagentechnologien in einer unglaublich kurzen Zeit entwickelt werden. Wenn man sich allein anschaut.
Gen. AI, wie schnell die Welle eigentlich stattgefunden hat, wie massiv das weltweit auch Effekte nach sich gezogen hatte, dann ist es natürlich so, dass die Regulatorik da eigentlich immer so einen gewissen Zeitverzug hat und hinterherhinkt. Aber ich glaube, die Werkzeuge sind bekannt. Wie stark die eingesetzt werden, wie viel auch finanzielle Unterstützung und Weiterführung es gibt, ist natürlich die Frage. Aber ich glaube, dass das gerade in dem Bereich KI
diese schnellen Innovationszyklen ein richtig gutes Werkzeug sein kann. Apropos, hatten vorher auch ganz kurz das Thema Pflege. Wenn wir konsequent über KI in der Medizin reden, sollten wir auch über Robotik reden, weil das ist eigentlich nur die Konsequenz. Das sehen wir jetzt auch schon. Es gibt verschiedene Firmen, gerade unter anderem Tesla auch, die ihre Roboter auf den Markt schmeißen wollen. Wir sehen natürlich, dass Hardware genauso wie Software mit einer Schnittstelle ausgestattet.
Die reden dann mit JetJPT und wie sie alle heißen. Auf einmal kann das reden und alle sagen wow. Weil ein Roboter sitzt, der praktisch genau das macht, was JetJPT macht und das halt in Bewegung übersetzt. Zwei Welten, die logisch zusammengehören, wachsen jetzt gerade zusammen. Was natürlich Innovation ist. Also weil man jetzt die Rechenpower hat und so weiter und so fort. Inwiefern siehst du den Einzug? Also ich meine, es gibt ja schon
Da Vinci Roboter. Da Vinci. Und in der Pflege vielleicht dann auch, da fehlt ja wirklich auch Personal, dass man vielleicht auch solche Roboter einsetzt. Inwiefern siehst du da die Zukunft? Also ich glaube schon, dass körperlich schwere Arbeiten, da gibt es auch in der Pflege sicherlich einige Dinge, dass die in Zukunft unterstützt werden durch Robotik. Einfach weil wir diesen Pflegenotstand haben. Wir haben nicht genug Fachkräfte und es macht Sinn.
da das Personal was noch vorhanden ist oder was vorhanden ist zu unterstützen sei es jetzt durch einen Roboter oder durch Exoskelettunterstützung sagen wir mal wenn man sehr schwere Patienten beispielsweise umlagern muss scheint zu funktionieren ob jetzt tatsächlich in naher Zukunft die Pflegekraft die den älteren Patienten zu Hause pflegt komplett robotisch sein wird weiß ich nicht
Ich glaube auch immer noch, dass es eine gewisse menschliche Komponente gibt, die so einfach auch durch Dutch Language Models nicht zu ersetzen ist. Ich meine, wir kennen alle das Video von ChatGPT4O, wo eine KI, mit der man spricht, die zumindest Emotionen suggeriert, kann man ja sagen. Ich glaube aber trotzdem, dass ein ganz essenzieller Teil der menschlichen Kommunikation Empathie ist.
dass Menschen an sich soziale Wesen sind und dass diese Empathie, also das, was Psychologen nennen, es mitschwingen, man verspürt selber die Gefühle des Gegenübers, dass das sehr schwierig ist, durch eine KI abzubilden. Ich kenne die Forschung da nicht, Alois, vielleicht kennst du sie da, ob das überhaupt möglich ist, weiß ich nicht, weil diese Large -Language -Models eher statistische Modelle sind, die im Grunde Wort folgen, die logisch aufeinander folgen würden.
nach einem bestimmten Schema einfach kombinieren und da keine echten Gefühle haben. Zumindest stand jetzt nicht. Deswegen glaube ich schon, dass ein ganz essenzieller Teil der Pflege, nämlich das empathische Pflegen, Mitfühlen, dass das eben nicht vorhanden ist. Deswegen vielleicht eine Kombination von beiden. Das hat ja auch 80 Prozent von dem, was man so kommuniziert, ist tatsächlich mimik und gistig. Und es wird wahrscheinlich auch stark variieren zwischen Menschen. Auf der anderen Seite gab es vor Jahren schon,
nach fünf oder zehn Jahren gab es mal so eine Roboter -Robbe in Japan, die wurde in Altenheim vertestet. Die konnte nicht so viel, außer so ein bisschen einfache Reaktionen. Im Grunde war es ein Spielzeug, die wurde sehr, sehr positiv angenommen. Man hat interagiert. Das war, glaube, in dem Rahmen Demente entsprechend animiert, mit was zu machen. Und insofern, wenn man die GPT -4 -O anschaut, ist schon relativ eindrucksvoll. sagen wir...
mit dem, was in der Stimme mitschwingt. Das haben sie ja schon Emotionen, auch wenn die vielleicht bisschen überzogen sind. Es ist natürlich so eine Art Wayforward, den man da vielleicht schon erahnen kann. Also das Thema emotionale Erkennung ist kein neues Thema, auch in der KI, Emotional Recognition, sondern ist auch Forschungsgegenstand schon von vielen, vielen Arbeiten weltweit. Und man muss sich schon anschauen, dass gerade beispielsweise im European AI Act, also in unserem KI -Gesetz, gerade die Emotionserkennung
unter einem hohen Risikofaktor steht. Das heißt, man sagt, Emotionserkennung an sich, ist vielleicht etwas, was zu weit geht. Das wollen wir eigentlich nicht so gerne haben. Vor allem, wenn es Use -Cases geht, die öffentlich zu sehen sind. Aber auf der anderen Seite gibt es natürlich die Möglichkeit, mit der Maschine ganz anders umzugehen, als wir das noch gewohnt waren. Per Tastatur, Maus, Eingabe oder so etwas. Da ist ja gerade auch quasi so die Genialität in der generativen KI, dass wir eigentlich einen Paradigmenwechsel haben.
wie wir mit so einer Maschine umgehen können. Voice Assistenten, wo man mit Spracheingabe sozusagen sich artikulieren kann und ihr ein Befehl eingibt, sind fast Standard. Das ist schon Commodity. Jetzt haben wir bei, du hattest das schön ins Spiel gebracht, Alex, bei der 4 .0 Version von Chet gesehen, dass multimodale KI auf einmal ins Spiel kommt. Das heißt, dass sowohl sprachbasierte Verarbeitung, maschinelle Verarbeitung eingesetzt wird, als auch Bildauswertung.
Wenn ich mir das jetzt mal vorstelle in den Zukunftsbereich, in der Medizin, im Health Care, Life Science Bereich, dann fallen mir sofort Hunderte von Use Cases ein, wo ich sage, da macht gerade die Kombination zwischen Bild, Video und Sprachauswertung einen großen Impact. Wie siehst du das eigentlich aus deiner Perspektive, wenn ich jetzt so ein wirklich multimodales, hochqualitatives Modell hätte? Also das wäre fantastisch. Man denke nur an beispielsweise Schmerzpatienten. Also Schmerzen sind
was derart subjektiv ist. Ein Patient mit starken Schmerzen verzieht das Gesicht, hat einen angespannten Muskeltonus, fängt an zu schwitzen. Das sind alles Themen, die man sehr gut detektieren kann. Da kommt dann die deterministische KI ins Spiel. Wenn man dann auch noch das Ganze mit einem Sprachmodell kombinieren würde, was vielleicht auch noch abfragt. es gibt beispielsweise in der Schmerztherapie gibt es ein Schmerzschema. Da sagt man auf einer Skala von eins
Wie stark sind Ihre Schmerzen? Wenn 10 bedeutet extremer Schmerz, der schlimmste Schmerz, Sie sich vorstellen können, und eins gar kein Schmerz. Solche Themen zu automatisieren und eben ständig dann Patienten abzufragen, würde dazu führen, dass man sicherlich weniger Schmerzmedikamente verwenden könnte, gezielter Schmerzmedikamente verwenden könnte und auch ein Monitoring der Patienten durchführen könnte, auch zu sehen,
wie gut spricht ein Patient auf ein gewisses Medikament an. Das sind alles so Themen, das liegt auf der Hand, dass man das nehmen würde. Also ich glaube, das ist eine Riesenchance und nicht nur in der Schmerzmedikation, sondern überall in der Medizin. Und deswegen glaube ich auch, dass KI und Medizin zusammengehören. Wir sind jetzt, sagen wir, nah am Ende der Folge. Aber was mich noch mal ein bisschen interessiert und das jetzt schon wieder so ein bisschen ausgeholt.
Eine KI, also gerade jetzt gerade die großen LLM Modelle werden natürlich mit menschlichen Konversationen angereichert. Und gerade wenn wir jetzt über das Thema Empathie reden, wurde nämlich neulich gerade, das hat mir gerade einer von einem Freund angesprochen, ich, dass ich mir eine KI -Konversation betrieben habe und irgendwie freundlich geschrieben habe. Der hat mich ganz schräg angeguckt und meinte, warum hast du denn das gemacht? Die Frage wäre, wenn jetzt natürlich das globale Wissen der Menschheit, alle Bücher, die wir geschrieben haben und so weiter, eine KI im Grunde entsprechend angelernt wird, menschliche Interaktion zu verstehen, man selber.
aber sehr robotisch mit einer KI redet, hat das einen Einfluss auf die Emotionsfähigkeit, also auf die Empathie einer potenziellen zukünftigen KI? Also ich würde sagen, aufgrund der Trainingsdaten, die man dadurch erzeugt, auf jeden Fall. Ich erwische mich selber auch immer, dass ich sozusagen eigentlich sehr höflich kommuniziere, auch wenn es eine KI ist und ich eigentlich weiß, dass das eigentlich keinen Unterschied machen würde. Aber gerade wenn solche KIs in so einem medizinischen Kontext angewendet werden, über den wir heute
auch intensiv gesprochen haben. Ich das ist ein entscheidender Faktor, der wirklich auch nochmal die Akzeptanz und das menschliche Wohlbefinden auf ein ganz anderes Level bringen kann. Wie siehst du das, Alex? Ja, denke ich auch. Wir haben ja Wörter wie Bitte und Danke aufgrund von gesellschaftlichen Konventionen. Und gerade wenn man bedenkt, dass Patienten vielleicht im Alter gar nicht mehr aufgrund von Demenz, aufgrund von Alzheimer gar nicht mehr richtig unterscheiden können, ob sie jetzt mit einer
Personen sprechen und wann die Person mit ihnen spricht, ... macht es natürlich Sinn, dass eine KI absolut höflich ist ... ... und dass auch menschliche Reaktionen ein Stück weit ... ... simuliert werden, eben auch die Patientinnen und ... ... Patienten, die vielleicht ohnehin schon verwirrt sind, nicht komplett aus dem Konzept zu bringen. Wenn man jetzt plötzlich eine KI hätte, ... also ein Sprachmodell, was mit einem ... Demen -Patienten interagiert und plötzlich nur noch ... ... auf Befehle reagiert, die keine
freundlichen Wörter beinhalten, dann würde das ja auch den Patienten komplett aus dem Konzept werfen. Also ich würde schon sagen, menschliche Interaktion sollte simuliert werden, so gut es geht. Das heißt aber im Umkehrschloss, wenn ihr jetzt Kinder habt und den Sach, red mal mit Google oder Amazon, wie sie heißen, würdet ihr die tendenziell anhalten, freundlich mit der Maschine zu reden oder würdet ihr den einer Tonalität zu raten? Ist jetzt ein bisschen in die Zukunft gedacht? Also ich glaube ganz klar, würde ich denen die Empfehlung geben,
der Maschine so umzugehen, wie man auch mit ihresgleichen umgeht. Warum sollte man sich heute umstellen, mit einer Maschine eine Interaktion zu haben? Es ist ja gerade die Genialität eigentlich der heutigen KI -Entwicklung und des Fortschritts, dass wir mit denen in natürlicher Sprache, so wie wir mit anderen sozusagen mit uns umgehen, entsprechend umgehen können. Deswegen fände ich das fast ein Rückschritt, wenn wir uns jetzt irgendeine andere Verhaltensweise gewöhnen müssen.
Deswegen würde ich das erst mal wirklich proaktiv so sehen. Natürlich ist da immer der Aspekt, weiß ich noch, mit wem ich mich unterhalte, aber das ist dann für mich eher aus der Schublade der Transparenz zu sehen und zu sagen, bin ich mir noch bewusst, dass ich mit einer Maschine interagiere oder mache ich das mit einem Menschen. Wie gesagt, das sind aber für mich zwei unterschiedliche Bereiche. Deswegen, ich würde sagen, je besser, einfacher man einfach verstanden wird, desto von der technischen Perspektive her
auch besser ist das System am Ende. Der Kritikpunkt, der da häufig kommt, ... ist die Vermenschlichung der Maschine. Und das ist ja so eine Frage, ... wir uns als Gesellschaft halt ... fragen müssen, wie gehen wir damit Ich teile deine Ansicht, ... ... aber ich glaube, das ist ein Challenge. Ich denke, es heißt ... Natural Language Processing. Warum sollten wir jetzt ... unnatural mit der Maschine reden? So, das war noch ein schönes Schlusswort. Insofern, danke Alex, ... dass du hier warst. Alois wie immer. Rock 'n 'Roll. Ja, vielen Dank. Ja.
Ja, hört in unsere Folgen rein. ihr das eine oder andere Basswörter nicht verstanden habt, ich glaube, da können wir das eine oder andere aufklären. Insofern teilen, bewerten usw. Wir freuen uns wie immer. Und dann hören wir bald wieder.