•  Transkript: Werkstatt, Sauerteig und K.I. - mit Hendrik Kleinwächter

    Da sind wir schon in Episode 2 des Deep Tech Deep Talks. Ja, ein gewohnter Manier kann man jetzt beinahe sagen. Alois, mein Co -host, ist wieder am Start. Und wir haben heute erstmalig einen Gast, und zwar den Henrik. Henrik Kleinwächter, CTO bei der Ahead Automotive GmbH und einer der größten Sauerteigbrotbäcker der Welt. Moin. Lieben Tag, sag ich immer. Schön, dass wir dich hier haben. Henrik, erzähl mal kurz. Wir reden ja über Deep Tech. Was ist so dein Anknüpfungspunkt?

     

    zu dem Thema. Da habe ich tatsächlich zwei Anerknüpfungspunkte, würde ich sagen. Der erste ist in meiner Arbeit hier bei Ahead. Da haben wir auf jeden Fall diverse Deep Tech Themen. Und das andere Thema hat mit Brotbacken zu tun. Die Seite schon. Ich glaube, die meisten Leute denken sich jetzt, Brot, was ist das? Diese leckere Kruste, wenn man reinbeißt. Das krippelt so richtig schön im Mund, wenn man reinbeißt. So eine leichte schöne Säure mit dazu.

     

    Da habe ich tatsächlich den größten Sauerteig -YouTube -Kanal der Welt. Und das Ganze hat auch als Softwareprojekt, als Open -Source -Brotback - Softwareprojekt angefangen. Vor ungefähr fünf Jahren muss das gewesen sein. Was man halt so macht, ne? Was man halt so macht, genau. Mama hat damals immer richtig geiles, leckeres Brot für mich gebacken. Dann war ich auf einmal Student und dann musste ich mir Brot selbst kaufen. Und wenn man heute in den Supermarkt geht und sich ein Brot kauft und auf die Zutatenliste schaut ...

     

    Da sind so unfassbar viele Zutatenstoffe drin, da denkt man sich, das kann eigentlich kein gutes Brot sein. Ich hab mir gerade überlegt, womit fangen wir an? Mit Broten oder mit Garagen? Fangen wir mit Broten an. Fangen wir mit Broten an. Und es wird nicht weniger spannend. Das können wir, glaube ich, schon an -teasern. Ich hätte überlegt, am Abend die Brote mal hinten reinzutun. Noch ein bisschen in den Ofen schieben. Aber was fällt dir denn zu dem Thema Deep -Tech und Brot ein? Das ist auf jeden Fall ein ...

     

    wo ich sagen würde, dass da KI den ganzen Markt ein Stück weit noch mal revolutionieren kann. Vor circa 140 Jahren haben wir das erste Mal Reinzuchtheefe isoliert von Louis Pasteur und seitdem ist der Brotprozess super industriell geworden. Aber niemand macht Sauerteigbrot mehr heutzutage, weil das einfach zu schwierig ist, das industriell zu machen. Und woran liegt das?

     

    Das liegt ein Stück weit daran, dass jeder Brotteig, den man macht, jeder Sauerteig, den es gibt auf der Welt, ist ein Stück weit individuell. Und das ist einfach super schwierig, das mit so einer statischen Maschine, mit so einem statischen Brotbackautomat, den wir heutzutage haben, damit zu realisieren, so ein Brot zu backen. Das heißt, da an der Stelle, wenn man KI -gestützte Brotbackofen hätte, die genau erkennen können, an welcher Stelle, wo befindet sich jetzt gerade das Brot an der Stelle, wäre das eine Sache, wie man gutes Sauerteigbrot industriell backen könnte, theoretisch.

     

    Das heißt, wenn ich die Hefe jetzt durch Alphafol durchjagen würde, welche Proteine in dieser Hefe drin sind, könnte ich praktisch meinen Prozess optimal adaptieren? Ja, das würde wahrscheinlich gehen. Das Interessante ist am Sauerteigbrot, dass jeder Sauerteig, den man so hat, ein Sauerteig besteht nur aus Mehl und Wasser, jeder Sauerteig ist unterschiedlich und individuell. Das heißt, du würdest jetzt einen Sauerteig machen, Oli, oder Alois, du würdest einen ansetzen, dann wäre deiner anders als mein Sauerteig und anders als Oli's Sauerteig.

     

    Und das bedeutet natürlich in dem Prozess, dass dein Sauerteig sich anders verhält als der von Olli und mein Sauerteig. Das heißt, das ist nicht etwas, was man einfach so auch in dem Rezept befolgen kann, sondern man muss wirklich in jedem Schritt sich angucken, wo befindet sich der Brotteig an der Stelle. Aber das heißt, spinnen wir die Idee einfach mal wirklich zu Ende. Ich habe eben schon was reingeworfen, Alphafold. Alois, willst du kurz sagen, was das ist?

     

    Gerne, das ist eine der großen, würde ich fast sagen, Erfindungen der letzten Jahre gewesen. Und zwar geht es da das Thema der Proteinfaltung, der Vorhersage einer 3D -Struktur oder der 3D -Struktur von Proteinen, die entsprechend in Wechselwirkungen miteinander kommen und dann entsprechend Andockstellen bieten oder eben nicht. Und das wird in der gesamten Biotechindustrie, Life Science, Drug Discovery gebraucht. Das heißt, als sozusagen Urbaustein

     

    von beispielsweise Arzneimitteln ist einfach dieser Prozess wichtig. Und dort ist es gelungen, einem Forschartin aus DeepMind, der Google -Tochter, eine Lösung beizubringen, mitten in der Pandemie. Wir haben uns eigentlich viel mit anderen Themen befasst und auf einmal kam da ein Release. Und seit der Zeit waren dann die ganzen Telefonate in Richtung der Biotech war nicht mehr still, sondern alle haben gefragt, Mensch, wie weit geht das Projekt? Gibt es da eine Datenbank von allen möglichen Proteinen, die weltweit verfügbar sind?

     

    Ich glaube, du willst darauf hinaus, dass man das vielleicht auch in Richtung der Enzymreaktion spinnen könnte. So nämlich. Alpha -Fol 3 ist glaube ich gerade jüngst rausgekommen und da geht es molekulare Verbindungen zwischen den Proteinen. Da wäre es natürlich super spannend. Wir sind hier wirklich im hypothetischen Raum. Wenn ich weiß, welches Mehl ich benutze, wenn ich weiß, vielleicht sogar welches Wasser ich benutze, mit welchen Eigenschaften, welche Mineralien sind da drin, welche Hefe ich dabei habe und welche Zusatzstoffe da noch so reinkommen und dann natürlich sage

     

    ein optimales Proteinspektrum aufbauen und ein Reaktionsversuch wäre das ja wirklich so ein Labor. Und Promel, also die Kombination, die gibt ja mannigfache Möglichkeiten weltweit und da das optimalste Brot praktisch unter diesen KI -Laborbedingungen zu generieren. Das wäre super geil. Wir haben eine Trefferwahrscheinlichkeit bei AlphaFold größer 90 Prozent inzwischen. Ja gut, das muss man ein bisschen mit einrichten. 100 Prozent wäre natürlich besser.

     

    Aber damit ließe sich vielleicht das beste Brot der Welt generieren. Auf jeden Fall. Das hört sich auf jeden Fall nach einem Plan an. Ich habe da noch einen ganz interessanten Punkt zu, wo du das jetzt gerade sagst. Das beste Brot der Welt. Wir haben jetzt gerade Sommer und hier bei uns im Zimmer ist auch so langsam so ein bisschen warm gefühlt. Das sind wir. Jetzt, wo ihr euer Obst habt im Sommer, achtet mal bitte darauf. Ihr werdet jetzt Fruchtfliegen bei euch wahrscheinlich so langsam zu Hause haben. Und was viele Leute nicht wissen, ist, dass Fruchtfliegen ...

     

    unfassbar wichtig sind zum Brotbacken. Weil, wenn man jetzt zum Beispiel Bienen hat, die fliegen die ganzen Blumen an und so weiter. Und bei Fruchtfliegen ist das so. Die werden nicht wegen der Früchte angezogen, die man zu Hause liegen hat, sondern die Fruchtfliegen werden angezogen davon, dass das Obst irgendwann wird, ist ja nicht mehr am Stamm dran. Und das merken auch die Hefen. Und die Hefen an der Stelle werden dann opportunistisch und fangen an, das Obst zu essen. Und dann produzieren die Hefen

     

    Aromenstoffe, die Fruchtfliegen anzuziehen. Die Fruchtfliegen landen dann auf der Oberfläche der Früchte und verteilen dann die Sporen der Hefen auf andere Früchte. Und ja, ich habe schon mal aus Fruchtfliegen einen Sauerteig isoliert und damit ein Brot gebacken. Und das ist gerade, was den Research angeht, so unterschiedliche Hefestämme, unterschiedliche Bakterienstäfe. Dieser ganze Zusammenhang, was da passiert, ist überhaupt noch nicht klar.

     

    Und ich glaube, da könnte man auf jeden Fall mit Tech hätte man auch diverse Angriffspunkte, da super interessante Sachen draus zu machen. Ja, Hefe ist ja ein Pilz. Hefe ist ein Pilz, genau. Das heißt, die bilden Myzel auf der Pflanze und die Pflanze, also... Die Hefen bilden kein... Es gibt einige Hefen, die einen Myzel bilden, aber die Hefen an sich, die jetzt an der Oberfläche leben, selbst auf deiner Haut, Olli, oder auf meiner Haut, haben wir auch überall Hefen die ganze Zeit. Und die bilden eine Symbiose mit der Pflanze, schützen die Pflanzen vor irgendwelchen Schimmelpilzspuren. Während ich hier gerade in das Mikrofon spreche...

     

    Mit jedem Luftstoß atme ich ca. 20 Schimmelpilzspuren aus ungefähr. Also ich habe mal einen mycelischen weggeschwitzt heute. Und diese ganzen Zusammenhänge, wie diese Hefen zusammenarbeiten, zusammen auch mit den Bakterien, in so einem Sauerteig hat man immer Bakterien und Hefen, das ist überhaupt noch nicht erforscht. Und da sind so viele Möglichkeiten auch für neue Antibiotika, Antimiotika, die man gewinnen kann. Und das ist gerade so...

     

    Das wird erst seit fünf Jahren erforscht. Ich glaube, da wird man sicherlich KI -gestützt noch super viele interessante Sachen finden in der nächsten Zeit. Das ist ja massiv beschleunigt. Ich glaube, bevor es Alphafood gab, hat man glaube ich 20 .000, lass mich lügen, Proteine entschlüsselt. Mit Alphafood hat sich das für zehn und für hundertfach das ganze Thema. Ja, also man hat innerhalb kürzester Zeit quasi das gesamte Spektrum versucht zu entschlüsseln.

     

    mit diesem neuen Werkzeug. Ich meine, diese Aufgabenstellung, die gab es schon lange. Das heißt, viele Forscherinnen und Forscher der Welt haben sich damit tagtäglich auseinandergesetzt, die 3D -Struktur zu entschlüsseln, das zu simulieren. Es gab viele unterschiedliche Tools in der Richtung. Aber das war wirklich ein, könnte man sagen, ein richtig krasser Durchbruch, was in der ganzen chemischen Industrie natürlich für viele Neuerungen gesorgt hat. Und ich kann mir sehr gut vorstellen, dass das gerade auch in deinem Bereich durchaus als wirklich neues Werkzeug

     

    Was jetzt auf einmal verfügbar wird, was auch quasi als Open Source Projekt gehandhabt wird. Das heißt, jeder hat eigentlich den Zugang dazu. Deswegen ist es auch eingeschlagen. Wahnsinnig in der ganzen Research und Scientific Community. Und das könnte natürlich eine schöne Geschichte sein, das auch in einem Bereich anzuwenden. Das heißt, jetzt machen wir mal den soften Übergang. Bei Alphafold werden natürlich sehr viel Daten generiert. Und Daten sind ja nun mal, sagen wir einfach, das neue Gold.

     

    im Bereich der KI. Wir haben über Content is King und Data is King in der ersten Folge gesprochen. Und jetzt haben wir herausgefunden, also was heißt herausgefunden? Es hat sich herauskristallisiert, dass das ganze Thema Daten gerade im KI -Zeit einfach unumgänglich ist und praktisch die Essenz und die Basis für alles das ist, was man so vorhat. Wie ist das im Automobilbereich bzw. bei AHEAD? Was macht ihr da? Also auf jeden Fall, nochmal auf den Punkt zu kommen, Daten ist das neue Gold auf jeden Fall. Ich bin jetzt schon

     

    16 Jahre als Softwareentwickler unterwegs und ich habe da diverse Wellen auch mitgemacht. Ich erinnere mich noch, wie 2011 jeder gesagt hat, relationale Datenbanken sind tot. Ich weiß nicht, ob ihr euch noch daran erinnert. MongoDB haben sicherlich viele von euch schon mal gehört. Alle wollten auf einmal wie Facebook NoSQL -Datenbanken machen, bis dann alle irgendwann gemerkt haben, Moment, wenn wir jetzt NoSQL -Datenbanken haben, ist es gar nicht mehr so einfach, auf Daten zuzugreifen und die Basis für

     

    Das, was wir heutzutage machen mit unseren Large -Language -Models, ist, dass man eine saubere Datenbasis hat. Ganz kurz für den Line, was ist ein No SQL? So einfach wie möglich. Genau. Also es gibt prinzipiell zwei Haupt -Datenbankentypen, würde ich sagen. Wobei es gibt vielleicht auch drei. Das eine sind SQL -Datenbanken, SQL. Das ist sowas wie MySQL. Das kann man sich vorstellen wie so eine große Excel -Datei eigentlich mit mehreren Blättern da drin. Und mit dieser ...

     

    Sprache kann man dann die Daten sehr einfach abfragen aus diesen unterschiedlichen Excel -Dokumenten, mehr oder weniger. Und bei NoSQL liegen die Daten nicht so gut strukturiert vor wie jetzt vielleicht in einer Excel -Tabelle, wo man jetzt Überschriften hat zu den einzelnen Spalten. Das hat den Vorteil, dass das sehr gut skalierbar ist. Und im Falle von Facebook zum Beispiel oder Google, die Milliarden von Datenpunkten haben, ist das halt eine richtig geile Technologie. Skalierungsthema. Skalierungsthema.

     

    geht aber auf Kosten, dass man nicht mehr so gut die Daten durchsuchen kann an der Stelle. Das heißt, die liegen dann unstrukturiert vor. Dafür gibt es natürlich auch Lösungen, aber das ist alles nicht so gut, wie dieses klassische Daten in irgendeinem Art und Weise strukturiert vorliegen zu haben. Und das ist ein Trend, den ich jetzt heutzutage mal mehr merke, da den Bogen zu spannen zu erhead. Wir bei erhead arbeiten auch an Lösungen für Werkstätten. Wir wollen Werkstätten digitalisieren.

     

    und bauen dafür eine Technologie, die es für Werkstätten super, super einfach macht, in der Diagnostik Fahrzeuge zu untersuchen und herauszufinden, okay, wo habe ich jetzt irgendwelche Fehler in dem Auto, wie kann ich da für eine Lösung finden? Und dafür durchsuchen wir diverse Datentöpfe und zeigen dann dem Werkstattmeister an, okay, hier an dem und dem Punkt, da solltest du vielleicht nochmal nachschauen, da ist deine Datenquelle, so kannst du jetzt dein Auto reparieren an der Stelle. Die größte Challenge, die wir haben, ist,

     

    Jeder redet von Large Language Models, ... ... aber die Daten auch erst mal so vorliegend zu haben, ... dass man da mit Large Language Models dran arbeiten kann. Das ist erst mal das Entscheidende. Es gibt so viele unterschiedliche Datentypen. Es gibt dann vielleicht irgendwelche ... ... Videos, die wir uns anschauen. Es gibt irgendwelche ... ... Audiodateien, die wir uns anschauen. Irgendwelche PDF -Dokumente, irgendwelche Schnittstellen. Und das muss man halt alles erst einmal zusammenführen. Und dafür braucht man eine gute Software -Systemarchitektur. In der Stelle kommt ja Content und Data praktisch überein.

     

    große Schnittflächen dazwischen. Das heißt, aus Videos kann ich natürlich Transkripte ziehen. Aus Videos kann ich über multimodale Modelle vielleicht auch das Bild auswerten mit entsprechenden Zeitstempeln. Das heißt, ich kann sagen, an dem und dem und wir und die Zeit in einem Video ist das und das passiert und da und da kannst du das und das sehen. Wie weit sind wir da?

     

    Also ich glaube, wie Henrik das gesagt hat, das Spannende ist, dass man heutzutage sehr gut die generative KI und die ganzen Wellen, die das mitgebracht hat, auch was zum Beispiel Grafdatenbanken angeht und so weiter, dass man das sehr gut mit den alten, auch klassischen Systemen kombinieren kann. Denn das, was du ja schon rausgehoben hast, ist, dass es am Ende doch Datenqualität geht. Das sind, ich würde mal sagen, die alten Hausaufgaben, die ja viele Unternehmen, viele Institutionen

     

    Sträflicht vernachlässigt haben. Vernachlässigt haben, aber immer wieder auf einem neuen Bild trotzdem auf der Agenda haben. Und gerade in dem Bereich, wenn ich jetzt so die neue LLM -Welt mit Foundation Models verknüpfen will, mit der klassischen Welt, da kommen natürlich die großen Fragen auf. Wie mache ich das Ganze zugänglich? Wie funktioniert die Performance? Ich glaube, dass da sehr viel Potenzial liegt. Aber man muss natürlich sich auch anschauen, dass diese Systeme gut ...

     

    miteinander zusammenarbeiten, denn nur ein großes Foundation Model sozusagen separiert davon ist ein statistisches System, das wird eigentlich weiterhelfen. Vielleicht kannst du so ein bisschen in diese Richtung mal uns auch in euren Lösungsraum mit reinnehmen unter die Motorhaube. Vielleicht bevor wir da hingehen, erkläre nochmal ganz kurz Foundation Models. Ein neuer Begriff der gerade gefallen ist. Also Foundation Models sind am Ende unter anderem die Large Language Models, die wir als CHEGIPT synonymisch jetzt gebraucht kennen.

     

    große Sprachmodelle oder aber große Visual -Modelle. Wir haben schon von solchen Tools wie Mid Journey gehört, wo Diffusionsmodelle dafür sorgen, dass ich zum Beispiel über einen Prompt mir ein Bild generieren lassen kann. Wir kennen auch große Modelle im Bereich Videogenerierung oder auch Soundgenerierung. Und diese Art von Modellen, die einmal groß trainiert werden am Anfang, dann ein gewisses Aufgabenspektrum abbilden zu können.

     

    Die nennt man Foundation Models und die nutzt ihr ja auch in euren Lösungen. Und vielleicht kannst du uns da quasi so ein bisschen unter die Motorhaube den Blick gewähren und zeigen oder erklären, wie eigentlich diese beiden Welten, die alte und neue kombiniert, mit den richtigen Hausaufgaben sozusagen gemacht, dazu einem neuen Produkt zu kommen. Würde jetzt jemand zu mir kommen und sagen, ich will jetzt eine neue KI Lösung bauen, wäre die erste Frage, die ich erst einmal stellen würde.

     

    Was sind denn eigentlich die Daten, die du dafür hast? Und dann kommen die Unternehmen zu einem und sagen, ich habe hier Daten in SharePoint, ich habe da Daten in Google Drive, ich habe Daten in irgendeiner anderen Datenbank liegen. Und das ist eigentlich, bevor man überhaupt das KI -Thema angehen sollte, wäre das erste Projekt, was auch jede Beratung erst mal machen müsste, ist, diese ganzen Daten in einen Datentopf reinzupacken, so zu strukturieren, dass man überhaupt das in irgendeinen Large -Language -Model einspeisen kann an der Stelle.

     

    Also da sehe ich bei ganz, ganz vielen Unternehmen das Problem, dass da die Hausaufgaben nicht richtig gemacht worden sind. Und ich finde es auch erschreckend, weil das wird eigentlich schon seit zehn Jahren gesagt, oder? Dass Daten das richtige Gold sind. Ja. Jetzt müssen wir noch differenzieren, ob praktisch angelernt wird mit den Daten oder ob die Daten praktisch zwischengespeichert werden. Ohne dass das Large -Language -Modell damit angelernt wird, sondern einfach nur als Ausgabemedium genutzt wird, richtig? Da wird ja auch ganz häufig über das Thema Halluzination

     

    gesprochen. Ich weiß nicht, willst du das nochmal ganz kurz erklären für alle, was Halluzinationen genau sind an der Stelle? Ich glaube, es hat mir schon kurz, aber vielleicht kannst du es einmal kurz nochmal umreißen. Genau, das ist eigentlich, dass die Faktualität nicht stimmt. Also ganz einfach gesagt, dass das Modell Unwahrheiten ausgibt, die nicht korrekt sind. Und das ist bei uns auch im Automotive -Bereich ein sehr großes Problem. Auch ich denke, in anderen Branchen wird das ein Problem sein, wenn ich jetzt zum Beispiel an die Luftfahrt denke und so weiter. Wenn ich jetzt eine Frage habe an ein Chatbot, wie repariere ich jetzt das Auto an der Stelle?

     

    Und da kommt ein Stück weit eine Unwahrheit bei raus. Dann hat man ja schon direkt eine Haftung eventuell mit dabei. Das heißt, es ist super, super wichtig, dass man wenig von diesen Halluzinationen hat am Ende. Das heißt, ich als Nutzer will eine Antwort haben, aber wir müssen sicherstellen, dass die Antwort wenig von diesen Halluzinationen hat. Und da ist häufig die Strategie, jetzt ein eigenes Large -Language -Model zu trainieren, nicht die richtige Wahl für. Und deshalb haben wir uns bewusst für eine andere Technologie entschieden.

     

    Es gibt ja so drei Ansätze. Das eine ist einmal eine Large -Language -Model komplett aufzusetzen. Das andere ist das zu finetune, sodass man das Large -Language -Model noch ein bisschen anpasst mit seinen eigenen Daten. Und das Dritte ist so die Retrieval -Augmented -Generation. Und dafür haben wir uns entschieden, buy ahead, weil das einfach die Art und Weise ist, wie man ganz, ganz wenig Halluzinationen hat an der Stelle. Man kann sich das bei uns so vorstellen. Ich bin ein Mechaniker. Ich habe eine Frage und dann durchsuchen wir.

     

    Alle diese Dokumente, die es gibt zum Reparieren von Autos von VW, Mercedes, YouTube Videos von uns selbst, andere Datenquellen, das durchsuchen wir alles, was der Mechaniker aktuell super, super händisch macht. Der guckt einmal in dem einen System, dann im anderen System, in dem anderen System und das ist einfach ein super großer Pain für die. Und das machen wir, das durchsuchen wir mit einem Large Language Model und zeigen dann dem Nutzer an an der Stelle. Okay, das ist die Antwort.

     

    Die haben wir vorgeneriert auf Basis dieses Dokumentes und sagen, okay, so und so musst du jetzt dein Auto reparieren, deinen Motor reparieren und hier an der Stelle in dem Dokument kannst du nochmal nachlesen, wie das dann genau funktioniert. Aber wenn die Daten jetzt nicht in eurer Datenbank, also sozusagen in eurem Shelf stehen habt, werden die über die Schnittstelle zur Verfügung gestellt oder wie läuft das? Genau, das ist natürlich auch richtig cool, weil da geht es bei den Large Language Models mittlerweile diese Toolfunktion, sodass wir merken teilweise, okay, das ist eine Anfrage und dann schicken wir eine Anfrage an...

     

    Schnittstelle, da dann die Daten auszulesen an der Stelle. Also es ist echt krass, was sich da in den letzten zwei Jahren getan hat, was man da mittlerweile alles mitmachen kann. Aber die Basis ist erstmal wirklich, nochmal zum Anfang zurückzukommen, die Daten im richtigen Format zu haben. Sorry, wenn ich jetzt nochmal ganz kurz über das Thema Brot rede, aber so bin ich damals das erste Mal da hingekommen, weil ich habe nämlich auch ein Buch geschrieben, ein Open Source Buch zum Thema Sauerteigfermentation. Da habe ich eine Community, wo immer total viele Fragen gestellt werden. Wie heißt das Buch kurz? The Sourdough Framework.

     

    Ähm ... Kaufen. Ist open source, kann man kostenlos lesen, muss man nichts kaufen. Dann hab ich viele Fragen meiner Community, was ist falsch mit meinem Boot? Das war damals der Eyeopener bei mir, weil ich hab dann auch mein Buch, was ja eine credible Quelle ist an der Stelle, auch mithilfe von Retrieval Augmented Generation durchsuchbar gemacht, sodass, wenn die Leute eine Frage haben, wird automatisch mein Buch durchsucht mit der richtigen Stelle, und das ist viel komfortabler als diese PDF -Suche zu verwenden an der Stelle.

     

    Und dann wird dem Nutzer gezeigt, okay, das ist die Antwort. Und hier an der Stelle kannst du noch mal in deinem PDF nachlesen. Und das war damals bei mir so, wo ich es mit Click gemacht habe und wo ich gemerkt habe, okay, das wäre doch eigentlich total krass, wenn wir das im Automotive -Markt machen würden. Wenn wir alle Quellen, die es gibt, einfach durch Super machen an der Stelle. Wir haben natürlich ein großes Gewährleistungsthema im Automotive -Markt und man will natürlich, wenn jetzt ein Fahrzeug repariert wird, auch nicht, dass das einem auf den Kopf fällt, weil man irgendwie falsche Empfehlungen gegeben hat. Deswegen ist das Halluzinieren, was wir schon angesprochen haben,

     

    Problem, was man da auf jeden Fall aus der Welt schaffen muss. Ich hätte noch eine Frage in Richtung, die du gerade angesprochen hast, Henrik, und zwar das Thema der Mensch -Maschine -Schnittstelle, nenne ich das, also die unter den Fachexperten HCI, Human -Computer -Interaction, ist, glaube ich, eine der großen Innovationen, die hinter auch oder die durch Large -Language -Models deutlich einfach gemacht worden sind. Du hast schon ein Use -Case genannt, das ganze Thema Durchsuchen von Datenquellen mit Hilfe von LLMs. Das heißt gar nicht, dass

     

    das Antwort generieren aus einer statistischen Menge, was das LLM gelernt hat, sondern aus einer sicheren kuratierten Quelle. Und diese einfache Handhabbarkeit, weil ich kann heute ja natürlichsprachig, also ganz normal, so wie ich jetzt rede, in ein System reinfragen. Ich muss nichts in Richtung einer Programmiersprache kennen und bekomme sehr häufig einen sehr guten Output. Das heißt, das, was ihr nutzt, bei Ahead, die Funktionalität, die für euch auch sozusagen

     

    Wichtig ist, ist das Thema Mensch -Maschine -Schnittstelle zu vereinfachen, weil am Ende ja auch damit Menschen arbeiten sollen, die nicht irgendwelche IT -Experten sind und die natürlich möglichst treffgenau, wie Oli schon sagte, auch natürlich sicher Antworten generieren. Wenn du das jetzt nochmal reflektierst, du bist ja schon so lange in dem ganzen Informatikbereich unterwegs, Softwareentwicklung, Systemarchitekturen. Hast du so etwas vorhergesehen, dass gerade an dieser Mensch -Maschine -Schnittstelle durch die großen Sprachmodelle

     

    da solche Innovationen reinkommen, dass sozusagen immer weniger auch Anwender oder IT -Fachwissen notwendig ist, sich so einem Tool wie gute semantische Suche und KI zu bemächtigen? Ich hätte das tatsächlich nicht vorhergesagt. Ich glaube, wie viele hätten... Ich für mich selbst als Software -Entwickler, bei mir ist es total häufig mittlerweile so, dass ich eine Frage zum Beispiel an Chat -GPT stelle. Das spuckt mir dann schon mal einen Code aus, aber...

     

    durch die Erfahrung, die ich habe, weiß ich, okay, das ist aber nicht der Code, den ich jetzt eins zu eins kopieren kann in meinen Quelltextreihen, sondern ich sehe halt, das ist schon mal eine ganz gute Idee. Das ist vielleicht die 80 % Lösung, aber das hilft mir auch schon enorm weiter an der Stelle. Und ich merke auf jeden Fall, dass ich durch diesen Tools, die ich jetzt an der Hand habe, deutlich schneller geworden bin. Und das finde ich total spannend, weil wir jetzt so eine Art exponentielles Wachstum haben.

     

    Das heißt, ich bin schneller, die Leute sind auch wiederum schneller. Und man merkt gerade, dass man so wirklich auf dieser Kurve gerade ist, dass halt alles einfach noch schneller wird an der Stelle. Und ich kann mich jetzt auch super schnell in andere Programmiersprachen einarbeiten. Das ging vorher auch nicht so einfach. Ich kann Fehlermeldungen da rein, Copy -Pasten. Also meine Arbeit als Software -Entwickler ist dadurch deutlich einfacher geworden, würde ich sagen. Das heißt aber auch ...

     

    Durch diese Komposition der verschiedenen Technologien, der zusätzlichen Geschwindigkeit, die durch die ganzen Lösungen generiert wird, ist es ja so, wo liegt eigentlich die IP? Wo liegt die USP? Also die Intellectual Property, das ist klar, das liegt irgendwo bei der Firma bzw. den Entwicklern dahinter oder den Dienstleistern auf der anderen Seite. Was ist das Alleinstellungsmerkmal? Die Technologie, die wird es aufs absehbare Zeit nicht mehr sein. Wir reden die ganze Zeit über Daten.

     

    über die Aufbereitung von Daten, die Komposition von Daten. Und es gibt viele Daten im Internet. Viele crawlen sich diese Daten tatsächlich aktuell auch, so sagen wir, semilegal. Ja, teilweise ist es auch nicht regulatorisch da auch wieder ein bisschen hinterher, aber einigermaßen gibt es diese In -Out -Lösung und so weiter und so fort. Aber die synthetisieren dann diese Daten und schon ist es relativ schwierig nachzuvollziehen, ob diese Daten geklaut sind oder nicht. So nun ist es so,

     

    dass man in Zukunft vor den Big Tags, Google und wie sie alle heißen, sein hart erarbeitetes Know -how, seine Daten irgendwo ein Stück weit auch schützen möchte. Das heißt, diese Daten werden wahrscheinlich irgendwann kostenpflichtig, vielleicht auch im Rahmen dieser Ride to Repair Initiative, die jetzt gerade passiert ist vor kurzer Zeit, dass praktisch alle, dass man alles reparieren darf, was irgendwie auf dem Markt ist, ob das ein Auto sind oder Waschmaschinen, dass natürlich die Hersteller da die entsprechenden Daten zur Verfügung stellen müssen oder zumindest

     

    zum Ankauf anbieten müssen. Diese Daten aber nicht per se an Google zur Verfügung stehen oder an Big Tech. Und jetzt ist es natürlich spannend, diese Daten ein Stück weit vielleicht durch Partnerschaften, durch Kooperationen zu bekommen, zu erwerben und mit anderen Daten, die vielleicht auch frei zugänglich sind, anzureichern und über verschiedene Datenquellen hinweg, dadurch natürlich eine relativ scharfe Positionierung der eigenen Datenhoheit zu schaffen und dadurch natürlich Mehrwert. Das heißt,

     

    Die Daten des Orchestrat der Daten könnte wesentlich spannender und wertschaffender werden als die Technologie dahinter, die früher oder später Commodity wird. Das war eine lange Frage. Ich stimme dir zu 100 Prozent zu. Das ist das, wo langfristig der Mehrwert drin sein wird. Diese Daten zu haben und diese Daten strukturiert vorliegen zu haben. Die Technologie von den LLMs, man sieht es ja, das ist nichts mehr Neues. Das kann mittlerweile fast jeder eigen.

     

    Ja, das ist vielleicht ein bisschen übertrieben, aber ja, also es können immer mehr. Es können immer mehr. Aber diese strukturierten Daten, an die jeder kommen möchte, Google möchte auch an die Daten kommen, andere Suchmaschinen auch, die einfach einmal gut strukturiert vorliegen zu haben, das ist, glaube ich, das, wo nach wie vor seit zehn Jahren eigentlich der Mehrwert drin liegt. Und dafür braucht man eine gute Softwarearchitektur, eine gute Datenbankarchitektur.

     

    Da würde ich gerne ansetzen. Gerade das Stichwort Softwarearchitektur, was wir gerade wirklich sehr häufig erleben, ist, dass natürlich diese Euphoriephase über die Large Language Models wie Chatchie PT so ein bisschen über die Grundproblematiken hinwegetäuscht haben. Wir haben gerade schon das Thema genommen Hausaufgaben, Aufbereitung von Daten. Am Ende ist es aber auch ist nach wie vorher eine gute Softwarearchitektur eigentlich der Schlüssel für sichere Systeme, für performante Systeme.

     

    Jetzt gibt es gerade bei der Nutzung von Open Source LLMs, aber auch Close Source LLMs, Feature GPT, gibt es große Fragen in Richtung, wie performant sind denn die Systeme? Wie muss ich die eigentlich aufbauen, dass ich da wirklich eine große Anfrage lasse und so weiter abfedern kann? Was sind da eure Erfahrungen mit? Also wie geht ihr an dieses relativ neue Thema an, wo ihr ja an sich auch viel sozusagen diese neuen Modelle nutzt, zu orchestrieren?

     

    Also auch mit einer sozusagen Legacy -Welt zu verbinden. Das ist auf jeden Fall eine gute Frage. Ich würde sagen, das Problem der Skalierung der LLMs, das ist noch nicht so wirklich zu 100 Prozent gelöst. Wir haben natürlich auch schon diverse Tests intern gemacht. Aber da wird in den nächsten Monaten wahrscheinlich noch viel mehr Research zu stattfinden. Weil aktuell gibt es von den tausenden Unternehmen, die versuchen, in dem Bereich groß zu werden, noch nicht so viele Success -Stories an der Stelle.

     

    Diese ganzen Success Stories, die wir damals von Facebook und Google hatten, die bleiben noch ein Stück weit aus. Die werden natürlich auch maßgeblich beeinflussen, welchen Weg wir in der Eskalierung gehen werden, was die Large -Language -Modelle angeht. Habt ihr in Richtung, weil das ist auch so ein großes Thema, Oli, du sprachst vorhin an, IP, Intellectual Property, also wie gehe ich überhaupt mit meinem Datenschatz Wenn ich jetzt daran denken würde, offene Modelle zu nehmen oder kommerzielle Modelle, die eher von den Big -Tech -Playern kommen, dann hätte ich natürlich immer erst mal die Sorge,

     

    dass zum Beispiel, wenn ich das LLM ansteuere, also das Large Language Model ansteuere, dass da Informationen preisgegeben werden. Wie ist da, weil wir gerade über die Systemarchitektur sprechen, wie ist da so euer Weg gewesen, auch quasi diesen Datenschatz letztendlich auch zu verteidigen? Das, was unsere Technologie ja ein Stück weit ausmacht, das meinte Olli vorhin auch schon, ist, dass wir unterschiedliche Daten zusammenführen. Das heißt, diese Daten ...

     

    liegen teilweise auch gar nicht auf unseren eigenen Servern, sondern wir greifen auf diese Daten per Schnittstellen zu. Das heißt, wir haben da jetzt nicht die Problematik, dass die Daten jetzt vielleicht an Chat -GPT rausgehen oder so, weil unsere Intelligenz, unsere Intellectual Property ist, dass wir halt die unterschiedlichen Daten von diversen Playern zusammenführen können. Und das sehe ich auch so in anderen Märkten, dass das, das wird das sein, wo neue Geschäftsmodelle entstehen werden, das intelligente Zusammenführen von Daten.

     

    Und dann wiederum auch das Erzeugen neuer Daten, weil ich gebe jetzt einem Nutzer zum Beispiel, da könnten wir vielleicht gleich nochmal darüber sprechen, wie wichtig Nutzer -Interfaces eigentlich sind für diese ganzen Lösungen, weil das ist glaube ich ein Thema, was total vernachlässigt wird. Ich bin als Nutzer und ich reagiere auf diese Daten und das heißt natürlich, sobald ich reagiere auf die Antworten eines Chatbots zum Beispiel und was da rauskopiere, das bewerte als gute Antwort und so weiter. Das sind dann natürlich neue Daten, die wiederum abgespeichert werden müssen und dann helfen,

     

    die nächste Frage des Nutzers eine bessere Kombination der Quellen der Suche zusammenzuführen. Und das sind natürlich Daten, wenn man die jetzt aufbaut mit vielen, vielen Nutzern, die auf der Plattform sind und von vielen Nutzern das Feedback bekommt, welche Daten denn jetzt irgendwie gut zusammengepasst haben, dann baut man sich da auch nochmal eine neue Intellectual Property auf an der Stelle. Man hat auch das Problem des Logins. Wenn ich jetzt auf ein Pferdchen setze und mir eine NLM schnappe, gibt es ja zwei Probleme. Das eine ist, ich lerne eine NLM an.

     

    Und dadurch hat das LN mein Wissen und quasi habe ich eine gewisse Abhängigkeit, weil ich meine Infos da rein getan habe. Das heißt, dieses LN gibt am besten aus, was ich eingespeist habe. Das zweite, aber das viel gravierende ist das rechtliche Problem. Darf ich diese Daten überhaupt einspeisen? Und das kann mir natürlich ganz schön auf die Füße fallen. Insofern ist das halt auch noch so ein Thema, was eher so semi gut gelöst ist, weil viele natürlich gerade noch sehr naiv mit diesen Technologien arbeiten und sich dann vielleicht auch unrechtmäßig

     

    trotz irgendwelchen Compliance -Themen, die man ja hat, sich einen Account da schaffen und ihre Vertragsdateien bei JetJPT und so was hochladen. Das hat man, glaube ich, auch alles mal gehört. Wie kann man dem am besten jetzt begegnen neben RAG? Das hat man, glaube ich, schon angesprochen. Interessant, dass du das sagst, Oli, weil wir arbeiten natürlich auch mit unterschiedlichen Datenprovidern zusammen. Und das ist eine Angst, die wir von diesen Datenprovidern eigentlich tagtäglich hören. Ihr klaut doch einfach nur unsere Daten an der Stelle. Ihr zieht uns einmal die Daten raus und ...

     

    Dann haben wir ja nichts mehr. Und da ist die Kommunikation mit diesen Partnern ganz, ganz wichtig, dass man ihnen auch erklärt, wie funktioniert denn genau diese Schnittstelle. Dann erklären wir denen, okay, wir greifen jetzt auf eure Daten über die Schnittstelle hier an der Stelle zu. Wenn wir wissen, okay, diese Schnittstelle, dieser Endpunkt ist jetzt für die Frage des Nutzers der richtige Endpunkt. Und denen dann das zu erklären, dass wir jetzt halt kein eigenes Large -Language -Modell damit aufbauen, sondern dass wir nur punktuell über diese Tool -Funktion der Large -Language -Modelle auf eure Daten zugreifen. Das hilft dann in der Kommunikation

     

    die Angst zu nehmen. Das heißt, wir sind im Grunde in so einer Pionierphase, wo wir zum einen natürlich, sagen wir, eine größere Aufgabe haben, Leute abzuholen und zu überzeugen. Zum einen haben wir da die kleineren Player, die Angst ihre teuer und langfristige Arbeit in Datentöpfen haben, also ihre IP. Und auf der anderen Seite hast du die großen Corporates, die ihre Compliance und Legal Abteilung haben, praktisch der Endboss sozusagen für einen Startup oder Mittelständler.

     

    Da einmal durchzugehen, weil natürlich viele Leute, nicht alle, ich will es nicht pauschal unterstellen, aber viele Leute jetzt nicht unbedingt gewillt sind, da entsprechend zu kooperieren und das zu verstehen, was da gerade passiert. Und dementsprechend natürlich den Weg jetzt nicht sofort frei räumen, sondern sehr viel Kommunikation und Überzeugungsaufwand notwendig ist. Vielleicht auch von oben Druck zu generieren, damit das durch diese Abteilung auch durchgeht, damit überhaupt Innovation geschaffen werden kann mit den Daten, die so ein Konzern zur Verfügung hat. Auf jeden Fall.

     

    Wäre ich jetzt ein Konzern, würde ich mir einmal überlegen, was sind denn eigentlich die Daten, die ich habe und wie kann ich diese Daten ein Stück weit weiter strukturieren und wie kann ich dann vielleicht diese Daten überschnittstellen, möglichen Startups, die jetzt alle kommen werden, diese Daten anbieten, weil der Bereich wird sich ändern, es werden immer neue Lösungen kommen und ich sollte vielleicht versuchen mitzuverdienen in diesem ganzen Trend, indem ich halt diese proprietären Daten, die ich habe, möglichst einfach, vielleicht mit guten rechtlichen Verträgen, das ist gerade ein Pionierproblem,

     

    ... dass Startups anbieten, quasi den Goldgräbern ... die Schaufel ein Stück weit mit anbieten. Erklär noch mal kurz, proprietäre Daten. Proprietäre Daten. Das wäre so was wie zum Beispiel ... ... im Beispiel jetzt Automotive, ... wenn ich jetzt ein Automobilhersteller bin ... und ich habe irgendwelche Daten, ... wie genau ein Motor repariert werden soll ... oder wie genau jetzt eine Karosserie ... ... repariert werden soll, ... dann sind das Daten, ... die dieser Hersteller ... ... selbst für sich zusammengeschrieben hat ... und dann zum Beispiel in einem PDF -Dokument ... ... abgespeichert hat.

     

    Das wären proprietäre Daten. Die kann nicht jeder einfach so zugreifen, sondern die gehören dem Automobilhersteller und ich muss dann vielleicht über ein Loggen, mich einloggen auf der Seite, diese Daten abrufen zu können. Diese Daten, also in der Vergangenheit, vor KI, bei KI Winter, war ja der Trend, Daten entsprechend aufzubereiten, mundgerecht für den Menschen aufzubereiten. Also möglichst standardisiert, mit hohem Wiedererkennungseffekt, möglichst einfach zu konvertieren, anzuwenden.

     

    So, jetzt sind wir in einer KI -Welt, wo man ganz oft sagt, das hatten wir glaube ich auch schon kurz angeschnitten in einer letzten Folge, ja, Daten am liebsten mit einem Bild wuchs und so wie sie irgendwie aufgenommen wurden, am besten direkt in die Maschine einspeisen ist am besten. Könnt ihr mir kurz erklären, warum das so ist? Ich würde der Aussage tatsächlich gar nicht so komplett zu 100 Prozent zustimmen. Also zu sagen, ich schmeiße einfach nur die Daten irgendwie dahin.

     

    Das macht es dann vielleicht beim Auslesen der Daten wiederum ein bisschen schwieriger. Würde man sagen, ich nutze die KI, bestimmte Daten zu standardisieren? Ja, da würde ich auf jeden Fall zustimmen. Aber trotzdem würde ich mir immer noch darüber Gedanken machen, wie kann ich diese Daten möglichst gut strukturiert abspeichern? Aber ich kann dann vielleicht, du speicherst irgendwelche Daten ab. Sagen wir mal, du bist jetzt ein Mechaniker, Olli, du schreibst jetzt was, okay, so und so repariere ich jetzt meinen BMW 3er an der Stelle. Ich bin jetzt ein Experte für den BMW 1er zum Beispiel. Und dann schreibe ich das auf.

     

    dann sollten wir trotzdem die Daten, die wir erfassen sollten, die gleichen sein. Aber wie die jetzt strukturiert sind, du würdest vielleicht anders sprechen als ich, das ist dann eine Sache, die heutzutage nicht mehr ganz so wichtig ist. Das können wir dann mithilfe von den neuen Technologien lösen. Aber welche Daten erfasst werden, da sollte man schon immer trotzdem noch an eine gewisse Struktur denken. Ich glaube, das, worauf Olli auch hinaus wollte, ist das Thema, dass natürlich in Rohdaten

     

    die noch nicht vorverarbeitet worden sind, die noch nicht in eine gewisse Form gebracht worden sind, natürlich viel Informationsdichte auch steckt, die heute für das Trainieren der, wie wir schon erwähnt hatten, Foundation -Modelle, wie großer Sprachmodelle oder Visual Models interessant sein könnte. Das heißt, je stärker Daten auf einen Anwendungskontext hingespeichert sind und strukturiert sind, desto mehr kleben sie quasi auch

     

    für die Zukunft an diesem Anwendungskontext. Wenn ich jetzt proprietäre Datenbanken habe, wo viele wirklich Rohdaten drin liegen, mit ganz vielen Kontextinformationen, mit zum Beispiel, wenn man sich Videodaten vorstellt, mit ganz vielen Winkeln, Schnittmustern und so weiter, dann ist das, was wir zumindest jetzt von der Industrie hören in Richtung neues Trainieren im LLM -Bereich, im LWM -Bereich, also bei den Visuals und Sprachmodellen.

     

    dass es durchaus interessant ist, genau an diese weiteren Kontextinformationen ranzukommen. Weil sie natürlich noch mal eine ganz andere Informationstiefe ermöglichen, als wenn ich da schon wirklich vorverarbeitete Streams habe. Ich würde nur noch einen interessanten Punkt erwähnen in der ganzen Diskussion. Und das sind die Nutzerinterfaces. Weil ich merke jetzt gerade, ich weiß nicht, ob ihr das auch so seht, dass viele Unternehmen sagen, wir müssen jetzt was mit Large -Language -Modellen machen. Aber das, wo dann auch der Mehrwert drinsteht, noch mal zum Thema ...

     

    Was ist denn mein USP am Ende? Wo ist mein Mehrwert entstanden? Ist ja auch, wie diese Präsentation am Ende der Daten dann aussieht. Weil es ist ja nicht nur damit getan, dass ich jetzt ein Interface habe wie bei ChatGBT, sondern es muss ja auch je nach Typ der Daten in unserem Beispiel zum Beispiel, wenn wir jetzt Videos haben, die wir durchsucht haben und wir wollen dem Nutzer anzeigen, hier an der Stelle in dem Video findest du was, dann muss ja das Video hier an der Stelle angezeigt werden. Oder wenn wir jetzt irgendwelche ...

     

    Dokumente von einem Automobilhersteller haben. So reparierst du jetzt deine Karosserie, da musst du es ja auch eine andere Darstellung haben. Das heißt, die Darstellung der KI ist auch von Use Case zu Use Case auf jeden Fall unterschiedlich. Und schon immer war es so, dass das Bauen von grafischen Oberflächen von nutzerfreundlichen Frontends fast 80 Prozent der Arbeit gewesen ist in der Vergangenheit. Und ich glaube, das hat sich heutzutage auch noch nicht geändert.

     

    Und das verstehen auch viele Unternehmen gerade noch nicht, dass man je Use -Case für das Large -Language -Modell, auch den Output, was das Large -Language -Modell liefert, auch unterschiedlich darstellen muss. Da kann man vielleicht sogar wieder KI ins Spiel bringen und sagt, okay, warum muss ich das standardisieren? Ich kann es ja individualisieren. Das heißt, die eine Person konsumiert gern Audio, die nächste Text und so weiter. Das kann ich ja praktisch per Muster den Leuten auch ausgeben.

     

    Was mich nochmal interessieren würde, gerade das ganze Thema Weltwissen, Glossar und ähnliches, ist ja so ein Verständnis, gerade wenn im Automobilbereich unterwegs ist, gibt es so 1000 verschiedene Hersteller, eine Schraube hat x verschiedene Bezeichnungen und wie regelt man das am besten, best practice, dass da auch wirklich ein Verständnis von dem jeweiligen gewählten Dutch Language Modell ist, möglichst den Output zu optimieren. Das ist auf jeden Fall ein interessanter Punkt, weil das ist wirklich ein Problem in der Automobilwelt. Bei Mercedes heißt jetzt die

     

    Türverkleidung ganz anders als bei VW und auch bei BMW. Das heißt, aktuell als Mechaniker, wenn ich jetzt eine Werkstatt habe, muss ich mich dann, ich habe jetzt ein Problem, ich lock mich ein in den BMW -System, muss da kompliziert erst noch mal suchen, dann ist da der Begriff für die Türverkleidung ein ganz anderer als bei VW oder bei Mercedes. Das heißt, ich muss quasi diese spezifischen Termini einmal lernen, je nach Autotyp. Das war jetzt nur ein Beispiel, da gibt es noch ganz viele andere Beispiele.

     

    Das heißt, eigentlich muss man erst mal so eine Glossardatenbank haben mit den unterschiedlichen Begriffen, je nach Automobilhersteller. Und das ist sicherlich auch ein Use Case, den so ein Large -Language -Modell für einen lösen kann, dass man bestimmte Sachen standardisieren kann in diesen Daten. Das heißt, die Darstellung ist vielleicht ein bisschen anders bei VW, ist ein bisschen anders bei BMW und auch bei Mercedes. Und die Begriffe sind anders. Und das könnte man über ein Large -Language -Modell standardisieren, dass ...

     

    Erst mal der Output, dann wie repariere ich jetzt die Türverkleidung an der Stelle oder wie tausche ich das aus? Und auch der Text, also die Beschreibung, dass das gleichmäßig ist zwischen den ganzen Herstellern. Sodass ich als Mechaniker nicht mehr das Problem habe, dass ich mich einmal in VW und einmal in Mercedes und einmal in BMW einlernen muss, sondern dass es quasi standardisiert ist. Wir haben die Daten, die leicht unterschiedlich sind, und die standardisieren wir und bringen wir in ein Format. Das klingt auf jeden Fall direkt nach einer deutlichen Verbesserung zum Status Quo.

     

    weil jeder kennt das, der selber schon mal versucht hat ein Auto zu reparieren. Wie schwierig das ist, die richtigen Termini zu finden und dann sozusagen die Anweisungen dazu. Du hattest ja auch schon über das Nutzerfeedback gesprochen, wie wichtig das ist auch bei euren Entwicklungen, bei eurem Produkt. Habt ihr da schon erste Erfahrung mitgemacht, dass durch diese Kombination, die ihr wählt aus Large Language Models, die viel orchestrieren, die viel vereinfachen

     

    auf der einen Seite aber auch natürlich klassischen Datenbeständen und Schnittstellen, dass es da sozusagen von der Systemnutzung her einfach positive Effekte gibt, weil am Ende denjenigen, die mit eurem Produkt auch interagieren. Aktuell ist es, da nochmal den Bogen zu spannen, aktuell ist es so, wenn ich jetzt mein Auto reparieren möchte, dann muss ich mich jetzt entweder vielleicht in das System von BMW einloggen und

     

    Das sind Systeme bei den meisten Herstellern, die schon sehr, sehr alt sind. Das heißt, es ist von der Nutzerfreundlichkeit auch nicht wirklich so gut, sich da einzuloggen. Ich muss mich wahnsinnig viel durchklicken und das dauert super lange, bis ich die Informationen finde, erst mal an der Stelle. Und das ist natürlich was, was so eine Retrieval Augmented Generation Lösung viel einfacher macht. Dieser Suchaspekt, der entfällt halt komplett, weil ich habe eine Frage und es wird direkt die richtige Stelle gefunden.

     

    und vielleicht sogar noch mal eine Antwort vorher generiert, was dann mein Problem löst, und dann kann ich es nochmal da nachstellen. Und das ist einfach wirklich eine Zeitersparnis für in unserem Fall Werkstätten, aber ich kann mir auch sehr gut vorstellen, in vielen anderen Branchen ist das eine massive Zeitersparnis. Apropos Suche, du hast natürlich in einer Werkstatt, da sind Handwerker, die haben keine Zeit. Also dieses ganze Thema einfache Sprache, das haben wir bei Gehörten ganz oft, da muss man ja irgendwie auch eine Interpretation dazwischen schalten.

     

    Wie könnte sowas gelöst werden? Das ist tatsächlich ein großes Problem gerade in den Werkstätten, dass viele Leute gar nicht so gut sind in der deutschen Sprache. Und das heißt, ich habe jetzt Anleitung oder ich stelle eine Frage auch an so einen Large Language Modell und das mache ich vielleicht im gebrochenen Deutsch. Aber das ist genau dann auch der Vorteil der Large Language Modelle, dass ich meinen Suchbegriff vielleicht gar nicht mehr so ganz genau definieren muss. Ich kann ja auch mit Rechtschreibfehlern definieren und trotzdem finde ich ein Stück weit die Antwort, die ich jetzt gesucht habe.

     

    Und das ist natürlich auch krass, dass man den Output einfach auch super einfach mittlerweile in unterschiedliche Sprachen übersetzen kann. Wenn ich jetzt aus einem anderen Land bin, habe ich dann auch meine Antwort in der Sprache, in der ich dann halt ein bisschen besser unterwegs bin. Das wäre ja noch vor Jahren eigentlich fast ein nicht finanzierbares Projekt gewesen. Wenn du über Anforderungen gesprochen hättest, das einfach darzustellen, wie Oli gerade sagte, also einfache Sprache zu verwenden, dann auch noch Mehrsprachigkeit.

     

    dann auch noch sozusagen sehr tolerant, was die Eingabesituation angeht, nicht standardisiert. Was schätzt du, was euch das sozusagen überhaupt diese ganze Entwicklung, die in den LLMs, in der generativen KI stattgefunden hat, an Entwicklungsaufwand gespart hat am Ende? Also hätten wir diese ganze Basis nicht, diese ganzen Frameworks, die wir hier einsetzen können an der Stelle, das wäre, würde Milliarden wahrscheinlich kosten, sowas erstmal zu entwickeln.

     

    Und daher wirklich Hut ab, dass es halt jetzt diese Technologien gibt, auf der man bauen kann. Das erspart so viele Unternehmen unfassbar viele Ressourcen. Und das ist total spannend zu sehen, wie jetzt weitere Unternehmen das nutzen, neue Technologien damit zu bauen. Absolut, das glaube ich auch. Ich hätte noch eine Frage in Richtung, auf der einen Seite gibt das ganz viele neue Möglichkeiten, ja, Zeitersparnis. Du hattest auch vorhin schon erzählt.

     

    Alleine was es schon bringt, wenn man sich in eine neue Programmiersprache als Entwickler, Entwicklerin einüben möchte, gibt es auch eine gewisse Drucksituation, weil wir erleben momentan, dass dadurch, dass es so viele Releases gibt, fast jede Woche, fast jeden Monat, muss man eigentlich wirklich mit dem halben Kopf immer dabei sein zu sehen, was gibt es Neues, damit ich einfach nicht in einen Zugzwang komme, wo ich sage, die ganze Welt ist da schon wieder eine Stufe weiter.

     

    Und ich nutze noch die alten Tools. Das heißt, auf der einen Seite Riesenmöglichkeiten, auf der anderen Seite vielleicht auch eine Drucksituation für das ganze Entwicklerteam. Auf jeden Fall. Dadurch, dass sich jetzt gerade so viel ändert, gibt es diese Drucksituation bei uns im Team auch. Wir gucken uns kontinuierlich an, welche neuen Technologien gibt es? Wir lesen Blogartikel, scheren das intern, machen Talks, updaten uns gegenseitig dazu. Das löst aber immer noch nicht das Basisproblem, nochmal ganz zum Anfang zurückzukommen.

     

    dass du eine gute Softwarearchitektur haben musst, die überhaupt das möglich macht, die Large -Language -Modelle nochmal dann auch zum Beispiel auszutauschen oder so an der Stelle. Und auch die Daten im richtigen Format zu haben. Das sind die Hausaufgaben, die man jetzt schon machen kann. Und trotzdem sollte man natürlich an dem Ball bleiben und schauen, was in Neuentwicklung. Ich glaube, wo doch man ein Auge haben muss, ist, dass meine Softwarearchitektur entsprechend ausgelegt ist, so modular, dass ich mich nicht in eine Abhängigkeit von einer Lösung begebe. Und ist mein Case, mein Use -Case so unik?

     

    dass er nicht morgen einfach ersetzt werden könnte. Wenn ich jetzt im Orchestrat hatten wir vorhin darüber gesprochen, von verschiedenen Datentöpfen habe, die halt nicht für die Big Tags entsprechend zugänglich sind, dann ist die Wahrscheinlichkeit auch nicht so hoch, dass die jetzt morgen die Ecke kommen und sagen, übrigens, passe mit deinen Themen. Da müssten die halt wahrscheinlich selber diesen Case entwickeln. Und das hat ja selber gesehen, wie lange das gedauert hat, bis Google von TomTom übernommen hat. Also das war eine Dekade oder so was.

     

    sind schon sehr spitze Cases und wenn man sich da, wenn man da reflektiert, ich glaube dann hat man eine Chance da die Nase vorne zu halten und nicht einfach blind drauf los spekuliert, einfach irgendwie ein einziges Pferdchen hat, auf das man setzt. Ja Mensch, wir sind jetzt auch schon wieder über der Zeit, würde ich sagen. Insofern erstmal vielen Dank für die vielen Einblicke in den Sauerteig, in die Fruchtfliegen und in die Werkstätten. Toller Spagate. Auf jeden Fall. Insofern freue ich mich auf die nächsten Folgen.

     

    Henrik, vielen Dank dir. Danke euch, hat Spaß gemacht. Danke für die coolen Fragen. Vielen Dank. Und ihr wieder gerne teilen, wenn ihr das Ganze mögt, kommentieren, bewerten. Wir freuen uns über tolle Bewertungen bei Apple oder was auch immer, Plattform eures Vertrauens. Insofern, tschüss. Tschüss.