•  Transkript: Big Tech und KI: Datenhoheit und Regulierung im digitalen Zeitalter

    Hier sind wir bei einem Deep Tech Deep Talk in der allerersten Folge. Hallo, ich freue mich total. Auf jeden Fall, ganz aufgeregt. Wieder aus dem Deep Tech Campus in Hamburg haben wir uns zusammengesetzt und es ist ein Drückenschwühlerabend. Jetzt wollten wir, hatten wir gedacht, wir leiten einfach mal ein mit dem Thema KI, künstliche Intelligenz. Hört man mehr oder weniger in jeder Ecke, alle reden darüber. Alles Berufswegen sind wir beide und du insbesondere mit dem Thema doch in der Tiefe unterwegs.

     

    Doch hatten wir uns heute vorgenommen, das ein Stück weit herzuleiten. Wo kommt das Thema eigentlich her? KI, das war ja plötzlich gefühlt November 22. Alle haben drüber geredet. Die wenigsten haben es ausprobiert. Das wird jetzt langsam immer mehr. Und alle beschäftigen sich darüber, sobald die Leute dann einmal so ein bisschen, ich sag mal, Blut geleckt haben, finden sie es halt mega. Und jetzt ist halt die Frage, komm, wir verorten das mal. Wo ist die Historie? Wann hat das eigentlich angefangen? Und wie ist dazu gekommen? Und was kommt in Zukunft noch auf und zu? Also was passiert gerade alles?

     

    kriegt man ja auch nicht zwangsläufig alles mit. Absolut. Ich meine, wenn wir uns das mal anschauen und ein bisschen weiter zurückblicken, dann müssen wir eigentlich bei KI schon recht früh in den 50er-, 60er -Jahren anfangen, wo so die ersten wirklichen Visionäre der Physik, der Mathematik sich vorgestellt haben, wie es wäre, wenn es irgendwann einen universellen Computer gäbe. Das, was wir heute auf unseren Handys für ganz normal sozusagen erachten.

     

    Damals schon gab es große Aufgabenstellungen, sehr komplexe Probleme, zum Beispiel im Bereich Sicherheit, Kryptographie, wo man sehr frühzeitig sich Gedanken gemacht hat über KI -Systeme, also über künstliche Algorithmen, die in der Lage sein sollten, entsprechend zum Beispiel solche Verschlüsselung entsprechend knacken zu können. Also bis zuletzt oder bis heute ist ja immer eine Frage von Rechenpower und Zeit, ne, Funktionen daraus. Und da kommen wir dann irgendwann zum Thema Quantum Technology? Absolut.

     

    Also das heißt, die ganzen Themen im Deep Tech -Bereich, da gibt es schon fließende Übergänge. Absolut. Also es ist so, dass eigentlich die Menschheit immer auf der Suche war nach einer besseren Computation. Am Ende Architektur, Plattform. Das fing an mit binären Rechnern, die 01 verarbeiten konnten, auf denen wir immer noch wirklich auch die KI wählen, der gegenwärtig surfen, also Chetchi, Pity und Co. Und natürlich ist es da interessant, über Plattformen nachzudenken. Nur hat es jetzt Quantum.

     

    Computing erwähnt oder Neuromorphic Computing. Das sind alles Plattformen, die wir in Zukunft sicherlich noch erleben werden oder ich hoffe es zumindest, die ganz neue Möglichkeiten in Richtung Berechnungsgeschwindigkeit und auch Komplexität von Aufgabenlösungen angeht. Jetzt haben wir zwei Begriffe reingeschmissen, die sollten vielleicht auch ganz kurz abreißen, den Exkurs, den müssen wir uns mal gönnen. Quantencomputing und Neuromorphes lernen. Genau, also Quantencomputing hat man inzwischen wahrscheinlich schon das eine oder andere Mal aus der Presse was mitbekommen.

     

    Diejenigen, die sich mit großen komplexen Aufgabenstellungen befassen, beispielsweise in der Forschung, kennen die Quantenprinzipien vielleicht schon etwas länger. Das, was Quantencomputing verspricht, ist eine drastische Reduzierung von Rechenzeit, Berechnungszeiten für sehr komplexe Aufgabenstellung. Und das kommt deshalb zustande, da ein Quantencomputer nicht nur die Zustände 0 und 1 kennt, wie die gerade schon erwähnten Binärrechner, also Strom an, Strom aus sozusagen.

     

    sondern eigentlich diese Zustände und alle Zustände, die sich dazwischen bewegen, parallel darstellen kann. Und dadurch können große, komplexe, beispielsweise Optimierungsprobleme, wie wenn ich zum Beispiel 15 Städte in Deutschland mit einer optimalen Route besichtigen will, solche Sachen benötigten heute wirklich Jahre der Berechnung auf klassischen Computern und auf Quantenplattformen.

     

    soll da sozusagen diese Berechnungsgeschwindigkeit wirklich einen riesen Vorteil geben und das innerhalb von Minuten, vielleicht sogar Sekunden bis hin zu Echtzeitberechnungen möglich machen. Das ist natürlich eine bahnbrechende Entwicklung, gerade so Verkehr, Verkehrsplanung. Du hast eben Routenplanung erwähnt. So viele Berechnungen, die einfach aufgrund der Komplexität und der Rechendauer bisher nicht so richtig lösbar waren. Jetzt nochmal kurz zurück. Man hat ja lange Zeit auch von dem KI Winter und von dem KI Sommer.

     

    gesprochen. Ich hatte glaube ich unsere Folge 0. Man erwähnt ab November 22, da haben auf einmal alle darüber gesprochen. Was ist da passiert und warum, in welche Richtung bewegen wir uns da? So ganz spannend. Du hast völlig recht. In der KI -Entwicklung seit den 50er, 60er Jahren gab es immer wieder solche riesen Erwartungswellen, was denn KI in Zukunft alles lösen mag. Und es fehlte aber grundsätzlich immer wieder an dem Thema Computation. Da hatten wir gerade kurz gesprochen.

     

    auf der anderen Seite aber auch an vernünftigen Datenpipelines, das heißt einfach verfügbare hochqualitative Daten, die entsprechend so aufbereitet sind, dass man damit tiefe neuronale Netze trainieren kann. Und das, was wir aktuell in dieser generativen KI -Welle erleben, die seit CHED GPT sozusagen auch Medien tauglich geworden ist, ist, dass wir auf einmal nicht nur Klassifizierungsprobleme, das heißt am Ende eine Zusortierung beispielsweise

     

    von irgendwelchen Eigenschaften auf Bildern, ja, ob es ein Hund oder eine Katze ist, damit vollbringen können, sondern dass wir Werke, wie zum Beispiel unsere Intros und Outros, also Musik komponieren können, generieren können per Eingabezeile, dass wir Texte schreiben können, das kennen wir alles, aber dass wir auch in Echtzeit Bilder generieren, Videos generieren können und eigentlich nur wissen müssen, wie wir das, was wir haben wollen, beschreiben.

     

    Genau, wir sind noch bei den Begrifflichkeiten generative KI. Ist das gerade so das, womit sich praktisch die meisten Leute beschäftigen? Also das macht momentan, sieht man diese Hype -Welle, die durch generative KI, also wirklich wertschöpfende KI, losgetreten wurde. Und deswegen ist es so, dass wirklich die Diskussion, die Diskurse sich sehr dieses neuere Thema drehen. Wobei es sicherlich auch wertvoll ist, einen Blick einmal zurückzuwerfen. Das, was du schon angedeutet hattest, auf die sogenannte symbolische.

     

    also wissensbasierte KI und auf alle möglichen Kombinationen der generativen KI, auch mit klassischen Verfahren, die wir schon sozusagen vor dieser Welle kannten. Viele sprechen jetzt auch schon von kausaler KI, dass begründet wird, warum eine Entscheidung getroffen wird. Genau, also die sogenannten Reasoning -Kapazitäten von aktuell in der Forschung sich befindenden großen, aber auch kleineren Sprachmodellen und visuellen Modellen, die werden eigentlich, kann man fast sagen, von Quartal zu Quartal, von Monat zu Monat besser.

     

    Es gibt immer mehr spezialisierte Modelle, die gerade im Bereich der logischen Schlussfolgerung besser werden. Und deshalb geht man langsam auch dahin zu sagen, okay, da gibt es eine Art kausale, kognitive Ketten, die durch KI -Systeme heute abgebildet werden können. Das heißt, ich habe einen operierenden Roboter, der ist ja momentan auf das Zwischenspiel zwischen Mensch und Computer angewiesen. Wenn ich aber das Thema Reasoning, Kausalitäten ...

     

    den kann ich im Grunde allein auf den Menschen loslassen. Also ob man einen operierenden Roboter allein auf den Menschen loslassen kann, sind natürlich, das öffnet sofort auch weitere interdisziplinäre Fragestellungen, wie das ganze Thema Ethik und überhaupt Kontrollierbarkeit, Qualitätssicherung. Die wir aus dem Autonom fahren können. Genau, genau. Aber auf der anderen Seite ist es sicherlich so, dass wir heute auch über autonome Agenten sprechen, die in so einem System, also auch in komplexen Situationen

     

    Vielleicht nicht in solchen Extremen, die du gerade genannt hast als Beispiel, aber in komplexen Situationen durchaus auch autonom Fähigkeiten entwickeln, Entscheidungen zu treffen, die zumindest mit uns Menschen gleichziehen im Benchmark. Natürlich sind sie nicht hundertprozentig. Das wird ja auch im Bereich autonomes Fahren immer wieder als Argument genommen. Wir wollen ja ein System haben, was hundertprozentig akkurat ist, ethics sozusagen konform und keine Fehler macht. Das wird es so einfach nicht geben. Deswegen sollten wir immer schauen,

     

    dass wir gegen den Benchmark, gegen von mir aus auch einen Experten, einer Expertin den Vergleich machen. Genau, Menschen sind ja schon länger nicht in der Lage, mehr auseinanderzuhalten, ob die mit dem Computer oder mit einem Menschen zu tun haben, ob es im Chat ist oder per Text. Was sind so jetzt die größeren Themen, mit denen sich die breite Allgemeinheit beschäftigen wird in den nächsten Monaten und vielleicht sogar Jahren? Also teilweise passieren ja Dinge wesentlich schneller, als man angenommen hat. Absolut. Also die Entwicklungsgeschwindigkeit, die macht uns Informatiker, uns Kailer auf der einen Seite natürlich unheimliche Freude, weil wir einfach sehen, dass

     

    viele wirkliche Aufgabenstellungen, gerade aus dem HCI, also Human -Computer -Interaction -Bereich, der Bedienung der Maschinen, heute eigentlich mit einem Schnips lösbar sind, vor die man noch als Student der Informatik große Herausforderungen gesehen hat. Und auf der anderen Seite ist es so, dass die Implementierung der KI auch in den privaten Bereich, das heißt der Umgang mit KI, wenn ich zum Beispiel einen Urlaub buche oder wenn ich mich orientiere, wenn ich optimale Strecken...

     

    oder meine täglichen Arbeiten des Textes, der Kommunikation mit anderen Menschen sozusagen damit unterstütze, dass das in einem Tempo stattfindet, das sich, glaube ich, niemand, auch die KI -Community selbst, nicht so vorgestellt hat. Ist das nicht genau der Grund, da kommen wir so ein bisschen zu der gesellschaftlichen Schiene, warum die Leute heute vor ein bisschen Angst oder Respekt zumindest haben? Also ich glaube, dass ein gesunder Respekt sicherlich gut ist. Man hat natürlich inzwischen viele Diskurse.

     

    die stattfinden über das Thema, sind wir eigentlich zu risiko -averse? Versuchen wir überall immer das Aber zu finden? Ich glaube, das ist so ein zweiseitiges Schwert. Man muss auf der einen Seite sicherlich offen sein in Richtung Neuerung. Also gerade die ganzen Large -Language -Models, die wir heute fast schon natürlich nutzen. Und ich meine mit wir nicht nur die KI -Welt, sondern am Ende unsere Söhne und Töchter. Was einfach vom Interface, von der Bedienung her so einfach ist,

     

    dass ich halt entsprechend ohne großes Vorwissen in diese Technologie einfach reinkomme und damit wirklich Sachen vollbringen kann, die mir mein tägliches Leben einfacher machen. Das ist sozusagen so die Euphorie -Seite. Die andere Seite ist, dass natürlich diese Systeme aktuell viel von großen Unternehmen dominiert werden und dass auf einmal größere Big -Tech -Unternehmen am Ende die Governance über solche Systeme haben, die Milliarden von Nutzenden weltweit am Ende auch beeinflussen können.

     

    Das ist natürlich dann die Gegenseite der Technologieadoption. Das heißt, es könnte wirklich so gezielt Propaganda ausgespielt werden, Leute massiv in ihrer Entscheidung zu beeinflussen? Absolut. Alleine, wenn man sich überlegt, wie solche Informationen verabreicht werden. Also welche Quellen zum Beispiel, als gute Quellen im Training schon klassifiziert werden oder sich durch die Trainingszyklen dann herausstellen. Das heißt, die Hoheit auch über die Trainingsdaten und über das Fine -Tuning

     

    über das Security Training am Ende der Modelle, was das Modell sozusagen sicher machen soll. Das sind alles Entscheidungen und auch Eingriffe, die sich natürlich dann auch irgendwann im Output widerspiegeln und damit natürlich einem gewissen Filter von demjenigen, von dem Unternehmen sozusagen dann auch repräsentieren, was halt entsprechend in Anführungsstrichen die Power hat, die Macht hat, diesen Filter so zu setzen oder eben nicht so zu setzen. Das heißt, die Firma mit den meisten Rechenpower, die hat

     

    Also wenn sie das ganz gut konvertiert und das nutzt, spät einen größeren Einfluss auf die Menschen. Ich würde sagen, auf jeden Fall ist das ein Faktor. Aktuell ist das Thema Datenverfügbarkeit, gerade neue Datenquellen, Echtzeit -Datenquellen aus dem Leben zu erschließen, ein riesen Faktor neben dem, was du schon angesprochen hast, der Computation -Power. Das heißt, wenn ich einen guten Deal beispielsweise mit einem großen Chip -Hersteller habe und nah dran bin und vielleicht...

     

    das Venture Capital Unternehmen, was sich dahinter verbirgt, in der gleichen Venture -Familie unterwegs ist, dann habe ich natürlich von Grund auf andere Ressourcen, in diesem großen Computation -Spiel, was aktuell die generative KI noch ist, in Klammern vielleicht später und in Zukunft nicht mehr so ganz dominant, aber aktuell noch ist, hat man natürlich bessere Karten und hat damit auch einen gewissen Einfluss auf das, was am Ende die Gesellschaft so rezipiert.

     

    Klingt so ein bisschen nach der Downside. Wenn ich jetzt Regulator wäre, würde ich jetzt hellhörig werden an der Stelle und sagen, wie sorgen wir denn dafür, dass das irgendwo gehatcht wird? Absolut. Deswegen gibt es neben den europäischen KI -Gesetz, dem European AI Act, das ist sozusagen die europäische Klammer, die KI -Systeme regulieren möchte und auch regulieren wird, auch schon in den nächsten zwei Jahren, gibt es viele weltweite Bewegungen, die sich beispielsweise umleiten.

     

    einer guten KI -Entwicklung sozusagen dafür einsetzen. Aber auch weltweit Bewegung, wie man zum Beispiel in der Bletchley -Konferenz gesehen hat in UK, wo wirklich nationenübergreifend ein großes Event stattgefunden hat, wo man nicht nur die europäischen Regulierungen sich angeschaut hat, sondern eigentlich die weltweiten Regulationsbewegungen und sich versucht hat auf so einen Common Sense im Bereich der Weiterentwicklung gerade dieser sehr

     

    dominanten und sehr adaptiv jetzt wirklich sich breit aufgefächerten LLM -Landschaften bewegen. Ganz oft im Bereich KI wird auch das Thema Halluzinieren genannt. Das heißt, die KI spuckt im Grunde ein wirres Ergebnis aus, einfach weil sie den Druck verspürt, also einfach mal, das zu vermenschlichen, irgendwas sagen zu müssen. Wie wird dem entgegengetreten? Weil viele Leute sind damit konfrontiert. Das ist, glaube ich, auch vieles, was in den Medien die KI so ein Stück weit madig macht.

     

    Halluzinationen sind eigentlich ein hausgemachtes Problem der großen Sprachmodeller, aber auch der LVM, also der Large Visual Models. Und das ist eigentlich ein ganz natürliches Element, wenn man sich anschaut, dass es sich ja statistische Systeme handelt. Und gerade in den Anfängen der Large Language Models war das so, dass die großen Systeme auch darauf getrimmt waren, immer eine Antwort, das ist das, was du sagtest, zu geben. Das heißt, wenn aus den Trainingsdaten

     

    die hochwahrscheinliche, oder höchstwahrscheinliche Antwort einfach nicht abgedeckt war, dann hat dieses System einfach Output erbracht, was von der Faktualität nicht gestimmt hat. Das heißt, ganz einfach gesprochen, es hat Halluziniert, es hat Unwahrheiten entsprechend herausgegeben. Quatsch erzählt. Es gibt ja Ansätze wie zum Beispiel RAG und ähnliche Themen, die jetzt versuchen, das Halluzinieren zu lösen.

     

    Genau, es gibt da mehrere Schichten, mehrere Dimensionen, die man anwenden kann. Das eine ist tatsächlich, dass man vielleicht noch einen Schritt vor REC Retriever Augmented Generation, das ist das RAG, was du angesprochen hast, dass man versucht, im Prompten, im Prompt Engineering besser zu sein. Das heißt, spezifischer zu fragen, Kontext mitzugeben, bis hin zu auch mit Dokumenten, mit Beispielen zu arbeiten, sodass das System quasi auch in seiner statistischen Antwort geleitet wird und dann

     

    mit einer gewissen Wahrscheinlichkeit eine bessere und Faktualität sozusagen auch berücksichtigt in der Antwort. Das ist eine Möglichkeit. REC, was du angesprochen hast, ist die Möglichkeit, quasi aus einer klassischen oder grafischen Datenbank dem System zu sagen, du kannst die Sprachfähigkeit aus deinem insgesamt erlernten Wissen nutzen, aus deinem Korpus, was quasi in dir steckt nach dem Training. Wenn es aber Fakten geht und spezifisches Domainwissen,

     

    Dann bitte bediene dich entsprechend dieser Datenbank. Das ist so die zweite Möglichkeit. Die dritte Möglichkeit ist, Systeme fein zu tunen und das mit beispielsweise domainspezifischer, also Fachsprache und damit auch die Incorrektheit beispielsweise oder die Missinterpretation von entsprechenden Fachvokabular in einer gewissen Domäne, sagen wir mal in der Biotechnologie zu verhindern. Man kann ja auch verschiedene Ergebnisse generieren lassen und die gegeneinander laufen lassen, oder? Ganz genau. Das ist dann am Ende auch

     

    Die Frage des Benchmarkings und die Frage der unterschiedlichen Varianten. Es gibt ja offene und geschlossene Modelle, es gibt kleine und große Modelle und da macht es Sinn, tatsächlich nicht nur innerhalb eines Modells mit mehreren Antworten Vergleiche zu machen, sondern auch innerhalb der Modelle und innerhalb unterschiedlicher Architekturen. Viele Leute, die mir begegnen im täglichen Leben, haben Angst ihre Daten. So haben wir die großen Datenkragen da draußen, Microsoft und Google gerade, ins Besondere zu nennen.

     

    die Lernen ihre Modelle anspricht. Das Google -Gehirn wird größer und das JetJPT -Gehirn wird größer. Auf der anderen Seite haben viele jetzt verstanden, durch ein In -Obt -In -Obt -Out kann ich diese Daten zur Verfügung stellen, vermieten, ohne dass ich sie vergeben oder verschenken muss. Ich kann Eigentümer bleiben, kann aber den Besitz gegen Kaution, gegen Miete oder so was anbieten. Es haben viele Leute trotzdem ganz dolle Angst ihre Daten.

     

    Was würdest du denen sagen? Also erstmal eine Grundskepsis zu haben, insbesondere wenn es persönliche Daten geht, finde ich erstmal grundsätzlich gar nicht negativ, sondern zeigt einfach nur, dass man inzwischen versteht, auch was für einen Wert so etwas haben kann. Wobei man das immer von seiner eigenen Person häufig überschätzt, was sozusagen dann die eigenen persönlichen Daten in diesem Riesen -Wust an Trainingsdaten überhaupt bedeuten können.

     

    Trotzdem möchte man natürlich nicht, dass personenbezogene Daten dort irgendwie fürs Training verwendet werden und am Ende durch irgendwelche Jailbreaks, also Security -Lücken dann zutage kommen. Es gibt inzwischen viele Business -Anwendungen rund die Large -Language -Models und Large -Visual -Models, wo einfach Ansätze bestehen, dass insbesondere personenbezogene Daten vorher herausgeschnitten werden, dass es dort die Möglichkeit gibt, auch Intermediäre einzusetzen, die das auch automatisiert handeln.

     

    dass das nicht auch zufällig passiert. Das ist so ein Thema. Neben den personenbezogenen Daten geht es natürlich auch darum, viele Unternehmen haben einen gewissen Vorsprung überhaupt durch Routinen, durch Prozesse, durch Produkte erreicht vor dem Wettbewerb, indem sie natürlich nicht alles preisgeben. Und das bildet heute natürlich auch ein Fundament, sagen wir mal, in einem mittelständischen Unternehmen an Daten. Die Daten repräsentieren das.

     

    Und da ist natürlich die Gefahr, wenn ich jetzt sage, ich gebe das einfach mal in so einen Prozess rein und ein großes Modell lernt aus meinen eigentlich Geheimnissen, dann gebe ich natürlich Informationen preis, die vielleicht vorher ein Alleinstellungsmerkmal bedeuten kann. Das lässt sich nur sehr schwer rückgängig machen bzw. gar nicht. Richtig. Und deswegen sollte ich da genau aufpassen und beispielsweise solche Architekturen wie das REC, was wir vorhin schon besprochen hatten, nutzen oder aber auch Enterprise Ready Lösung nutzen.

     

    wo mit gewissen Service -Level -Agreements und Garantien entsprechend sichergestellt wird, dass so ein Daten -Cloud oder eine Datennutzung illegalerweise nicht stattfindet. Natürlich ist das immer die Frage des Vertrauens, aber dann sind wir auch bei der Frage des Vertrauens, ob ich einem Cloud -Anbieter, ohne den ich ja heute fast nicht mehr im internationalen Business auskomme mit meinen Prozessen, ob ich den vertraue oder nicht vertraue. Bis vor wenigen Jahren war es ja so, dass man immer gesagt hat, Conten ist King. So würde ich...

     

    vielleicht ein Stück weit nur bedingt unterschreiben und das vielleicht gegen Data as King austauschen? Oder wie siehst du das? Ich glaube, dass das in manchen Fällen sehr nah beieinander liegt. Für den einen ist es Content, für den anderen ist es dann Data. Deswegen sehen wir auch aktuell, dass wirklich die Big Techs und auch die führenden Gen -AI -Unternehmen dort auf großem Dateneinkauf unterwegs sind und versuchen wirklich, proprietäre Datenbanken zu erschließen, sich dort wirklich einzukaufen, Zugang zu sichern.

     

    Deswegen würde ich sagen, dass das manchmal nah zusammen ist. Was inzwischen interessant ist, ist das gerade der Kontext über die Daten. Das heißt unter dem Stichwort Metadaten, dass da eigentlich auch sehr viel Wert hintersteckt. Denn Daten ohne die Erklärung, ohne einen Zusammenhang dazwischen, sind natürlich viel weniger wert, als wenn ich weiß, woher sie kommen, was die Historie sozusagen ist und wie der Zusammenhang zwischen Datenpunkten. Viele Firmen haben sich in der Vergangenheit darauf spezialisiert, Daten

     

    praktisch zu normieren, diese Metadaten den Wildwuchs abzuschneiden und möglich standardisiert den Menschen mundgerecht zur Verfügung zu stellen. Das heißt, du sagst genau das Gegenteil gerade. Viel spannender ist einfach zu schauen, wie die Daten generiert werden, was da noch alles mitkommt, die besser in den Kontext zu setzen. Ja, ich glaube, das eine schließt das andere nicht aus. Das eine ist, dass man wirklich versucht, mehr Standards in seine Datenhaltung reinzubringen. Das ist ja so ein Unterfangen, was, glaube ich, nie aufhören wird. Das sind so die Hausaufgaben der Digitalisierung.

     

    mit denen der Mittelstand, aber auch natürlich der ganze Forschung -Entwicklungsbereich zu tun hat. Auf der anderen Seite sind natürlich Metadaten, kontextualisierte Daten heute ganz anders auswertbar. Wir haben Grafdatenbanken, die dann im endimensionalen Raum eine Nähe darstellen können, die dann semantische Aussagen ermöglichen, die noch vor Jahren vielleicht in Nischen bekannt waren, aber nicht so im Common Sense der heutigen Architekturen.

     

    Deswegen sich darauf zu konzentrieren, wie man auf der einen Seite vielleicht mehr Standardisierung reinbringt, aber dass man auf jeden Fall darauf achtet, dass man solche auch historischen Ereignisse, gut -schlecht -Daten, den ganzen Kontext, dass man den absolut nicht abschneidet bei der Standardisierung, sondern dass der vielleicht irgendwann sogar wertvoller sein kann als der originäre Datensatz. Ja, ich glaube, das ist eine Herausforderung für das Verständnis von vielen Menschen wie auch Firmen. Dafür ein Verständnis, weil das war vorher quasi der

     

    Der Schmutz, der musste entfernt werden. Und heute ist das praktisch, könnte das potenzielles Gold sein oder Wettbewerbsvorteil. Absolut. Vielleicht auch noch ein Aspekt. Wir kennen das alle. Wir haben uns die Köpfe zerbrochen als Informatiker, wenn es darum ging, gewisse Datenmengen zu reduzieren vom Volumen her. Wir haben uns mit entsprechenden unterschiedlichen Schichtmodellen sozusagen daran genährt, Kompressionsverfahren. Und wenn man sich heute so den Datenhunger, gerade auch der Big Text anguckt,

     

    Die wollen eher wirklich in die Rohdaten, an die Rohdaten ran. Die wollen zum Beispiel eine Aufnahme nicht nur aus der bestgeschnittenen Kamera, nachher die Zusammenstellung, sondern die wollen die Aufnahme aus allen möglichen Winkeln. Denn gerade wenn man große auch Sprache und visuelle Modelle der Zukunft trainiert, kommt es darauf an, dass entsprechend diese kontextualisierten Daten vielleicht sogar Rohdaten verfügbar sind. Da reden wir Multimodalität, richtig? Das heißt, wenn ich jetzt ganz viele Kameradaten habe in einer Show,

     

    Dann kann ich der KI vielleicht in absehbarer Zeit sagen, du machst das mal so gut wie möglich, gib mir mal Variante 1, 2 und 3. Der eine, wo der Moderator ein bisschen mehr drin ist, der andere, wo der Gast ein bisschen mehr drin ist und so weiter und so fort. Das wird wahrscheinlich in Windeseile zusammengeschnitten, richtig? Absolut. Und wenn man sich einfach überlegt, das Checi Biti, was uns damals schon so erstaunt hat, das war eigentlich vor, nämlich aus Texten, die es im Internet gab, die vorher so gescraped, gecrawled werden konnten.

     

    aus Blogs, aus Wikipedia, aus allen möglichen Quellen, aus Texten eigentlich zusammengesammelt. Und die heutigen Paradigmen, die erweitern das in Richtung Multimodalität. Das heißt, wenn ich mir anschaue, was habe ich alles für Informationen zum gleichen Sachverhalt in einem Film, dann habe ich eine Tonspur, ich habe häufig noch Skripte dazu, die textlich vorliegen, ich habe die Sprechtexte, ich habe teilweise die Übersetzung.

     

    Dann hab ich die Kamerafahrten, die ganzen Schnittbilder, die Regieanweisungen. Das heißt, ich hab auf einmal ein fulminantes Datenhaus vor mir, wo ich natürlich viel besser auch den Kontext und die Intention von ableiten kann. das ganz Plastische zu machen, du hast ja noch die Stile. Du kannst dann sagen, okay, schneid mir das einmal im ... Scorsese. Der Ton muss stimmen, der Schnitt muss stimmen, die Farbgebung. Und das ist auch klar, dass wenn wir ...

     

    in Zukunft solche Systeme haben wollen, die in der Lage sind, genau das zu machen, dass wir da natürlich mehr brauchen als eindimensionale Datenstreams. Deswegen ist gerade diese Erweiterung in die unterschiedlichen Dimensionen. Aber wir sind schon einig, dass das ungefähr 50 Prozent des Marktes wenigstens killt, ne? Also von den Leuten, die da jetzt irgendwie Filme schneiden. Also ich weiß nicht, ob killt, dass die richtige Vokabel ist, aber es wird auf jeden Fall eine Disruption auslösen. Ich glaube, das ist klar. Und wie stark die am Ende ersetzend oder erweitert oder shiftend ...

     

    Auswirkungen hat. Das ist natürlich die große Frage. Ich glaube, wir machen noch mal später. Ich habe noch ein paar Themen auf dem Zettel. Aber ich glaube, für diese gesellschaftliche Implikation, da müssen wir noch mal irgendwo so einen Ethik -Professor oder so was ranholen. ja, da habe ich schon eine Idee. Was ich hier noch habe, ist das ganze Thema, du meintest eben auch den EU -EIA. Was ich gerade immer mehr mitbekomme, ist, dass aus Amerika Anfragen kommen, die sagen, Mensch, ihr in Europa seid ja schon so weit, was so das Thema Datenschutz angeht und Cybersecurity. Könnt ihr uns mal helfen?

     

    Wie siehst du das? Also ich glaube, dass die DSGVO, Datenschutzgrundverordnung, ganz komplizierter Name, ist ein bestes Beispiel dafür, dass beispielsweise auch das Silicon Valley von uns gelernt hat und das zum Beispiel als Schablone, ja, obwohl dann nachher natürlich auch verfeinert und auf die dortige Situation angepasst, dass das schon ein gutes Werk war, sich zu überlegen, wie regle ich das. Ich glaube, es gibt unterschiedlichste Ansätze, ob

     

    man sozusagen mit der Regulierung anfängt und dann immer noch hofft, dass Innovation passiert oder ob man erst innoviert und dann später versucht nachzuregulieren. Also da gibt es unterschiedliche Strategien, auf wie man das Thema angeht. Ich glaube auch, dass es wichtig ist, dass man Regulierung schafft, die so auch anpassungsfähig ist, dass man nicht alle zwei Jahre eigentlich diesen Prozess, den es für den AI Act gebraucht hat, diesen langfristigen, langwierigen Diskurs.

     

    wo zum Beispiel neue Themen wie Gen .ai erst gar nicht mit berücksichtigt worden waren, erst später sozusagen dazukamen, mitten eigentlich in dem Prozess, dass man das so schafft, praxisnah zu gestalten, dass es eher positiv gesehen wird, dass dann andere Länder sagen, das ist ja auch ein Qualitätskriterium, so was wie Engineering made in Germany. Also so die ruhmreiche Ära der Vergangenheit, wo man gesagt hat, ja.

     

    Wir sind bekannt dafür hier in Deutschland, dass wir Systeme bauen, die wirklich zuverlässig sind und hochqualitativ. Und wenn wir das schaffen, auch in Deep Tech, im Bereich von KI, aber auch in neuen Deep Tech -Bereichen entsprechend zu schaffen, dann sind wir eher diejenigen, die sogar Leitplanken und Regularien ins Positive kehren können. Es war eine ganze Zeit lang ein großes Geschrei das ganze Thema Datenschutz und Regulierung. Ich würde mal sagen, so primatum die letzten zehn Jahre mindestens.

     

    Und man stelle sich damit selber ein Bein. Und jetzt ist es ja tatsächlich so, dass es zu einem komparativen Vorteil erwachsen könnte. Absolut. Also ... Exportschlager sozusagen. Ja, ich glaube, das hat immer zwei Seiten. Ich mein, wir fahren auch nicht mit 200 durch eine 30er -Zone. Weil wir sagen, ja, Technologie, der Wagen sozusagen, der schafft es vom Motor her. Also los geht's. Sondern machen uns Gedanken, wie können wir das Ganze in einem Rahmen stattfinden lassen, dass wir uns damit als Gesellschaft ...

     

    mit gewissen Werten nicht selbst schaden. Und so ist das am Ende auch mit Regulationsinitiativen. Das ist ja nicht grundsätzlich dafür gemacht worden, Bürokratie aufzubauen und uns zu hindern. Wenn es schlecht gemacht ist, dann hat das genau den Effekt. Deswegen müssen wir da besonders aufpassen, dass es praktikabel ist. Und auch in der Praxis dann entsprechend auch von kleinen als auch großen Unternehmen entsprechend angewandt werden kann. Aber ich glaube, dass das Framework auch des AI -Acts

     

    Das bietet, wir müssen nur proaktiv sein in der Wirtschaft, in der Wissenschaft und auch in der Politik, das wirklich praktikabel am Ende zu implementieren. Siehst du da so Selbstregulierungszwänge, weil wenn ich zum Beispiel an diese Apple Intelligence denke, die wahrscheinlich in Europa erstmal nicht ausgerollt wird. Viele Sachen werden in Europa erstmal nicht ausgerollt aufgrund von dem mein wegen EU AI Act, weil natürlich Konzerne Angst haben, entsprechend sanktioniert zu werden.

     

    Auf der anderen Seite habe ich mit jemandem auf den Philippinen gerade kürzlich gesprochen, der meinte, ich habe total Angst, dass Microsoft jetzt irgendwie Screenshots sieht von dem, was ich mache und alle meine Daten verwurstet, mir möglichst gute Ergebnisse zu geben, wovon ich dann aber hinten raus gar nichts habe, weil die gehören mir dann gar nicht mehr. Ich mache mal so ein krasses Beispiel, wenn man sich die Privatsphäre von Minderjährigen Gedanken macht, dann ist man, glaube ich, ziemlich schnell dabei zu sagen, okay, das soll kein Selbstbedienungsladen von irgendeiner Big -Tech -Industrie sein.

     

    die von vielleicht Werten geleitet wird, mit denen wir gar nicht, die wir gar nicht im Griff haben können, die wir vielleicht gar nicht beeinflussen können und die vielleicht nicht die besten Absichten haben. Und ich glaube, deswegen muss man da wirklich schauen, dass man das Gute in diesen Regulationsprozessen und auch Initiativen und Bestrebungen sieht. Und das ist nun mal, den Reifegrad von Technologien zu erhöhen und das auch kompatibel zu machen mit unseren gesellschaftlichen Vorstellungen.

     

    Und dann ist das Ganze wirklich als ein riesen USB zu sehen und als kein Innovationskiller, sondern dann kann das ein Enabler sein, weil es einen Unterschied macht, ob du sozusagen auf freier Wildbahn unterwegs bist und irgendwie alles machen darfst, auch mit den vielen Negativseiten. Oder ob du sagst, du kriegst es in einen Rahmen, der eigentlich diese ganzen Gefahren versucht abzumindern und natürlich den guten Sachen, den guten Ideen, entsprechenden Raum lässt. Das ist so ein bisschen so der Diskurs, den man da führt.

     

    Das heißt, Europa hätte die Chance zum KI -Mecker zu werden statt zum Tech -Museum. Also davon bin ich überzeugt. Wenn man sich die Veröffentlichungen anschaut und natürlich auch gewisse Wurzeln, die hier in der KI geschlagen worden sind, auch in den schon erwähnten KI -Sommern und Wintern vergangener Jahrzehnte, dann glaube ich, gibt es hier Potenzial. Es gibt viel auch junges Talent, was eigentlich gerade diese weiteren und nicht nur technologischen Aspekte, denen das unfassbar wichtig ist.

     

    das Ganze gut zu machen, mit gewissen Wertevorstellungen auch zusammenzubringen. Und das ist am Ende eine Power, wenn wir die vernünftig unterstützen, wenn wir da einen guten Nährboden geben und nicht sozusagen diese Verhinderungsmechanismen aufbauen. Dann glaube ich, dass wir wirklich zu einem trustworthy und responsible AI Mecker werden können. Wo steht aktuell Deutschland im Vergleich zu den USA und China? Was denkst du? Beziehungsweise was weißt du?

     

    Also nochmal vielleicht auf die wissenschaftliche Perspektive gucken, ist es so, dass wir da durchaus ein gutes Fundament haben. Wir haben, was insbesondere das Thema private Investments angeht, sind wir natürlich nicht top notch und viele Stimmen gibt es, die sagen, da sind wir abgehängt, weil einfach die Volumina, in denen investiert wird und auch der Mut, gerade zu ungünstigen Zeiten zu investieren, da sind wir schon im Hintertreffen. Wenn man aber andere Technologien anschaut aus dem Deep Tech Bereich, wie zum Beispiel Quantum Computing,

     

    Da hatte ich heute noch eine interessante Veranstaltung mit Top -Notch -Wissenschaftlern an der Universität Hamburg am DESI. Da wurde eine Statistik aufgelegt, wonach Deutschland an Platz 2, was öffentliche Investments, in Quantum Computing ist, weltweit nach China folgend. Deswegen glaube ich, dass das, selbst wenn wir in bestimmten Sachen hinterher hinken, nicht von unendlicher Dauer sein muss, sondern wir müssen uns auf diese Stärken zurückbesinnen und nach vorne gehen.

     

    Auch wenn es Patentanmeldungen geht, habe ich gelesen, dass Deutschland relativ weit vorne ist. Zumal wir in Deutschland gar nicht alles patentieren können, was zum Beispiel in den USA patentierbar ist, wie Software Code und ähnliche Themen. Ja, spannend. Da erwartet uns noch einiges. Ich glaube, wir haben noch viel Stoff, den wir durchzuackern haben. Insofern würde ich jetzt mal abgeben und mal gucken, wen wir in die nächste Folge einladen. Lasst euch überraschen. Aber ich glaube, das Thema KI ist längst nicht ausgeschöpft. Wir haben jetzt einmal ganz groß, ganz grob verortet und sagen,

     

    Tschüss und vielen Dank.