Das große KI-Update mit Pip Klöckner (#727)

Shownotes

Fast 300.000 Mal wurde das Video aufgerufen, in dem Philipp "Pip" Klöckner auf den Stand beim Thema Künstliche Intelligenz blickt. Grund genug, ihn als Experten nun noch einmal in den OMR Podcast einzuladen – immerhin entwickelt sich das Feld ja weiterhin rasant. Im Podcast verrät Pip Klöckner, warum er nicht an drastische Auswirkungen auf den Arbeitsmarkt glaubt, warum er auch deutschen KI-Startups noch Überraschungen zutraut und wieso er trotz aller Risiken auch positiv auf das Thema KI blickt.

In eigener Sache: Zum OMR Podcast gibt es einen Whatsapp-Newsletter. Melde dich HIER an.

Alle Infos zu ausgewählten Werbepartnern findest du hier.

Transkript anzeigen

00:00:00: Ich fasse nämlich kurz unser Stammgast Investor, Analyst, Podcaster, OMR, Bühnspeaker, Longtime

00:00:07: Friend, Philipp Pipp Klöckner.

00:00:09: Wir haben wieder zu Gast und wir haben über AI Storylines gesprochen.

00:00:14: Zwischen Aufnahme und Ausstrahlung liegen jetzt ungefähr 5-6 Tage und genau in dieser

00:00:18: Zeit gab es übrigens ein paar Neuerungen bei Aleph Alpha.

00:00:21: Nur wer sich darüber wundert, dass wir da nicht ganz tagesaktuell waren.

00:00:25: Und weil ich mich hier so kurz gefasst habe, bitte nutzt doch die freigewordene Zeit, folgt

00:00:30: unserem YouTube-Kanal, da steckt meine Kollegin Julia sehr viel Liebe rein und natürlich

00:00:34: freuen wir uns auch über positives Engagement auf allen Podcast-Plattformen.

00:00:38: Hi Pipp.

00:00:40: Moin moin, freue mich sehr, hier zu sein.

00:00:53: So, wir wollen entsprechend meiner Vorrede auch eine AI Folge machen.

00:00:57: Das bietet sich an, wir haben das eigentlich noch nie so ausführlich gesprochen, obwohl

00:01:01: das jetzt mittlerweile echt ein Kompetenzfeld von dir ist und ich habe mir gedacht, wie

00:01:05: macht man das am besten.

00:01:06: Das ist was uns irgendwie differenzierend unseren Hörern und Hörern anbietet.

00:01:12: Und da ist mir heute Morgen beim Joggen die Idee gekommen, als ich einen Podcast gehört

00:01:16: habe von Bill Simmons, der Sprach mit verschiedenen Gästen über jetzt den nächsten startende

00:01:21: NFL-Saison, also Football in den USA.

00:01:23: Ein Riesenfeld, ganz viele Teams, ganz viele verschiedene Sachen, die da passieren.

00:01:27: Wie macht man das einigermaßen hörbar, wie macht man dann den Überblick?

00:01:30: Und der hat dann die besten NFL-Season-Storylines diskutiert.

00:01:36: Und ich finde Storylines einfach eine gute Idee.

00:01:38: Wir reden jetzt über die spannendsten AI-Storylines.

00:01:41: Nach meiner Einschätzung, ich schmeiß sie darüber, wir versuchen selber Storylines

00:01:44: zu finden und dann mal gucken, also für Einsteiger, wer jetzt auch sagt, das ganze AI geht mir

00:01:48: richtig auf den Sack und ist auch irgendwie kompliziert.

00:01:51: Und was war sich, was da für Modelle unterwegs sind?

00:01:52: Vielleicht habt ihr ja Spaß, Storylines zu verfolgen, einfach nur, wenn sich Dinge weiter

00:01:56: entwickeln, die interessant sind zu beobachten.

00:01:59: Als Erste Mal vielleicht die bekannteste AI-Familie, heißt OpenAI, der bekannteste AI-Mensch, heißt

00:02:06: Sam Ordman, die ganz große Storyline hinter den beiden.

00:02:10: Wie schätzt du die ein?

00:02:11: Ich glaube, was man zuletzt sehr gut gemerkt hat, ist, dass, also anscheinend Sam Ordman

00:02:18: immer mehr seine Mitstreiter zu verlieren.

00:02:19: Also es ist mal gestartet, als eine Firma mit elf Co-Foundern, inzwischen sind noch zwei

00:02:24: davon übrig.

00:02:25: Also ich meine, die Company ist jetzt schon ein paar Jahre alt auch, aber so ein erheblicher

00:02:28: Turn im obersten Level, insbesondere die Security and Safety Leute oder Alignment, nennt man das

00:02:33: ja.

00:02:34: Also wie kann man die Werte der AI mit den menschlichen Höhlen und humanen Werten gleichschalten?

00:02:39: Das nennt man Alignment, da sind viele Leute gegangen.

00:02:41: Und das heißt, er wird so mehr und mehr zum Alleinhärscher der Firma gefühlt, was natürlich

00:02:47: auch problematisch ist, wenn man überlegt, wie wichtig diese Firma oder wie mächtig diese

00:02:52: Firma werden könnte, weil das erklärte Ziel ist ja nicht irgendwie, ein Milliarden oder

00:02:57: Billion Dollar Company zu werden, sondern AGI zu entwickeln.

00:03:01: Und alles andere soll sich diesen Ziel unterordnen.

00:03:03: Was vielleicht auch so ein bisschen erklärt, warum es für Open AI gar nicht so wichtig

00:03:07: ist, wie viel Umsatz sie machen, obwohl sie, glaube ich, auch wirtschaftlich sehr erfolgreich

00:03:11: sind, aber im Moment ist es, glaube ich, eher ein Abfallprodukt.

00:03:14: Wenn du dir sicher bist, dass du irgendwann AGI, also AGI, eine zur Sicherheit für alle,

00:03:20: die jetzt denken, das ist irgendwie, ich weiß nicht, AGI1 oder so.

00:03:25: Genau.

00:03:26: Es ist official generic intelligence.

00:03:29: General intelligence, genau.

00:03:30: Also eine irgendwie breitfähige Intelligenz, die menschliche Kräfte übertrifft oder menschliche

00:03:36: Fähigkeiten.

00:03:37: Beziehungsweise Open AI definiert es, glaube ich, so, dass es eine künstliche Intelligenz

00:03:43: ist, der du sozusagen eine Aufgabe und Task geben kann, dass sie selber Wirtschaftsleistung

00:03:47: erwirtschaften kann.

00:03:48: Also dass ihr selber ein Geschäftsmodell aufbaut oder selber eine Software baut oder so weiter.

00:03:52: Das ist ihre Definition.

00:03:53: Und wenn man überlegt, dass das das Ziel ist, dann macht es eigentlich relativ Sinn, auf

00:03:57: dem Weg jetzt viel an Monetarisierung zu denken.

00:04:00: Weil du baust ja dann eigentlich erklärtermaßen eine Software, die neue Geschäftsmodelle bauen

00:04:05: kann.

00:04:06: Theoretisch.

00:04:07: Die eigene Software bauen kann, die eigene Märkte erschließen kann, die selber Marketing

00:04:10: machen kann wahrscheinlich.

00:04:11: Der ich mehr oder weniger sagen kann, findet mal einen Weg, irgendwie in Bangladesch Geld

00:04:14: zu verdienen oder irgendwie sowieso.

00:04:17: Und dann ist eigentlich alles andere, was du machst, während du das Traction.

00:04:21: Und Sam Ordman scheint davon überzeugt zu sein, dass das möglich ist, AGI zu finden.

00:04:27: Es gibt dann Leute, die sagen, es ist zumindest mit dem sozusagen LLM-Approach oder mit diesen

00:04:33: Transformatorenmodellen.

00:04:34: Das wird nicht der Weg dahin sein.

00:04:36: Das wird sich in Zukunft zeigen.

00:04:37: Aber ich glaube, man kann sehr gut nachvollziehen, dass die Modelle zunehmend fähiger werden

00:04:42: und teilweise menschliche Fähigkeiten auch schon schlagen.

00:04:45: Und deswegen besorgt mich bei Open Eye hauptsächlich, glaube ich, die Macht, die da jetzt in einer

00:04:51: Person vereint ist.

00:04:53: Amüsst du dann auf das Geschäftsmodell, was du gerade beschrieben hast, bulisch?

00:04:56: Also glaubst du, oder sagen wir noch mal ganz konkret gefragt ist, gibt es für dich den

00:05:00: lustigen Zufall.

00:05:01: Ich bin vor einigen Tagen angeschrieben worden von einem Bekannten, der hat mir geschrieben,

00:05:05: hi mein Lieber, wir haben als nächstes Investment eine Open Eye Allocation.

00:05:09: Sag mal, ob du dabei sein willst, Eckdaten, Bewertungen, wäre jetzt, glaube ich, so etwas

00:05:14: über 100 Milliarden Dollar.

00:05:15: Entsprechend Preis vor Aktie glaube ich, 190 Dollar.

00:05:19: Und man müsste dann irgendwie so ein SPV 50.000 Euro einlegen.

00:05:23: Ich habe die jetzt gar nicht, aber manche, wenn ich es hätte, dann müsste ich die eine

00:05:25: so ein Management-Fee und dann gibt es 20 Tickets, die man ziehen kann.

00:05:31: So, jetzt sind wir bei 10 Millionen sein.

00:05:34: Und der Capital Corp, ich weiß, wäre in drei, vier Wochen.

00:05:40: Sollte ich es machen?

00:05:42: Also es ist keine Anlageberatung.

00:05:44: Ich glaube, du hast weiterhin Totalausfallrisiko, obwohl du totalausfallrisiko hast, glaub ich,

00:05:49: nicht bei Open Eye, aber ich glaube, dass du unter den Werten von 100 Milliarden teoretisch

00:05:53: fallen könntest, haltest du nicht für sehr wahrscheinlich.

00:05:55: Also ich versuche nicht so schwarz-weiß zu denken, sondern in Szenarien eigentlich.

00:05:58: Es gibt glaube ich kaum einen Szenario, wo du 100 Prozent des Werts verlieren würdest.

00:06:02: Auch einfach, weil die Firma so nah mit Microsoft verknüpft ist inzwischen.

00:06:06: Ich glaube, es gibt ein Szenario, wo sie eine, entweder wirklich so eine Art AGI oder eine

00:06:12: sehr, sehr fege Anwendung entwickeln.

00:06:15: Ich glaube, prinzipiell in die gesamte Klasse von Foundation Models oder LLMs diese großen

00:06:21: Modelle zu investieren, wenn du sagen würdest du verteilen, ist dein Geld gleichmäßig unter

00:06:25: allen Unternehmen, die daran forschen.

00:06:26: Also auch ein Mistral, auch ein Entropic, auch ein Alpha oder so weiter.

00:06:30: Dann würde ich sagen, das ist wahrscheinlich keine guteren Dieter, die ich erwartet.

00:06:35: Aber ich glaube, Open Eye ist so weit vorne im Rennen, nicht uneinholbar, aber sehr weit

00:06:39: vorne, dass es einst der Unternehmen sein kann, dass irgendwann mal eine sehr fege Intelligenz

00:06:44: entwickelt.

00:06:45: Aber es muss ja auch Geld verdienen.

00:06:46: Ich meine, bei allem Entwickeln und Intelligenz und so, irgendwie brauchst du ja Ummerz und

00:06:52: dann ein paar weniger Kosten, dann musst du ein gutes Ergebnis machen.

00:06:55: Bei 100 Milliarden Bewertungen muss das Ergebnis ja dann auch nochmal mehrere Milliarden

00:06:59: sein.

00:07:00: Genau, also, ah, sie machen inzwischen gerade 4 Milliarden, zwischen 3 und 4 Milliarden

00:07:03: Umsatz schon im Jahr, also das machen sie jetzt schon.

00:07:06: Und das andere ist, wie gesagt, wenn du schaffst so ein Modell zu bauen, was von sich aus geschärzt

00:07:11: Modelle entwickeln kann und dann auch Software entwickeln oder das größte Teil selbstständig

00:07:16: hinbekommt, dann ergibt sich die Monetarisierung ja auch irgendwie von alleine bis hin.

00:07:22: Also nicht, dass ich blau optimistisch bin, aber ich glaube, es ist ein mögliches

00:07:24: Szenario, dass man so weit kommt.

00:07:26: Und wenn nicht, wird man wahrscheinlich immer noch eines der fähigsten large language Models

00:07:30: haben, dass man eben per API anderen zur Verfügung steht.

00:07:33: Und damit verdienen sie jetzt schon Run Rate irgendwie 4 Milliarden.

00:07:36: Und wenn man sich das bottom up dann mal anschaut, wurden ja jetzt ungefähr 10 bis 13 Milliarden

00:07:42: investiert in den OpenAI und damit hat man eigentlich annual recurring revenue in Höhe

00:07:46: von 4 Milliarden geschafft.

00:07:48: Das ist absolut vergleichbar mit anderen Zarsfirmen.

00:07:50: Also dass du das dreifache des Umsatzes investierst, um den Revenue Stream aufzubauen, ist, glaube

00:07:57: ich, ein relativ kapital effizienter Weg, neue Firma zu bauen.

00:08:00: Deswegen, ich glaube nicht, dass alle Firmen so healthy Unit Economics am Ende haben werden,

00:08:04: aber ich glaube, das ob mehr eine der ist, die relativ gut daraus kommt.

00:08:08: Also hast du gesagt, wenn das auf das Angebot, das mir da vorliegt, wenn das Geld da wäre,

00:08:14: why not?

00:08:15: Ich würde nicht 100 Prozent irgendwie deines Gelds darauf hätten oder so, aber als vielleicht

00:08:20: auch so eine Art Versicherung dagegen, dass OpenAI irgendwie so ein Joggernaut wird, der

00:08:24: ein Großteil der Software-Entwicklung in Zukunft irgendwie so ein bisschen dominiert oder zumindest

00:08:29: einen wichtigen Bestandteil mit einem Foundation-Model dazu.

00:08:33: Und wenn man das Gewährte ist, ist das aber auch schon so krass hoch 100, also über 100

00:08:36: Milliarden.

00:08:37: Klar, dann kommen die vielleicht nochmal auf 200 Milliarden, hätte ich das Geld verdoppelt.

00:08:39: Aber also viel mehr Absatzsäte.

00:08:44: Schauen wir mal, wenn ich noch 2-mal, sagen wir verdoppeln noch 2-mal hier einen Umsatz.

00:08:48: Wir sagen mehr und mehr Firmen bauen Applikationen basierend auf AI und OpenAI schafft es weiterhin

00:08:55: ein führendes Model zu bauen.

00:08:57: Wenn Sie sich nochmal verdoppeln, sind Sie bei 7, 8 Milliarden Umsatz.

00:09:00: Wenn Sie sich nochmal verdoppeln, sind Sie bei irgendwie 15 Milliarden Umsatz.

00:09:03: Ich glaube, eine 10-mal Umsatzbewertung wäre jetzt nicht untypisch für eine Firma, die

00:09:07: noch so schnell wächst, kann man sogar über mehr reden.

00:09:09: Dann hättest du schon 150, 200 Milliarden zusammen.

00:09:13: Okay, also ist das fine.

00:09:14: Also wir beobachten die Storyline OpenAI mal ein bisschen weiter.

00:09:17: Sam OpenAI auch.

00:09:18: Also wie lange halten das die letzten Verbleibenden 2 Co-Gründer noch mit ihm aus?

00:09:23: Hätte ich dieses Investment machen sollen oder nicht?

00:09:26: Also die Storyline steht.

00:09:27: Für alle, die Lust haben, AI aus der Ferne zu verfolgen, hier wäre die erste Storyline-Angebot.

00:09:33: Nehmen wir mal als zweites Storyline, die ich auch interessant finde.

00:09:39: Und zwar gibt es ja gerade rund um Meta oder Facebook ganz viele so Open Source Modelle.

00:09:44: Das ist ja schon mal deren Approach.

00:09:46: Irgendwie die ganzen Modelle da gerade sind, Markt reinzugeben.

00:09:48: Und dann gibt es halt die Commercial-Modelle.

00:09:50: Und ich finde, das hängt ein bisschen mit dem OpenAI zusammen.

00:09:53: Weil wenn diese Open Source Modelle sich durchsetzen sollten, dann braucht ihr ja keiner mehr Open

00:09:56: AI, weil dann warum soll ich Geld bezahlen, wenn ich das Open Source umsonst bekomme?

00:10:00: Ist das eine Storyline, die du auch verfolgst?

00:10:02: Genau, das ist im Prinzip die absolute Gegentease gegen das OpenAI Investment.

00:10:07: Nämlich das, du sagst, dass man mit noch so viel Geld und man kann sagen, Meta verfügt

00:10:12: letztlich über genauso viel oder mehr Geld wie ein Sam Open and Open AI und Microsoft

00:10:16: zusammenraisen können.

00:10:17: Microsoft ist schon noch deutlich größer als Meta, aber so vom Cashflow können die

00:10:22: beide verfügen, die beide über unheimlich große Mittel.

00:10:25: Es geht eher darum, wie viel ihre Shareholder ihnen erlauben zu investieren.

00:10:28: Und ich glaube, Facebook-Strategie ist eben, dass sie einerseits ein bisschen spät dran

00:10:33: sind bei dem ganzen Rennen.

00:10:35: Und andererseits ist man, glaube ich, sehr getrieben von, dass man gemerkt hat, man hat

00:10:40: sich damals in dieser Falle befunden, wo man sehr stark von den Betreibern der mobilen

00:10:45: Endgeräte, der mobilen Operating Systems, also Android und iOS-Apple abhängig war.

00:10:51: Das hat ja das Werbegeschäft von Meta eine Zeit lang mal stark sozusagen gefährdet.

00:10:55: Meta hat sich ganz gut durch neue Tools und schlaure Targeting-Mechanismen da eigentlich

00:11:01: so ein Rausmanifriert am Ende.

00:11:02: Aber ist, glaube ich, so eine traumatische Erfahrung, die sie haben.

00:11:06: Sie möchten nie wieder abhängig von irgendeiner Art von Plattformen sein, selber, glaube ich.

00:11:10: Und deswegen bauen sie jetzt eine Plattform, die alle nutzen, von der theoretisch alle profitieren.

00:11:15: Ich glaube in der Hoffnung, dass am Ende dann ein Ökosystem entsteht, was wenige Abhängigkeiten

00:11:21: haben, was ein bisschen mehr Waffengleichheit hat und wo am Ende natürlich Leute auch wieder

00:11:25: Geld für Werbung ausgeben und davon würde spätestens dann Meta auch indirekt profitieren.

00:11:29: Und du sagst doch gar nicht, dass die Open Source-Mittel davon sind.

00:11:31: Genau, das sieht man auch relativ klar.

00:11:33: Die stehen den kommerziellen Modellen.

00:11:34: Es ist nicht erkennbar, dass die den irgendwie nachstehen.

00:11:37: Am Ende ist eigentlich so, dass jeweils jüngste oder ja, früh, wie sagt man, das jüngste

00:11:42: Modell, was rauskommt, schlägt in der Regel alle älteren Modellen.

00:11:44: Das ist ein sehr, da kann man jetzt auch eine eigene Storyline eigentlich, dass jedes neue

00:11:48: Modell frisst eigentlich alle vorherigen Kinder sozusagen, der EI.

00:11:51: Also wenn Mistral, was auch ein französisches Open Source-Projekt ist, ein neues rausbringt,

00:11:56: ist das in der Regel zumindest in gewissen Disziplinen besser als alle anderen auch

00:11:59: kommerziellen vorher.

00:12:00: Das letzte Facebook-Modell, Lama 3.1, hat viele Open Source-unkommunizielle Modelle

00:12:07: geschlagen.

00:12:08: Das heißt, es scheint keine Rolle zu spielen, ob man Open Source oder Commercial.

00:12:11: Das so hört dann, jetzt haben wir starke These, aber dann sind ja die Menschen, die

00:12:15: jetzt für diese vier Milliarden Umsatz bei Open AI sorgen, irgendwie dumm, weil die könnten

00:12:20: ja das gleiche Produkt oder was Ähnliches schon mal irgendwie auch sonst bekommen, dann

00:12:24: müssten ja kein Geld ausgeben.

00:12:25: Genau, das ist eine große Gefahr.

00:12:27: Das am Ende kann es natürlich sagen, ich kann das deutlich günstiger beziehen oder

00:12:33: ein Open Source-Model auf meinem eigenen Server sogar installieren und günstig ausführen.

00:12:36: Das ist für alle Betreiber von kommerziellen Modellen das größte.

00:12:40: Deswegen meine ich, es ist die krasse Anti-Tese dagegen.

00:12:43: Es gab einen israelischen VC von Aleph, heißt die Firma Mike Eisenberg, der LLMs, der Foundation-Models,

00:12:51: das fastest depreciating asset on earth genannt.

00:12:54: Du baust quasi das State of the Art Modell, was alle anderen schlägt und zwei Wochen

00:12:59: später kommt irgendwie, jetzt gerade hat Microsoft ein neues kleines Modell, 4.3.5

00:13:03: heißt es, glaube ich, gebaut und schlägt wieder alle anderen kleineren Modelle auf einmal.

00:13:07: Und damit es, es gibt ja keinen Grund, warum du jetzt das zweit schnellste oder zweit beste

00:13:10: oder zweit günstigste Modell nehmen soll, dann natürlich nimmst du in Zweifel das Beste,

00:13:14: was du haben kannst oder das günstigste.

00:13:15: Und was vorher mit Milliarden aufgebaut wurde, ist dann innerhalb von einem Tag eigentlich

00:13:20: fast wertlos, weil man natürlich immer den neuesten Schritt haben will eigentlich,

00:13:24: dass man hat seine Applikation sehr stark auf ein Modell angepasst, aber das ist der

00:13:29: Grund, warum ich nicht in die breite Klasse der Modelle investieren würde.

00:13:32: Also einfach Geld streuen, ich investiere in jedes Foundation-Model, ich glaube, das

00:13:35: wäre eine schlechte Strategie, weil viele am Ende untergehen werden dabei und irgendwann

00:13:39: aus dem Rennen aussteigen.

00:13:40: Im Moment ist noch, im Moment ist noch unmöglich zu sagen, wer der Gewinner ist.

00:13:44: Also Mistralbau-Supermodelle, Entropic-Cloat hat Superperformance, Meter hat Super Open

00:13:50: Source Modelle, Google Gemini versucht mitzuhalten, Microsoft hat eigene Modelle, wie gesagt,

00:13:56: habe ich versorgen, OpenAI sowieso.

00:13:59: Und gefühlt ist es so, dass jede Woche ein neues Modell rauskommt, was alle anderen in

00:14:05: gewissen Disziplinen schlägt.

00:14:06: Okay, also es ist noch gar nicht klar, wie das Rennen ausgeht, ob Open Source oder Commercial,

00:14:13: aber wenn Open Source gewinnt, dann ist auf jeden Fall, könnte es ein Problem sein.

00:14:17: Man sieht jetzt ja auch, es gibt schon Open Source Modelle, trotzdem hat OpenAI 4 Milliarden

00:14:21: Umsatz, also irgendwer macht es ja trotzdem paid, aber man könnte in der perfekten Welt

00:14:27: gelb es dann eigentlich kein Umsatz bei den Commercial-Modellen.

00:14:31: Ja, also irgendwo muss es gerechnet werden, also die Rechenzentren haben am Ende wieder

00:14:35: Umsatz, aber die Modelle selber, ob das, ich bin mir nicht sicher, ob die Modelle selber

00:14:40: am Ende sozusagen ein sehr kräftiges Wertschöpfungslehr sein, also wo du irgendwie 30% EBIT

00:14:45: Demage hast, indem du deinen Modell vermietest, irgendwo, das halte ich eher unwahrscheinlich.

00:14:50: Seine Jemandschaft wirklich ein sehr exklusiven Durchbruch.

00:14:53: Die Open Source Modelle haben natürlich den Vorteil im Zweifel, dass sie viel Distribution

00:14:56: erfahren dadurch und viel Nutzerdaten nochmal sammeln, wenn sie von vielen genutzt werden.

00:15:00: Und die Community, das ist ja der ganze Sinn von Open Source, dass man sich gegenseitig

00:15:03: so ein bisschen stärkt.

00:15:05: Warum bis heute viel Internetinfrastruktur Open Source ist irgendwie der Apache Server

00:15:09: und gewisse Datenbank Technologien, gewisse Server-Ability Technologien und so, sind bis

00:15:16: heute Open Source und fahren gut damit.

00:15:18: Und das könnte Open Source natürlich nochmal helfen, dass man eine größere Community baut.

00:15:23: Okay, also verfolgen wir mal das mal ein bisschen weiter.

00:15:25: Könnte es eigentlich auch so sein, dass Meta irgendwann sagt, jetzt wo alle unsere Modelle

00:15:31: hier verwenden, jetzt drehen wir das zurück und jetzt sagen wir, jetzt sind die da nicht

00:15:34: mehr Open Source?

00:15:35: So ein Baden Switch, nennt man das ja im Englischen.

00:15:37: Baden Switch?

00:15:38: Angeln und oder?

00:15:39: Genau, anlocken und dann sozusagen den Schalter umlegen.

00:15:43: Das ist eine relativ gängige Strategie, dass man erstmal versucht Verbreitung oder Adoption

00:15:48: zu finden, indem man es kostenlos anbietet.

00:15:50: Und dann baut man so Haken und Ösen ein auf einmal.

00:15:52: Ich halte es für eher unwahrscheinlich, weil der Markt glaube ich so kompetitiv ist, dass

00:15:58: niemand sich das leisten kann.

00:15:59: Also Meta hat keine großen Vorteile so, sie haben relativ spät gestartet und dass sie

00:16:04: freie Anbieten ist, so ihr Edge den aufzugeben, wäre glaube ich relativ gefährlich.

00:16:10: Dann nächste Storyline, jetzt mal ganz plump, aber kommt dieses ganze Geld, was da jetzt

00:16:16: reingepumpt wird, eigentlich jemals wieder zurück, frag ich mich so als Fun Fact, weil

00:16:22: ich meine, zweifel, da sehe ich auch eine Welt, wo einfach Menschen oder Firmen sehr

00:16:26: viele Milliarden in etwas gepumpt haben, das einfach weg ist.

00:16:29: Ja, gab es ja schon immer mal.

00:16:34: Ist das vorstellbar oder glaubst du, dass sich diese ganzen Investments irgendwann mal

00:16:35: lohnen können?

00:16:36: Ja, also auch da würde ich in Szenarien denken und ich glaube die Frage ist nicht ob, sondern

00:16:41: wann.

00:16:42: Ich glaube man kann schon sagen, dass wir uns gerade in einer hart blaasen oder blasenförmigen

00:16:47: Bewegung oder so am Höhepunkt des Gardener Hype Cycles befinden, das ist sicherlich

00:16:51: richtig, bis vor kurzem die Begeisterung für AI maximal war.

00:16:56: Jetzt relativiert sich gerade so ein bisschen, es gab kritische Stimmen von Goldman Sachs,

00:17:00: von Mackenzie, von Elliott Management, von Paul Singer, dem Hedge Fund, von einem Sequoia

00:17:08: Partner, der vorgerechnet hat quasi, dass wenn man nur überlegt wieviel Chips Nvidia

00:17:12: verkauft, das werden so ungefähr 150 Milliarden im Jahr sein, wenn man davon ausgeht, dass

00:17:17: diese Chips zu betreiben kostet ungefähr nochmal das gleiche, das heißt dann sind

00:17:20: wir bei 300 Milliarden und wer damit Geld verdienen will, braucht eigentlich eine 50

00:17:23: Prozent Rohmage, dann werden wir bei 600 Milliarden und wenn, entweder nur weiter diese Chips

00:17:31: verkaufen will, dann braucht man halt 600 Milliarden an Umsatz, der dem gegenübersteht,

00:17:38: der das irgendwie wieder amortisiert, was allein an Chips produziert wird.

00:17:41: Und wenn wir gerade vorgerechnet haben, natürlich haben wir im Moment keine 600 Milliarden

00:17:45: AI Umsatz, natürlich wird das gerade nicht kommen, aber wenn die Weiterentwicklung der

00:17:50: Modelle so voranschreitet und wenn viele kleine Start-ups oder auch große Software für mehr

00:17:55: und mehr Anwendungsfälle dafür entwickeln und es schaffen Menschen dazu zu bringen,

00:17:59: das auch zu benutzen und erfolgreich zu benutzen und produktiv zu benutzen, dann glaube ich,

00:18:04: wird man über kurz oder lang schon ein Großteil dieser Investments, also nicht nur die Investments

00:18:09: amortisieren, sondern deutlich mehr daraus sollen.

00:18:12: Ich würde es ein bisschen vielleicht mit der Internetblase vergleichen.

00:18:15: Zweifels Ohne waren wir 2000, in den 2000er Jahren, 99, 2000 in der Blase auch und da

00:18:20: waren hunderte von Firmen, so ein Cisco oder Juniper Networks und wie sie alle heißen,

00:18:26: massiv überbewertet.

00:18:27: Aber heute 20 Jahre, 25 Jahre später ist das Internet, wenn du die Nestec anschaust,

00:18:32: sind glaube ich 80 Prozent der Unternehmen, sind im weitesten Sinne Internet-Technologie-Unternehmen

00:18:37: und die, die allein der Nestec 100 ist, glaube ich, 22 Billionen US-Dollar wert, also 22.000

00:18:44: Milliarden an Börsen wert wurde quasi mit dem Internet geschaffen, könnte man sagen,

00:18:48: oder mit Software.

00:18:49: Und ich glaube, in Zukunft wird jedes Software irgendwie AI-Beinhalten oder Machine Learning.

00:18:54: Von daher glaube ich, dass man irgendwann, sagen, Trillion Dollar oder Billion Dollar-Märkte

00:18:59: auf Deutsch schaffen wird damit.

00:19:01: Ich glaube aber, dass das allmählicher passieren wird, einfach weil wir bei der Adoption gar

00:19:06: nicht so schnell sind, also bis Menschen Anwendungsfälle entwickeln und dass sich dann verbreitet

00:19:09: in vielen Unternehmen genutzt wird und wirklich Produktivitätsfortschritte bringt.

00:19:12: Das wird glaube ich noch dauern.

00:19:15: Ich glaube, zwei konkrete Fälle sind, wo es relativ früh eintreten wird.

00:19:18: Eine ist Programmierung.

00:19:19: Diese Co-Piloten, die beim Programmieren helfen, das ist einfach, weil Programmiersprache

00:19:24: sehr eindimensional ist.

00:19:26: Also diese Modelle schätzen oder raten ja, was das nächste Wort ist statistisch.

00:19:29: Und wenn du was programmierst, dann gibt es gar nicht so viel, also der Vektor, wieviel

00:19:35: verschiedene Worte können jetzt auf das Wort folgen, ist relativ klein.

00:19:39: In natürlicher Sprache gibt es vielleicht eine hohe Variation an Worten, die auf das

00:19:43: nächste Wort folgen können.

00:19:44: Bei Programmierung ist das nächste Zeichen relativ mit einer hohen Wahrscheinlichkeit

00:19:48: zu erraten.

00:19:49: Deswegen ist es, glaube ich, sehr früh bei juristischer Sprache, zum Beispiel auch so.

00:19:53: Dadurch, dass diese Hochformel sind, diese Schriftzätze, die Anwälte schreiben, in aller

00:19:56: Regel zumindest, ist das glaube ich einfacher und da wird man wahrscheinlich relativ früh

00:19:59: schon viele Anwendungsfälle sehen.

00:20:01: Und das andere, wo ich glaube ich kurzfristig sehr optimistisch bin, wo man viel Wert schaffen

00:20:09: kann, ist Robotik.

00:20:10: Also es werden jetzt viele dieser menschlichen Robotern, Tesla baut diesen Optimus, es gibt

00:20:14: diese Firma Figure 1, nee, Figure AI, die jetzt gerade 0/2 Modell, die zweite Generation

00:20:19: vorgestellt haben, die mit BMW kooperieren.

00:20:21: Es gibt auch der Ganzenwahl, es gibt im Korea und Japan noch Robotik.

00:20:24: Aber das ist nicht mehr Sprachbarse, oder?

00:20:25: Die Lernfähigkeit basiert auf LLMs, soweit ich das verstanden habe.

00:20:30: Weiterhin.

00:20:31: Und gibt es eigentlich einen generellen AI-Welt, die nicht LLM basiert oder getrieben ist?

00:20:38: Das ist also, Maschinenlearning ist deutlich größer als LLMs, glaube ich, aber für Robotik

00:20:43: wird quasi letztlich auch Transformer-Technologie benutzt.

00:20:48: Und das ist gut, also warum baut man diese Roboter wie Menschen, weil sie quasi eine

00:20:53: Menschen zuschauen können bei der Arbeit und davon lernen.

00:20:55: Also die können einfach lernen, den Menschen zu imitieren und damit kannst du ihnen fast

00:20:59: jeden Tags geben, denen ein Mensch auch kann.

00:21:01: Und das ist auch alles Sprachmodell basiert?

00:21:05: Nach meinem Verständnis basiert das unter anderem auch auch.

00:21:07: Ich hätte das Gefühl, viele von den Sachen, das hatte mir Fokus meiner erzählt, dass

00:21:10: es bei Tesla auch so deswegen attraktiv ist, weil die in den ganzen Autos, die sie so rumfahren

00:21:16: haben, so Kameras drin haben und man kann dann sozusagen in den Verkehr auch dieses Self-Driving

00:21:22: ist ja auch eine AI, eine Idee.

00:21:24: Und die können halt Self-Driving ganz gut abbilden, weil halt über die ganzen Kameras

00:21:29: kann man halt sehr viel lernen über die Bilder und dann können die dann irgendwann selber

00:21:33: fahren, weil der LRF auch so groß ist.

00:21:36: Aber da habe ich zumindest das Verständnis gehabt, es hat doch nichts mit einem LM zu tun,

00:21:40: das ist halt wirklich einfach Bilderkennung.

00:21:42: Genau, das ist trotzdem Maschinenlearning, aber es ist kein LLM in dem Fall.

00:21:46: Genau.

00:21:47: Und das, also und jetzt das andere Beispiel, wo ich das...

00:21:50: Bei den Nachhalt von der Testnet-Technologie, also wenn du nur Kameras hast, ist das Gegenkonzept

00:21:55: ja leider, wo du so eine Art Leserradar hast, was dann Gegenstände erkennen und messen

00:22:02: kann, die Entfernung zu Gegenständen.

00:22:04: Das Problem ist, wenn von einem Tesla zum Beispiel ein umgekippter LKW liegt.

00:22:07: Wenn du es vorher aus Daten gelernt hast, hat es natürlich noch nie einen umgekippten

00:22:13: LKW gesehen.

00:22:14: Das ist extrem wahrscheinlich, das ist unwahrscheinlich.

00:22:16: Es hat halt 10.000 mal ein Stoppzeichen gesehen, weil wir das im Winter jetzt angeklickt haben,

00:22:20: das ist ein Stoppzeichen, so, das war einfach zu lernen.

00:22:22: Aber wenn irgendwas unvorhergesehen war, was passiert, sagen wir mal eine Boeing landet

00:22:25: auf einer Autobahn oder eine LKW kippt um oder jemand, ich mache einen Graffiti, was

00:22:32: blauer Himmel aufzieht auf einer Autobahnbrücke, dann könnte es sein, dass das Auto, weil

00:22:35: es nur Kameras hat und weil so eine Division der Kamera kannst du täuschen, ein Leider

00:22:39: kann halt erkennen, das ist ein fester Gegenstand, ich halte mal sicherheitshalbe an.

00:22:42: So, das ist so ein bisschen die Schwäche der Kamera.

00:22:43: Ich will nicht, es kann sein, dass man trotzdem...

00:22:45: Aber ist es interessant, aber auch das ist dann nicht LLM basiert oder das ist leider...

00:22:48: Das kann er werden, so weit ich weiß nie.

00:22:50: Also, jedenfalls, ich wollte noch kurz als extra Note hinzufügen, dass ich ein anderes

00:22:56: Feld aufhör kurz, was ich mir kennengelernt habe, ich habe einen echt krassen Artikel

00:22:58: gelesen, sehr lang, aber sehr interessant, über ein bisschen Parmalucky, der Gründer

00:23:04: von Anruyel, so einer großen Defense-Tech, Drohnen und sonstigen Militärsachenfirma,

00:23:11: also hat auch mit dieses Oculus erfunden, ein Mark Zuckerberg verkauft, ein riesender

00:23:16: Teil, bei mir in WhatsApp vielleicht hast du auch Bock, in dein Düssel reinzupacken,

00:23:21: also ich finde ihn wirklich lesen zu werden, weil der Typ ist echt krass und da war auch

00:23:25: die Rede von seinen ganzen Militärfahrzeugen, die er gerade alle baut, dass die alle auch

00:23:29: auf Open AI zurückgreifen und die Drohnen und so und da dachte ich mir, das können

00:23:32: ja dann keine Sprachmodelle sein, das muss ja dann die andere Art von Intelligenz sein,

00:23:36: die da...

00:23:37: Also, ich bin leihoffensichtlich, aber ich dachte mir so, Drohnsprachmodelle, eher nicht.

00:23:42: Ich glaube, du kannst mit Sprachmodellen auch sozusagen Input aus verschiedenen, also

00:23:47: die Modelle sind ja alle multimodal, also du kannst ein Bild reintun und kriegst ein

00:23:51: Text draußen, ich kann ein Bild reintun und fragen, was sehe ich da, oder was siehst

00:23:54: du da und dann sagt mir, dass das...

00:23:55: Und deswegen kannst du mit dem LLM theoretisch auch die Umgebung von der Drohne interpretieren

00:23:59: lassen, ich glaube, dass du dadurch, dass die multimodal sind, also auch mit Videobildern

00:24:03: oder verschiedenen anderen sozusagen Sensorikdaten gefüttert werden können, müssten multimodale

00:24:08: Modelle das tatsächlich können.

00:24:09: Das lustigste, mit der der Palma Lucky fährt selber eine Fregatte, der hat sich als Privatboot

00:24:13: so eine alte Militärfregatte, es gibt so ein Bloomberg, so ein Bloomberg Interview,

00:24:18: ich glaube mit Emily Chang gibt es auf YouTube, da fährt er sie so ein bisschen in seine Fregatte

00:24:21: durch die Gegend.

00:24:22: Also, der Chief ist ohnehin in dem Artikelstudent drin, er hat sich einen Chip implantieren

00:24:27: lassen in seinen Gehirnen, mit dem seine Mitarbeiter/Mitarbeiter direkt in seinem Gehirn

00:24:31: quasi nachten hinterlassen können.

00:24:33: Oh, das wusst ihr noch nicht, ich glaube, das ist weird.

00:24:35: Da sind extrem viele sehr, sehr weirde Sachen bei dem, aber der Typ ist sehr interessant.

00:24:43: Ich glaube, es hat auch verrückte Thesen, man denkt okay, wirklich jetzt, aber ich finde

00:24:49: diesen Artikel geschrieben in Tablet Media, ich sage dir vorallem gar nichts, es ist so

00:24:53: eine jüdische Publikation, die da, wenn wir es lange nicht bekennen, machen sehr lange

00:25:01: Artikel, dann liest man wahrscheinlich irgendwie 20 Minuten lang.

00:25:04: Aber ich werde es in meine WhatsApp reinpacken, ich schickst dir auch nochmal gleich zu,

00:25:08: wir packen sie in die Show Notes.

00:25:09: Also, wenn man ein paar Malakie nicht kennt, es lohnt sich, den mal irgendwie an den

00:25:13: Titel kennenzulernen.

00:25:14: Ist wahrscheinlich, steht da auch drin, neben Ilan Musk, der beste Ingenieur, den es wohl

00:25:20: eigentlich gibt gerade.

00:25:21: Man kann ja ganz kurz die Grundthese der Firma ektan, also der ist quasi baut ein modernes

00:25:25: Rüstungsunternehmen nach Silicon Valley Logik.

00:25:27: Bisher läuft Rüstungsindustrie in USA so, dass die USA halt sagen, wir brauchen irgendwie

00:25:33: einen neuen F21 Jet oder eine neue Fregatte oder einen neuen Abrams Panzer.

00:25:39: Und jetzt Boeing oder Northrop Grumman oder so, baut uns den mal.

00:25:42: Ihr kriegt alles, was das kostet, plus 20% Gewinnmage.

00:25:45: Kostplus.

00:25:46: Genau, Kostplus Pricing nennt man das.

00:25:48: Und was paar Malakie oder Andrew Will halt bauen will, ist, dass sie quasi auf eigenes

00:25:52: Risiko Waffensystem entwickeln und die dann zu Marktpreisen oder dadurch kann natürlich

00:25:57: auch eine höhere Marge am Ende stehen, aber sie dann quasi verkaufen.

00:25:59: Sie gehen ins Risiko, machen selber R&D, bauen selber Prototypen und wenn es dann nachfragt,

00:26:06: sie bauen auch Waffen sozusagen, nach denen auch keiner gefragt hat mehr oder weniger,

00:26:09: hohes Risiko.

00:26:10: Aber das ist natürlich wichtig, wenn man überlegt, dass unsere Waffen zum Beispiel

00:26:13: die russische Raketen abwehren oder so, viel mehr Kosten als die Raketen, von denen sie

00:26:16: angehen oder die, die sie abwehren sollen, ist natürlich wichtig, irgendwie die Preistruktur

00:26:20: in der Rüstungsindustrie nach unten zu drücken.

00:26:22: Absolut.

00:26:23: Also der, also kein Zufall, das Peter Thiel hat über paar Malakie gesagt, der Typ kann

00:26:29: Amerika retten, genau mit der Logik, dass er halt in der Lage ist Waffen zu bauen, die

00:26:34: viel günstiger sind, die viel besser sind, der kostet ja auch neue Ideen, kommt also

00:26:37: auch alles in der Artikel drin, was der dafür Waffensystem überhaupt sich ausgedacht hat,

00:26:42: was die aber einmal alles so können.

00:26:43: Also wirklich eine riesige Disruption mit dem bisherigen militärischen Komplex.

00:26:48: Und übrigens dasselbe hat ja auch Elon Musk geschafft mit SpaceX, dass ja auch der Grundraum

00:26:52: von SpaceX so erfolgreich ist, weil der Raumfahrt war genauso, auch Cosplus und dann hat der gesagt

00:26:57: okay, ich baue jetzt mal die Raketen, wie ich Bock habe und wie ich glaube, finanziert

00:27:00: alles selber vor, eigenes Risiko und dann hat er die dann nachher irgendwie der NASA

00:27:04: und so dann angeboten und dann haben die gesagt, Mensch, das ist ja ganz geil hier und auch

00:27:08: viel günstiger, das nehmen wir jetzt.

00:27:09: Also und dann war da noch eine Marge eingebaut.

00:27:11: Also insofern, das ist so in vieler Hinsicht, ist der Primalakie auch so der Elon Musk für

00:27:17: der, der, der nächste, so wer kommt nach Elon Musk?

00:27:19: Ich hoffe nicht, ich hoffe nicht, ehrlich gesagt auch.

00:27:21: Ja, aber wenn man das, also der ist ja jung, ne?

00:27:23: Aber wenn man das so liest, so ein paar Sachen, die drin stehen, findet man dann auch schon gar

00:27:26: nicht schlecht.

00:27:27: Ein paar finden, denkt man auch so, um Gottes Willen auch verrückt oder auch total verrückt.

00:27:32: Aber na ja, also jetzt haben wir genug über Dinge gesprochen und Exkurs gemacht, es ist

00:27:37: kein AI, kein AI-Storyline, die Frage ist halt nur, finde ich vielleicht als Storyline,

00:27:43: kommt das ganze Geld hier zurück, so kommen wir drauf und dann vielleicht jetzt auch ein

00:27:46: bisschen zusätzliches Storyline, die mir gerade auffällt, ist das sind's am Ende alles Sprachmodelle

00:27:51: oder gibt's auch nochmal andere Formen, also Grundlagen für AI?

00:27:56: Ja, ich glaube, vielelei Sachen sind richtig.

00:28:01: Also einerseits haben diese Sprachmodelle, glaube ich, noch viel Potenzial, das sieht

00:28:04: man, dass das sogenannte Scaling noch funktioniert, das heißt, ich kann mehr Rechenpower, mehr

00:28:09: Input-Data raufschmeißen und die werden immer noch prozentual besser, relativ berechenbar

00:28:15: und deswegen macht man es im Moment auch so, man hat einen relativ klaren, kalkulierbaren

00:28:19: Fortschritt, wenn man noch mehr Rechenpower zusammenpackt oder noch mehr Daten akquiriert,

00:28:23: dann schaffen wir uns das Modell noch besser zu machen, auch die Hallizination geht mit

00:28:26: mehr Modellgröße oder mehr Input-Data in der Regel zurück.

00:28:29: Gleichzeitig versucht man aber auch andere Approaches, es gibt so Mamba-Modelle, was

00:28:34: die grundsätzlich anders funktionieren als Transpomater und Modelle, der Jan Lecombe

00:28:38: von META, der AI-Chef, sagt so, ist so eine der Leute, die sagen, mit generativer AI kommen

00:28:44: wir nur so und so weit und wir brauchen verschiedene Ansätze, das heißt, auch da wird weiter geforscht

00:28:48: werden.

00:28:49: Ich glaube, weil das Scaling so gut funktioniert, forschen wir zum Beispiel noch gar nicht gezielt,

00:28:54: wie kann ich Hallizination reduzieren, obwohl es auch da schon Fortschritte gibt, dass

00:28:58: man Modelle gegeneinander argumentieren lässt zum Beispiel und dadurch setzt sich dann tendenziell

00:29:01: öfter der richtige Fakt durch.

00:29:03: Von daher glaube ich, gibt es da, ist viel zu früh das irgendwie zu sagen, es gibt

00:29:10: da Leute, die auch sagen, wir kommen da nicht weiter oder mit dem, also wir erreichen jetzt

00:29:14: so einen Glasdeckel, das glaube ich tatsächlich nicht, das ist auch viel zu früh das noch

00:29:19: zu sagen.

00:29:20: Wir reden immer noch so über einen Dreijährigen eigentlich und die Fähigkeiten eines Dreijährigen

00:29:24: und wissen noch gar nicht, wie was, was der kann, wenn er erwachsen ist.

00:29:28: Nächste Storyline und zwar die ganz große Frage ist ja auch, ist das eigentlich alles

00:29:33: jetzt für die Gesellschaft, für die Welt am Ende positiv oder negativ, was da jetzt mit

00:29:39: der Eier auf uns zukommt?

00:29:40: Also da spielen ganz viele verschiedene Sachen rein, einen Extremszenario, was dann auch am

00:29:44: Anfang immer gelesen hat, ja dann irgendwann geht die Welt unter, weil die verschiedenen

00:29:49: Eiers aufeinander losgehen militärisch und sonst was und das ist das Ende der Welt und

00:29:53: dann gibt es natürlich die anderen, die sagen, also weiteres Wachstum, das braucht die Welt

00:29:57: ja, zwangsläufig irgendwie in der wir leben, kann nur daherkommen, du brauchst eine neue

00:30:02: große Applikation, eine neue Prototätsteigerung und das kommt daher und man kann das auch

00:30:08: alles gut kontrollieren und Weltkriegszenarien sind eQuatch und deswegen ist das auf jeden

00:30:13: Fall positiv.

00:30:14: Wo stehst du da?

00:30:15: Wie immer ist beides richtig.

00:30:17: Also ich glaube, also was die Gefahren angeht, also die größten Gefahren, die man sieht,

00:30:23: ist das Eier entwickelt irgendwie, ja also, wie sagt man, rottet die Menschheit aus oder

00:30:29: macht sich selbstständig und so weiter.

00:30:31: Ich glaube, das ist schon wichtig, dass man's im Hinterkopf hat und versucht sich dagegen

00:30:35: abzusichern, also irgendwie so eine tote Mannschaft oder angeblich trägt Sam Orton, ja in unserem

00:30:39: Rucksack, so eine Art Atomkoffer mit sich rum.

00:30:41: Ich glaube, es macht Sinn, sich darüber Sorgen zu machen, aber ich glaube, das viel direkte

00:30:45: Risiko ist eigentlich, was machen Menschen mit EI?

00:30:47: Also, dass das viel gefährlicher ist, dass jemand eben wirklich schlimme Deepfakes generiert

00:30:55: und damit irgendwie ein Bürgerkrieg provoziert, dass jemand eine Biowaffe entwickelt, damit

00:30:58: oder irgendwie eine Atomwaffe oder schmutzige Bombe damit schneller bauen, dass jeder

00:31:03: Mann eine schmutzige Bombe ohne weiteres bauen kann und so weiter, wobei dafür brauchen wir

00:31:07: Ruharans.

00:31:08: Das ist nicht ganz so einfach, aber sagen wir mal, dass jeder Mann eine Biowaffe auf einmal

00:31:09: bauen kann mit Apothekenmitteln, das sehe ich eigentlich als das größte Gefahr.

00:31:14: Und aber ich glaube, dessen ist man sich auch sehr bewusst.

00:31:16: Plus die Gefahr, dass die AI Menschen überredet.

00:31:19: Also, die Mira Murati, die CTO von OpenAI hat gesagt, dass sie sozusagen erheblichen Respekt

00:31:26: vor den Persuationsskills von AI hat, also dass sie Menschen quasi bequasselt und sie

00:31:30: überzeugen kann, dass von das irgendwas richtig oder falsch ist, mit einer schlüssigen Argumentation.

00:31:34: Das heißt, das glaube ich, das unmittelbare Risiko.

00:31:38: Man sollte sich über die anderen CNA ja trotzdem Sorgen machen, aber ich glaube, das ist was

00:31:43: wir irgendwie regulieren und begrenzen müssen oder sehr gut beobachten müssen.

00:31:45: Und dann trotzdem ist es glaube ich so, dass man das alles nicht als Argument nutzen darf,

00:31:51: um jetzt AI zu sehr zu beschränken oder gar ab den Fortschritt abzuscheiden.

00:31:54: Es gibt ja so diese Acceleration und Desecleration Hypothese in USA, da gibt es Leute, die sagen,

00:31:59: wir müssen das viel langsamer angehen.

00:32:01: Und es gibt Leute, die, wir müssen das noch mehr beschleunigen, weil es so wichtig ist

00:32:06: für die Menschheit.

00:32:07: Und deren Hypothese und der Folge ist also der Acceleristen.

00:32:11: Ich glaube, ich würde jetzt kein Blinff sagen, wie ich sage, es geht immer um eine Abwägung

00:32:17: der verschiedenen Interessen und ihr idealerweise sozusagen Cover-All your bases.

00:32:20: Aber ich glaube, warum man es nicht de-de-de-celerieren darf oder überregulieren darf, ist, weil was

00:32:25: AI höchstwahrscheinlich oder schon jetzt leisten kann, ist also ein enormer Geschwindigkeitsgewinn

00:32:31: in der Wissenschaft.

00:32:32: Und vor allen Dingen verteilt ist Bildung, Wissen und medizinische Fähigkeiten viel gleicher

00:32:38: auf der Welt.

00:32:39: Also es kann einfach, wenn du überlegst, das Smartphone hat irgendwie drei Milliarden Menschen

00:32:43: auf der Welt zu theoretischen White-Color-Workern gemacht, weil sie auf einmal mit dem Internet

00:32:46: agieren können.

00:32:47: Sie können für Leute in anderen Ländern arbeiten.

00:32:49: Sie können auf Wissen zugreifen, was sie vorhin nicht hatten.

00:32:51: Und die gleichen Fähigkeiten oder noch mächtigere Fähigkeiten von AI können wir sozusagen an

00:32:58: Milliarden von Menschen auch distribuieren.

00:33:00: Das heißt, in irgendeinem Dorf in Südostasien oder Afrika oder Südamerika oder sonst wo

00:33:06: kann jemand quasi der vorher Medizin Mann war, kann jetzt Arzt werden oder Medizin Frau war.

00:33:10: Also kann der Arzt sein.

00:33:12: Jemand anders kann der Lehrer sein.

00:33:13: Das alles kann sozusagen mit AI-Unterstützung sofort lernen oder viel schneller lernen

00:33:16: als vorher.

00:33:17: Und die AI-Unterstützung noch viel besser machen als früher.

00:33:19: Jeder kann für sich einen eigenen Tutor haben oder einen Arzt in seiner Hosentasche.

00:33:23: Und sagen medizinische Bildung oder Bildung insgesamt war noch nie so gleich verteilt eigentlich.

00:33:29: Wie heute schon, es wird noch viel, viel stärker voranschreiten.

00:33:32: Und ich glaube, diesen Aufhol-Effekt darf man diesen Menschen auf keinen Fall wieder

00:33:37: nehmen.

00:33:38: Auch nicht aus Angst vor, durchaus erheblichen Risiken, die es sicherlich gibt.

00:33:43: Weil der Fortschritt, wie viele weniger Menschen heute schon sterben müssen durch die Anwendung

00:33:48: von der AI-Bifilm.

00:33:49: Aber wie ist das dann genau?

00:33:50: Also was macht dann die AI konkret?

00:33:53: Ich meine, ein Smartphone verstehe ich schon.

00:33:56: Aber da hätte man ja auch vorher dann einen YouTube-Video gucken können.

00:33:59: Das war jetzt nicht AI.

00:34:00: Wie man immer so etwas sieht.

00:34:01: fixt oder wie man irgendwas heilt oder behandelt oder so. Ein YouTube Video kann ja nicht den

00:34:04: Input bewerten, aber es gibt verschiedene Beispiele. Eines ist, es sterben ja irgendwie 10.000 Leute

00:34:11: jedes Jahr an Kunstfehlen zum Beispiel. Es gibt eine EI, die überwacht zum Beispiel OP-Sele,

00:34:15: ob alle Instrumente, die in den Patienten gewandert sind, auch wieder rausgewandert sind. So dass

00:34:18: keine Tupfer oder Scheren mehr im Bauch verblendet. Es passiert öfter als man denkt tatsächlich.

00:34:21: Aber es gibt eine EI, die zum Beispiel einfach schaut so, ist alles was ich gesehen habe, was

00:34:25: am Patienten benutzt wird, liegt das wieder auf dem Tablet. Das ist super einfach, gerettet aber

00:34:30: unheimlich viel Menschenleben. Du kannst zum anderen Standardprozeduren damit wahrscheinlich

00:34:34: gut überwachen oder Sicherheitsaspekte überwachen im OP. Dann es gibt dieses Match-Gemini-Modell

00:34:41: von Google, das quasi basiert auf dem Gemini-Modell, also Google's large language model, ist aber

00:34:45: trainiert auf unheimlich viel, sagen, Gesundheitsdaten und das erreicht jetzt eine sozusagen richtige

00:34:51: Antwortrate von 91,1%. Wenn das die letzten Daten sind, ich glaube es gibt es gar noch

00:34:57: aktuell, aber es ist mindestens bei 91%. Jetzt würdest du sagen, ich gehe ja nicht zum Arzt,

00:35:01: der nur 91% richtig liegt. Das Problem ist, dass menschliche Experten, also Fachärzte

00:35:06: bei 87% liegen. Das heißt, das Modell gibt jetzt bessere Antworten. Also man gibt dem

00:35:10: Röntgenbilder oder Aussagen des Patienten, also an einem Nese, was man den Patienten gefragt

00:35:14: hat und sagt, was ist das jetzt? Und das Modell sagt dann, das ist wahrscheinlich ein Non-Hodgkin

00:35:20: Lymphom, was der Patient hat und das sind die nächsten Schritte. Und dabei ist es besser

00:35:25: als menschliche Experten. So, und das könntest du theoretisch jemandem eben im Dschungel in

00:35:29: der Wüste oder sonstwo, wo man sich das vorstellt, wo es keine vernünftige medizinische Versorgung

00:35:34: im Moment gibt, zur Verfügung stellen und damit schon jetzt viele Menschen Leben retten.

00:35:39: Aber ich meine, also okay, das verstehe ich so, als die ganz basic Frage gibt es jetzt Krieg,

00:35:45: medizinische Versorgung, so versucht man zu bewerten, ob jetzt die Welt besser macht oder

00:35:50: nicht. Aber was ist denn sozusagen mit diesen epastrivialen Fragen, gibt es jetzt Protivitätszuwächse

00:35:56: versus hohe Arbeitslosigkeit? Ich glaube, da ist man immer gut beraten,

00:36:01: zu verstehen, dass die meisten Umbrüche sehr, sehr marginal passieren. Also wenn wir kennen

00:36:05: vielleicht aus den letzten 20 Jahren diesen Begriff des Mobile-Shifts noch, da wurden uns

00:36:09: immer erzählt durch Handys, sind irgendwie alle Webseiten mobile morgen oder jeder macht

00:36:12: nur noch Apps, sondern hat es am Ende 20 Jahre gedauert, bis ich das nach und nach so jedes

00:36:15: Jahr gab es irgendwie 1,5 Prozent mehr Mobile-Anteil am Webtraffic, trotzdem haben alle mal vom

00:36:21: großen Schiff geredet, aber es war ein sehr, sehr allmählicher Übergang, der bis heute

00:36:24: andauert. Und ich glaube, ähnlich wird die Adoption von AI auch laufen, also das Leute

00:36:31: ist relativ allmählich nutzen. Es sei denn es gelingt für ein guter, sagen, bestehende

00:36:37: Workflows mit einzuerbeiten, sodass Menschen gar nicht merken, dass die AI nutzen. Also

00:36:40: das ist gar nicht mehr aktive Arbeit von jemandem, der sagt, ich möchte das mit AI lösen,

00:36:45: sondern dass quasi in die Workflows, in dem Microsoft Word oder in dem Excel oder in

00:36:49: dem E-Mail-Programm oder in dem SAP-Programm eigentlich überall automatisch schon so ein

00:36:54: Art Vorschlagswesen aus AI eingebaut wird. Ich glaube, damit kannst du das alles beschleunigen,

00:37:00: aber trotzdem wird das alles natürlich viel gratueller passieren. Also es ist nicht so,

00:37:03: dass wir bis 2026 jetzt irgendwie 3 Trillionen zusätzliche Wirtschaftsleistung dadurch haben,

00:37:09: das glaube ich ehrlich gesagt nicht. Aber ich glaube, dass wir es graduell immer mehr

00:37:15: Produktivität schaffen wird. Was da wirklich von mir jetzt ernst zu nehmende, bekannte

00:37:19: Freunde sagen, also das ist ein riesen Problem, was sollen die Leute alle machen? Wir werden

00:37:23: demnächst da stehen und es wird ganz viele Leute geben, die keinen Job haben und das

00:37:26: wir dann zu sozialen Unfrieden führen, weil die AI einfach alles macht und niemand mehr

00:37:34: braucht. Ja, also ich glaube, es gibt so gesamtgesellschaftlich,

00:37:39: es ist kein so großes Problem, einfach falls sehr graduell passiert, aber es gibt glaube

00:37:43: ich Berufsgruppen, ich glaube Call Center Agent oder der First Level Support. Ist ein gutes

00:37:48: Beispiel oder sowas wie vielleicht Debitorenbuchhaltung oder so, wenn du einfach nur wirklich Rechnung

00:37:53: gehabt hast. Die Übersetzung, genau, absolut, wenn du überlegst früher bei so einer UN-Konferenz,

00:37:58: da setzt du irgendwie, vielleicht bei der UN-Konferenz, macht man vielleicht weiterhin das mit Menschen,

00:38:01: aber so bei, sagen wir mal, bei eurer Konferenz, glaube ich, übersetzt dir die große Bühne auch.

00:38:05: So weiß nicht, ob man sich den Menschen in Zukunft noch leisten muss oder ob das nicht

00:38:11: eine AI besser kann. Es gibt ja ganze Wettungsbüro und so was.

00:38:17: Genau, zum Beispiel auch da gerade so rechtliche Texte müssen ja oft für irgendwelche Aposteln

00:38:22: oder so übersetzt werden, das kann eine AI wahrscheinlich zuverlässiger und besser und

00:38:27: vor allem viel schneller. Also gibt es das der AI irgendwie eingescanned oder als EV

00:38:32: auf der Marte, dann kommt es drei Sekunden später vollkommen übersetzt wieder. Wenn

00:38:35: es zum Übersetzungsbüro gibt, ist Christus eine halbe Woche später wieder.

00:38:37: Wahnsinn, also nutzen wir im Büro ab und zu, das ist auch super einfach, einfach kurz reinwerfen,

00:38:43: ein Text und zack ist er fertig.

00:38:45: Das heißt, ich glaube, einzelne Berufsgruppen wird das sehr stark und sehr unmittelbar betreffen,

00:38:50: aber so dass es zu gesellschaftlichen Verwerfungen kommen, weil jetzt die Leute auf der Straße

00:38:52: geht, weil sie die Jobs verlieren, die Leute, die die Jobs verlieren, sind ja White-Colour-Worker.

00:38:58: Das heißt, man kann davon ausgehen, dass man die vielleicht auch wahrscheinlich ganz gut

00:39:02: umschulen kann. Kann man bei Blue-Colour-Worker natürlich auch, aber ich glaube, dass es da

00:39:06: vielleicht noch ein bisschen einfacher sein wird, die auch neuen Aufgabengebieten zuzuführen.

00:39:11: Also der Mensch, der früher vielleicht Übersetzerin geworden wäre, der bitte zum Zauber YouTube

00:39:17: Creator.

00:39:18: Ja, das ist so das Klischee. Das liegt natürlich nicht jedem und vielleicht sind Übersetzer

00:39:24: sogar introvertierte Leute.

00:39:26: Also ja, war das keine gestiegene Arbeitslosenquote dadurch?

00:39:31: Nein, eigentlich sollte, wenn die Gesamtproduktivität ansteigt, dadurch, dann sollte das Wirtschaftswachstum,

00:39:38: was dadurch ausgelöst, wird eigentlich eher sozusagen noch mehr Jobs kreieren, mehr Wachstum,

00:39:43: mehr Wohlstand oder auch damit mehr Jobs kreieren. Das hat man bei allen anderen technologischen

00:39:48: Innovationen ja auch gesehen, so wenn das die Dampfmaschinen oder Autor anschares.

00:39:52: Das Auto ist übrigens das Bett noch ein noch bessere Beispiel als das mit dem Dreijährigen.

00:39:56: Das erste Auto hatte irgendwie 0,75 PS, ist irgendwie 16 km/h gefahren und hat dabei noch

00:40:03: 15 Liter gebraucht oder so, so ein Daimler Motorenwagen oder so.

00:40:06: Wenn du überlegst, heute fährt das Ding halt, hat das 420 PS irgendwie, kann 350 km/h fahren,

00:40:11: wenn du willst, so als V1-Auto und verbraucht dabei noch weniger eventuell.

00:40:16: Und wir beurteilen das sehr so, diese ganze Technologie beurteilen wir sehr so auf dem

00:40:21: Level des ersten Motorenwagens von irgendwie 1994, 1999 oder wann ja gebaut wurde.

00:40:25: Aber es ist trotzdem eine sehr aber alslosen Frage, zum Beispiel geht ja seit jetzt auch

00:40:29: Jahren irgendwie immer um und die Frage ist, kommt das wirklich?

00:40:33: Und ich war wirklich vor kurzem überrascht als mir jemanden, den ich 5 vernünftigen

00:40:36: Typen halte, gesagt habe, also da macht er sich Sorgen.

00:40:39: Okay, okay, aber du zumindest nicht und sagst irgendwie, nee, das ist graduell die Umschulung,

00:40:45: es gibt ja eh genug offene Stellen und Leute, die dann was anderes machen würden und auch

00:40:50: gebraucht werden.

00:40:51: Ja, also aus dem Marketing kommt es immer super wichtig, wenn man sich so darstellt,

00:40:55: wie man die Daten anschaut, die so zu slicing und zu dicing.

00:40:58: Und deswegen, es gibt Jobs, die werden ganz wenig davon betroffen sein lange Zeit und

00:41:02: wo es super langsam geht und dann gibt's Jobs, die irgendwie gesagt Callsetter Agent oder

00:41:05: Übersetzer, da kann es halt sehr schnell sein, dass wahrscheinlich die Hälfte der Jobs

00:41:09: wegfallen, auch innerhalb von wenigen Jahren.

00:41:11: So, und beide ist richtig, aber der Gesamteffekt auf Arbeitsplätze ist glaube ich relativ allmählich.

00:41:18: Einfach weil die Adoption gar nicht so schnell funktioniert.

00:41:20: Das sieht man ja jetzt auch, dass eben EI nicht so schnell angewendet wird, wie wir uns einmal

00:41:25: vorgestellt haben.

00:41:26: Okay, also dann nächste Storyline, Deutschland oder Europa.

00:41:30: Was ist da unsere Rolle Europas?

00:41:35: Wird er irgendwo anders stattfinden?

00:41:38: Wir sind einfach nur die Nutzer des Ganzen oder können wir da selber mitspielen in irgendeiner

00:41:43: Form?

00:41:44: Also auch da Licht und Schatten, würde ich sagen.

00:41:46: Der Schatten ist sicherlich einerseits, dass ich herausstelle, dass diese Technologie

00:41:51: super kapitalintensiv ist.

00:41:52: Also es ist nicht was, was man einfach nur mit den schlausten Köpfen machen kann, sondern

00:41:55: man braucht einfach Rechenzeit und Rechenzeit generiert man mit Chips und dafür braucht

00:41:59: man Geld.

00:42:00: Also man kann die Rechenzeit mieten oder man kann sich Chips kaufen und sie selber sozusagen

00:42:02: produzieren die Rechenzeit, aber so oder so braucht man Milliarden in Zukunft um konkurrenzfähige

00:42:08: Modelle zu trainieren.

00:42:09: Das heißt, das kannst du nicht mal aus der Garage bauen, das nächste große EI-Star-Lub,

00:42:14: glaube ich.

00:42:15: Und das ist für Europa tendenziell immer erst mal Nachteil, weil wir sagen weniger Zugang

00:42:19: zu Wagniskapital haben, weil wir sagen weniger Wagnisse uns leisten, weil die Menschen, die

00:42:25: das meiste Geld haben, noch nicht viel in Wagniskapital investieren.

00:42:28: Das ist ein strategischer Nachteil.

00:42:30: Die Regulierung macht es gerade schwerer, glaube ich, in Europa.

00:42:35: Klar ist EI was, was reguliert werden muss.

00:42:37: Also gerade da, wo es konkrete Risiken gibt, sollte man die Risiken regulieren.

00:42:41: Ob man jetzt so preemptiv vorauseilend das so stark regulieren sollte, bin ich es skeptisch.

00:42:46: Gab es erscheint heute oder gestern in der Boards The Journal so ein Op-Ed von Marc Sackabürg

00:42:51: und Daniel Ick, dem Spotify-Chef, die sich sehr stark aussprechen für weniger Regulierung,

00:42:57: gerade für Open-Source-Modelle in Europa, weil das wahrscheinlich der Innovation nicht

00:43:02: zu zuträglich ist, einfach weil Firmen im Zeifel vielleicht woanders anfangen.

00:43:06: Ein gutes Beispiel, zum Beispiel Black Forest Labs, da gab es…

00:43:10: Deutsche KI-Firmen, das ist für einen großen Vannier gekommen, ne?

00:43:12: Gab es letzte Woche oder in den letzten Wochen News, dass sie ein sehr, sehr konkurrenzfähiges

00:43:18: Bildgebungs-Programm entwickelt haben, Flux 1 heißt das.

00:43:23: Das schlägt mit Journey und Dali von OpenAI quasi die erste Version von einem gefühlten

00:43:30: Hinterhof-Labor, würde man denken.

00:43:32: Like First Lab und Freiburg und Breisgau, genau.

00:43:35: Und das schlägt aus dem Stand dieser Modelle.

00:43:38: Das ist verwunderlich, das zeigt wieder, wie wichtig Köpfe dann doch sind andererseits.

00:43:42: Also das tut mir wirklich gut ein Team.

00:43:43: Die haben vorher, muss man sagen, bei Mid Journey und bei Stable Diffusion, also bei

00:43:47: Bild und Video, AI-Modellen schon gearbeitet, also hatten die Erfahrungen, die es braucht,

00:43:52: genau.

00:43:53: Und ich habe auch das Gefühl, dass diese, also gleichzeitig wurde eine Runde announced,

00:43:57: dass sie, glaube ich, 31 Millionen US-Dollar von den Dreeson und so weiter Kursler bekommen

00:44:01: haben.

00:44:02: Um dieses Modell zu trainieren, müssen sie das Geld… hatten sie wahrscheinlich schon

00:44:05: vor Erzugang zu diesem Geld ansonsten, glaube ich, wahrscheinlich habe sie die Runde jetzt

00:44:08: etwas später angekündigt.

00:44:09: Aber die Firma ist jetzt in Delaware registriert.

00:44:13: Ich habe gestern auf die Webseite geschaut aus Interesse, weil ich mal schauen wollte,

00:44:18: wer da noch so Shareholder war.

00:44:19: Also weil ich mich vor allem gefragt habe, mit welchem Geld haben sie dieses Modell gebaut,

00:44:22: wenn sie angeblich da erst die Runde announced haben.

00:44:24: Aber das kann ich nicht rausgehen, weil es in Delaware sitzt.

00:44:28: Die Firma, das heißt Proformer, wir können auch sagen, das sind deutsche Entwickler oder

00:44:31: so.

00:44:32: Sie sitzen mit ihrer Firma oder ihre Leute sitzen in Freiburg, aber die Firma ist eine

00:44:38: Delaware Co., wenn ich es richtig gesehen habe.

00:44:41: Aber erst mal irgendwie fast egal ist, oder?

00:44:44: So lange die Leute hier sitzen, hier ihre Steuern zahlen, ist das erstmal für uns egal, wo

00:44:50: die Firma registriert ist.

00:44:51: Genau, die Frage ist, wo der Umsatz am Ende verbucht wird und wo die Arbeitsplätze geschaffen

00:44:53: werden.

00:44:54: Ich sehe das jetzt erst mal trotzdem als deutsche Firma.

00:44:58: Schon.

00:44:59: Was schade ist, dass die jetzt ausgerechnet mit XAI, also Elon Musk's AI Firma, kooperieren

00:45:06: und so ein bisschen das zügelose Bildgebungsmodell macht.

00:45:09: Das heißt, du kannst Dinge, die in allen anderen Modellen abgefangen werden.

00:45:13: Also, Generee, wir haben mal ein Bild von Donald Trump in einem 9/11 Flieger, der auf die Twin

00:45:19: Towers zu reißt oder Ronald McDonald mit einer Assault Rifle, also Sturmgewehr.

00:45:24: Also, was geht auf einmal?

00:45:26: Auch Copyrighted Material.

00:45:27: Also, ich kann irgendwie Star Wars Charaktere und so was nachbauen.

00:45:31: Und ich glaube, also, es passt natürlich sehr gut zu der Free Speech-Logik von Elon Musk,

00:45:36: dass man einfach alles machen kann mit dem Modell.

00:45:38: Es baut aber natürlich auch vielfältige Möglichkeiten für Desinformation.

00:45:42: Kannst du halt wieder so Fake Verhaftungen bauen und irgendwie versuchen, Bürgerkriege

00:45:46: anzuzetteln damit und spätestens bei den Copyrights, glaub ich.

00:45:51: Ausgrenen und Löschern.

00:45:52: Hier alles irgendwie, sagen wir mal, sauber reglementiert und ganz viel draufpropfen

00:45:57: am Ende auf Bürokratie.

00:45:59: Ausgrenen, da kommt in so eine Firma, die das dann alles umgeht.

00:46:01: Ist irgendwie auch schon frumisch.

00:46:02: Genau.

00:46:03: Aber es ist auf jeden Fall beeindruckend, dass es wieder beweisen hat.

00:46:06: Ich glaube, misstral beweist das auch sehr gut aus Frankreich, dass sie wirklich sehr

00:46:09: gute Open Source-Modelle bauen, die absolute State of the Art sind jedes Mal, wenn sie rauskommen.

00:46:14: Black Forest Labs hat es jetzt so bei Bildgebung bewiesen.

00:46:17: Das ist ein vollkommen neues Team.

00:46:19: Mit Erfahrung, aber ein neues Firma, ein neues Modell kann sowas mit überschaubareren Mitteln

00:46:25: schaffen.

00:46:26: Ich glaube, Aleph Alfa, ehrlich gesagt, was der lange so die deutsche KI-Offenung über

00:46:30: halte ich für relativ abgehängt.

00:46:32: Ich glaube, es wird am Ende eher so ein Exzenscher für die Implementierung von EI in Behörden

00:46:39: und so werden.

00:46:40: Also, dass die andere Modelle vielleicht auch ihr eigenes Modell, was mal noch nicht

00:46:44: konkurrenzfähig ist, wenn auch ein, was ich höre, an die Bedürfnisse von Behörden oder

00:46:50: Mittelständlern anpassen.

00:46:52: Also ein ganz sicheres belastbares, also Behörden brauchen ja auch dann ja auch.

00:46:56: Auch das ist wichtig.

00:46:57: Ich will eben gar nicht den Wert absprechen so.

00:46:59: Aber es ist eben dann näher dann sozusagen einer Implementierungsagentur, glaube ich,

00:47:04: als an echter Forschung.

00:47:06: Also pro forma betonen Sie immer, dass Sie noch weiter forschen und ein dediziertes

00:47:09: Forschungsbudget haben.

00:47:10: Aber ich glaube, im Rennen um, sagen, State of the Art oder führende Modelle haben Sie

00:47:15: eigentlich aufgehend.

00:47:16: Und auch im Rahmen dieser Finanzierungsrunde, die es da gab, haben Sie jetzt schon rausgestellt,

00:47:23: dass es ein paar Einschränkungen gab.

00:47:24: Also das 300 Millionen von den 500 Millionen, die es damals geben sollte, quasi in so einem

00:47:30: Vehikel sind, was tatsächlich von Lilo in Schwarz kontrolliert wird über verschiedene

00:47:33: Stiftungen und Gemeinnütze gegeben hat.

00:47:34: War eine große Diskussion vor einigen Wochen, ich glaube, im Manager Magazin bei euch auch,

00:47:37: in verschiedenen Orten wurde darüber gesprochen, ob die Finanzierung kleiner ist als angekündigt.

00:47:42: Am Ende ist es auch kein Verbrechen, da irgendwie mehr anzukündigen, als man am Ende bekommen

00:47:46: hat oder es hat keiner gezogen überhaupt anzukündigen.

00:47:49: Also da, ich fand die Diskussion interessant, aber es hat da so die Firma in so ein sehr

00:47:56: spezielles Licht gerückt, als wenn die was falsch waren würden.

00:47:58: Ich fand das jetzt nicht so schlimm.

00:48:00: Marketing versucht in der Welt auch irgendwie jeder.

00:48:02: Aber natürlich, wenn man sich auf die absoluten Summen guckt, einfach weniger Geld da.

00:48:07: Und das ist jetzt die ganze Diskussion, ob jetzt die Presse mit einem recht rechtmäßig

00:48:12: war oder ehrlich war.

00:48:15: Wenn man guckt, was dabei open AI für Summen reinfließen und dann kommt man hier nicht

00:48:21: auf die selben Summen.

00:48:22: Aber es ist auch schon am Ende wirklich so ein Money Game.

00:48:25: Also wenn die das Geld nicht haben, das kann man nicht auch so, du kannst das fehlende

00:48:29: Geld nicht ausdrecks nicht umgehen.

00:48:30: Es ist am Ende nicht so, dass man feststellen wird, es hat sogar geholfen wegen der Geld

00:48:34: zu haben.

00:48:35: Es hat auch auch mit anderen Ideen zu entwickeln.

00:48:38: Es hat viel besser geklappt.

00:48:39: Das siehst du nicht.

00:48:41: Wie du sagst, es ist ein Money Game.

00:48:44: Also open AI verbrennt immer noch oder in den Anfangsstrichen verbrennt.

00:48:47: Die Kosten übersteigen den Umsatz immer noch um 5 Milliarden West or Leibn, jedes Jahr.

00:48:52: Also du kannst sagen 500 Millionen oder 480 Millionen im Monat bringen die quasi durch.

00:48:58: Jeden Tag 12 Millionen.

00:48:59: Aber es muss doch sein.

00:49:00: Um erfolgreich zu sein, muss es sein.

00:49:02: Das kann ja ein Weg sein, aber ich meine der Herr Wirt oder der Herr Schwarz, die ihr da

00:49:06: irgendwie sozusagen unsere Bootstrapped Ansätze ganz lebendig verfolgt haben, sehr erfolgreich.

00:49:12: Die werden sagen, Gottes Willen, kein Geschäft kann niemals so erfolgreich werden.

00:49:15: Das geht glaube ich nicht.

00:49:16: Es ist eine kapitalintensive Technologie.

00:49:18: Und das liegt ein bisschen daran, dass man eben gar nicht so use case basiert arbeitet.

00:49:23: Eben nicht an konkreten Lösungen, die jetzt morgen Geld generieren, sondern diese Entwicklung

00:49:27: von Foundation Models oder large language Models ist halt schon noch so eine Art General

00:49:32: Purpose Grundlagen Technologie, was normalerweise an Universitäten oder mit Staatsmitteln geforscht

00:49:37: wird.

00:49:38: Und deswegen ist es halt einfach super kapitalintensiv und hat oft keine direkten Rückflüsse.

00:49:44: Man kann die Errungenschaften dann irgendwie per API Unternehmen zur Verfügung stehen und

00:49:49: dafür auch Geld nehmen offenbar und kann damit Rechenzentren gut auslasten und damit Geld

00:49:53: verdienen wie Microsoft und Amazon und Google das tun.

00:49:56: Aber es braucht erhebliche Investitionen, wo lange Zeit unklar ist, ob sie jemals Rückflüsse

00:50:05: dazu geben wird.

00:50:06: Aber ist es dann wirklich nötig, der auch dann first move-out sein oder kann man nicht

00:50:10: abwarten, was da jetzt OpenAI so alles rausfindet, die Verbrenne eine wahnsinnig coole, die

00:50:14: ganzen Serverleistungen, die dafür nötig sind, die sind ja auch Sancos, die sind ja nicht

00:50:21: so, dass die dann irgendwie jetzt mobilen hinstellen, die dann in Zukunft da sind.

00:50:25: Die sind einfach durchgerauscht und weg und man hat dann aber trotzdem Learnings und

00:50:28: diese Learnings können andere später sozusagen auch übernehmen, ohne diese riesigen Anlaufkosten

00:50:33: zu haben.

00:50:34: Weil ich erkläre, ich kenne nicht, dass man durch die Anlaufkosten, also es vor allen

00:50:37: Dingen Serverleistung ein Mode erschafft, dass das halt irgendwie, sagen wir mal bei Immobilien

00:50:44: versteht, dass man sagt, wir bauen jetzt hier seit Jahren riesige Häuser und deswegen können

00:50:48: jetzt hier viel mehr Menschen, wo das so anders und das kann man nicht mehr aufholen.

00:50:51: Okay, aber Serverleistung ist ja weg.

00:50:54: Genau, man könnte differenzieren sozusagen, die Server stehen noch da, aber das, dass

00:50:58: man an OPEX oder sagen Betriebskosten reingesteckt hat, das ist auf jeden Fall weg und ist dann

00:51:02: auch wertlos, wenn das nächste Modell gebaut wird.

00:51:04: Ist das alles Untergang des Gelds?

00:51:05: Genau, aber man braucht einfach diese Phase überhaupt.

00:51:08: Genau, und du baust gar nicht so sehr auf die vorherigen Models auf, sondern eigentlich

00:51:12: fängst du jedes Mal so ein bisschen von alleine, also na klar, lernst du aus der Vergangenheit,

00:51:16: aber sagen du, du baust jedes Mal so ein bisschen von Null an.

00:51:18: Plus, es gibt immer die Gefahr, dass noch mal eine ganz neue Technologie, wie diese Mamba-Modelle

00:51:22: oder andere kommen und vielleicht kriegt damit jemand vom Start weg nochmal deutlich bessere

00:51:26: Ergebnisse her oder schafft es dieses Reasoning hinzubekommen, also dass die Modelle scheinbar

00:51:30: so denken können, wie ein Mensch oder Schlussfolgeung treffen und dann kannst du die ganzen LLMs

00:51:35: von heute auf morgen wegschmeißen, theoretisch, wenn das jemand schafft.

00:51:37: Das heißt, ich würde sagen, auch da würde ich wieder ins Szenario denken.

00:51:41: Es gibt ein Szenario, wo wir nichts Besseres finden als LLMs für eine gewisse Zeit, dann

00:51:45: ist glaube ich das Scaling über LLMs weiterhin sehr erfolgreich und dann werden die bisherigen

00:51:49: Player, die jetzt schon weit voran gekommen sind, wahrscheinlich so im Driver-Seat bleiben.

00:51:54: Es gibt aber durchaus ein Risiko dafür, dass eben eine neue Technologie entdeckt wird,

00:51:58: so wie die Transformer 2017 erst sagen, erfunden wurden.

00:52:00: Und wenn damit dann jemand bessere Ergebnisse erreicht, müssen alle anderen sich umstellen

00:52:06: und fangen bei Null an wirklich.

00:52:07: Die haben dann vielleicht trotzdem mehr Geld und mehr Personal und das hilft die natürlich

00:52:11: schon, aber deine These ist schon richtig.

00:52:13: So ein bisschen, also ich finde es vollkommen unklar heute zu sagen, wer da dieses Rennen

00:52:18: gewinnt.

00:52:19: Also auch in Alfalfa könnte jetzt allen, sagen wir mal, Diskussionen zum Trotz dann auch

00:52:25: durchkommen.

00:52:26: Ich hielt das fair.

00:52:27: Also in Szenarien sprechen, hielt ich das für ein eher unwahrscheinlich Szenario, einfach

00:52:30: sagen, weil Geld wahrscheinlich Personal fehlt.

00:52:33: Ich glaube, es gibt viel Personalfluxation auch bei Alfalfa.

00:52:36: Das heißt, das hilft natürlich alles nicht, weil am Ende braucht es schon noch Geld und

00:52:39: das beste Personal.

00:52:40: Aber die Summen, die man braucht, um Personal einzukaufen, sind ja viel geringer als jetzt

00:52:47: die Summen, die da eine Rolle spielen.

00:52:49: Also das ist ja eher Geld, das man braucht, um in Server zu stecken.

00:52:53: Die Rechenleistung ist wahrscheinlich so 80 Prozent der gesamten Kosten.

00:52:55: Genau, genau.

00:52:56: Und die haben wir jetzt ja, wie man es auch drehen und wenn ein paar Hundert Millionen

00:52:59: sind da ja schon unterwegs und damit kann man ja schon ein paar ganz gute Leute heranholen.

00:53:03: Serverfrage ist halt...

00:53:05: Also rein theoretisch, wenn ihr so ein Durchbruch gelingt, also ein komplett neues Modell und

00:53:12: Verfahren entwickeln, dann wäre das möglicher.

00:53:15: Ansonsten viel mehr aus Deutschland haben wir noch nicht so gehört oder aus Europa auch

00:53:18: nicht.

00:53:19: Wie gesagt, mit Stral aus Frankreich, das glaube ich sehr erfolgreich, auch deutlich

00:53:24: besser als gedacht hätte.

00:53:25: Aber ansonsten ist an Foundation Models, jetzt gibt es glaube ich nicht so viele, die

00:53:32: wirklich State of the Arts sind, also irgendwie den Top 10 in den Vergleichs, Benchmarks mitspielen.

00:53:37: Auf der anderen Seite, also die SAPs und so, die es ja hier auch gibt, die bauen jetzt überall

00:53:41: alle, dann AI in ihre bestehenden Dienste ein.

00:53:45: Das ist ja schon dann irgendwie auch da und ich würde auch sagen, wenn man das so hört,

00:53:49: was die so kommunizieren, auch vielleicht ein Denken gemacht.

00:53:52: Genau.

00:53:53: Also ich glaube, jede große Software-Campagne, die irgendwie mehr als 10 Milliarden Umsatz

00:53:57: macht wird, wie gesagt, ich glaube, das Software und AI nicht mehr zu trennen.

00:54:02: Heute reden wir so über Software ohne AI und Software mit AI oder über AI.

00:54:05: So wie es mit Marketing und Online Marketing.

00:54:08: Ja, so ein bisschen, oder?

00:54:10: Ja, ich glaube in 10 Jahren wird man selbstverständlich davon ausgehen, dass Software immer etwas Maschinenlearning

00:54:16: zumindest beinhaltet.

00:54:17: Letzte Storyline, so Inhalte und Content.

00:54:22: Ist es so, dass wir demnächst alle, wie das in Hollywood manche befürchten, so Filme

00:54:26: gucken, die komplett von irgendwelchen AI's sich ausgedacht wurden, hören wir Musik,

00:54:32: die irgendwie gar nicht mehr Menschen gemacht haben, sondern die ein AI gemacht hat, konsumieren

00:54:38: wir Medien durch Perplexity, die dann aus anderen Medien vielleicht was Sammeln ziehen,

00:54:42: sagen wir so ein paar Worte zu diesem ganz großen Thema.

00:54:45: Also ich glaube auch das graduell stimmt das schon.

00:54:48: Also es gibt jetzt, ich glaube in Deutschland gibt es gerade einen, den ersten AI-Titel,

00:54:51: der in die Top 10 eingezogen ist, von Budapro, glaube ich.

00:54:56: Ich glaube, dass Filme unterstützt werden auf jeden Fall mit AI.

00:54:59: Das passiert sicherlich schon jetzt.

00:55:01: Also das irgendwie große Schlacht-Szenen oder so, wie man die aus Herder Ringe kennt,

00:55:06: oder irgendwie am Computer selber renderst, das macht keinen Sinn.

00:55:08: Sondern du sagst halt, du kannst dann generative AI sagen, stellen wir 5.000 Orks in, dann

00:55:12: ist das irgendwie in 14 Sekunden da und da haben früher wahrscheinlich richtig viele

00:55:16: Leute dran gearbeitet, so eine große Schlacht zu animieren.

00:55:19: Das heißt, da wird auf jeden Fall, ich glaube, da hast du die Produktivitätsfortschritte

00:55:24: schon jetzt, dass jetzt die gesamte Storyline für ein Film AI entwickelt wird, dass du

00:55:29: als Autopilot läuft.

00:55:30: Ich kann mir vorstellen, dass es so eine Art Bee Movie Genre geben wird, sagen wir, wo

00:55:34: wir wirklich so ein bisschen trashiger sind und vielleicht gibt es dafür eben Markt,

00:55:38: dass Leute es besonders cool finden, weil es eben komplette AI generiert ist.

00:55:41: Ich glaube, die aufwendigen großen Produktionen und Sequels, also die großen Franchises,

00:55:45: wo du quasi IP hinter hast, also die großen Marken, wenn du das möchtest, Marvel und

00:55:50: so, die werden sicherlich unterstützt werden durch AI, aber die werden jetzt nicht komplett

00:55:52: von AI geführt werden.

00:55:54: Einfach weil die Markenführung auch so was ist, dass wie meine Charaktere über Jahrzehnte

00:55:57: entwickelt und so weiter, das überlässt man wahrscheinlich lieber Menschen.

00:56:01: Ich sehe bei Musik und Text, also geschriebenen Texts, News, glaube ich schon so eine Content-Inflation,

00:56:10: die kommen wird, dass es zunehmend schwerer wird zu unterscheiden, was ist eigentlich

00:56:14: so ein echter Content und was ist AI generiert, was die ganzen Neger jetzt im Vorfeld der US-Wahl

00:56:22: die ganzen Negativen Effekte von Fake News wieder haben, dadurch das unter anderem durch

00:56:26: so was wie Flux, das Flux-Modell von Black Forest Labs zu falscher Bilder erstellen kannst,

00:56:31: auch irgendwie falsche News generieren kannst, dass du Menschen massenhaft anschreiben kannst.

00:56:35: Es gab jetzt News, das in Twitter aber auch Meternetzwerken so riesige Kampagnen von

00:56:41: russischen Bots, russischen Anderländer, Iran und so weiter unterwegs sind, die quasi

00:56:46: per AI Menschen versuchen zu überzeugen von irgendwelchen falschen News und das auch

00:56:51: dazu führt, dass wir, also nicht nur dass wir die Falschen nicht erkennen können,

00:56:54: sondern wir misstrauen auch echten News.

00:56:56: Also wenn du dich an den Tag kennst, wo es einen Attentat von Donald Trump gab, da haben

00:57:02: wir viele Leute gemutmaßt, ist das überhaupt echt, so weil die Bilder eigentlich zu gut

00:57:05: umwahrt zu seinen Anführungsstrichen aushand, irgendwie wie also die Hand rausstreckt aus

00:57:09: zu meinem angeschossenen Ohr und Leute sagen, die eigentlich, die man eigentlich als Medienkompetent

00:57:15: einordnen würden, fragen sich so, wurde das nicht vielleicht mit AI gemacht, ist das

00:57:18: überhaupt echt und so weiter.

00:57:20: Also ich glaube, dass wir einen riesen Misstrauen gegenüber der Authentizität von so Content-Pieces

00:57:26: bekommen werden, sowohl was Video als auch was Bild, als auch was Audio angeht, glaube

00:57:30: ich.

00:57:31: Glaubst du, dass dieses Perplexity, was ja auch eine der, sagen wir, AI-Firmen ist, von

00:57:34: dem man sehr viel hört, dass die eine Rolle spielen werden in Zukunft?

00:57:37: Also was die machen ist ja am Ende jetzt schon die Suchen aus bestehenden Medien, inhaltete

00:57:46: zusammen und beantworten auch Fragen nach Nachrichten und nach irgendwelchen, ja, wirklich

00:57:53: Content-Inhalten und man so will eine Art von Neuart von Suchmaschine.

00:57:57: Ja, ich würde vermuten, dass Perplexity gute Retention-Werte hat, also dass Menschen,

00:58:02: die Anfang Perplexity zu nutzen, sagen wir mal, die es mehr als einen Tag genutzt haben,

00:58:08: dass die dann oft dabei bleiben, weil es, glaube ich, sehr überzeugend ist als Produkt, also

00:58:11: ich benutze es selber auch für Recherchen und damit greift es Google wahrscheinlich

00:58:17: im Nachkommensbereich irgendwie Marktanteil ab.

00:58:20: Aber einerseits kann ich sagen, ich halte das Produkt jetzt schon für deutlich besser

00:58:24: als Google tatsächlich, wenn es um Recherche geht und gleichzeitig bin ich mir 100% sicher,

00:58:29: dass sie in fünf Jahren niemals mehr als 10% Marktanteil im Suchmarkt haben werden.

00:58:34: Einfach weil...

00:58:35: Aber was, 10% wäre schon gigantisch?

00:58:36: Genau, das wären 20 Milliarden Umsatz im Jahr, das ist noch nicht von schlechten Eltern.

00:58:41: Aber diese Habits zu verändern, gerade für was, was so ein Begriff geworden ist wie Google,

00:58:46: was in den Betriebssystemen teilweise und den Browsern auch so tief verankert ist, dass

00:58:49: es gar nicht so einfach ist.

00:58:50: Also man muss erstmal aktiv jedes Mal per Plexity aufrufen, wenn man was recherchieren

00:58:55: will und so weiter.

00:58:56: Das heißt, es ist gar nicht so einfach diese Habits zu brechen, weil Google seinen Monopol

00:59:00: einfach auch sehr stark befestigt hat.

00:59:02: Deswegen glaube ich, es wird langsam, also wird es ja allmählich gehen auch dort.

00:59:06: Ich bin mir auch relativ sicher, dass per Plexity eine der Firmen sein wird, die in fünf bis

00:59:12: zehn Jahren noch da ist.

00:59:13: Ist das gut für Medienverlage, Medienhäuser, die jetzt jetzt schon so Deal zu machen, ich

00:59:19: habe ja mit dem Rainer Esser von der Zeit drüber gesprochen, vor Kurzem oder auch auf

00:59:23: the Record mit Leuten hier aus dem Spiegelverlag, glaube ich.

00:59:25: Die haben es alle im Blick und sind alle dabei so zu überlegen, geben sich Inhalte da rein,

00:59:31: machen sie denselben Fehler wie vor Jahren mit Google oder wie geht man damit um, was

00:59:35: wird es denn fehlen?

00:59:36: Ich glaube, man muss sich halt auf Inhalte fokussieren, die man nicht mit einem Paragraf

00:59:42: zusammenfassen kann.

00:59:44: Also wo irgendwie Meinung drin vorkommt.

00:59:46: Wenn natürlich irgendwie nur eine, also was das man typischerweise recherchiert, irgendein

00:59:51: Fakt oder so, der Traffic wird wahrscheinlich weggehen.

00:59:54: Der geht aber auch mit, der wäre auch mit Google weggegangen.

00:59:56: Also auch Google fasst ja Content schon zusammen und zieht ihn sozusagen ins eigene Produkt

01:00:00: rein.

01:00:01: Das ist so ein gesießter Tag in der Suche, obendraüber muss keiner auf die Seite gehen.

01:00:04: Genau, genau.

01:00:05: Also das wird sich weiter verschärfen und sagen Content, der einfach nur eine Frage

01:00:08: beantwortet, sagen, ein Faktum zurückgibt, der hat glaube ich eh keine Zukunft, dass

01:00:13: man da noch viele Besucher drauf erwartet.

01:00:15: Ich glaube schon, dass ein guter Journalismus vernünftige Hintergrundartikel, investigative

01:00:21: Recherchen und so weiter, Meinungspieces, dass die schon auch weiterhin eine Chance haben.

01:00:28: Okay, das heißt, Publicity, die jetzt machen, irgendwie gucken, was es denn man denen gibt,

01:00:34: bisschen abschätzen, was die leisten können, was nicht, aber die werden jetzt den Verlage

01:00:40: nicht noch mehr Geld wegnehmen.

01:00:42: Ich glaube, dass Verlage weiterhin sozusagen mit Rückgehenden umsetzen zu kämpfen haben.

01:00:48: Auch aufgrund von Google als von Publicity, weil ich sage, Publicity ist ja relativ klein,

01:00:55: so dass Cloud, ich glaube nicht, dass das spürbar ist für einen Verlag, was Publicity

01:00:59: jetzt wegnimmt.

01:01:00: Genau, genau.

01:01:01: Aber allein, dass was Google jedes Jahr mehr wegnimmt quasi, dadurch, dass sie immer weniger

01:01:05: Menschen verweisen an die Zielseiten, ich glaube, das ist viel spürbarer und deswegen

01:01:10: glaube ich, dass sie netto die Verlage weiterhin so ein rückgängiger Einnahmen haben werden.

01:01:15: Übrigens haben wir gerade Deep-L vergessen.

01:01:17: Habe ich im nächsten Podcast Aufnahme, also aus Deutschland kommt auch eine Firma, die

01:01:22: jetzt im AI Space schon mal ganz gut unterwegs ist.

01:01:25: Genau, und nach allem, was man weiß, ist so ein relativ führend wirklich im Übersetzungsbereich.

01:01:29: Gefahr ist da natürlich so ein bisschen, dass es komotetized wird und sozusagen ein Standardfeature

01:01:34: von jedem large language Modell wird, weil die einigermaßen gut übersetzen können in

01:01:38: der Regel.

01:01:39: Aber sie haben natürlich einen Vorteil, wenn sie einen sehr stark hochspezialisierten

01:01:43: Use Case haben und dann vielleicht auch klare Industrien an die sie sich richten, irgendwie

01:01:48: Verträge übersetzen oder juristische Schriften.

01:01:50: Und zumindest gelten sie so als einer der ja schon global relevantesten Player in dem

01:01:55: Feld?

01:01:56: Absolut, ja.

01:01:57: Habe ich sie noch, wie lange, 15 Jahre unterwegs oder so, glaube ich, eine relativ alte Firma,

01:02:01: die sozusagen lange vor den Transformatorenmodellen schon mit Machine Learning Übersetzungen gemacht

01:02:06: hat, wenn ich richtig liege.

01:02:07: Ja.

01:02:08: Okay, okay, also mir fallen keine weiteren Storylines.

01:02:12: Ich habe alle Storylines, die mir so im Kopf waren, mich dich jetzt irgendwie nachgefragt

01:02:16: oder haben ich einfach versucht mit dir durchzukauen.

01:02:18: Sind bei dir noch Sachen, die du besonders spannend findest, du dir gerne verfolgest,

01:02:23: was du das wünschst, das ist so wie eine Entwicklung, die man sollte mal im Blick haben, so eine

01:02:28: Storyline, die mir fehlt?

01:02:30: Ja, ich glaube, das waren schon die wichtigsten.

01:02:33: Ich finde, wie ich im OMR-Vortrag auch schon gesagt habe, so die Beschleunigung der Wissenschaftler.

01:02:38: Das ist schon mal wichtig.

01:02:39: Also bisher, wir Wissenschaftler so ein bisschen wie die Suche nach der Nadel im Heuhaufen

01:02:44: betreiben und dass man viel intellektuelle Vorarbeit tatsächlich machen lassen kann

01:02:49: von Foundation Models.

01:02:52: Also es gibt Beispiele so aus Google Deep Mind, die mit diesen Proteinstrukturen, die man besser

01:02:57: vorberechnen kann, das irgendwie neue Kristalline, ich glaube, das haben wir letztens mal beim

01:03:02: letzten Podcast auch schon so ein bisschen erklärt.

01:03:04: Aber das ist tatsächlich was, was ich noch für eigentlich unterschätzt halte.

01:03:08: Wie würdest du dir wünschen als AI-Referentenexperten, dass man ihn mal live in Hamburg im Mai beim

01:03:14: Festival erlebt?

01:03:15: Wo sagst du, wen folgst du?

01:03:19: Natürlich Sam Waldman mit einem guten Interview.

01:03:23: Wenn ihr das hier bekommen, wäre das natürlich beeindruckend.

01:03:26: Der muss ja auch so ein bisschen auf PR-Tour, vielleicht ist das sogar möglich.

01:03:30: Ja, wir versuchen es, auf jeden Fall.

01:03:32: Oder schickt ihr die CTO oder, keine Ahnung, wer dann noch üblich vom Wort, genau dran?

01:03:37: Ansonsten.

01:03:38: Ich finde den, ich vergesse mal, ob Schmidt-Huber, Prof.

01:03:48: Der war, der war.

01:03:49: Oder Schmidt-Bauer, ich vergesse mal.

01:03:50: Nein, Schmidt-Huber, ja.

01:03:51: Ich fand nicht gut, dass er den gehabt hat.

01:03:53: Den ist nicht mal super interessant, der ist ja alles so ein bisschen mit aus der Wiege

01:03:58: gehoben hat.

01:03:59: Ja.

01:04:00: Vorschreck, Prof.

01:04:01: Also genau.

01:04:02: Genau.

01:04:03: Vielleicht dem Estrallgründer auch.

01:04:06: Ja, Artumensch heißt ja.

01:04:09: Genau.

01:04:10: Oder die Leute von Black Forest Labs.

01:04:13: Kannst du eine EI-Elefantenrunde machen?

01:04:17: Versuchen wir, versuchen wir.

01:04:19: Wir werden sie auch kontaktieren, mal gucken.

01:04:22: Ich glaube auf jeden Fall, dass das Thema auch nächstes Jahr noch heiß sein wird.

01:04:25: Also es wird jetzt so ein bisschen sozusagen, wir befinden uns sozusagen auf dem Weg in

01:04:28: das Tal der Ernüchterung.

01:04:29: Das ist auch fair, so funktionieren Hypes und Trends halt.

01:04:33: Aber ich glaube am Ende wird mithilfe von Machine Learning und EI deutlich mehr Wert geschaffen

01:04:38: sein.

01:04:39: Der nächste große Trend ist dann die Fendstack.

01:04:41: Ich sehe es schon kommen.

01:04:42: Also ich habe das Antikel über Parmalaki gelesen, nachdem ich okay, das nächste was kommt,

01:04:45: wo alle rein investieren wollen, ist jetzt ja gezeigt.

01:04:48: Also die Firma, vor dem ich jetzt...

01:04:50: Ja, und die...

01:04:51: Ich würde es im Jahr werden oder sowas.

01:04:52: Ja.

01:04:53: Und es gibt jetzt hier auch in Deutschland Beispiele, also so komisches Klingeln.

01:04:57: Und dann gibt es ja auch die Argumentation, das wäre auch gut, weil nach einer gewissen

01:05:01: Logik, wenn dann alle viele Waffen haben, dann fängt da keiner mehr in den Krieg an.

01:05:03: Ist das vielleicht wirklich denn der nächste Hype?

01:05:07: Weiß ich noch nicht genau, wie das bei OEMR dann stattfinden soll, aber ist man da nicht

01:05:11: mehr EI oder SEO-Thema, sondern hat man auch immer die Fendstack-Theme.

01:05:15: Ja, kannst du eine neue Defense-Konferenz machen, eine extra Halle?

01:05:19: Also ihr habt jetzt noch eine Idee so, was ihr gerne machen möchte, die Fendstack.

01:05:23: Ja.

01:05:24: Ich meine, tu wie fair, ich glaube die Welt war lange nicht so unsicher wie gerade.

01:05:27: Ich glaube, drei, vier Kriege, die uns relativ direkt tangieren.

01:05:31: Du hast China, die sagen Rüstungskapazitäten haben, die theoretisch alle zwei Tage ein

01:05:37: neues Boot bauen können oder so.

01:05:39: Von daher, glaube ich, müssen wir uns da auch, wenn ich keinen großen Fan hat, weiß

01:05:45: nicht, ob es Fans von Rüstung gibt.

01:05:47: Ich bin auf jeden Fall kleiner.

01:05:48: Das ist so Pamalaki, der hat euch schon Spaß dran.

01:05:49: Ja, genau, der scheint es zu genießen.

01:05:50: Aber ich glaube, das ist...

01:05:51: Aber ehrlich gesagt auch im Artikel, er würde lieber weiter so Oculus 3D-Welten bauen.

01:05:58: Und er macht das als Service für sein Land.

01:06:01: Also insofern bin ich nicht ganz fair, weil das war wirklich ein Quot von ihm, wo er

01:06:05: sagt, irgendwie, es macht ihm jetzt, er macht es so gerne so, aber er würde lieber eigentlich,

01:06:10: und das wurde mir damals von Meta quasi weggekauft oder böswillig weggekauft, wie auch immer

01:06:15: lange Geschichte, er würde lieber an solchen Sachen weiter arbeiten und da so eine Gaming-Welt

01:06:19: entstehen lassen, wie im Raum von Oculus damals, als jetzt nämlich einen Dronen zu arbeiten,

01:06:25: aber er macht es.

01:06:26: Ja, vielleicht sollte man Krieger einfach in virtuellen Welten austragen.

01:06:29: Das wäre eine ganz gute Idee, dass man einfach irgendwie so eine Art Gaming-Olympiade macht

01:06:34: und wer dann gewinnt, kann gewinner sein.

01:06:37: Also gut, wir werden das schon wieder lang unterwegs.

01:06:43: Danke, dass du mal wieder da warst.

01:06:45: Ich glaube, das ist der dritte Auftritt dieses Jahr, vielleicht kriegen wir in den 24 Jahren

01:06:49: noch einen hin zum Jahresende, weil es kommt ja auf jeden Fall einer in den 25 Jahren anfangt,

01:06:54: zumindest wenn ich mir das wünschen dürfte.

01:06:56: Ich würde mich sehr freuen.

01:06:58: Und dann im Mai nächsten Jahres gibt es sicher auch wieder bei uns auf der Bühne, hoffentlich

01:07:04: wieder mit AI oder?

01:07:05: Also, was immer ich dann als am relevantesten einschätze, aber ich vermute schon, dass es

01:07:11: AI und wenn es den Absturz von AI dokumentieren ist, dann mache ich auch gerne das und korrigiere

01:07:15: mich.

01:07:16: Also, ich freue mich schon drauf.

01:07:18: Alles klar, ansonsten kann dich zwei wöchentlich hören beim Doppelgänger Podcast, man kann

01:07:23: deinen Nüsse da lesen.

01:07:24: Du bist jetzt im Herbst auch auf vielen Konferenzen unterwegs, hast du erzählt?

01:07:27: Mhm, genau.

01:07:28: Ich bin auf dem Logitech Summit bei Jonas auf einem Summit, wo man, glaube ich, auch als

01:07:37: externer Tickets buchen kann in Köln im Rahmen der DMX-Core auf ein paar Events.

01:07:42: Viel unterwegs.

01:07:43: Ich brauche vielleicht, soll ich es so eine Toursite machen?

01:07:45: Ja, genau so ein T-Shirt.

01:07:46: Typ von Tour.

01:07:47: Ja, aber wenn wir das Ticket-Dick machen, dann kenn ich doch.

01:07:51: Alles klar, vielen Dank.

01:07:53: Mach's gut, tschau tschau.

01:07:54: Dieser Podcast wird produziert von Portstars.

01:07:57: by OMR.

01:08:01: [Titelsong]

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.