Das große KI-Update mit Pip Klöckner (#727)
Shownotes
Fast 300.000 Mal wurde das Video aufgerufen, in dem Philipp "Pip" Klöckner auf den Stand beim Thema Künstliche Intelligenz blickt. Grund genug, ihn als Experten nun noch einmal in den OMR Podcast einzuladen – immerhin entwickelt sich das Feld ja weiterhin rasant. Im Podcast verrät Pip Klöckner, warum er nicht an drastische Auswirkungen auf den Arbeitsmarkt glaubt, warum er auch deutschen KI-Startups noch Überraschungen zutraut und wieso er trotz aller Risiken auch positiv auf das Thema KI blickt.
In eigener Sache: Zum OMR Podcast gibt es einen Whatsapp-Newsletter. Melde dich HIER an.
Alle Infos zu ausgewählten Werbepartnern findest du hier.
Transkript anzeigen
00:00:00: Ich fasse nämlich kurz unser Stammgast Investor, Analyst, Podcaster, OMR, Bühnspeaker, Longtime
00:00:07: Friend, Philipp Pipp Klöckner.
00:00:09: Wir haben wieder zu Gast und wir haben über AI Storylines gesprochen.
00:00:14: Zwischen Aufnahme und Ausstrahlung liegen jetzt ungefähr 5-6 Tage und genau in dieser
00:00:18: Zeit gab es übrigens ein paar Neuerungen bei Aleph Alpha.
00:00:21: Nur wer sich darüber wundert, dass wir da nicht ganz tagesaktuell waren.
00:00:25: Und weil ich mich hier so kurz gefasst habe, bitte nutzt doch die freigewordene Zeit, folgt
00:00:30: unserem YouTube-Kanal, da steckt meine Kollegin Julia sehr viel Liebe rein und natürlich
00:00:34: freuen wir uns auch über positives Engagement auf allen Podcast-Plattformen.
00:00:38: Hi Pipp.
00:00:40: Moin moin, freue mich sehr, hier zu sein.
00:00:53: So, wir wollen entsprechend meiner Vorrede auch eine AI Folge machen.
00:00:57: Das bietet sich an, wir haben das eigentlich noch nie so ausführlich gesprochen, obwohl
00:01:01: das jetzt mittlerweile echt ein Kompetenzfeld von dir ist und ich habe mir gedacht, wie
00:01:05: macht man das am besten.
00:01:06: Das ist was uns irgendwie differenzierend unseren Hörern und Hörern anbietet.
00:01:12: Und da ist mir heute Morgen beim Joggen die Idee gekommen, als ich einen Podcast gehört
00:01:16: habe von Bill Simmons, der Sprach mit verschiedenen Gästen über jetzt den nächsten startende
00:01:21: NFL-Saison, also Football in den USA.
00:01:23: Ein Riesenfeld, ganz viele Teams, ganz viele verschiedene Sachen, die da passieren.
00:01:27: Wie macht man das einigermaßen hörbar, wie macht man dann den Überblick?
00:01:30: Und der hat dann die besten NFL-Season-Storylines diskutiert.
00:01:36: Und ich finde Storylines einfach eine gute Idee.
00:01:38: Wir reden jetzt über die spannendsten AI-Storylines.
00:01:41: Nach meiner Einschätzung, ich schmeiß sie darüber, wir versuchen selber Storylines
00:01:44: zu finden und dann mal gucken, also für Einsteiger, wer jetzt auch sagt, das ganze AI geht mir
00:01:48: richtig auf den Sack und ist auch irgendwie kompliziert.
00:01:51: Und was war sich, was da für Modelle unterwegs sind?
00:01:52: Vielleicht habt ihr ja Spaß, Storylines zu verfolgen, einfach nur, wenn sich Dinge weiter
00:01:56: entwickeln, die interessant sind zu beobachten.
00:01:59: Als Erste Mal vielleicht die bekannteste AI-Familie, heißt OpenAI, der bekannteste AI-Mensch, heißt
00:02:06: Sam Ordman, die ganz große Storyline hinter den beiden.
00:02:10: Wie schätzt du die ein?
00:02:11: Ich glaube, was man zuletzt sehr gut gemerkt hat, ist, dass, also anscheinend Sam Ordman
00:02:18: immer mehr seine Mitstreiter zu verlieren.
00:02:19: Also es ist mal gestartet, als eine Firma mit elf Co-Foundern, inzwischen sind noch zwei
00:02:24: davon übrig.
00:02:25: Also ich meine, die Company ist jetzt schon ein paar Jahre alt auch, aber so ein erheblicher
00:02:28: Turn im obersten Level, insbesondere die Security and Safety Leute oder Alignment, nennt man das
00:02:33: ja.
00:02:34: Also wie kann man die Werte der AI mit den menschlichen Höhlen und humanen Werten gleichschalten?
00:02:39: Das nennt man Alignment, da sind viele Leute gegangen.
00:02:41: Und das heißt, er wird so mehr und mehr zum Alleinhärscher der Firma gefühlt, was natürlich
00:02:47: auch problematisch ist, wenn man überlegt, wie wichtig diese Firma oder wie mächtig diese
00:02:52: Firma werden könnte, weil das erklärte Ziel ist ja nicht irgendwie, ein Milliarden oder
00:02:57: Billion Dollar Company zu werden, sondern AGI zu entwickeln.
00:03:01: Und alles andere soll sich diesen Ziel unterordnen.
00:03:03: Was vielleicht auch so ein bisschen erklärt, warum es für Open AI gar nicht so wichtig
00:03:07: ist, wie viel Umsatz sie machen, obwohl sie, glaube ich, auch wirtschaftlich sehr erfolgreich
00:03:11: sind, aber im Moment ist es, glaube ich, eher ein Abfallprodukt.
00:03:14: Wenn du dir sicher bist, dass du irgendwann AGI, also AGI, eine zur Sicherheit für alle,
00:03:20: die jetzt denken, das ist irgendwie, ich weiß nicht, AGI1 oder so.
00:03:25: Genau.
00:03:26: Es ist official generic intelligence.
00:03:29: General intelligence, genau.
00:03:30: Also eine irgendwie breitfähige Intelligenz, die menschliche Kräfte übertrifft oder menschliche
00:03:36: Fähigkeiten.
00:03:37: Beziehungsweise Open AI definiert es, glaube ich, so, dass es eine künstliche Intelligenz
00:03:43: ist, der du sozusagen eine Aufgabe und Task geben kann, dass sie selber Wirtschaftsleistung
00:03:47: erwirtschaften kann.
00:03:48: Also dass ihr selber ein Geschäftsmodell aufbaut oder selber eine Software baut oder so weiter.
00:03:52: Das ist ihre Definition.
00:03:53: Und wenn man überlegt, dass das das Ziel ist, dann macht es eigentlich relativ Sinn, auf
00:03:57: dem Weg jetzt viel an Monetarisierung zu denken.
00:04:00: Weil du baust ja dann eigentlich erklärtermaßen eine Software, die neue Geschäftsmodelle bauen
00:04:05: kann.
00:04:06: Theoretisch.
00:04:07: Die eigene Software bauen kann, die eigene Märkte erschließen kann, die selber Marketing
00:04:10: machen kann wahrscheinlich.
00:04:11: Der ich mehr oder weniger sagen kann, findet mal einen Weg, irgendwie in Bangladesch Geld
00:04:14: zu verdienen oder irgendwie sowieso.
00:04:17: Und dann ist eigentlich alles andere, was du machst, während du das Traction.
00:04:21: Und Sam Ordman scheint davon überzeugt zu sein, dass das möglich ist, AGI zu finden.
00:04:27: Es gibt dann Leute, die sagen, es ist zumindest mit dem sozusagen LLM-Approach oder mit diesen
00:04:33: Transformatorenmodellen.
00:04:34: Das wird nicht der Weg dahin sein.
00:04:36: Das wird sich in Zukunft zeigen.
00:04:37: Aber ich glaube, man kann sehr gut nachvollziehen, dass die Modelle zunehmend fähiger werden
00:04:42: und teilweise menschliche Fähigkeiten auch schon schlagen.
00:04:45: Und deswegen besorgt mich bei Open Eye hauptsächlich, glaube ich, die Macht, die da jetzt in einer
00:04:51: Person vereint ist.
00:04:53: Amüsst du dann auf das Geschäftsmodell, was du gerade beschrieben hast, bulisch?
00:04:56: Also glaubst du, oder sagen wir noch mal ganz konkret gefragt ist, gibt es für dich den
00:05:00: lustigen Zufall.
00:05:01: Ich bin vor einigen Tagen angeschrieben worden von einem Bekannten, der hat mir geschrieben,
00:05:05: hi mein Lieber, wir haben als nächstes Investment eine Open Eye Allocation.
00:05:09: Sag mal, ob du dabei sein willst, Eckdaten, Bewertungen, wäre jetzt, glaube ich, so etwas
00:05:14: über 100 Milliarden Dollar.
00:05:15: Entsprechend Preis vor Aktie glaube ich, 190 Dollar.
00:05:19: Und man müsste dann irgendwie so ein SPV 50.000 Euro einlegen.
00:05:23: Ich habe die jetzt gar nicht, aber manche, wenn ich es hätte, dann müsste ich die eine
00:05:25: so ein Management-Fee und dann gibt es 20 Tickets, die man ziehen kann.
00:05:31: So, jetzt sind wir bei 10 Millionen sein.
00:05:34: Und der Capital Corp, ich weiß, wäre in drei, vier Wochen.
00:05:40: Sollte ich es machen?
00:05:42: Also es ist keine Anlageberatung.
00:05:44: Ich glaube, du hast weiterhin Totalausfallrisiko, obwohl du totalausfallrisiko hast, glaub ich,
00:05:49: nicht bei Open Eye, aber ich glaube, dass du unter den Werten von 100 Milliarden teoretisch
00:05:53: fallen könntest, haltest du nicht für sehr wahrscheinlich.
00:05:55: Also ich versuche nicht so schwarz-weiß zu denken, sondern in Szenarien eigentlich.
00:05:58: Es gibt glaube ich kaum einen Szenario, wo du 100 Prozent des Werts verlieren würdest.
00:06:02: Auch einfach, weil die Firma so nah mit Microsoft verknüpft ist inzwischen.
00:06:06: Ich glaube, es gibt ein Szenario, wo sie eine, entweder wirklich so eine Art AGI oder eine
00:06:12: sehr, sehr fege Anwendung entwickeln.
00:06:15: Ich glaube, prinzipiell in die gesamte Klasse von Foundation Models oder LLMs diese großen
00:06:21: Modelle zu investieren, wenn du sagen würdest du verteilen, ist dein Geld gleichmäßig unter
00:06:25: allen Unternehmen, die daran forschen.
00:06:26: Also auch ein Mistral, auch ein Entropic, auch ein Alpha oder so weiter.
00:06:30: Dann würde ich sagen, das ist wahrscheinlich keine guteren Dieter, die ich erwartet.
00:06:35: Aber ich glaube, Open Eye ist so weit vorne im Rennen, nicht uneinholbar, aber sehr weit
00:06:39: vorne, dass es einst der Unternehmen sein kann, dass irgendwann mal eine sehr fege Intelligenz
00:06:44: entwickelt.
00:06:45: Aber es muss ja auch Geld verdienen.
00:06:46: Ich meine, bei allem Entwickeln und Intelligenz und so, irgendwie brauchst du ja Ummerz und
00:06:52: dann ein paar weniger Kosten, dann musst du ein gutes Ergebnis machen.
00:06:55: Bei 100 Milliarden Bewertungen muss das Ergebnis ja dann auch nochmal mehrere Milliarden
00:06:59: sein.
00:07:00: Genau, also, ah, sie machen inzwischen gerade 4 Milliarden, zwischen 3 und 4 Milliarden
00:07:03: Umsatz schon im Jahr, also das machen sie jetzt schon.
00:07:06: Und das andere ist, wie gesagt, wenn du schaffst so ein Modell zu bauen, was von sich aus geschärzt
00:07:11: Modelle entwickeln kann und dann auch Software entwickeln oder das größte Teil selbstständig
00:07:16: hinbekommt, dann ergibt sich die Monetarisierung ja auch irgendwie von alleine bis hin.
00:07:22: Also nicht, dass ich blau optimistisch bin, aber ich glaube, es ist ein mögliches
00:07:24: Szenario, dass man so weit kommt.
00:07:26: Und wenn nicht, wird man wahrscheinlich immer noch eines der fähigsten large language Models
00:07:30: haben, dass man eben per API anderen zur Verfügung steht.
00:07:33: Und damit verdienen sie jetzt schon Run Rate irgendwie 4 Milliarden.
00:07:36: Und wenn man sich das bottom up dann mal anschaut, wurden ja jetzt ungefähr 10 bis 13 Milliarden
00:07:42: investiert in den OpenAI und damit hat man eigentlich annual recurring revenue in Höhe
00:07:46: von 4 Milliarden geschafft.
00:07:48: Das ist absolut vergleichbar mit anderen Zarsfirmen.
00:07:50: Also dass du das dreifache des Umsatzes investierst, um den Revenue Stream aufzubauen, ist, glaube
00:07:57: ich, ein relativ kapital effizienter Weg, neue Firma zu bauen.
00:08:00: Deswegen, ich glaube nicht, dass alle Firmen so healthy Unit Economics am Ende haben werden,
00:08:04: aber ich glaube, das ob mehr eine der ist, die relativ gut daraus kommt.
00:08:08: Also hast du gesagt, wenn das auf das Angebot, das mir da vorliegt, wenn das Geld da wäre,
00:08:14: why not?
00:08:15: Ich würde nicht 100 Prozent irgendwie deines Gelds darauf hätten oder so, aber als vielleicht
00:08:20: auch so eine Art Versicherung dagegen, dass OpenAI irgendwie so ein Joggernaut wird, der
00:08:24: ein Großteil der Software-Entwicklung in Zukunft irgendwie so ein bisschen dominiert oder zumindest
00:08:29: einen wichtigen Bestandteil mit einem Foundation-Model dazu.
00:08:33: Und wenn man das Gewährte ist, ist das aber auch schon so krass hoch 100, also über 100
00:08:36: Milliarden.
00:08:37: Klar, dann kommen die vielleicht nochmal auf 200 Milliarden, hätte ich das Geld verdoppelt.
00:08:39: Aber also viel mehr Absatzsäte.
00:08:44: Schauen wir mal, wenn ich noch 2-mal, sagen wir verdoppeln noch 2-mal hier einen Umsatz.
00:08:48: Wir sagen mehr und mehr Firmen bauen Applikationen basierend auf AI und OpenAI schafft es weiterhin
00:08:55: ein führendes Model zu bauen.
00:08:57: Wenn Sie sich nochmal verdoppeln, sind Sie bei 7, 8 Milliarden Umsatz.
00:09:00: Wenn Sie sich nochmal verdoppeln, sind Sie bei irgendwie 15 Milliarden Umsatz.
00:09:03: Ich glaube, eine 10-mal Umsatzbewertung wäre jetzt nicht untypisch für eine Firma, die
00:09:07: noch so schnell wächst, kann man sogar über mehr reden.
00:09:09: Dann hättest du schon 150, 200 Milliarden zusammen.
00:09:13: Okay, also ist das fine.
00:09:14: Also wir beobachten die Storyline OpenAI mal ein bisschen weiter.
00:09:17: Sam OpenAI auch.
00:09:18: Also wie lange halten das die letzten Verbleibenden 2 Co-Gründer noch mit ihm aus?
00:09:23: Hätte ich dieses Investment machen sollen oder nicht?
00:09:26: Also die Storyline steht.
00:09:27: Für alle, die Lust haben, AI aus der Ferne zu verfolgen, hier wäre die erste Storyline-Angebot.
00:09:33: Nehmen wir mal als zweites Storyline, die ich auch interessant finde.
00:09:39: Und zwar gibt es ja gerade rund um Meta oder Facebook ganz viele so Open Source Modelle.
00:09:44: Das ist ja schon mal deren Approach.
00:09:46: Irgendwie die ganzen Modelle da gerade sind, Markt reinzugeben.
00:09:48: Und dann gibt es halt die Commercial-Modelle.
00:09:50: Und ich finde, das hängt ein bisschen mit dem OpenAI zusammen.
00:09:53: Weil wenn diese Open Source Modelle sich durchsetzen sollten, dann braucht ihr ja keiner mehr Open
00:09:56: AI, weil dann warum soll ich Geld bezahlen, wenn ich das Open Source umsonst bekomme?
00:10:00: Ist das eine Storyline, die du auch verfolgst?
00:10:02: Genau, das ist im Prinzip die absolute Gegentease gegen das OpenAI Investment.
00:10:07: Nämlich das, du sagst, dass man mit noch so viel Geld und man kann sagen, Meta verfügt
00:10:12: letztlich über genauso viel oder mehr Geld wie ein Sam Open and Open AI und Microsoft
00:10:16: zusammenraisen können.
00:10:17: Microsoft ist schon noch deutlich größer als Meta, aber so vom Cashflow können die
00:10:22: beide verfügen, die beide über unheimlich große Mittel.
00:10:25: Es geht eher darum, wie viel ihre Shareholder ihnen erlauben zu investieren.
00:10:28: Und ich glaube, Facebook-Strategie ist eben, dass sie einerseits ein bisschen spät dran
00:10:33: sind bei dem ganzen Rennen.
00:10:35: Und andererseits ist man, glaube ich, sehr getrieben von, dass man gemerkt hat, man hat
00:10:40: sich damals in dieser Falle befunden, wo man sehr stark von den Betreibern der mobilen
00:10:45: Endgeräte, der mobilen Operating Systems, also Android und iOS-Apple abhängig war.
00:10:51: Das hat ja das Werbegeschäft von Meta eine Zeit lang mal stark sozusagen gefährdet.
00:10:55: Meta hat sich ganz gut durch neue Tools und schlaure Targeting-Mechanismen da eigentlich
00:11:01: so ein Rausmanifriert am Ende.
00:11:02: Aber ist, glaube ich, so eine traumatische Erfahrung, die sie haben.
00:11:06: Sie möchten nie wieder abhängig von irgendeiner Art von Plattformen sein, selber, glaube ich.
00:11:10: Und deswegen bauen sie jetzt eine Plattform, die alle nutzen, von der theoretisch alle profitieren.
00:11:15: Ich glaube in der Hoffnung, dass am Ende dann ein Ökosystem entsteht, was wenige Abhängigkeiten
00:11:21: haben, was ein bisschen mehr Waffengleichheit hat und wo am Ende natürlich Leute auch wieder
00:11:25: Geld für Werbung ausgeben und davon würde spätestens dann Meta auch indirekt profitieren.
00:11:29: Und du sagst doch gar nicht, dass die Open Source-Mittel davon sind.
00:11:31: Genau, das sieht man auch relativ klar.
00:11:33: Die stehen den kommerziellen Modellen.
00:11:34: Es ist nicht erkennbar, dass die den irgendwie nachstehen.
00:11:37: Am Ende ist eigentlich so, dass jeweils jüngste oder ja, früh, wie sagt man, das jüngste
00:11:42: Modell, was rauskommt, schlägt in der Regel alle älteren Modellen.
00:11:44: Das ist ein sehr, da kann man jetzt auch eine eigene Storyline eigentlich, dass jedes neue
00:11:48: Modell frisst eigentlich alle vorherigen Kinder sozusagen, der EI.
00:11:51: Also wenn Mistral, was auch ein französisches Open Source-Projekt ist, ein neues rausbringt,
00:11:56: ist das in der Regel zumindest in gewissen Disziplinen besser als alle anderen auch
00:11:59: kommerziellen vorher.
00:12:00: Das letzte Facebook-Modell, Lama 3.1, hat viele Open Source-unkommunizielle Modelle
00:12:07: geschlagen.
00:12:08: Das heißt, es scheint keine Rolle zu spielen, ob man Open Source oder Commercial.
00:12:11: Das so hört dann, jetzt haben wir starke These, aber dann sind ja die Menschen, die
00:12:15: jetzt für diese vier Milliarden Umsatz bei Open AI sorgen, irgendwie dumm, weil die könnten
00:12:20: ja das gleiche Produkt oder was Ähnliches schon mal irgendwie auch sonst bekommen, dann
00:12:24: müssten ja kein Geld ausgeben.
00:12:25: Genau, das ist eine große Gefahr.
00:12:27: Das am Ende kann es natürlich sagen, ich kann das deutlich günstiger beziehen oder
00:12:33: ein Open Source-Model auf meinem eigenen Server sogar installieren und günstig ausführen.
00:12:36: Das ist für alle Betreiber von kommerziellen Modellen das größte.
00:12:40: Deswegen meine ich, es ist die krasse Anti-Tese dagegen.
00:12:43: Es gab einen israelischen VC von Aleph, heißt die Firma Mike Eisenberg, der LLMs, der Foundation-Models,
00:12:51: das fastest depreciating asset on earth genannt.
00:12:54: Du baust quasi das State of the Art Modell, was alle anderen schlägt und zwei Wochen
00:12:59: später kommt irgendwie, jetzt gerade hat Microsoft ein neues kleines Modell, 4.3.5
00:13:03: heißt es, glaube ich, gebaut und schlägt wieder alle anderen kleineren Modelle auf einmal.
00:13:07: Und damit es, es gibt ja keinen Grund, warum du jetzt das zweit schnellste oder zweit beste
00:13:10: oder zweit günstigste Modell nehmen soll, dann natürlich nimmst du in Zweifel das Beste,
00:13:14: was du haben kannst oder das günstigste.
00:13:15: Und was vorher mit Milliarden aufgebaut wurde, ist dann innerhalb von einem Tag eigentlich
00:13:20: fast wertlos, weil man natürlich immer den neuesten Schritt haben will eigentlich,
00:13:24: dass man hat seine Applikation sehr stark auf ein Modell angepasst, aber das ist der
00:13:29: Grund, warum ich nicht in die breite Klasse der Modelle investieren würde.
00:13:32: Also einfach Geld streuen, ich investiere in jedes Foundation-Model, ich glaube, das
00:13:35: wäre eine schlechte Strategie, weil viele am Ende untergehen werden dabei und irgendwann
00:13:39: aus dem Rennen aussteigen.
00:13:40: Im Moment ist noch, im Moment ist noch unmöglich zu sagen, wer der Gewinner ist.
00:13:44: Also Mistralbau-Supermodelle, Entropic-Cloat hat Superperformance, Meter hat Super Open
00:13:50: Source Modelle, Google Gemini versucht mitzuhalten, Microsoft hat eigene Modelle, wie gesagt,
00:13:56: habe ich versorgen, OpenAI sowieso.
00:13:59: Und gefühlt ist es so, dass jede Woche ein neues Modell rauskommt, was alle anderen in
00:14:05: gewissen Disziplinen schlägt.
00:14:06: Okay, also es ist noch gar nicht klar, wie das Rennen ausgeht, ob Open Source oder Commercial,
00:14:13: aber wenn Open Source gewinnt, dann ist auf jeden Fall, könnte es ein Problem sein.
00:14:17: Man sieht jetzt ja auch, es gibt schon Open Source Modelle, trotzdem hat OpenAI 4 Milliarden
00:14:21: Umsatz, also irgendwer macht es ja trotzdem paid, aber man könnte in der perfekten Welt
00:14:27: gelb es dann eigentlich kein Umsatz bei den Commercial-Modellen.
00:14:31: Ja, also irgendwo muss es gerechnet werden, also die Rechenzentren haben am Ende wieder
00:14:35: Umsatz, aber die Modelle selber, ob das, ich bin mir nicht sicher, ob die Modelle selber
00:14:40: am Ende sozusagen ein sehr kräftiges Wertschöpfungslehr sein, also wo du irgendwie 30% EBIT
00:14:45: Demage hast, indem du deinen Modell vermietest, irgendwo, das halte ich eher unwahrscheinlich.
00:14:50: Seine Jemandschaft wirklich ein sehr exklusiven Durchbruch.
00:14:53: Die Open Source Modelle haben natürlich den Vorteil im Zweifel, dass sie viel Distribution
00:14:56: erfahren dadurch und viel Nutzerdaten nochmal sammeln, wenn sie von vielen genutzt werden.
00:15:00: Und die Community, das ist ja der ganze Sinn von Open Source, dass man sich gegenseitig
00:15:03: so ein bisschen stärkt.
00:15:05: Warum bis heute viel Internetinfrastruktur Open Source ist irgendwie der Apache Server
00:15:09: und gewisse Datenbank Technologien, gewisse Server-Ability Technologien und so, sind bis
00:15:16: heute Open Source und fahren gut damit.
00:15:18: Und das könnte Open Source natürlich nochmal helfen, dass man eine größere Community baut.
00:15:23: Okay, also verfolgen wir mal das mal ein bisschen weiter.
00:15:25: Könnte es eigentlich auch so sein, dass Meta irgendwann sagt, jetzt wo alle unsere Modelle
00:15:31: hier verwenden, jetzt drehen wir das zurück und jetzt sagen wir, jetzt sind die da nicht
00:15:34: mehr Open Source?
00:15:35: So ein Baden Switch, nennt man das ja im Englischen.
00:15:37: Baden Switch?
00:15:38: Angeln und oder?
00:15:39: Genau, anlocken und dann sozusagen den Schalter umlegen.
00:15:43: Das ist eine relativ gängige Strategie, dass man erstmal versucht Verbreitung oder Adoption
00:15:48: zu finden, indem man es kostenlos anbietet.
00:15:50: Und dann baut man so Haken und Ösen ein auf einmal.
00:15:52: Ich halte es für eher unwahrscheinlich, weil der Markt glaube ich so kompetitiv ist, dass
00:15:58: niemand sich das leisten kann.
00:15:59: Also Meta hat keine großen Vorteile so, sie haben relativ spät gestartet und dass sie
00:16:04: freie Anbieten ist, so ihr Edge den aufzugeben, wäre glaube ich relativ gefährlich.
00:16:10: Dann nächste Storyline, jetzt mal ganz plump, aber kommt dieses ganze Geld, was da jetzt
00:16:16: reingepumpt wird, eigentlich jemals wieder zurück, frag ich mich so als Fun Fact, weil
00:16:22: ich meine, zweifel, da sehe ich auch eine Welt, wo einfach Menschen oder Firmen sehr
00:16:26: viele Milliarden in etwas gepumpt haben, das einfach weg ist.
00:16:29: Ja, gab es ja schon immer mal.
00:16:34: Ist das vorstellbar oder glaubst du, dass sich diese ganzen Investments irgendwann mal
00:16:35: lohnen können?
00:16:36: Ja, also auch da würde ich in Szenarien denken und ich glaube die Frage ist nicht ob, sondern
00:16:41: wann.
00:16:42: Ich glaube man kann schon sagen, dass wir uns gerade in einer hart blaasen oder blasenförmigen
00:16:47: Bewegung oder so am Höhepunkt des Gardener Hype Cycles befinden, das ist sicherlich
00:16:51: richtig, bis vor kurzem die Begeisterung für AI maximal war.
00:16:56: Jetzt relativiert sich gerade so ein bisschen, es gab kritische Stimmen von Goldman Sachs,
00:17:00: von Mackenzie, von Elliott Management, von Paul Singer, dem Hedge Fund, von einem Sequoia
00:17:08: Partner, der vorgerechnet hat quasi, dass wenn man nur überlegt wieviel Chips Nvidia
00:17:12: verkauft, das werden so ungefähr 150 Milliarden im Jahr sein, wenn man davon ausgeht, dass
00:17:17: diese Chips zu betreiben kostet ungefähr nochmal das gleiche, das heißt dann sind
00:17:20: wir bei 300 Milliarden und wer damit Geld verdienen will, braucht eigentlich eine 50
00:17:23: Prozent Rohmage, dann werden wir bei 600 Milliarden und wenn, entweder nur weiter diese Chips
00:17:31: verkaufen will, dann braucht man halt 600 Milliarden an Umsatz, der dem gegenübersteht,
00:17:38: der das irgendwie wieder amortisiert, was allein an Chips produziert wird.
00:17:41: Und wenn wir gerade vorgerechnet haben, natürlich haben wir im Moment keine 600 Milliarden
00:17:45: AI Umsatz, natürlich wird das gerade nicht kommen, aber wenn die Weiterentwicklung der
00:17:50: Modelle so voranschreitet und wenn viele kleine Start-ups oder auch große Software für mehr
00:17:55: und mehr Anwendungsfälle dafür entwickeln und es schaffen Menschen dazu zu bringen,
00:17:59: das auch zu benutzen und erfolgreich zu benutzen und produktiv zu benutzen, dann glaube ich,
00:18:04: wird man über kurz oder lang schon ein Großteil dieser Investments, also nicht nur die Investments
00:18:09: amortisieren, sondern deutlich mehr daraus sollen.
00:18:12: Ich würde es ein bisschen vielleicht mit der Internetblase vergleichen.
00:18:15: Zweifels Ohne waren wir 2000, in den 2000er Jahren, 99, 2000 in der Blase auch und da
00:18:20: waren hunderte von Firmen, so ein Cisco oder Juniper Networks und wie sie alle heißen,
00:18:26: massiv überbewertet.
00:18:27: Aber heute 20 Jahre, 25 Jahre später ist das Internet, wenn du die Nestec anschaust,
00:18:32: sind glaube ich 80 Prozent der Unternehmen, sind im weitesten Sinne Internet-Technologie-Unternehmen
00:18:37: und die, die allein der Nestec 100 ist, glaube ich, 22 Billionen US-Dollar wert, also 22.000
00:18:44: Milliarden an Börsen wert wurde quasi mit dem Internet geschaffen, könnte man sagen,
00:18:48: oder mit Software.
00:18:49: Und ich glaube, in Zukunft wird jedes Software irgendwie AI-Beinhalten oder Machine Learning.
00:18:54: Von daher glaube ich, dass man irgendwann, sagen, Trillion Dollar oder Billion Dollar-Märkte
00:18:59: auf Deutsch schaffen wird damit.
00:19:01: Ich glaube aber, dass das allmählicher passieren wird, einfach weil wir bei der Adoption gar
00:19:06: nicht so schnell sind, also bis Menschen Anwendungsfälle entwickeln und dass sich dann verbreitet
00:19:09: in vielen Unternehmen genutzt wird und wirklich Produktivitätsfortschritte bringt.
00:19:12: Das wird glaube ich noch dauern.
00:19:15: Ich glaube, zwei konkrete Fälle sind, wo es relativ früh eintreten wird.
00:19:18: Eine ist Programmierung.
00:19:19: Diese Co-Piloten, die beim Programmieren helfen, das ist einfach, weil Programmiersprache
00:19:24: sehr eindimensional ist.
00:19:26: Also diese Modelle schätzen oder raten ja, was das nächste Wort ist statistisch.
00:19:29: Und wenn du was programmierst, dann gibt es gar nicht so viel, also der Vektor, wieviel
00:19:35: verschiedene Worte können jetzt auf das Wort folgen, ist relativ klein.
00:19:39: In natürlicher Sprache gibt es vielleicht eine hohe Variation an Worten, die auf das
00:19:43: nächste Wort folgen können.
00:19:44: Bei Programmierung ist das nächste Zeichen relativ mit einer hohen Wahrscheinlichkeit
00:19:48: zu erraten.
00:19:49: Deswegen ist es, glaube ich, sehr früh bei juristischer Sprache, zum Beispiel auch so.
00:19:53: Dadurch, dass diese Hochformel sind, diese Schriftzätze, die Anwälte schreiben, in aller
00:19:56: Regel zumindest, ist das glaube ich einfacher und da wird man wahrscheinlich relativ früh
00:19:59: schon viele Anwendungsfälle sehen.
00:20:01: Und das andere, wo ich glaube ich kurzfristig sehr optimistisch bin, wo man viel Wert schaffen
00:20:09: kann, ist Robotik.
00:20:10: Also es werden jetzt viele dieser menschlichen Robotern, Tesla baut diesen Optimus, es gibt
00:20:14: diese Firma Figure 1, nee, Figure AI, die jetzt gerade 0/2 Modell, die zweite Generation
00:20:19: vorgestellt haben, die mit BMW kooperieren.
00:20:21: Es gibt auch der Ganzenwahl, es gibt im Korea und Japan noch Robotik.
00:20:24: Aber das ist nicht mehr Sprachbarse, oder?
00:20:25: Die Lernfähigkeit basiert auf LLMs, soweit ich das verstanden habe.
00:20:30: Weiterhin.
00:20:31: Und gibt es eigentlich einen generellen AI-Welt, die nicht LLM basiert oder getrieben ist?
00:20:38: Das ist also, Maschinenlearning ist deutlich größer als LLMs, glaube ich, aber für Robotik
00:20:43: wird quasi letztlich auch Transformer-Technologie benutzt.
00:20:48: Und das ist gut, also warum baut man diese Roboter wie Menschen, weil sie quasi eine
00:20:53: Menschen zuschauen können bei der Arbeit und davon lernen.
00:20:55: Also die können einfach lernen, den Menschen zu imitieren und damit kannst du ihnen fast
00:20:59: jeden Tags geben, denen ein Mensch auch kann.
00:21:01: Und das ist auch alles Sprachmodell basiert?
00:21:05: Nach meinem Verständnis basiert das unter anderem auch auch.
00:21:07: Ich hätte das Gefühl, viele von den Sachen, das hatte mir Fokus meiner erzählt, dass
00:21:10: es bei Tesla auch so deswegen attraktiv ist, weil die in den ganzen Autos, die sie so rumfahren
00:21:16: haben, so Kameras drin haben und man kann dann sozusagen in den Verkehr auch dieses Self-Driving
00:21:22: ist ja auch eine AI, eine Idee.
00:21:24: Und die können halt Self-Driving ganz gut abbilden, weil halt über die ganzen Kameras
00:21:29: kann man halt sehr viel lernen über die Bilder und dann können die dann irgendwann selber
00:21:33: fahren, weil der LRF auch so groß ist.
00:21:36: Aber da habe ich zumindest das Verständnis gehabt, es hat doch nichts mit einem LM zu tun,
00:21:40: das ist halt wirklich einfach Bilderkennung.
00:21:42: Genau, das ist trotzdem Maschinenlearning, aber es ist kein LLM in dem Fall.
00:21:46: Genau.
00:21:47: Und das, also und jetzt das andere Beispiel, wo ich das...
00:21:50: Bei den Nachhalt von der Testnet-Technologie, also wenn du nur Kameras hast, ist das Gegenkonzept
00:21:55: ja leider, wo du so eine Art Leserradar hast, was dann Gegenstände erkennen und messen
00:22:02: kann, die Entfernung zu Gegenständen.
00:22:04: Das Problem ist, wenn von einem Tesla zum Beispiel ein umgekippter LKW liegt.
00:22:07: Wenn du es vorher aus Daten gelernt hast, hat es natürlich noch nie einen umgekippten
00:22:13: LKW gesehen.
00:22:14: Das ist extrem wahrscheinlich, das ist unwahrscheinlich.
00:22:16: Es hat halt 10.000 mal ein Stoppzeichen gesehen, weil wir das im Winter jetzt angeklickt haben,
00:22:20: das ist ein Stoppzeichen, so, das war einfach zu lernen.
00:22:22: Aber wenn irgendwas unvorhergesehen war, was passiert, sagen wir mal eine Boeing landet
00:22:25: auf einer Autobahn oder eine LKW kippt um oder jemand, ich mache einen Graffiti, was
00:22:32: blauer Himmel aufzieht auf einer Autobahnbrücke, dann könnte es sein, dass das Auto, weil
00:22:35: es nur Kameras hat und weil so eine Division der Kamera kannst du täuschen, ein Leider
00:22:39: kann halt erkennen, das ist ein fester Gegenstand, ich halte mal sicherheitshalbe an.
00:22:42: So, das ist so ein bisschen die Schwäche der Kamera.
00:22:43: Ich will nicht, es kann sein, dass man trotzdem...
00:22:45: Aber ist es interessant, aber auch das ist dann nicht LLM basiert oder das ist leider...
00:22:48: Das kann er werden, so weit ich weiß nie.
00:22:50: Also, jedenfalls, ich wollte noch kurz als extra Note hinzufügen, dass ich ein anderes
00:22:56: Feld aufhör kurz, was ich mir kennengelernt habe, ich habe einen echt krassen Artikel
00:22:58: gelesen, sehr lang, aber sehr interessant, über ein bisschen Parmalucky, der Gründer
00:23:04: von Anruyel, so einer großen Defense-Tech, Drohnen und sonstigen Militärsachenfirma,
00:23:11: also hat auch mit dieses Oculus erfunden, ein Mark Zuckerberg verkauft, ein riesender
00:23:16: Teil, bei mir in WhatsApp vielleicht hast du auch Bock, in dein Düssel reinzupacken,
00:23:21: also ich finde ihn wirklich lesen zu werden, weil der Typ ist echt krass und da war auch
00:23:25: die Rede von seinen ganzen Militärfahrzeugen, die er gerade alle baut, dass die alle auch
00:23:29: auf Open AI zurückgreifen und die Drohnen und so und da dachte ich mir, das können
00:23:32: ja dann keine Sprachmodelle sein, das muss ja dann die andere Art von Intelligenz sein,
00:23:36: die da...
00:23:37: Also, ich bin leihoffensichtlich, aber ich dachte mir so, Drohnsprachmodelle, eher nicht.
00:23:42: Ich glaube, du kannst mit Sprachmodellen auch sozusagen Input aus verschiedenen, also
00:23:47: die Modelle sind ja alle multimodal, also du kannst ein Bild reintun und kriegst ein
00:23:51: Text draußen, ich kann ein Bild reintun und fragen, was sehe ich da, oder was siehst
00:23:54: du da und dann sagt mir, dass das...
00:23:55: Und deswegen kannst du mit dem LLM theoretisch auch die Umgebung von der Drohne interpretieren
00:23:59: lassen, ich glaube, dass du dadurch, dass die multimodal sind, also auch mit Videobildern
00:24:03: oder verschiedenen anderen sozusagen Sensorikdaten gefüttert werden können, müssten multimodale
00:24:08: Modelle das tatsächlich können.
00:24:09: Das lustigste, mit der der Palma Lucky fährt selber eine Fregatte, der hat sich als Privatboot
00:24:13: so eine alte Militärfregatte, es gibt so ein Bloomberg, so ein Bloomberg Interview,
00:24:18: ich glaube mit Emily Chang gibt es auf YouTube, da fährt er sie so ein bisschen in seine Fregatte
00:24:21: durch die Gegend.
00:24:22: Also, der Chief ist ohnehin in dem Artikelstudent drin, er hat sich einen Chip implantieren
00:24:27: lassen in seinen Gehirnen, mit dem seine Mitarbeiter/Mitarbeiter direkt in seinem Gehirn
00:24:31: quasi nachten hinterlassen können.
00:24:33: Oh, das wusst ihr noch nicht, ich glaube, das ist weird.
00:24:35: Da sind extrem viele sehr, sehr weirde Sachen bei dem, aber der Typ ist sehr interessant.
00:24:43: Ich glaube, es hat auch verrückte Thesen, man denkt okay, wirklich jetzt, aber ich finde
00:24:49: diesen Artikel geschrieben in Tablet Media, ich sage dir vorallem gar nichts, es ist so
00:24:53: eine jüdische Publikation, die da, wenn wir es lange nicht bekennen, machen sehr lange
00:25:01: Artikel, dann liest man wahrscheinlich irgendwie 20 Minuten lang.
00:25:04: Aber ich werde es in meine WhatsApp reinpacken, ich schickst dir auch nochmal gleich zu,
00:25:08: wir packen sie in die Show Notes.
00:25:09: Also, wenn man ein paar Malakie nicht kennt, es lohnt sich, den mal irgendwie an den
00:25:13: Titel kennenzulernen.
00:25:14: Ist wahrscheinlich, steht da auch drin, neben Ilan Musk, der beste Ingenieur, den es wohl
00:25:20: eigentlich gibt gerade.
00:25:21: Man kann ja ganz kurz die Grundthese der Firma ektan, also der ist quasi baut ein modernes
00:25:25: Rüstungsunternehmen nach Silicon Valley Logik.
00:25:27: Bisher läuft Rüstungsindustrie in USA so, dass die USA halt sagen, wir brauchen irgendwie
00:25:33: einen neuen F21 Jet oder eine neue Fregatte oder einen neuen Abrams Panzer.
00:25:39: Und jetzt Boeing oder Northrop Grumman oder so, baut uns den mal.
00:25:42: Ihr kriegt alles, was das kostet, plus 20% Gewinnmage.
00:25:45: Kostplus.
00:25:46: Genau, Kostplus Pricing nennt man das.
00:25:48: Und was paar Malakie oder Andrew Will halt bauen will, ist, dass sie quasi auf eigenes
00:25:52: Risiko Waffensystem entwickeln und die dann zu Marktpreisen oder dadurch kann natürlich
00:25:57: auch eine höhere Marge am Ende stehen, aber sie dann quasi verkaufen.
00:25:59: Sie gehen ins Risiko, machen selber R&D, bauen selber Prototypen und wenn es dann nachfragt,
00:26:06: sie bauen auch Waffen sozusagen, nach denen auch keiner gefragt hat mehr oder weniger,
00:26:09: hohes Risiko.
00:26:10: Aber das ist natürlich wichtig, wenn man überlegt, dass unsere Waffen zum Beispiel
00:26:13: die russische Raketen abwehren oder so, viel mehr Kosten als die Raketen, von denen sie
00:26:16: angehen oder die, die sie abwehren sollen, ist natürlich wichtig, irgendwie die Preistruktur
00:26:20: in der Rüstungsindustrie nach unten zu drücken.
00:26:22: Absolut.
00:26:23: Also der, also kein Zufall, das Peter Thiel hat über paar Malakie gesagt, der Typ kann
00:26:29: Amerika retten, genau mit der Logik, dass er halt in der Lage ist Waffen zu bauen, die
00:26:34: viel günstiger sind, die viel besser sind, der kostet ja auch neue Ideen, kommt also
00:26:37: auch alles in der Artikel drin, was der dafür Waffensystem überhaupt sich ausgedacht hat,
00:26:42: was die aber einmal alles so können.
00:26:43: Also wirklich eine riesige Disruption mit dem bisherigen militärischen Komplex.
00:26:48: Und übrigens dasselbe hat ja auch Elon Musk geschafft mit SpaceX, dass ja auch der Grundraum
00:26:52: von SpaceX so erfolgreich ist, weil der Raumfahrt war genauso, auch Cosplus und dann hat der gesagt
00:26:57: okay, ich baue jetzt mal die Raketen, wie ich Bock habe und wie ich glaube, finanziert
00:27:00: alles selber vor, eigenes Risiko und dann hat er die dann nachher irgendwie der NASA
00:27:04: und so dann angeboten und dann haben die gesagt, Mensch, das ist ja ganz geil hier und auch
00:27:08: viel günstiger, das nehmen wir jetzt.
00:27:09: Also und dann war da noch eine Marge eingebaut.
00:27:11: Also insofern, das ist so in vieler Hinsicht, ist der Primalakie auch so der Elon Musk für
00:27:17: der, der, der nächste, so wer kommt nach Elon Musk?
00:27:19: Ich hoffe nicht, ich hoffe nicht, ehrlich gesagt auch.
00:27:21: Ja, aber wenn man das, also der ist ja jung, ne?
00:27:23: Aber wenn man das so liest, so ein paar Sachen, die drin stehen, findet man dann auch schon gar
00:27:26: nicht schlecht.
00:27:27: Ein paar finden, denkt man auch so, um Gottes Willen auch verrückt oder auch total verrückt.
00:27:32: Aber na ja, also jetzt haben wir genug über Dinge gesprochen und Exkurs gemacht, es ist
00:27:37: kein AI, kein AI-Storyline, die Frage ist halt nur, finde ich vielleicht als Storyline,
00:27:43: kommt das ganze Geld hier zurück, so kommen wir drauf und dann vielleicht jetzt auch ein
00:27:46: bisschen zusätzliches Storyline, die mir gerade auffällt, ist das sind's am Ende alles Sprachmodelle
00:27:51: oder gibt's auch nochmal andere Formen, also Grundlagen für AI?
00:27:56: Ja, ich glaube, vielelei Sachen sind richtig.
00:28:01: Also einerseits haben diese Sprachmodelle, glaube ich, noch viel Potenzial, das sieht
00:28:04: man, dass das sogenannte Scaling noch funktioniert, das heißt, ich kann mehr Rechenpower, mehr
00:28:09: Input-Data raufschmeißen und die werden immer noch prozentual besser, relativ berechenbar
00:28:15: und deswegen macht man es im Moment auch so, man hat einen relativ klaren, kalkulierbaren
00:28:19: Fortschritt, wenn man noch mehr Rechenpower zusammenpackt oder noch mehr Daten akquiriert,
00:28:23: dann schaffen wir uns das Modell noch besser zu machen, auch die Hallizination geht mit
00:28:26: mehr Modellgröße oder mehr Input-Data in der Regel zurück.
00:28:29: Gleichzeitig versucht man aber auch andere Approaches, es gibt so Mamba-Modelle, was
00:28:34: die grundsätzlich anders funktionieren als Transpomater und Modelle, der Jan Lecombe
00:28:38: von META, der AI-Chef, sagt so, ist so eine der Leute, die sagen, mit generativer AI kommen
00:28:44: wir nur so und so weit und wir brauchen verschiedene Ansätze, das heißt, auch da wird weiter geforscht
00:28:48: werden.
00:28:49: Ich glaube, weil das Scaling so gut funktioniert, forschen wir zum Beispiel noch gar nicht gezielt,
00:28:54: wie kann ich Hallizination reduzieren, obwohl es auch da schon Fortschritte gibt, dass
00:28:58: man Modelle gegeneinander argumentieren lässt zum Beispiel und dadurch setzt sich dann tendenziell
00:29:01: öfter der richtige Fakt durch.
00:29:03: Von daher glaube ich, gibt es da, ist viel zu früh das irgendwie zu sagen, es gibt
00:29:10: da Leute, die auch sagen, wir kommen da nicht weiter oder mit dem, also wir erreichen jetzt
00:29:14: so einen Glasdeckel, das glaube ich tatsächlich nicht, das ist auch viel zu früh das noch
00:29:19: zu sagen.
00:29:20: Wir reden immer noch so über einen Dreijährigen eigentlich und die Fähigkeiten eines Dreijährigen
00:29:24: und wissen noch gar nicht, wie was, was der kann, wenn er erwachsen ist.
00:29:28: Nächste Storyline und zwar die ganz große Frage ist ja auch, ist das eigentlich alles
00:29:33: jetzt für die Gesellschaft, für die Welt am Ende positiv oder negativ, was da jetzt mit
00:29:39: der Eier auf uns zukommt?
00:29:40: Also da spielen ganz viele verschiedene Sachen rein, einen Extremszenario, was dann auch am
00:29:44: Anfang immer gelesen hat, ja dann irgendwann geht die Welt unter, weil die verschiedenen
00:29:49: Eiers aufeinander losgehen militärisch und sonst was und das ist das Ende der Welt und
00:29:53: dann gibt es natürlich die anderen, die sagen, also weiteres Wachstum, das braucht die Welt
00:29:57: ja, zwangsläufig irgendwie in der wir leben, kann nur daherkommen, du brauchst eine neue
00:30:02: große Applikation, eine neue Prototätsteigerung und das kommt daher und man kann das auch
00:30:08: alles gut kontrollieren und Weltkriegszenarien sind eQuatch und deswegen ist das auf jeden
00:30:13: Fall positiv.
00:30:14: Wo stehst du da?
00:30:15: Wie immer ist beides richtig.
00:30:17: Also ich glaube, also was die Gefahren angeht, also die größten Gefahren, die man sieht,
00:30:23: ist das Eier entwickelt irgendwie, ja also, wie sagt man, rottet die Menschheit aus oder
00:30:29: macht sich selbstständig und so weiter.
00:30:31: Ich glaube, das ist schon wichtig, dass man's im Hinterkopf hat und versucht sich dagegen
00:30:35: abzusichern, also irgendwie so eine tote Mannschaft oder angeblich trägt Sam Orton, ja in unserem
00:30:39: Rucksack, so eine Art Atomkoffer mit sich rum.
00:30:41: Ich glaube, es macht Sinn, sich darüber Sorgen zu machen, aber ich glaube, das viel direkte
00:30:45: Risiko ist eigentlich, was machen Menschen mit EI?
00:30:47: Also, dass das viel gefährlicher ist, dass jemand eben wirklich schlimme Deepfakes generiert
00:30:55: und damit irgendwie ein Bürgerkrieg provoziert, dass jemand eine Biowaffe entwickelt, damit
00:30:58: oder irgendwie eine Atomwaffe oder schmutzige Bombe damit schneller bauen, dass jeder
00:31:03: Mann eine schmutzige Bombe ohne weiteres bauen kann und so weiter, wobei dafür brauchen wir
00:31:07: Ruharans.
00:31:08: Das ist nicht ganz so einfach, aber sagen wir mal, dass jeder Mann eine Biowaffe auf einmal
00:31:09: bauen kann mit Apothekenmitteln, das sehe ich eigentlich als das größte Gefahr.
00:31:14: Und aber ich glaube, dessen ist man sich auch sehr bewusst.
00:31:16: Plus die Gefahr, dass die AI Menschen überredet.
00:31:19: Also, die Mira Murati, die CTO von OpenAI hat gesagt, dass sie sozusagen erheblichen Respekt
00:31:26: vor den Persuationsskills von AI hat, also dass sie Menschen quasi bequasselt und sie
00:31:30: überzeugen kann, dass von das irgendwas richtig oder falsch ist, mit einer schlüssigen Argumentation.
00:31:34: Das heißt, das glaube ich, das unmittelbare Risiko.
00:31:38: Man sollte sich über die anderen CNA ja trotzdem Sorgen machen, aber ich glaube, das ist was
00:31:43: wir irgendwie regulieren und begrenzen müssen oder sehr gut beobachten müssen.
00:31:45: Und dann trotzdem ist es glaube ich so, dass man das alles nicht als Argument nutzen darf,
00:31:51: um jetzt AI zu sehr zu beschränken oder gar ab den Fortschritt abzuscheiden.
00:31:54: Es gibt ja so diese Acceleration und Desecleration Hypothese in USA, da gibt es Leute, die sagen,
00:31:59: wir müssen das viel langsamer angehen.
00:32:01: Und es gibt Leute, die, wir müssen das noch mehr beschleunigen, weil es so wichtig ist
00:32:06: für die Menschheit.
00:32:07: Und deren Hypothese und der Folge ist also der Acceleristen.
00:32:11: Ich glaube, ich würde jetzt kein Blinff sagen, wie ich sage, es geht immer um eine Abwägung
00:32:17: der verschiedenen Interessen und ihr idealerweise sozusagen Cover-All your bases.
00:32:20: Aber ich glaube, warum man es nicht de-de-de-celerieren darf oder überregulieren darf, ist, weil was
00:32:25: AI höchstwahrscheinlich oder schon jetzt leisten kann, ist also ein enormer Geschwindigkeitsgewinn
00:32:31: in der Wissenschaft.
00:32:32: Und vor allen Dingen verteilt ist Bildung, Wissen und medizinische Fähigkeiten viel gleicher
00:32:38: auf der Welt.
00:32:39: Also es kann einfach, wenn du überlegst, das Smartphone hat irgendwie drei Milliarden Menschen
00:32:43: auf der Welt zu theoretischen White-Color-Workern gemacht, weil sie auf einmal mit dem Internet
00:32:46: agieren können.
00:32:47: Sie können für Leute in anderen Ländern arbeiten.
00:32:49: Sie können auf Wissen zugreifen, was sie vorhin nicht hatten.
00:32:51: Und die gleichen Fähigkeiten oder noch mächtigere Fähigkeiten von AI können wir sozusagen an
00:32:58: Milliarden von Menschen auch distribuieren.
00:33:00: Das heißt, in irgendeinem Dorf in Südostasien oder Afrika oder Südamerika oder sonst wo
00:33:06: kann jemand quasi der vorher Medizin Mann war, kann jetzt Arzt werden oder Medizin Frau war.
00:33:10: Also kann der Arzt sein.
00:33:12: Jemand anders kann der Lehrer sein.
00:33:13: Das alles kann sozusagen mit AI-Unterstützung sofort lernen oder viel schneller lernen
00:33:16: als vorher.
00:33:17: Und die AI-Unterstützung noch viel besser machen als früher.
00:33:19: Jeder kann für sich einen eigenen Tutor haben oder einen Arzt in seiner Hosentasche.
00:33:23: Und sagen medizinische Bildung oder Bildung insgesamt war noch nie so gleich verteilt eigentlich.
00:33:29: Wie heute schon, es wird noch viel, viel stärker voranschreiten.
00:33:32: Und ich glaube, diesen Aufhol-Effekt darf man diesen Menschen auf keinen Fall wieder
00:33:37: nehmen.
00:33:38: Auch nicht aus Angst vor, durchaus erheblichen Risiken, die es sicherlich gibt.
00:33:43: Weil der Fortschritt, wie viele weniger Menschen heute schon sterben müssen durch die Anwendung
00:33:48: von der AI-Bifilm.
00:33:49: Aber wie ist das dann genau?
00:33:50: Also was macht dann die AI konkret?
00:33:53: Ich meine, ein Smartphone verstehe ich schon.
00:33:56: Aber da hätte man ja auch vorher dann einen YouTube-Video gucken können.
00:33:59: Das war jetzt nicht AI.
00:34:00: Wie man immer so etwas sieht.
00:34:01: fixt oder wie man irgendwas heilt oder behandelt oder so. Ein YouTube Video kann ja nicht den
00:34:04: Input bewerten, aber es gibt verschiedene Beispiele. Eines ist, es sterben ja irgendwie 10.000 Leute
00:34:11: jedes Jahr an Kunstfehlen zum Beispiel. Es gibt eine EI, die überwacht zum Beispiel OP-Sele,
00:34:15: ob alle Instrumente, die in den Patienten gewandert sind, auch wieder rausgewandert sind. So dass
00:34:18: keine Tupfer oder Scheren mehr im Bauch verblendet. Es passiert öfter als man denkt tatsächlich.
00:34:21: Aber es gibt eine EI, die zum Beispiel einfach schaut so, ist alles was ich gesehen habe, was
00:34:25: am Patienten benutzt wird, liegt das wieder auf dem Tablet. Das ist super einfach, gerettet aber
00:34:30: unheimlich viel Menschenleben. Du kannst zum anderen Standardprozeduren damit wahrscheinlich
00:34:34: gut überwachen oder Sicherheitsaspekte überwachen im OP. Dann es gibt dieses Match-Gemini-Modell
00:34:41: von Google, das quasi basiert auf dem Gemini-Modell, also Google's large language model, ist aber
00:34:45: trainiert auf unheimlich viel, sagen, Gesundheitsdaten und das erreicht jetzt eine sozusagen richtige
00:34:51: Antwortrate von 91,1%. Wenn das die letzten Daten sind, ich glaube es gibt es gar noch
00:34:57: aktuell, aber es ist mindestens bei 91%. Jetzt würdest du sagen, ich gehe ja nicht zum Arzt,
00:35:01: der nur 91% richtig liegt. Das Problem ist, dass menschliche Experten, also Fachärzte
00:35:06: bei 87% liegen. Das heißt, das Modell gibt jetzt bessere Antworten. Also man gibt dem
00:35:10: Röntgenbilder oder Aussagen des Patienten, also an einem Nese, was man den Patienten gefragt
00:35:14: hat und sagt, was ist das jetzt? Und das Modell sagt dann, das ist wahrscheinlich ein Non-Hodgkin
00:35:20: Lymphom, was der Patient hat und das sind die nächsten Schritte. Und dabei ist es besser
00:35:25: als menschliche Experten. So, und das könntest du theoretisch jemandem eben im Dschungel in
00:35:29: der Wüste oder sonstwo, wo man sich das vorstellt, wo es keine vernünftige medizinische Versorgung
00:35:34: im Moment gibt, zur Verfügung stellen und damit schon jetzt viele Menschen Leben retten.
00:35:39: Aber ich meine, also okay, das verstehe ich so, als die ganz basic Frage gibt es jetzt Krieg,
00:35:45: medizinische Versorgung, so versucht man zu bewerten, ob jetzt die Welt besser macht oder
00:35:50: nicht. Aber was ist denn sozusagen mit diesen epastrivialen Fragen, gibt es jetzt Protivitätszuwächse
00:35:56: versus hohe Arbeitslosigkeit? Ich glaube, da ist man immer gut beraten,
00:36:01: zu verstehen, dass die meisten Umbrüche sehr, sehr marginal passieren. Also wenn wir kennen
00:36:05: vielleicht aus den letzten 20 Jahren diesen Begriff des Mobile-Shifts noch, da wurden uns
00:36:09: immer erzählt durch Handys, sind irgendwie alle Webseiten mobile morgen oder jeder macht
00:36:12: nur noch Apps, sondern hat es am Ende 20 Jahre gedauert, bis ich das nach und nach so jedes
00:36:15: Jahr gab es irgendwie 1,5 Prozent mehr Mobile-Anteil am Webtraffic, trotzdem haben alle mal vom
00:36:21: großen Schiff geredet, aber es war ein sehr, sehr allmählicher Übergang, der bis heute
00:36:24: andauert. Und ich glaube, ähnlich wird die Adoption von AI auch laufen, also das Leute
00:36:31: ist relativ allmählich nutzen. Es sei denn es gelingt für ein guter, sagen, bestehende
00:36:37: Workflows mit einzuerbeiten, sodass Menschen gar nicht merken, dass die AI nutzen. Also
00:36:40: das ist gar nicht mehr aktive Arbeit von jemandem, der sagt, ich möchte das mit AI lösen,
00:36:45: sondern dass quasi in die Workflows, in dem Microsoft Word oder in dem Excel oder in
00:36:49: dem E-Mail-Programm oder in dem SAP-Programm eigentlich überall automatisch schon so ein
00:36:54: Art Vorschlagswesen aus AI eingebaut wird. Ich glaube, damit kannst du das alles beschleunigen,
00:37:00: aber trotzdem wird das alles natürlich viel gratueller passieren. Also es ist nicht so,
00:37:03: dass wir bis 2026 jetzt irgendwie 3 Trillionen zusätzliche Wirtschaftsleistung dadurch haben,
00:37:09: das glaube ich ehrlich gesagt nicht. Aber ich glaube, dass wir es graduell immer mehr
00:37:15: Produktivität schaffen wird. Was da wirklich von mir jetzt ernst zu nehmende, bekannte
00:37:19: Freunde sagen, also das ist ein riesen Problem, was sollen die Leute alle machen? Wir werden
00:37:23: demnächst da stehen und es wird ganz viele Leute geben, die keinen Job haben und das
00:37:26: wir dann zu sozialen Unfrieden führen, weil die AI einfach alles macht und niemand mehr
00:37:34: braucht. Ja, also ich glaube, es gibt so gesamtgesellschaftlich,
00:37:39: es ist kein so großes Problem, einfach falls sehr graduell passiert, aber es gibt glaube
00:37:43: ich Berufsgruppen, ich glaube Call Center Agent oder der First Level Support. Ist ein gutes
00:37:48: Beispiel oder sowas wie vielleicht Debitorenbuchhaltung oder so, wenn du einfach nur wirklich Rechnung
00:37:53: gehabt hast. Die Übersetzung, genau, absolut, wenn du überlegst früher bei so einer UN-Konferenz,
00:37:58: da setzt du irgendwie, vielleicht bei der UN-Konferenz, macht man vielleicht weiterhin das mit Menschen,
00:38:01: aber so bei, sagen wir mal, bei eurer Konferenz, glaube ich, übersetzt dir die große Bühne auch.
00:38:05: So weiß nicht, ob man sich den Menschen in Zukunft noch leisten muss oder ob das nicht
00:38:11: eine AI besser kann. Es gibt ja ganze Wettungsbüro und so was.
00:38:17: Genau, zum Beispiel auch da gerade so rechtliche Texte müssen ja oft für irgendwelche Aposteln
00:38:22: oder so übersetzt werden, das kann eine AI wahrscheinlich zuverlässiger und besser und
00:38:27: vor allem viel schneller. Also gibt es das der AI irgendwie eingescanned oder als EV
00:38:32: auf der Marte, dann kommt es drei Sekunden später vollkommen übersetzt wieder. Wenn
00:38:35: es zum Übersetzungsbüro gibt, ist Christus eine halbe Woche später wieder.
00:38:37: Wahnsinn, also nutzen wir im Büro ab und zu, das ist auch super einfach, einfach kurz reinwerfen,
00:38:43: ein Text und zack ist er fertig.
00:38:45: Das heißt, ich glaube, einzelne Berufsgruppen wird das sehr stark und sehr unmittelbar betreffen,
00:38:50: aber so dass es zu gesellschaftlichen Verwerfungen kommen, weil jetzt die Leute auf der Straße
00:38:52: geht, weil sie die Jobs verlieren, die Leute, die die Jobs verlieren, sind ja White-Colour-Worker.
00:38:58: Das heißt, man kann davon ausgehen, dass man die vielleicht auch wahrscheinlich ganz gut
00:39:02: umschulen kann. Kann man bei Blue-Colour-Worker natürlich auch, aber ich glaube, dass es da
00:39:06: vielleicht noch ein bisschen einfacher sein wird, die auch neuen Aufgabengebieten zuzuführen.
00:39:11: Also der Mensch, der früher vielleicht Übersetzerin geworden wäre, der bitte zum Zauber YouTube
00:39:17: Creator.
00:39:18: Ja, das ist so das Klischee. Das liegt natürlich nicht jedem und vielleicht sind Übersetzer
00:39:24: sogar introvertierte Leute.
00:39:26: Also ja, war das keine gestiegene Arbeitslosenquote dadurch?
00:39:31: Nein, eigentlich sollte, wenn die Gesamtproduktivität ansteigt, dadurch, dann sollte das Wirtschaftswachstum,
00:39:38: was dadurch ausgelöst, wird eigentlich eher sozusagen noch mehr Jobs kreieren, mehr Wachstum,
00:39:43: mehr Wohlstand oder auch damit mehr Jobs kreieren. Das hat man bei allen anderen technologischen
00:39:48: Innovationen ja auch gesehen, so wenn das die Dampfmaschinen oder Autor anschares.
00:39:52: Das Auto ist übrigens das Bett noch ein noch bessere Beispiel als das mit dem Dreijährigen.
00:39:56: Das erste Auto hatte irgendwie 0,75 PS, ist irgendwie 16 km/h gefahren und hat dabei noch
00:40:03: 15 Liter gebraucht oder so, so ein Daimler Motorenwagen oder so.
00:40:06: Wenn du überlegst, heute fährt das Ding halt, hat das 420 PS irgendwie, kann 350 km/h fahren,
00:40:11: wenn du willst, so als V1-Auto und verbraucht dabei noch weniger eventuell.
00:40:16: Und wir beurteilen das sehr so, diese ganze Technologie beurteilen wir sehr so auf dem
00:40:21: Level des ersten Motorenwagens von irgendwie 1994, 1999 oder wann ja gebaut wurde.
00:40:25: Aber es ist trotzdem eine sehr aber alslosen Frage, zum Beispiel geht ja seit jetzt auch
00:40:29: Jahren irgendwie immer um und die Frage ist, kommt das wirklich?
00:40:33: Und ich war wirklich vor kurzem überrascht als mir jemanden, den ich 5 vernünftigen
00:40:36: Typen halte, gesagt habe, also da macht er sich Sorgen.
00:40:39: Okay, okay, aber du zumindest nicht und sagst irgendwie, nee, das ist graduell die Umschulung,
00:40:45: es gibt ja eh genug offene Stellen und Leute, die dann was anderes machen würden und auch
00:40:50: gebraucht werden.
00:40:51: Ja, also aus dem Marketing kommt es immer super wichtig, wenn man sich so darstellt,
00:40:55: wie man die Daten anschaut, die so zu slicing und zu dicing.
00:40:58: Und deswegen, es gibt Jobs, die werden ganz wenig davon betroffen sein lange Zeit und
00:41:02: wo es super langsam geht und dann gibt's Jobs, die irgendwie gesagt Callsetter Agent oder
00:41:05: Übersetzer, da kann es halt sehr schnell sein, dass wahrscheinlich die Hälfte der Jobs
00:41:09: wegfallen, auch innerhalb von wenigen Jahren.
00:41:11: So, und beide ist richtig, aber der Gesamteffekt auf Arbeitsplätze ist glaube ich relativ allmählich.
00:41:18: Einfach weil die Adoption gar nicht so schnell funktioniert.
00:41:20: Das sieht man ja jetzt auch, dass eben EI nicht so schnell angewendet wird, wie wir uns einmal
00:41:25: vorgestellt haben.
00:41:26: Okay, also dann nächste Storyline, Deutschland oder Europa.
00:41:30: Was ist da unsere Rolle Europas?
00:41:35: Wird er irgendwo anders stattfinden?
00:41:38: Wir sind einfach nur die Nutzer des Ganzen oder können wir da selber mitspielen in irgendeiner
00:41:43: Form?
00:41:44: Also auch da Licht und Schatten, würde ich sagen.
00:41:46: Der Schatten ist sicherlich einerseits, dass ich herausstelle, dass diese Technologie
00:41:51: super kapitalintensiv ist.
00:41:52: Also es ist nicht was, was man einfach nur mit den schlausten Köpfen machen kann, sondern
00:41:55: man braucht einfach Rechenzeit und Rechenzeit generiert man mit Chips und dafür braucht
00:41:59: man Geld.
00:42:00: Also man kann die Rechenzeit mieten oder man kann sich Chips kaufen und sie selber sozusagen
00:42:02: produzieren die Rechenzeit, aber so oder so braucht man Milliarden in Zukunft um konkurrenzfähige
00:42:08: Modelle zu trainieren.
00:42:09: Das heißt, das kannst du nicht mal aus der Garage bauen, das nächste große EI-Star-Lub,
00:42:14: glaube ich.
00:42:15: Und das ist für Europa tendenziell immer erst mal Nachteil, weil wir sagen weniger Zugang
00:42:19: zu Wagniskapital haben, weil wir sagen weniger Wagnisse uns leisten, weil die Menschen, die
00:42:25: das meiste Geld haben, noch nicht viel in Wagniskapital investieren.
00:42:28: Das ist ein strategischer Nachteil.
00:42:30: Die Regulierung macht es gerade schwerer, glaube ich, in Europa.
00:42:35: Klar ist EI was, was reguliert werden muss.
00:42:37: Also gerade da, wo es konkrete Risiken gibt, sollte man die Risiken regulieren.
00:42:41: Ob man jetzt so preemptiv vorauseilend das so stark regulieren sollte, bin ich es skeptisch.
00:42:46: Gab es erscheint heute oder gestern in der Boards The Journal so ein Op-Ed von Marc Sackabürg
00:42:51: und Daniel Ick, dem Spotify-Chef, die sich sehr stark aussprechen für weniger Regulierung,
00:42:57: gerade für Open-Source-Modelle in Europa, weil das wahrscheinlich der Innovation nicht
00:43:02: zu zuträglich ist, einfach weil Firmen im Zeifel vielleicht woanders anfangen.
00:43:06: Ein gutes Beispiel, zum Beispiel Black Forest Labs, da gab es…
00:43:10: Deutsche KI-Firmen, das ist für einen großen Vannier gekommen, ne?
00:43:12: Gab es letzte Woche oder in den letzten Wochen News, dass sie ein sehr, sehr konkurrenzfähiges
00:43:18: Bildgebungs-Programm entwickelt haben, Flux 1 heißt das.
00:43:23: Das schlägt mit Journey und Dali von OpenAI quasi die erste Version von einem gefühlten
00:43:30: Hinterhof-Labor, würde man denken.
00:43:32: Like First Lab und Freiburg und Breisgau, genau.
00:43:35: Und das schlägt aus dem Stand dieser Modelle.
00:43:38: Das ist verwunderlich, das zeigt wieder, wie wichtig Köpfe dann doch sind andererseits.
00:43:42: Also das tut mir wirklich gut ein Team.
00:43:43: Die haben vorher, muss man sagen, bei Mid Journey und bei Stable Diffusion, also bei
00:43:47: Bild und Video, AI-Modellen schon gearbeitet, also hatten die Erfahrungen, die es braucht,
00:43:52: genau.
00:43:53: Und ich habe auch das Gefühl, dass diese, also gleichzeitig wurde eine Runde announced,
00:43:57: dass sie, glaube ich, 31 Millionen US-Dollar von den Dreeson und so weiter Kursler bekommen
00:44:01: haben.
00:44:02: Um dieses Modell zu trainieren, müssen sie das Geld… hatten sie wahrscheinlich schon
00:44:05: vor Erzugang zu diesem Geld ansonsten, glaube ich, wahrscheinlich habe sie die Runde jetzt
00:44:08: etwas später angekündigt.
00:44:09: Aber die Firma ist jetzt in Delaware registriert.
00:44:13: Ich habe gestern auf die Webseite geschaut aus Interesse, weil ich mal schauen wollte,
00:44:18: wer da noch so Shareholder war.
00:44:19: Also weil ich mich vor allem gefragt habe, mit welchem Geld haben sie dieses Modell gebaut,
00:44:22: wenn sie angeblich da erst die Runde announced haben.
00:44:24: Aber das kann ich nicht rausgehen, weil es in Delaware sitzt.
00:44:28: Die Firma, das heißt Proformer, wir können auch sagen, das sind deutsche Entwickler oder
00:44:31: so.
00:44:32: Sie sitzen mit ihrer Firma oder ihre Leute sitzen in Freiburg, aber die Firma ist eine
00:44:38: Delaware Co., wenn ich es richtig gesehen habe.
00:44:41: Aber erst mal irgendwie fast egal ist, oder?
00:44:44: So lange die Leute hier sitzen, hier ihre Steuern zahlen, ist das erstmal für uns egal, wo
00:44:50: die Firma registriert ist.
00:44:51: Genau, die Frage ist, wo der Umsatz am Ende verbucht wird und wo die Arbeitsplätze geschaffen
00:44:53: werden.
00:44:54: Ich sehe das jetzt erst mal trotzdem als deutsche Firma.
00:44:58: Schon.
00:44:59: Was schade ist, dass die jetzt ausgerechnet mit XAI, also Elon Musk's AI Firma, kooperieren
00:45:06: und so ein bisschen das zügelose Bildgebungsmodell macht.
00:45:09: Das heißt, du kannst Dinge, die in allen anderen Modellen abgefangen werden.
00:45:13: Also, Generee, wir haben mal ein Bild von Donald Trump in einem 9/11 Flieger, der auf die Twin
00:45:19: Towers zu reißt oder Ronald McDonald mit einer Assault Rifle, also Sturmgewehr.
00:45:24: Also, was geht auf einmal?
00:45:26: Auch Copyrighted Material.
00:45:27: Also, ich kann irgendwie Star Wars Charaktere und so was nachbauen.
00:45:31: Und ich glaube, also, es passt natürlich sehr gut zu der Free Speech-Logik von Elon Musk,
00:45:36: dass man einfach alles machen kann mit dem Modell.
00:45:38: Es baut aber natürlich auch vielfältige Möglichkeiten für Desinformation.
00:45:42: Kannst du halt wieder so Fake Verhaftungen bauen und irgendwie versuchen, Bürgerkriege
00:45:46: anzuzetteln damit und spätestens bei den Copyrights, glaub ich.
00:45:51: Ausgrenen und Löschern.
00:45:52: Hier alles irgendwie, sagen wir mal, sauber reglementiert und ganz viel draufpropfen
00:45:57: am Ende auf Bürokratie.
00:45:59: Ausgrenen, da kommt in so eine Firma, die das dann alles umgeht.
00:46:01: Ist irgendwie auch schon frumisch.
00:46:02: Genau.
00:46:03: Aber es ist auf jeden Fall beeindruckend, dass es wieder beweisen hat.
00:46:06: Ich glaube, misstral beweist das auch sehr gut aus Frankreich, dass sie wirklich sehr
00:46:09: gute Open Source-Modelle bauen, die absolute State of the Art sind jedes Mal, wenn sie rauskommen.
00:46:14: Black Forest Labs hat es jetzt so bei Bildgebung bewiesen.
00:46:17: Das ist ein vollkommen neues Team.
00:46:19: Mit Erfahrung, aber ein neues Firma, ein neues Modell kann sowas mit überschaubareren Mitteln
00:46:25: schaffen.
00:46:26: Ich glaube, Aleph Alfa, ehrlich gesagt, was der lange so die deutsche KI-Offenung über
00:46:30: halte ich für relativ abgehängt.
00:46:32: Ich glaube, es wird am Ende eher so ein Exzenscher für die Implementierung von EI in Behörden
00:46:39: und so werden.
00:46:40: Also, dass die andere Modelle vielleicht auch ihr eigenes Modell, was mal noch nicht
00:46:44: konkurrenzfähig ist, wenn auch ein, was ich höre, an die Bedürfnisse von Behörden oder
00:46:50: Mittelständlern anpassen.
00:46:52: Also ein ganz sicheres belastbares, also Behörden brauchen ja auch dann ja auch.
00:46:56: Auch das ist wichtig.
00:46:57: Ich will eben gar nicht den Wert absprechen so.
00:46:59: Aber es ist eben dann näher dann sozusagen einer Implementierungsagentur, glaube ich,
00:47:04: als an echter Forschung.
00:47:06: Also pro forma betonen Sie immer, dass Sie noch weiter forschen und ein dediziertes
00:47:09: Forschungsbudget haben.
00:47:10: Aber ich glaube, im Rennen um, sagen, State of the Art oder führende Modelle haben Sie
00:47:15: eigentlich aufgehend.
00:47:16: Und auch im Rahmen dieser Finanzierungsrunde, die es da gab, haben Sie jetzt schon rausgestellt,
00:47:23: dass es ein paar Einschränkungen gab.
00:47:24: Also das 300 Millionen von den 500 Millionen, die es damals geben sollte, quasi in so einem
00:47:30: Vehikel sind, was tatsächlich von Lilo in Schwarz kontrolliert wird über verschiedene
00:47:33: Stiftungen und Gemeinnütze gegeben hat.
00:47:34: War eine große Diskussion vor einigen Wochen, ich glaube, im Manager Magazin bei euch auch,
00:47:37: in verschiedenen Orten wurde darüber gesprochen, ob die Finanzierung kleiner ist als angekündigt.
00:47:42: Am Ende ist es auch kein Verbrechen, da irgendwie mehr anzukündigen, als man am Ende bekommen
00:47:46: hat oder es hat keiner gezogen überhaupt anzukündigen.
00:47:49: Also da, ich fand die Diskussion interessant, aber es hat da so die Firma in so ein sehr
00:47:56: spezielles Licht gerückt, als wenn die was falsch waren würden.
00:47:58: Ich fand das jetzt nicht so schlimm.
00:48:00: Marketing versucht in der Welt auch irgendwie jeder.
00:48:02: Aber natürlich, wenn man sich auf die absoluten Summen guckt, einfach weniger Geld da.
00:48:07: Und das ist jetzt die ganze Diskussion, ob jetzt die Presse mit einem recht rechtmäßig
00:48:12: war oder ehrlich war.
00:48:15: Wenn man guckt, was dabei open AI für Summen reinfließen und dann kommt man hier nicht
00:48:21: auf die selben Summen.
00:48:22: Aber es ist auch schon am Ende wirklich so ein Money Game.
00:48:25: Also wenn die das Geld nicht haben, das kann man nicht auch so, du kannst das fehlende
00:48:29: Geld nicht ausdrecks nicht umgehen.
00:48:30: Es ist am Ende nicht so, dass man feststellen wird, es hat sogar geholfen wegen der Geld
00:48:34: zu haben.
00:48:35: Es hat auch auch mit anderen Ideen zu entwickeln.
00:48:38: Es hat viel besser geklappt.
00:48:39: Das siehst du nicht.
00:48:41: Wie du sagst, es ist ein Money Game.
00:48:44: Also open AI verbrennt immer noch oder in den Anfangsstrichen verbrennt.
00:48:47: Die Kosten übersteigen den Umsatz immer noch um 5 Milliarden West or Leibn, jedes Jahr.
00:48:52: Also du kannst sagen 500 Millionen oder 480 Millionen im Monat bringen die quasi durch.
00:48:58: Jeden Tag 12 Millionen.
00:48:59: Aber es muss doch sein.
00:49:00: Um erfolgreich zu sein, muss es sein.
00:49:02: Das kann ja ein Weg sein, aber ich meine der Herr Wirt oder der Herr Schwarz, die ihr da
00:49:06: irgendwie sozusagen unsere Bootstrapped Ansätze ganz lebendig verfolgt haben, sehr erfolgreich.
00:49:12: Die werden sagen, Gottes Willen, kein Geschäft kann niemals so erfolgreich werden.
00:49:15: Das geht glaube ich nicht.
00:49:16: Es ist eine kapitalintensive Technologie.
00:49:18: Und das liegt ein bisschen daran, dass man eben gar nicht so use case basiert arbeitet.
00:49:23: Eben nicht an konkreten Lösungen, die jetzt morgen Geld generieren, sondern diese Entwicklung
00:49:27: von Foundation Models oder large language Models ist halt schon noch so eine Art General
00:49:32: Purpose Grundlagen Technologie, was normalerweise an Universitäten oder mit Staatsmitteln geforscht
00:49:37: wird.
00:49:38: Und deswegen ist es halt einfach super kapitalintensiv und hat oft keine direkten Rückflüsse.
00:49:44: Man kann die Errungenschaften dann irgendwie per API Unternehmen zur Verfügung stehen und
00:49:49: dafür auch Geld nehmen offenbar und kann damit Rechenzentren gut auslasten und damit Geld
00:49:53: verdienen wie Microsoft und Amazon und Google das tun.
00:49:56: Aber es braucht erhebliche Investitionen, wo lange Zeit unklar ist, ob sie jemals Rückflüsse
00:50:05: dazu geben wird.
00:50:06: Aber ist es dann wirklich nötig, der auch dann first move-out sein oder kann man nicht
00:50:10: abwarten, was da jetzt OpenAI so alles rausfindet, die Verbrenne eine wahnsinnig coole, die
00:50:14: ganzen Serverleistungen, die dafür nötig sind, die sind ja auch Sancos, die sind ja nicht
00:50:21: so, dass die dann irgendwie jetzt mobilen hinstellen, die dann in Zukunft da sind.
00:50:25: Die sind einfach durchgerauscht und weg und man hat dann aber trotzdem Learnings und
00:50:28: diese Learnings können andere später sozusagen auch übernehmen, ohne diese riesigen Anlaufkosten
00:50:33: zu haben.
00:50:34: Weil ich erkläre, ich kenne nicht, dass man durch die Anlaufkosten, also es vor allen
00:50:37: Dingen Serverleistung ein Mode erschafft, dass das halt irgendwie, sagen wir mal bei Immobilien
00:50:44: versteht, dass man sagt, wir bauen jetzt hier seit Jahren riesige Häuser und deswegen können
00:50:48: jetzt hier viel mehr Menschen, wo das so anders und das kann man nicht mehr aufholen.
00:50:51: Okay, aber Serverleistung ist ja weg.
00:50:54: Genau, man könnte differenzieren sozusagen, die Server stehen noch da, aber das, dass
00:50:58: man an OPEX oder sagen Betriebskosten reingesteckt hat, das ist auf jeden Fall weg und ist dann
00:51:02: auch wertlos, wenn das nächste Modell gebaut wird.
00:51:04: Ist das alles Untergang des Gelds?
00:51:05: Genau, aber man braucht einfach diese Phase überhaupt.
00:51:08: Genau, und du baust gar nicht so sehr auf die vorherigen Models auf, sondern eigentlich
00:51:12: fängst du jedes Mal so ein bisschen von alleine, also na klar, lernst du aus der Vergangenheit,
00:51:16: aber sagen du, du baust jedes Mal so ein bisschen von Null an.
00:51:18: Plus, es gibt immer die Gefahr, dass noch mal eine ganz neue Technologie, wie diese Mamba-Modelle
00:51:22: oder andere kommen und vielleicht kriegt damit jemand vom Start weg nochmal deutlich bessere
00:51:26: Ergebnisse her oder schafft es dieses Reasoning hinzubekommen, also dass die Modelle scheinbar
00:51:30: so denken können, wie ein Mensch oder Schlussfolgeung treffen und dann kannst du die ganzen LLMs
00:51:35: von heute auf morgen wegschmeißen, theoretisch, wenn das jemand schafft.
00:51:37: Das heißt, ich würde sagen, auch da würde ich wieder ins Szenario denken.
00:51:41: Es gibt ein Szenario, wo wir nichts Besseres finden als LLMs für eine gewisse Zeit, dann
00:51:45: ist glaube ich das Scaling über LLMs weiterhin sehr erfolgreich und dann werden die bisherigen
00:51:49: Player, die jetzt schon weit voran gekommen sind, wahrscheinlich so im Driver-Seat bleiben.
00:51:54: Es gibt aber durchaus ein Risiko dafür, dass eben eine neue Technologie entdeckt wird,
00:51:58: so wie die Transformer 2017 erst sagen, erfunden wurden.
00:52:00: Und wenn damit dann jemand bessere Ergebnisse erreicht, müssen alle anderen sich umstellen
00:52:06: und fangen bei Null an wirklich.
00:52:07: Die haben dann vielleicht trotzdem mehr Geld und mehr Personal und das hilft die natürlich
00:52:11: schon, aber deine These ist schon richtig.
00:52:13: So ein bisschen, also ich finde es vollkommen unklar heute zu sagen, wer da dieses Rennen
00:52:18: gewinnt.
00:52:19: Also auch in Alfalfa könnte jetzt allen, sagen wir mal, Diskussionen zum Trotz dann auch
00:52:25: durchkommen.
00:52:26: Ich hielt das fair.
00:52:27: Also in Szenarien sprechen, hielt ich das für ein eher unwahrscheinlich Szenario, einfach
00:52:30: sagen, weil Geld wahrscheinlich Personal fehlt.
00:52:33: Ich glaube, es gibt viel Personalfluxation auch bei Alfalfa.
00:52:36: Das heißt, das hilft natürlich alles nicht, weil am Ende braucht es schon noch Geld und
00:52:39: das beste Personal.
00:52:40: Aber die Summen, die man braucht, um Personal einzukaufen, sind ja viel geringer als jetzt
00:52:47: die Summen, die da eine Rolle spielen.
00:52:49: Also das ist ja eher Geld, das man braucht, um in Server zu stecken.
00:52:53: Die Rechenleistung ist wahrscheinlich so 80 Prozent der gesamten Kosten.
00:52:55: Genau, genau.
00:52:56: Und die haben wir jetzt ja, wie man es auch drehen und wenn ein paar Hundert Millionen
00:52:59: sind da ja schon unterwegs und damit kann man ja schon ein paar ganz gute Leute heranholen.
00:53:03: Serverfrage ist halt...
00:53:05: Also rein theoretisch, wenn ihr so ein Durchbruch gelingt, also ein komplett neues Modell und
00:53:12: Verfahren entwickeln, dann wäre das möglicher.
00:53:15: Ansonsten viel mehr aus Deutschland haben wir noch nicht so gehört oder aus Europa auch
00:53:18: nicht.
00:53:19: Wie gesagt, mit Stral aus Frankreich, das glaube ich sehr erfolgreich, auch deutlich
00:53:24: besser als gedacht hätte.
00:53:25: Aber ansonsten ist an Foundation Models, jetzt gibt es glaube ich nicht so viele, die
00:53:32: wirklich State of the Arts sind, also irgendwie den Top 10 in den Vergleichs, Benchmarks mitspielen.
00:53:37: Auf der anderen Seite, also die SAPs und so, die es ja hier auch gibt, die bauen jetzt überall
00:53:41: alle, dann AI in ihre bestehenden Dienste ein.
00:53:45: Das ist ja schon dann irgendwie auch da und ich würde auch sagen, wenn man das so hört,
00:53:49: was die so kommunizieren, auch vielleicht ein Denken gemacht.
00:53:52: Genau.
00:53:53: Also ich glaube, jede große Software-Campagne, die irgendwie mehr als 10 Milliarden Umsatz
00:53:57: macht wird, wie gesagt, ich glaube, das Software und AI nicht mehr zu trennen.
00:54:02: Heute reden wir so über Software ohne AI und Software mit AI oder über AI.
00:54:05: So wie es mit Marketing und Online Marketing.
00:54:08: Ja, so ein bisschen, oder?
00:54:10: Ja, ich glaube in 10 Jahren wird man selbstverständlich davon ausgehen, dass Software immer etwas Maschinenlearning
00:54:16: zumindest beinhaltet.
00:54:17: Letzte Storyline, so Inhalte und Content.
00:54:22: Ist es so, dass wir demnächst alle, wie das in Hollywood manche befürchten, so Filme
00:54:26: gucken, die komplett von irgendwelchen AI's sich ausgedacht wurden, hören wir Musik,
00:54:32: die irgendwie gar nicht mehr Menschen gemacht haben, sondern die ein AI gemacht hat, konsumieren
00:54:38: wir Medien durch Perplexity, die dann aus anderen Medien vielleicht was Sammeln ziehen,
00:54:42: sagen wir so ein paar Worte zu diesem ganz großen Thema.
00:54:45: Also ich glaube auch das graduell stimmt das schon.
00:54:48: Also es gibt jetzt, ich glaube in Deutschland gibt es gerade einen, den ersten AI-Titel,
00:54:51: der in die Top 10 eingezogen ist, von Budapro, glaube ich.
00:54:56: Ich glaube, dass Filme unterstützt werden auf jeden Fall mit AI.
00:54:59: Das passiert sicherlich schon jetzt.
00:55:01: Also das irgendwie große Schlacht-Szenen oder so, wie man die aus Herder Ringe kennt,
00:55:06: oder irgendwie am Computer selber renderst, das macht keinen Sinn.
00:55:08: Sondern du sagst halt, du kannst dann generative AI sagen, stellen wir 5.000 Orks in, dann
00:55:12: ist das irgendwie in 14 Sekunden da und da haben früher wahrscheinlich richtig viele
00:55:16: Leute dran gearbeitet, so eine große Schlacht zu animieren.
00:55:19: Das heißt, da wird auf jeden Fall, ich glaube, da hast du die Produktivitätsfortschritte
00:55:24: schon jetzt, dass jetzt die gesamte Storyline für ein Film AI entwickelt wird, dass du
00:55:29: als Autopilot läuft.
00:55:30: Ich kann mir vorstellen, dass es so eine Art Bee Movie Genre geben wird, sagen wir, wo
00:55:34: wir wirklich so ein bisschen trashiger sind und vielleicht gibt es dafür eben Markt,
00:55:38: dass Leute es besonders cool finden, weil es eben komplette AI generiert ist.
00:55:41: Ich glaube, die aufwendigen großen Produktionen und Sequels, also die großen Franchises,
00:55:45: wo du quasi IP hinter hast, also die großen Marken, wenn du das möchtest, Marvel und
00:55:50: so, die werden sicherlich unterstützt werden durch AI, aber die werden jetzt nicht komplett
00:55:52: von AI geführt werden.
00:55:54: Einfach weil die Markenführung auch so was ist, dass wie meine Charaktere über Jahrzehnte
00:55:57: entwickelt und so weiter, das überlässt man wahrscheinlich lieber Menschen.
00:56:01: Ich sehe bei Musik und Text, also geschriebenen Texts, News, glaube ich schon so eine Content-Inflation,
00:56:10: die kommen wird, dass es zunehmend schwerer wird zu unterscheiden, was ist eigentlich
00:56:14: so ein echter Content und was ist AI generiert, was die ganzen Neger jetzt im Vorfeld der US-Wahl
00:56:22: die ganzen Negativen Effekte von Fake News wieder haben, dadurch das unter anderem durch
00:56:26: so was wie Flux, das Flux-Modell von Black Forest Labs zu falscher Bilder erstellen kannst,
00:56:31: auch irgendwie falsche News generieren kannst, dass du Menschen massenhaft anschreiben kannst.
00:56:35: Es gab jetzt News, das in Twitter aber auch Meternetzwerken so riesige Kampagnen von
00:56:41: russischen Bots, russischen Anderländer, Iran und so weiter unterwegs sind, die quasi
00:56:46: per AI Menschen versuchen zu überzeugen von irgendwelchen falschen News und das auch
00:56:51: dazu führt, dass wir, also nicht nur dass wir die Falschen nicht erkennen können,
00:56:54: sondern wir misstrauen auch echten News.
00:56:56: Also wenn du dich an den Tag kennst, wo es einen Attentat von Donald Trump gab, da haben
00:57:02: wir viele Leute gemutmaßt, ist das überhaupt echt, so weil die Bilder eigentlich zu gut
00:57:05: umwahrt zu seinen Anführungsstrichen aushand, irgendwie wie also die Hand rausstreckt aus
00:57:09: zu meinem angeschossenen Ohr und Leute sagen, die eigentlich, die man eigentlich als Medienkompetent
00:57:15: einordnen würden, fragen sich so, wurde das nicht vielleicht mit AI gemacht, ist das
00:57:18: überhaupt echt und so weiter.
00:57:20: Also ich glaube, dass wir einen riesen Misstrauen gegenüber der Authentizität von so Content-Pieces
00:57:26: bekommen werden, sowohl was Video als auch was Bild, als auch was Audio angeht, glaube
00:57:30: ich.
00:57:31: Glaubst du, dass dieses Perplexity, was ja auch eine der, sagen wir, AI-Firmen ist, von
00:57:34: dem man sehr viel hört, dass die eine Rolle spielen werden in Zukunft?
00:57:37: Also was die machen ist ja am Ende jetzt schon die Suchen aus bestehenden Medien, inhaltete
00:57:46: zusammen und beantworten auch Fragen nach Nachrichten und nach irgendwelchen, ja, wirklich
00:57:53: Content-Inhalten und man so will eine Art von Neuart von Suchmaschine.
00:57:57: Ja, ich würde vermuten, dass Perplexity gute Retention-Werte hat, also dass Menschen,
00:58:02: die Anfang Perplexity zu nutzen, sagen wir mal, die es mehr als einen Tag genutzt haben,
00:58:08: dass die dann oft dabei bleiben, weil es, glaube ich, sehr überzeugend ist als Produkt, also
00:58:11: ich benutze es selber auch für Recherchen und damit greift es Google wahrscheinlich
00:58:17: im Nachkommensbereich irgendwie Marktanteil ab.
00:58:20: Aber einerseits kann ich sagen, ich halte das Produkt jetzt schon für deutlich besser
00:58:24: als Google tatsächlich, wenn es um Recherche geht und gleichzeitig bin ich mir 100% sicher,
00:58:29: dass sie in fünf Jahren niemals mehr als 10% Marktanteil im Suchmarkt haben werden.
00:58:34: Einfach weil...
00:58:35: Aber was, 10% wäre schon gigantisch?
00:58:36: Genau, das wären 20 Milliarden Umsatz im Jahr, das ist noch nicht von schlechten Eltern.
00:58:41: Aber diese Habits zu verändern, gerade für was, was so ein Begriff geworden ist wie Google,
00:58:46: was in den Betriebssystemen teilweise und den Browsern auch so tief verankert ist, dass
00:58:49: es gar nicht so einfach ist.
00:58:50: Also man muss erstmal aktiv jedes Mal per Plexity aufrufen, wenn man was recherchieren
00:58:55: will und so weiter.
00:58:56: Das heißt, es ist gar nicht so einfach diese Habits zu brechen, weil Google seinen Monopol
00:59:00: einfach auch sehr stark befestigt hat.
00:59:02: Deswegen glaube ich, es wird langsam, also wird es ja allmählich gehen auch dort.
00:59:06: Ich bin mir auch relativ sicher, dass per Plexity eine der Firmen sein wird, die in fünf bis
00:59:12: zehn Jahren noch da ist.
00:59:13: Ist das gut für Medienverlage, Medienhäuser, die jetzt jetzt schon so Deal zu machen, ich
00:59:19: habe ja mit dem Rainer Esser von der Zeit drüber gesprochen, vor Kurzem oder auch auf
00:59:23: the Record mit Leuten hier aus dem Spiegelverlag, glaube ich.
00:59:25: Die haben es alle im Blick und sind alle dabei so zu überlegen, geben sich Inhalte da rein,
00:59:31: machen sie denselben Fehler wie vor Jahren mit Google oder wie geht man damit um, was
00:59:35: wird es denn fehlen?
00:59:36: Ich glaube, man muss sich halt auf Inhalte fokussieren, die man nicht mit einem Paragraf
00:59:42: zusammenfassen kann.
00:59:44: Also wo irgendwie Meinung drin vorkommt.
00:59:46: Wenn natürlich irgendwie nur eine, also was das man typischerweise recherchiert, irgendein
00:59:51: Fakt oder so, der Traffic wird wahrscheinlich weggehen.
00:59:54: Der geht aber auch mit, der wäre auch mit Google weggegangen.
00:59:56: Also auch Google fasst ja Content schon zusammen und zieht ihn sozusagen ins eigene Produkt
01:00:00: rein.
01:00:01: Das ist so ein gesießter Tag in der Suche, obendraüber muss keiner auf die Seite gehen.
01:00:04: Genau, genau.
01:00:05: Also das wird sich weiter verschärfen und sagen Content, der einfach nur eine Frage
01:00:08: beantwortet, sagen, ein Faktum zurückgibt, der hat glaube ich eh keine Zukunft, dass
01:00:13: man da noch viele Besucher drauf erwartet.
01:00:15: Ich glaube schon, dass ein guter Journalismus vernünftige Hintergrundartikel, investigative
01:00:21: Recherchen und so weiter, Meinungspieces, dass die schon auch weiterhin eine Chance haben.
01:00:28: Okay, das heißt, Publicity, die jetzt machen, irgendwie gucken, was es denn man denen gibt,
01:00:34: bisschen abschätzen, was die leisten können, was nicht, aber die werden jetzt den Verlage
01:00:40: nicht noch mehr Geld wegnehmen.
01:00:42: Ich glaube, dass Verlage weiterhin sozusagen mit Rückgehenden umsetzen zu kämpfen haben.
01:00:48: Auch aufgrund von Google als von Publicity, weil ich sage, Publicity ist ja relativ klein,
01:00:55: so dass Cloud, ich glaube nicht, dass das spürbar ist für einen Verlag, was Publicity
01:00:59: jetzt wegnimmt.
01:01:00: Genau, genau.
01:01:01: Aber allein, dass was Google jedes Jahr mehr wegnimmt quasi, dadurch, dass sie immer weniger
01:01:05: Menschen verweisen an die Zielseiten, ich glaube, das ist viel spürbarer und deswegen
01:01:10: glaube ich, dass sie netto die Verlage weiterhin so ein rückgängiger Einnahmen haben werden.
01:01:15: Übrigens haben wir gerade Deep-L vergessen.
01:01:17: Habe ich im nächsten Podcast Aufnahme, also aus Deutschland kommt auch eine Firma, die
01:01:22: jetzt im AI Space schon mal ganz gut unterwegs ist.
01:01:25: Genau, und nach allem, was man weiß, ist so ein relativ führend wirklich im Übersetzungsbereich.
01:01:29: Gefahr ist da natürlich so ein bisschen, dass es komotetized wird und sozusagen ein Standardfeature
01:01:34: von jedem large language Modell wird, weil die einigermaßen gut übersetzen können in
01:01:38: der Regel.
01:01:39: Aber sie haben natürlich einen Vorteil, wenn sie einen sehr stark hochspezialisierten
01:01:43: Use Case haben und dann vielleicht auch klare Industrien an die sie sich richten, irgendwie
01:01:48: Verträge übersetzen oder juristische Schriften.
01:01:50: Und zumindest gelten sie so als einer der ja schon global relevantesten Player in dem
01:01:55: Feld?
01:01:56: Absolut, ja.
01:01:57: Habe ich sie noch, wie lange, 15 Jahre unterwegs oder so, glaube ich, eine relativ alte Firma,
01:02:01: die sozusagen lange vor den Transformatorenmodellen schon mit Machine Learning Übersetzungen gemacht
01:02:06: hat, wenn ich richtig liege.
01:02:07: Ja.
01:02:08: Okay, okay, also mir fallen keine weiteren Storylines.
01:02:12: Ich habe alle Storylines, die mir so im Kopf waren, mich dich jetzt irgendwie nachgefragt
01:02:16: oder haben ich einfach versucht mit dir durchzukauen.
01:02:18: Sind bei dir noch Sachen, die du besonders spannend findest, du dir gerne verfolgest,
01:02:23: was du das wünschst, das ist so wie eine Entwicklung, die man sollte mal im Blick haben, so eine
01:02:28: Storyline, die mir fehlt?
01:02:30: Ja, ich glaube, das waren schon die wichtigsten.
01:02:33: Ich finde, wie ich im OMR-Vortrag auch schon gesagt habe, so die Beschleunigung der Wissenschaftler.
01:02:38: Das ist schon mal wichtig.
01:02:39: Also bisher, wir Wissenschaftler so ein bisschen wie die Suche nach der Nadel im Heuhaufen
01:02:44: betreiben und dass man viel intellektuelle Vorarbeit tatsächlich machen lassen kann
01:02:49: von Foundation Models.
01:02:52: Also es gibt Beispiele so aus Google Deep Mind, die mit diesen Proteinstrukturen, die man besser
01:02:57: vorberechnen kann, das irgendwie neue Kristalline, ich glaube, das haben wir letztens mal beim
01:03:02: letzten Podcast auch schon so ein bisschen erklärt.
01:03:04: Aber das ist tatsächlich was, was ich noch für eigentlich unterschätzt halte.
01:03:08: Wie würdest du dir wünschen als AI-Referentenexperten, dass man ihn mal live in Hamburg im Mai beim
01:03:14: Festival erlebt?
01:03:15: Wo sagst du, wen folgst du?
01:03:19: Natürlich Sam Waldman mit einem guten Interview.
01:03:23: Wenn ihr das hier bekommen, wäre das natürlich beeindruckend.
01:03:26: Der muss ja auch so ein bisschen auf PR-Tour, vielleicht ist das sogar möglich.
01:03:30: Ja, wir versuchen es, auf jeden Fall.
01:03:32: Oder schickt ihr die CTO oder, keine Ahnung, wer dann noch üblich vom Wort, genau dran?
01:03:37: Ansonsten.
01:03:38: Ich finde den, ich vergesse mal, ob Schmidt-Huber, Prof.
01:03:48: Der war, der war.
01:03:49: Oder Schmidt-Bauer, ich vergesse mal.
01:03:50: Nein, Schmidt-Huber, ja.
01:03:51: Ich fand nicht gut, dass er den gehabt hat.
01:03:53: Den ist nicht mal super interessant, der ist ja alles so ein bisschen mit aus der Wiege
01:03:58: gehoben hat.
01:03:59: Ja.
01:04:00: Vorschreck, Prof.
01:04:01: Also genau.
01:04:02: Genau.
01:04:03: Vielleicht dem Estrallgründer auch.
01:04:06: Ja, Artumensch heißt ja.
01:04:09: Genau.
01:04:10: Oder die Leute von Black Forest Labs.
01:04:13: Kannst du eine EI-Elefantenrunde machen?
01:04:17: Versuchen wir, versuchen wir.
01:04:19: Wir werden sie auch kontaktieren, mal gucken.
01:04:22: Ich glaube auf jeden Fall, dass das Thema auch nächstes Jahr noch heiß sein wird.
01:04:25: Also es wird jetzt so ein bisschen sozusagen, wir befinden uns sozusagen auf dem Weg in
01:04:28: das Tal der Ernüchterung.
01:04:29: Das ist auch fair, so funktionieren Hypes und Trends halt.
01:04:33: Aber ich glaube am Ende wird mithilfe von Machine Learning und EI deutlich mehr Wert geschaffen
01:04:38: sein.
01:04:39: Der nächste große Trend ist dann die Fendstack.
01:04:41: Ich sehe es schon kommen.
01:04:42: Also ich habe das Antikel über Parmalaki gelesen, nachdem ich okay, das nächste was kommt,
01:04:45: wo alle rein investieren wollen, ist jetzt ja gezeigt.
01:04:48: Also die Firma, vor dem ich jetzt...
01:04:50: Ja, und die...
01:04:51: Ich würde es im Jahr werden oder sowas.
01:04:52: Ja.
01:04:53: Und es gibt jetzt hier auch in Deutschland Beispiele, also so komisches Klingeln.
01:04:57: Und dann gibt es ja auch die Argumentation, das wäre auch gut, weil nach einer gewissen
01:05:01: Logik, wenn dann alle viele Waffen haben, dann fängt da keiner mehr in den Krieg an.
01:05:03: Ist das vielleicht wirklich denn der nächste Hype?
01:05:07: Weiß ich noch nicht genau, wie das bei OEMR dann stattfinden soll, aber ist man da nicht
01:05:11: mehr EI oder SEO-Thema, sondern hat man auch immer die Fendstack-Theme.
01:05:15: Ja, kannst du eine neue Defense-Konferenz machen, eine extra Halle?
01:05:19: Also ihr habt jetzt noch eine Idee so, was ihr gerne machen möchte, die Fendstack.
01:05:23: Ja.
01:05:24: Ich meine, tu wie fair, ich glaube die Welt war lange nicht so unsicher wie gerade.
01:05:27: Ich glaube, drei, vier Kriege, die uns relativ direkt tangieren.
01:05:31: Du hast China, die sagen Rüstungskapazitäten haben, die theoretisch alle zwei Tage ein
01:05:37: neues Boot bauen können oder so.
01:05:39: Von daher, glaube ich, müssen wir uns da auch, wenn ich keinen großen Fan hat, weiß
01:05:45: nicht, ob es Fans von Rüstung gibt.
01:05:47: Ich bin auf jeden Fall kleiner.
01:05:48: Das ist so Pamalaki, der hat euch schon Spaß dran.
01:05:49: Ja, genau, der scheint es zu genießen.
01:05:50: Aber ich glaube, das ist...
01:05:51: Aber ehrlich gesagt auch im Artikel, er würde lieber weiter so Oculus 3D-Welten bauen.
01:05:58: Und er macht das als Service für sein Land.
01:06:01: Also insofern bin ich nicht ganz fair, weil das war wirklich ein Quot von ihm, wo er
01:06:05: sagt, irgendwie, es macht ihm jetzt, er macht es so gerne so, aber er würde lieber eigentlich,
01:06:10: und das wurde mir damals von Meta quasi weggekauft oder böswillig weggekauft, wie auch immer
01:06:15: lange Geschichte, er würde lieber an solchen Sachen weiter arbeiten und da so eine Gaming-Welt
01:06:19: entstehen lassen, wie im Raum von Oculus damals, als jetzt nämlich einen Dronen zu arbeiten,
01:06:25: aber er macht es.
01:06:26: Ja, vielleicht sollte man Krieger einfach in virtuellen Welten austragen.
01:06:29: Das wäre eine ganz gute Idee, dass man einfach irgendwie so eine Art Gaming-Olympiade macht
01:06:34: und wer dann gewinnt, kann gewinner sein.
01:06:37: Also gut, wir werden das schon wieder lang unterwegs.
01:06:43: Danke, dass du mal wieder da warst.
01:06:45: Ich glaube, das ist der dritte Auftritt dieses Jahr, vielleicht kriegen wir in den 24 Jahren
01:06:49: noch einen hin zum Jahresende, weil es kommt ja auf jeden Fall einer in den 25 Jahren anfangt,
01:06:54: zumindest wenn ich mir das wünschen dürfte.
01:06:56: Ich würde mich sehr freuen.
01:06:58: Und dann im Mai nächsten Jahres gibt es sicher auch wieder bei uns auf der Bühne, hoffentlich
01:07:04: wieder mit AI oder?
01:07:05: Also, was immer ich dann als am relevantesten einschätze, aber ich vermute schon, dass es
01:07:11: AI und wenn es den Absturz von AI dokumentieren ist, dann mache ich auch gerne das und korrigiere
01:07:15: mich.
01:07:16: Also, ich freue mich schon drauf.
01:07:18: Alles klar, ansonsten kann dich zwei wöchentlich hören beim Doppelgänger Podcast, man kann
01:07:23: deinen Nüsse da lesen.
01:07:24: Du bist jetzt im Herbst auch auf vielen Konferenzen unterwegs, hast du erzählt?
01:07:27: Mhm, genau.
01:07:28: Ich bin auf dem Logitech Summit bei Jonas auf einem Summit, wo man, glaube ich, auch als
01:07:37: externer Tickets buchen kann in Köln im Rahmen der DMX-Core auf ein paar Events.
01:07:42: Viel unterwegs.
01:07:43: Ich brauche vielleicht, soll ich es so eine Toursite machen?
01:07:45: Ja, genau so ein T-Shirt.
01:07:46: Typ von Tour.
01:07:47: Ja, aber wenn wir das Ticket-Dick machen, dann kenn ich doch.
01:07:51: Alles klar, vielen Dank.
01:07:53: Mach's gut, tschau tschau.
01:07:54: Dieser Podcast wird produziert von Portstars.
01:07:57: by OMR.
01:08:01: [Titelsong]