Blitzlicht 01 - Der Deepseek Moment - Byebye chatGPT?
Shownotes
Wovon reden wir da eigentlich?
https://www.deepseek.com/
Für interessierte Tekkies:
Wie kann ich deepseek auf meinem eigenen Mac/Linux Rechner laufen lassen?
Terminal aufrufen und folgende Befehle nacheinander eingeben:
- Install ollama: curl -fsSL https://ollama.com/install.sh | sh
- Run ollama models: ollama run deepseek-r1:1.5b
- Pull ollama models: ollama pull deepseek-r1:8b
- Install uv: curl -LsSf https://astral.sh/uv/install.sh | sh
- Install Open WebUI: DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve
Browser aufrufen: http://localhost:8080 (öffnet Web-UI)
Geht auch auf Windows: https://youtu.be/pctm_c4Ch10?si=dLlg_DSzDt64nQYr
für alle Anderen:
https://apps.apple.com/de/app/deep-ai-ask-ai-chatbot/id6740536409?l=en-GB https://play.google.com/store/apps/details?id=com.deepseek.chat&pli=1
Transkript anzeigen
00:00:00: Hallo und herzlich willkommen zu unserer ersten Folge unserer zweiten Staffel von Digital Einfach
00:00:17: Machen im neuen Jahr. Heute seid langer Zeitmal wieder umgeplant und spontan oder wie man so
00:00:22: schön sagt aus aktuellem Anlass. Es ist Montag, was haben wir heute eigentlich,
00:00:27: den 28. Januar und wir erleben gerade nicht mehr und nicht weniger als ein Erdbeben in der KI-Welt.
00:00:35: Die letzten Tage waren wirklich super aufregend, super spannend. Das chinesische Unternehmen Diepsik
00:00:41: hat mit seiner gleichnamigen KI die ganze Branche in Aufruf versetzt und nicht nur die Branche,
00:00:46: sondern auch die Börsen, die nämlich die letzten Tage auf Talfahrt gegangen sind,
00:00:51: zumindest was die KI-Schwergewichte angeht. Tja, erleben wir gerade vielleicht den nächsten
00:00:56: iPhone Moment oder um im KI Umfeld zu bleiben, den nächsten ShedGPT Moment. Was steckt eigentlich
00:01:03: hinter Diepsik und könnte das auch ein Thema für die digitale Sparkassenwelt sein? Darüber
00:01:08: wollen wir heute reden in unserem heutigen Blitzlicht. Wir, das bin ich, Frank Weigand,
00:01:13: gerade eigentlich gut beschäftigt die digitale Agenda 4 an den Start zu bekommen und das ist
00:01:18: Olli Lauer, unser Digitalaborchef, außer uns weiß man nicht in der Mission für die europäischen
00:01:24: digitalen Identitäten unterwegs. Hallo Olli, schön, dass ich dich heute zu greifen bekommen habe.
00:01:29: Meine Projektleiter Marius und Matthias, die normalerweise bei uns im Gisbar die KI-Themen verantworten
00:01:34: haben, leider nicht verfügbar. Magst du mal sagen, ob du auch eine Affinität zu KI-Themen hast?
00:01:39: Ja, auf jeden Fall und auch deswegen schon, weil wir sozusagen Nachbar-Teams sind und du in der
00:01:44: digitalen Agenda das Thema KI natürlich begleitest, aber auch ich höre sehr gerne Podcast über das
00:01:49: Thema und bin natürlich auch an den technologischen Entwicklungen interessiert, vor allem jetzt in
00:01:55: wie weit KI automatisieren und die Digitalisierung beschleunigen kann. Also definitiv, du bist ja
00:02:03: unser Tech-Expert im DSGV. Kannst du mal erklären, was DiebSieg eigentlich ist? Ja, ich würde sagen,
00:02:10: ich bin einer der Tech-Experten und vielleicht der älteste, aber nicht der Tech-Experte. Aber
00:02:15: vielen Dank für die Blumen. Also was ist DiebSieg? Und die einen würden sagen, das ist jetzt ein
00:02:21: Produkt, eine App oder eine Lösung. Ich würde vielleicht eine Ebene weiter nach oben gehen und
00:02:27: würde sagen, DiebSieg ist ein Moment. Ein Moment, auf den schon viele gewartet haben im KI-Umfeld
00:02:33: und auf dem wir heute ja auch etwas näher eingehen. Und dieser Moment ist dieser DiebSieg-Moment, der
00:02:39: natürlich auch, wir kommen auch dazu, die Börsen beeinflusst hat. Der ist verbunden mit einer
00:02:44: entsprechenden Applikation eines chinesischen Unternehmens, das hier auf die Entwicklung
00:02:48: von KI-Modellen spezialisiert hat. Der aktuelle Modell DiebSieg R1 hatte ich nur in der KI-Community
00:02:54: für Aufsehen gesorgt. Es handelt sich wie Cheshri Pt oder Jiminy um ein sogenanntes Large-Scale-Language-Model,
00:03:02: das in der Lage ist, menschenähnliche Texte zu generieren, zu übersetzen und vieles mehr. Also
00:03:07: eigentlich alles, das was wir kennen, was anders ist, das werden wir heute bestimmt besprechen.
00:03:12: Na klar, so weit so gut. Aber ich meine, du hast gerade gesagt, DiebSieg ist ein Large-Language-Model.
00:03:17: Was macht denn DiebSieg so besonders? Also das ist eine ziemlich gute Frage und ich muss
00:03:24: ein bisschen ausholen. Also was es besonders macht ist, DiebSieg ist entstanden aus einem Mangel.
00:03:30: Ja und dieser Mangel ist oft ein extrem interessanter Impuls für Innovation. Weil aus dem Mangel heraus
00:03:40: sind die Leute in der Regel viel kreativer. Ich muss das vielleicht auch nochmal in Geld
00:03:44: ausdrücken. Wenn du halt nur ein gewisses Budget hast oder du hast eine gewisse Ressourcen,
00:03:48: dann wirst du erfinderisch. Und dieses erfinderische ist eine DiebSieg gelungen. DiebSieg als chinesisches
00:03:56: Unternehmen unterliegt halt entsprechenden Embarkus, sodass halt das Unternehmen nicht die
00:04:01: andere amerikanische KI-Entwickler die besten und die neuesten Schipp von Nvidia bekommen,
00:04:06: sondern sie mussten sich mit Mittelmaß begeben. Mit Mittelmaß, was hat nicht so schnell und
00:04:11: so ausreichend rechnet. Und aus dieser Notherweiß ist genau diese extrem kreative Idee geboren
00:04:18: worden, die wir heute besprechen. Also während die meisten Unternehmen, und jetzt muss ich vielleicht,
00:04:24: jetzt gehe ich ein bisschen in die Details, während die meisten Unternehmen auf superweiß
00:04:27: Learning setzen, verwendet DiebSieg Reinforcement Learning. Das bedeutet, dass das Modell nicht auf
00:04:33: große Datensätze trainiert wird, so im Sinne einer Einbahnstraße, sondern durch Interaktion mit
00:04:39: seiner Umgebung lernt und sich selbst verbessert. Und dieser Ansatz führt vor allem zu effizienteren
00:04:45: und leistungsfähigen Modellen, weil es nämlich auf etwas aufbaut. Also wirklich dieser Kreislauf
00:04:50: und dieses superweiß Learning, das ist auch nochmal insofern interessant, dieses superweiß
00:04:57: bezieht auch das Learning aus anderen Modellen. Das heißt, das ist sozusagen ein ein starken
00:05:02: Modell. Das lernt über andere große KI-Modelle, die zum Beispiel in Amerika entstanden sind und
00:05:07: nimmt sich sozusagen damit eine Abkürzung. Okay, ehrlich gesagt, das hört sich für mich relativ
00:05:13: kompliziert an. Kannst du das eventuell auch so erklären, dass es eben nicht nur KI-Spezialisten
00:05:18: oder Techies verstehen? Ja, auf jeden Fall. Ich habe auch eine Weile gebraucht, um es wirklich zu
00:05:23: verstehen. Superweiß Learning, ja, das ist eigentlich relativ leicht erklärbar. Du nimmst das
00:05:31: Kind, das Baby als Beispiel, für mich gerade ein extrem interessantes Beispiel, weil ich Opa
00:05:35: geworden bin und mein Enkel ist ein Jahr alt und ist, wenn ich nicht gerade in Berlin abhängen
00:05:40: ist, das für mich das Allertollste, ihn einfach zu beobachten. Wie so ein einjähriger Land und wie
00:05:46: ein Mensch landet und das ist im Grunde eigentlich beobachtet, man eine Kanin. Ja und der Unterschied
00:05:53: wäre jetzt bei meinem Enkel, superweiß Learning wäre, wenn ich ihm genau sagen würde, wir laufen
00:05:58: im Land. Ich sage mal, wir stehen wie auch immer und wenn du hinfällst, tut es weh und da ist die Wand
00:06:03: und wenn du dagegen läufst, das ist superweiß. Ich gebe ihm alles vor im Sinne von kleinen
00:06:08: Kommandos. Wie in Forstmann Learning ist eigentlich das, was dem Menschen viel näher ist. Es lernt
00:06:14: einfach aus den Ergebnissen. Er fängt an los zu lausen. Ich sage gar nichts, ich beobachte ihn einfach
00:06:20: nur, er stößt gegen die Wand und es tut weh. Und dann stößt er nochmal gegen die Wand und es tut weh
00:06:25: und er sagt, okay, drittes Mal will ich das nicht, weil der Impuls einfach so negativ war. Ich
00:06:30: friege also das Ergebnis zurückgespielt anstatt dass der Opa mir sagt, hey da ist die Wand und
00:06:34: die tut weh und er würde niemals lernen, dass es weh tut, sondern einfach nicht gegen die Wand läuft.
00:06:38: Und dieses wie in Forstmann Learning ist halt insofern effizienter, weil ich nicht die ganze
00:06:44: Welt vorher in einem Modell erklären muss, sondern ich lass es einfach loslaufen, das Kind und es
00:06:48: lernt über die Jahre selber mit der Umwelt umzugehen. Ja, aber ich hoffe nicht nur durch Strafe oder
00:06:53: durch Schmerz oder? Also durch Impulse. Ja, die können weder tiefer in der Tour sein,
00:06:58: die können positiver in der Tour sein. Das ist halt das und vielleicht nochmal, sorry,
00:07:03: das ist die Unterdreche und dieses Reinforcement Learning. Ja, und da gehen wir vielleicht auch
00:07:07: gleich nochmal drauf ein. Das baut auch darauf auf, was andere schon gelernt haben. Also es ist jetzt
00:07:11: nicht nur so, dass dieses chinesische Modell komplett alleine lernt, sondern es hat einfach
00:07:15: gesagt, hey, da gibt es Open Source Modellen in Amerika, die haben praktisch die ganze Welt schon
00:07:21: bei und die frage ich einfach. Also ich gucke mir meine Impulse, meine Reinforcement einfach
00:07:25: aus diesen anderen Modellen und damit setzt halt dieses chinesische Modell auch auf, was Amerika an
00:07:31: der Stelle so mehr arbeitet hat. Also das hört sich jetzt ziemlich effektiv an und wenn ich
00:07:36: jetzt richtig verstanden habe und fairerweise muss ich sagen, ich habe auch ein bisschen nachgelesen
00:07:40: heute, du hast es auch schon gesagt, du brauchst keine riesen Datensätze zum Training, sondern
00:07:45: du lernst eben durch Interaktion und Feedback, also positives und negatives Feedback, aber wenn
00:07:51: ich weniger Daten brauche, heißt das doch wahrscheinlich auch, dass die Kosten zum
00:07:55: Trainieren viel niedriger sind, weil das ist ja eines der Hauptthemen, die Kosten und der
00:08:00: Stromverbrauch, der halt heute benötigt wird zum Trainieren von Modellen. Wie ist das dann bei
00:08:06: die Psyk? Ja, also das wird gerade, ich meine, wir beide haben das ja jetzt auch als Vorbereitung
00:08:12: auf unseren Podcast die letzten vier bis zwanzig Stunden sehr intensiv verfolgt. Da gibt es unterschiedliche
00:08:17: Gesichten, aber was jetzt die eigentlichen Summen angeht, einige sagen das Modell hätte nur 6
00:08:24: Millionen Euro gekostet. Ich habe es auch so gelesen, das wird natürlich von anderer Seite
00:08:29: hinterfragt, Fakt ist, dass alle Welt im Grunde akzeptiert, dass das ein sehr effizientes Modell ist,
00:08:35: dass es die weniger leistungsfähigen Schiffsbrauch, dass es weniger Speicherbrauch, dass es weniger
00:08:40: Strombrauch, dass es weniger CPU-Brauch, all das wird zu geringeren Kosten, deutlich geringeren
00:08:46: Kosten für, ob das nun 6, 10 oder 20 Millionen sind. Ich meine, die Börsen haben ja auch diese Frage
00:08:52: auf, wie teuer ist es? Relativ klar beantwortet, zumindest gestern. Ja gut, man sieht es ja auch
00:08:57: zumindest in der Preisliste, wenn man mal die API-Calls vergleicht, also die Kosten, die die Psyk
00:09:04: aufruft, für die Tokens, eine Million ist glaube ich immer die Größe und das Topmodell, eben R1
00:09:10: vergleicht mit dem von OpenAI, dem GPT4O, dann zumindest ist das das was man sehen kann und liest,
00:09:18: kostet das R1 Modell nur 5,6 Prozent von dem was OpenAI aufruft. Das ist schon ein Hammer, wenn du
00:09:25: dir vorstellst, keine Ahnung, Faktor 20 günstiger, das dürfte dann schon auch Auswirkungen haben und
00:09:31: vielleicht auch das Thema Kosten allgemein nochmal auf eine ganz neue Ebene heben. Ja, also was ich
00:09:38: faszinierend finde, also das ist ja eine Fraktion oder eine Faction, wie da amerikaner englender
00:09:44: sagen würde, das ist der originellen Preisistrektor und da sieht man mal, wie gefährlich oder wie früh
00:09:50: wir eigentlich noch in der eigentlichen KI-Entwicklung sind, wenn also mit wenigen Mitteln, ja und das
00:09:56: scheint ja so zu sein, die die Chinesen praktisch Milliarden Investitionen obsolet machen, da
00:10:02: musst du aber legen, diese ganzen Modelle, die wir heute nutzen, Check GPT oder die die bei Facebook,
00:10:07: die entsprechenden Modelle, die haben Milliarden gekostet und sie zu trainieren. Ja und jeder hat
00:10:12: gedacht, die Firmen sind jetzt so viel wert aufgrund ihrer Modelle, weil sie so viel Geld investiert
00:10:17: haben und dann kommt jemand und über Nacht macht das für fünf Prozent. Das heißt, wenn die Chinesen das
00:10:24: für fünf Prozent machen oder lasst es 10 oder 15, 20 sein, heißt das im Umkehrschluss, dass all das,
00:10:29: was die anderen Firmen gerade besitzen, sei es Germany, sei es Check GPT, sei es irgendwas mit
00:10:34: Metern, eigentlich gar nicht so viel wert sind, wie wir die ganze Zeit glauben. Also das heißt, das
00:10:39: ist vor allem eine Marktsfrage, was passiert da eigentlich und das ist eigentlich das Hochinteressante,
00:10:45: was viele Experten auch schon so erwartet haben. Das ist jetzt nicht, es mich wundert, dass die Börse
00:10:49: so reagiert, dass eigentlich nicht wie bei anderen Firmen, also jemand hat das iPhone erfunden oder
00:10:54: muss das, das ist wirklich schwer angreifbar oder andere Produkte. Hier kommt jemand und greift
00:11:00: etwas an und alles, was vorher passiert ist, ist mehr oder weniger in Frage gestellt. Das ist schon
00:11:04: hochinteressant. Also alleine, das ist eine Aussage des Preises und dann überleg mal, wenn etwas nur
00:11:10: fünf Prozent kostet und dementsprechend weniger Energie verbraucht und leicht dazugänglich ist,
00:11:15: was das für die grundsätzliche Neuorientierung und Innovationskraft in diesem Markt bedeutet,
00:11:20: das ist schon erhitwig. Ich finde die vielleicht auch bei uns bei den Sparkassen, aber sagen wir mal
00:11:24: fünf Prozent, man könnte auf die Idee kommen, ja gut, das R1-Modell ist halt auch nur fünf Prozent
00:11:31: so gut wie das von OpenAI. Wie sieht es denn da aus? Es gibt ja eine ganze Reihe von Benchmarks, wo die
00:11:36: Modelle um die Wette laufen und da ist die Psyche auch dabei. Hast du da eine Info, wie gut oder wie
00:11:44: schlechte die sind? Also außerhalb des Selbsterlebens. Wir haben ja gesagt, jetzt die letzten Tage
00:11:50: ein bisschen damit rumgespielt, aber gibt es wirklich auch belastbare Benchmarks. Ja, die Psyche ist ja
00:11:58: open source, wissen wir. Ja, das ist natürlich relevant. Die Psyche hat in verschiedenen
00:12:06: Benchmarks hervorragende Ergebnisse erzielt. Es übertrifft in einigen Bereichen sogar die
00:12:09: Modelle von OpenAI und Google und zum Beispiel hat die Psyche in bestimmten Sprachverständnisaufgaben
00:12:16: besser abgeschnitten als die übertrifft. Das sind zwar frühe Ergebnisse, das ist tatsächlich,
00:12:21: wo wir mal überlegen, über welchen Zeitraum wir reden. Ist gar nicht spannend,
00:12:24: haben die das Modell veröffentlicht? Also wirklich ist doch keine freie Begleitung.
00:12:28: Ja, tatsächlich am 20. Januar, was war noch am 20. Januar? Weißt du das zufälligerweise?
00:12:34: Nee, leider nicht. Was sonst? Nein, ist der neue amerikanische Präsident eingeführt worden. Also ein
00:12:40: Schälen, wer böses dabei denkt. Und das Moment, um auf jeden Fall genutzt. Ja, sozusagen die Antwort
00:12:48: auf die 500 Milliarden Investmentankündung im Bereich kam. Man kann man so sehen.
00:12:52: Trump verkündet 500 Milliarden und die Schleseln beantworten das mit einem 5-Million-Modell.
00:12:58: Das ist schon, da kann man einen Buch drüber schreiben. Das ist schon wirklich fast anektotisch.
00:13:03: Aber es ist passiert. Ja, also definitiv. Aber wenn man das jetzt mal nimmt, ganz neue,
00:13:09: radikale Ansatz, Bruchteil der Kosten, tatsächlich auch gute Qualität. Also ich finde das Reasoning
00:13:15: schon ziemlich beeindruckend. Anders als bei den anderen Modellen kannst du ja die Psyk dabei
00:13:20: zuschauen, wie es Schlüsse zieht. Er erklärt ja genau, wie er auf bestimmte Antworten kommt.
00:13:26: Also kann ich jedem nur raten, auszuprobieren, netz, wenn es mal wieder funktioniert. Heute war es
00:13:30: ein bisschen schwierig. Aber wenn man alles zusammen nimmt, dann kann man sich ja nicht wundern.
00:13:35: Da muss man sich nicht wundern, dass bei den KI-Plazirischen doch schon so was wie Panik zu
00:13:39: herrschen scheint. Also zumindest, wenn man jetzt mal den Medien glauben mag. Ich hatte tatsächlich
00:13:44: auch gehofft, dass wir mit unserem Podcast vor der Brichterstattung des Spiegels draußen sind.
00:13:49: Aber ich muss leider feststellen, vor zwei Stunden hat der Spiegel auch ein Artikel zur
00:13:53: die Psyk eröffnet. Und die Börsen haben ja gestern schon reagiert. Also wenn man Nvidia-Aktien hatte
00:14:00: oder andere, dann hat man wahrscheinlich heute nicht so gute Laune. Wie steht es denn da bei
00:14:04: dir? Was machen deine Nvidia-Aktien? Das mag jetzt inszeniert wirken. Aber ich habe tatsächlich
00:14:11: put options auf Nvidia. Das ist wirklich so. Ich habe mich gestern tatsächlich wirklich gefreut
00:14:17: über den Markt. Ich habe auch put options auf Tesla. Ja tatsächlich, ich spiele die Börse.
00:14:24: Das spiele ich schon ein bisschen rum. Aber ganz wichtig, das ist ja kein Beratungs-Podcast und
00:14:30: das was wir tun ist auch keine Empfehlung nachzumachen. Jeder muss sich selbst entscheiden, wie er
00:14:35: den Börsen reagiert. Aber du hast mir die Frage gestellt und wir hatten vorhin nicht darüber gesprochen.
00:14:38: Ich habe tatsächlich gegen Nvidia gewettet. Ich weiß ja gar nicht, ob die Wetter aufgeht. Wir
00:14:45: haben jetzt mal gerade einen Tag oder zwei Tage. Heute geht es für den Nvidia wieder rauf. Aber ich
00:14:49: glaube tatsächlich daran, an den Menschen, der immer versucht zu vereinfachen Abkürzungen zu
00:14:54: finden und vor allem glaube ich an den Menschen, der aus Manga heraus sehr innovativ ist. Und deswegen
00:14:59: hatte ich schon erwartet, dass diese Superspezialships irgendwann auf Software treffen, die nicht mehr
00:15:06: diese Superships brauchen. Und das andere ist, ich glaube immer noch daran, dass andere
00:15:12: Shipsfirmen, wie zum Beispiel Intel,
00:15:15: oder auch AMD, tatsächlich oder auch deutsche Ships, wie Infine oder europäische eher gesagt,
00:15:23: dass die aufwollen. Das ist tatsächlich eine Wette, die ich eingehe im Markt. Mit Intel habe ich
00:15:29: heute, da habe ich jetzt den letzten Tag nicht so Glück gehabt. Aber das ist ja auch kein Bursa-Podcast,
00:15:34: aber wenn man sich schon mal die Frage stellt, dann freue ich mich ja auch darauf,
00:15:37: mal antworten zu können. Und wie siehst du die Perspektive, was du gerade gesagt hast,
00:15:42: bist du jetzt nicht bulisch, was Nvidia angeht, was ist der Grund dafür? Das ist meine schnelle
00:15:48: Grafikkarten, das ist ja irgendwie so das Rückgrat bisher gewesen, der KI-Entwicklung. Die wird
00:15:53: zur Ruhe hoffentlich auch weitergeben. Ja klar, aber du musst mal überlegen, wo
00:15:57: Nvidia ist, deswegen nicht Pleiton, auch keine schlechte Firma. Aber du musst ja mal gucken,
00:16:02: wie Nvidia bewertet ist. Das ist eine Wahnsinnsbewertung. Also Nvidia wird immer noch eine super Firma
00:16:07: sein, erfolgreich. Aber lass uns das mal trennen in zwei Teilen. Also die KI-Inostrie ist ja nicht
00:16:12: hardware-Industrie, nur KI-Inostrie ist natürlich hardware-Industrie. Und ich glaube, da wird
00:16:17: der sogenannte Effekt nachhaltiger sein. Das heißt, wenn ich KI mit einfachen,
00:16:24: schipstbilligeren, schipstmachen kann, dann ist das ja auch was Gutes, weil wir weniger Stromverbrauch
00:16:28: und mehr KI machen können. Das wird Nvidia eher treffen und ich weiß auch noch nicht,
00:16:34: wie sie da so eine Anfahrt drauf haben. Weil sie sind ja einen Spezialhersteller, der sehr,
00:16:38: würde ich mal sagen, fast schon monopolartig den Markt behindert. Jetzt gibt es aber die
00:16:43: andere KI-Industrie, die sogenannten Modellentwicklung, sei es nun Chatchi Pt, sei es nun Meta,
00:16:50: sei es nun auf die französischen Firmen hier in Europa. Ich glaube, dass die das eher davon
00:16:56: profitieren werden. Die werden sagen, okay, die Idee, wie das jetzt hier die Chinesen vorgemacht haben,
00:17:02: die ist ja da nicht so verkehrt. Die werden im Zweifelsfall wie Chatchi Pt ihr Geld abschreiben
00:17:07: müssen in die eigenen Modellentwicklung. Aber das ist ja auch das Gehen der Amerikaner,
00:17:12: die werden sehr schnell darauf reagieren und sich neu aufstellen. Und ich kann mich schon
00:17:17: vorstellen, Google sagt, okay, da gibt es jetzt hier eine neue Architektur, neue Prinzipien,
00:17:22: lasst uns das nehmen. Und da ja praktisch, dass das Modell hier auch Open Source ist,
00:17:25: ich weiß, wir kommen noch drauf, ist diese Möglichkeit auch geben. Also ich würde Long Story
00:17:30: Short, spezielle KI Hardware, bin ich weniger, also bin ich mehr skeptisch als jetzt für die gesamte
00:17:37: Software-Modell-KI-Inindustrie. Du hast gerade das Stichwort nochmal gesagt, Open Source. Was
00:17:44: bedeutet das in dem Zusammenhang? Ja, also mein Verständnis ist, wir müssen auch trennen. Also
00:17:50: wenn ihr euch jetzt hier diese App runterladet und die ist ja hier irgendwie auf Nummer 1,
00:17:54: Nummer 2, Nummer 3, zum Beispiel im Apple Store, dann benutzt ihr natürlich eine chinesische
00:17:59: Lösung. Das ist jetzt Software, die da irgendwo in China läuft. In der Cloud, genau, in China. Die Daten
00:18:05: gehen auch dahin, die ich da eingebe. Die Daten gehen dahin und ich bin mir sicher, dass das Modell
00:18:09: auch trainiert ist im Sinne von die richtigen chinesischen Antworten. Das muss man immer sehr
00:18:13: vorsichtig betrachten. Wenn man diese App jetzt benutzt, also wir als Retail Nutzer, sollten jetzt
00:18:18: nicht so unbedingt blind auf diese neue Anwendung springen, weil das sind halt teilweise, und das
00:18:24: ist ja auch schon bewiesen chinesische Antworten. Und China ist jetzt nicht unbedingt bekannt für
00:18:30: lupenreine Demokratie. Aber nichtsdestotrotz das Modell als Open Source, das kannst du ja
00:18:35: nehmen und installierst es auf deinem Rechner oder wie auch immer und nutzt einfach die Architektur,
00:18:41: die ist Software losgelöst von dem Daten um hier immer die Chinesen, das dann trainiert haben.
00:18:46: Ich glaube, da werden mir noch einige sehen und ich habe schon einige Announcements gehört. Also
00:18:51: das ist ja auch immer der jungen Zeit entsprechend einzuordnen oder in die Zeit die Vergangenheit
00:18:57: einzuordnen. Einige Form haben schon gedacht, ja dann nehmen wir das Modell auch einfach.
00:19:00: Na klar, ich meine Open Source, du kannst ja reingucken, du siehst ja was für Antworten kommen,
00:19:04: du kannst es ja nachvollziehen. Das ist ja eine große Forder und du kannst es vor allem auch
00:19:07: weiterentwickeln. Was die Chinesen in der Cloud-Lösung machen, ist ja nicht gleich bedeutend mit dem,
00:19:12: was du vielleicht mit so einem Modell machen würdest. Und Fun Fact, ich habe mir das Modell
00:19:16: heute auch runtergezogen, also natürlich nicht das große mit den, ich weiß gar nicht, wie viel
00:19:21: Billionen Milliarden Parametern, aber es gibt halt kleinere Modelle, die laufen durchaus auch auf
00:19:27: marktüblicher Hardware. Ich habe ja hier ein MacBook stehen, habe mir das Modell untergezogen.
00:19:33: Das war eine Sache von 10 Minuten und sechs Kommandos im Terminal und dann lief das. Und zwar
00:19:39: lief es so, dass ich das in den Frontend laufen lassen konnte. Also das war schon und ist sehr
00:19:44: beeindruckend. Also die sechs Ritte würden wir mal in die Schonehut verlinken. Also wenn man ein paar
00:19:49: Minuten Zeit hat und Lust darauf hat, mal selber was auszuprobieren, kann ich nur empfehlen. Aber was
00:19:54: ja spannend ist, auch das große Modell, also genau das Modell, was auch in der Cloud ist,
00:20:00: steht zur Verfügung, weil Open Source kann installiert werden, kann genutzt werden, kann
00:20:05: sich angeschaut werden. Braucht es ein bisschen mehr Hardware? Das ist nichts, was du zu Hause haben
00:20:09: dürftest. Aber für so jemanden wie ein Rechenzentrum, ich denke da vielleicht mal an das Rechenzentrum
00:20:17: der Sparkassen, wäre das aus meiner Sicht schon vielleicht nicht uninteressant, sich das mal
00:20:21: anzuschauen. Wie siehst du denn das? Sollte so eine FI sich das mal angucken? Also praktisch
00:20:27: frage man gerade, ich muss das hier für einen eigenen Werbeglaubt nutzen. Also man sieht hier
00:20:32: der Leiter der digitalen Agenda und entsprechend im DSGV, im Verband in Berlin, fängt halt selber an
00:20:39: hier mit Software rumzuspielen und rumzuprogrammieren. Also solltet ihr Spaß haben an so einem Job,
00:20:45: ja und Interesse auch hier in Berlin zu arbeiten und euch die Hände schmutzig sind, man viele denken
00:20:50: ja mal, hey Verband und DSGV und ganz langweilig, nee wir suchen euch, wir suchen interessierte Leute,
00:20:57: die wirklich Programmierkonsole öffnen, aufmachen und mit Technologien rumspielen. Also sowohl in der
00:21:03: digitalen Agenda als auch ein digitaler Bohr haben wir Jobs für sie und ihn, also Wabe, Pause, zu Ende.
00:21:10: Ich schneide das mal nicht raus, das war auch nicht abgesprochen.
00:21:13: Ich hoffe ich durfte das, aber das muss man ja durchaus mal sagen. Du bist jetzt das lebende
00:21:17: Beispiel, dass du dich nur Powerpoint aus, sondern Software. Ja ich bin totaler Freund von Open Source,
00:21:24: also Fakt ist, ich hätte dir jetzt eine Frage gestellt, hast du denn denn Antworten,
00:21:29: also dass du das dann auf deinem Rechner hast laufen lassen gemerkt, dass es aus China kommt oder?
00:21:33: Nein, aber ich habe es nicht. Ich war so die Qualität der Antwort. Nein, die Qualität war wirklich
00:21:37: überraschend gut, das letzte Mal habe ich das vor einem halben Jahr gemacht, ich glaube mit Lama,
00:21:41: mit einem Modell von Meta und da kam dann wirklich abstruse Antworten raus, das Modell konnte
00:21:48: auch wirklich nicht besonders gut Deutsch sprechen und ich habe erst das ganz kleine installiert,
00:21:52: das war so ein Mischmarsch, das hat auf Englisch gut funktioniert, aber eben nicht auf Deutsch
00:21:58: und habe ich größeres, ich glaube irgendwie 4 Gigabyte oder so installiert und dann kam vernünftige
00:22:04: Antworten raus bis dahin, dass man mir den aktuellen amerikanischen Präsident genannt hat, also das
00:22:08: Modell war jetzt nicht zweit oder drei Jahre alt oder so, sondern es hat wirklich auf aktuellen
00:22:12: Daten aufgesetzt. Das fand ich schon beeindruckend und mir nicht so tief eingestiegen, dass ich so kritische
00:22:18: Fragen Richtung der chinesischen Historie gestellt habe, kann man sich ja machen, aber das Schöne
00:22:24: ist ja, man kann das auch machen und die Dinge, die mich interessiert haben, die sind da super
00:22:29: rausgeflutscht. Was natürlich fehlt, ist so ein bisschen das Einbeziehen von aktuellen Websuchen,
00:22:36: das geht aktuell meines Wissens nur in der Cloud-Lösung, wie auch aber alle anderen Sachen,
00:22:41: also die Zeit, die ich heute investiert habe, das war schon ziemlich gut und wenn wir sehen,
00:22:46: also wir machen es ja auf einem anderen Level gar nicht mal anders, zum Beispiel mit dem SKI-Piloten
00:22:51: bei der FI, der setzt auf andere Modelle auf, aber die sind ja auch on-premise und das komme ich
00:22:56: nochmal zurück zur Frage, wie siehst du denn das? Ist das ein Thema, könnte das ein Thema sein für
00:23:01: einen rechten Zentrum oder sagt man, nee, ist aus China auf keinen Fall? Ach, ich hatte gehofft,
00:23:06: dass du dich nicht erinnerst an die Frage, aber ich hatte durch meine Werbepause da entsprechend abzulegen.
00:23:13: Nein, also was ich ganz ehrlich sage, natürlich, also wenn du on-premise Modelle betreibst, ja und es gibt
00:23:18: ja gute Gründe, dass die FI das so entschieden hat, dann musst du natürlich die ganze Zeit den
00:23:23: Nack beobachten. Und wenn da jetzt ein Modell rauskommt, was offensichtlich oder vermeintlich so
00:23:29: effizient ist und dem Sparer und dafür sind wir alle aktiv für den deutschen Sparer oder die
00:23:34: deutschen Sparern, dann muss sich die FI das angucken und sagen, damit kann ich praktisch unsere
00:23:39: on-premise Modelle und SK Pilot nicht um Faktor X günstig machen. Das ist einfach eine sehr,
00:23:47: sehr offensichtliche Frage und die Antwort ist noch viel offensichtlicher, ja. Genau, okay, also wir
00:23:53: sind gespannt, wo wir das alles noch wiederfinden als Thema und tatsächlich, das will man ja nicht
00:23:59: verheimlichen verhehlen, haben wir auch schon selber drüber gesprochen, wir reden halt immer noch von
00:24:03: einem chinesischen Unternehmen und ob die jetzt auf Dauer aus selbstlosen Gründen handeln, Open Source
00:24:09: sind daher das sei mal dahingestellt, also welche Bedenken würdest du denn da sehen,
00:24:16: die man da haben kann? Ja, also die ganze politische Situation, ich meine aber, also das eine ist,
00:24:25: was steckt in dem Modell drin, was wir vielleicht nicht direkt erkennen, also nicht mal die Daten,
00:24:29: sondern ist es irgendwelche Algorithmen drin und so weiter. Das ist Open Source, das kann man sich
00:24:33: angucken, ja, das ist vielleicht das Risiko, dass die Software aus dem Land kommt, dem wir so vielleicht
00:24:39: nicht vertrauen wie den USA, das andere ist es Open Source, das heißt die Frage ist, wie lange
00:24:44: stehen die dahinter und betreiben diese Open Source? Wir haben ja schon ganz viele Open Source
00:24:48: Projekte gesehen, dann hat man die irgendwie eingebaut in sein Produkt und plötzlich sagt der
00:24:52: Open Source Entwickler, ich warte das Ding nicht weiter, weil ich keine Lust mehr habe oder
00:24:57: whatever, das ist natürlich auch ein Risiko, was nicht unerheblich ist, wenn du jetzt ganz massiv
00:25:02: auf so ein Open Source Modell baust, dessen Land oder dessen Firma ja unter einer ganz anderen
00:25:08: wirklich mal sahen Aufsicht steht, als jetzt vielleicht irgendein Meter in Amerika, wohlwissend,
00:25:14: wohlwissend, dass das in Amerika natürlich die Zeiten gerade auch etwas anders geworden sind,
00:25:20: also ist die Frage. Ich finde es ganz gut, also ganz ehrlich gesagt, bei all denen,
00:25:24: den Risiken, die ich jetzt genannt habe, ich finde es gut, dass tatsächlich Druck entsteht,
00:25:29: Druck auch von einem anderen Kontinent, also wir als Europäer, die ja es ja praktisch,
00:25:34: den Faktor eigentlich nicht zu verlieren haben, weil wir spielen ja eigentlich keine Rolle,
00:25:38: was Kalie angeht, also ja, aber wir profitieren insofern davon, dass es tatsächlich wohl
00:25:44: vermeintlich Gegenmodelle gibt zu amerikanischen Übermacht, ja das kann uns im Zweifelfall nur
00:25:49: helfen, es kann uns ja auch zeigen, wow, guck mal, wir haben auch gedacht, wir wären total die
00:25:54: amerikanerherrten schon gewonnen und wir können nichts mehr machen, aber die Chinesen zeigen ja,
00:25:58: hey, da ist eine Opportunität, also Kalie ist noch so jung, man sollte nicht am Anfang
00:26:04: aufgeben, sondern im Sinne von, hey, algorithmischer Analyse, anderen Modellen, nicht nur in Hardware-
00:26:10: denken, chips, also Software, also ich glaube, das hat uns China so schlimm der Markt, das gefunden
00:26:17: hat, hat uns eigentlich eher für Europa die Hoffnung gegeben, dass der Zug nicht abgefahren ist.
00:26:22: Okay, ist ein interessanter Gedankengang, ja, ich glaube, wir kommen so langsam mal zum Ende,
00:26:27: wir wollten glaube ich 20 Minuten machen, wir sind noch schon fast bei einer halben Stunde,
00:26:30: aber ich würde natürlich gerne noch von dir hören, was glaubst du denn, wo geht die Reise hin,
00:26:37: also wenn du in deine Glaskugel schaust, was können wir denn die nächsten Monate vielleicht von Diebsig
00:26:43: oder anderen noch erwarten? Das ist tatsächlich, Glaskugel ist schwierig, also ich glaube,
00:26:50: auf der Meta-Ebene ist es fakt, wir sind tatsächlich noch ganz am Anfang, und wenn Leute halt erzählen,
00:26:58: irgendwas ist super teuer, verbraucht viel Strom und so weiter und so fort und wir aufgrund dieser
00:27:03: Aussagen irgendwas entscheiden, dann sind diese Entscheidungen noch zu früh, das heißt, der Markt
00:27:07: ist wirklich volatil und ich glaube, wir werden dann auch wirklich sehr viele Optimierung sehen,
00:27:14: wie in der Ship-Industrie, als die ersten Chips raus kamen, die sind ja jedes Jahr,
00:27:17: haben die verdoppelt und so, da stehen wir ganz am Anfang, also das ist sehr interessant, ich gehe
00:27:22: davon aus, dass wir schnelle Updates sehen werden, also das heißt nicht nur von der, von der Kampagne
00:27:28: aus China selber, sondern dass andere dieses Software benutzen werden und benutzen heißt dann auch,
00:27:33: dass wir wahrscheinlich mehr branschenspezifische Anwendungen sehen werden, das heißt plötzlich
00:27:38: können sich vielleicht so mit KI leisten, sowieso wie eine FE und Premise können sich vielleicht
00:27:42: das jetzt auch andere leisten, weil der hat jetzt nicht 10.000 in Videoships, 200.000 Milliarden
00:27:47: kaufen müssen, das wird mit Sicherheit, ich sage ja, diese Kosten, diese Effizienzsteigerung führt
00:27:54: meines Erachtens wirklich, also zur Innovation, das ist total interessant, aus Mangel heraus entsteht
00:27:59: Innovation, diese Innovation ist so destruktiv, dass sie wiederum weitere Innovationen fördert und
00:28:06: so entsteht einfach im Kreislauf und bei diesem, da stehen wir am Anfang, natürlich wird das,
00:28:11: natürlich wird das die regulatorische Diskussion nochmal verstärken, weil jetzt haben wir nicht
00:28:17: nur irgendwie die sehr dominanten amerikanischen Modelle, wo wir ja immer mehr hören, dass die
00:28:21: regulatorische Faktor ausgegehen worden ist, die USA hat ja, der Trump hat ja entschieden, KI geht
00:28:28: ohne Regulierung, mit seinem Dekret, was er da unterschrieben hat, jetzt kommen die Chinesen,
00:28:32: wo wir gar nicht wissen, gibt es überhaupt eine Regulierung, als Europa ist das wirklich,
00:28:37: wird es nicht einfacher, aber auf der anderen Seite, ich sehe das eher positiv, es hat uns aufgezeigt,
00:28:43: dass wir noch in Europa etwas erreichen können. Es ist eine Alternative, es ist wirklich ein
00:28:48: Aufruf, ein Weckaufruf, es führt zu neuem Optimismus, ich schätze auch, dass es zu den ganzen neuen
00:28:54: Geschäftsmodellen führt, natürlich muss die regulatorisch irgendwie schratt halten, aber da
00:28:58: sind Frank, da sind wir beide Profis drin, europäische Regulierung, das machen wir jeden Tag,
00:29:03: auch wenn jetzt der ein oder andere Nvidia Aktienbesitzer oder Intel Ship Besitzer,
00:29:10: however, ein bisschen traurig ist, ich bin es eher nicht, ich sehe das als Wecksignal.
00:29:16: Ah, okay, das ist doch mal ein positives und wie man dich kennt auch optimistisches Wort,
00:29:22: in dem Fall auch vielleicht sogar ein wirklich gelungenes Schlusswort für den heutigen Podcast.
00:29:27: Olli, es war mir wie immer ein Fest mit dir zu sprechen, ich hoffe, wir finden noch ganz viele
00:29:32: andere Themen dieses Jahr, da ist einiges in der Pipeline, Dinge, die uns hoffentlich als
00:29:37: Sparkassen auch weiterbringen und ich bin ehrlich gesagt sehr neugierig, was die nächsten Monate
00:29:44: so bringen und was da so gemeinsam mit den Sparkassen, mit unseren Verbundenpartnern
00:29:48: buchen können. Deswegen vielen Dank an dich. Ja, vielen Dank, dem schließe ich mich an und an uns
00:29:55: beiden sieht man ja, dass man selbst im hohen Alter immer noch hungrig und neugierig und auf der
00:30:01: Suche nach "The Next Big Thing" sein kann. Vielen Dank, Frank. Gerne und glücklicherweise,
00:30:07: man sieht es nicht, man kann es höchstens hören, das ist heute den Podcast. Also bis zum nächsten Mal,
00:30:13: macht es gut und bleibt uns treu.
00:30:24: [Musik]
00:30:27: [Musik]
00:30:29: Sehr gut.
Neuer Kommentar