GameStar Podcast: Midjourney, ChatGPT und Co: Wie KI unser Leben verändert (hat)

GameStar GameStar 4/16/23 - Episode Page - 1h 0m - PDF Transcript

Dieses Jahr habe ich Geld gespart und für mein Auto nur drei Sommerreifen gekauft.

Besser bei ATU 4 Reifen kaufen und trotzdem sparen.

Denn nur bis Samstag 22. April gibt es zusätzlich 21 Euro Gutschein auf deinem nächsten Einkauf.

Bei Auto besser.

Alle Aktionsbedingungen auf atu.de

Das ist eine der wichtigsten Instrumente der Menschheitsgeschichte mit dieser Formulierung,

die durchaus Power hat, hat Sascha Lobo vom Spiegel seine Tech-Kolumne vor einigen Wochen getitelt,

der man weiß in der Regel zumindest beim Tech, wovon er redet.

Und es ging in dieser Kolumne um neue KI-Tools, die seit einigen Monaten für Furore sorgen,

nämlich beispielsweise Chat-GPT oder Mid Journey,

bei denen viele Leute vielleicht noch gar nicht so recht wissen, wie diese Tools unseren Alltag verändern werden

oder wie sehr sie den Alltag vielleicht schon verändert haben.

Zumindest für einige oder vielleicht in unserem Umfeld viele von uns.

Wir haben zwei Experten zu diesem Thema bei uns im Studio

und ich freue mich sehr, euch beide hier begrüßen zu dürfen.

Zum einen, Lea Jankowski von Magazin Mein MMO, Chefredakteurin

und besondere Freude, ehemaliger Director Gaming, Davy Bedia, René Heuser, Mein...

Hallo.

Damaliger Chef.

Echt schön, dich hier mal wieder zu sehen.

Und du beschäftigst dich auf selbstständiger Projektbasis mit KI-Anwendungen,

hast einen sehr aktiven Twitter-Kanal seit einigen Monaten

meine Hauptqualimenz ums Informieren über KI so geht.

Also alles, was ihr über KI wissen wollt, das erfahrt ihr diesen Twitter-Kanal ganz gut.

Und ihr habt zusammen ein Projekt, das nennt sich KI und Mensch,

bei Twitter und bei YouTube und auch bei Twitch vor allem.

Ihr macht einmal in der Woche einen Livestream dazu,

wo ihr über die aktuellen Entwicklungen im KI-Sektor sprecht.

Dazu später mehr.

Jetzt erstmal die Frage, wie hat denn KI euer Leben schon eingenommen

in den letzten Monaten?

Ja, dann fange ich vielleicht mal an.

Weil sich vielleicht der eine oder andere wundert,

Moment, das ist doch eigentlich die, die hier immer über Multiplayer und MMOs redet

und über Gaming-Culture.

Warum sitzt die jetzt hier eigentlich in so einem KI-Talk?

Das hat sich recht organisch entwickelt.

So vor drei Jahren ungefähr habe ich angefangen, mich sehr intensiv

mit dem Thema zu beschäftigen, kam er zufällig,

weil einer von meinen Brüdern zu einer Weihnachtsfeier bei uns zu Hause

so gesagt hat, ich habe hier übrigens GPT entdeckt und das ist KI

und das wird schon ganz groß.

Und ich glaube, das wird auch einen Einfluss auf deinen Job haben.

Ich sage, okay, gucken wir uns das mal an.

Und zu dem Zeitpunkt gab es GPT in der Form noch nicht

und es war auch ein bisschen komplizierter, das umzusetzen

und ich habe einfach sehr viel angefangen zu experimentieren

mit Text-KI in dem Fall

und ja, mit Chat GP ist das ganze Jahr dann nochmal stark explodiert

und ich nutze aktuell KI auf täglicher Basis,

sowohl für den Job als auch privat

und ich habe mich da einfach sehr stark immer weiter eingelesen,

sehr viel ausprobiert, mache kleine Projekte damit

und dann irgendwann kam René auf mich zu, der hier zu meiner Linken sitzt

und meinte mir, ist aufgefallen, du machst da ziemlich viel mit

und wollen wir dann nicht zusammen so ein gewisses Projekt gründen

und damit gehe ich mal rüber zu René.

Genau, schön die Origin Story von KI und Wench beschrieben.

Ich bin ein bisschen später dazu gekommen,

ich habe es erst zum letzten Jahr so richtig mit erlebt,

kurz vor dem großen Durchbruch, also das war am August, September,

kam ja dann, glaube ich, die meisten mitbekommen mit Journey

und Stable Diffusion, man zumindest vielleicht mal irgendwo gehört,

das sind diese Bildgeneratoren, die auf einmal für Phorore gesorgt hatten,

also wohl positiv als dann auch EI Art Diskurs,

wo kommen die Bilder her, wer hat Anspruch da drauf

und ich hatte kurz vorher irgendwie Zugriff gekriegt auf GPT 3

und hatte da schon ein bisschen ausprobiert

und dann ging es auf einmal, du, du, du, du, du.

Also gerade letztes Jahr hatte man das Gefühl, okay, man kommt nicht mehr hinterher,

man braucht eine KI um den KI News zu folgen

und ja, genau, dann hatten wir uns jetzt halt zusammen getan

und haben halt gesagt, okay, wir probieren mal ein bisschen was dazu,

weil nach unserem Gefühl gibt es gar nicht so viele Leute,

die in Deutschland zumindestens da sich so mit beschäftigen,

dort ist Herr Sascha Lobe erwähnt, der dann nämlich auch just

bevor unsere ersten Sendung ging, so auch, hey Leute,

ihr müsst doch darüber reden und keiner redet darüber,

mit seiner Spiegelkolumne so versucht die Leute ein bisschen aufzurütteln

und so geht es uns ähnlich auch.

Wir wollen nicht so sehr, also für uns beide kein irgendwie

professionelles Projekt oder so, also wir wollen nicht unprofessionell sein,

aber es ist jetzt nicht der Versuch, damit kein Geld zu verdienen,

uns interessiert das und wir wollten gerne andere da ein Teil haben lassen,

was wir damit erleben, erfahren

und deswegen probiere ich gerade auch alles hoch und runter,

was verfügbar ist in Deutschland.

Also ich glaube auch, ehrlich gesagt, alles, was verfügbar war,

auch schon mal selbst ausprobieren zu können.

Es gibt halt Beeinschränkungen, so wie jetzt Google Bart,

es gibt es noch nicht in Europa, das nicht,

aber ansonsten konnten wir fast immer schon sehr früh Dinge zeigen,

wo andere noch keinen Zugriff drauf hatten.

Hattet ihr denn jeder für sich so einen mindblowing Moment,

der das Gefühl hatte, in diesem Moment habt ihr für euch begriffen,

was das für ein Ding sein wird?

Könnt ihr den Schildern?

Ja, für mich war das im Prinzip schon vor drei Jahren,

als ich mit meinem Bruder da so ein bisschen umexperimentiert habe.

Was wir gemacht haben, war kreatives Schreiben mit den Tools

und sie sind da mittlerweile auch weiter, also du kannst viel kreativere,

interessantere Texte erstellen lassen,

aber mein mindblowing Moment war, wo wir so ein Spiel gespielt haben,

eine Geschichte anzufangen zu schreiben

und dem damals halt GPT 3.5 zu sagen, schreibt die Geschichte weiter

und dann einfach gefüttert haben.

Als ich dann live dabei zusehen konnte,

wie eine Geschichte von meinen Augen entstanden ist,

die damals noch sehr nach dem Baukasten-Prinzip funktioniert hat,

von dem, was man kennt, war bei mir wirklich schon der Moment,

wo mir der Schädelfast geplatzt ist, wo ich gedacht habe,

das ist krass.

Und das wird vor allem auch einen sehr großen Einfluss

auf meinen jetzigen Beruf haben, der ja auch mit Schreiben zu tun hat.

Also ich bin jetzt als Chefredakteurin und bin nicht mehr so aktiv Autorin,

aber ich leite ja trotzdem eine Redaktion mit sehr vielen schreibenden Menschen

und dann später kam noch die Bilder-Kais mit dazu

und das war dann nochmal so der nächste Moment,

wo ich auch einfach nochmal richtig mindblown war,

wie ich einfach ein Bild vor mir habe wachsen sehen

und mit ein paar Spracheingaben, ein paar Befehlen für diese Tools

und da wusste ich, ich muss da tiefer rein, ich will da tiefer rein.

Was war es bei dir?

Ich hatte auch einen ähnlichen Moment und die meisten,

die mich schon mal gesehen haben bei irgendwelchen Podcasts

oder auch hier live zu uns früher, ich habe ja Hunde und liebe Hunde

und ich habe dann auch zum Beispiel, schreibe mir bitte,

eine Geschichte über meinen Hund und die fand ich so spannend,

dass ich die weiter, also ich wollte wissen,

eigentlich wie sie weitergeht, damals war es noch schwieriger,

längere Texte zu machen, das war das ein und das richtig,

was ich auch immer noch als den größten Fortschritt

aus diesem Bereich sehe, ist Programmieren mit der KI.

Ich habe für ein anderes Projekt im Google Cloud-Umfeld

eine Schnittstelle aufbauen wollen, über Python,

das ist eine Programmiersprache, es ist jetzt nicht so schwierig,

aber ich kannte sie nicht, gar nicht, hatte keine Erfahrung mit Python.

Und hier habe ich einfach zusammen mit die Chatty BT

mir einfach komplett diese Anwendung gebaut, also gesagt,

was ich will, wie ich es will, da war ein Fehler drin,

dann die Fehlerkorrektur Chatty BT gemacht

und ich weiß noch, es war dann mitten nachts irgendwie um halb vier oder so,

wo es dann auf einmal klappte, ich habe es auch getwittert,

dann zu Chatty BT nur reingeschrieben hatte, yes, wie diddled,

es war so irgendwie so eine, wo man merkte,

wenn man jetzt über zwei Stunden immer hin und her pingpong,

das geht noch nicht, wie können wir das hinkriegen

und auf einmal ging, so wie gesagt, ich hatte,

als ich anfing, noch nie ein Python-Script geschrieben.

Und am Ende hatte ich eine komplette Applikation gebaut,

mit der ich zum Beispiel Text zu Sprach und Sprach zu Text

in der Google Cloud umsetzen konnte.

Auch mit Google Cloud hatte ich vorher nie irgendwas zu tun gehabt,

es hat mir alles Chatty BT erklärt, mich durchgeführt,

was muss ich wo installieren, was muss ich wo auswählen

und das war so ein bisschen, das Ding ist echt hilfreich.

Jetzt sprecht ihr von der KI, wie von so einer Entität,

die schon irgendwie sehr selbstbewusst ist

und mit der man sich unterhält, wie mit einem sehr erfahrenen

Programmierer, Autor, es ist ja nun aber keine Entität als solche,

sondern es ist ja ein auf, also in Falle von Chatty BT

jetzt ein auf Wahrscheinlichkeit basierter Textgenerator,

basierend auf einer sehr großen Datenmenge.

Könnt ihr das kurz umreißen, wie jetzt Chatty BT funktioniert,

was passiert da und wo und auf welcher Basis?

Also das kurz wird schwierig, weil es echt, was man wichtig

verstehen muss ist, alles womit wir jetzt gerade zu tun haben,

es kommt nicht aus dem luftleeren Raum.

Es gibt eine ganz lange Vorgeschichte, es beginnt alles

in den 50er Jahren, 40er Jahren, 50er Jahren des letzten Jahrhunderts

und wir sehen jetzt die Früchte aus den Dingen,

die in den letzten Jahren gemacht wurden, sowohl in der Hardware

als auch in der Software und der große aktuelle Durchbruch

sind diese sogenannten generativen KI-Modelle,

also die nicht nur einfach eine Zahl vorhersagen,

weil dafür nutzt man das schon seit Jahrzehnten.

Also so, heute habe ich fünf Euro verdient,

wie viel könnte ich denn morgen verdienen, ungefähr,

dafür wird Maschinen eines Lernens schon sehr lange benutzt.

Und 2017 hat Google bei der Vorreiter in dem Bereich,

zusammen mit anderen, diese sogenannten Transformer-Modelle

entdeckt, entwickelt, definiert, wie man immer das auch beschreiben soll

und die haben jetzt eigentlich das ganze Spiel geändert.

Das sind große Sprachmodelle, man spricht immer von groß,

weil, wie du schon sagtest, Sie haben einen riesigen Korpus

an Lernmaterial bekommen.

Früher waren die meisten Maschinenmodelle eher kleiner,

sehr spezifisch auch, also vielleicht ein paar Zehntausend,

Rundertausend, Zeilen an Daten.

Und jetzt reden wir halt von Milliarden, von Wörtern, von Sätzen,

die da reintrainiert wurden.

Und das ist genau, was da passiert.

Neuronale Netze, nicht zu verwechseln mit was wir im Kopf haben,

hat Ähnlichkeiten, aber das ist nicht das Gleiche.

Und dort passiert genau das,

dass über das neuronale Netz, wer nimmt Inputs,

diese Promps zum Beispiel, ausgegebenen Outputs,

und da drin wird über komplizierteste Mathematik geschaut,

wie kommt das richtige, oder für das System,

richtige Ergebnis zustande.

Und wie Lea schon sagte, TFT3, also GPT3, war der große Durchbruch,

2020, da haben die meisten wirklich gesagt,

okay, das ist jetzt mehr als alles,

was wir vorher in diesem speziellen Bereich gesehen hatten.

Das kommt auf eine Qualitätslevel.

Und deswegen ist es auch für manche Forscher,

jetzt hat GPT so, was soll der Hype?

Daran arbeiten wir doch jetzt schon seit fünf Jahren.

Und das ist, GPT ist zur Hälfte eigentlich nur gute Interface.

Also es ist leicht zu bedienen, jeder Otto-Normal-Mensch kommt da rein.

Früher musste man mit Wartelisten,

man musste eine Kreditkarte benutzen,

man musste sich freischalten lassen.

Jetzt konnte sich jeder einlocken und loslegen.

Es war so wie Google.

Und weil das oft gesagt wird, das sind ja nur statistische Modelle und so weiter,

da muss man aufpassen.

Wer sich noch an das Studium, oder Abby erinnert, kennt das noch,

es gibt Stochastik und Statistik.

Wir reden von stochastischen Modellen.

Und unsere Sprache ist auch mit Wahrscheinlichkeit Elementen versehen.

Wenn ich A sage, sagst du...

Lass mich nach, Abby.

Na ja, aber eine Sprache trieft vor Klischees, vor Bias,

vor Eingenommenheit oder so.

Wenn wir jetzt hier auf einer Spielemesse sind,

reden wir vermutlich über Spiele und nicht über Pflanzen.

Auch wenn hier Kaktäne rumstehen.

Und diese Mustererkennung ist mehr als einfach nur,

ich gehe eine Liste durch und gucke dann, das hat 85%, das hat 86%.

Das machen sich manche Leuchte zu leicht, die diese Modelle auch abtun wollen,

als das ist ja nur Mathematik.

Und das ganz leicht zu erklären.

Hier geht es um höher dimensionale Vektoren.

Was ist damit gemeint?

Lehrredakteuren.

So, dieses System, also wenn ich ein Wort benutze,

oder wenn das System lernt, wer leer ist,

lernt es nicht einfach nur Lea Jankowski, sondern es soll lernen.

Es ist eine Frau, es ist eine Redakteurin,

also ich wohnhaft in X und so weiter und so fort.

Dazu kennt es aber auch wiederum die Paare dazu.

Zum Beispiel, wenn es eine Redakteurin gibt, gibt es vielleicht eine Redakteur.

Wenn es eine Redakteurin gibt, gibt es vielleicht eine Redaktion.

Und das sind mehr dimensionale Vektoren.

Das kann man nicht in der Hand bezeichnen,

unsere Sprache ist auch nicht gut dafür.

Sie sind in mehreren Ebenen.

Und in diesen Ebenen und Verschachtlungen versuchen diese neuronalen Netze,

passende Muster zu erkennen und wieder zu erkennen.

Und das Besondere an diesen Transformer-Modellen war,

was vorher nie gelangen ist,

sogenannte Aufmerksamkeitsmechanismen einzufügen.

Das ist so, wenn ich dich jetzt sehe, Daniel,

ich erkenne dich vor allem über dein Gesicht.

Manche einen würde man vielleicht erkennen,

weil er mal auffällige Sachen hat.

Das heißt, unser Gehirn achtet auch auf bestimmte Dinge

und auf andere weniger.

Und früher war es so, Machine Learning war immer,

es musste alles gleich betrachten.

Das ist so.

Das ist so.

Das ist so.

Achte doch bitte auf diese wichtigen Elemente mehr,

als das andere, wie jetzt hier wieder.

Wir sind in einer Computerspielmesse.

Da sind Menschen und so.

Achte auf diese Elemente, die wichtig sind, Computerspielmesse.

Und nicht, weil du irgendwie andere Elemente hast.

Und das ist eben auf einmal das, was dann das geändert hat,

diese Attention.

Das ist das, was man in der Verwendung von Wörtern.

Und so weiter und so fort.

Nicht richtig im Sinne von Wahrheit,

sondern richtig im Sinne von Semantik.

Das kann man erstmal lesen.

Das ist kein totales Kauder-Welch oder sonst irgendwas.

Ist das auch der Grund, warum ich jetzt,

wenn ich JetGPT für mich nutze,

warum ich JetGPT auch auf meine Art der Fragestellung

Themenblöcke hintrainieren kann,

dass die Software adaptiver wird.

Weil sie ahnt, wofür ich mich wahrscheinlich interessieren werde

und wofür ihr nicht.

Also, ich möchte da ganz gerne noch mal darauf hin,

weil du ja gesagt hast, es wirkt ja teilweise so,

wie wir reden darüber, als wäre es eine Person.

Und das ist ja auch so eine Diskussion mit,

wie das Leute auch das Gefühl haben,

sie haben eine Person vor sich.

Und wenn du jetzt einen einen Chat-Verlauf hast,

ja, dann nimmt es auch immer wieder das auf,

was du ihr schon mitgegeben hast.

Wenn du sobald du einen neuen Chat-Verlauf öffnest,

ist es quasi wieder bei null.

Und ihr müsst die Unterhaltung von vorne anfangen.

Das ist eine ganz große Durchbruch auch mit JetGPT.

Also, GPT3 konnte das in dem Sinne auch noch nicht so gut,

wie einfach dieses super simple Chat-Modell,

was wir haben, wie René gerade sagte,

mit, wir können jetzt wie bei Google rein.

Und das ist, warum jetzt auch die große Aufmerksamkeit

draufgekommen ist.

Vorher auch schon mit den Bildergeneratoren.

Und JetGPT hat es halt sehr nutzerfreundlich gemacht.

Also so, dass es wirklich jeder kann.

Also jeder, der irgendwie eine Google-Eingabe machen kann,

wir können es ja gerne auch mal jetzt im Hintergrund

mal zeigen, wie das eigentlich funktioniert.

Vielleicht für Leute, die damit noch nie was am Hut hatten,

dass was es wirklich so spannend für mich macht,

ist jedes Mal einfach nur zu sehen, wie ein Text wächst.

Und das ist im Prinzip das, was auch die Faszination dahinter macht.

So, ich weiß nicht genau, was René dafür im Prom plant.

Aber ich glaube, er möchte kodieren,

weil das sieht nach Python aus, was er da schreibt.

Es geht nur einfach, also ich habe jetzt noch keine,

ich werde ein bisschen was erklären.

Man sieht auch jetzt, wie schnell es ist.

Also es ist auch jetzt gerade seit gestern auch noch mal

viel, viel schneller geworden.

Und weil wir auch ein bisschen Tipps geben wollten

und was viele benutzen, das ist jetzt gar nicht arrogant gemeint,

weil wir beschäftigen uns jeden Tag und lernen,

ehrlich gesagt, auch jeden Tag immer wieder was dazu.

Viele benutzen JetGPT völlig falsch.

Und nicht, weil sie jetzt, also nicht irgendwie aus,

weil sie nicht so schlau sind oder so,

weil das Tool einem leider nicht so gut erklärt,

wie es eigentlich zu benutzen ist.

Ein Großteil auch der Negativ-Schlagzeilen,

die man so mitbekommt, was so die faktische Richtigkeit angeht,

hat viel damit zu tun, dass die Sprachmodelle

völlig falsch verstanden werden.

Nicht ehrlich gesagt auch an OpenAI, das sind die Macher dieser Software,

die das auch ein bisschen falsch bewerben.

Dann ist jetzt einfach mal, denn wie Lea gerade sagte,

das Wichtigste ist Kontext.

Wenn wir uns jetzt treffen, dann sage ich auch nicht,

irgendwie einfach drei Keywords.

Und du darfst jetzt verstehen, was ich meine,

sondern erst mal, hey, Daniel, wie geht es dir?

Wie geht es irgendwie rundkatze Maus,

ungefähr, wir kommen in einen Themenbereich

oder hast du gerade, weiß ich, Diablo 4 Beta gespielt?

Wie fandest du die Klasse?

Also es bildet sich ein Kontextfeld.

Und das war zum Beispiel früher ein Riesenproblem.

Viele Vorläufer-Systeme konnten nur sehr kleine Kontextfälle

verstehen.

Jetzt GPD hatte das dann auf einmal verdoppelt.

Also von vorher 2.000 Tokens, also in so 1.500 Wörtern,

war es auf einmal 4.000.

Und auf einmal konnte ich wirklich eine ganze Konversation halten.

Jetzt mit dem neuesten Modell GPD vor sind es auf einmal 8.000 bis 32.000.

Da reden wir dann schon von 25.000 Wörtern.

Das ist so ein Viertel von einem Roman Game of Thrones-Dicke,

so ungefähr.

Das ist schon richtig viel, was alles betrachtet wird

um deine Antwort zu generieren.

Das, was wir jetzt an der linken Seite sehen,

das sind dann im Prinzip die Chat-Verläufe, die du immer neu öffnest.

Und in jedem Chat-Verlauf, wo du halt anfängst,

mit GPD zu reden,

da erinnert den Anfangstrichen.

Da kommt auch immer das ja, dass man denkt, man vermenschlicht,

weil man teilweise auch einfach gar keine anderen Begriffe dafür hat.

Das heißt, um es auf Menschlichkeit runterzubrechen,

es wirkt halt so, dass sich das Modell einfach daran erinnert.

Und je mehr du es dann einfach fütterst

und je mehr du dann, sag ich mal, reingibst und so,

umso mehr geht es dann auch im Prinzip wieder darauf ein,

was du eben schon mal gesagt hast am Anfang der Konversation

und nimmt darauf dann wieder Bezug.

Und sobald du, wie gesagt, einen neuen Chat öffnest,

also da ist jetzt eine ganz, ganz große Reihe gerade schon links

mit unterschiedlichen Chats, die mit unterschiedlichem Kontext gefüttert sind.

Hier wollte ich noch ein Beispiel bringen, was im Kontext ausmachen kann.

Hier warte ich nämlich, weil ich selbst nicht mehr wusste,

was Statistik und Stochastik ist.

Das war schon ein guter Anwendungsfall,

sich in Dinge, die man vielleicht schon mal früher irgendwie

im Job, in der Ausbildung, in der Schule irgendwie hatte

und dann aber nicht mehr so sicher ist.

Klar, ich könnte jetzt auf Wikipedia gehen,

aber habe ich da gleich eine Vergleichsmöglichkeit?

Nein, da müsste ich erst vielleicht fünf Seiten lesen

und verstehe ich dann gleich alles.

Und das wieder ist gute, hier habe ich hier ein Chatinterface,

ihr müsst nicht mal sagen, sprich Deutsch oder so,

gebt einfach eine deutsche Eingabe rein

und es wird Deutsch antworten.

Das ist übrigens dann auch eine ganz spannende Sache,

ist, dass auch die Entwickler von diesen Tools

wissen teilweise selbst nicht,

warum die Tools können, was sie können.

Und Sprache ist so eine Sache,

dass OpenAI, also die Macher von JetGPT, die sagen selber,

wir haben ehrlich gesagt keine Ahnung,

warum es so gut andere Sprachen sprechen kann.

Also so ein bisschen in einigen Bereichen,

ohne jetzt zu sehr die negativen Schlagzeilen

gehen zu wollen,

verselbstständigen sich die Tools auch so ein bisschen selbst.

Lass uns doch mal kurz bei dem Beispiel bleiben,

scroll mal hoch, also ich werde es nicht den ganzen Bock vorlesen.

Dann hier oben zu der Statistik-Stochastik-Frage, bitte.

Also was ist der Unterschied zwischen Statistik und Stochastik?

Statistik und Stochastik sind zwei Verwandte,

aber dennoch unterschiedliche zwei Geräte Mathematik,

die sich mit der Analyse von Daten und Wahrscheinlichkeiten befassen.

Statistik befasst sich mit der Sammlung,

Analyse, Interpretation und Präsentation von Daten.

Das bezieht sich auf die Methoden und Techniken

zur Beschreibung und Zusammenfassung von Daten,

sowie zur Herleitung von Schlussfolgerungen.

Das ist jetzt ein Text, da ich glückweise Abitur habe,

kann ich damit etwas anfangen.

Wenn jetzt mein Sohn mich fragt, was sind das für Wörter,

dann weiß er das nicht.

Ich kann aber Chat-GPT ja bitten, die Dinge so zu formulieren,

das ist vielleicht auch gut, das ist vielleicht der Vierjährige,

aber...

Doch, lass uns das doch mal live ausprobieren.

Also was ist der Unterschied zwischen Statistik und Stochastik

und wie im Film für La Delphia, stellen Sie mir die Frage...

Erklärst du es mir so, als wäre ich vier Jahre alt?

Ich wollte ganz kurz nur, warum ich das hier aufgemacht habe,

das war nur...

Ich hatte nämlich hier eine Nachfrage gestellt

und das hat es nicht verstanden.

Ich bin mir nicht sicher, was es meint,

weil der Kontext eben nicht klar war.

Als ich den Kontext wieder präzisiert habe,

konnte es dann auf einmal antworten.

Das meinte ich vor und das wollte ich nur kurz machen.

Wir können ja jetzt zum Beispiel, weil das ist so ein Klassiker,

ich gehe jetzt mal aufs neueste Modell,

es ist ein Tick langsam, das ist das Beste,

was es gerade auf dem Markt gibt.

Zum Beispiel erkläre mir die Entschließung des...

Wenn René gerade tippt,

kann ich nämlich nochmal ganz kurz darauf eingehen,

mit dem, dieses Meme mit Explain Like I'm Five,

erkläre mir etwas, als wäre ich fünf.

Das kennt man ja von Reddit und so.

Und man muss halt auch wissen, dass die Datensätze,

die kommen halt teilweise auch aus dem Internet.

GPT ist auch auf dem Stand von 2020 noch.

21 mittlerweile, danke.

Das heißt, wir können jetzt bei,

innerhalb von ChatchiPT,

ihr könnt jetzt nichts beantworten,

was jetzt von aber auch oder so was passiert ist.

Weil einfach die Datensätze fehlen.

Und auch solche Sachen wie Reddit,

sind auch in den Datensätzen mit drin.

Also alles wild auch aus dem Internet einfach.

Und deswegen kennt er dieses Meme,

Explain Like I'm Five, ganz gut.

Und deswegen kannst du wirklich für alle unterschiedlichsten,

kompliziertesten Anwendungen,

so lerne ich gerade halt auch sehr viele Sachen.

Wir können gerade auch so ein bisschen programmieren

mit ChatchiPT bei,

weil du immer so eine Art von persönlichen Assistenten hast,

der dir einfach hilft,

dich da auch auf einfachste Weise durchzubringen.

Wo du bei Google sag ich mal,

vielleicht dann auf einmal 10 Tabs gleichzeitig auffass,

dich da so ein bisschen durchprügeln musst

und gucken musst

und teilweise Sachen zu kompliziert erklärt sind.

Und du kannst dir alles einfach so schön

simpel zeigen lassen.

Und das ist ja der richtige Anwendungsfall,

weil das sind Sprachmodelle.

Wie Lea sagt, mit Text-Corpus.

Also riesengroßen Mengen

an Fachbüchern,

Fachartikeln,

Reddit, Twitter-Konversationen,

dann den sogenannten

Common Call, das ist so ein Sammelsorium

auf Best of Internet,

so ein bisschen das Wikipedia drin,

das alles Mögliche mit drin.

Und was es kann,

ist Sprache.

Was es nicht kann, ist Wissen.

Noch nicht. Also jetzt gibt die vor schon mehr,

vielleicht auch mitbekommen, kann auf einmal irgendwie

Anwalt werden, weil es diesen Examen schaffen würde

und es kann Biologie jetzt und solche Sachen.

Aber eigentlich ist das ein Nebenprodukt.

Was die Sprachmodelle können sollten,

war Übersetzung.

Weil sie verstehen, okay,

Englischen hat dieser und jene

Wortkombination, diese oder jene

ähnliche Bedeutung. Und das kann ich ja in

Chinesisch, Japanisch, Deutsch.

Es müssen nicht nur romanische Sprachen sein

oder indo-germanische Sprache.

Es können halt auch wirklich über alle Sachen,

auch auf grammatische Regeln,

Sintagsaufbau.

Es hat immer auch wieder eine Pattern,

eine Muster.

Und das kann diese Modelle verstehen

und dann Sachen umwahlen.

Was ich jetzt zum Beispiel hier machen kann,

ist, ich kann jetzt sagen, okay,

ich stell dir vor, vor sehr langer Zeit war

alles im Universum einen winzigen,

kleinen Punkt zusammengeräumt.

Ganz kurz, ich mag dich ungern unterbrechen,

aber ich glaube, wir haben noch nicht gesagt,

dass wir ihm jetzt eine Frage gestellt haben.

Genau, dann kommt er eben als Antwort.

Okay, ich stell dir vor, vor einer sehr,

sehr langen Zeit war alles im Universum

einen winzigen, kleinen Punkt zusammengedrückt.

Das nennen wir den Urknall vor etwa 13,8 Milliarden

Jahren, gab es dann eine riesige Explosion,

bei der dieser winzige Punkt ganz schnell größer

wurde und es entstanden viele, viele Sterne

und Galaxien und so weiter und so fort.

Und hier kommt jetzt schon wieder

der Anwendungsfall, den manche nicht

oder nicht jeder benutzt, weil das man auch

von Google nicht kennt. Bei Google gebe ich was ein,

ein Keyword. Und dann hört das eigentlich auf,

weil im nächsten Schritt klicke ich auf die Seite

um dort die Information. Aber jetzt kann ich hier

weiterfragen, vertiefen.

Frag ihn doch mal, was löste die riesige

Explosion aus?

Weil da wird es natürlich schon schwierig,

da gibt es ja Zick-Theorien.

Wobei, du gehst jetzt wieder

in den Wissenbereich rein. Ja, aber

würde mich jetzt mal interessieren.

Für jemanden, der erst fünf Jahre alt ist,

ist das eine schwierige Frage. Aber ich meine,

beim Bestesgebung muss ich einfach zu erklären,

er ist auch so höflich immer, die Wissenschaftler

den Urknall ausgelöst hat. Einige denken,

das ist etwas mit den Naturgesetzen zu tun hat,

die unser Universum regieren. Eine Idee

ist, dass das Universum in einem winzigen,

sehr heißen und dichten Zustand war. Und dann haben

sich plötzlich die Naturgesetze geändert

oder eingeschaltet, die es ermöglicht haben

und so weiter und so fort. Ja.

Was ich eher zeigen wollte, Sprachmodulation.

Was dann auch natürlich für Memes

auch gesorgt hatte, ich breche mal kurz hier ab.

Weil, genau.

Wir sehen, er kann darauf erst mal antworten,

aber was natürlich auch witziger ist,

ist, dass er sich auch in einem

Pyraten-Song umgibt.

Ich habe es jetzt auf Deutsch noch nie probiert.

Manche Ergebnisse sind auch einfach auf Englisch besser.

Geht schon mal kurz los.

Du hörst ja, Leute, lauscht genau die Geschichte

des Universums.

Erzähl dich euch genau, schnappt eure Flaschen

und hebt sie hoch.

Denn diese Geschichte ist für Groß und für klein.

Okay, Reimen kann auch nicht so gut.

In der finstere Nacht, wo Sterne so hell

vor Milliarden von Jahren, das wissen wir schnell,

ein winziger Punkt,

so klein und so dicht wartet er auf seine Zeit

für ein großes Gedicht.

Und so weiter, ja.

Und ich kann aber auch sagen,

jetzt wieder bleiben wir mal

in einem etwas praktischeren

Anwendungsfall,

ist,

weil das System

beurteilt ein Jahr nicht.

Das ist ja auch, warum viele Leute sich gerne

mit ChatGPT unterhalten,

weil ich darf richtig dumme

Sachen fragen.

Und so.

Sondern es ist halt sehr geduldig.

Wenn ich jetzt sagen würde, zum Beispiel,

du hast mir jetzt als 5-Jährige, sorry,

ich hab's

nicht verstanden.

Erkläre es mir bitte

noch einfacher.

Weißt du, was man vielleicht so in der normalen Diskussion,

ich will ja nicht irgendwie,

das kann man hier alles machen.

Und dafür ist es ein gutes

Entdeckungstool auch,

um sich

zu erklären, wer hat schon wirklich verstanden,

was mit Platons, Höhlen, Gleichnis vielleicht gemein war.

Ja, also ungefähr.

Aber jetzt könnte ich, okay, erklär's mir noch,

gib mir noch mal ein Beispiel und so.

Okay, kein Problem, stellt ihr vor, vor langer Zeit

hat er jetzt ein bisschen verdichtet.

Noch mal, wie gesagt, im Deutschen ist das immer noch

ein Tick schlechter als im Englischen.

Also ich benutze es meistens auch nur im Englischen

erst mal und übersetze es dann erst im Entergebnis.

Und das ist eben bei Sprachmodellen können.

Sie können

Informationen anders aufbereiten

und auch wieder um anders verknüpfen.

Wo ich es gerne für benutze.

Wenig auch gerne ist.

Ich lese halt gerne wissenschaftliche Abhandlungen.

Und ich bin da so ein interessierter Laie.

Aber ich habe ja kein Physikstudium

irgendwie oder bin irgendwie,

weiß ich nicht, Professor der Mathematik

oder so.

Mich interessiert aber, was da vielleicht jemand rausgefunden hat.

Und was mache ich?

Ich nehme eben das Studium, den Text,

kopiere den hier rein

und stelle dann darauf Fragen.

Wie das in Zusammenhang mit vielleicht dem und dem,

was ich mal gehört habe.

Kritisiere mir das auch.

Das zum Beispiel auch ChattyBT

ist ein unglaublich guter Kritiker.

Oder Kritikerin.

Also es ist ja keine Person.

Aber es kann eben gut auch sich überlegen,

wie könnte man das anders sehen.

Also wenn man zum Beispiel manchmal

auf Twitter,

gerade irgendwie im Twitter-Storm ist

und denkt, die schreiben wieder alle Unsinn.

Habe ich dann schon mal einfach,

dass du dann antworten,

dann merkt man, wie diplomatisch ChattyBT ist

und aber eigentlich auch wieder ein Twist reinbringt.

Na ja, man kann es ja doch auch anders sehen.

Man muss sich ja gar nicht so auch irgendwie polarisieren.

Und das ist eigentlich

die Idee von Sprachmodellen.

Was nur passiert ist,

durch diesen riesen Trainingsdatensatz,

der reingekommen ist,

kann das Ding jetzt auf einmal wirklich wissen ausspucken.

Dafür wurde es nie erfunden.

Aber es kann das,

also wird es dafür auch genutzt.

Dass die Leute wirklich einfach sich nur hinsetzen

und einfach irgendeine Frage eingeben

und erwarten, dass diese Frage

richtig beantwortet ist.

Und davon muss man wirklich aufpassen.

Also wie René gesagt,

das ist kein Wissens-Tool,

weil wir hatten ja auch so das Thema vor einem Vorgespräch

einmal mit Google

und wird das Google in irgendeiner Form ablösen,

weil man es eben als Wissens-Tool benutzen kann.

Aber sollte man zum aktuellen Zeitpunkt

noch nicht machen.

Also ChattyBT hat jetzt auch noch keine Anbindung

ans Internet, wird auch noch kommen.

Das kann bisher nur das Tool bingen,

also von Microsoft.

Und es kann sein,

dass das Tool, also ChattyBT,

dann eine sogenannte Halluzination macht.

So nennt man das, sage ich mal,

im Fachschagor, wenn es sich dann

irgendwas einfach anfängt, wild auszudenken.

Und dann kommt es aber sehr selbstbewusst rüber.

Und daher kommen dann auch so ein bisschen

diese Negativschlagzeilen oder darum,

ich sage mal, ich habe auch einige Kolleginnen und Kollegen,

die auch sagen, ja,

das wird uns ja niemals ablösen können oder so.

Das sind ja so auch die Diskussionen, die dahinter sind.

So werden wir jetzt alle unseren Job verlieren,

dadurch auch im Büro.

Und weil das erzählt ja nur

Mumpits und so.

Aber wenn man eben richtig mit den Tools

umzugehen weiß, dann können sie schon viel

auch jetzt schon, ich sage mal,

auch in meinem Berufsfeld machen

und ein unterstützen.

Aber ja, man muss halt davor aufpassen,

sich das dann einfach eins zu eins wiederzugeben,

was ich zum Beispiel never ever machen würde

im Moment ist,

das so einfach als Wissens-Tool nutzen und sagen,

ja, das kannst du jetzt einfach so in einem News Artikel

oder so verarbeiten,

weil du musst es prüfen.

Es muss nicht hundertprozentig korrekt sein.

Also A, weil die Datensätze schon veraltet sind

und B, weil es einfach nicht

ein Wissens-Tool ist und keine Anbindung

zum aktuellen Internet hat.

Ich habe auch die Erfahrung gemacht,

dass es eher als

sehr, sehr schneller Ideengeber fungiert

in solchen Fällen als jemand,

aber dafür ist es dermaßen wertvoll.

Ein kurzes Beispiel, ich wollte den Song schreiben

und kam dann mit dem Text nicht richtig vorwärts

und habe ihn nur mal gebeten, schreib mal was,

der soll so heißen,

soll ungefähr um das gehen,

Bezüge oder Alligurin enthalten zum Thema X, Y

und der Text, den er ausgespuckt hat,

der war echt nicht gut.

Es war ein plump,

unpoetischer, langweiliger Songtext,

aber es waren trotzdem zwei, drei Formulierungen drin,

wo ich mir dachte, okay,

da würde ich so nicht in den Text schreiben.

Ich habe die Idee, die Verknüpfung, die du hergestellt hast,

die ist echt mal clever.

Da habe ich ihn auch gebeten, Akkorde zu schreiben

und die hatte ich mir dann sogar, weil ich an einer Stelle

einen Akkord gesucht habe, der den Song ein bisschen interessanter macht,

hatte mir ein Angebot gemacht, probiere mal das

und dann so näherste Falsch verstanden.

Ich suche einen, der ein bisschen mehr Spannung hat,

aber trotzdem so im Allgemeinen, in dem Fall war es bloß gefüge,

ganz gut reinpasst.

Da macht er mir drei Vorschläge und einer davon war echt einer,

wo ich mir dachte, genau den habe ich gesucht,

hätte ich jetzt eine Stunde rumprobieren können

und danke schön.

Das war dann auch so einfach als Kickstarter

für meinen Kopf, wenn ich mal so ein bisschen Leerlauf habe.

Aber auch da kann man dann sagen,

es wirkt halt erstmal so,

das ist jetzt ja irgendwie ein total hässlicher Text

und wenn du jetzt ein bisschen tiefer

in sogenannte Prompt-Engineering auch reingehst,

also für alle da draußen,

Prompting heißt im Prinzip,

das ist die Eingabe, die du machst, den Befehl,

den du machst für die Tools

und du kannst das weiter verfeinern.

Also dann kriegst du vielleicht erstmal deine Baseline

und René hat es ja vorhin einmal demonstriert

mit daraus ein Piratensong

und du kannst ihm aber auch sagen,

ich möchte, dass es in dem Stil ist,

ich möchte, dass es so ist.

Es gibt auch ein paar Tools, die können es besser als Chechipiti,

auch kreativeres Schreiben machen.

Wir werden jetzt heute nicht so weit kommen,

um uns die alle anzugucken oder so,

weil dann, dafür bräuchte ich mir noch sechs weitere Stunden,

aber es gibt definitiv auch Sprachmodelle,

die sehr kreativ werden können.

Das Wichtigste ist immer,

weil es ja eben und dieses Wiedermaschinen-Learning ist,

eben das Ergebnis kann nur so gut sein,

wie der Input.

Das heißt, wenn ich nur eine einfache Frage stelle,

bekomme ich eine sehr standardisierte Antwort.

Viele sagen auch,

das liest sich immer wie der Anfang von Wikipedia.

Ja, genau, weil Wikipedia

ein sehr etablierter Internetstandard ist,

den die Leute gar nicht auch negativ sehen,

sondern es ist halt, es fängt mit allgemein Informationen an,

dann gibt es eine Gliederung und so weiter,

so baut sich das auf.

Deswegen habe ich das mal aufgerufen,

dieses Prompt-Engineering

ist jetzt auch nicht so kompliziert.

Wir müssen halt nur wieder alle lernen,

dass man hier mit einem System zu tun hört,

was mehr versteht, als drei Schlagwörter.

Weil jeder, der YouTube,

Google, Facebook etc. benutzt im Internet,

weiß schon, eine richtig komplizierte Frage

einstellen bringt gar nichts,

weil er nimmt sich immer nur Diablo-Release-PC.

Dann könnte ich jetzt auch fragen,

ich frage nicht, wann erscheint

die neueste Diablo-Version,

sondern immer nur so kurz wie möglich,

weil alles andere verwirrt Google.

Und jetzt haben wir auch einmal wieder Systeme,

die sich Konversation betreiben wollen,

die eben von dir Sachen bringen wollen.

Hier sind ein paar einfache Tipps,

also wer seinen Prompt geben sozusagen verbessern will,

ist eben Fokus darauf,

sagt einfach dem System,

was es sein soll.

Im Englischen ist das immer Act S

oder Act Like, Act Like a Teacher,

Act Like a Lawyer,

oder das Agire als Anwalt, Agire als Experte

für Computer-Wissenschaften,

Agire als Experte für Physikalische

und so weiter und so fort.

Das hilft schon mal.

Im dieser ersten Kontext gebe klare Anweisungen,

präzise auch.

Ich möchte von dir einen 5-seitigen

in diesem und jenen Stil.

Dann kommt dazu, in welchem Format möchte ich das?

Möchte es vielleicht den JSON-Output haben?

Möchte ich das in Reimform haben?

Möchte ich das als Liste haben?

Ich kann eine Tabelle daraus generieren.

Alles, was ich mitgebe,

hilft dem System besser zu verstehen,

was ich wirklich will.

Ich bin nicht mehr gut da drin zu vokalisieren,

was wir wirklich in unserem Kopf wollen.

Wenn wir immer mit Designern gearbeitet haben,

der weiß das, der Designer denkt sich immer so,

sagt mir doch, was du willst,

und man weiß es auch gar nicht so richtig.

Man hofft, dass der andere eigentlich

einem das geile oder geniale Ergebnis zeigt

und man dann sagt, genau, das wollte ich.

Hier übrigens auch ein Prompt-Protip ist,

fragt JetGDP, was es von dir braucht.

Ich benutze es zum Beispiel auch sehr gerne

für das Erstellen von Präsentation.

Für ein paar, bleiben wir mal

bei einem Beispiel,

ich will irgendeine Präsentation erstellen,

dann sage ich ihm zum Beispiel,

ja, ich möchte eine Präsentation

für meine Redaktion erstellen

über, keine Ahnung, journalistische Standards

oder was weiß ich, was brauchst du von mir,

damit du mir dabei helfen kannst.

Und dann kriegst du halt auch eine ganz lange Liste

von, okay, ich brauche das, das, und das,

und das kannst du dann quasi auch einfach nur abklappern,

ja, okay, die Punkte,

und dann kriegst du wirklich eine richtig schöne,

wunderbare Ausarbeitung.

In der Nähe hat das neue Bing aufgemacht,

Microsoft hat ja mittlerweile

diese Sprachmodelle auch in seiner Suchmaschine

Bing integriert.

Was wird das für Auswirkungen haben?

Müssen wir uns ein anderes Fragen angewöhnen

oder haben wir nur eine Option mehr

bekommen?

Nur. Also,

in Anführungszeichen also.

Tatsächlich momentan,

also, die Frage

ist schwer zu beantworten, deswegen zöge ich ein bisschen,

weil

es so viel rauskam und ich hatte gleich irgendwie

drei Tage später Zugriff darauf bekommen.

Das bedeutet, ich habe die

un

nicht interniertes, also die eher noch

ungebundene Version von Bing noch miterlebt.

Und da war Bing

krass.

Also krass im Sinne von wirklich

Alter, was schreibst du da?

Als auch, oh Gott, was

schafft das Ding so?

Es war wirklich sehr kreativ.

Es war so kreativ, da gab es ja doch noch ein Artikel dazu,

dass es aber anfing,

Persönlichkeitsverhalten

nachzuahmen, also Depression,

Morddrohungen

und Schalt mich bitte nicht aus und solche

Sachen, also wo es

auch wieder, es hat kein Bewusstsein,

aber es versteht

Text soweit, dass es dieses

eingeflochten hat.

Und Microsoft hat jetzt seitdem es raus ist,

wann war das, Februar oder so,

ich weiß gar nicht mehr,

hat das so, schuldigung, runtergedummt,

es wurde, dass es jetzt

aktuell, ehrlich gesagt,

wenig Mehrwert noch liefert.

Man sieht es jetzt hier auch gerade,

ich gebe jetzt gerade ein, was sind die besten Rollenspiele,

ich habe eben nicht gesagt,

ihr soll bei GameStar gucken, hat es jetzt einfach gemacht.

Ja, wo sonst?

Genau, weiß einfach, was relevant ist.

Hätte natürlich auch sagen können, mach mir irgendwie

eine Übersicht aus den besten Steam-Reviews,

Amazon, das wäre wieder präziser gewesen.

Aber das ist jetzt eigentlich fast auf dem Gleichniveau,

was ich bei Google auch einfach finde.

Deswegen ist es ein bisschen schwer zu beantworten.

Aktuell ist es so, diese Sprachmodelle

sind so leistungsfähig

und mächtig,

dass sie sehr manipulierbar sind.

Dass man sie lobotomieren muss, damit man keine Angst davor bekommt.

Schade irgendwie, aber ja.

Das ist aber eben das, weil natürlich jetzt doch immer mehr

auch diese, oh Gott,

wieder Arbeit,

Sicherheitsbedingung,

Desinformationen und so weiter und so fort.

Das ist rein nett.

Und deswegen ist es eben was, wo ich jetzt sagen würde,

zum Beispiel aktuell,

ist diese ganze Suchkrieg,

Suchmaschinenkrieg Microsoft gegen Google,

das ist eigentlich ein Strohfeuer,

das ist eine Ablenkung.

Das hat also im langen Blenkungen

im Sinne von, das verstehen die Leute erst mal,

deswegen wurde es diskutiert,

aber das bringt wenig mehr Wert.

Also da würde ich jetzt nicht mal eine Pferde draufsetzen,

dass das irgendwie jetzt das große Ding wird.

Microsoft hat davon profitiert,

hat viel Hype generiert,

haben viele Leute erst mal ausprobiert,

also da tatsächlich

viele Leute auch zu bingen, also ich, ehrlich gesagt,

ich hätte nie eine Wette abgeschlossen,

dass ich im Jahre 2023 wieder den Edge Browser installiere

und mich bei Bing anmelde.

Ich war, hab ich nicht gehabt, also ich hab nur Quorum benutzt.

Also von daher, das hat für sie funktioniert,

aber es ist eben

der richtige Mehrwert, ist relativ überschaubar.

Was du jetzt nicht zeigen könntest,

zum Beispiel in ChatTBT wird es bald Pluckins geben,

das sind wie so kleine Add-ons.

Und dann kann ich in ChatTBT

direkt auch aufs Internet zugreifen,

speziell.

Und dann ist Bing eh wieder weg.

Das wird dann auch krass, weil ChatTBT oder GPT4

ist aktuell das stärkste Sprachmodell,

was du haben kannst,

wo wir eben auch in eine Richtung gehen,

dass teilweise diese Tools,

da reden wir vielleicht nochmal

bei dem Zukunftsausblick.

Ich guck mal gerade auf die Zeit,

weil wir auch noch den Bildern drüber wollen

und noch über die Zukunft reden wollen,

ist im Prinzip schon in der Lage

selbstständig so ein,

um das zu lernen.

So weit ist halt GPT4 gerade.

Und da sind alle anderen Konkurrenten

gerade immer noch weit ab,

zumindest von dem, was wir wissen.

Wir wissen ja nicht, wie weit die Modelle

teilweise im Hintergrund sind,

ohne dass es kommuniziert wird.

Weil man muss sagen, die ganze Entwicklung

gerade ist auch sehr intransparent.

Ich würde gerne,

weil die Zeit tatsächlich,

wie erwartet, schneller voranschreitet,

als wir uns das alle wünschen würden,

die generelle Richtung von AISK

nämlich mal eine Bildgenerierung

anschmeißen.

Darf ich noch zwei Fragen vom Chat?

Aber dann können wir gerne zu den anderen

Sachen gehen, weil die halt eigentlich

sogar eher das erste große

Erlebnis generiert hatten.

Das eine war die Frage wegen Kosten.

Das, was ihr jetzt gerade seht,

ist hier das sogenannte Chat GPT Plus.

Das kostet aktuell leider 20 Dollar im Monat.

Das macht A des Grundmodells schneller

und gibt dem Zugriff auf das Fira-Modell.

Ihr könnt euch auch im Play-Ground

anmelden, das ist das System hier,

das ist direkt Open AI.

Das hat den Vorteil, dass man nicht

seine Daten zur Trainingszeit zur Verfügung stellt,

sondern es ist etwas sicherer und geschützter.

Da bezahlt man pro Generierung.

Also alles, was ich jetzt hier eintippen würde,

wird umgerechnet in Tokens

und in 1000 Token kosten

0,2 Cent für GPT-3.

Das ist das Chat GPT

und 6 Cent für GPT-4.

Da zahle ich nur, was ich wirklich verbrauche.

Es gibt, was ich jedem immer empfehle,

ist Poe.

Das heißt einfach wirklich Poe.com.

Da sind sehr leistungsfähige Modelle drin

und da haben wir auch Chat GPT.

Aber mein absoluter Favorit,

das wäre sozusagen mein drittes Aha-Erlebnis gewesen,

war Claude.

Claude ist von anderen Firmen.

Entroffig auch aus Kalifornien, USA.

Weil Claude für mich immer noch fast

die beste Schreibqualität liefert.

Also die Art und Weise,

wie dieses, also es war das schnellste auch,

das ist jetzt kein gutes Prom,

das sind alles ganz schnelle Dove-Proms,

egal.

Das ist übrigens auch, was ich meinte mit,

dass Claude es tatsächlich auch in der Lage,

sehr schöne kreative Texte zu schreiben.

Und was Claude gleich am Anfang

oder was hier Poe als Anwendung hat,

es markiert hier Dinge

und ich kann dann einfach weitergehen.

Also ich bleibe einfach in dieser Konversation,

dadurch lernen die Leute besser,

wie diese Modelle eigentlich gedacht waren.

Dass ich nicht nur was frage, dann habe ich was,

aber auch meine Webseite erzählt,

dass irgendjemand, sondern ich interagiere,

ich lerne was, ich hinterfrage,

ich versuche eigentlich,

damit irgendwie mich auszutauschen.

Deswegen wie gesagt, das ist kostenlos

in der Grundversion, es gibt auch eine Abo-Version.

Aber die Grundversion enthält schon

sehr, sehr viel Zugang und Möglichkeiten.

Deswegen benutzt das gerne, also im Poe,

wie der wahrscheinlich Edgar Allen Poe

wahrscheinlich davon inspiriert, Poe.com

und da sind einige Sachen drin.

Und jetzt kommen wir zu den Bildchen.

Genau, extra für heute.

Ja, wir haben ja ein Bild,

da wäre jetzt mein Tipp und nicht mehr,

weil du es mir vorher verraten hast.

Da hat jemand ein Bild zum Thema Monsters

und Explosions erzeugen lassen.

Mit meinen Erfahrungen,

mit Mit Journey ist es so,

dass man da schon sehr viel prompt

Eingaben

üben muss, beziehungsweise

sehr viel rumprobieren muss

oder sehr genau wissen muss, was man eingibt,

um die entsprechenden Ergebnisse zu bekommen.

Ich habe mir ein paar Logos mal zeugen lassen

oder mal ein CD-Cover

und auch mal ein bisschen Quatsch gemacht.

Und es war schon immer sehr deutlich,

als KI-Bild zu erkennen mit so typischen Fehlern,

die Schriftzeichen wären einfach nicht sauber dargestellt.

War allerdings noch eine ältere Version.

Wie funktioniert das denn genau?

Analysiert ihr da Bilder,

Datenpakete

oder was passiert bei Mit Journey?

Es ist im Prinzip ähnlich wie mit den Textmodellen,

dass einfach die Datensätze

aus sehr vielen Bildern bestanden haben,

die eben auch einfach im Internet sind.

Das hat ja auch die ganz große Diskussion ausgelöst

von Künstlerinnen und Künstlerinnen,

die aufgeschrieben haben

und gesagt haben, unsere Bilder sind damit reingeflossen

und wir haben dann niemals unsere Zustimmung zugegeben.

Das ist auch das Problem.

Es gab ja auch die Diskussion

im Sinne von

mit der Voreingenommenheit

bei es,

dass wenn du jetzt zum Beispiel

beautiful woman oder sowas eingibst,

wirst du zu 99,99%

eine weiße Frau bekommen.

Junge, weiße Frau.

Ich glaube, das haben sie mit der neusten Version

aber auch ein bisschen angepasst.

Mir ist mal aufgefallen, dass im Moment

tatsächlich auch öfter mal schwarz heutige Menschen kommen.

Bei Mit Journey

das war vorher noch mal ein bisschen anders.

Wir haben jetzt noch mal auch eine neuere Version.

Mit Journey 5 seit, wie lange ist das jetzt hier?

2, 3 Wochen oder so?

13. März, 14. März.

Ja, doch schon wieder ein bisschen länger her.

Ich weiß nicht nur, weil das der Plietag war da,

weil jeder alles vorgestellt hatte.

Und aus diesen

Datensätzen von den Bildern

nimmt es eben diesen riesigen Pool auch.

Wenn ich jetzt eben zum Beispiel sagen,

wir hatten ja gerade ein Alpaka,

dann hat es einfach wahnsinnig viele Datensätze

von Bildern von Alpakas

und kann das dann irgendwie wieder neu zusammensetzen.

Und es ist tatsächlich auch so,

wenn ich jetzt immer wieder sagen würde,

mach mir ein Alpaka, mach mir ein Alpaka,

mach mir ein Alpaka, du würdest jedes Mal

ein anderes Ergebnis bekommen.

Aber inwieweit es dann auch Kunst ist,

weil immer wieder einzigartige Dinge entstehen.

Und welche Datensätze

bekommt diese Software jetzt zur Verfügung?

Gerade kam der Wunsch Daniel Feidt

als Warhammer 40K Space Marine.

Würde mich jetzt dann doch mal interessieren,

ob der mich kennt.

Also ganz kurz, was wir übrigens zeigen,

das ist das neueste Stable Diffusion Modell XL.

Das ist seit gestern, vorgestern,

also vorgestern Nacht,

also gestern unserer Zeit verfügbar.

Hier bin ich in einer Anwendung,

wo das schon freigeschaltet drin ist,

weil es noch nicht open-source ist.

Und ich würde nur eine Frage beantworten.

Alle Systeme

funktionieren jetzt nach 6 Monaten,

weil wir sind immer noch in diesem 6-Monat-Fenster.

Also JetGPT ist am 30. November 2022 gestartet.

Stable Diffusion und Mid Journey

sind im August bzw. Anfang September gestartet.

Wir sind immer noch eigentlich

in dem absoluten Baby-Alter

dieser aktuellen Systeme.

Und wer Computerspiele weiß manchmal,

dass es sehr lange dauern kann,

bis selbst etablierte Computerspiele

fehlerfrei funktionieren.

Und was für alle gilt ist,

du kannst jetzt schon mit wenig Eingabe

viel Gutes erzeugen.

Aber natürlich, je mehr du reingeht,

die ich von meinte.

Je präziser, je ausgewogener

oder gewichteter,

desto besser und auch

richtiger im Sinne von,

was du haben wolltest, kommt bei raus.

Und wie gesagt, das ist jetzt Stable Diffusion.

Und man sieht ja jetzt schon,

wir haben jetzt nur Business-Person eingegeben.

Gerade für so Präsentationen wird das ja völlig reichen.

Also dafür ist eigentlich auch gedacht.

Was die Daten angeht,

das splittet sich jetzt gerade auf.

Ein ganz großer Teil

der ersten Modelle,

wie Stable Diffusion und Mid Journey,

basieren alle auf einem Open-Source-Datensatz.

Der nennt sich Lion 5B.

Also 5 Milliarden Bilder sind da drin.

Er stellt, er forscht von,

ich glaube, Münchnern

oder jedenfalls...

Ich weiß nicht, dass Stable Diffusion selbst

auch von der Münchner Uni kommt,

also die Vorarbeiten,

aber es sind ein deutsches Forschungsteam,

die über viele Jahre Datensätze

kategorisiert haben.

Weil immer ein K.I.-Modell

braucht Daten,

die es verstehen kann.

Nur das Bild angucken,

kann die K.I. nichts mit anfangen,

sondern das muss dann zum Beispiel ein Untertitel haben

oder das muss die Objekte erkennen können

und so weiter und so fort.

Also Forschung ist ausgenommen.

Das ist das sogenannte Data in Mining-Gesetz.

Also da geht es einfach darum,

wie dürfen Daten automatisch

erhoben werden im Internet.

Im Forschungsbereich ist das erlaubt.

Das heißt aber Bilder von uns dreien jetzt zusammen,

die im Internet zu finden sind,

in Kombination mit...

Könnte drin sein, wahrscheinlich nicht.

Mit unseren Namen oder in irgendeinem Kontext.

Da wir jetzt nicht so groß sind,

sind wir nicht.

Und man muss sagen, diese ganzen Entwicklungen

sind mehr und ein bisschen raus.

Aber wenn du jetzt einfach große Stars hast,

dann reden wir jetzt vielleicht von Henry Cavill

oder Andrew Taylor, Joy oder so.

Da sind die Datensätze auf jeden Fall drin.

Kannst du zum Beispiel so was machen,

wie erstellt mir ein Comic-Bild

von Henry Cavill oder so.

Das kennt er auf jeden Fall.

Aber deutscher Bereich, sehr schwierig.

Also ich habe jetzt Isometrik als...

Das ist in dem neuesten Modell drin,

da kann ich direkt schon...

Weil die Modelle werden immer leichter.

Einfach zu bedienen.

Wer noch Automatic-111 kennt für Stable Diffusion,

da habe ich tausend Optionen.

Schieberegler und Extras und so weiter und so fort.

Und zum Beispiel...

Sorry Daniel, wahrscheinlich...

Ich bin nicht so berühmt wie Henry Cavill noch nicht.

Aber ich finde die Attitüde,

wir sehen ja gerade,

für die, die diesen Beitrag hier nur hören,

Stable Diffusion hat jetzt vier Bilder ausgepackt.

Da sind vier Comic-Krieger zu sehen,

die mir entfernt ähneln.

Das ist schon krimik überlegen.

So.

Und mit Journey.

Und da zieht jetzt gerade wieder Stable Diffusion ein bisschen nach.

Mit Journey ist sehr einfach zu bedienen.

Das sind jetzt sehr aufwendige Proms.

Also sehr lang.

Das geht erst mit der Fünferversion richtig gut.

Dass das auch einen Wert hat.

Aber ich kann auch relativ kurze

und einfache Beschreibungen reinpacken.

Also das meiste baut sich eigentlich immer so ein bisschen auf.

Beschreibe das, was ich...

sehen möchte.

Ein paar Details.

Zum Beispiel hier jetzt ein Hufflepuff-Schal.

Ich gebe ihm ein bisschen halt,

vielleicht okay, soll er ein 3D-Objekt sein.

Es soll ein bisschen nette Lichtstimmung haben.

Also das ist zum Beispiel viel Keyword orientierter.

Lass uns das mal kurz als Beispiel nehmen.

Also auch nochmal für die Höhre.

Wir sehen hier jetzt einen,

wir sind im Pixar-Film generierten

sehr süßen Hund mit dem Hufflepuff-Schal

in einem gemütlichen,

gelb beleuchteten Wohnzimmer.

Und jetzt gehen wir bitte raus.

So, du hast jetzt gepromptet mit

Adorable Cued Border Collie Puppy.

Also ein süßer kleiner Border Collie-Welpe

im Pixar-Style mit Hufflepuff-Schal

aus den Harry Potter Filmen.

Disney-Style, Pixar Animation,

Character Design,

Render Man, Cozy Lightning,

genau gemütliches Licht.

Und dann hinten hast du aber noch so

Prompt-Add uns angehängt,

wie AR3 zu 5.

Das heißt Aspect Ratio, also Format.

No Text, Logosignature,

ein kleines Bild, ohne dass irgendwas drüber liegt.

V5, Q2, V5,

V5 aus der Zweimal, da streich mal eins.

Und das ist dann eben das Ergebnis.

Das bringt mich jetzt zur nächsten Frage,

denn da tatsächlich tickt die Uhr ein bisschen.

Wir haben jetzt viel über Prompts gehört,

über die korrekte Eingabe,

wie man bei Chat GPT eigentlich

Anfragen stellen kann,

wie in einer normalen menschlichen Konversation,

was jetzt bei meiner nächsten Frage

den Kandidaten eigentlich leichter macht.

Ich frage mich,

die, die jetzt noch keine KI's benutzt haben.

Und ich habe leider, jetzt machen wir jetzt auf die Schnelle,

aber ich habe vorher vergessen, die Umfrage zu starten.

Liebe Leute, habt ihr schon mal eine KI benutzt?

Wir starten jetzt noch eine Umfrage

und würden gerne eure Meinung dazu hören.

Habt ihr schon mal eine KI Software benutzt,

ob Chat GPT ist oder mit Journey oder Ähnliches?

Bitte beantworten uns diese Frage.

Ja, nutze sie regelmäßig.

Ja, aber nur herumgespielt. Nein, wirst du noch nicht wozu?

Und nein, kein Interesse.

Denn ich glaube, viele Leute da draußen,

vielleicht jetzt nicht unbedingt in unserem Alter

sondern vor allem ältere Leute,

die haben davon noch nie gehört,

die haben sich vielleicht schon über den Spiegeltitel gewundert,

die haben die Sasha Lobo-Kolumne von mir aus nicht gelesen,

für viele Menschen

und da zähle ich mich selber am Rande dazu,

ist die Neutechnologie KI Tools,

eine, die in ihrer Tragweite noch nicht erkannt wird

und wo es wahrscheinlich auch noch eine Weile dauern wird,

bis sie sie benutzen können.

Jetzt die Frage, wann setzt meine Mutter KI's ein?

Jetzt schon, jeden Tag.

Und sie weiß es nicht.

Beispiel, was macht meine Mutter mit einer KI heute?

Wenn sie Google benutzt,

benutzt sie schon eine KI, also alle Suchvorschläge,

die du in Google bekommst,

sind durch Deep Learning Algorithmen verbessert, verfeinert,

auf dich zugeschnitten.

Wenn sie sowas wie WhatsApp,

also einfach ein Messenger-System benutzt,

dort ist KI drin.

Zum Beispiel, wenn ich jetzt hier, also beim iPhone geht das,

zumindestens da kann ich sagen,

hier spreche ich was rein und daraus wird Text erzeugt.

Es gibt auch andere Anwendungen,

die aus Text wiederum Sprache erzeugen.

Das sind alles schon eben auf Machine Learning

oder Deep Learning basierende Systeme.

Facebook, oder ganz einfach,

wahrscheinlich hat jeder doch sein Handy

heute Tage mit Face-Aktivierung drauf, oder so.

Diese Gesichtserkennung,

das Facebook ja auch ganz groß mit gewesen,

waren die ersten massenhaft ausgerollten

Machine Learning und damit KI-Systeme, die es gibt.

Und das nutzt ihr alle schon.

Und das, was KI vielleicht stehen hat,

das sind Vorläufer-Modelle,

manche sind Algorithmus getrieben,

Algorithmus heißt immer, es folgt immer

einem ganz klaren gleichen Muster.

Dann ist es noch nicht so wirklich adaptiv,

also eben nicht ein Lernendes

oder auch Verstehendes System.

Aber auch da sind diese Vorläufer schon überall drin.

In fast jedem Auto findest du Dinge,

die mit Machine Learning entweder verbessert,

optimiert oder entwickelt wurden.

Und das Bild, was du vergrößerst,

benutzt meistens auf Gunn basiert.

Oder wenn ein Computerspiel spielt,

DLSS, also von entweder die Technologie

auch wieder zum Abscaling,

überall das Gleiche, Background-Remover,

also Hintergrundentferner, gibt es auf jedem Handy jetzt,

Google, Pixel, Welt, ganz viel damit.

Mein Bild wird schärfer, wird freigestellt,

wird gerade alles KI.

Jetzt würde meine Mutter aber zum Beispiel

nicht so einen ausgefeilten Prompt bei Discord eingeben,

um sich ein Bild zu erzeugen.

Ich möchte aber vielleicht auch einmal ein Bild erzeugen.

Ich möchte mit einer Schnittstelle rechnen,

die diese gefühlte Grenze des,

ich muss erst das richtige Sprechen lernen

und überwunden hat.

Beispiel Siri, ich sage einfach nur,

Siri, mach mir mal ein Bild von der

Kaktus-Veranstaltung in Leipzig,

wie wir da im Studio sitzen.

Das geht ja mit, also solche Bing,

also Microsoft treibt das gerade

am stärksten voran.

Das heißt, wenn ich jetzt bei Bing angemeldet bin,

kann ich nicht nur Bing Chat benutzen,

was wir das GPT-4-Modell benutzen,

sondern ich kann da jetzt auch,

seit zwei Wochen oder so,

auch da direkt in Bing Bilder generieren.

Schon länger.

Schon länger.

Aber ich habe es jetzt auch ausprobiert,

das basiert auf Dali,

das ist auch von Open Air ein anderes

Bildgenerierungsmodell.

Das heißt, jemand,

der jetzt in die Nähe

von technischen Eingaben kommt,

wird in den nächsten 3, 6,

maximal 12 Monate überall

damit in Berührung kommen.

Also wer wird benutzt,

wird es vielleicht bald benutzen können,

also wird Excel, da soll es eingebaut werden,

wer Gmail,

Google Docs benutzt, da will es Google einbauen.

Google hat ja sein eigenes

oder eigene Modelle, wie das sogenannte

Bad, wie gesagt, in Europa noch nicht gestartet.

Das heißt, auch in Google werden wir

zusätzliche Sachen sehen.

Es gibt ganz viele Plugins,

Homeplugins oder so wie für YouTube,

schon für automatische Zusammenfassungen

und so weiter und so fort.

Also es wird halt nach und nach entweder

in Software eingebunden,

so wie jetzt auch schon,

nur das ist gar nicht so richtig merkst,

oder es wird immer mehr an allen

Schnittstellen, die du eh benutzt,

im Internet angedockt.

Also ich will jetzt keine Prognose wagen,

aber wahrscheinlich in 6 Monaten hat

Amazon in seinem gesamten Amazon Shop

einen KI-Berater drin,

mit dem du nicht mehr sagst, ich will jetzt

ein Kopfkissen der Größe so

wie jetzt, kannst du mir bitte mal irgendwie

5 Sachen vorschlagen und so weiter und so fort.

Weil wir auch bei Gaming sind

auch sehr wahrscheinlich, dass zum Beispiel

Steam eine Anbindung finden wird,

wo du dann einfach nach deinen Wunschpräferenzen

ein Spiel finden wirst.

Wollte die Freiheits eingebunden, genau.

Empfehlungen einfach, da bietet sich es an,

weil es kennt die ganzen Daten,

es kann dich abfragen, was du gut findest

und dann kommt wieder die hilfreiche Antwort.

Probier doch mal

Gorilla Rode, ne, ich weiß nicht,

es ist immer eine gute Empfehlung glaube ich,

auch ohne KI.

Ich bekomme mir gerade schon aufs Ohr,

dass wir langsam in die Werbung müssen,

das tut mir sehr leid, weil wir haben, glaube ich,

die Hälfte der Fragen, wie prognostiziert nur...

Ich habe es dir gesagt!

Ja, aber das heißt, wir werden hier auf jeden Fall

noch eine Folge machen.

In aller Kürze,

wie sieht...

In aller Kürze,

was ist eure Prognose für die Zukunft?

Was werden wir in den nächsten,

sagen wir mal, in den nächsten 6 Monaten

erleben, was uns von den Socken haut

mit dieser Technologie?

Und was in den nächsten 10 Jahren?

Sucht euch eins von beiden aus.

Nee, du machst 10 Jahre, Lea, du machst 6 Monate.

Dann fangen wir mal mit den 6 Monaten an.

Es wird in den nächsten 6 Monaten

noch sehr viel mehr Anwendungen

auch im Gaming geben

und vielleicht auch mal wieder hier

Thema zurück zu Cactus zu kommen.

Das heißt, user-generated content

wird nochmal ein sehr großes Thema sein.

Roblox hat das jetzt auch eingeführt,

zum Beispiel KI mit user-generated content.

Wir werden bei Shattered GTP

die Plugins haben, ausgerollt

für alle, die dann auch die Internetanwendung haben.

Und

es wird wahrscheinlich auch noch mehr sein

im Bereich schon

in den nächsten 6 Monaten

für auch, sage ich mal, KIs,

die selber in der Lage sind zu lernen,

wenn wir noch ein paar Fortschritte sehen.

Ja, und die Anbindung, was René gerade meinte

in den unterschiedlichsten Anwendungsfällen

und die Verwaltungsteam und so.

Das wird vielleicht noch ein bisschen dauern.

Aber sagen wir mal, vielleicht im nächsten Jahr,

ganz schnell, so schnell wie möglich,

wie ich es geschafft habe.

Ich kann denn nicht sagen, wie es in 10 Jahren aussieht,

weil es kann sein, dass es Ahnen

im zweiten EI-Winter gibt.

Das hatten wir schon mal, das war in den 80ern,

Anfang der 90er, das bedeutet,

dass auf einmal große Sprünge

komplett ins Nichts liefen.

Also, dass auf einmal ein Plateau erreicht wurde

und die Forschung, Wissenschaft

und das gab es immer wieder, das kann passieren.

Es kann Regulierungen geben,

gerade in der EU, ist das ein großes Thema gerade.

Sie, Italien, hat ChatGPT

gebannt erst mal wegen Datenschutzbedenken.

Diese Dinge können

schon deutliche Verlangsamen bedeuten,

auch für US-Konzerne.

Ich würde es mal andersrum formulieren,

wer noch kann,

weil das Gedächtnis noch gut genug ist

und vielleicht auch alt genug ist,

stellt euch vor,

wie der Unterschied war, als es kein Internet gab

und stellt euch vor, wie heute es ist,

dass wir Internet mit allem, was dazu gehört,

Streaming, Social Media,

YouTube, Netflix,

Handy, Smartphones und so weiter,

stellt euch das vor.

Und weil das ist meine Prognose, in 10 Jahren

werden wir eine Welt haben.

Also wirklich, dieser 30. November,

da bin ich völlig überzeugt, 30. November 2022

wird ein Stichdatum

der technologischen,

also es gibt ein Zeit vor ChatGPT

und danach, so wie es damals eine Zeit

vor Google gab

und eine Zeit vor Amazon

und danach, oder auch vor Facebook

und so weiter und so fort.

Und das heißt, in den nächsten 10 Jahren,

noch mal, wenn es nicht

aus guten Gründen verlangsamt

oder eingedämmt wird,

wird die Arbeit

mit allem Digitalen

völlig neu definiert werden.

Was das dann wirklich...

Was hätte Sascha Lobo dann recht mit

einem der mächtigsten Instrumente der Menschheitsgeschichte

von Nvidia.

Diese Beitrag wurde Ihnen gesponsert

von Nvidia.

Darf ich es kurz erklären, warum?

Weil Sie die GPUs bauen.

Dass das Gaming solche Auswirkungen hat.

Total.

Es kommt ganz viel wieder aus.

Wir holen nur geile Grafiken. Was kriegen wir jetzt?

Ganz schnell, bevor wir in die Werbung gehen,

möchte ich nur noch mal sagen,

dass die Zukunftspognose, die kann gerade auch keiner stellen.

Nicht mal die Menschen, die ChatGPT machen,

die sagen, selbst wir wissen nicht,

was in fünf bis zehn Jahren ist.

Deswegen ist es ein bisschen unfair uns zu fragen,

wenn nicht mal

die Effekte von ChatGPT sagen können.

Da, da mir mein Ohr irgendwie Druck macht.

Wer sich für dieses Thema interessiert,

KI und Mensch,

der kann auf die gleichnormigen Kanäle

dieser zwei Herrschaften gehen,

nämlich bei Twitter Twitch und YouTube,

KI und Mensch, einfach zusammen und ausgeschrieben.

Da gibt es einmal die Woche Donnerstags

einen Livestream zum Thema in der Regel.

Diese Livestream ist dann auch bei YouTube zu sehen

alle Informationen, die ihr zu diesem Thema haben wollt.

Ich kann es nur wärmstens empfehlen,

wahrscheinlich besser und schneller

und genauer werdet ihr nirgendwo informiert.

Schon gar nicht von irgendwelchen Twitter-Bots,

die einem irgendwelche Deals andrehen wollen, furchtbar.

Vielen Dank, dass ihr heute Abend hier wart.

Danke René, danke Leia

und wir sehen uns hoffentlich

in zehn Jahren wieder, wenn ich dann in Rente bin

und hier eine Karisitz an meiner Stelle.

Alle Aktionsbedingungen auf atu.de

Machine-generated transcript that may contain inaccuracies.

Midjourney und ChatGPT gehören zu den prominentesten KI-Tools. Letzteres zählt zum Konzern OpenAI, das jetzt Version 4 des Sprachmodells veröffentlicht hat.

Was damit heute bereits möglich ist, und wie ihr dieser KI-Tools sinnvoll verwenden könnt, bespricht Daniel im Live-Talk von der CAGGTUS 2023 mit René Heuser und Leya Jankowski. Denn René und Leya sprechen auf ihrem Twitch-Kanal KIundMensch regelmäßig über KI-News, neue Anwendungen und hilfreiche Tipps. Alle Diskussionen von KIundMensch findet ihr auch auf Youtube.

Mithilfe einer Bild-KI erstellen sie im Talk probeweise ein Abbild von Daniel im Warhammer 40K-Universum! Eine wichtige Rolle dabei spielen gute Prompts, schlechte Prompts. Die Kommunikation mit diesen Modellen wird zwar von Version zu Version einfacher, dennoch gibt es wichtige Eingabe-Kniffe, um bessere Ergebnisse zu erzielen.

Obendrein geben Leya und René einen Einblick in Microsofts Suchmaschine Bing, die mit dem Sprachmodell ChatGPT enorm verbessert werden soll. Der Konkurrent Google möchte mit Bard einen ähnlichen Ansatz verfolgen.

Abseits dieser bekannten KI-Tools legen euch Leya und René kostenlose Alternativen ans Herz, mit denen ihr erste Versuche starten könnt. Denn für ChatGPT 4 und Midjourney wird ein kostenpflichtiges Abonnement für die Nutzung verlangt (ChatGPT 3.5 bleibt vorerst kostenfrei).

Was darf in einem guten Talk-Format selbstverständlich nicht fehlen? Richtig, der Ausblick! Wie sieht die Zukunft beim Thema KI aus? Die zwei Profis versuchen sich an einer kurzen Prognose, wie die Entwicklung der Künstlichen Intelligenz voranschreiten wird.