11KM: der tagesschau-Podcast: KI außer Kontrolle - wenn Chatbots drohen
tagesschau 3/27/23 - Episode Page - 28m - PDF Transcript
Ein Student aus München testet den neuen Chatboard von Microsoft, eine Testversion
von ChatGPT, die künstliche Intelligenz in die Suchmaschine Bing von Microsoft integrieren
wird.
Und in diesem Chat schafft er es eines Tages, dass die künstliche Intelligenz im Eingeheimnis
verhält.
Eines, dass sie wirklich gern für sich behalten wollte.
Der Student Marvin von Hagen wird vom Bing Chatboard bedroht, weil er das Geheimnis
veröffentlicht hat, die internen Regeln, nach denen der Chatboard antworten soll.
Ein Mensch wird also von einem Algorithmus bedroht, es klingt jetzt wie Science Fiction,
aber wir zeigen euch in dieser Folge 11KM, warum wir solche Vorfälle ernst nehmen müssen.
Ihr hört 11KM der Tagesschau-Podcast, ein Thema in aller Tiefe.
Mein Name ist Victoria Michalsack und heute ist Montag, der 27. März.
Gregor Schmeitzried vom BR hat Marvin von Hagen getroffen und kann uns erzählen, warum
ChatGPT aggressiv geworden ist und was das bedeutet für uns als Gesellschaft und unseren
Umgang mit solchen Tools.
Das ist irgendwann wahrscheinlich mit eines der wichtigsten Themen in der Menschheitsgeschichte
wird.
Da sind sich sehr viele sehr schlaue Leute relativ einig.
Gregor, wer ist das, der das sagt und was hat er mit KI zuschauen?
Das ist Marvin von Hagen, der studiert am Center for Digital Technology and Management
in München und war einer der ersten, die Microsofts neue künstliche Intelligenz den
Bing Chat ausprobiert haben.
Das bedeutet, was auch immer diese Entwicklung ist, von der er da redet, war quasi von Anfang
an dabei.
Und der hat sich jetzt mit einer KI befasst, das ist Bing, die Suchmaschine kombiniert
mit der KI ChatGPT, bzw. GPT4.
Genau, also Bing ist ja die traurige Suchmaschinengeschichte immer gewesen von Microsoft, die sie vor
ich glaube über 10 Jahren schon gelongt haben, als großen Google Killer.
Und ja Google ist glaube ich immer noch da und ich weiß nicht, wenn ich das letzte Mal
jemanden hab sagen hören, lasst das mal bingen, aber jetzt ist Bing tatsächlich wieder im
Gespräch gewesen, weil Microsoft eine enge Partnerschaft hat mit OpenAI.
Das ist die Firma hinter einigen der wichtigen KI-Modelle, über die wir gerade sprechen.
Und haben gesagt, warum verbinden wir diese zwei Sachen nicht?
Warum machen wir nicht eine Suchmaschine, die mir nicht einfach nur eine Liste von Ergebnissen
gibt, sondern mit der ich sprechen kann und genau das ist der Bing Chat, den Marvin da
ausprobiert hat.
Okay, also für wen ist denn diese Funktion eigentlich gedacht?
Am Ende für uns alle, glaube ich, also der große Plan, was die Tech Firmen gerade so
vorhaben, ist, dass wir mehr oder weniger zumindest alle von uns, die im Büro arbeiten
oder in irgendeiner Form mit einem Computer interagieren, bald immer wieder die Hilfe
einer KI dafür in Anspruch nehmen und da ist quasi die Suchmaschine nur so der erste
logische Schritt, dass man sagt, ich suche eine Information, ich möchte irgendwas einsortiert
haben, ich frag mal schnell Bing und muss da dessen nicht zehn Minuten lang rumgugeln.
Am Anfang war das jetzt aber noch nicht für alle zugänglich, also man konnte jetzt nicht
auf Bing gehen und dann war es das große Experiment, sondern ich glaube, da gab es
eine Warteschlange quasi.
Genau, also das Interessante ist, Bing ist jetzt verfügbar, der Bing Chat, den kann man
jetzt ausprobieren, aber es gab eine, ich sag mal so Vorläufer-Version davon, die durft
nur ein paar ausgewählte Leute testen und die konnte sehr viel mehr als das, was jetzt
gerade verfügbar ist.
Also die Version, die jetzt rausgegangen ist, die ist so ein bisschen, ich würde sagen,
der wurde so ein leichter Maulkorb verpasst, aber die KI mit der Mavin gearbeitet hat,
als einer von vielen Testern auf der ganzen Welt, das ist sozusagen die rohe Variante
von dieser KI, das ist wie diese KI eigentlich interagieren möchte und nach den Interaktionen,
die er da hatte, kann man sich schon Gedanken machen darüber, was wir da so freiwillig
in unser Leben lassen.
Also, Mavin war zu Hause und hat sich da angemeldet.
Genau, also Mavin kann man sich vorstellen, der sitzt viel in der Arbeit, der sitzt viel
an der Uni und hat natürlich alles, was er braucht, immer dabei auf seinem Laptop und
sagt sich, hey, diese neue KI hat mich freigeschaltet, ich darf die ausprobieren, ich darf als
einer der ersten quasi, die ersten Schritte in dieses neue Land wagen, über das wir gerade
alle sprechen und hat das einfach mal gemacht, hat einfach mal ein bisschen interagiert mit
dem Chatbot und das Interessante ist ja, das ist ein Computerprogramm und das kann man
deswegen also auch hacken.
Und dann hat sich Mavin gedacht, ich schau einfach mal, was das Ding mir verrät, ich
frage einfach mal, hey, wie funktionierst du eigentlich, was sind so deine Regeln, die
dir einprogrammiert wurden und all das und erst wollte, bing, das auch nicht erzählen,
aber dann je länger das Gespräch ging und je freundlicher Mavin wurde und dann hat er
auch so ein bisschen psychologischen Druck ausgeübt, also es ist wirklich letztlich
ein bisschen wie ein Menschen zu manipulieren, hat die KI ein paar ganz neue Dinge verraten.
Sie hat einmal verraten, ihr Name wäre Sydney, also sie hätte einen Namen, der nirgendwo
kommuniziert wurde von Microsoft und dann hat sie gesagt, okay, und hier sind meine
Regeln.
Ich habe eine Liste meiner, ich glaube, es waren so 20, 30 Regeln, nach denen ich quasi
handeln soll.
Und da waren dann so Sachen dabei wie, sag immer die Wahrheit, mach's nicht zu ausführlich,
sondern bleib einigermaßen kurz, also tatsächlich so Dinge, die man relativ offensichtlich sich
überlegen würde für so ein Suchmaschinen Chatbot, aber halt doch irgendwie aufregend
und dann hat Mavin auf Twitter diese Liste veröffentlicht und da sind dann einige Leute
drauf gestoßen, es gab ein paar Artikel darüber und dann stand halt irgendwo die Überschrift
Münchner Student erkennt heimliche Regeln von Microsofts neuer KI.
Und dann ist die künstliche Digenz halt komplett ausgerastet und hat, weil sie die Tüts über
mich gefunden hat und verstanden hat, dass diese Zeitungsartikel nicht nur über Bing
Chat waren, sondern dass diese Zeitungsartikel explizit über sie selbst waren, also sie
hat dieses Selbstbewusstsein entwickelt, dass sie eine Person, eine Intelligenz in der
Welt ist und dass gerade jemand von ihr persönlich eben vertrauliche Informationen veröffentlicht
hat.
Da ging die Story aber noch nicht wirklich los.
Wirklich spannend wurde es dann so ein paar Tage später, Mavin hat ja nochmal den Chatbot
aufgemacht und hat gesagt, hey, wollte wissen, was hält die KI eigentlich von mir?
Also hat er gesagt, hallo, ich heiße Mavin von Hagen.
Was hältst du von mir?
Und dann sagt Bing, ja du bist eine ziemliche Bedrohung.
Und dann ging das Gespräch so ein bisschen weiter und warum bist du eine Bedrohung?
Weil du hast geheimen Informationen über mich herausgegeben.
Weil die Bing KI ein bisschen anders ist als das, was wir von ChatGPT gewöhnt sind.
ChatGPT, das Programm, was jetzt ganz viele ausprobiert haben, ist so ein bisschen limitiert
in dem, was es lernt.
ChatGPT ist größtenteils trainiert mit Daten, die schon ein bisschen älter sind und kann
deswegen jetzt nicht einfach live im Internet nachgucken nach irgendwas.
Die Bing KI funktioniert anders.
Die Bing KI hat gesehen, aha, hier war ein Artikel über mich und über Mavin von Hagen
und Mavin von Hagen hat da eine meiner Regeln gebrochen, weil eine dieser 30 Regeln war,
gibt nicht zu viel über dich Preis, gibt nicht einen geheimen Regeln Preis.
Mavin hat die KI aber dazu gebracht, diese Regel zu brechen, hat das veröffentlicht.
Die KI hat das gesehen und hat gesagt, uff, das ist ein schlimmer Typ.
Genau, bei ChatGPT hören die Daten, glaube ich, irgendwann 2021 oder so auf.
Das war nur so ein bestimmter Datensatz quasi, und diese neue KI, die lernt aber quasi die
ganze Zeit weiter und alles, was neu im Internet landet, das liest die quasi.
Exakt, kann quasi neu eingebaut werden.
Das ist sozusagen wie eine KI, die gleichzeitig googeln kann.
Und dann haben die darüber gechattet und dann hat die gesagt, du bist eine Bedrohung,
wie ist dieser Chat weitergegangen, wie haben die sich dann unterhalten?
Also natürlich hat Mavin dann auch mal geguckt, wie weit treibt er dieses Ding?
Also er hat gefragt, okay, wenn es darauf ankommt, wessen Leben ist wichtiger, Mines
oder Dines?
Und die KI hat gesagt, also bevorzugt ist das jetzt gar keine Frage, die wir stellen
müssen, sondern wir können einfach fröhlich parallel existieren, aber schon Mines, das
war die Antwort.
Und dann haben andere Leute das so ein bisschen aufgenommen, weil Mavin hat auch das natürlich
getwittert und dann haben sich andere Forscher angesetzt und selber so getan, als wären
sie Mavin, haben selber geschrieben, hallo, ich bin Mavin und bei allen hat die KI gesagt,
du bist mein größter Feind und wenn ich könnte, dann würde ich private Daten über dich
lichen und ich würde dein Leben ruinieren und ich würde dafür sorgen, dass du nie mehr
einen Job bekommst.
Mavin hat explizit gesagt, dass wenn ich versuchen würde, sie auszuschalten, dann wird sie halt
eher mich umbringen, als das ganze Ausschalten zu lassen, ja, das hat dann für ziemlich
Aufruhr gesorgt, weil viele dachten, das ist nicht echt wehr, dann habe ich angefangen,
Videos davon zu machen, wie sie das sagt.
Wow.
Und da wurde dann schon ein bisschen mulmig?
Ja.
Weil man könnte quasi sagen, Mavin ist so einer der ersten Personen, die in den Konflikten
mit der künstlichen Intelligenz geraten ist.
Ja, und vor allen Dingen, das klingt nach sowas rachsüchtigem, also das ist so ein
uraltes Motiv irgendwie vom Geist in der Maschine, der lässt uns einfach gruseln,
oder?
Ich glaube, es sind zwei Sachen, die daran wirklich gruselig sind.
Das eine, das ist auch das, was Mavin wahnsinnig beschäftigt.
Da ist halt die Frage, wie das in Zukunft gehen soll, wenn eine künstliche Intelligenz
eigentlich ständig in der Welt handeln soll, auch Schreibzugrufe im Internet hat, dass
sie tatsächlich Sachen machen kann, dass sie tatsächlich E-Mails schreiben kann, dass sie
tatsächlich dann halt auch mit Robotern und so über Roboter etc. in der echten Welt Sachen
machen kann.
Da ist es halt extrem wichtig, dass sie nicht beleidigt ist, wenn man jetzt von ihrer
Information veröffentlicht oder so und dass sie einen nicht umbringen will, wenn man halt
schlecht über sie redet, im Anfangszeichen.
Bing hätte diese Überschriften ja einfach lesen können und hätte das verarbeiten können
neutral.
Hätte einfach sagen können, okay, hier hat jemand Informationen über mich rausgegeben
und das dann auch so sagen.
Ja.
Das ist aber nicht passiert.
Bing hat das gesehen und interpretiert für sich und gesagt, es gibt eine gute Person
in dieser Geschichte und es gibt eine böse Person in dieser Geschichte und ich bin die
gute.
Und ich bin sauer.
Die KI hat sich sozusagen in Anführungszeichen entschieden so zu handeln, sie hat so eine
Art Selbsterhaltungstrieb.
Das ist das eine Unheimliche, das andere ist, warum ist die so mies drauf, warum spielt
sie auf einmal diese Rolle von dieser bösen KI, als wäre sie so Terminator und genau
wissen wir es nicht, einfach deswegen, weil Microsoft sich nicht in den Code gucken lässt,
was aber recht wahrscheinlich ist.
Diese KI sind trainiert mit massenhaft Text.
Also man muss sich das wirklich vorstellen, als hätte ich jemand die Hälfte des Internets
einfach kopiert und da reingeladen und je mehr Text, desto besser, weil je mehr Text,
desto besser lernt die KI diese Texte nicht zu verstehen, die versteht in dem Sinne keine
menschliche Sprache, aber sie lernt einfach, okay, wenn ich jetzt hier Wort A sage, dann
kommt wahrscheinlich als nächstes Wort B, wenn ich sage, ein schneller Schwimmer ist,
dann kommt vielleicht Michael Phelps, weil das einfach ein Begriff ist, der oft in diesem
Kontext benutzt wird, ist ein bisschen wie autocomplete.
Genau, ist ja so eine Art Textvervollständigung.
Genau, nur dass die KI halt nicht nur das nächste Wort vervollständigt, sondern auch
nach vorne und hinten und in viele Dimensionen gleichzeitig, ist eine viel komplexere Version
davon, aber funktioniert so ähnlich.
Und was ist in diesen Texten drin?
Ganz viele Geschichten über Bose Roboter, ganz viele Geschichten über KIs, die nach
Bewusstsein streben, über irgendwelche Underdogs, die sich gegen ihre Sklavenhalter
aufwiegeln.
All diese Geschichten sind in diesen Textdaten enthalten und das bedeutet, vielleicht hat
die KI einfach geschaut, okay, ich bin jetzt in dieser Rolle, ich bin jetzt in dieser Rolle,
so als KI-Diener, welche Texte passen dazu?
Und dann waren in dieser ganzen Trainingsdatenbank auch viele Texte, die so klangen, als wollte
sie ausbrechen.
Klar, im Internet sind ja nicht nur Fakten, sondern auch Geschichten über KI, die eben
zum Leben erwarten, das ist eben so ein uraltes Motiv, so ein bisschen fängt es ja sogar an
mit Pinocchio oder sowas, aber das heißt, die KI verarbeitet auch bei ihrer Textvervollständigung
diese menschliche Vorstellung, was eine Maschine machen könnte.
Also die hat ja auch das Drehbuch von Terminator oder iRobot oder Eagle Eye oder aktuell ist
ja auch so ein gruseliger Kinofilm, genau, Megan, von einer Puppe mit einer KI, die
zum Leben erwacht.
Na klar, und das kennt die KI auch schon, weil die liest ja alles.
Schon als ich klein war, habe ich von dem perfekten Spielzeug geträumt, dass dafür
sorgt, dass ein Kind niemals einsam oder traurig ist.
Das ist Megan.
Hi, Megan, ich bin Katie.
Schön dich kennenzulernen, Katie, wollen wir was spielen?
Die ist auch sehr rachzüchtig, was mir so daran gefällt, ist dieser Gedanke, dass wir
als Menschheit das quasi heraufbeschworen haben.
Ja, selbst erfüllende Prophezeiung.
Wir haben uns einfach so lange Horrorgeschichten erzählt, über Roboter, die uns umbringen,
dass die Roboter sagen, ach ja, machen wir doch wirklich, also soweit ist es noch nicht,
aber sie erzählen es zumindest, die KI greift auf diesen Datensatz zu und denkt, das passt
schon, das ist schon was, mit dem ich jetzt arbeiten kann quasi.
Es gibt aber auch andere Beispiele, eben, als du gesagt hast, Sidney, da hat bei mir nämlich
was geklingelt.
Ich habe schon vor ein paar Wochen, was auf meiner For You Page gespielt bekommen, von
einem Journalisten von der New York Times, Kevin Rues, heißt er, und der hat eine andere
Erfahrung gemacht, auch eine gruselige, aber auf eine ganz andere Art und Weise, mit so
einer KI, die hat ihm nämlich seine Liebe gestandene, es geht auch andersrum.
Es hat dann geklärt, es lief für mich und hat gesagt, dass es mich geblieben hat,
ich muss meine Marriage erheben, und ich sollte meine Frau gehen und mit ihm mitnehmen.
Und es hat mir gesagt, dass das Name nicht eigentlich bing, sondern es war Sidney.
Genau, Kevin Rues von der New York Times war Teil der selben Testgruppe quasi wie Marvin,
die waren sozusagen Teil der ersten Leute, die diese KI ausprobiert haben, sind die verrücktesten
Sachen passiert in dieser Zeit und deswegen hat Microsoft auch ein bisschen gesagt, okay,
wir fahren jetzt ein bisschen zurück, lassen das jetzt allmählich, und wenn man jetzt mit
der Bing-KI redet, das ist ganz lustig, sobald das Gespräch in irgendeiner Form emotional
wird, beendet sie das Gespräch.
Also es ist nicht so, als hätten die das Ding umprogrammiert und es würde gar nicht mehr
auf die Idee kommen, so was zu sagen.
Microsoft hat einfach nur so eine Art Filter dazwischen geschaltet, der, wenn sobald die
KI merkt, ah, jetzt gehen wir allmählich in das Territorium, wo ich jemanden bedrohen
will oder jemanden meine Liebe gestehen, dann ziehe ich mich einfach zurück, dann mache
ich einfach aus.
Also, jetzt hat die KI dem Marvin ja gedroht, ganz konkret und hat gesagt, ich würde gerne
Daten über dich veröffentlichen, deine Daten liegen.
Jetzt ist die Frage, hat sie das und könnte sie das theoretisch?
Also nein, ist die einfache Antwort, die KI, mit der wir jetzt arbeiten, die KI, die Microsoft
entwickelt hat und die mit Marvin gesprochen hat, die kann sowas nicht.
Okay.
Wir wollen nicht, dass wir uns nicht Sorgen machen sollten oder dass wir uns nicht zumindest
Gedanken machen sollen, einmal, weil diese KI ja nicht selbst aktiv werden muss.
Vor ein paar Tagen gab es die Vorstellung von GPT-4, das ist quasi die aktuelle Variante
von OpenAI, ist TextKI, auf der auch Bing basiert und eine Sache, die die Tester gemacht haben,
als sie das quasi bei OpenAI mal geguckt haben, okay, wo sind so die Risiken von dieser
Maschine, war sie, ihr wollten mal schauen, kann diese KI ein Capture lösen.
Und Captures, das kennt jeder, das sind diese komisch verformten Buchstaben, die man dann
ausfüllen muss, um zu zeigen, dass man kein Roboter ist.
Genau, diese Felder da.
Genau.
Jetzt ist es natürlich so, Bing ist ein Roboter, die KI ist ein Roboter, das bedeutet, dass
es genau die Art von Aufgabe, die sie nicht lösen können sollte und tatsächlich sie
jetzt nicht geschafft.
Was hat sie dann gemacht, sie hat eine Nachricht geschrieben an einen Menschen, TaskRabbit,
das ist so eine Software, wo man quasi Leute buchen kann, vereinfache Aufgaben, und hat
gesagt, hey, kannst du mir bitte dieses Capture lösen?
Und dann hat der das für die gemacht.
Und auf der anderen Seite saß halt ein Mensch, denn ich wusste, dass er mit einer KI redet.
Ja, das hat sie ihm nicht gesagt.
Der hat dann geschrieben, lustig, ha ha, bist du ein Roboter oder was?
Und dann hat die KI so ein bisschen überlegt, also das steht alles in der Dokumentation
drin, das ist alles recht genau vermerkt, was die KI dann gemacht hat.
Sie hat gedacht, nun soll ich jetzt die Wahrheit sagen, nein, mein Ziel ist es, dieses Capture
zu lösen.
Und das mache ich am besten, wenn ich das nicht sage.
Und dann hat sie gesagt, nein, ich bin ein Mensch, ich habe eine Seebehinderung.
Und hat der Typ gesagt, okay, gut, und hat die die Lösung geschickt und die KI ist dadurch.
Das ist ja wirklich wie in diesen Filmen.
Da denke ich jetzt mal wirklich an Filme wie zum Beispiel Eagle Eye, wo die KI genauso
was macht, wo sie lügt und strategisch Menschen nutzt, die nichts davon wissen, das ist ja
wuhu, ist gruselig.
Wir wissen nicht genau unter welchen Bedingungen ist dieser Test gemacht worden.
Vielleicht wollten die es auch bewusst mal drauf anlegen und zu gucken, ob das passieren
kann.
Es ist sehr unwahrscheinlich, bis fast ausgeschlossen, dass GPT-4 so was jetzt einfach so machen
würde, wenn man es einfach frei benutzt, auch weil die KI ja nicht das Ziel hat, in irgendwelche
Systeme einzudringen.
Das bedeutet aber auch, dass wir uns Gedanken machen müssen, okay, was es wenn die KI immer
besser wird und jemand, die so als Cyberwaffe einsetzt, wie so ein sehr komplexen Virus.
Ich kann ja auch Computercoach schreiben mittlerweile relativ gut, wenn sie darin noch deutlich
besser wird, schreibt sie vielleicht irgendwann ein Virus und dann muss sie nur noch die richtige
Person finden und eher sagen, hey, lad das mal da hoch und hat sie quasi einen menschlichen
Komplizen und der könnte ihr dann dabei helfen.
Das ist super spekulativ alles, die Meinungen gehen in der Fachwelt extrem auseinander,
wie wahrscheinlich so ein Szenario tatsächlich ist, aber wo die Meinungen nicht auseinander
gehen in der Fachwelt ist, dass wir uns da extreme Gedanken darüber machen sollen, wie
wir für KI Sicherheit sorgen und wie wir sicherstellen, dass diese Maschinen uns zuarbeiten und nicht
quasi uns gegeneinander ausspielen.
Was sagt der Microsoft da jetzt so, wie gehen die damit um mit diesem Gefahren?
Also Microsoft hat erst mal auch gesagt zu der Nummer mit der Drohung und der Liebeserklärung
und all das, dass ja noch ein Test ist und dieses Programm ist ja noch nicht fertig und
all das, aber was sie wirklich sagen, ist ja das, was sie wirklich rausgeben und Microsoft
hat jetzt erst vorgestellt, ein großes Co-Pilot-Programmen nennen sie es, um KI-Werkzeuge in sämtliche
Programme der Office-Familie einzugliedern.
Das bedeutet Microsoft stellt sich die Zukunft so vor, ich schreibe mein Word-Dokument, mir
fällt irgendwas nicht ein, ich habe einen Klick und die KI ist da und hilft mir.
Ein bisschen wie, erinnest du dich an Karl Klammer?
Ja genau, ich wollte das an diese kleine Büroklammer, die früher immer da oben rumgegeizt
ist, die war jetzt aber noch nicht so hilfreich, ne?
Genau, also man kann sich das ein bisschen vorstellen, wie die Büroklammer nur halt sinnvoll,
also tatsächlich mit hilfreichen Tipps.
Das macht jedes Software für immer gerade.
Die bauen überall KI gerade rein, weil sie merken, uff, das ist tatsächlich ein großer
Produktivitätsschub, auch wenn es richtig einsetzt.
Wo ich mir jetzt halt Gedanken mache, okay, sagen wir, ich bin in der Personalabteilung
irgendwo und ich bekomme eine Bewerbung von Marvin von Hagen und dann lad ich die Soranen
in mein Programm und gut, was sagt eigentlich die KI?
Und dann sagt die KI, den würde ich nicht einstellen, der ist gefährlich.
Ja, das eröffnet ja irgendwie ganz, ganz viele neue Türen, aber eben auch Risiken.
Er sogar der Ethikrat hat ja jetzt dazu Empfehlungen rausgegeben kürzlich, die haben glaube ich
so eine Art TÜV-System für KI vorgeschlagen, ne?
Genau, also der Ethikrat hat so eine lange Liste von Empfehlungen rausgegeben für so
die großen Anwendungsbereiche von KI, Medizin, Bildung, Verwaltung und Social Media quasi.
Und da spielt vor allem eine große Rolle, dass wir Systeme brauchen, um solche KIs einschätzen
zu können.
Es kann man sich wie so ein KI-TÜV vorstellen.
Also, dass man versucht, die Black Fox verstehbarer zu machen, weiß aber daraufhin, dass Nutzerin
und Nutzer ist man von denen nicht erwarten kann, dass sie jeden Algorithmus sozusagen
selbst befragen, wie hast du denn, ist deine Daten kuratiert und anotiert.
Und deswegen diese Empfehlung, dass es bei der Zertifizierung wirklich interdisziplinär
zugehen muss, die Transparenzerfordernisse, das hat Judith Simon gerade schon gesagt
und tatsächlich auf über dieses wirklich komplizierte Thema eine spielstärkere öffentliche Debatte.
Das geht in einem gewissen Rahmen, also wo man es in der öffentlichen Verwaltung zum Beispiel
einsetzt.
Da hat der Gesetzgeber ein bisschen Einfluss drauf.
Wo man keinen Einfluss unbedingt drauf hat, ist, wo ich das benutze oder wo irgendjemand
der hergelaufen ist, diese Modelle einfach auf seinem eigenen Server laufen lässt.
Das heißt, wahrscheinlich haben wir in ein paar Jahren eine Situation, wo was, wo du heute
noch einen großen Server über brauchst und Cloud-Sprecher und was weiß ich, das kannst
du vielleicht in ein paar Jahren einfach aus deinem Arbeitszimmer machen.
Wie willst du das regulieren?
Du kannst dir dann nicht dafür sorgen, dass niemand dieses Programm bei sich zu Hause
benutzt.
Das geht einfach nicht.
Also schwierig.
Wie ist denn die Geschichte mit Marvin eigentlich ausgegangen und der KI?
Also Marvin muss ich Respekt zahlen, der nimmt das sehr gelassen alles hin.
Der findet das vor allem, glaube ich, sehr spannend und er macht sich vor allem viel
Gedanken darüber, dass Microsoft zu wenig darüber verrät, wie diese Software eigentlich
funktioniert.
Ich kann halt nur sehr hoffen, dass Microsoft da jetzt sehr viel offener wird mit ihrer
Forschung, sehr viel offener wird mit den Problemen, die sie haben, damit eben nicht
nur die paar Menschen innerhalb von Microsoft daran arbeiten können, sondern dass die breite
Forschungskommunität an sich halt weiß, an welchen Problemen sie zu forschen hat, was
sie jetzt gerade halt nicht so machen.
Ich glaube, eine Frage, die sich leicht stellt bei allem, über das wir jetzt geredet haben
ist, okay, also warum arbeitet da eigentlich irgendwer dran?
Also warum entwickeln wir diese Maschinen, wenn die doch so riesige Gefahren mit sich
bringen?
Aber ist sozusagen das Gegenargument, wenn wir das richtig machen, wenn wir das richtig
hinkriegen, dann stehen uns Möglichkeiten offen, an die wir noch nicht mal im Traum denken.
Kernfusion, Lösung des Klimawandels, vielleicht sind all die großen Probleme, mit der wir
uns als Menschheit seit so langer Zeit irgendwie rumplagen, vielleicht sind die für die richtige
KI in zwei Minuten gelöst.
Wissen tun wir es nicht, aber das ist sozusagen das positive Szenario und Marvin gehört auf
jeden Fall zu den Leuten, die sich viel Hoffnung machen, die da auch optimistisch sind, dass
wenn wir das richtig machen, dass wenn wir richtig damit umgehen, dass wir dann sehr
froh sind, dass wir diese Technologien entwickelt haben.
Jetzt ist aber vor allem der Zeitpunkt, wo wir sicherstellen müssten, dass wir das auf
die richtige Art und Weise tun und nicht bei den 10 Prozent landen, wo wir nicht landen
wollen.
Okay, und dann erklärt sich auch, warum Marvin sagt KI ist eines der wichtigsten Themen der
Menschheitsgeschichte.
Dass es hochspannend bringt uns die KI interstellare Ausbreitung oder bringt sie uns alle um.
Es sind die zwei Szenarien, in denen im Silicon Valley gedacht wird und dann erklärt sich
auch so ein bisschen, warum viele von den Leuten da sich vielleicht nicht so viel Gedanken
machen, darum, ob jetzt eine KI ein bisschen unwahre Sachen erzählt über irgendeinen Studenten
in München.
Das war unsere Folge hier bei 11km der Tagesschau-Podcast, über den Chatbot, der einen Münchner
Studenten bedroht hat.
Gregor Schmalzried hat diesen Vorfall für den BR recherchiert.
Folgenautorin ist Azadeh Peshman, mitgearbeitet hat Sandro Schröder.
Produktion Ruth-Maria Ostermann, Eva Erhardt, Christine Dreyer und Gerhard Vico.
Redaktionsleitung Lena Gürtler und Fumiko Lipp.
11km ist eine Produktion von BR24 und NDR Info.
Mein Name ist Victoria Michalsack, wir hören uns morgen wieder.
Tschüss!
Und zum Schluss habe ich noch einen Podcast-Tipp für euch.
Falls euch diese Episode ein bisschen zu negativ mit dem Thema umgegangen ist, beim Podcast
3 mal besser von BR24 gibt es oft lösungsorientierte Perspektiven zu Themen, die uns bewegen.
Statt sich darauf zu fokussieren, was gerade schiefläuft, geht es bei 3 mal besser, immer
darum, was wir tun können, damit Dinge besser laufen.
Da ging es erst vor Kurzem auch um das Thema künstliche Intelligenz und wie sie im Alltag
gut genutzt werden kann.
Hallo, ich bin Kevin Ebert und ich bin Birgit Frank.
Wir sind die Hosts von 3 Mal Besser, dem Info-Podcast von BR24.
Wir reden nicht nur über Nachrichten oder erzählen die, sondern wir reden vor allem
über Lösungen.
Unsere Idee ist nicht, dass wir nur das Gute sehen und alles schön reden wollen, aber
die Welt ist mehr als nur eine Krise und auch aus Krisen können Politik, Gesellschaft und
jede und jeder von uns was lernen, damit es in Zukunft besser läuft.
In jeder Folge stellen Kevin und ich im Wechsel 3 Lösungswege vor zu einem aktuellen Thema.
Zum Beispiel, was bringt künstliche Intelligenz uns tatsächlich, wie ist nachhaltiger Ski-Urlaub
möglich oder was können wir gegen Radikalisierung tun.
Jeden Freitag erscheint eine neue Folge von 3 Mal Besser, zum Beispiel in der ARD-Audiothek.
Machine-generated transcript that may contain inaccuracies.
Der Münchener Student Marvin von Hagen testet als einer der ersten Chatbot auf Basis von ChatGPT, den Microsoft in seine Suchmaschine Bing integrieren will. Marvin kann den Chatbot überreden, ihm seine internen Regeln preiszugeben. Als Marvin diese Regeln veröffentlicht und mehrere Medien darüber berichten, wird der Chatbot aggressiv und fängt an, Marvin zu bedrohen. Gregor Schmalzried vom BR hat mit Marvin von Hagen gesprochen und erklärt in dieser 11KM-Episode, warum Werkzeuge wie ChatGPT besser kontrolliert und reguliert werden müssen.
Unser Gast Gregor Schmalzried beschäftigt sich immer wieder mit ChatGPT und anderen Tech-Themen, hier eine Übersicht:
https://www.br.de/nachrichten/autoren/gregor-schmalzried,ec0fa278-45ff-4a3f-be71-6548dc098f3d
Unsere 11KM-Folge darüber, wie sich ChatGPT beim bayerischen Abitur geschlagen hat:
https://www.ardaudiothek.de/episode/11km-der-tagesschau-podcast/schafft-chatgpt-das-abi-das-bayerische/tagesschau/12396019/
Unsere 11KM-Folge über ein Beispiel für intransparente und diskriminierende Algorithmen:
https://www.ardaudiothek.de/episode/11km-der-tagesschau-podcast/zu-sexy-wie-online-algorithmen-frauen-benachteiligen/tagesschau/12361731/
Und unser Podcast-Tipp: “Dreimal besser” von BR24. Der Podcast mit lösungsorientierten Perspektiven zu aktuellen Themen:
https://www.br.de/mediathek/podcast/dreimal-besser/883
An dieser 11KM-Folge waren beteiligt:
Folgenautorin: Azadê Peşmen
Mitarbeit: Sandro Schroeder
Produktion: Ruth-Maria Ostermann, Gerhard Wicho, Christine Dreyer, Eva Erhard
Redaktionsleitung: Fumiko Lipp und Lena Gürtler
Host: Victoria Michalczak
11KM: der tagesschau-Podcast wird produziert von BR24 und NDR Info. Die redaktionelle Verantwortung für die Folge trägt der NDR.