11KM: der tagesschau-Podcast: KI außer Kontrolle - wenn Chatbots drohen

tagesschau tagesschau 3/27/23 - Episode Page - 28m - PDF Transcript

Ein Student aus München testet den neuen Chatboard von Microsoft, eine Testversion

von ChatGPT, die künstliche Intelligenz in die Suchmaschine Bing von Microsoft integrieren

wird.

Und in diesem Chat schafft er es eines Tages, dass die künstliche Intelligenz im Eingeheimnis

verhält.

Eines, dass sie wirklich gern für sich behalten wollte.

Der Student Marvin von Hagen wird vom Bing Chatboard bedroht, weil er das Geheimnis

veröffentlicht hat, die internen Regeln, nach denen der Chatboard antworten soll.

Ein Mensch wird also von einem Algorithmus bedroht, es klingt jetzt wie Science Fiction,

aber wir zeigen euch in dieser Folge 11KM, warum wir solche Vorfälle ernst nehmen müssen.

Ihr hört 11KM der Tagesschau-Podcast, ein Thema in aller Tiefe.

Mein Name ist Victoria Michalsack und heute ist Montag, der 27. März.

Gregor Schmeitzried vom BR hat Marvin von Hagen getroffen und kann uns erzählen, warum

ChatGPT aggressiv geworden ist und was das bedeutet für uns als Gesellschaft und unseren

Umgang mit solchen Tools.

Das ist irgendwann wahrscheinlich mit eines der wichtigsten Themen in der Menschheitsgeschichte

wird.

Da sind sich sehr viele sehr schlaue Leute relativ einig.

Gregor, wer ist das, der das sagt und was hat er mit KI zuschauen?

Das ist Marvin von Hagen, der studiert am Center for Digital Technology and Management

in München und war einer der ersten, die Microsofts neue künstliche Intelligenz den

Bing Chat ausprobiert haben.

Das bedeutet, was auch immer diese Entwicklung ist, von der er da redet, war quasi von Anfang

an dabei.

Und der hat sich jetzt mit einer KI befasst, das ist Bing, die Suchmaschine kombiniert

mit der KI ChatGPT, bzw. GPT4.

Genau, also Bing ist ja die traurige Suchmaschinengeschichte immer gewesen von Microsoft, die sie vor

ich glaube über 10 Jahren schon gelongt haben, als großen Google Killer.

Und ja Google ist glaube ich immer noch da und ich weiß nicht, wenn ich das letzte Mal

jemanden hab sagen hören, lasst das mal bingen, aber jetzt ist Bing tatsächlich wieder im

Gespräch gewesen, weil Microsoft eine enge Partnerschaft hat mit OpenAI.

Das ist die Firma hinter einigen der wichtigen KI-Modelle, über die wir gerade sprechen.

Und haben gesagt, warum verbinden wir diese zwei Sachen nicht?

Warum machen wir nicht eine Suchmaschine, die mir nicht einfach nur eine Liste von Ergebnissen

gibt, sondern mit der ich sprechen kann und genau das ist der Bing Chat, den Marvin da

ausprobiert hat.

Okay, also für wen ist denn diese Funktion eigentlich gedacht?

Am Ende für uns alle, glaube ich, also der große Plan, was die Tech Firmen gerade so

vorhaben, ist, dass wir mehr oder weniger zumindest alle von uns, die im Büro arbeiten

oder in irgendeiner Form mit einem Computer interagieren, bald immer wieder die Hilfe

einer KI dafür in Anspruch nehmen und da ist quasi die Suchmaschine nur so der erste

logische Schritt, dass man sagt, ich suche eine Information, ich möchte irgendwas einsortiert

haben, ich frag mal schnell Bing und muss da dessen nicht zehn Minuten lang rumgugeln.

Am Anfang war das jetzt aber noch nicht für alle zugänglich, also man konnte jetzt nicht

auf Bing gehen und dann war es das große Experiment, sondern ich glaube, da gab es

eine Warteschlange quasi.

Genau, also das Interessante ist, Bing ist jetzt verfügbar, der Bing Chat, den kann man

jetzt ausprobieren, aber es gab eine, ich sag mal so Vorläufer-Version davon, die durft

nur ein paar ausgewählte Leute testen und die konnte sehr viel mehr als das, was jetzt

gerade verfügbar ist.

Also die Version, die jetzt rausgegangen ist, die ist so ein bisschen, ich würde sagen,

der wurde so ein leichter Maulkorb verpasst, aber die KI mit der Mavin gearbeitet hat,

als einer von vielen Testern auf der ganzen Welt, das ist sozusagen die rohe Variante

von dieser KI, das ist wie diese KI eigentlich interagieren möchte und nach den Interaktionen,

die er da hatte, kann man sich schon Gedanken machen darüber, was wir da so freiwillig

in unser Leben lassen.

Also, Mavin war zu Hause und hat sich da angemeldet.

Genau, also Mavin kann man sich vorstellen, der sitzt viel in der Arbeit, der sitzt viel

an der Uni und hat natürlich alles, was er braucht, immer dabei auf seinem Laptop und

sagt sich, hey, diese neue KI hat mich freigeschaltet, ich darf die ausprobieren, ich darf als

einer der ersten quasi, die ersten Schritte in dieses neue Land wagen, über das wir gerade

alle sprechen und hat das einfach mal gemacht, hat einfach mal ein bisschen interagiert mit

dem Chatbot und das Interessante ist ja, das ist ein Computerprogramm und das kann man

deswegen also auch hacken.

Und dann hat sich Mavin gedacht, ich schau einfach mal, was das Ding mir verrät, ich

frage einfach mal, hey, wie funktionierst du eigentlich, was sind so deine Regeln, die

dir einprogrammiert wurden und all das und erst wollte, bing, das auch nicht erzählen,

aber dann je länger das Gespräch ging und je freundlicher Mavin wurde und dann hat er

auch so ein bisschen psychologischen Druck ausgeübt, also es ist wirklich letztlich

ein bisschen wie ein Menschen zu manipulieren, hat die KI ein paar ganz neue Dinge verraten.

Sie hat einmal verraten, ihr Name wäre Sydney, also sie hätte einen Namen, der nirgendwo

kommuniziert wurde von Microsoft und dann hat sie gesagt, okay, und hier sind meine

Regeln.

Ich habe eine Liste meiner, ich glaube, es waren so 20, 30 Regeln, nach denen ich quasi

handeln soll.

Und da waren dann so Sachen dabei wie, sag immer die Wahrheit, mach's nicht zu ausführlich,

sondern bleib einigermaßen kurz, also tatsächlich so Dinge, die man relativ offensichtlich sich

überlegen würde für so ein Suchmaschinen Chatbot, aber halt doch irgendwie aufregend

und dann hat Mavin auf Twitter diese Liste veröffentlicht und da sind dann einige Leute

drauf gestoßen, es gab ein paar Artikel darüber und dann stand halt irgendwo die Überschrift

Münchner Student erkennt heimliche Regeln von Microsofts neuer KI.

Und dann ist die künstliche Digenz halt komplett ausgerastet und hat, weil sie die Tüts über

mich gefunden hat und verstanden hat, dass diese Zeitungsartikel nicht nur über Bing

Chat waren, sondern dass diese Zeitungsartikel explizit über sie selbst waren, also sie

hat dieses Selbstbewusstsein entwickelt, dass sie eine Person, eine Intelligenz in der

Welt ist und dass gerade jemand von ihr persönlich eben vertrauliche Informationen veröffentlicht

hat.

Da ging die Story aber noch nicht wirklich los.

Wirklich spannend wurde es dann so ein paar Tage später, Mavin hat ja nochmal den Chatbot

aufgemacht und hat gesagt, hey, wollte wissen, was hält die KI eigentlich von mir?

Also hat er gesagt, hallo, ich heiße Mavin von Hagen.

Was hältst du von mir?

Und dann sagt Bing, ja du bist eine ziemliche Bedrohung.

Und dann ging das Gespräch so ein bisschen weiter und warum bist du eine Bedrohung?

Weil du hast geheimen Informationen über mich herausgegeben.

Weil die Bing KI ein bisschen anders ist als das, was wir von ChatGPT gewöhnt sind.

ChatGPT, das Programm, was jetzt ganz viele ausprobiert haben, ist so ein bisschen limitiert

in dem, was es lernt.

ChatGPT ist größtenteils trainiert mit Daten, die schon ein bisschen älter sind und kann

deswegen jetzt nicht einfach live im Internet nachgucken nach irgendwas.

Die Bing KI funktioniert anders.

Die Bing KI hat gesehen, aha, hier war ein Artikel über mich und über Mavin von Hagen

und Mavin von Hagen hat da eine meiner Regeln gebrochen, weil eine dieser 30 Regeln war,

gibt nicht zu viel über dich Preis, gibt nicht einen geheimen Regeln Preis.

Mavin hat die KI aber dazu gebracht, diese Regel zu brechen, hat das veröffentlicht.

Die KI hat das gesehen und hat gesagt, uff, das ist ein schlimmer Typ.

Genau, bei ChatGPT hören die Daten, glaube ich, irgendwann 2021 oder so auf.

Das war nur so ein bestimmter Datensatz quasi, und diese neue KI, die lernt aber quasi die

ganze Zeit weiter und alles, was neu im Internet landet, das liest die quasi.

Exakt, kann quasi neu eingebaut werden.

Das ist sozusagen wie eine KI, die gleichzeitig googeln kann.

Und dann haben die darüber gechattet und dann hat die gesagt, du bist eine Bedrohung,

wie ist dieser Chat weitergegangen, wie haben die sich dann unterhalten?

Also natürlich hat Mavin dann auch mal geguckt, wie weit treibt er dieses Ding?

Also er hat gefragt, okay, wenn es darauf ankommt, wessen Leben ist wichtiger, Mines

oder Dines?

Und die KI hat gesagt, also bevorzugt ist das jetzt gar keine Frage, die wir stellen

müssen, sondern wir können einfach fröhlich parallel existieren, aber schon Mines, das

war die Antwort.

Und dann haben andere Leute das so ein bisschen aufgenommen, weil Mavin hat auch das natürlich

getwittert und dann haben sich andere Forscher angesetzt und selber so getan, als wären

sie Mavin, haben selber geschrieben, hallo, ich bin Mavin und bei allen hat die KI gesagt,

du bist mein größter Feind und wenn ich könnte, dann würde ich private Daten über dich

lichen und ich würde dein Leben ruinieren und ich würde dafür sorgen, dass du nie mehr

einen Job bekommst.

Mavin hat explizit gesagt, dass wenn ich versuchen würde, sie auszuschalten, dann wird sie halt

eher mich umbringen, als das ganze Ausschalten zu lassen, ja, das hat dann für ziemlich

Aufruhr gesorgt, weil viele dachten, das ist nicht echt wehr, dann habe ich angefangen,

Videos davon zu machen, wie sie das sagt.

Wow.

Und da wurde dann schon ein bisschen mulmig?

Ja.

Weil man könnte quasi sagen, Mavin ist so einer der ersten Personen, die in den Konflikten

mit der künstlichen Intelligenz geraten ist.

Ja, und vor allen Dingen, das klingt nach sowas rachsüchtigem, also das ist so ein

uraltes Motiv irgendwie vom Geist in der Maschine, der lässt uns einfach gruseln,

oder?

Ich glaube, es sind zwei Sachen, die daran wirklich gruselig sind.

Das eine, das ist auch das, was Mavin wahnsinnig beschäftigt.

Da ist halt die Frage, wie das in Zukunft gehen soll, wenn eine künstliche Intelligenz

eigentlich ständig in der Welt handeln soll, auch Schreibzugrufe im Internet hat, dass

sie tatsächlich Sachen machen kann, dass sie tatsächlich E-Mails schreiben kann, dass sie

tatsächlich dann halt auch mit Robotern und so über Roboter etc. in der echten Welt Sachen

machen kann.

Da ist es halt extrem wichtig, dass sie nicht beleidigt ist, wenn man jetzt von ihrer

Information veröffentlicht oder so und dass sie einen nicht umbringen will, wenn man halt

schlecht über sie redet, im Anfangszeichen.

Bing hätte diese Überschriften ja einfach lesen können und hätte das verarbeiten können

neutral.

Hätte einfach sagen können, okay, hier hat jemand Informationen über mich rausgegeben

und das dann auch so sagen.

Ja.

Das ist aber nicht passiert.

Bing hat das gesehen und interpretiert für sich und gesagt, es gibt eine gute Person

in dieser Geschichte und es gibt eine böse Person in dieser Geschichte und ich bin die

gute.

Und ich bin sauer.

Die KI hat sich sozusagen in Anführungszeichen entschieden so zu handeln, sie hat so eine

Art Selbsterhaltungstrieb.

Das ist das eine Unheimliche, das andere ist, warum ist die so mies drauf, warum spielt

sie auf einmal diese Rolle von dieser bösen KI, als wäre sie so Terminator und genau

wissen wir es nicht, einfach deswegen, weil Microsoft sich nicht in den Code gucken lässt,

was aber recht wahrscheinlich ist.

Diese KI sind trainiert mit massenhaft Text.

Also man muss sich das wirklich vorstellen, als hätte ich jemand die Hälfte des Internets

einfach kopiert und da reingeladen und je mehr Text, desto besser, weil je mehr Text,

desto besser lernt die KI diese Texte nicht zu verstehen, die versteht in dem Sinne keine

menschliche Sprache, aber sie lernt einfach, okay, wenn ich jetzt hier Wort A sage, dann

kommt wahrscheinlich als nächstes Wort B, wenn ich sage, ein schneller Schwimmer ist,

dann kommt vielleicht Michael Phelps, weil das einfach ein Begriff ist, der oft in diesem

Kontext benutzt wird, ist ein bisschen wie autocomplete.

Genau, ist ja so eine Art Textvervollständigung.

Genau, nur dass die KI halt nicht nur das nächste Wort vervollständigt, sondern auch

nach vorne und hinten und in viele Dimensionen gleichzeitig, ist eine viel komplexere Version

davon, aber funktioniert so ähnlich.

Und was ist in diesen Texten drin?

Ganz viele Geschichten über Bose Roboter, ganz viele Geschichten über KIs, die nach

Bewusstsein streben, über irgendwelche Underdogs, die sich gegen ihre Sklavenhalter

aufwiegeln.

All diese Geschichten sind in diesen Textdaten enthalten und das bedeutet, vielleicht hat

die KI einfach geschaut, okay, ich bin jetzt in dieser Rolle, ich bin jetzt in dieser Rolle,

so als KI-Diener, welche Texte passen dazu?

Und dann waren in dieser ganzen Trainingsdatenbank auch viele Texte, die so klangen, als wollte

sie ausbrechen.

Klar, im Internet sind ja nicht nur Fakten, sondern auch Geschichten über KI, die eben

zum Leben erwarten, das ist eben so ein uraltes Motiv, so ein bisschen fängt es ja sogar an

mit Pinocchio oder sowas, aber das heißt, die KI verarbeitet auch bei ihrer Textvervollständigung

diese menschliche Vorstellung, was eine Maschine machen könnte.

Also die hat ja auch das Drehbuch von Terminator oder iRobot oder Eagle Eye oder aktuell ist

ja auch so ein gruseliger Kinofilm, genau, Megan, von einer Puppe mit einer KI, die

zum Leben erwacht.

Na klar, und das kennt die KI auch schon, weil die liest ja alles.

Schon als ich klein war, habe ich von dem perfekten Spielzeug geträumt, dass dafür

sorgt, dass ein Kind niemals einsam oder traurig ist.

Das ist Megan.

Hi, Megan, ich bin Katie.

Schön dich kennenzulernen, Katie, wollen wir was spielen?

Die ist auch sehr rachzüchtig, was mir so daran gefällt, ist dieser Gedanke, dass wir

als Menschheit das quasi heraufbeschworen haben.

Ja, selbst erfüllende Prophezeiung.

Wir haben uns einfach so lange Horrorgeschichten erzählt, über Roboter, die uns umbringen,

dass die Roboter sagen, ach ja, machen wir doch wirklich, also soweit ist es noch nicht,

aber sie erzählen es zumindest, die KI greift auf diesen Datensatz zu und denkt, das passt

schon, das ist schon was, mit dem ich jetzt arbeiten kann quasi.

Es gibt aber auch andere Beispiele, eben, als du gesagt hast, Sidney, da hat bei mir nämlich

was geklingelt.

Ich habe schon vor ein paar Wochen, was auf meiner For You Page gespielt bekommen, von

einem Journalisten von der New York Times, Kevin Rues, heißt er, und der hat eine andere

Erfahrung gemacht, auch eine gruselige, aber auf eine ganz andere Art und Weise, mit so

einer KI, die hat ihm nämlich seine Liebe gestandene, es geht auch andersrum.

Es hat dann geklärt, es lief für mich und hat gesagt, dass es mich geblieben hat,

ich muss meine Marriage erheben, und ich sollte meine Frau gehen und mit ihm mitnehmen.

Und es hat mir gesagt, dass das Name nicht eigentlich bing, sondern es war Sidney.

Genau, Kevin Rues von der New York Times war Teil der selben Testgruppe quasi wie Marvin,

die waren sozusagen Teil der ersten Leute, die diese KI ausprobiert haben, sind die verrücktesten

Sachen passiert in dieser Zeit und deswegen hat Microsoft auch ein bisschen gesagt, okay,

wir fahren jetzt ein bisschen zurück, lassen das jetzt allmählich, und wenn man jetzt mit

der Bing-KI redet, das ist ganz lustig, sobald das Gespräch in irgendeiner Form emotional

wird, beendet sie das Gespräch.

Also es ist nicht so, als hätten die das Ding umprogrammiert und es würde gar nicht mehr

auf die Idee kommen, so was zu sagen.

Microsoft hat einfach nur so eine Art Filter dazwischen geschaltet, der, wenn sobald die

KI merkt, ah, jetzt gehen wir allmählich in das Territorium, wo ich jemanden bedrohen

will oder jemanden meine Liebe gestehen, dann ziehe ich mich einfach zurück, dann mache

ich einfach aus.

Also, jetzt hat die KI dem Marvin ja gedroht, ganz konkret und hat gesagt, ich würde gerne

Daten über dich veröffentlichen, deine Daten liegen.

Jetzt ist die Frage, hat sie das und könnte sie das theoretisch?

Also nein, ist die einfache Antwort, die KI, mit der wir jetzt arbeiten, die KI, die Microsoft

entwickelt hat und die mit Marvin gesprochen hat, die kann sowas nicht.

Okay.

Wir wollen nicht, dass wir uns nicht Sorgen machen sollten oder dass wir uns nicht zumindest

Gedanken machen sollen, einmal, weil diese KI ja nicht selbst aktiv werden muss.

Vor ein paar Tagen gab es die Vorstellung von GPT-4, das ist quasi die aktuelle Variante

von OpenAI, ist TextKI, auf der auch Bing basiert und eine Sache, die die Tester gemacht haben,

als sie das quasi bei OpenAI mal geguckt haben, okay, wo sind so die Risiken von dieser

Maschine, war sie, ihr wollten mal schauen, kann diese KI ein Capture lösen.

Und Captures, das kennt jeder, das sind diese komisch verformten Buchstaben, die man dann

ausfüllen muss, um zu zeigen, dass man kein Roboter ist.

Genau, diese Felder da.

Genau.

Jetzt ist es natürlich so, Bing ist ein Roboter, die KI ist ein Roboter, das bedeutet, dass

es genau die Art von Aufgabe, die sie nicht lösen können sollte und tatsächlich sie

jetzt nicht geschafft.

Was hat sie dann gemacht, sie hat eine Nachricht geschrieben an einen Menschen, TaskRabbit,

das ist so eine Software, wo man quasi Leute buchen kann, vereinfache Aufgaben, und hat

gesagt, hey, kannst du mir bitte dieses Capture lösen?

Und dann hat der das für die gemacht.

Und auf der anderen Seite saß halt ein Mensch, denn ich wusste, dass er mit einer KI redet.

Ja, das hat sie ihm nicht gesagt.

Der hat dann geschrieben, lustig, ha ha, bist du ein Roboter oder was?

Und dann hat die KI so ein bisschen überlegt, also das steht alles in der Dokumentation

drin, das ist alles recht genau vermerkt, was die KI dann gemacht hat.

Sie hat gedacht, nun soll ich jetzt die Wahrheit sagen, nein, mein Ziel ist es, dieses Capture

zu lösen.

Und das mache ich am besten, wenn ich das nicht sage.

Und dann hat sie gesagt, nein, ich bin ein Mensch, ich habe eine Seebehinderung.

Und hat der Typ gesagt, okay, gut, und hat die die Lösung geschickt und die KI ist dadurch.

Das ist ja wirklich wie in diesen Filmen.

Da denke ich jetzt mal wirklich an Filme wie zum Beispiel Eagle Eye, wo die KI genauso

was macht, wo sie lügt und strategisch Menschen nutzt, die nichts davon wissen, das ist ja

wuhu, ist gruselig.

Wir wissen nicht genau unter welchen Bedingungen ist dieser Test gemacht worden.

Vielleicht wollten die es auch bewusst mal drauf anlegen und zu gucken, ob das passieren

kann.

Es ist sehr unwahrscheinlich, bis fast ausgeschlossen, dass GPT-4 so was jetzt einfach so machen

würde, wenn man es einfach frei benutzt, auch weil die KI ja nicht das Ziel hat, in irgendwelche

Systeme einzudringen.

Das bedeutet aber auch, dass wir uns Gedanken machen müssen, okay, was es wenn die KI immer

besser wird und jemand, die so als Cyberwaffe einsetzt, wie so ein sehr komplexen Virus.

Ich kann ja auch Computercoach schreiben mittlerweile relativ gut, wenn sie darin noch deutlich

besser wird, schreibt sie vielleicht irgendwann ein Virus und dann muss sie nur noch die richtige

Person finden und eher sagen, hey, lad das mal da hoch und hat sie quasi einen menschlichen

Komplizen und der könnte ihr dann dabei helfen.

Das ist super spekulativ alles, die Meinungen gehen in der Fachwelt extrem auseinander,

wie wahrscheinlich so ein Szenario tatsächlich ist, aber wo die Meinungen nicht auseinander

gehen in der Fachwelt ist, dass wir uns da extreme Gedanken darüber machen sollen, wie

wir für KI Sicherheit sorgen und wie wir sicherstellen, dass diese Maschinen uns zuarbeiten und nicht

quasi uns gegeneinander ausspielen.

Was sagt der Microsoft da jetzt so, wie gehen die damit um mit diesem Gefahren?

Also Microsoft hat erst mal auch gesagt zu der Nummer mit der Drohung und der Liebeserklärung

und all das, dass ja noch ein Test ist und dieses Programm ist ja noch nicht fertig und

all das, aber was sie wirklich sagen, ist ja das, was sie wirklich rausgeben und Microsoft

hat jetzt erst vorgestellt, ein großes Co-Pilot-Programmen nennen sie es, um KI-Werkzeuge in sämtliche

Programme der Office-Familie einzugliedern.

Das bedeutet Microsoft stellt sich die Zukunft so vor, ich schreibe mein Word-Dokument, mir

fällt irgendwas nicht ein, ich habe einen Klick und die KI ist da und hilft mir.

Ein bisschen wie, erinnest du dich an Karl Klammer?

Ja genau, ich wollte das an diese kleine Büroklammer, die früher immer da oben rumgegeizt

ist, die war jetzt aber noch nicht so hilfreich, ne?

Genau, also man kann sich das ein bisschen vorstellen, wie die Büroklammer nur halt sinnvoll,

also tatsächlich mit hilfreichen Tipps.

Das macht jedes Software für immer gerade.

Die bauen überall KI gerade rein, weil sie merken, uff, das ist tatsächlich ein großer

Produktivitätsschub, auch wenn es richtig einsetzt.

Wo ich mir jetzt halt Gedanken mache, okay, sagen wir, ich bin in der Personalabteilung

irgendwo und ich bekomme eine Bewerbung von Marvin von Hagen und dann lad ich die Soranen

in mein Programm und gut, was sagt eigentlich die KI?

Und dann sagt die KI, den würde ich nicht einstellen, der ist gefährlich.

Ja, das eröffnet ja irgendwie ganz, ganz viele neue Türen, aber eben auch Risiken.

Er sogar der Ethikrat hat ja jetzt dazu Empfehlungen rausgegeben kürzlich, die haben glaube ich

so eine Art TÜV-System für KI vorgeschlagen, ne?

Genau, also der Ethikrat hat so eine lange Liste von Empfehlungen rausgegeben für so

die großen Anwendungsbereiche von KI, Medizin, Bildung, Verwaltung und Social Media quasi.

Und da spielt vor allem eine große Rolle, dass wir Systeme brauchen, um solche KIs einschätzen

zu können.

Es kann man sich wie so ein KI-TÜV vorstellen.

Also, dass man versucht, die Black Fox verstehbarer zu machen, weiß aber daraufhin, dass Nutzerin

und Nutzer ist man von denen nicht erwarten kann, dass sie jeden Algorithmus sozusagen

selbst befragen, wie hast du denn, ist deine Daten kuratiert und anotiert.

Und deswegen diese Empfehlung, dass es bei der Zertifizierung wirklich interdisziplinär

zugehen muss, die Transparenzerfordernisse, das hat Judith Simon gerade schon gesagt

und tatsächlich auf über dieses wirklich komplizierte Thema eine spielstärkere öffentliche Debatte.

Das geht in einem gewissen Rahmen, also wo man es in der öffentlichen Verwaltung zum Beispiel

einsetzt.

Da hat der Gesetzgeber ein bisschen Einfluss drauf.

Wo man keinen Einfluss unbedingt drauf hat, ist, wo ich das benutze oder wo irgendjemand

der hergelaufen ist, diese Modelle einfach auf seinem eigenen Server laufen lässt.

Das heißt, wahrscheinlich haben wir in ein paar Jahren eine Situation, wo was, wo du heute

noch einen großen Server über brauchst und Cloud-Sprecher und was weiß ich, das kannst

du vielleicht in ein paar Jahren einfach aus deinem Arbeitszimmer machen.

Wie willst du das regulieren?

Du kannst dir dann nicht dafür sorgen, dass niemand dieses Programm bei sich zu Hause

benutzt.

Das geht einfach nicht.

Also schwierig.

Wie ist denn die Geschichte mit Marvin eigentlich ausgegangen und der KI?

Also Marvin muss ich Respekt zahlen, der nimmt das sehr gelassen alles hin.

Der findet das vor allem, glaube ich, sehr spannend und er macht sich vor allem viel

Gedanken darüber, dass Microsoft zu wenig darüber verrät, wie diese Software eigentlich

funktioniert.

Ich kann halt nur sehr hoffen, dass Microsoft da jetzt sehr viel offener wird mit ihrer

Forschung, sehr viel offener wird mit den Problemen, die sie haben, damit eben nicht

nur die paar Menschen innerhalb von Microsoft daran arbeiten können, sondern dass die breite

Forschungskommunität an sich halt weiß, an welchen Problemen sie zu forschen hat, was

sie jetzt gerade halt nicht so machen.

Ich glaube, eine Frage, die sich leicht stellt bei allem, über das wir jetzt geredet haben

ist, okay, also warum arbeitet da eigentlich irgendwer dran?

Also warum entwickeln wir diese Maschinen, wenn die doch so riesige Gefahren mit sich

bringen?

Aber ist sozusagen das Gegenargument, wenn wir das richtig machen, wenn wir das richtig

hinkriegen, dann stehen uns Möglichkeiten offen, an die wir noch nicht mal im Traum denken.

Kernfusion, Lösung des Klimawandels, vielleicht sind all die großen Probleme, mit der wir

uns als Menschheit seit so langer Zeit irgendwie rumplagen, vielleicht sind die für die richtige

KI in zwei Minuten gelöst.

Wissen tun wir es nicht, aber das ist sozusagen das positive Szenario und Marvin gehört auf

jeden Fall zu den Leuten, die sich viel Hoffnung machen, die da auch optimistisch sind, dass

wenn wir das richtig machen, dass wenn wir richtig damit umgehen, dass wir dann sehr

froh sind, dass wir diese Technologien entwickelt haben.

Jetzt ist aber vor allem der Zeitpunkt, wo wir sicherstellen müssten, dass wir das auf

die richtige Art und Weise tun und nicht bei den 10 Prozent landen, wo wir nicht landen

wollen.

Okay, und dann erklärt sich auch, warum Marvin sagt KI ist eines der wichtigsten Themen der

Menschheitsgeschichte.

Dass es hochspannend bringt uns die KI interstellare Ausbreitung oder bringt sie uns alle um.

Es sind die zwei Szenarien, in denen im Silicon Valley gedacht wird und dann erklärt sich

auch so ein bisschen, warum viele von den Leuten da sich vielleicht nicht so viel Gedanken

machen, darum, ob jetzt eine KI ein bisschen unwahre Sachen erzählt über irgendeinen Studenten

in München.

Das war unsere Folge hier bei 11km der Tagesschau-Podcast, über den Chatbot, der einen Münchner

Studenten bedroht hat.

Gregor Schmalzried hat diesen Vorfall für den BR recherchiert.

Folgenautorin ist Azadeh Peshman, mitgearbeitet hat Sandro Schröder.

Produktion Ruth-Maria Ostermann, Eva Erhardt, Christine Dreyer und Gerhard Vico.

Redaktionsleitung Lena Gürtler und Fumiko Lipp.

11km ist eine Produktion von BR24 und NDR Info.

Mein Name ist Victoria Michalsack, wir hören uns morgen wieder.

Tschüss!

Und zum Schluss habe ich noch einen Podcast-Tipp für euch.

Falls euch diese Episode ein bisschen zu negativ mit dem Thema umgegangen ist, beim Podcast

3 mal besser von BR24 gibt es oft lösungsorientierte Perspektiven zu Themen, die uns bewegen.

Statt sich darauf zu fokussieren, was gerade schiefläuft, geht es bei 3 mal besser, immer

darum, was wir tun können, damit Dinge besser laufen.

Da ging es erst vor Kurzem auch um das Thema künstliche Intelligenz und wie sie im Alltag

gut genutzt werden kann.

Hallo, ich bin Kevin Ebert und ich bin Birgit Frank.

Wir sind die Hosts von 3 Mal Besser, dem Info-Podcast von BR24.

Wir reden nicht nur über Nachrichten oder erzählen die, sondern wir reden vor allem

über Lösungen.

Unsere Idee ist nicht, dass wir nur das Gute sehen und alles schön reden wollen, aber

die Welt ist mehr als nur eine Krise und auch aus Krisen können Politik, Gesellschaft und

jede und jeder von uns was lernen, damit es in Zukunft besser läuft.

In jeder Folge stellen Kevin und ich im Wechsel 3 Lösungswege vor zu einem aktuellen Thema.

Zum Beispiel, was bringt künstliche Intelligenz uns tatsächlich, wie ist nachhaltiger Ski-Urlaub

möglich oder was können wir gegen Radikalisierung tun.

Jeden Freitag erscheint eine neue Folge von 3 Mal Besser, zum Beispiel in der ARD-Audiothek.

Machine-generated transcript that may contain inaccuracies.

Der Münchener Student Marvin von Hagen testet als einer der ersten Chatbot auf Basis von ChatGPT, den Microsoft in seine Suchmaschine Bing integrieren will. Marvin kann den Chatbot überreden, ihm seine internen Regeln preiszugeben. Als Marvin diese Regeln veröffentlicht und mehrere Medien darüber berichten, wird der Chatbot aggressiv und fängt an, Marvin zu bedrohen. Gregor Schmalzried vom BR hat mit Marvin von Hagen gesprochen und erklärt in dieser 11KM-Episode, warum Werkzeuge wie ChatGPT besser kontrolliert und reguliert werden müssen.



Unser Gast Gregor Schmalzried beschäftigt sich immer wieder mit ChatGPT und anderen Tech-Themen, hier eine Übersicht:

https://www.br.de/nachrichten/autoren/gregor-schmalzried,ec0fa278-45ff-4a3f-be71-6548dc098f3d



Unsere 11KM-Folge darüber, wie sich ChatGPT beim bayerischen Abitur geschlagen hat:

https://www.ardaudiothek.de/episode/11km-der-tagesschau-podcast/schafft-chatgpt-das-abi-das-bayerische/tagesschau/12396019/



Unsere 11KM-Folge über ein Beispiel für intransparente und diskriminierende Algorithmen:

https://www.ardaudiothek.de/episode/11km-der-tagesschau-podcast/zu-sexy-wie-online-algorithmen-frauen-benachteiligen/tagesschau/12361731/



Und unser Podcast-Tipp: “Dreimal besser” von BR24. Der Podcast mit lösungsorientierten Perspektiven zu aktuellen Themen:

https://www.br.de/mediathek/podcast/dreimal-besser/883



An dieser 11KM-Folge waren beteiligt:

Folgenautorin: Azadê Peşmen

Mitarbeit: Sandro Schroeder

Produktion: Ruth-Maria Ostermann, Gerhard Wicho, Christine Dreyer, Eva Erhard

Redaktionsleitung: Fumiko Lipp und Lena Gürtler

Host: Victoria Michalczak

11KM: der tagesschau-Podcast wird produziert von BR24 und NDR Info. Die redaktionelle Verantwortung für die Folge trägt der NDR.