FALTER Radio: Von Menschen und Maschinen - #918

FALTER FALTER 4/8/23 - Episode Page - 34m - PDF Transcript

Falter Podcast werden durch Werbung unterstützt.

Das hilft bei der Finanzierung unseres journalistischen Angebots.

Verlierte Teamzeit, schaffen Sie Klarheit über alle Arbeitsabläufe für optimale

Zusammenarbeit und Produktivität, auch im Homeoffice mit Assana.

Jetzt kostenlos testen auf assana.com.

Falter Radio, der Podcast mit Raimund Löw.

Ich sage Ihnen, ich lasse mich lieber von einem Algorithmus bewerten als von einem FPÖ-Wähler.

Weil den Algorithmus kann ich in Anführungszeichen filtern und umprogrammieren.

Den FPÖ-Mann, den kriege ich in zwei Generationen, nicht geändert.

Wenn es wirklich eine allgemeine starke Intelligenz gibt, die das Ruder übernimmt,

dann ist es Menschen gemacht.

Dann haben wir diese Maschine erschaffen und zeugt vielleicht von Hybris oder Nazismus

oder von Forschergeist oder von, wie man immer es auch sagen möchte, aber es bleiben unsere Geschöpfe.

Ich denke, die Leute sollten sich glücklich sein, dass wir ein bisschen gefährlich sind.

Du bist ein bisschen gefährlich.

Ja, natürlich.

Ich denke, wenn ich gesagt habe, dass ich nicht bin, dass du mich nicht glauben sollst oder dass ich in diesem Job sehr unhapp bin.

Vielleicht müssen wir kurz bei Sam Altman bleiben.

Er hat Mitte März dem amerikanischen Fernsehsender ABC ein Interview gegeben,

in dem er vor den möglicherweise drastischen Folgen der neuen genannten

Generation der künstlichen Intelligenz gewarnt hat.

Die neuesten Systeme könnten etwa breitgefächerte Desinformationskampagnen starten oder Cyberattacken orchestrieren.

Sam Altman sagt ersetze wie, wir müssen diese Technologie verlangsamen oder,

wie wir mit den Risiken dieser Systeme umgehen werden, das wird die Zukunft der Menschheit entscheiden.

Nur, Sam Altman ist nicht, wie man jetzt meinen könnte,

ein Gegner der künstlichen Intelligenz im Gegenteil.

Er ist der CEO des Unternehmens OpenAI.

Und OpenAI ist ausgerechnet jenes Unternehmen,

das im vergangenen November den Chatbot ChatGPT veröffentlicht hat.

Die Avangard der künstlichen Intelligenz sozusagen.

Und damit nicht genug.

Vor zwei Wochen hat OpenAI schon den noch potenteren Nachfolger GPT4 veröffentlicht.

ChatGPT oder GPT4, diese Akronüme stehen nicht nur für multifunktionale Chatbots, sondern für eine Zäsur.

Experten haben diese Systeme mit der Erfindung des Rades verglichen.

Andere sprechen gar von einer zweiten kambrischen Explosion.

Bei der ersten entstanden vor 500 Millionen Jahren innerhalb kürzester Zeit alle Tierstämme, die wir heute kennen.

Ist das Spooky? Ja, und zwar in besonderem Maße.

Und ganz einfach zu verstehen, ist das alles auch nicht.

Die neue Generation der künstlichen Intelligenz reicht mit ihrer Leistung an die kognitiven menschlichen Fähigkeiten heran.

Sehr wahrscheinlich wird sie den Menschen bald übertreffen.

Jetzt haben führende Informatiker, Unternehmer und Softwares-Spezialisten

darunter Tesla-Gründer Elon Musk ein Forschungsembargo für künstliche Intelligenz gefordert.

Weil eben niemand abschätzen kann, wohin das alles noch führen wird.

Schauen wir einmal zurück. Technische Innovationen haben immer die Unzulänglichkeiten der Menschen ausgebügelt.

Das Rad entlastete das Bein, die Dampfmaschine übertraf die Körperkraft.

Jetzt soll die Technik dem Mängelwesen Homo sapiens das Denken abnehmen.

Für den Menschen bedeutet das nichts Geringeres, als dass sein Geist nun Konkurrenz bekommt,

nicht in der Rechen, sondern in der Denkleistung.

Das stellt uns vor Fragen.

Was ist das eigentlich Revolutionäre an der neuen künstlichen Intelligenz?

Was kann sie alles und was nicht?

Was passiert oder muss man sagen, was droht, wenn KI-Systeme nicht reguliert werden?

Und was macht das mit uns als Gesellschaft?

Ich habe mich auf die Suche nach Antworten gemacht.

Ich habe dafür mit Ethikern, Informatikern und Lobbyisten gesprochen.

Ich habe den amerikanischen Soziologen Richard Sennet in Wien getroffen.

Spoiler!

Alle Gesprächspartner gehen davon aus, dass die neue Generation der künstlichen Intelligenz

ein ziemlich großes Ding sein wird.

Eben eine Zäsur, ein Game-Changer, wenn man so will, und sie sagen, dass wir die Auswirkungen

eigentlich kaum mehr aufhalten können.

Bleibt die Frage.

Sind diese Systeme bereit für uns und sind wir Menschen bereit für sie?

Man muss an dieser Stelle einmal abstecken, wovon diese neue Generation an künstlicher

Intelligenz überhaupt handelt, was sie ist.

Chat, GPT und Co. basieren auf künstlichen neuronalen Netzwerken, die die menschlichen

Gehirn Synapsen imitieren.

Sie können als sogenannte Large Language Models eben Chatbots servisieren, das wäre dann

der breiten wirksame Hausgebrauch.

Die neuen Systeme können aber auch Proteine bestimmen, was die Wissenschaft froh locken

lässt.

Sie können problemlos Deep-Fake-Videos produzieren oder biochemische Substanzen zu neuartigen

Waffenordnen in wenigen Minuten.

Ich brauche da jetzt ein bisschen Hilfe, um das alles einzuordnen.

In der Wiener Innenstadt, nicht weit vom Café Zentral und vom Burgtheater entfernt,

arbeitet Alexander Filipowicz.

Der Deutsche ist Professor für Medienethik an der katholischen Fakultät der Universität

Wien.

Sein Hauptforschungsgebiet ist die künstliche Intelligenz.

Darüber hat er seine Antrittsvorlesung in Wien gehalten, dafür saß er zwei Jahre lang

in einer eigenen Enquette im Deutschen Bundestag.

Thema Herausforderungen für die Demokratie durch künstliche Intelligenz.

Filipowicz lädt in sein Büro ein nüchternes Zimmer im zweiten Stock eines nüchternen Neubaus.

Während der Tee aufkocht, erzählt er von einer älteren Kollegin, die ihm gegenüber

geäußert habe, froh darüber zu sein, das volle Ausmaß dieser Entwicklungen nicht mehr

erleben zu müssen.

Die Gnade der frühen Geburt einmal anders sozusagen.

Ich würde auch erst mal sagen, dass sich unsere Begriffe von dem Göttlichen, von dem

jenseitigen, von dem was hinter den Dingen liegt, wahrscheinlich stark verändert im

Kontext von Technologien, das wird vielleicht unsere Jenseitsvorstellungen dann verändern

und beeinflussen.

Für die breite Masse sind die neuen KI-Systeme mit den Chatbots hereingebrochen, weil zum

ersten Mal ein jeder sich damit herumspielen kann.

Die Systeme aber werden auch in anderen Feldern getestet, bei Flutsimulationen etwa oder

in der Logistik.

Sie sollen neue Medikamente finden und die Diagnose in der Medizin revolutionieren.

Dieses Sprachmodell und so was gibt es ja länger, dass das jetzt aber in den Chat umgebaut

wurde, wo es eine Form von Interaktion gab, erklärt wahrscheinlich dann auch noch mal

diesen Hype jetzt um diese Maschine, aber je länger ich damit experimentiert habe und

mir das angeguckt habe, desto beeindruckter bin ich von der Leistungsfähigkeit von solchen

KI-Technologien.

Was bringt uns das?

Noch einmal Professor Filipowicz.

Es kann gut sein, dass mit den Technologien künstlicher Intelligenz wir jetzt plötzlich

die Mittel haben, irgendwie mit der Komplexität unserer Welt tatsächlich auch umzugehen.

Bisher hingen wir immer so hinterher, also zum Beispiel die Geschichte, dass die Franzosen

im 18. und 19. Jahrhundert und zum Teil sogar noch früher das gesamte Wissen in Form von

Enzyklopädien sammelten und Bibliotheken vorschrieben dafür, das war ja auch der Versuch

mit das Wissen der Welt systematisch anzuordnen, um letztlich damit ja Problem zu lösen.

Aber das hat ja nicht funktioniert, weil die Welt sich entwickelt, schneller als Bücher

schreiben, sich entwickelt.

Wir haben jetzt mit den Möglichkeiten von künstlicher Intelligenz, glaube ich, können

wir vielleicht nicht in so eine Vorlage kommen, aber wir können vielleicht, Stichwort Klimawandel

zum Beispiel, oder Energie oder Verkehrsströme, Mobilität, wir können mit den Dingen die

komplexen Systeme, in denen wir leben, vielleicht tatsächlich bestalten, das erste Mal.

Und das können wir Menschen nicht, dazu sind unsere Gerüne zu klein, aber die Karitechnologien

können das vielleicht.

Das ist natürlich ein bisschen eine Watschen für uns Menschen, aber gut.

Aber ist das alles wirklich so neu?

Gab es künstliche Intelligenz nicht schon davor, in Alexa zum Beispiel, in Siri, in jedem

herkömmlichen Navigationssystem?

In der Tat ist das alles nicht ganz neu, aber es ist jetzt anders.

Die früheren Modelle der künstlichen Intelligenz folgten einem deduktiven, wenn, dann Ansatz.

Sie waren in einer Sache besonders gut und waren ausschließlich darauf abgerichtet.

Sie waren beispielsweise darauf trainiert, Bilder zu erkennen.

Man denke an die mühsame, ich bin kein Roboter-Hürde, bevor man auf bestimmte Webseiten gelangt.

Die neueste Generation der künstlichen Intelligenz ist anders.

Seit 2018 wird an ihr gearbeitet.

Möglich gemacht hat sie eine nochmals gesteigerte Rechenleistung und ein neues Organisationsprinzip.

Die neue Generation der künstlichen Intelligenz arbeitet nicht mehr mit Deduktion, sondern

mit Assoziation.

Diese neuen Modelle können Daten verknüpfen.

Sie können Schlüsse ziehen, sie können aus sich selbst heraus Inhalte kreieren.

Generativ nennt man das.

Wie sie das mit ihren neuronalen Netzwerken machen, das wissen nicht einmal mehr die Software-Ingenieure,

die sie angeleitet haben.

In einer sehr groben Analogie kann man sich das so vorstellen.

Frühere Modelle haben eine Ausbildung erhalten, zum Beispiel zum Tischler.

Die neuen Modelle können gleichzeitig Tischler, Schriftsteller und Girurg sein.

Und zwischen diesen Rollen hin und herswitschen.

Hier kommt ein Disclaimer.

Auch wenn diese KI-Modelle Milliarden an Daten verarbeiten, sind sie dumm.

Sie haben weder Bewusstsein noch eine Vorstellung von der Welt.

Chatbots aus der Familie der Large Language Models zum Beispiel werden mit einer Art Lückentext.

Ähnlich jenen im Fremdsprachenunterricht trainiert.

Man richtet sie darauf ab, die Abstände zu füllen, um in der Folge einen Text aus einer

statistischen Wahrscheinlichkeit heraus zu berechnen.

GPT 3, der Vorgänger von Chat GPT beispielsweise, wurde mit 500 Millionen Wörtern befüllt.

Dafür müsste ein Mensch zehn lebendlang durchgehend Zeilen ablesen.

Der Chatbot hat aber kein Gedächtnis.

Er überschreibt die gespeicherten Zeilen einfach.

Er hat gelernt, Syntax, Wortbeziehungen und semantische Nuancen zu imitieren.

Verstehen tut er davon kein Wort.

Dazu noch einmal der Ethik-Professor Alexander Filipowicz.

Die Maschine greift auf etwas zurück, was es schon gab, was schon da ist und rechnet statistische

Methoden, um dann irgendwas auszuspucken.

Von daher hat die natürlich ganz klar ihre Limitation, Empfehlung zu Menschen auf jeden

Fall natürlich.

Das muss man auch wissen, also das heißt, das was noch nicht gedacht würde und das was

vielleicht gedacht wurde und noch nicht aufgeschrieben ist, ist für diese Maschinen einfach nicht

verfügbar.

Doch wie funktionieren sie überhaupt?

In Österreich weiß das wohl kaum jemand besser als Sepp Hochreiter.

Der Informatiker aus Bayern forscht seit vielen Jahren an der Johannes Kepler Universität

in Linz zur künstlichen Intelligenz.

Auf seinen Forschungsergebnissen bauen die Large Language Models auf, jene Systeme also,

die in den Chatbots eingesetzt werden.

Fragen wir doch mal den Experten, was künstliche Intelligenz denn allgemein überhaupt ist.

Das hier in der Intelligenz ist eine Maschine, die kognitiven Fähigkeiten besitzt, wie es

sie der Mensch besitzt, dazu gehört Lernen, Planen, irgendwelche Ziele verfolgen, sich

neue Fähigkeiten aneignen.

Künstliche Systeme wie ChatGPT können mittlerweile sehr gut Texte schreiben und den Menschen

imitieren.

Das, was sie da produzieren, hat einen großen Reiz, denn es wirkt menschlich.

Das Problem?

Die Systeme sind zwar wahnsinnig koherent, aber nicht immer korrekt.

Das liegt an den Daten, an denen sie trainiert wurden.

Hat ein Chatbot z.B. niemals von historischen Ereignissen, z.B. dem Massaker am Platz des

himmlischen Friedens in Peking 1989 erfahren, kann er dieses Ereignis nicht wiedergeben.

Aber dieses Ding ist strotum, das kann nicht logisch denken, kann sich nichts herleiten,

hat auch nur die Daten drin, die reingefüttert wurden, wenn falsche Daten reingefüttert

wurden, als was falsches drin, wenn welche nicht reingefüttert worden sind, dann fehlen

das.

Dem tendieren die Programme dazu, Vorurteile in den Daten vorzuschreiben.

Wo in den USA künstliche Intelligenz über Haftentlassungen entscheidet, werden Schwarze

benachteiligt.

Das Vorgängermodell von ChatGPT assozierte Muslim häufig mit Terrorist und Jude mit

Geld.

Und als das Arbeitsmarktservice 2019 in Österreich einen Algorithmus einsetzen wollte, um die

Arbeitsmarktschancen von Arbeitslosen zu bestimmen, bekamen Frauen mit Kinderbetreuungspflichten

einen Punkteabzug.

Ja, und dann ist da noch die Sache mit der Transparenz.

Niemand weiß nämlich, mit welchen Daten diese KI-Systeme letztlich trainiert werden.

Noch einmal der Informatiker Sepp Hochreiter.

Die Gefahr ist, dass solche Tools, wie diese großen Language-Modelle, mehr und mehr verwendet

werden, generiert und gebaut werden, die dann vielleicht vom großen IT-Company sind.

Welche Daten in die Reihen füttern, haben wir keine Kontrolle.

Es kann sein, wenn die ChatGPT fragen, wer ist der Präsident von Amerika, sagt er vielleicht

Elon Musk, weil die viele Daten reingefüttert haben, wir haben keine Kontrolle.

Und wir haben auch keine Kontrolle, wenn da was rauskommt, auf welchen Quellen passiert

das.

Also die Quellen ja fehlen völlig.

Also, das ist nur diesen Problem.

Ja, da atmet man erst einmal auf, wenn man hört, dass die EU diese Systeme regulieren

will.

Dass innerhalb der EU der Fortschritt begleitet werden soll, eingehegt.

Die EU-Kommissionspräsidentin Ursula von der Leyen hat bei ihrem Amtsantritt schon

gesagt, dass die Regulierung der digitalen Welt eine Säule ihres Mandats sein wird.

Bei der Rede zur Lage der Union im September 2020 hört sich das etwa so an.

Ob es um den Präzisionsanbau in der Landwirtschaft geht oder um treffgenaue medizinische, frühe

Diagnosen oder ob es um sicheres autonomes Fahren geht, die künstliche Intelligenz

eröffnet uns Welten, das ist fantastisch.

Aber diese Welten brauchen auch Regeln.

Das heißt, Algorithmen dürfen keine Black Box sein und es muss klare Regeln geben,

wenn etwas schiefgeht.

Ein Jahr später hat die EU-Kommission dann ihren Verordnungsentwurf zur Regulierung

von künstlicher Intelligenz vorgestellt.

So sollen KI-Systeme in vier Risikostufen eingeteilt werden, in inakzeptabel, hoch,

beschränkt und gering.

Scoring-Systeme, die menschliches Verhalten an staatliche Unterstützung knüpfen wie

in China beispielsweise, sind demnach verboten.

Genauso wie KI-gesteuerte Waffensysteme oder die automatische Gesichtserkennung im öffentlichen

Raum.

Je nach Risikoreinstufung müssen die Anwender Sicherheitsvorkehrungen treffen.

Das Ziel der EU ist klar, sie will vertrauenswürdige KI-Systeme schaffen.

Ich kann Ihnen ein persönliches Beispiel nennen, meine Handschrift ist eine komplette Katastrophe

gewesen meint das ganze Leben lang und ich habe mich immer geschämt zu schreiben.

Das ist Daniel Abu und er ist einer, der die Chancen der künstlichen Intelligenz

in den Vordergrund stellen möchte.

Und erst als ich dann mit 16, ne 14, meinen ersten Commodore C64 hatte und ich konnte mich

in Tasten ausdrücken und ich musste nicht über meine Handschrift denken, hat es angefangen,

dass ich mich auch schriftlich angefangen habe zur Artikulierung.

Und ich glaube, dass diese KI, die auf uns zukommt, Menschen dafür befähigen kann, Sachen

zu machen, die sie bisher noch nicht in ihrem Fokus haben.

Der Deutsche leitet den KI-Bundesverband in Deutschland.

Das ist ein Zusammenschluss von mehr als 400 deutschen Unternehmen, Start-ups und Experten,

die sich dem digitalen Fortschritt verschrieben haben.

Daniel Abu macht kein Geheimnis daraus, dass er mit dem regulatorischen Vorstoß der Europäer

unzufrieden ist.

Es geht ihm weniger um den Ansatz, also um die Umsetzung.

Hören wir einmal rein.

Die Frage, die sich stellt, ist die, trifft es die richtigen?

Weil ich denke, der Gedanke, auch der Kommission und generell auch in Europa war, dass man

versucht, die großen Tech-Player, die Googles, die Amazons, die Microsoft zu regulieren und

da ein Auge drauf zu haben.

Das Problem ist, und das macht sich auch immer klarer, je weiter das jetzt auch fortschreitet,

auch innerhalb des Parlamentes, etc., ist, dass die größte Sorge, die vor der Regulierung

haben, kleine europäische KI-Firmen.

Warum?

Weil es so ist, und wir machen uns nichts vor, die großen Tech-Konzerne werden mit jeder

Art von Regulierung klarkommen, weil sie 200 Lawyers allein in Brüssel pro Firma sitzen

haben, die mit jeder Art von Regulierung das Schlupfloch finden werden und damit klarkommen.

Das haben die über die letzten Jahrzehnte bewiesen, das werden sie auch beim AI-Akt

zeigen.

Ich bin Claire Barrett, host of the FT's Money Clinic podcast.

Jede Woche diskutieren wir die Werte, um auf die Höhe von deinem Geld zu bleiben.

Es ist neu, wie du sie benutzen kannst,

um in eine Weise, in der niemanden verstehen kann,

die den Top-Experten von FT und beyond anzuwenden.

Also check out our Podcasts und read selected Articles

for free at ft.com slash Insights.

Und ich glaube, da muss man sich die Frage stellen,

ob die Regulierung gut gemeint,

vielleicht nicht in vielen Teilen die falschen trifft,

oder dass es sozusagen dazu beiträgt,

dass sich junge Unternehmerinnen und Unternehmen,

egal ob in Wien oder in Berlin oder in Paris,

sich gar nicht auf ein Thema gehen,

weil sie Angst haben, dass eben mit dem,

ich sage jetzt mal, regulatorischen Aufwand nicht klar kommen werden.

Der Ansatz der europäischen Politiker,

die digitale Welt gesetzlich zu regeln, ist begrüßenswert.

KI-Systeme stecken ja nicht nur in den Chatbots,

sondern auch in der Logistik,

in der kritischen Infrastruktur-Inverkehrssysteme.

Eine klare Gesetzgebung ist angesichts der Wirksamkeit dieser Systeme

eine geostrategische Notwendigkeit.

Wir sprechen schließlich weniger

vom perfekten literaturwissenschaftlichen Essay

aus der Feder von ChatGPT als von der Souveränität Europas.

Nur wie viel Regulierung ist notwendig?

Und wann hindert sie Innovation?

Noch einmal Daniel Abu vom Deutschen KI-Bundesverband.

Viele wollen nicht KI regulieren,

sondern sie möchten ihre Angst vor KI regulieren.

Und zwar in dem Maße, dass so versucht wird,

also Sie wissen ja, dass beispielsweise diese Regulierung

in so einer Pyramide ist, High-Risk und so,

und dass davon unterschiedlichen Gruppen versucht wird,

möglichst viel in diese High-Risk-Kategorie reinzukriegen.

Die Sache mit der Innovation ist sowieso schwierig,

denn die passiert längst anderswo.

Schauen wir uns die Zahlen an.

Die Amerikaner haben 2020 geschätzt mehr als 20 Milliarden

allein an privatem Kapital in künstliche Intelligenz investiert.

China knapp zehn.

Die gesamte EU hoppelt mit zwei Milliarden hinterher.

73 Prozent der derzeitigen Large-Language-Models

sitzen in den USA, 15 weitere in China und Europa.

Das grübelt derzeit vor allem vor sich hin.

Ich habe die Zeit erlebt, als wir noch Platten und CDs hatten,

und dann kamen Napster, die erste File-Sharing-Plattform.

Und die alle nahen Copicals, Music und alles Mögliche.

Und anstatt darüber nachzudenken,

ein eigenes Produkt zu entwickeln in dieser Digitalisierung,

hat man sich dagegen gewährt und hat 15-jährige Kids verklagt,

weil sie sich zwei CDs auf Napster hochgeladen haben.

Und genau das Gleiche wird den Wirtschaftszweigen passieren,

die sich nicht auf diese neue Technologie einstellen.

Und da sehen wir gerade in den oberen Chefetagen

noch ein gigantisches Defizit auf da, was auf uns zurollt.

Außerdem dürfen wir eine Sache nicht vergessen.

Der Ansatz der EU einer risikobasierten Einschätzung

unterschätzt die technologische Flexibilität der neuen KI-Generation.

Diese können multidisziplinär arbeiten.

Man kann sie sich wie ein Dual-Use-Good in der Industrie vorstellen,

dass sowohl zivil als auch militärisch Verwendung findet.

Ein KI-System, das in der unbedenklichen Risikostufe landet,

könnte also später missbräuchlich benutzt werden.

Die amerikanischen Tech-Konzerne haben schon unsere privaten Daten.

Also Amazon, Facebook, Google, etc., die sind schon abgewandert.

Und wie Sie ja auch als Zeitschrift sicherlich wissen,

ist der Anzeigenmarkt komplett in die Google-Sphäre rübergegangen.

Also auch schon mal einen Punkt der Wertschöpfungskette,

den wir komplett an die US-Amerikaner verloren haben.

Große KI-Modelle, da geht es nicht darum,

dass ich ein liebes Gedicht zum Wallen-Tinz-Tag an meine Freundin schreiben will.

Da geht es nicht darum, dass die Zusammenfassung von Karl Marx das Kapital nicht 100% richtig ist,

sondern da es was kommen wird über diese Foundation-Modelle und so,

sind Industrieapplikationen, sind Wirtschaftsapplikationen.

Wenn wir diesen Markt den US-Amerikanern in den Teilen den Chinesen überlassen,

sind nach unseren privaten Daten auch unsere Wirtschaftsdaten weg.

Das heißt, dass die dann Modelle machen können,

ich will das jetzt nicht überziehen oder sowas,

aber die ein Großteil des Weltwissens haben.

Und wir müssen europäische Wirtschaftsdaten versuchen, so weit wie möglich in Europa zu halten,

weil sonst werden wir in der digitalen Wertschöpfungskette noch weiter nach hinten gebracht.

Daniel Abu bringt dann noch ein interessantes Beispiel.

Nicht zum ersten Mal in der Geschichte des Menschen,

kann die Technologie nach vorne und nach hinten losgehen.

Mit der Erfindung des Buchdrucks war es so,

dass dann auf einmal auch Propagandaschriften erzeugt werden konnten, relativ einfach.

Und der Buchdruck, auch was Historiker sagen, ich bin keiner,

aber auch ein Brandbeschleuniger für den 30-jährigen Krieg war.

Hat man den Buchdruck deshalb abgeschafft?

Hat man versucht, die grundlegende Technologie, die da ist,

in irgendeiner Form damit zu entwerten?

Das ist Dual-Use.

Und da muss man natürlich darauf achten, auch durch Regulation, dass sowas nicht passiert.

Aber ehrlich gesagt muss man auch sagen, dass es höchstwahrscheinlich Player auf der Welt gibt,

denen diese Regulatorik, die wir in Europa machen, herzlich wurscht ist,

und die sicherlich solche Technologien zum Negativen nutzen werden.

Vielleicht kann man das Ganze bis hierher trotzdem so zusammenfassen.

Wir haben einen Überhang an künstlicher Intelligenz

und ein absolutes Defizit uns vorzustellen, was sie bringen soll und wie wir damit umgehen sollen.

Zumal die großen Tech-Konzerne als Treiber der Innovation

sich gerade darin überbieten, immer noch potentere Systeme vorzustellen.

Microsoft, Apple, die Facebook-Mutameter und Google-Wissen,

das in diesen Systemen nicht nur eine unfassbare Leistung steckt, sondern auch ein Milliardengeschäft.

Es geht um ein Geschäft, das der Unternehmensberater PricewaterhouseCoopers

auf knapp 16 Billionen Dollar an zusätzlicher globaler Wirtschaftsleistung bis 2030 beziffert.

Dieses Geschäft wird nicht aufgeteilt werden. Wer das Rennen macht, wird,

so ist das in der Tech-Welt, alles bekommen.

Man denke nur daran, dass die Google-Suchmaschine mehr als 90 Prozent

aller globalen Suchanfragen abwickelt.

Auch deshalb haben die eingangs genannten Kritiker ein Embargo gefordert.

Sie fürchten, dass aus wirtschaftlichen Interessen Systeme auf den Markt geworfen werden,

die nicht ausreichend überwacht, kontrolliert und getestet werden können.

Ich verspreche Ihnen an dieser Stelle, dass es eine Sache gibt,

die die Maschine nicht so gut kann wie der Mensch.

Der amerikanische Soziologe Richard Sennett, ein Meister seines Fachs,

wird uns gleich darüber berichten.

Ein sonniger Tag im März.

Richard Sennett hat schon auf mich im Hotel Wandel in der Wiener Innenstadt gewartet.

Das Institut für die Wissenschaft des Menschen hat ihn zu einer Lecture eingeladen.

Er will dort über das jüdische Totengebet das Kaddi sprechen.

Im Gespräch mit mir wird es um etwas anderes gehen,

um Sennetts jüngste Forschungen im Feld der Automatisierung.

Richard Sennett hat vorläufige Daten mitgebracht,

die er gemeinsam mit seinen Studenten von der London School of Economics erhoben hat.

Sie zeigen ein drastisches Bild.

20 bis 25 Prozent der Dienstleistungen könnten in den Maschinen der künstlichen Intelligenz verschwinden.

Auf einen Arbeitsplatz könnten dann drei Arbeitnehmer kommen.

Mein Sennett und die KI-Systeme haben gegenüber einem teuren Industrieroboter,

sagen wir in einer Automobilwerkshalle, einen entscheidenden Vorteil.

Sie sind wahnsinnig billig.

Geliegte Dokumente aus dem Unternehmen des eingangs eingespielten Sam Eltonen zeigen,

dass OpenAI, seine sogenannten Foundation Models,

zum Preis von 22.000 Dollar vermieten will pro Monat.

Und das ist nur das eine Problem.

Sennett spricht hier vor allem von der Masse der Arbeitnehmer, dem Mittelbau.

Aber auch in den oberen Etagen könnte es eng werden.

Denn wo Automatisierung bisher schlechter bezahlte Jobs wegrationalisiert hat,

könnte es jetzt den Managerinnen und Wissensdienstleistern an den Kragen gehen.

Was die KI-Systeme heute schon leisten können, zeigt das Beispiel des chinesischen Unternehmens NetDragon.

NetDragon ist ein Online-Glücksspielanbieter.

Er macht mehr als zwei Milliarden Dollar Umsatz im Jahr.

Im vergangenen August hat NetDragon einen neuen CEO bekommen

oder besser gesagt eine neue CEO.

Sie heißt Tang Yu.

Tang Yu ist die beste Mitarbeiterin, die man sich vorstellen kann.

Sie muss eigentlich nicht schlafen.

Ihre Konzentrationsfähigkeit reißt nie ab.

Es gibt kein Kind, dessen Schulaufführung sie nicht verpassen darf.

Und ihr Gehalt beträgt null Dollar.

Denn Tang Yu ist ein KI-System.

Sie ist ein Roboter an der Spitze eines Milliardenkonzerns.

Nach allen messbaren Größen hat Tang Yu ihre Sache gut gemacht.

Dem Unternehmen NetDragon hat die unorthodoxe Personalentscheidung

jedenfalls bisher keine Nachteile gebracht, im Gegenteil.

Die NetDragon-Aktie hat den Index der Hongkonger Börse im vergangenen Jahr outperformt.

Um 20 Prozent.

Bleibt die Frage, was das mit den Menschen macht?

Und was für ihn noch übrig bleibt?

Noch einmal Richard Sennett.

Siegmund Freud, der Begründer der Psychoanalyse, hat einmal 3 Kränkungen der Menschheit definiert.

Die erste ist, seinen Angaben zufolge die Erkenntnis nicht der Mittelpunkt des Kosmos

zu sein.

Der Astronom Nikolaus Copernicus hat diese Erkenntnis formuliert.

Der Naturforscher Charles Darwin brachte unsere Abstammung dann mit dem Affen zusammen und

weit von der Krönung der Schöpfung weg.

Und Freud selbst schließlich zeichnete den Menschen drittens als schwer zu kontrollierendes

Triebwesen und nicht als abwägende Vernunftkreatur.

Vor uns könnte die vierte, die kognitive Kränkung der Menschheit stehen.

Im Silicon Valley häufen sich derweil Job-Angebote für sogenannte Kill Switch Engineers.

Sie sind dafür verantwortlich, den Stecker zu ziehen, sollte eines der Systeme eine

Unvorhergesehene oder gefährliche Richtung einschlagen.

Wie viel Ohnmacht in dieser Job-Beschreibung liegt und wie wenig Trost.

Machine-generated transcript that may contain inaccuracies.

Der Chatbot ChatGPT hat Künstliche Intelligenz ins breite Bewusstsein gerückt. Über Gefahren und Potentiale dieser revolutionären Technologie spricht Eva Konzett mit Experten aus Informatik bis Ethik, von Alexander Filipovic bis Richard Sennett.

Hosted on Acast. See acast.com/privacy for more information.