FALTER Radio: Zeitenwende Künstliche Intelligenz - #972
FALTER 7/8/23 - Episode Page - 1h 21m - PDF Transcript
Die Fall der Sonnergespräche im Wienermuseumsquartier zu den heißen Themen des Jahres.
Mittwoch, den 30. August, nimmt die grüne Umweltministerin Leonore Gewessler-Platt.
Es geht um die drängende Frage, wie wir die Klimawende schaffen.
Umweltministerin Leonore Gewessler im Gespräch mit Barbara Todt und Katharina Krobshofer.
Mittwoch, den 30. August und 19 Uhr auf der Bühne im großen Hof im Museumsquartier in Wien.
Der Eintritt ist frei. Schauen Sie doch vorbei.
Im Netz ist das alles andere als selbstverständlich.
Und woher zur Hölle willst du das wissen?
So eine vorlaute Bitch wie dich sollte man an den Herd fesseln, dir dein Handy wegnehmen und...
Und wir feiern dich dafür, dass du dich als Frau nicht unterkriegen lässt.
Keine Angst. Du bist hier nicht allein.
Wir alle entscheiden, ob wir das Netz dem Hass überlassen.
Werde Teil der Telekom-Initiative gegen Hass im Netz und setze ein Zeichen. Telekom.
Falter Radio, der Podcast mit Raimund Löw.
Sehr herzlich willkommen, meine Damen und Herren im Falter Radio.
In der heutigen Sendung geht es wieder einmal um die künstliche Intelligenz.
Der technologische Sprung, den die digitale Welt gerade erlebt gibt Rätsel auf und er schafft Möglichkeiten.
Wahrscheinlich befindet sich die Menschheit einer Zeitenwende.
Mit Hilfe von künstlicher Intelligenz findet der Computer nicht nur Daten wie eine Suchmaschine, sondern er wird auch kreativ.
Ganz eine hochrangige Expertenrunde, die versucht zu erklären, was künstliche Intelligenz für Chancen bringt und welche Risiken sie birgt.
Die Wissenschaftsforscherin Helga Novotny sitzt mit am Podium.
Sabine Kossige ist Professorin an der Technischen Universität Wien.
Sie ist ebenfalls dabei. Sie forst an der Schnittstelle zwischen Technologie, Arbeit und Organisation.
Joanna Pirke ist dabei. Sie forst und arbeitet zu neuen Technologien an Universitäten in München und Graz.
Und Ruth Fulterer diskutiert mit. Sie schreibt für die neue züricher Zeitung über künstliche Intelligenz.
Moderator Günther Keindlstorfer startet die Diskussion bei den Wiener Vorlesungen mit einer Frage zu JetGPT.
JetGPT ist eine App, die sich alle im Internet holen können, um selbst künstliche Intelligenz auszuprobieren.
Novotny, ich würde gerne mit Ihnen beginnen.
Vor ungefähr einem halben Jahr ist es gewesen, dass dieses JetGPT durch die Medien gegangen ist in ihrem Freundeskreis.
Nämlich an, in meinem Freundeskreis haben viele Menschen nichts anderes zu tun gehabt, euch noch am selben Nachmittag sich hinzusetzen,
um das gleich auszuprobieren und Rege das zu teilen, wie das funktioniert, was schlecht funktioniert, was gut funktioniert.
Man hat das Gefühl, ein regelrechter Hype und diese Form von KI, künstliche Intelligenz, ist ausgebrochen.
Würden Sie sagen, ist es ein Hype oder ist das wirklich eine Revolution, die vielleicht vergleichbar ist mit der Einführung des Personalcomputers vor 30, 40, 50 Jahren?
Also ich würde es sogar noch weiter zurückgehen.
Ich glaube schon, dass es unser Leben grundsätzlich verändern wird und die Art und Weise, wie wir arbeiten, auch die Art und Weise, wie wir Wissenschaft betreiben und so weiter.
Und ich würde es eher mit der Elektrizität vergleichen, und zwar insofern, als künstliche Intelligenz in alle Bereiche, Wirtschaftsbereiche und Lebensbereiche eindringen wird.
Und insofern würde ich sagen, das ist kein Hype.
Der Hype kommt, wenn wir hören, wir sollen uns fürchten, dass uns die KI von der Erde wegwischt oder wir sollen uns Sorgen machen über schreckliche Dinge, die auf uns zukommen.
Das würde ich sagen, ist der Hype.
Und ich begrüße es sehr zum Unterschied auch von anderen großen Schritten, die gemacht wurden, Personalcomputer.
Wie viele Menschen hatten die Möglichkeit, einen Personalcomputer vor 30 Jahren auszuprobieren?
Und jetzt können alle JETGPT ausprobieren.
Und wenn Sie das ausprobieren, kommen Sie sehr schnell drauf, Sie stellen Fragen und die Antworten variieren, je nachdem, welche Fragen Sie stellen.
Das heißt, Sie sind gefordert, kluge Fragen zu stellen.
Und das, finde ich, ist eine interessante Interaktion, die sich da ergibt.
Also, man kann dann natürlich sagen, also, die Frage stimmt, nicht, die Antwort stimmt, nicht, das soll man auch sagen.
Also, es ist auch eine Möglichkeit, dass wir skeptisch daran gehen, dass wir kritisch sind.
Wir lassen uns herausfordern, aber wir fordern auch diese Maschine heraus, um mit uns zu interagieren.
Uns skeptisch ist es angebracht, kritisch ist es angebracht, das ist immer gut im Leben.
Und das will nicht alles glauben, was uns präsentiert wird.
Und insofern begrüße ich das, dass Sie alle die Möglichkeit haben, es auszuprobieren.
Rotfutter, Sie haben in der neuen Zürich einige Texte zum Thema KI geschrieben und die Stoßrichtung dieser Texte scheint mir zu sein,
dass sie reserviert sich äußern gegenüber Panikmache, gegenüber Angstmache, was künstliche Intelligenz betrifft.
Wie würden Sie Ihre Haltung zu diesem Phänomen beschreiben?
Ja, genau. Also, ich glaube, es ist wichtig zu verstehen, was Karin kann und was sie nicht kann
und dafür ist es eben super, diese Sachen auszuprobieren.
Und was ich oft höre und dann auch eben kritisch darstelle, ist, dass Experten in den USA,
auch zum Teil die Leute in diesen Firmen, also hinter OpenAI, der Herstellerfirma von Chatshipiti,
aber auch anderen Technologiekonzernen, dass die KAYAS etwas beschreiben, was wie fast so ein Wesen ist,
also etwas, nicht etwas, was sie bauen und was dann auf uns einen gewissen Einfluss hat,
sondern als etwas mit einer eigenen Dynamik, die also Kontrolle geraten kann
und irgendwie, das wird am meisten nicht genau beschrieben, dann die Macht übernimmt.
Und ich glaube, es ist einfach wichtig, es ist schon ein Hype, also das Thema wird aufgeblasen,
das heißt nicht, dass nichts dahinter steckt, es wird unser Leben verändern, da bin ich bei Ihnen,
aber dass man da in sie unterscheidet, was so nicht betrachtet, was ist denn jetzt genau diese Technologie,
was kann sie und das unterscheidet von seiner science fiction Fantasie.
Ich glaube, das ist auch inspiriert von Büchern und Filmen, die die Leute gesehen haben
und der Name künstliche Intelligenz, der lädt an einen sehr futuristisch zu denken
und ich glaube, die Veränderungen sind dann vielleicht ganz andere, als die über die oft gesprochen wird.
Johanna Birker, es ist natürlich schon erstaunlich, was diese KI jetzt schon alles kann.
Man mag sich gar nicht ausmalen, wie das in 10, 20 Jahren ausschaut.
KI kann brauchbare Hochzeitsreden schreiben, habe ich mir sagen lassen.
KI kann Traueransprachen formulieren, die bei jedem Begriffen ist, die Menschen zu drehen rühren.
KI kann Marketingtexte für, weiß ich nicht, den nächsten Südtirol Urlaub schreiben,
die wirklich offenbar die Kundschaft attrahieren.
Bewerbungsschreiben angeblich sollen auch gut funktionieren mit KI.
Ich gestehe es ungern, aber ich gestehe es doch.
Ich bin wahrscheinlich der größte technische Trottel hier unter den fünf Menschen auf der Bühne.
Ich verstehe es eigentlich nicht. Bitte erklären Sie uns, können Sie uns erklären, wie macht diese KI das?
Wie schreibt ein Chatbot, sagen wir, eine brauchbare Trauerrede?
Ja, ich glaube, was man da unterscheiden muss, dass diese Thematik um ChatGPD, das nennt sich generative künstliche Intelligenz.
Das heißt, es wird das neues Geschaffen generiert und das wird basierend aus verschiedenen Texten aus der Vergangenheit generiert.
Und das ist jetzt einmal ganz wichtig zu verstehen, auch wenn wir später vielleicht über die positiven oder vielleicht auch die negativen Aspekte davon reden.
Das sind alles Texte, die wir vermutlich in der Vergangenheit einmal geschrieben haben.
Das mögen tolle Trauerreden sein auf der einen Seite oder vielleicht irgendwelche Propagandatexte oder Fake News auf der anderen Seite.
Aber man kann sich das vorstellen, das ist das Datenseit, mit dem wir arbeiten, mit dem die KI quasi lernt.
Und wir Menschen, also da waren auch noch menschliche Hilfe dabei, trainieren sie, indem wir sagen, dieser Text, der es quasi generiert worden ist,
der war es gut, der war nicht so gut, das war es richtige Antwort und das war keine richtige Antwort.
Das heißt, die ganze KI basiert quasi auf unseren Vergangenheitsdaten, auf den ganzen Informationen, die wir in der Vergangenheit in dem Fall ins Internet gestellt haben.
Also gibt es verschiedene Datenquellen, die verwendet worden sind.
Wenn Sie umsagen, meinen Sie jetzt nicht, sie individuell und mich individuell, sondern ...
Wir alle, wir alle als Menschheit, genau, richtig.
Und die Forschenden am Anfang, aber jetzt im Grunde auch, wir alle trainieren diese KI weiter, indem wir dann sagen gehen,
das war ja nicht so eine gute Antwort oder nicht so eine gute Antwort.
Also ich glaube, so kann man das vielleicht gut zusammenfassen.
Und wie gesagt, das ist halt das Spannende.
Es passiert es halt ursprünglich alles auf unseren Texten.
Und wenn wir jetzt vielleicht ein bisschen vorausschauen darf, wie wird denn das dann in diesen nächsten 1, 2, 5 Jahren sein,
wenn wir jetzt lauter Texte mit der KI generieren, die dann wieder die nächste Basis ist, für die weiteren Texte.
Das heißt, es wird ein relativ spannender Mittelwert, ein relativ schlechter Average-Durchschnitt werden.
Also, aber das kann man wahrscheinlich später noch weiter ...
Lassen Sie uns noch weiter oder reden wir über, sagen wir nicht brauer Rede, sagen wir Hochzeitsansprache,
das ist ein bisschen netter, aber wie entsteht eine solche Hochzeitsansprache?
Also ich nehme an, meine Tochter heiratet jetzt im September, mir folgt nichts gescheites ein.
Wie würde ich das machen?
Ich speise den Chatbot mit Informationen über das Brautbaar, ihre Geschichte.
Wünsche mir noch, was ist nicht, einen optimistischen, freundlichen, humorvollen Tonfall.
Und dann, wie macht der Chatbot das?
Man saugt sich diese Maschinen aus den Millionen Hochzeitsansprachen, die im Internet vielleicht schon zu finden sind,
etwas heraus und macht den Bestilat der Besten.
Soziell kann?
Ja.
Ingefähr.
Aber im Grunde, das Ganze passiert auf einem sogenannten Large-Language-Model.
Das ist der Begriff für das, was wir auch, dieses GPT 3.5 und GPT 4, kann man ja sagen,
das ist das, was wir da jetzt öfters hören und hören werden.
Und das ist quasi dieses große Modell, was trainiert worden ist.
In der Vergangenheit, das können wir es quasi nicht mehr direkt verändern.
Das heißt, wir können jetzt nicht sagen, ich hätte gerne hier meine zehn Hochzeits reden,
sondern das ist das große Modell, auf dem trainiert worden ist.
Und das ist immer, wird immer die Basis sein aktuell, also mit dem System, den wir arbeiten.
Aber da waren vermutlich schon viele Hochzeitsglug und Schreden dabei.
Und es waren auch zum Beispiel viele Kafka-Texte dabei.
Das kann dich hergehen und den GPT ist eigentlich nur die Oberfläche,
die auf dieses Modell im Hintergrund zugreifen wird.
Und dann sage ich, GPT, bitte schreib mir eine Hochzeitsrede, aber im Stil von Kafka.
Und dann wird das quasi vermischt, basierend auf diesem gelernten Modell im Hintergrund.
Sabine, die Größe, was bedeutet das alles für die Arbeitswelt?
Nun gibt es ja viele Menschen, die ihr Brot damit verdienen.
Ich zum Beispiel auch, indem man Texte, Verfasst Texte schreibt.
Das reicht vom Journalismus über die Werbung.
Dies zu Wissenschafts- und Forschungsbetrieb werden alle diese Menschen,
die Texte, die jetzt oft auch nicht rasend originell und brillant sind,
sondern sagen wir uns ehrlich, immer wieder doch auch dutzend wahre,
werden diese Menschen, die diese Jobs machen, überflüssig ist die eine der großen Ängste.
Wir haben halt Brüber gewitzelt, es wird in Zukunft so sein,
ich werde JPG bitten, aus fünf Stichworten eine schöne E-Mail an einen Arbeitskollegen zu schicken.
Das macht das dann, ich schieke dann eine lange E-Mail dorthin
und der Kollege wird sagen, gefasst mal die in fünf der Stichworten, so baumann.
Und niemand wird diese Texte mehr lesen.
So wie wir jetzt auch unnötige Texte nicht lesen.
Ich war jetzt auf Tagungen auch, wo Unternehmen ganz klar gesagt haben,
dass sie Unternehmensstrategie ausgegeben haben,
durchaus mit dem Tool zu experimentieren und auszuprobieren,
wie man das sinnvoll einsetzen kann.
Ich finde das eben auch sehr spannend, dass du gesagt hast,
also die Frage ist, was passiert denn dann mittelfristig mit unseren Texten?
Nämlich einerseits, wir können ja noch Texte schreiben,
wir haben uns sehr mühsam in der Volksschule und in der Hauptschule der Gymnasium erlernt.
Wenn wir das jetzt überhaupt nicht mehr lernen
und nur mehr quasi eine Second Hand bearbeiten von Texten,
die dann wiederum eine drüber arbeiten bekommen,
dann konvertieren wir alle zu einem sehr einheitlichen unkreativen Mittelmaß,
im Grunde genommen.
Und um jetzt auf die Arbeitswelt zu kommen,
das ist, glaube ich, die Herausforderung.
Keine Technologie kann in vielen Bereichen uns von langweiligen Arbeiten
wiederholen, repetitiven, kognitiv,
vielleicht gar nicht anspruchsvollen Arbeiten bereihen.
Und das wünschen wir uns auch alle.
Aber was in der Regel so dabei passiert ist,
dass wir auch bestimmte andere Kompetenzen möglicherweise verlieren.
Deswegen gehen unsere Piloten, die mit Autopilot aufliegen könnten,
trotzdem regelmäßig in ein Flugsimulator
und deswegen müssen sie auch ihre Flugstunden haben.
Einfach deswegen, weil man sagt,
aha, wir brauchen diese Kompetenzen,
aber nicht nur, weil die Technologie manchmal nicht funktionieren kann,
sondern weil sie nicht in allen Bereichen einsetzbar ist.
Und das wird so die spannende Herausforderung der Zukunft
auf die Arbeitswelt sein.
Alle unsere Jobs werden sich verändern,
weil wir diese Tools vermutlich
in ganz unterschiedlichen Bereichen einsetzen können.
Und die Frage ist aber, wie sind diese Tools gestaltet,
sodass wir es sicherstellen,
dass wir Menschen wichtige Kompetenzen nicht verlieren,
weiterhin in Kontrollen sind,
also auch diese Technologien gut steuern und kontrollieren können.
Und auch vor allem dann am Ende des Tages
und darauf käme es ja an zu einem besseren Ergebnis kommen.
Also die Qualität des Arbeitsergebnisses
soll ja am Ende des Tages besser sein.
Und das hat in ganz vielen Bereichen noch keine KI gezeigt,
dass sie das wirklich im soziotechnischen Kontext,
also in der implementieren,
in der Praxis kann, im Labor, ja, unter kontrollierten Bedingungen.
Aber in der Praxis dann sehen wir,
dass das dann gar nicht mehr so einfach ist.
Ich meine, die große Sorge
ist natürlich der Verlust von Arbeitsplätzen.
Und das ist kein neues Thema.
Mit jeder Automatisierung ist dieses Problem aufgetaucht,
wie viele Menschen verdienen ihren Job,
weil die Maschine das schneller kann,
weil die Maschine profitabel ist und so weiter.
Und nun haben wir sozusagen eine neue Automatisierungswelle,
wenn man es aus dieser Perspektive sehen will.
Aber das ist die eine Seite.
Und es gibt eine Studie von David Orter,
das ist ein Ökonom an der MIT,
der sich seit langer Zeit mit Automatisierung
und den Auswirkungen auf die Arbeitswelt beschäftigt.
Und David Orter sagt, also man muss unterscheiden,
Automatisierung, ja, die wird weitergehen.
Er sagt aber auch, die Produktivitätssteigerung
von Automatisierung wird sehr überschätzt.
Das heißt also, die Automatisierung wird nicht so viel Produktionsgewinne bringen,
wie man gerne präsentiert.
Und worauf es ankommt,
und das ist der wichtigere Punkt hier, glaube ich,
gelingt es, mithilfe dieser KE-Arbeitsplätze zu schaffen,
wo neue Fähigkeiten entstehen, wo neue Aufgaben entstehen,
wo Menschen uns die KE ein neues Verhältnis miteinander auch schaffen müssen.
Und das sagt, das sind die Arbeitsplätze der Zukunft.
Und darauf müssen wir hinarbeiten.
Das heißt aber auch, dass wir bereits in der Ausbildung,
in den Schulen, in zukünftigen Berufsbindern
ziemlich radikal umdenken müssen.
Und auch offen sind für völlig neue Berufe
und Aufgabenstellungen, die wir uns heute gar nicht vorstellen können.
Und das ist nicht nur Science-Fiction, also wir müssen ernsthaft daran arbeiten.
Aber ich halte es für wichtig,
dass wir das auch so in einem größeren historischen Kontext sehen.
Ja, Arbeitsplätze werden verloren gehen,
das ist in der Vergangenheit auch passiert.
Niemand kann sagen, wie schnell es gelingen wird, neue zu schaffen.
Das sind sich die Ökonomen einig.
Es werden neue geschaffen, aber niemand weiß, wie schnell.
Aber worauf es ankommt, sind diese neuen Aufgabengebiete,
Profile von Arbeitsgebieten,
von denen wir heute auch gar nicht wissen, wie sie aufsehen werden.
Bis jetzt war es ja in der Wirtschaftsgeschichte eigentlich immer so,
dass Revolutionen in der Technologie,
vielleicht von der industriellen Revolution angefangen,
bis zur Digitalisierung von heute,
vielleicht kurzfristig Arbeitsplätze gekostet haben,
aber langfristig ein interessantes Phänomen.
Niemand weiß genau, warum.
Aber langfristig sind letztlich immer gleich viel
mehr neue Arbeitsplätze in anderen Sektoren neu entstanden.
Also die Massenarbeitslosigkeit von der vor fünf bis zehn Jahren,
noch die Rede war das uns die droht, die haben wir nicht.
Allerdings, das ist der Pferdefuß dieser Entwicklung jetzt.
Es gibt auch diese schlecht bezahlten Arbeiten,
die leider auch mit der neuen KI kommen.
Es sind Leute, die dann auf einen Knopf drücken müssen,
drückt stundenlang auf einen Knopf.
Für die Entwicklung der KI, das ist ein berühmtes Beispiel,
sind in Kenya schlecht bezahlte Kenyana eingesetzt worden,
um Tag und Nacht die notwendigen Trainingsarbeit zu erledigen,
wie Johanna sehr gut weiß.
Also diese Schattenseite muss man auch sehen.
Also wir müssen vermeiden,
dass wir dann abgehalten und das, was die Maschine nicht machen kann,
weil es immer noch irgendwelche Handgriffe braucht
und diese also schlecht bezahlten manuellen Tätigkeiten brauchen.
Und das müssen wir vermeiden.
Nicht weil ansonsten haben wir auf der einen Seite
sehr gut ausgebildete Menschen, die dann wissen,
wie man das auch kreativ nützen können.
Und auf der anderen Seite haben wir also so wie die Leute,
die halt unser Essen mit dem Fahrrad ...
Sehr prekäre Jobs.
Ja, und das muss man vermeiden.
Johanna Birka.
Ja, also ich kann das nur unterstreichen.
Also wenn wir zurück schauen, also auch in die jüngere Vergangenheit,
also die Einführung vom Internet, die Einführung von den PCs,
für uns alle, das war immer mit Ängsten verbunden.
Was wir tun das mit uns als Gesellschaft,
dann wird das Jobs wegnehmen usw.
Und in Wirklichkeit, jetzt haben wir dann den PC gekriegt,
also ich habe mal alle viel mehr Jobs mit,
mit dem Benutzen des PCs gekriegt.
Jetzt haben wir halt innerhalb vom PC noch ein Zuhause-Kistool mit der KI.
Das wird eben auch ganz viele neue Möglichkeiten generieren
und auch Jobs schaffen, die wir gar nicht kennen noch.
Und ich kann das jetzt nur zum Beispiel für mich als Forscherin.
Es wird für mich sehr viele von meinen Tätigkeiten ersetzen.
Ich bin eigentlich sehr dankbar drüber,
weil ich kann mich auf das, was mich als Forscherin ausmacht,
auf das Denken, auf das Erarbeiten von Experimenten,
von Entwicklung von neuen Forschungsergebnissen beispielsweise konzentrieren.
Und ich kann die KI bitten, das gut, sinnvoll, leichtverständlich zusammenzufassen.
Aber ich kann das nicht so gut schreiben vermutlich
und kann dann viel mehr Forschungsergebnisse z.B. am generieren.
Das würde ich nie öffnen.
Das würde ich nie öffnen.
Das wollen wir nicht gewößen.
Das wollen wir nicht gewößen.
Bitte sehr, Frau Kösse-Gisbel.
Ich wollte noch etwas zu dieser Transformation sagen.
Ich glaube schon, dass man in der Öffentlichkeit das ein Stück weit auch naiv darstellt.
Also, wenn Sie sich vorstellen,
wir haben Menschen, die als Sachbearbeiterin in Unternehmen gearbeitet haben
und Tag ein, Tag aus Kundenanträge bearbeitet haben, ein und ausgegeben haben,
die werden jetzt nicht prompt engineers werden,
weil das eine neue Berufsgruppe ist.
Die wissen nicht einmal, was prompt engineering bedeutet.
Die kann man auch nicht dorthin umschulen.
Das heißt, es wird eine Gruppe von Menschen geben.
Und das ist tatsächlich bei allen bisherigen technologischen Revolutionen der Fall gewesen.
Es wird eine Gruppe von Menschen geben, die kann man nicht abskellen oder umschulen,
sondern es wird so sein, dass wir uns eine Gruppe von Menschen auch tatsächlich kümmern müssen.
Also, politische Aufgabe, was machen wir?
Das ist so dieses eine Thema, was ich sehe.
Und dann gibt es noch ein zweites Thema.
Nämlich schauen Sie, wo Sie mit KI-Technologie automatisieren können
und diese Produktivitätsgewinne überhaupt erzielen können.
Und das ist bei kognitiven Aufgaben.
Und das ist aber nicht bei allen Aufgaben,
die zum Beispiel soziale Kompetenzen benötigen, Interaktion etc. benötigen.
Dort, und das sind aber, wie wir wissen, das sind die Bereiche der Pflege zum Beispiel,
das sind die Bereiche des Unterrichtens, des Lehrens, des...
...alle sozialen Bereichen im Grunde genommen.
Dort werden keine Produktivitätsgewinne durch KI erzielt.
Wo gehen aber die Produktivitätsgewinne hin, die wir durch KI erzielen?
Das heißt, wenn wir nachhaltig in unserer Gesellschaft dieses Problem lösen müssen,
müssen wir auch an eine Umverteilung denken.
Wir müssen uns überlegen, wie wir die Arbeit, die wir nicht automatisieren können und wollen.
Übrigens, wir wollen auch viele Bereiche gar nicht automatisieren,
wie wir die in Zukunft bewerten und wie wir sie finanzieren.
Und das ist, glaube ich, schon eine sehr wichtige Frage, wo die Politik heute gefordert wäre,
sich jetzt am Beginn, wir sind mittendrin, aber vielleicht noch in einer Zeit,
wo wir noch Zeit hätten, uns jetzt Konzepte zu überlegen.
Und in Schweden zum Beispiel, da gibt es jetzt, da kann man sich jetzt schon jeder, jede kann sich in Schweden
ein Jahr Bind ums Kerenz nehmen und sich umschulen lassen.
Das ist eine Einladung der Regierung dort an die Menschen.
Liebe Leute, tut's was, macht's was, weil wir brauchen bestimmte Kompetenzen
und wir gehen das jetzt proaktisch an.
Aber ich verstehe Sie richtig, was würde bedeuten, dass die großen Firmen und Konzerne,
die große Renditen erzielen mit dem Einsatz von künstlicher Intelligenz,
entsprechend mehr zur Kasse gebeten werden müssen, um etwa die vielen sozialen Tätigkeiten und Berufe,
die ja immer notwendiger werden, auch Eralterung der Gesellschaft und so weiter, zu finanzieren.
Dafür plädieren Sie, habe ich Sie da richtig verstanden.
Noch viel grundsätzlicher, wir reden ja viel, wir werden die Arbeit verlieren in Wahrheit,
welche Arbeit werden wir verlieren.
Wir haben ja bezahlte Arbeit und wir haben unbezahlte Arbeit.
Und die unbezahlte Arbeit ist ungleich verteilt.
Die schätzen wir auch nicht.
Das ist aber die, die wir in der Pandemie als essentielle Arbeit und Systemerhalterinnenarbeit genannt haben.
Und im Grunde genommen sind wir jetzt an einem Punkt, wo wir sagen können, was ist eigentlich Arbeit,
was bewerten wir als Arbeit, was schätzen wir.
Und das, was wir schienen können, ist, ist das wirklich noch so wichtig,
dass wir das so hoch einschätzen müssen und so hoch bewerten müssen, so wie wir das aktuell tun.
Im Moment sind ja technische Jobs viel höher remuneriert als alle Jobs in der Sozialbranche.
Und das sind die Fragen, die wir uns stellen müssen.
Ich würde gerne noch das Bildungsthema, das schon ein bisschen angeklungen ist, noch ein bisschen vertiefen.
Wenn es so ist, dass künstliche Intelligenz, ganz brauchbare Gebrauchstekste schreiben kann,
was bedeutet das Rutschschulterer für die Schulen, auch für die Universitäten.
Ich stelle mir jetzt vor, ich habe eine Doktor, ich erinnere mich noch genau an die Redeübung über Murmeltiere,
die sie in der Volksschule gehalten hat.
Jetzt musste sie eine Redeübung halten über den armen Poeten von Spitzweg, also schon in der Unterstufe.
Da musste sie sich zwei, drei Stunden am Nachmittag hinsetzen und sich dieses Spitzweg-Bild anschauen
und dann ein bisschen was aussuchen über den Spitzweg und über Spiedermeier
und dann halt eineinhalb Seiten zusammenfassen, die sie dann präsentiert hat.
Ich stelle mir vor, wenn sie die Redeübung im September halten muss, jagts das durch die KI,
da kommt tolle Redeübung raus und die muss man nur noch vorlesen.
Wo wird meine Tochter in Hinkunft noch das Verfassen von Text-Win lernen
und wie kann man das im schulischen Alltag entbauen?
Also ja, ich glaube, es ist ja so, dass sich die Technologie ändert.
Also gewisse Arten von Fähigkeiten braucht man dann vielleicht gar nicht mehr so viel
und trotzdem würde ich jetzt gerade auch als Journalistin sagen,
also beim Schreiben, da geht ja sehr viel mehr vor, als dass man einen Text kreiert.
In der Schule wird es ja verwendet, zum Prüfen auch oder diese Übungen umzuzeigen.
Ich habe mich mit einem Stoff auseinandergesetzt.
Das ist so der Hintergrund, das sind meine kritischen Gedanken dazu.
Und natürlich, wenn ich das bei Knopfdruck generiere, dann habe ich nichts dabei gelernt
und das geht uns ja eigentlich um die Kinder, nicht um die Texte sozusagen.
Aber ich habe von leeren, interessanten Ideen gehört, die zum Beispiel auch Uni-Professoren,
die sagen, sie haben ihren Studenten, Studentinnen gezeigt,
ihr müsst eure Abschlussarbeit mit KI verfassen
und ihr müsst aber präsentieren, dann nicht die Abschlussarbeit allein,
sondern wie seid ihr dabei vorgegangen
und auch wo waren die Fehler, denn das dürfen wir nicht vergessen,
wenn wir sagen, Kognitive Arbeit wird ersetzt.
Teil von diesem generativen Prozess ist es ja einfach immer,
das praktisch das nächste Wort zu generieren
und manchmal kommen einfach Sachen raus, die überhaupt nicht stimmen
und nicht nur so, dass die Sachen irgendwo falsch im Datenmaterial waren
und deswegen falsch in den Text kommen, sondern die KI denkt sich das sozusagen aus.
Das ist eine schlechte Umschreibung, aber genau.
Und deswegen ist es sehr interessant, damit zu spielen, glaube ich,
und wenn man dann rausfindet, okay, ich kann das produktiv nutzen,
aber ich muss es fact-checken und ich muss schauen,
warum macht die KI in dem Bereich Fehler und was kann sie gut und was nicht
und was fehlt denn eigentlich eben,
weil wenn alle Schüler denn nur einen Satz eingeben
und dann geben alle das Gleiche ab, dann bringt sie natürlich nichts.
Aber ich glaube, manche Leute gehen da recht proaktiv heran,
manche Lehrpersonen und ich glaube, das ist dann auch sehr spannend.
Also das ist bereits an vielen Universitäten, wird damit ausprobiert.
Wie kann ich mit meinen Studierenden in einer produktiven, kreativen Weise umgehen?
Und es eröffnet uns auch völlig neue Forschungsfragen.
Ich habe vor kurzem mit einem Kollegen aus der Mathematik gesprochen,
der GPT-4 eingesetzt hat, um ein bestimmtes Problem in der Allgebar zu lösen
und die Maschine macht das recht.
Gut macht manchmal auch Fehler, aber er sagt,
ein guter Mathematiker würde ähnliche Fehler machen.
Aber und das ist das Spannende.
Die Maschine kommt auf anderem Weg zur Lösung,
als das ein Mathematiker machen würde.
Und das eröffnet eine spannende Frage.
Liegt das an unserem Gehirn?
Inwiefern funktioniert unser Gehirn anders als die Maschine?
Oder hängt es damit zusammen,
dass wir einfach einen Mathematikfeld ja auch nicht vom Himmel,
bereits die Babylonien haben, Mathematik erfunden,
die Chinesen haben Mathematik erfunden
und wir haben einfach eine historische Entwicklung auf,
der Art und Weise, wie wir Mathematik betreiben.
Und das sind für bestimmte Pfade gegangen
und andere Pfade hätten wir gehen können,
sind die aber nicht gegangen.
Und das sind spannende Fragen.
Und ich glaube, bei Texten oder wie wir jetzt mit Sprache umgehen
oder wie wir uns ein neues Thema einfallen lassen,
also die Maschine fordert uns dann heraus,
weil sie bestimmte andere Wege einschlägt,
als wir das als Menschen machen.
Und ich glaube, das ist faszinierend, sich damit auseinanderzusetzen.
Und das eröffnet ja auch neue, interessante Möglichkeiten,
die da kreativen, wenn man so richtig sagt,
von Mensch und Maschine, beide zusammen, dann noch mehr auf.
Genau, und ich glaube gerade, wenn man Kindern und Studierenden
sozusagen die Motivation mit gibt, also probiert das aus, spielt damit.
Dann, glaube ich, macht das auch Freude und Spaß
und dann entdeckt die auch, ich kann damit spielen
und ich kann Freude damit haben.
Und wir lernen das dabei.
Ich glaube dazu, zum Text ist noch wichtig zu sagen,
dass natürlich in diesen Texten, also wenn ich einen Text schreibe,
dann steckt da meine Weltanschauung drin.
Und die ist sehr geprägt von meinem individuellen Erleben.
Und so als ich schon eines bin, als ich eine Frau bin,
ich glaube, ich schreibe über gewisse Sachen anders.
Als ein Kollege, der mein Leben gelebt hat in einem männlichen Körper.
Da geht ja auch die Maschine ganz anders vor
und man sieht das vor allem bei der Bildgenerierung,
dass da oft sehr klischeehafte Bilder, gerade von Frauen dargestellt werden,
dass sie sehr sexualisiert sind.
Und ich glaube, das ist auch wichtig, dass man sich überlegt,
wenn man jetzt eben die Maschine das kreieren lässt,
woher kommen diese Verzerrungen eigentlich?
Weil die Maschine sieht ja nicht, die hat ja keinen direkten Zugriff auf die Welt,
sondern wie schon gesagt, eben wiederverwertet das, was schon publiziert ist.
Und ich glaube, das ist auch wichtig zu sehen,
dass man eben, wenn man selber was produziert,
einen eigenen Blick auf die Welt hat und sich dann auch konfrontiert,
warum werden genau solche Bilder von Frauen gezeigt?
Und wollen wir das?
Und da ist eben auch die Frage, in welchem, wenn man das einsetzt,
dass man schon sehr bewusst sich überlegt,
welche Vorurteile reproduziert man damit auch?
Ich würde da gerne nämlich, weil ich das so wahnsinnig wichtig finde,
hier noch einmal darauf hinzuweisen.
TATTPD ist ein Wahrscheinlichkeitsmodell.
Sie können sich das ungefähr so vorstellen,
wie in der Volksschule einen Lückentext,
da ist jedes zehnte Wort ausgelassen,
und dann weisen Sie die Maschine an,
suchen wir jenes Wort,
das in dieser Wortreinfolge, die schon da steht,
mit höchster Wahrscheinlichkeit da reinkommt und schreibt das rein.
Und genau das tut TATTPD.
Und dieses System weiß nicht, das versteht nicht,
das ist ein Wahrscheinlichkeitsverarbeitendes Rechenmodell.
Ich suche das wahrscheinlichste,
vielleicht auch abgegriffenste Klischeehafteste Wort, nein.
Natürlich, das ist gehäuschiger.
Ja, das nächste Wort.
Das wahrscheinlichste Wort, das ist das nächste, das kommt, das nimmt es.
Das nimmt es.
Und das macht es natürlich in dem Kontext,
in dem wir vorgeben und in dem Kontext,
wo sie diese Wörter auch findet.
Natürlich sucht sie dann in entsprechenden Texte,
wo diese Schlüsselwörter vorkommen,
aber es berechnet Wahrscheinlichkeiten.
So, und jetzt finde ich, was dann passiert ist,
wir tun uns dann wahnsinnig schwer,
über KI's zu reden und sagen,
die Maschine geht einen anderen Weg,
die Maschine rechnet nach einer anderen Logik.
Wir Menschen sind Sinnversteher.
Wir suchen nach Sinn.
Wir wollen verstehen, was uns um uns herum passiert
und wir wollen uns die Welt erklären.
Und wir erklären uns die Welt entweder mit Ursache und Wirkung
und wenn es das nicht gibt, dann erklären wir uns die Welt mit Absicht.
Andere Menschen sind ja für uns auch Black Boxes, ja.
Ich kann ja auch nicht in dich hineinschauen.
Und deswegen, wenn du irgendwas sagst,
oder die Hand hebst, dann weiß ich,
ah, du möchtest jetzt was sagen, genau.
Das heißt, ich interpretiere die Absicht, ja.
Und genau das tun wir mit KI-Maschinen.
Wir anthropomorphisieren sie,
das heißt, wir vermenschlichen sie
und schreiben ihnen plötzlich etwas zu, was sie nicht haben,
nämlich keine eigene Motivation, keine Kreativität,
keinen eigenen Willen.
Auch keine Intelligenz.
Keine Intelligenz, genau.
Nein, sie sind nicht tug.
Sie sind nur wahnsinnig leistungsfähige Rechenmaschinen,
die mit ganz vielen Daten trainiert sind.
Und ich glaube, das ist wichtig zu verstehen.
Wir müssen auch in unserer Sprache wieder daraus aufpassen,
dass wir diesen Maschinen nicht etwas zuschreiben,
was sie nicht sind.
Und das Spannende ist bei AlphaGo, zum Beispiel, hat man das gesehen.
Also, wenn wir dieses Black Box haben
und wir versuchen, wir müssen unsere Wälder einfach erklären können,
sonst können wir nicht leben in dieser Welt,
weil wir ja auch ein Stück weit vorher sagen müssen,
was als nächstes passiert.
Und deswegen tun wir Black Boxes eben mit Absichten interpretieren.
Und als man zum Beispiel AlphaGo,
diese Kommentare als die,
die gegen Lise Doll gewonnen hat,
das hatte man nicht geglaubt, dass das passieren kann.
Dieses Go, dieses Strategiespiel, noch viel komplexer als Schach.
Und da hat eine KI relativ in kurzer Zeit sich das Spielen selbst beigebracht
und hat dann in vier von fünf Spielen gegen den absoluten Weltmeister in Go gewonnen.
Und die Menschen haben das verfolgt und kommentiert.
Und wir können an Spielzüge einer KI nicht anders beschreiben.
Wir können das nicht, weil das mit unserem Hirn,
mit unserer sozialen Konkretion auch gar nicht anders funktioniert,
wenn wir interagieren, als dieser Maschine dann menschliche Eigenschaften zuzuschreiben
und dann so etwas zu sagen, ah, das war jetzt ein kreativer Zug.
Wenn wir eine unerwartete Rechenleistung bewerten wollen.
Und ich glaube, das ist ganz, ganz wichtig.
Ich glaube, das verursacht bei vielen Menschen so die Vorstellung,
das Ding weiß vielleicht tatsächlich etwas, was ich nicht weiß,
aber Wissen tut es nicht.
Zum Thema Intelligenz.
Alle Experten sind sich einig,
wenn wir heute einen Namen wählen würden.
Das schlimmste und schlechteste Ergebnis wäre es,
künstliche Intelligenz zu nennen.
Also ein interessanter Vorschlag, den ich gehört habe, war usefulness.
Was ist gut benutzbar, gut brauchbar?
Also künstliche, für uns nützliche Geräte, wie immer man sie bezeichnen bin,
aber dass wir die Frage stellen, was bringt es uns?
In der letzten Endes soll ja jede von Menschen geschaffene Maschine,
Werkzeug und so weiter, soll den Menschen dienen
und wir sollen nicht ein Appendix dieses Werkzeugs werden.
Und das, glaube ich, muss man sich auch in Erinnerung rufen
und daher wegkommen von dieser Fixation Intelligenz
und wir kommen ja jetzt auch drauf, wie sehr wir unsere menschliche Intelligenz
mit anderen Lebewesen teilen.
Jedes Bakterium, kann man sagen, ist insofern Intelligenz,
weil es überleben muss.
Also es muss Strategien entwickeln, wie überlebe ich.
Heute kollektiv, das Bakterium macht es im Großkollektiv.
Da gibt es viele verschiedene Strategien.
Die Organismen leben ja auch in unterschiedlichen Umwelten und so weiter,
aber jedes Lebewesen hat eine Strategie zum Überleben entwickeln.
Sonst gäbe es sie heute nicht, Punkt.
Und das heißt, sie haben eine Form von Intelligenz.
Also Intelligenz ist ein enormes Spektrum
und wenn wir jetzt maschinelle Intelligenz einordnen wollen, was macht die Maschine,
dann ist das ein kleines Stückchen auf dieser menschlich organischen Lebewesen,
Intelligenz zu überleben.
Die Maschine will ja nicht überleben, die kann ja gar nicht überleben,
die weiß ja nicht, was überleben ist,
weiß auch nicht, welche Strategien notwendig sind, um zu überleben.
Also insofern glaube ich,
ich schließe es nicht nur die Anthropomorphetendenz ist da,
aber ich glaube, wir müssen uns auch verabschieden von diesem Begriff
der Intelligenz und das einer Maschine zuschreiben.
Johanna Pirke, ich würde gerne noch einen Aspekt
weiterführen, den Rotfutterer angesprochen hat.
Eigentlich die Inhalte, die solche Maschinen generieren,
sind die Inhalte, wie immer sie jetzt zustande gekommen sind,
sind in der Regel nicht neutral,
sondern drücken schon, wir nennen das Ideologismen aus.
Ich frage ein bisschen zugespitzt,
inwieweit würden sie meinen, drückt sich in Chatbots
und anderen Produkten der künstlichen Intelligenz,
wir haben doch keinen anderen Namen,
mal Probehalber weiter so,
was drückt sich ideologisch oft in den Hervorbringungen
der KI aus?
Ist es das Weltbild nördiger, weißer, Männer
mit entsprechenden Frauenbilden unter Umständen,
oder ist es neutraler, inhaltlich, was da herauskommt?
Ich sperrnte das gleich.
Ich glaube, ein Spoiler wird schon gehen,
welche Richtung wir Antwort geben können,
aber ich würde diesen Intelligenzbegriff
ganz kurz noch mal unterstreichen wollen,
weil das ist so wichtig, dass wir verstehen,
dass das Wort Intelligenz wirklich in unserem Sprachgebrauch
einfach ganz was anderes bedeutet,
was diese Maschinen können,
und ob das ein System ist,
was auf der Wahrscheinlichkeitstheorie basiert,
oder Logixysteme,
oder es war damals, ich glaube, es war der Kasko,
das war ein Meilenstein,
ein KI-System, also wir sagten immer KI,
wir waren zum ersten Mal auch den Schachweltmeister,
besiegen, konnte,
und er damals sagte,
das ist eine ganz neue Art von Intelligenz da,
in diesem Tisch,
aber es ist halt was anderes,
es ist nicht das Klassische, was wir kennen,
ich glaube, das ist schon wichtig,
dass wir da erstens unterscheiden anfangen,
was kann es, was kann es nicht,
wie funktioniert es, wie funktioniert es nicht,
und deswegen vielleicht,
um da die Brücke zu schlagen,
eben, wir wissen,
das basiert halt sehr viel auf unseren Daten,
und es ist leider unsere,
es ist halt gerade historisch gesehen,
sehr sexistisch,
sehr rassistisch,
alle ISM, Averism, Erasism, Sexism,
finden sich in den Texten,
in den Bildern und so weiter,
die generiert 1S,
und gerade am Anfang,
also wenn ihr selbst Experimente gemacht habt,
mit den bildgenerierenden Tools,
wie Mitjourn jetzt zum Beispiel,
ja, die Bilder,
die generiert werden,
sind stark sexistisch zum Beispiel,
wenn man an einer weiblichen Person fragen wird,
also, sie haben dann alle sehr, sehr große Brüste,
wenn man sagen kann,
sie haben die Welt,
die klassischen, sexistischen Bilder,
die wir uns eigentlich,
jetzt seit Jahren, wir uns dagegen streuben,
und das ist halt so schade,
dass da nicht mehr dagegen gemacht wird,
das gleiche im Bereich Rassismus.
Ich habe ein ganz blödes Beispiel,
ich habe nach einem, nach Gamer gesucht,
ein Gamer, weil aus dem Spielebereich kommt,
und was rausgekommen sind,
sind sehr junge Männer,
die irgendwo im Keller sitzen, und ein Org.
Aber da war halt keine, keine einzige Spielerin,
keine Gamerin dabei.
Und da muss man sagen,
da wird sehr stark daran gearbeitet,
also da kann man als Mensch intervenieren,
das heißt, dass die Algorithmen
so formuliert werden,
dass man das bitte repräsentativ darstellt,
für oder idealistisch darstellt.
Das heißt, ja, es gibt zum Beispiel
aktuell nicht so viele weibliche Informatikerinnen,
aber wenn man
ein idealistisches Weltbild
in dem Fall generiert,
und trotzdem zwei von vier
weibliche Personen da darstellen würde,
dann sind das wieder Rollmodels,
Vorbilder für unsere Zukunft,
wie wir sie haben möchten.
Und deswegen ist es, glaube ich, ganz wichtig,
wenn man jetzt mit diesen Texten generiert,
und wenn man Bilder generiert,
dass die Personen im Hintergrund,
also in dem technischen Bereich,
intervenieren können
und nicht unsere nicht so tolle Vergangenheit
wieder nachbildert, sondern sie leist
eine positive für Zukunft bildert.
Das ist das, was ich mir wünschen würde.
Ich würde sagen, genau das ist es,
es hält uns einen Spiegel vor.
Welche Ideologie
haben wir?
Was haben wir bisher als Frau
angesehen oder was immer wir suchen?
Und es ist dieses Spiegel.
Und wenn wir lernen,
kritisch diesen Spiegel zu befragen,
dann können wir eben
sagen, also das war
die alles Vergangenheit, nicht die Texte,
die Bilder sind alles Vergangenheit,
wir können uns eine andere Zukunft vorstellen.
Und das ist das,
was wir, glaube ich, auch in der Bildung
und in
die Art und Weise, wie wir junge Menschen
da heran führen,
was wir vermitteln können.
Das ist Vergangenheit, es ist der Spiel,
die zeigt nur, was in der Vergangenheit
bisher unser Weltbild war.
Und wenn wir ein anderes wollen,
müssen wir daran arbeiten.
Aber wie kann man da eingreifen
und allzu klischierte
Bilder korrigieren macht,
macht man das auch,
indem die Programmierer
dieser Chatbots Algorithmen ändern
und ich stelle mir das jetzt
neu vor, Quotenregelungen
einführen, auch in der KI,
was Gender, Race und so weiter betrifft.
Oder muss man das machen, indem man den Pool,
aus dem sich die KI bedient,
einfach mit anderem Stoff füttert.
Ein Manzipator,
man kann es sich eigentlich wie diese Quoten
vorstellen, dass man das
Ausgabebild quasi,
die Ausgabebilder dann dementsprechend
nach verschiedenen Regeln
ein bisschen optimiert.
Ich finde das schon wichtig, natürlich,
das Spiel ist wichtig,
nur glaube ich, dass wir
eher in die Richtung
Role Models und Vorbinder
schauen müssten,
weil nicht alle reflektieren.
Das heißt, im Lehrmodus
sind aufsichtspersonen,
zum Beispiel ein Lehrperson,
die mit den Bildern durchgeht
und sagt, was ist daran falsch.
Mit Studierenden haben wir das
letztens als Aufgabe gemacht
und sie haben dann verschiedene Bilder
generiert und dann versucht,
auch historisch akkurate Bilder zu generieren.
Und das, was halt passiert ist,
am ersten, es war sehr viel Sexismus
und sehr viel Rassismus dabei
und sie waren auch nicht historisch korrekt,
aber es schaut trotzdem sehr richtig aus.
Das heißt als gefährlicher,
die Texte klingen so richtig,
die Bilder schauen so richtig aus.
Das heißt, wenn wir natürlich
können, wir dann mit einer Person,
die eine Expertenrolle da einnimmt,
dann darüber reden,
aber nicht alle haben den Luxus,
diese Expertenpersonen nehmen sich dabei zu haben,
diese Supervision.
Deswegen glaube ich, dass wir doch eher
mit den Bildern arbeiten müssten,
die gut für uns wären.
Das ist eine sehr spannende Frage,
wenn sich das in einer Hinsicht ist,
wir interagieren ja mit diesen Systemen auch.
Ich bin ja in der Robotikforschung
und ich bringe das Beispiel Siri,
weil das kennen ja jeder.
Und jetzt stellen Sie sich vor,
Sie haben so ein Assistenzsystem,
also so ein Sprachassistenzsystem wie die Siri
und die Siri, egal wie sie die fragen,
ob sie jetzt nicht zu der sind
oder nicht, die antworten,
die man sehr höflich zurück.
Was lernen die Nutzer erinnern?
Ich kann die Siri beschimpfen
oder trotzdem immer die Fragen
auf diese sehr höfliche Art und Weise.
Und jetzt beobachtet man,
dass man das natürlich dazu führt,
dass man sich dann gar nicht mehr so bemüht,
eigentlich in der Interaktion.
Und die Frage ist jetzt,
und das ist wirklich eine Designfrage,
bei Siri hat man das ja mittlerweile gemacht,
ursprünglich, wenn man zu Siri sagte,
du bist eine Schlampe,
sagte sie, oh, ich würde erröten,
wenn ich könnte.
Mein Podcast macht kurz Pause.
Hate Speech dagegen hört nicht so einfach auf.
Wer hat dir überhaupt erlaubt
zu Reden, Schlampe?
Verzieh dich in die Küche, bevor ich herausfinde,
wo du wohnst und dir persönlich Danke sage.
Hör nicht auf die Hater.
Du machst einen richtig guten Job
und wir stehen alle hinter dir.
Wir alle entscheiden,
ob wir das Netz dem Hass überlassen.
Werde Teil der Telekom-Initiative gegen Hass
im Netz und setze ein Zeichen.
Telekom.
Das war die Standard Antwort.
Das nennt man dann
Easter Eggs.
Das haben sich die Programmiere so ausgedacht,
dass das dann im Lustig wäre,
wenn sie dann so antwortet.
Und in Wahrheit ist das unglaublich sexistisch.
Jetzt stellen sie sich aber vor,
wie ändern das?
Und die sagt, na herrst, oder?
Wie redest du mit mir?
Ich meine, eigentlich wäre das so ein Mensch,
würde vielleicht so genau so
eine angemessene Rückmeldung.
Wer würde sich solche Systeme kaufen,
die dann auch
einer einmal so korrigieren,
indem, wie man ist,
natürlich funktioniert das eben nicht so einfach.
Das heißt,
das, was wir in der Interaktion
mit Menschen durchaus erlernen,
nämlich sozialen Normen,
indem wir einfach miteinander agieren,
ist in die Implementierung
von interaktiven Systemen schon schwieriger.
Und jetzt komme ich zum zweiten Aspekt,
den ich hier spannend finde.
Ich habe zum Beispiel Dali
von OpenAI gefragt,
dass ich einen Vortrag gehalten habe
für die Gewerkschaft.
Es möge mir ein Bild generieren
für den Vortrag,
und zwar eine dystopische Zukunft
von Arbeit und KI.
Und Dali hat mir gesagt,
nein, dieses Bild generiert
mir das System nicht,
weil das entspricht nicht der Polizie
von OpenAI.
Das heißt, ich habe einen
Zensualkorb und
eine Zensur bekommen.
OpenAI hat beschlossen,
bestimmte Bilder darf ich mir nicht
vorstellen,
oder darf sich OpenAI nicht vorstellen,
und ich darf das nicht sehen.
Und das ist die nächste Frage,
wer entscheidet denn jetzt darüber,
was wir sagen dürfen und was nicht
und was jetzt angemessen ist
und was nicht.
Und im Grunde genommen entscheiden das jetzt
sehr mächtige Konzerne,
die nicht demokratisch legitimiert sind,
sondern einfach nur wahnsinnig viel Geld
haben
und auf wahnsinnig viel Daten sitzen
und diese Systeme entwickeln können.
Und das
ist im Grunde genommen
jetzt eigentlich auch ein recht
schwieriges Problem zu lösen,
weil OpenAI ist ja angetreten
und hat gesagt,
es hat nämlich früher auch schon Chatbots
gegeben, die so gelernt haben,
wie Tay von Microsoft, wenn man sich
die Stolten vom Netz genommen
werden, weil er so rassistisch war
und so viel Nazi-Propaganda von sich
gegeben hat, dass das unerträglich war.
Und jetzt sagt man,
wir sind aber ethisch, das heißt,
wir regulieren was dieses System davon
und was nicht, wir nutzen dann
Reinforcement Learning und bestrafen
quasi alles unethische Verhalten.
Aber wer entscheidet,
wenn was unethisch ist,
haben wir dann alle
dieselben ethischen Vorstellungen,
haben wir in Europa zum Beispiel
die gleichen Vorstellungen wie die Amerikaner.
Und
wollen wir das,
wollen wir nicht selbst auch bestimmen,
was für uns
ethisch und moralisch ist.
Und dann komme ich jetzt
zu einem wichtigen Punkt,
auch zur Regulierung von KI,
weil wer da denn leiert in Europa
jetzt diese Entwurf auch
hier steht,
es ist,
ich glaube, ein ganz wichtiges
Prinzip für Europa
selbst zu bestimmen
wie diese Technologie aussehen soll
und im Grunde sind diese
Regulierungsvorschriften
Vorschriften darüber,
welche Designs
zulässig sind oder nicht
und welches Stakeholder
Interessen berücksichtigt werden müssen,
damit wir sie im europäischen
Markt zulassen.
Und das ist ein ganz wichtiges
es ist demokratisierend.
Also die Regulierung
nimmt uns nicht weg,
sondern hilft uns
unsere Vorstellungen
dieser Technologie, also über diese
Technologie auch umzusetzen.
Und ja, natürlich
gibt es unterschiedliche Interessen
und auch wir alle sind nicht alle gleich
und haben die gleichen Wünsche an die
Technologie. Aber zumindest
sind wir
über demokratische Prozesse
daran beteiligt,
wie dieses Gesetz am Ende
des Tages aussehen wird
selbst wenn es ein europäisches Gesetz ist.
Bei OpenAI
können wir gar nichts.
Wenn die morgen zutrehen,
dann drehen die TPD zu
und wir können uns 10 mal ausmalen,
wie cool es wäre das nächste Bewerbung
schreiben mit dem System zu schreiben.
Und ein solches Gesetz helfen Sie
uns auch nicht nur auf kurzen Wissen,
die ist EU-weit in Diskussion
aber vielleicht sollte man
das für das Publikum
hier anmerken.
Also die
auf EU-Ebene wird ja schon seit
längerem an Regulierung gearbeitet.
Da gibt es verschiedene
Gesetzesteile,
die einen richten sich
an die öffentliche Verwaltung,
zum Beispiel auch Österreich,
bis zum September die Regulierung
umsetzen in österreichisches Recht.
Bis September haben wir nicht mehr
viel Zeit und
die Ministerien streiten noch welches
Ministerium dafür zuständig ist,
wo sich hier auch angeht.
Und der wichtigste
Gesetzesentwurf jetzt
ist gerade
im Europäischen Parlament diskutiert worden,
als
JGPT auf die Welt gekommen ist
und die Welt begeistert hat.
Und insofern hat das
Europäische Parlament dann gesagt,
Moment mal, wir müssen das einbauen.
Und da gab es dann viele
Kompromisse, aber jetzt ist das
in den letzten Tagen im
Europäischen Parlament verabschiedet
sein, muss das noch mal zurückgehen
an den RAS, an
die Kommission, aber dann wird das
rauskommen. Und die Grundeinstellung
ist die, es wird
ein risikobassierter
Zugang gewählt.
Das heißt,
in dieser Regulierung,
in diesem Gesetz steht, es gibt
viele unterschiedliche Risikogruppen,
also man kann sich das vorstellen wie
eine Ampel, also es gibt Rot, es gibt
Orange, es gibt
dann sozusagen wie bei unserer
Covid-Ampel, es gibt
vier Farben und die letzte
Farbe ist also zugänglich.
Die Frage
ist, was ich gut finde
daran ist, dass es flexibel
ist. Man kann die Risiken
dann unterschiedlich bewerten, wenn
sich herausstellt,
was wir jetzt machen, wir
verbieten etwas.
Gesichtserkennung ist etwas, was
im Roten Bereich ist.
Wenn sich aus
irgendwelchen Gründen herausstellen sollte,
die Leute finden das nicht mehr
arg, dann kann das Orange werden
und umgekehrt kann etwas in den Roten
Bereich kommen. Also diese Flexibilität
ist da. Aber es gibt
natürlich ein Kontinuum von Risiken
und jemand muss auch ständig
drauf schauen. Wie
bewerte ich jetzt diese Risiken,
wie implementiere ich das?
Und das ist wie bei jedem
Gesetz immer die Frage,
wie implementiere ich
das Gesetz, wie schaue ich
darauf und was passiert dann, wenn
sich jemand nicht an das Gesetz
hält. Und dann kommen die Sanktionen
dazu und hat
in Europa, die
auf die ökonomische Macht und
den politischen Willen,
ist gegenüber diesen riesigen
ökonomischen
Giganten
in den
USA entgegenzustellen und zu sagen,
wir halten
an unseren Werten fest, an unserer
Regulierung fest. Das ist
eine offene Frage.
Ich würde gerne noch einmal
auf den Bildungsbereich
zu sprechen kommen, weil mir das
wichtig ist. Einige von ihnen
sind ja im
Bildungsforschungsbereich tätig. Sie haben
die Frage, was sie
tun, wenn ich an meine
Studentenzeit zurückdenke.
Da haben wir einen Pro-Seminar
besucht oder ein Seminar. Und dann
war die Aufgabe, schreibe zu
Semestereinde eine 20-seitige
Arbeit über Georg Büchner
oder über der 30-jährige
Krieg und der besondere
Berücksichtigung Gustav
Adolfs oder was auch immer.
Und dann hat man sich hinsetzen
müssen. Damals, wenn schon ein
Schreiten schreiben müssen.
Heute, so stelle ich mir das vor,
mein Gott, das ist ein heißer
Juni Tagmann, möchte gerne auf die Donauinsel.
Ich sage zu dem
Jet-Botge, schreibe mal 20
Seiten über den 30-jährigen Krieg
und der besondere Berücksichtigung
Gustav Adolfs, der spuckt mir das aus
nach zwei Minuten. Ich überfliegs kurz,
gehe noch ein bisschen drüber, ein, der
vielleicht noch die eine oder andere
vom Leon-G-Baden.
Von Kantas sozusagen
noch funktionieren. Und dafür kriegt
man dann Noten.
Kann das noch funktionieren oder wird
die Erfindung von KI nicht
auch voll den Uni-Betrieb vollkommen
auf den Kopf stellen, Frau Kössel?
Naja, also
das machen die Studierenden
und probieren das am Beginn schon normal.
Und das gibt aber dann Programme, wo man
klassifizieren kann, hat das ein Mensch
oder einen KI geschrieben.
Ja, natürlich.
Das sind nicht diese Plagiat, die
dann sagen, nein, es gibt
Klassifier und
dann machen die Studierenden voll.
Das ist auch nicht blöd, ja.
Die lassen sich den Text
auf Englisch ausgeben
und dann geben sie es in DBL
auch ein KI-Burger
Mondatensübersetzen.
Und dann kann der Klassifier
wieder nicht erkennen.
Das heißt, man muss halt da immer
so ein bisschen hin und her tun.
Ich meine, das ist wie Cyberkriminalität.
Man muss da irgendwie
Wege finden, wie man
solche Formen des Plagiats
auch tatsächlich verhindert.
Aber ich sage jetzt noch etwas Lustiges.
Mein Sohn
musste auch in der 5. Klasse-Gymnasium
über ChatGPD
aufgetragen bekommen,
einen Text schreiben.
Mein Sohn hat jetzt nicht ChatGPD verwendet,
sondern er hat Mama-GPD verwendet,
weil die ist ja Expertin in diesem Gebiet.
Also habe ich mich hingesetzt
und wollte mich weiter sagen.
Hat für meinen Sohn die Hause
so schnell einmal am Abend
so eine halbe Seite Text geschrieben.
Und ich glaube jetzt wirklich,
ich ...
Ich hätte jetzt das Gefühl gehabt,
ich habe das gut gemacht.
Und dann frage ich ihn zwei Tage später,
sagt du, hast du,
hast vom Lehrer die Bewertung gekriegt
von meinem Text,
die da abgegeben ist,
ja Mama,
dem hat das überordentlich gefallen,
weil das war nicht strukturiert,
das war nicht so, was er erwartet hat,
weil das ist folgende Textsorte gewesen
und da hättest du das genau so schreiben müssen.
Und er hat gedacht,
ist sehr spannend,
also das verlangen die in der Schule
von unseren Kindern,
dass sie Textsorten
exakt reproduzieren können.
So mein formalistisch.
Ja, und das kann ChatGPD
immer wieder ein paar,
weil das ist ja genau das,
also genau strukturiert,
genau die gleiche Aufbau, immer und so weiter.
Und dann habe ich mir gedacht,
ja, also ich meine,
es zeigt uns doch,
wie unser Bildungssystem ist.
Also was verlangen wir denn eigentlich
von unseren Kindern in der Schule,
dass die überhaupt mit ChatGPD
schwindeln können
oder an den Universitäten?
Also,
wieder mal zu hinterfragen,
was wollen wir denn eigentlich,
was die können?
Und am Ende des Tages
brauchen wir Qualifikationen noch einmal,
das reproduzieren,
das kann man automatisieren,
das wissen wir, das geht gut,
das Standard.
Aber was wir bräuchten,
sind Problemlösungen,
analytisches Werkzeug
zum hinterfragen,
kritisches Denken, Kreativität, Innovation,
Führungsstärke.
Wie trainieren wir doch den Kindern ab
oder nicht, also Intuition
trainieren wir den Kindern ab,
indem wir sie in Strukturen reinpressten
und denen sagen, welche Textsorten
wir auszusehen haben.
Und ich glaube, das
ist eh wieder ein wunderbarer Spiegel,
weil wir können in Wahrheit jetzt
als Lehrende uns hinsetzen
und sagen, womit soll eigentlich
sollen meine Studierenden am Ende des Tages
rausgehen, ist es das reproduzieren
und wissen,
oder sind es andere Qualitäten
und wie kann ich die dann eigentlich prüfen?
Und prüf ich sie tatsächlich
nur mit so einem Standardaufsatz
oder mache ich irgendetwas anderes?
Ich glaube, vielleicht entstehen anderswo
so kleine Gruppen, die mit neuen Vorschlägen
kommen oder die Mamas tun
und Papas tun sich zusammen
und lassen sich auch etwas einfallen,
wie man den Kindern etwas
beibringt, von denen die Eltern
überzeugt sind, dass es die Kinder brauchen.
Also es gibt ja auch
andere Initiativen als nur
auf die Kommissionen des Ministeriums
warten zu müssen.
Wir haben den Schulen so viel zu sagen,
das ist ja das.
Ja, wir gehen uns ohne die Szenäre aus,
also insofern brauchen wir auch
etwas Neues.
Und ich bin wirklich überzeugt
davon, diese Art
von Auswendiglernen
auch, das war ja bisher nicht
so ein Geschichtsunterricht
oder auch deutsche Literatur.
Also sehr viel war einfach
dieser Lehrstoff und das war
so die Idee aus dem 19. Jahrhundert.
Man füllt
Inhalte
in die leeren Gehirne der Kinder.
Und die Kinder haben keine leeren Gehirne,
sondern wir müssen
die Lernfähigkeit
und die Potenziale der Kinder
heben.
Und insofern glaube ich,
sind es spannende neue Aufgaben,
eigentlich
wenn man jetzt verschiedene Texte
vor sich hat, die einen sind von einer
künstlichen Intelligenz,
geschrieben und die anderen von real
existierenden Menschen,
da man die eigentlich gibt es der
Rex oder Fade,
wie man diese Texte unterscheiden kann.
Kann man da draufkommen,
was KI ist und was nicht KI ist,
ohne dass man die
High-Tech-Systeme der TU
zur Verfügung hat?
Ich habe das mal ausprobiert in einem Artikel
und echte Bewertungen
von Google Maps genommen
und welche generiert
und dann so geschaut,
so eine Umfrage erstellt für die Lesenden
zu schauen, ob sie die KI richtig
erkennen.
Und in vielen Fällen
sind die Leute echter nebengelegen,
weil natürlich,
es kommt darauf an, wie oft man es schon benutzt hat,
woran man KI nicht erkennt,
ist, dass sie
über sich reden, die kann auch sagen,
die Sahne dort in dem Café hat mir
sehr gut geschmeckt, oder diese eine Kellner
war unsympathisch.
Das kann die KI
gleich gut wie der Mensch, was sie
hingegen eben aber schon tut,
ist sie, weil sie statistisch arbeitet,
sind die Texte im Moment zumindest noch
auf eine Art Repetitiver
und weniger abwechslungsreich,
als was Menschen machen.
Ja, wenn wir reden
und schreiben, wir machen
überraschende Sachen,
es ist nicht immer so konsistent
und gerade das geht durch die Statistik zum Teil verloren.
Grammatikfehler, glaube ich.
Grammatikfehler genau,
die haben auch in Studien Leute gedacht,
dass das ein Problem
der KI ist, oder ungefähr,
man erkennt menschliche Texte daran,
dass sie korrekt sind,
aber eigentlich ist es genau umgekehrt,
oder weil der Mensch macht Fehler.
Genau Fehler, man kann die Maschine nicht machen.
Aber was ich dazu auch noch
habe, eben, ich glaube, dieses Versuchen,
einen Textor das so durch zu jagen
und dann das ja, nein, das
erstens lässt sich damit austricksen,
man lässt sich das austricksen
und zweitens ist schon auch die Frage,
das Potenzial der KI
ist ja auch für Leute, die vielleicht
sich nicht so leicht tun, ihre Gedanken zu formulieren,
dieses Instrumenter zu verwenden
und was ist dann mit Texten,
die Leute schreiben,
die Maschine praktisch nutzen,
ihre eigenen Gedanken nochmal besser zusammenzufassen
oder etwas kürzen
oder ein bisschen korrekt auf zu formulieren
und ich glaube, da
werden wir die KI eigentlich
in unsere Arbeit integrieren
und dieses am Resultat anschauen
ist das Mensch oder Maschine,
das ist der falsche Weg.
Du bist ja jetzt auch schon passiert
mit Rechtschreibprogrammen
und Google Translator
und ähnlichen Hilfsmitteln.
Elson, Elson oder Gegenlesen und so
Texte sind jetzt schon eigentlich
genau, also ich glaube auch, dass man
den Bildungsbereich natürlich ein bisschen
umdenken muss, aber wir haben das in der Vergangenheit
auch schon oft sehr gut gemacht.
Das Team ist das Beispiel und wenn man
das vergleichen kann, ist es auch zum Beispiel
die Einführung vom Taschenrechner.
Damals war auch die komplette Panik,
ob wir es alle...
Darf man das verwenden, wie kann man es verwenden,
wenn Wirklichkeit sind einfach die Rechnungen,
die wir damit machen können, viel komplexer geworden.
Dank des Taschensrechners
sind die Aufgaben in der Schule viel
größere Probleme damit lösen.
Und am ähnlich kann ich mir auch vorstellen,
dass die neuen Beispiele, die
KI dann vielleicht mitverwenden, einfach komplexer
werden und vielleicht ein paar positive Gedanken
auch, wie KI auf jeden Fall positiven
Einfluss auf unser Schulsystem
oder auf unsere Art und Weise,
wie wir lernen haben kann.
Es kann auf der einen Seite auch Leerende
natürlich unterstützen.
Nicht nur die Schüler, Schülerinnen werden
die KI verwenden, sondern natürlich auch Leerende
um vielleicht neue Aufgaben,
personalisierte Aufgaben zu stellen und so weiter.
Und das nächste,
das finde ich als Forschungs- und Entwicklungsbereich
total schön,
dass Leerende
mit der KI gemeinsam lernen.
Das heißt, wir haben plötzlich
alle daheim einen virtuellen Tutor
und virtuellen Assistenten,
der uns bei den Hausaufgaben hilft,
mit uns gemeinsam lernen,
den wir fragen können
und plötzlich ist Bindung viel zugänglicher für alle dadurch.
Das ist auch jemand,
der überhaupt keinen Bias hat.
Man muss ein bisschen kritisch auch sagen,
wie Sanhalt oder Leerende
sind immer abhängig von der Qualität
von den Leeren, von den Lehrerinnen
und nicht alle sind immer
sehr gleichfair zu allen.
Aber ein maschinell basiertes System
kann gleichfair zu allen sein
und allen die gleichen Möglichkeiten
bieten.
Und das finde ich total spannend,
dass wir KI einfach wirklich positiv nutzen,
um lernen für alle
und vielleicht personalisierte Art und Weise
zu ermöglichen.
Wir haben bis jetzt
eher, kommt mir vor,
wie Sie es erlebt haben,
die positiven Facetten des
Themas hervorgehoben
waren sehr pragmatisch
optimistisch, würde ich sagen.
Lassen Sie uns auch noch ein bisschen
über die Probleme reden.
Es gibt natürlich schon auch dystopische
Szenarios,
was die KI alles
anstellen kann, an Böse, mann
schlechte, mann desinformationen
und so weiter.
Helga Novotny,
wie sehen Sie das?
Es ist ja auch nicht nur so, dass wohlmeinende
Menschen die
für Bildung eintreten und für Demokratie
sich der KI bedienen werden,
sondern es gibt ja auf der Welt auch
andere Akteure,
ganz kurz vielleicht auch nur.
Aber wo sehen Sie da vielleicht auch Gefahren?
Also der Missbrauch
und die Manipulationsmöglichkeit
ist natürlich enorm,
weil die
Verbreitung sehr schnell vor sich geht
und man es auch schwer überprüfen kann
und so weiter.
Aber persönlich sehe ich die größte Gefahr
in dieser unglaublich
starken Konzentration
von ökonomischer Macht
in den großen internationalen
Konzernen.
Und ich meine, kriminelle
und machenschaftend, das gibt es,
das muss man bekämpfen
und so weiter, aber
ich sehe einfach
es sind
diese großen Konzerne, die letzten
Endes darüber entscheiden
welche
Daten werden überhaupt
zum Training verwendet,
wie wird es trainiert,
wir haben keine Ahnung,
wie genau das gemacht wird.
Und es ist vor kurzem
eine Studie in
Frankfurt veröffentlicht worden,
um zu sehen,
die verschiedenen Modelle B
schneiden sie ab,
gegenüber dieser letzten EU-Data
die ich eben erwähnt habe
und
keines dieser Modelle
schneidet gut ab.
Was heißt das aber?
Das heißt, wir können
nicht einmal sagen, warum sie nicht
gut abschneiden,
weil die Bärmen uns nicht sagen
mit der Black Box gearbeitet werden.
Die Algorithmen sind nicht
öffentlich zugänglich.
Die Datenlage ist nicht öffentlich zugänglich.
Und was ich
auch noch schlimm finde,
ist, dass die
Finanzierung
von öffentlicher Seite
und von privater Seite
unglaublich
aus dem Geistgewicht ist.
Normalerweise sagt man
zwei Drittel für die
Veranstaltung und Entwicklung
kommen von privater Seite.
Ein Drittel wird öffentlich
und in KI Bereis
ist es ein Sehntel,
das öffentlich finanziert wird.
In Zahlen
ungefähr 300 Millionen Euro
pro Jahr in den USA
Dollar und Euro
gegenüber 300
Milliarden,
die von privater Seite kommen.
Und wenn wir etwas überprüfen wollen,
wir haben nicht einmal die Möglichkeit,
das zu überprüfen.
Und insofern glaube ich,
wir müssen darauf hinarbeiten,
dass die KI ein öffentliches Gut wird.
Und nicht in den Händen
von einigen wenigen
großen Firmen bzw.
dann fünf Personen,
die wir alle kennen, Elon Musk
und dergleichen,
dass diejenigen sind, die darüber bestimmen,
auch in welche Richtung die Forschung
weitergehen wird.
Es ist ja auch wichtig,
dass wir die Möglichkeit haben,
diese Offenheit der Forschung,
die Freiheit der Forschung.
Man kann ja auch andere Themen beforschen,
als die, die für die Firmen
interessant sind.
Und für die Firmen ist interessant,
das, was uns dazu bringt,
weiterhin das zu wollen,
was uns die Firmen anbieten
und uns süchtig zu machen,
auf das, was sie anzubieten haben.
Mit dem muss man entgegentreten
und auch eine öffentliche Diskussion
darüber haben.
Und KI muss ein öffentliches Gut werden.
Rot-Fulterer, genau das,
was Helga Nordni jetzt fordert,
will dich mir ein,
höre ich schon seit 10, 15, 20 Jahren
im Bereich von Social Media.
Also Facebook, genau dieselbe Diskussion.
Und es sind ja zum Teil
auch dieselben Akteure,
die jetzt in Sachen KI aktiv sind.
Man müsse ein
öffentlich-rechtliches Social Media
in Europa einführen
oder in Österreich oder wo auch immer.
Wird schon lange gefordert.
Passieren tut eigentlich nichts.
Korrigieren Sie mich.
Wie sehen Sie das?
Wie sehen Sie die Zukunft der KI
im Licht dessen, was Helga Nordni
gerade gefordert hat?
Ja, ich glaube der Unterschied bei Social Media
ist, dass es so generell
alle davon profitieren, wenn sie auf dem
Netzwerk unterwegs sind, wo alle anderen sind.
Und ich glaube schon,
dass sie jetzt zum Beispiel
mehr Diversität
zulassen.
Es gibt auch offene Open Source,
also Projekte mit offenen Code,
die dann auch in dieser Studie
am besten abgeschnitten haben.
Die versuchen,
gemeinschaftlich
Datenzentren zu nutzen und zu überlegen,
welche Texte wollen wir überhaupt reingeben.
Und dann können die Konsumenten
im Grunde selber ein bisschen rumprobieren
und schauen, welche
Texte wir jetzt verwenden.
Da kann mehr parallel existieren
als bei Social Media.
Die Sache, die mir schon sorgt,
ist die Frage des Informations.
Es geht ja nicht einfach um
gefälschte Artikel, sondern
dass diese Modelle dafür benutzt werden können,
dass, wie zum Beispiel russische
Desinformationen, die vorher musste man
Leute zahlen, die Englisch sprechen,
sehr gut Englisch sprechen in Russland,
die sich dann ausgeben als Amerikaner
und 200 Posts am Tag schreiben
und unter irgendwelchen YouTube-Videos
kommentieren, ja, das sehe ich auch so super.
Oder das ist eine Lüge.
Und ich glaube, das geht jetzt auf
Knopfdruck.
Da ist schon die Frage, ich glaube,
da muss man auch die Firmen irgendwie
einbeziehen zu überlegen,
wie können diese Sachen gestaltet werden,
sodass das nicht so leicht zunächst brauchen ist.
Und da kann man auch viel da einbauen
oder man kann von ihnen verlangen,
dass sie schauen, was für Abfragen
dann überhaupt getätigt
wird da ein Kunde von mir, die ganze Zeit
solche Sachen. Und ich glaube, da muss man
relativ offen sich überlegen,
was gibt es da konkrete Instrumente,
um den Missbrauch zu verringern,
um die Öffentlichkeit
eben informiert zu halten.
Mhm.
Jetzt habe ich eine Kursage.
Wir brauchen Regulierung,
wir brauchen
gegen Modelle, gegen Öffentlichkeiten
auch vor der Elger-Noveau,
wie sehen Sie das?
Ja, sehr ähnlich.
Ich glaube, was ganz wichtig sein wird,
ist
der eine Punkt zu sagen,
dieses Geschäftsmodell
Services gegen Daten,
das ist ein Geschäftsmodell,
das wir eigentlich verbieten müssen
in Zukunft.
Weil das ist das, wo die Menschen,
ich weiß schon,
man sagt, ich habe da ja nichts zu verbergen
und warum sollten die nicht und so weiter,
aber wenn sie
ein spannendes Buch lesen wollen,
überlesen Sie schon,
Schanasubov, Überwachungskapitalismus
und da lesen Sie genau
drinnen, wie
diese großen Konzerne
uns zu vulnerablen
und zwar jeden von uns zu vulnerablen
Personen machen, manipulieren
uns in bestimmte Richtungen lenken,
nicht nur profilien,
sondern ganz spezifisch
targetten, wenn Sie
einen Lauf-App verwenden,
dann kriegen Sie dann,
wenn Sie gerade einen hohen Puls haben,
legen Sie die Gatorade-Werbung drauf,
weil Sie dann nämlich vulnerabel sind
und dann eher
das Produkt kaufen
und ich meine, das sind Dinge,
wie Sie arbeiten im Grunde genommen.
Das heißt, dieses Targeting,
dieses individuelle Targeting,
dieses
Profiling, dieses Modell,
ich nutze
gerade das ChatGPD
und die Augen, die alles ab
das glaube ich,
das tut uns allen nicht gut,
das ist sogar ein Punkt,
den ich ganz wichtig halte,
erachte
und
dann denke ich mir tatsächlich,
dass dieser Regulierungsvorschlag
von der Europäischen Kommission
insofern einer ist,
der
auch ganz gute Richtung
bringen könnte, nämlich
der Regulierungsvorschläge,
aber da drinnen sind auch Vorschläge
dazu, wie wir in Europa
unsere Daten
besser zusammenführen können
und miteinander teilen
können, um in Europa
auch tatsächlich diese
Entwicklungen voranzutreiben
und
wie wir quasi auch in Europa
eine Größe gebinden können,
um etwas diesen großen
Konzernen entgegenzusetzen
das haben wir jetzt ganz wenig gesprochen,
aber KI ist ja nicht nur
ChatGPD
und diese anderen Anwendungen,
sondern das ist ja auch ganz viel robotik
zum Beispiel
und das sind wir in Europa
super, das sind wir,
ich würde fast sagen Weltmeister,
also können
auch andere
Kontinente gar nicht so gut mithalten,
weil wir
in der gut old fashioned
logischen KI
total gut unterwegs
sind in Europa.
Also alles was nicht nur Daten basiert,
sondern
symbolisch
KI ist und was
auch im Bärdet KI
ist.
Mag was ein Spruch konkret?
Robotik, in welchem Sinn Pflegeroboter
für alte Menschen
oder Roboter, die
Automobilfabriken steuern?
Zum Beispiel
wenn Sie sich vorstellen
wir haben ja ein
wahnsinniges Klimaproblem
und wir müssen eigentlich Ressourcen
in Zukunft vielen Ressourcen schonender
verwenden, um zum Beispiel
auch günstiger zur Ernährung
zu kommen. Und dann gibt es
Precision Farming
wo sie robotische Technologie haben
wo sie wirklich
Ressourcen, Wasser,
Nährstoffe etc. ganz
gezielt und spezifische
einsetzen können, dass sie viel
effizienter und Ressourcen schonender
die Lebensmittel produzieren können.
Das ist zum Beispiel ein wunderbares Beispiel
von KI, wo wir sagen
ja bitte mehr davon.
Wir wollen ja
alle unsere Solaranlagen in unseren
Häusern haben.
Wir müssen auch die Energiewende schaffen.
Wenn wir das wollen, müssen wir die einspeisen
in das öffentliche Netz.
Wenn wir keinen Blackout haben wollen
brauchen wir ganz viel KI
damit wir das
managen, dass unser Netz stabil bleibt.
Das sind KI-Systeme
mit unglaublicher Rechenleistung.
Die sind so super, so sinnvoll
und bitte lasst uns in diese Richtung
KI-Systeme entwickeln
um diese großen Herausforderungen
auch zu lösen.
Und da ist diese Technologie
unendlich hinsreicher
und in anderen Bereichen
ist sie entbehrlich, würde ich sagen.
Sie hörten eine Wiener Vorlesung
vom 29. Juni 2023.
Bei der Gemeinde Wien
die diese Vorlesung organisiert
bedanke ich mich sehr herzlich
für die Zusammenarbeit.
Ich verabschiede mich von allen, die uns auf UKW hören
im Freirad Tirol
und auf radioaguralen Kärnten.
Wissenschaft ist ein großes Thema im Falter.
Es gibt dazu ein eigenes Ressort.
Ich empfehle ein Abonnent des Falters.
Alle Informationen gibt es im Internet
unter der Adresse
arbo.falter.at
Ursula Winterau
hat die Signale gestaltet.
Philipp Dietrich betreut
die Audio-Technik im Falter.
Ich verabschiede mich im Namen des Gesamteams.
Bis zur nächsten Sendung.
Sie hörten das Falter Radio
den Podcast mit Raimund Löw.
Hallo.
Hallo.
Könnt ihr mich hören?
Okay.
Mit Podcastwerbung steht eure Message
im Mittelpunkt.
So kommt eure Botschaft wirklich an
und erreicht skalierbar eure Zielgruppe.
Denn Podcastwerbung bietet euch
das perfekte Umfeld für eure Kampagne.
Erfahrt jetzt mehr auf
go.acast.com
slash Werbung.
Das war's.
Danke.
Danke.
Danke.
Danke.
Danke.
Danke.
Danke.
Danke.
Danke.
Danke.
Danke.
Danke.
Machine-generated transcript that may contain inaccuracies.
Erklärungen zu Potenzialen und Herausforderungen der revolutionären Technologie von den Wissenschaftlerinnen Ruth Fulterer, Sabine T. Köszegi, Helga Nowotny, Johanna Pirker bei einer Wiener Vorlesung mit Günter Kaindlstorfer.
Hosted on Acast. See acast.com/privacy for more information.