FALTER Radio: Zeitenwende Künstliche Intelligenz - #972

FALTER FALTER 7/8/23 - Episode Page - 1h 21m - PDF Transcript

Die Fall der Sonnergespräche im Wienermuseumsquartier zu den heißen Themen des Jahres.

Mittwoch, den 30. August, nimmt die grüne Umweltministerin Leonore Gewessler-Platt.

Es geht um die drängende Frage, wie wir die Klimawende schaffen.

Umweltministerin Leonore Gewessler im Gespräch mit Barbara Todt und Katharina Krobshofer.

Mittwoch, den 30. August und 19 Uhr auf der Bühne im großen Hof im Museumsquartier in Wien.

Der Eintritt ist frei. Schauen Sie doch vorbei.

Im Netz ist das alles andere als selbstverständlich.

Und woher zur Hölle willst du das wissen?

So eine vorlaute Bitch wie dich sollte man an den Herd fesseln, dir dein Handy wegnehmen und...

Und wir feiern dich dafür, dass du dich als Frau nicht unterkriegen lässt.

Keine Angst. Du bist hier nicht allein.

Wir alle entscheiden, ob wir das Netz dem Hass überlassen.

Werde Teil der Telekom-Initiative gegen Hass im Netz und setze ein Zeichen. Telekom.

Falter Radio, der Podcast mit Raimund Löw.

Sehr herzlich willkommen, meine Damen und Herren im Falter Radio.

In der heutigen Sendung geht es wieder einmal um die künstliche Intelligenz.

Der technologische Sprung, den die digitale Welt gerade erlebt gibt Rätsel auf und er schafft Möglichkeiten.

Wahrscheinlich befindet sich die Menschheit einer Zeitenwende.

Mit Hilfe von künstlicher Intelligenz findet der Computer nicht nur Daten wie eine Suchmaschine, sondern er wird auch kreativ.

Ganz eine hochrangige Expertenrunde, die versucht zu erklären, was künstliche Intelligenz für Chancen bringt und welche Risiken sie birgt.

Die Wissenschaftsforscherin Helga Novotny sitzt mit am Podium.

Sabine Kossige ist Professorin an der Technischen Universität Wien.

Sie ist ebenfalls dabei. Sie forst an der Schnittstelle zwischen Technologie, Arbeit und Organisation.

Joanna Pirke ist dabei. Sie forst und arbeitet zu neuen Technologien an Universitäten in München und Graz.

Und Ruth Fulterer diskutiert mit. Sie schreibt für die neue züricher Zeitung über künstliche Intelligenz.

Moderator Günther Keindlstorfer startet die Diskussion bei den Wiener Vorlesungen mit einer Frage zu JetGPT.

JetGPT ist eine App, die sich alle im Internet holen können, um selbst künstliche Intelligenz auszuprobieren.

Novotny, ich würde gerne mit Ihnen beginnen.

Vor ungefähr einem halben Jahr ist es gewesen, dass dieses JetGPT durch die Medien gegangen ist in ihrem Freundeskreis.

Nämlich an, in meinem Freundeskreis haben viele Menschen nichts anderes zu tun gehabt, euch noch am selben Nachmittag sich hinzusetzen,

um das gleich auszuprobieren und Rege das zu teilen, wie das funktioniert, was schlecht funktioniert, was gut funktioniert.

Man hat das Gefühl, ein regelrechter Hype und diese Form von KI, künstliche Intelligenz, ist ausgebrochen.

Würden Sie sagen, ist es ein Hype oder ist das wirklich eine Revolution, die vielleicht vergleichbar ist mit der Einführung des Personalcomputers vor 30, 40, 50 Jahren?

Also ich würde es sogar noch weiter zurückgehen.

Ich glaube schon, dass es unser Leben grundsätzlich verändern wird und die Art und Weise, wie wir arbeiten, auch die Art und Weise, wie wir Wissenschaft betreiben und so weiter.

Und ich würde es eher mit der Elektrizität vergleichen, und zwar insofern, als künstliche Intelligenz in alle Bereiche, Wirtschaftsbereiche und Lebensbereiche eindringen wird.

Und insofern würde ich sagen, das ist kein Hype.

Der Hype kommt, wenn wir hören, wir sollen uns fürchten, dass uns die KI von der Erde wegwischt oder wir sollen uns Sorgen machen über schreckliche Dinge, die auf uns zukommen.

Das würde ich sagen, ist der Hype.

Und ich begrüße es sehr zum Unterschied auch von anderen großen Schritten, die gemacht wurden, Personalcomputer.

Wie viele Menschen hatten die Möglichkeit, einen Personalcomputer vor 30 Jahren auszuprobieren?

Und jetzt können alle JETGPT ausprobieren.

Und wenn Sie das ausprobieren, kommen Sie sehr schnell drauf, Sie stellen Fragen und die Antworten variieren, je nachdem, welche Fragen Sie stellen.

Das heißt, Sie sind gefordert, kluge Fragen zu stellen.

Und das, finde ich, ist eine interessante Interaktion, die sich da ergibt.

Also, man kann dann natürlich sagen, also, die Frage stimmt, nicht, die Antwort stimmt, nicht, das soll man auch sagen.

Also, es ist auch eine Möglichkeit, dass wir skeptisch daran gehen, dass wir kritisch sind.

Wir lassen uns herausfordern, aber wir fordern auch diese Maschine heraus, um mit uns zu interagieren.

Uns skeptisch ist es angebracht, kritisch ist es angebracht, das ist immer gut im Leben.

Und das will nicht alles glauben, was uns präsentiert wird.

Und insofern begrüße ich das, dass Sie alle die Möglichkeit haben, es auszuprobieren.

Rotfutter, Sie haben in der neuen Zürich einige Texte zum Thema KI geschrieben und die Stoßrichtung dieser Texte scheint mir zu sein,

dass sie reserviert sich äußern gegenüber Panikmache, gegenüber Angstmache, was künstliche Intelligenz betrifft.

Wie würden Sie Ihre Haltung zu diesem Phänomen beschreiben?

Ja, genau. Also, ich glaube, es ist wichtig zu verstehen, was Karin kann und was sie nicht kann

und dafür ist es eben super, diese Sachen auszuprobieren.

Und was ich oft höre und dann auch eben kritisch darstelle, ist, dass Experten in den USA,

auch zum Teil die Leute in diesen Firmen, also hinter OpenAI, der Herstellerfirma von Chatshipiti,

aber auch anderen Technologiekonzernen, dass die KAYAS etwas beschreiben, was wie fast so ein Wesen ist,

also etwas, nicht etwas, was sie bauen und was dann auf uns einen gewissen Einfluss hat,

sondern als etwas mit einer eigenen Dynamik, die also Kontrolle geraten kann

und irgendwie, das wird am meisten nicht genau beschrieben, dann die Macht übernimmt.

Und ich glaube, es ist einfach wichtig, es ist schon ein Hype, also das Thema wird aufgeblasen,

das heißt nicht, dass nichts dahinter steckt, es wird unser Leben verändern, da bin ich bei Ihnen,

aber dass man da in sie unterscheidet, was so nicht betrachtet, was ist denn jetzt genau diese Technologie,

was kann sie und das unterscheidet von seiner science fiction Fantasie.

Ich glaube, das ist auch inspiriert von Büchern und Filmen, die die Leute gesehen haben

und der Name künstliche Intelligenz, der lädt an einen sehr futuristisch zu denken

und ich glaube, die Veränderungen sind dann vielleicht ganz andere, als die über die oft gesprochen wird.

Johanna Birker, es ist natürlich schon erstaunlich, was diese KI jetzt schon alles kann.

Man mag sich gar nicht ausmalen, wie das in 10, 20 Jahren ausschaut.

KI kann brauchbare Hochzeitsreden schreiben, habe ich mir sagen lassen.

KI kann Traueransprachen formulieren, die bei jedem Begriffen ist, die Menschen zu drehen rühren.

KI kann Marketingtexte für, weiß ich nicht, den nächsten Südtirol Urlaub schreiben,

die wirklich offenbar die Kundschaft attrahieren.

Bewerbungsschreiben angeblich sollen auch gut funktionieren mit KI.

Ich gestehe es ungern, aber ich gestehe es doch.

Ich bin wahrscheinlich der größte technische Trottel hier unter den fünf Menschen auf der Bühne.

Ich verstehe es eigentlich nicht. Bitte erklären Sie uns, können Sie uns erklären, wie macht diese KI das?

Wie schreibt ein Chatbot, sagen wir, eine brauchbare Trauerrede?

Ja, ich glaube, was man da unterscheiden muss, dass diese Thematik um ChatGPD, das nennt sich generative künstliche Intelligenz.

Das heißt, es wird das neues Geschaffen generiert und das wird basierend aus verschiedenen Texten aus der Vergangenheit generiert.

Und das ist jetzt einmal ganz wichtig zu verstehen, auch wenn wir später vielleicht über die positiven oder vielleicht auch die negativen Aspekte davon reden.

Das sind alles Texte, die wir vermutlich in der Vergangenheit einmal geschrieben haben.

Das mögen tolle Trauerreden sein auf der einen Seite oder vielleicht irgendwelche Propagandatexte oder Fake News auf der anderen Seite.

Aber man kann sich das vorstellen, das ist das Datenseit, mit dem wir arbeiten, mit dem die KI quasi lernt.

Und wir Menschen, also da waren auch noch menschliche Hilfe dabei, trainieren sie, indem wir sagen, dieser Text, der es quasi generiert worden ist,

der war es gut, der war nicht so gut, das war es richtige Antwort und das war keine richtige Antwort.

Das heißt, die ganze KI basiert quasi auf unseren Vergangenheitsdaten, auf den ganzen Informationen, die wir in der Vergangenheit in dem Fall ins Internet gestellt haben.

Also gibt es verschiedene Datenquellen, die verwendet worden sind.

Wenn Sie umsagen, meinen Sie jetzt nicht, sie individuell und mich individuell, sondern ...

Wir alle, wir alle als Menschheit, genau, richtig.

Und die Forschenden am Anfang, aber jetzt im Grunde auch, wir alle trainieren diese KI weiter, indem wir dann sagen gehen,

das war ja nicht so eine gute Antwort oder nicht so eine gute Antwort.

Also ich glaube, so kann man das vielleicht gut zusammenfassen.

Und wie gesagt, das ist halt das Spannende.

Es passiert es halt ursprünglich alles auf unseren Texten.

Und wenn wir jetzt vielleicht ein bisschen vorausschauen darf, wie wird denn das dann in diesen nächsten 1, 2, 5 Jahren sein,

wenn wir jetzt lauter Texte mit der KI generieren, die dann wieder die nächste Basis ist, für die weiteren Texte.

Das heißt, es wird ein relativ spannender Mittelwert, ein relativ schlechter Average-Durchschnitt werden.

Also, aber das kann man wahrscheinlich später noch weiter ...

Lassen Sie uns noch weiter oder reden wir über, sagen wir nicht brauer Rede, sagen wir Hochzeitsansprache,

das ist ein bisschen netter, aber wie entsteht eine solche Hochzeitsansprache?

Also ich nehme an, meine Tochter heiratet jetzt im September, mir folgt nichts gescheites ein.

Wie würde ich das machen?

Ich speise den Chatbot mit Informationen über das Brautbaar, ihre Geschichte.

Wünsche mir noch, was ist nicht, einen optimistischen, freundlichen, humorvollen Tonfall.

Und dann, wie macht der Chatbot das?

Man saugt sich diese Maschinen aus den Millionen Hochzeitsansprachen, die im Internet vielleicht schon zu finden sind,

etwas heraus und macht den Bestilat der Besten.

Soziell kann?

Ja.

Ingefähr.

Aber im Grunde, das Ganze passiert auf einem sogenannten Large-Language-Model.

Das ist der Begriff für das, was wir auch, dieses GPT 3.5 und GPT 4, kann man ja sagen,

das ist das, was wir da jetzt öfters hören und hören werden.

Und das ist quasi dieses große Modell, was trainiert worden ist.

In der Vergangenheit, das können wir es quasi nicht mehr direkt verändern.

Das heißt, wir können jetzt nicht sagen, ich hätte gerne hier meine zehn Hochzeits reden,

sondern das ist das große Modell, auf dem trainiert worden ist.

Und das ist immer, wird immer die Basis sein aktuell, also mit dem System, den wir arbeiten.

Aber da waren vermutlich schon viele Hochzeitsglug und Schreden dabei.

Und es waren auch zum Beispiel viele Kafka-Texte dabei.

Das kann dich hergehen und den GPT ist eigentlich nur die Oberfläche,

die auf dieses Modell im Hintergrund zugreifen wird.

Und dann sage ich, GPT, bitte schreib mir eine Hochzeitsrede, aber im Stil von Kafka.

Und dann wird das quasi vermischt, basierend auf diesem gelernten Modell im Hintergrund.

Sabine, die Größe, was bedeutet das alles für die Arbeitswelt?

Nun gibt es ja viele Menschen, die ihr Brot damit verdienen.

Ich zum Beispiel auch, indem man Texte, Verfasst Texte schreibt.

Das reicht vom Journalismus über die Werbung.

Dies zu Wissenschafts- und Forschungsbetrieb werden alle diese Menschen,

die Texte, die jetzt oft auch nicht rasend originell und brillant sind,

sondern sagen wir uns ehrlich, immer wieder doch auch dutzend wahre,

werden diese Menschen, die diese Jobs machen, überflüssig ist die eine der großen Ängste.

Wir haben halt Brüber gewitzelt, es wird in Zukunft so sein,

ich werde JPG bitten, aus fünf Stichworten eine schöne E-Mail an einen Arbeitskollegen zu schicken.

Das macht das dann, ich schieke dann eine lange E-Mail dorthin

und der Kollege wird sagen, gefasst mal die in fünf der Stichworten, so baumann.

Und niemand wird diese Texte mehr lesen.

So wie wir jetzt auch unnötige Texte nicht lesen.

Ich war jetzt auf Tagungen auch, wo Unternehmen ganz klar gesagt haben,

dass sie Unternehmensstrategie ausgegeben haben,

durchaus mit dem Tool zu experimentieren und auszuprobieren,

wie man das sinnvoll einsetzen kann.

Ich finde das eben auch sehr spannend, dass du gesagt hast,

also die Frage ist, was passiert denn dann mittelfristig mit unseren Texten?

Nämlich einerseits, wir können ja noch Texte schreiben,

wir haben uns sehr mühsam in der Volksschule und in der Hauptschule der Gymnasium erlernt.

Wenn wir das jetzt überhaupt nicht mehr lernen

und nur mehr quasi eine Second Hand bearbeiten von Texten,

die dann wiederum eine drüber arbeiten bekommen,

dann konvertieren wir alle zu einem sehr einheitlichen unkreativen Mittelmaß,

im Grunde genommen.

Und um jetzt auf die Arbeitswelt zu kommen,

das ist, glaube ich, die Herausforderung.

Keine Technologie kann in vielen Bereichen uns von langweiligen Arbeiten

wiederholen, repetitiven, kognitiv,

vielleicht gar nicht anspruchsvollen Arbeiten bereihen.

Und das wünschen wir uns auch alle.

Aber was in der Regel so dabei passiert ist,

dass wir auch bestimmte andere Kompetenzen möglicherweise verlieren.

Deswegen gehen unsere Piloten, die mit Autopilot aufliegen könnten,

trotzdem regelmäßig in ein Flugsimulator

und deswegen müssen sie auch ihre Flugstunden haben.

Einfach deswegen, weil man sagt,

aha, wir brauchen diese Kompetenzen,

aber nicht nur, weil die Technologie manchmal nicht funktionieren kann,

sondern weil sie nicht in allen Bereichen einsetzbar ist.

Und das wird so die spannende Herausforderung der Zukunft

auf die Arbeitswelt sein.

Alle unsere Jobs werden sich verändern,

weil wir diese Tools vermutlich

in ganz unterschiedlichen Bereichen einsetzen können.

Und die Frage ist aber, wie sind diese Tools gestaltet,

sodass wir es sicherstellen,

dass wir Menschen wichtige Kompetenzen nicht verlieren,

weiterhin in Kontrollen sind,

also auch diese Technologien gut steuern und kontrollieren können.

Und auch vor allem dann am Ende des Tages

und darauf käme es ja an zu einem besseren Ergebnis kommen.

Also die Qualität des Arbeitsergebnisses

soll ja am Ende des Tages besser sein.

Und das hat in ganz vielen Bereichen noch keine KI gezeigt,

dass sie das wirklich im soziotechnischen Kontext,

also in der implementieren,

in der Praxis kann, im Labor, ja, unter kontrollierten Bedingungen.

Aber in der Praxis dann sehen wir,

dass das dann gar nicht mehr so einfach ist.

Ich meine, die große Sorge

ist natürlich der Verlust von Arbeitsplätzen.

Und das ist kein neues Thema.

Mit jeder Automatisierung ist dieses Problem aufgetaucht,

wie viele Menschen verdienen ihren Job,

weil die Maschine das schneller kann,

weil die Maschine profitabel ist und so weiter.

Und nun haben wir sozusagen eine neue Automatisierungswelle,

wenn man es aus dieser Perspektive sehen will.

Aber das ist die eine Seite.

Und es gibt eine Studie von David Orter,

das ist ein Ökonom an der MIT,

der sich seit langer Zeit mit Automatisierung

und den Auswirkungen auf die Arbeitswelt beschäftigt.

Und David Orter sagt, also man muss unterscheiden,

Automatisierung, ja, die wird weitergehen.

Er sagt aber auch, die Produktivitätssteigerung

von Automatisierung wird sehr überschätzt.

Das heißt also, die Automatisierung wird nicht so viel Produktionsgewinne bringen,

wie man gerne präsentiert.

Und worauf es ankommt,

und das ist der wichtigere Punkt hier, glaube ich,

gelingt es, mithilfe dieser KE-Arbeitsplätze zu schaffen,

wo neue Fähigkeiten entstehen, wo neue Aufgaben entstehen,

wo Menschen uns die KE ein neues Verhältnis miteinander auch schaffen müssen.

Und das sagt, das sind die Arbeitsplätze der Zukunft.

Und darauf müssen wir hinarbeiten.

Das heißt aber auch, dass wir bereits in der Ausbildung,

in den Schulen, in zukünftigen Berufsbindern

ziemlich radikal umdenken müssen.

Und auch offen sind für völlig neue Berufe

und Aufgabenstellungen, die wir uns heute gar nicht vorstellen können.

Und das ist nicht nur Science-Fiction, also wir müssen ernsthaft daran arbeiten.

Aber ich halte es für wichtig,

dass wir das auch so in einem größeren historischen Kontext sehen.

Ja, Arbeitsplätze werden verloren gehen,

das ist in der Vergangenheit auch passiert.

Niemand kann sagen, wie schnell es gelingen wird, neue zu schaffen.

Das sind sich die Ökonomen einig.

Es werden neue geschaffen, aber niemand weiß, wie schnell.

Aber worauf es ankommt, sind diese neuen Aufgabengebiete,

Profile von Arbeitsgebieten,

von denen wir heute auch gar nicht wissen, wie sie aufsehen werden.

Bis jetzt war es ja in der Wirtschaftsgeschichte eigentlich immer so,

dass Revolutionen in der Technologie,

vielleicht von der industriellen Revolution angefangen,

bis zur Digitalisierung von heute,

vielleicht kurzfristig Arbeitsplätze gekostet haben,

aber langfristig ein interessantes Phänomen.

Niemand weiß genau, warum.

Aber langfristig sind letztlich immer gleich viel

mehr neue Arbeitsplätze in anderen Sektoren neu entstanden.

Also die Massenarbeitslosigkeit von der vor fünf bis zehn Jahren,

noch die Rede war das uns die droht, die haben wir nicht.

Allerdings, das ist der Pferdefuß dieser Entwicklung jetzt.

Es gibt auch diese schlecht bezahlten Arbeiten,

die leider auch mit der neuen KI kommen.

Es sind Leute, die dann auf einen Knopf drücken müssen,

drückt stundenlang auf einen Knopf.

Für die Entwicklung der KI, das ist ein berühmtes Beispiel,

sind in Kenya schlecht bezahlte Kenyana eingesetzt worden,

um Tag und Nacht die notwendigen Trainingsarbeit zu erledigen,

wie Johanna sehr gut weiß.

Also diese Schattenseite muss man auch sehen.

Also wir müssen vermeiden,

dass wir dann abgehalten und das, was die Maschine nicht machen kann,

weil es immer noch irgendwelche Handgriffe braucht

und diese also schlecht bezahlten manuellen Tätigkeiten brauchen.

Und das müssen wir vermeiden.

Nicht weil ansonsten haben wir auf der einen Seite

sehr gut ausgebildete Menschen, die dann wissen,

wie man das auch kreativ nützen können.

Und auf der anderen Seite haben wir also so wie die Leute,

die halt unser Essen mit dem Fahrrad ...

Sehr prekäre Jobs.

Ja, und das muss man vermeiden.

Johanna Birka.

Ja, also ich kann das nur unterstreichen.

Also wenn wir zurück schauen, also auch in die jüngere Vergangenheit,

also die Einführung vom Internet, die Einführung von den PCs,

für uns alle, das war immer mit Ängsten verbunden.

Was wir tun das mit uns als Gesellschaft,

dann wird das Jobs wegnehmen usw.

Und in Wirklichkeit, jetzt haben wir dann den PC gekriegt,

also ich habe mal alle viel mehr Jobs mit,

mit dem Benutzen des PCs gekriegt.

Jetzt haben wir halt innerhalb vom PC noch ein Zuhause-Kistool mit der KI.

Das wird eben auch ganz viele neue Möglichkeiten generieren

und auch Jobs schaffen, die wir gar nicht kennen noch.

Und ich kann das jetzt nur zum Beispiel für mich als Forscherin.

Es wird für mich sehr viele von meinen Tätigkeiten ersetzen.

Ich bin eigentlich sehr dankbar drüber,

weil ich kann mich auf das, was mich als Forscherin ausmacht,

auf das Denken, auf das Erarbeiten von Experimenten,

von Entwicklung von neuen Forschungsergebnissen beispielsweise konzentrieren.

Und ich kann die KI bitten, das gut, sinnvoll, leichtverständlich zusammenzufassen.

Aber ich kann das nicht so gut schreiben vermutlich

und kann dann viel mehr Forschungsergebnisse z.B. am generieren.

Das würde ich nie öffnen.

Das würde ich nie öffnen.

Das wollen wir nicht gewößen.

Das wollen wir nicht gewößen.

Bitte sehr, Frau Kösse-Gisbel.

Ich wollte noch etwas zu dieser Transformation sagen.

Ich glaube schon, dass man in der Öffentlichkeit das ein Stück weit auch naiv darstellt.

Also, wenn Sie sich vorstellen,

wir haben Menschen, die als Sachbearbeiterin in Unternehmen gearbeitet haben

und Tag ein, Tag aus Kundenanträge bearbeitet haben, ein und ausgegeben haben,

die werden jetzt nicht prompt engineers werden,

weil das eine neue Berufsgruppe ist.

Die wissen nicht einmal, was prompt engineering bedeutet.

Die kann man auch nicht dorthin umschulen.

Das heißt, es wird eine Gruppe von Menschen geben.

Und das ist tatsächlich bei allen bisherigen technologischen Revolutionen der Fall gewesen.

Es wird eine Gruppe von Menschen geben, die kann man nicht abskellen oder umschulen,

sondern es wird so sein, dass wir uns eine Gruppe von Menschen auch tatsächlich kümmern müssen.

Also, politische Aufgabe, was machen wir?

Das ist so dieses eine Thema, was ich sehe.

Und dann gibt es noch ein zweites Thema.

Nämlich schauen Sie, wo Sie mit KI-Technologie automatisieren können

und diese Produktivitätsgewinne überhaupt erzielen können.

Und das ist bei kognitiven Aufgaben.

Und das ist aber nicht bei allen Aufgaben,

die zum Beispiel soziale Kompetenzen benötigen, Interaktion etc. benötigen.

Dort, und das sind aber, wie wir wissen, das sind die Bereiche der Pflege zum Beispiel,

das sind die Bereiche des Unterrichtens, des Lehrens, des...

...alle sozialen Bereichen im Grunde genommen.

Dort werden keine Produktivitätsgewinne durch KI erzielt.

Wo gehen aber die Produktivitätsgewinne hin, die wir durch KI erzielen?

Das heißt, wenn wir nachhaltig in unserer Gesellschaft dieses Problem lösen müssen,

müssen wir auch an eine Umverteilung denken.

Wir müssen uns überlegen, wie wir die Arbeit, die wir nicht automatisieren können und wollen.

Übrigens, wir wollen auch viele Bereiche gar nicht automatisieren,

wie wir die in Zukunft bewerten und wie wir sie finanzieren.

Und das ist, glaube ich, schon eine sehr wichtige Frage, wo die Politik heute gefordert wäre,

sich jetzt am Beginn, wir sind mittendrin, aber vielleicht noch in einer Zeit,

wo wir noch Zeit hätten, uns jetzt Konzepte zu überlegen.

Und in Schweden zum Beispiel, da gibt es jetzt, da kann man sich jetzt schon jeder, jede kann sich in Schweden

ein Jahr Bind ums Kerenz nehmen und sich umschulen lassen.

Das ist eine Einladung der Regierung dort an die Menschen.

Liebe Leute, tut's was, macht's was, weil wir brauchen bestimmte Kompetenzen

und wir gehen das jetzt proaktisch an.

Aber ich verstehe Sie richtig, was würde bedeuten, dass die großen Firmen und Konzerne,

die große Renditen erzielen mit dem Einsatz von künstlicher Intelligenz,

entsprechend mehr zur Kasse gebeten werden müssen, um etwa die vielen sozialen Tätigkeiten und Berufe,

die ja immer notwendiger werden, auch Eralterung der Gesellschaft und so weiter, zu finanzieren.

Dafür plädieren Sie, habe ich Sie da richtig verstanden.

Noch viel grundsätzlicher, wir reden ja viel, wir werden die Arbeit verlieren in Wahrheit,

welche Arbeit werden wir verlieren.

Wir haben ja bezahlte Arbeit und wir haben unbezahlte Arbeit.

Und die unbezahlte Arbeit ist ungleich verteilt.

Die schätzen wir auch nicht.

Das ist aber die, die wir in der Pandemie als essentielle Arbeit und Systemerhalterinnenarbeit genannt haben.

Und im Grunde genommen sind wir jetzt an einem Punkt, wo wir sagen können, was ist eigentlich Arbeit,

was bewerten wir als Arbeit, was schätzen wir.

Und das, was wir schienen können, ist, ist das wirklich noch so wichtig,

dass wir das so hoch einschätzen müssen und so hoch bewerten müssen, so wie wir das aktuell tun.

Im Moment sind ja technische Jobs viel höher remuneriert als alle Jobs in der Sozialbranche.

Und das sind die Fragen, die wir uns stellen müssen.

Ich würde gerne noch das Bildungsthema, das schon ein bisschen angeklungen ist, noch ein bisschen vertiefen.

Wenn es so ist, dass künstliche Intelligenz, ganz brauchbare Gebrauchstekste schreiben kann,

was bedeutet das Rutschschulterer für die Schulen, auch für die Universitäten.

Ich stelle mir jetzt vor, ich habe eine Doktor, ich erinnere mich noch genau an die Redeübung über Murmeltiere,

die sie in der Volksschule gehalten hat.

Jetzt musste sie eine Redeübung halten über den armen Poeten von Spitzweg, also schon in der Unterstufe.

Da musste sie sich zwei, drei Stunden am Nachmittag hinsetzen und sich dieses Spitzweg-Bild anschauen

und dann ein bisschen was aussuchen über den Spitzweg und über Spiedermeier

und dann halt eineinhalb Seiten zusammenfassen, die sie dann präsentiert hat.

Ich stelle mir vor, wenn sie die Redeübung im September halten muss, jagts das durch die KI,

da kommt tolle Redeübung raus und die muss man nur noch vorlesen.

Wo wird meine Tochter in Hinkunft noch das Verfassen von Text-Win lernen

und wie kann man das im schulischen Alltag entbauen?

Also ja, ich glaube, es ist ja so, dass sich die Technologie ändert.

Also gewisse Arten von Fähigkeiten braucht man dann vielleicht gar nicht mehr so viel

und trotzdem würde ich jetzt gerade auch als Journalistin sagen,

also beim Schreiben, da geht ja sehr viel mehr vor, als dass man einen Text kreiert.

In der Schule wird es ja verwendet, zum Prüfen auch oder diese Übungen umzuzeigen.

Ich habe mich mit einem Stoff auseinandergesetzt.

Das ist so der Hintergrund, das sind meine kritischen Gedanken dazu.

Und natürlich, wenn ich das bei Knopfdruck generiere, dann habe ich nichts dabei gelernt

und das geht uns ja eigentlich um die Kinder, nicht um die Texte sozusagen.

Aber ich habe von leeren, interessanten Ideen gehört, die zum Beispiel auch Uni-Professoren,

die sagen, sie haben ihren Studenten, Studentinnen gezeigt,

ihr müsst eure Abschlussarbeit mit KI verfassen

und ihr müsst aber präsentieren, dann nicht die Abschlussarbeit allein,

sondern wie seid ihr dabei vorgegangen

und auch wo waren die Fehler, denn das dürfen wir nicht vergessen,

wenn wir sagen, Kognitive Arbeit wird ersetzt.

Teil von diesem generativen Prozess ist es ja einfach immer,

das praktisch das nächste Wort zu generieren

und manchmal kommen einfach Sachen raus, die überhaupt nicht stimmen

und nicht nur so, dass die Sachen irgendwo falsch im Datenmaterial waren

und deswegen falsch in den Text kommen, sondern die KI denkt sich das sozusagen aus.

Das ist eine schlechte Umschreibung, aber genau.

Und deswegen ist es sehr interessant, damit zu spielen, glaube ich,

und wenn man dann rausfindet, okay, ich kann das produktiv nutzen,

aber ich muss es fact-checken und ich muss schauen,

warum macht die KI in dem Bereich Fehler und was kann sie gut und was nicht

und was fehlt denn eigentlich eben,

weil wenn alle Schüler denn nur einen Satz eingeben

und dann geben alle das Gleiche ab, dann bringt sie natürlich nichts.

Aber ich glaube, manche Leute gehen da recht proaktiv heran,

manche Lehrpersonen und ich glaube, das ist dann auch sehr spannend.

Also das ist bereits an vielen Universitäten, wird damit ausprobiert.

Wie kann ich mit meinen Studierenden in einer produktiven, kreativen Weise umgehen?

Und es eröffnet uns auch völlig neue Forschungsfragen.

Ich habe vor kurzem mit einem Kollegen aus der Mathematik gesprochen,

der GPT-4 eingesetzt hat, um ein bestimmtes Problem in der Allgebar zu lösen

und die Maschine macht das recht.

Gut macht manchmal auch Fehler, aber er sagt,

ein guter Mathematiker würde ähnliche Fehler machen.

Aber und das ist das Spannende.

Die Maschine kommt auf anderem Weg zur Lösung,

als das ein Mathematiker machen würde.

Und das eröffnet eine spannende Frage.

Liegt das an unserem Gehirn?

Inwiefern funktioniert unser Gehirn anders als die Maschine?

Oder hängt es damit zusammen,

dass wir einfach einen Mathematikfeld ja auch nicht vom Himmel,

bereits die Babylonien haben, Mathematik erfunden,

die Chinesen haben Mathematik erfunden

und wir haben einfach eine historische Entwicklung auf,

der Art und Weise, wie wir Mathematik betreiben.

Und das sind für bestimmte Pfade gegangen

und andere Pfade hätten wir gehen können,

sind die aber nicht gegangen.

Und das sind spannende Fragen.

Und ich glaube, bei Texten oder wie wir jetzt mit Sprache umgehen

oder wie wir uns ein neues Thema einfallen lassen,

also die Maschine fordert uns dann heraus,

weil sie bestimmte andere Wege einschlägt,

als wir das als Menschen machen.

Und ich glaube, das ist faszinierend, sich damit auseinanderzusetzen.

Und das eröffnet ja auch neue, interessante Möglichkeiten,

die da kreativen, wenn man so richtig sagt,

von Mensch und Maschine, beide zusammen, dann noch mehr auf.

Genau, und ich glaube gerade, wenn man Kindern und Studierenden

sozusagen die Motivation mit gibt, also probiert das aus, spielt damit.

Dann, glaube ich, macht das auch Freude und Spaß

und dann entdeckt die auch, ich kann damit spielen

und ich kann Freude damit haben.

Und wir lernen das dabei.

Ich glaube dazu, zum Text ist noch wichtig zu sagen,

dass natürlich in diesen Texten, also wenn ich einen Text schreibe,

dann steckt da meine Weltanschauung drin.

Und die ist sehr geprägt von meinem individuellen Erleben.

Und so als ich schon eines bin, als ich eine Frau bin,

ich glaube, ich schreibe über gewisse Sachen anders.

Als ein Kollege, der mein Leben gelebt hat in einem männlichen Körper.

Da geht ja auch die Maschine ganz anders vor

und man sieht das vor allem bei der Bildgenerierung,

dass da oft sehr klischeehafte Bilder, gerade von Frauen dargestellt werden,

dass sie sehr sexualisiert sind.

Und ich glaube, das ist auch wichtig, dass man sich überlegt,

wenn man jetzt eben die Maschine das kreieren lässt,

woher kommen diese Verzerrungen eigentlich?

Weil die Maschine sieht ja nicht, die hat ja keinen direkten Zugriff auf die Welt,

sondern wie schon gesagt, eben wiederverwertet das, was schon publiziert ist.

Und ich glaube, das ist auch wichtig zu sehen,

dass man eben, wenn man selber was produziert,

einen eigenen Blick auf die Welt hat und sich dann auch konfrontiert,

warum werden genau solche Bilder von Frauen gezeigt?

Und wollen wir das?

Und da ist eben auch die Frage, in welchem, wenn man das einsetzt,

dass man schon sehr bewusst sich überlegt,

welche Vorurteile reproduziert man damit auch?

Ich würde da gerne nämlich, weil ich das so wahnsinnig wichtig finde,

hier noch einmal darauf hinzuweisen.

TATTPD ist ein Wahrscheinlichkeitsmodell.

Sie können sich das ungefähr so vorstellen,

wie in der Volksschule einen Lückentext,

da ist jedes zehnte Wort ausgelassen,

und dann weisen Sie die Maschine an,

suchen wir jenes Wort,

das in dieser Wortreinfolge, die schon da steht,

mit höchster Wahrscheinlichkeit da reinkommt und schreibt das rein.

Und genau das tut TATTPD.

Und dieses System weiß nicht, das versteht nicht,

das ist ein Wahrscheinlichkeitsverarbeitendes Rechenmodell.

Ich suche das wahrscheinlichste,

vielleicht auch abgegriffenste Klischeehafteste Wort, nein.

Natürlich, das ist gehäuschiger.

Ja, das nächste Wort.

Das wahrscheinlichste Wort, das ist das nächste, das kommt, das nimmt es.

Das nimmt es.

Und das macht es natürlich in dem Kontext,

in dem wir vorgeben und in dem Kontext,

wo sie diese Wörter auch findet.

Natürlich sucht sie dann in entsprechenden Texte,

wo diese Schlüsselwörter vorkommen,

aber es berechnet Wahrscheinlichkeiten.

So, und jetzt finde ich, was dann passiert ist,

wir tun uns dann wahnsinnig schwer,

über KI's zu reden und sagen,

die Maschine geht einen anderen Weg,

die Maschine rechnet nach einer anderen Logik.

Wir Menschen sind Sinnversteher.

Wir suchen nach Sinn.

Wir wollen verstehen, was uns um uns herum passiert

und wir wollen uns die Welt erklären.

Und wir erklären uns die Welt entweder mit Ursache und Wirkung

und wenn es das nicht gibt, dann erklären wir uns die Welt mit Absicht.

Andere Menschen sind ja für uns auch Black Boxes, ja.

Ich kann ja auch nicht in dich hineinschauen.

Und deswegen, wenn du irgendwas sagst,

oder die Hand hebst, dann weiß ich,

ah, du möchtest jetzt was sagen, genau.

Das heißt, ich interpretiere die Absicht, ja.

Und genau das tun wir mit KI-Maschinen.

Wir anthropomorphisieren sie,

das heißt, wir vermenschlichen sie

und schreiben ihnen plötzlich etwas zu, was sie nicht haben,

nämlich keine eigene Motivation, keine Kreativität,

keinen eigenen Willen.

Auch keine Intelligenz.

Keine Intelligenz, genau.

Nein, sie sind nicht tug.

Sie sind nur wahnsinnig leistungsfähige Rechenmaschinen,

die mit ganz vielen Daten trainiert sind.

Und ich glaube, das ist wichtig zu verstehen.

Wir müssen auch in unserer Sprache wieder daraus aufpassen,

dass wir diesen Maschinen nicht etwas zuschreiben,

was sie nicht sind.

Und das Spannende ist bei AlphaGo, zum Beispiel, hat man das gesehen.

Also, wenn wir dieses Black Box haben

und wir versuchen, wir müssen unsere Wälder einfach erklären können,

sonst können wir nicht leben in dieser Welt,

weil wir ja auch ein Stück weit vorher sagen müssen,

was als nächstes passiert.

Und deswegen tun wir Black Boxes eben mit Absichten interpretieren.

Und als man zum Beispiel AlphaGo,

diese Kommentare als die,

die gegen Lise Doll gewonnen hat,

das hatte man nicht geglaubt, dass das passieren kann.

Dieses Go, dieses Strategiespiel, noch viel komplexer als Schach.

Und da hat eine KI relativ in kurzer Zeit sich das Spielen selbst beigebracht

und hat dann in vier von fünf Spielen gegen den absoluten Weltmeister in Go gewonnen.

Und die Menschen haben das verfolgt und kommentiert.

Und wir können an Spielzüge einer KI nicht anders beschreiben.

Wir können das nicht, weil das mit unserem Hirn,

mit unserer sozialen Konkretion auch gar nicht anders funktioniert,

wenn wir interagieren, als dieser Maschine dann menschliche Eigenschaften zuzuschreiben

und dann so etwas zu sagen, ah, das war jetzt ein kreativer Zug.

Wenn wir eine unerwartete Rechenleistung bewerten wollen.

Und ich glaube, das ist ganz, ganz wichtig.

Ich glaube, das verursacht bei vielen Menschen so die Vorstellung,

das Ding weiß vielleicht tatsächlich etwas, was ich nicht weiß,

aber Wissen tut es nicht.

Zum Thema Intelligenz.

Alle Experten sind sich einig,

wenn wir heute einen Namen wählen würden.

Das schlimmste und schlechteste Ergebnis wäre es,

künstliche Intelligenz zu nennen.

Also ein interessanter Vorschlag, den ich gehört habe, war usefulness.

Was ist gut benutzbar, gut brauchbar?

Also künstliche, für uns nützliche Geräte, wie immer man sie bezeichnen bin,

aber dass wir die Frage stellen, was bringt es uns?

In der letzten Endes soll ja jede von Menschen geschaffene Maschine,

Werkzeug und so weiter, soll den Menschen dienen

und wir sollen nicht ein Appendix dieses Werkzeugs werden.

Und das, glaube ich, muss man sich auch in Erinnerung rufen

und daher wegkommen von dieser Fixation Intelligenz

und wir kommen ja jetzt auch drauf, wie sehr wir unsere menschliche Intelligenz

mit anderen Lebewesen teilen.

Jedes Bakterium, kann man sagen, ist insofern Intelligenz,

weil es überleben muss.

Also es muss Strategien entwickeln, wie überlebe ich.

Heute kollektiv, das Bakterium macht es im Großkollektiv.

Da gibt es viele verschiedene Strategien.

Die Organismen leben ja auch in unterschiedlichen Umwelten und so weiter,

aber jedes Lebewesen hat eine Strategie zum Überleben entwickeln.

Sonst gäbe es sie heute nicht, Punkt.

Und das heißt, sie haben eine Form von Intelligenz.

Also Intelligenz ist ein enormes Spektrum

und wenn wir jetzt maschinelle Intelligenz einordnen wollen, was macht die Maschine,

dann ist das ein kleines Stückchen auf dieser menschlich organischen Lebewesen,

Intelligenz zu überleben.

Die Maschine will ja nicht überleben, die kann ja gar nicht überleben,

die weiß ja nicht, was überleben ist,

weiß auch nicht, welche Strategien notwendig sind, um zu überleben.

Also insofern glaube ich,

ich schließe es nicht nur die Anthropomorphetendenz ist da,

aber ich glaube, wir müssen uns auch verabschieden von diesem Begriff

der Intelligenz und das einer Maschine zuschreiben.

Johanna Pirke, ich würde gerne noch einen Aspekt

weiterführen, den Rotfutterer angesprochen hat.

Eigentlich die Inhalte, die solche Maschinen generieren,

sind die Inhalte, wie immer sie jetzt zustande gekommen sind,

sind in der Regel nicht neutral,

sondern drücken schon, wir nennen das Ideologismen aus.

Ich frage ein bisschen zugespitzt,

inwieweit würden sie meinen, drückt sich in Chatbots

und anderen Produkten der künstlichen Intelligenz,

wir haben doch keinen anderen Namen,

mal Probehalber weiter so,

was drückt sich ideologisch oft in den Hervorbringungen

der KI aus?

Ist es das Weltbild nördiger, weißer, Männer

mit entsprechenden Frauenbilden unter Umständen,

oder ist es neutraler, inhaltlich, was da herauskommt?

Ich sperrnte das gleich.

Ich glaube, ein Spoiler wird schon gehen,

welche Richtung wir Antwort geben können,

aber ich würde diesen Intelligenzbegriff

ganz kurz noch mal unterstreichen wollen,

weil das ist so wichtig, dass wir verstehen,

dass das Wort Intelligenz wirklich in unserem Sprachgebrauch

einfach ganz was anderes bedeutet,

was diese Maschinen können,

und ob das ein System ist,

was auf der Wahrscheinlichkeitstheorie basiert,

oder Logixysteme,

oder es war damals, ich glaube, es war der Kasko,

das war ein Meilenstein,

ein KI-System, also wir sagten immer KI,

wir waren zum ersten Mal auch den Schachweltmeister,

besiegen, konnte,

und er damals sagte,

das ist eine ganz neue Art von Intelligenz da,

in diesem Tisch,

aber es ist halt was anderes,

es ist nicht das Klassische, was wir kennen,

ich glaube, das ist schon wichtig,

dass wir da erstens unterscheiden anfangen,

was kann es, was kann es nicht,

wie funktioniert es, wie funktioniert es nicht,

und deswegen vielleicht,

um da die Brücke zu schlagen,

eben, wir wissen,

das basiert halt sehr viel auf unseren Daten,

und es ist leider unsere,

es ist halt gerade historisch gesehen,

sehr sexistisch,

sehr rassistisch,

alle ISM, Averism, Erasism, Sexism,

finden sich in den Texten,

in den Bildern und so weiter,

die generiert 1S,

und gerade am Anfang,

also wenn ihr selbst Experimente gemacht habt,

mit den bildgenerierenden Tools,

wie Mitjourn jetzt zum Beispiel,

ja, die Bilder,

die generiert werden,

sind stark sexistisch zum Beispiel,

wenn man an einer weiblichen Person fragen wird,

also, sie haben dann alle sehr, sehr große Brüste,

wenn man sagen kann,

sie haben die Welt,

die klassischen, sexistischen Bilder,

die wir uns eigentlich,

jetzt seit Jahren, wir uns dagegen streuben,

und das ist halt so schade,

dass da nicht mehr dagegen gemacht wird,

das gleiche im Bereich Rassismus.

Ich habe ein ganz blödes Beispiel,

ich habe nach einem, nach Gamer gesucht,

ein Gamer, weil aus dem Spielebereich kommt,

und was rausgekommen sind,

sind sehr junge Männer,

die irgendwo im Keller sitzen, und ein Org.

Aber da war halt keine, keine einzige Spielerin,

keine Gamerin dabei.

Und da muss man sagen,

da wird sehr stark daran gearbeitet,

also da kann man als Mensch intervenieren,

das heißt, dass die Algorithmen

so formuliert werden,

dass man das bitte repräsentativ darstellt,

für oder idealistisch darstellt.

Das heißt, ja, es gibt zum Beispiel

aktuell nicht so viele weibliche Informatikerinnen,

aber wenn man

ein idealistisches Weltbild

in dem Fall generiert,

und trotzdem zwei von vier

weibliche Personen da darstellen würde,

dann sind das wieder Rollmodels,

Vorbilder für unsere Zukunft,

wie wir sie haben möchten.

Und deswegen ist es, glaube ich, ganz wichtig,

wenn man jetzt mit diesen Texten generiert,

und wenn man Bilder generiert,

dass die Personen im Hintergrund,

also in dem technischen Bereich,

intervenieren können

und nicht unsere nicht so tolle Vergangenheit

wieder nachbildert, sondern sie leist

eine positive für Zukunft bildert.

Das ist das, was ich mir wünschen würde.

Ich würde sagen, genau das ist es,

es hält uns einen Spiegel vor.

Welche Ideologie

haben wir?

Was haben wir bisher als Frau

angesehen oder was immer wir suchen?

Und es ist dieses Spiegel.

Und wenn wir lernen,

kritisch diesen Spiegel zu befragen,

dann können wir eben

sagen, also das war

die alles Vergangenheit, nicht die Texte,

die Bilder sind alles Vergangenheit,

wir können uns eine andere Zukunft vorstellen.

Und das ist das,

was wir, glaube ich, auch in der Bildung

und in

die Art und Weise, wie wir junge Menschen

da heran führen,

was wir vermitteln können.

Das ist Vergangenheit, es ist der Spiel,

die zeigt nur, was in der Vergangenheit

bisher unser Weltbild war.

Und wenn wir ein anderes wollen,

müssen wir daran arbeiten.

Aber wie kann man da eingreifen

und allzu klischierte

Bilder korrigieren macht,

macht man das auch,

indem die Programmierer

dieser Chatbots Algorithmen ändern

und ich stelle mir das jetzt

neu vor, Quotenregelungen

einführen, auch in der KI,

was Gender, Race und so weiter betrifft.

Oder muss man das machen, indem man den Pool,

aus dem sich die KI bedient,

einfach mit anderem Stoff füttert.

Ein Manzipator,

man kann es sich eigentlich wie diese Quoten

vorstellen, dass man das

Ausgabebild quasi,

die Ausgabebilder dann dementsprechend

nach verschiedenen Regeln

ein bisschen optimiert.

Ich finde das schon wichtig, natürlich,

das Spiel ist wichtig,

nur glaube ich, dass wir

eher in die Richtung

Role Models und Vorbinder

schauen müssten,

weil nicht alle reflektieren.

Das heißt, im Lehrmodus

sind aufsichtspersonen,

zum Beispiel ein Lehrperson,

die mit den Bildern durchgeht

und sagt, was ist daran falsch.

Mit Studierenden haben wir das

letztens als Aufgabe gemacht

und sie haben dann verschiedene Bilder

generiert und dann versucht,

auch historisch akkurate Bilder zu generieren.

Und das, was halt passiert ist,

am ersten, es war sehr viel Sexismus

und sehr viel Rassismus dabei

und sie waren auch nicht historisch korrekt,

aber es schaut trotzdem sehr richtig aus.

Das heißt als gefährlicher,

die Texte klingen so richtig,

die Bilder schauen so richtig aus.

Das heißt, wenn wir natürlich

können, wir dann mit einer Person,

die eine Expertenrolle da einnimmt,

dann darüber reden,

aber nicht alle haben den Luxus,

diese Expertenpersonen nehmen sich dabei zu haben,

diese Supervision.

Deswegen glaube ich, dass wir doch eher

mit den Bildern arbeiten müssten,

die gut für uns wären.

Das ist eine sehr spannende Frage,

wenn sich das in einer Hinsicht ist,

wir interagieren ja mit diesen Systemen auch.

Ich bin ja in der Robotikforschung

und ich bringe das Beispiel Siri,

weil das kennen ja jeder.

Und jetzt stellen Sie sich vor,

Sie haben so ein Assistenzsystem,

also so ein Sprachassistenzsystem wie die Siri

und die Siri, egal wie sie die fragen,

ob sie jetzt nicht zu der sind

oder nicht, die antworten,

die man sehr höflich zurück.

Was lernen die Nutzer erinnern?

Ich kann die Siri beschimpfen

oder trotzdem immer die Fragen

auf diese sehr höfliche Art und Weise.

Und jetzt beobachtet man,

dass man das natürlich dazu führt,

dass man sich dann gar nicht mehr so bemüht,

eigentlich in der Interaktion.

Und die Frage ist jetzt,

und das ist wirklich eine Designfrage,

bei Siri hat man das ja mittlerweile gemacht,

ursprünglich, wenn man zu Siri sagte,

du bist eine Schlampe,

sagte sie, oh, ich würde erröten,

wenn ich könnte.

Mein Podcast macht kurz Pause.

Hate Speech dagegen hört nicht so einfach auf.

Wer hat dir überhaupt erlaubt

zu Reden, Schlampe?

Verzieh dich in die Küche, bevor ich herausfinde,

wo du wohnst und dir persönlich Danke sage.

Hör nicht auf die Hater.

Du machst einen richtig guten Job

und wir stehen alle hinter dir.

Wir alle entscheiden,

ob wir das Netz dem Hass überlassen.

Werde Teil der Telekom-Initiative gegen Hass

im Netz und setze ein Zeichen.

Telekom.

Das war die Standard Antwort.

Das nennt man dann

Easter Eggs.

Das haben sich die Programmiere so ausgedacht,

dass das dann im Lustig wäre,

wenn sie dann so antwortet.

Und in Wahrheit ist das unglaublich sexistisch.

Jetzt stellen sie sich aber vor,

wie ändern das?

Und die sagt, na herrst, oder?

Wie redest du mit mir?

Ich meine, eigentlich wäre das so ein Mensch,

würde vielleicht so genau so

eine angemessene Rückmeldung.

Wer würde sich solche Systeme kaufen,

die dann auch

einer einmal so korrigieren,

indem, wie man ist,

natürlich funktioniert das eben nicht so einfach.

Das heißt,

das, was wir in der Interaktion

mit Menschen durchaus erlernen,

nämlich sozialen Normen,

indem wir einfach miteinander agieren,

ist in die Implementierung

von interaktiven Systemen schon schwieriger.

Und jetzt komme ich zum zweiten Aspekt,

den ich hier spannend finde.

Ich habe zum Beispiel Dali

von OpenAI gefragt,

dass ich einen Vortrag gehalten habe

für die Gewerkschaft.

Es möge mir ein Bild generieren

für den Vortrag,

und zwar eine dystopische Zukunft

von Arbeit und KI.

Und Dali hat mir gesagt,

nein, dieses Bild generiert

mir das System nicht,

weil das entspricht nicht der Polizie

von OpenAI.

Das heißt, ich habe einen

Zensualkorb und

eine Zensur bekommen.

OpenAI hat beschlossen,

bestimmte Bilder darf ich mir nicht

vorstellen,

oder darf sich OpenAI nicht vorstellen,

und ich darf das nicht sehen.

Und das ist die nächste Frage,

wer entscheidet denn jetzt darüber,

was wir sagen dürfen und was nicht

und was jetzt angemessen ist

und was nicht.

Und im Grunde genommen entscheiden das jetzt

sehr mächtige Konzerne,

die nicht demokratisch legitimiert sind,

sondern einfach nur wahnsinnig viel Geld

haben

und auf wahnsinnig viel Daten sitzen

und diese Systeme entwickeln können.

Und das

ist im Grunde genommen

jetzt eigentlich auch ein recht

schwieriges Problem zu lösen,

weil OpenAI ist ja angetreten

und hat gesagt,

es hat nämlich früher auch schon Chatbots

gegeben, die so gelernt haben,

wie Tay von Microsoft, wenn man sich

die Stolten vom Netz genommen

werden, weil er so rassistisch war

und so viel Nazi-Propaganda von sich

gegeben hat, dass das unerträglich war.

Und jetzt sagt man,

wir sind aber ethisch, das heißt,

wir regulieren was dieses System davon

und was nicht, wir nutzen dann

Reinforcement Learning und bestrafen

quasi alles unethische Verhalten.

Aber wer entscheidet,

wenn was unethisch ist,

haben wir dann alle

dieselben ethischen Vorstellungen,

haben wir in Europa zum Beispiel

die gleichen Vorstellungen wie die Amerikaner.

Und

wollen wir das,

wollen wir nicht selbst auch bestimmen,

was für uns

ethisch und moralisch ist.

Und dann komme ich jetzt

zu einem wichtigen Punkt,

auch zur Regulierung von KI,

weil wer da denn leiert in Europa

jetzt diese Entwurf auch

hier steht,

es ist,

ich glaube, ein ganz wichtiges

Prinzip für Europa

selbst zu bestimmen

wie diese Technologie aussehen soll

und im Grunde sind diese

Regulierungsvorschriften

Vorschriften darüber,

welche Designs

zulässig sind oder nicht

und welches Stakeholder

Interessen berücksichtigt werden müssen,

damit wir sie im europäischen

Markt zulassen.

Und das ist ein ganz wichtiges

es ist demokratisierend.

Also die Regulierung

nimmt uns nicht weg,

sondern hilft uns

unsere Vorstellungen

dieser Technologie, also über diese

Technologie auch umzusetzen.

Und ja, natürlich

gibt es unterschiedliche Interessen

und auch wir alle sind nicht alle gleich

und haben die gleichen Wünsche an die

Technologie. Aber zumindest

sind wir

über demokratische Prozesse

daran beteiligt,

wie dieses Gesetz am Ende

des Tages aussehen wird

selbst wenn es ein europäisches Gesetz ist.

Bei OpenAI

können wir gar nichts.

Wenn die morgen zutrehen,

dann drehen die TPD zu

und wir können uns 10 mal ausmalen,

wie cool es wäre das nächste Bewerbung

schreiben mit dem System zu schreiben.

Und ein solches Gesetz helfen Sie

uns auch nicht nur auf kurzen Wissen,

die ist EU-weit in Diskussion

aber vielleicht sollte man

das für das Publikum

hier anmerken.

Also die

auf EU-Ebene wird ja schon seit

längerem an Regulierung gearbeitet.

Da gibt es verschiedene

Gesetzesteile,

die einen richten sich

an die öffentliche Verwaltung,

zum Beispiel auch Österreich,

bis zum September die Regulierung

umsetzen in österreichisches Recht.

Bis September haben wir nicht mehr

viel Zeit und

die Ministerien streiten noch welches

Ministerium dafür zuständig ist,

wo sich hier auch angeht.

Und der wichtigste

Gesetzesentwurf jetzt

ist gerade

im Europäischen Parlament diskutiert worden,

als

JGPT auf die Welt gekommen ist

und die Welt begeistert hat.

Und insofern hat das

Europäische Parlament dann gesagt,

Moment mal, wir müssen das einbauen.

Und da gab es dann viele

Kompromisse, aber jetzt ist das

in den letzten Tagen im

Europäischen Parlament verabschiedet

sein, muss das noch mal zurückgehen

an den RAS, an

die Kommission, aber dann wird das

rauskommen. Und die Grundeinstellung

ist die, es wird

ein risikobassierter

Zugang gewählt.

Das heißt,

in dieser Regulierung,

in diesem Gesetz steht, es gibt

viele unterschiedliche Risikogruppen,

also man kann sich das vorstellen wie

eine Ampel, also es gibt Rot, es gibt

Orange, es gibt

dann sozusagen wie bei unserer

Covid-Ampel, es gibt

vier Farben und die letzte

Farbe ist also zugänglich.

Die Frage

ist, was ich gut finde

daran ist, dass es flexibel

ist. Man kann die Risiken

dann unterschiedlich bewerten, wenn

sich herausstellt,

was wir jetzt machen, wir

verbieten etwas.

Gesichtserkennung ist etwas, was

im Roten Bereich ist.

Wenn sich aus

irgendwelchen Gründen herausstellen sollte,

die Leute finden das nicht mehr

arg, dann kann das Orange werden

und umgekehrt kann etwas in den Roten

Bereich kommen. Also diese Flexibilität

ist da. Aber es gibt

natürlich ein Kontinuum von Risiken

und jemand muss auch ständig

drauf schauen. Wie

bewerte ich jetzt diese Risiken,

wie implementiere ich das?

Und das ist wie bei jedem

Gesetz immer die Frage,

wie implementiere ich

das Gesetz, wie schaue ich

darauf und was passiert dann, wenn

sich jemand nicht an das Gesetz

hält. Und dann kommen die Sanktionen

dazu und hat

in Europa, die

auf die ökonomische Macht und

den politischen Willen,

ist gegenüber diesen riesigen

ökonomischen

Giganten

in den

USA entgegenzustellen und zu sagen,

wir halten

an unseren Werten fest, an unserer

Regulierung fest. Das ist

eine offene Frage.

Ich würde gerne noch einmal

auf den Bildungsbereich

zu sprechen kommen, weil mir das

wichtig ist. Einige von ihnen

sind ja im

Bildungsforschungsbereich tätig. Sie haben

die Frage, was sie

tun, wenn ich an meine

Studentenzeit zurückdenke.

Da haben wir einen Pro-Seminar

besucht oder ein Seminar. Und dann

war die Aufgabe, schreibe zu

Semestereinde eine 20-seitige

Arbeit über Georg Büchner

oder über der 30-jährige

Krieg und der besondere

Berücksichtigung Gustav

Adolfs oder was auch immer.

Und dann hat man sich hinsetzen

müssen. Damals, wenn schon ein

Schreiten schreiben müssen.

Heute, so stelle ich mir das vor,

mein Gott, das ist ein heißer

Juni Tagmann, möchte gerne auf die Donauinsel.

Ich sage zu dem

Jet-Botge, schreibe mal 20

Seiten über den 30-jährigen Krieg

und der besondere Berücksichtigung

Gustav Adolfs, der spuckt mir das aus

nach zwei Minuten. Ich überfliegs kurz,

gehe noch ein bisschen drüber, ein, der

vielleicht noch die eine oder andere

vom Leon-G-Baden.

Von Kantas sozusagen

noch funktionieren. Und dafür kriegt

man dann Noten.

Kann das noch funktionieren oder wird

die Erfindung von KI nicht

auch voll den Uni-Betrieb vollkommen

auf den Kopf stellen, Frau Kössel?

Naja, also

das machen die Studierenden

und probieren das am Beginn schon normal.

Und das gibt aber dann Programme, wo man

klassifizieren kann, hat das ein Mensch

oder einen KI geschrieben.

Ja, natürlich.

Das sind nicht diese Plagiat, die

dann sagen, nein, es gibt

Klassifier und

dann machen die Studierenden voll.

Das ist auch nicht blöd, ja.

Die lassen sich den Text

auf Englisch ausgeben

und dann geben sie es in DBL

auch ein KI-Burger

Mondatensübersetzen.

Und dann kann der Klassifier

wieder nicht erkennen.

Das heißt, man muss halt da immer

so ein bisschen hin und her tun.

Ich meine, das ist wie Cyberkriminalität.

Man muss da irgendwie

Wege finden, wie man

solche Formen des Plagiats

auch tatsächlich verhindert.

Aber ich sage jetzt noch etwas Lustiges.

Mein Sohn

musste auch in der 5. Klasse-Gymnasium

über ChatGPD

aufgetragen bekommen,

einen Text schreiben.

Mein Sohn hat jetzt nicht ChatGPD verwendet,

sondern er hat Mama-GPD verwendet,

weil die ist ja Expertin in diesem Gebiet.

Also habe ich mich hingesetzt

und wollte mich weiter sagen.

Hat für meinen Sohn die Hause

so schnell einmal am Abend

so eine halbe Seite Text geschrieben.

Und ich glaube jetzt wirklich,

ich ...

Ich hätte jetzt das Gefühl gehabt,

ich habe das gut gemacht.

Und dann frage ich ihn zwei Tage später,

sagt du, hast du,

hast vom Lehrer die Bewertung gekriegt

von meinem Text,

die da abgegeben ist,

ja Mama,

dem hat das überordentlich gefallen,

weil das war nicht strukturiert,

das war nicht so, was er erwartet hat,

weil das ist folgende Textsorte gewesen

und da hättest du das genau so schreiben müssen.

Und er hat gedacht,

ist sehr spannend,

also das verlangen die in der Schule

von unseren Kindern,

dass sie Textsorten

exakt reproduzieren können.

So mein formalistisch.

Ja, und das kann ChatGPD

immer wieder ein paar,

weil das ist ja genau das,

also genau strukturiert,

genau die gleiche Aufbau, immer und so weiter.

Und dann habe ich mir gedacht,

ja, also ich meine,

es zeigt uns doch,

wie unser Bildungssystem ist.

Also was verlangen wir denn eigentlich

von unseren Kindern in der Schule,

dass die überhaupt mit ChatGPD

schwindeln können

oder an den Universitäten?

Also,

wieder mal zu hinterfragen,

was wollen wir denn eigentlich,

was die können?

Und am Ende des Tages

brauchen wir Qualifikationen noch einmal,

das reproduzieren,

das kann man automatisieren,

das wissen wir, das geht gut,

das Standard.

Aber was wir bräuchten,

sind Problemlösungen,

analytisches Werkzeug

zum hinterfragen,

kritisches Denken, Kreativität, Innovation,

Führungsstärke.

Wie trainieren wir doch den Kindern ab

oder nicht, also Intuition

trainieren wir den Kindern ab,

indem wir sie in Strukturen reinpressten

und denen sagen, welche Textsorten

wir auszusehen haben.

Und ich glaube, das

ist eh wieder ein wunderbarer Spiegel,

weil wir können in Wahrheit jetzt

als Lehrende uns hinsetzen

und sagen, womit soll eigentlich

sollen meine Studierenden am Ende des Tages

rausgehen, ist es das reproduzieren

und wissen,

oder sind es andere Qualitäten

und wie kann ich die dann eigentlich prüfen?

Und prüf ich sie tatsächlich

nur mit so einem Standardaufsatz

oder mache ich irgendetwas anderes?

Ich glaube, vielleicht entstehen anderswo

so kleine Gruppen, die mit neuen Vorschlägen

kommen oder die Mamas tun

und Papas tun sich zusammen

und lassen sich auch etwas einfallen,

wie man den Kindern etwas

beibringt, von denen die Eltern

überzeugt sind, dass es die Kinder brauchen.

Also es gibt ja auch

andere Initiativen als nur

auf die Kommissionen des Ministeriums

warten zu müssen.

Wir haben den Schulen so viel zu sagen,

das ist ja das.

Ja, wir gehen uns ohne die Szenäre aus,

also insofern brauchen wir auch

etwas Neues.

Und ich bin wirklich überzeugt

davon, diese Art

von Auswendiglernen

auch, das war ja bisher nicht

so ein Geschichtsunterricht

oder auch deutsche Literatur.

Also sehr viel war einfach

dieser Lehrstoff und das war

so die Idee aus dem 19. Jahrhundert.

Man füllt

Inhalte

in die leeren Gehirne der Kinder.

Und die Kinder haben keine leeren Gehirne,

sondern wir müssen

die Lernfähigkeit

und die Potenziale der Kinder

heben.

Und insofern glaube ich,

sind es spannende neue Aufgaben,

eigentlich

wenn man jetzt verschiedene Texte

vor sich hat, die einen sind von einer

künstlichen Intelligenz,

geschrieben und die anderen von real

existierenden Menschen,

da man die eigentlich gibt es der

Rex oder Fade,

wie man diese Texte unterscheiden kann.

Kann man da draufkommen,

was KI ist und was nicht KI ist,

ohne dass man die

High-Tech-Systeme der TU

zur Verfügung hat?

Ich habe das mal ausprobiert in einem Artikel

und echte Bewertungen

von Google Maps genommen

und welche generiert

und dann so geschaut,

so eine Umfrage erstellt für die Lesenden

zu schauen, ob sie die KI richtig

erkennen.

Und in vielen Fällen

sind die Leute echter nebengelegen,

weil natürlich,

es kommt darauf an, wie oft man es schon benutzt hat,

woran man KI nicht erkennt,

ist, dass sie

über sich reden, die kann auch sagen,

die Sahne dort in dem Café hat mir

sehr gut geschmeckt, oder diese eine Kellner

war unsympathisch.

Das kann die KI

gleich gut wie der Mensch, was sie

hingegen eben aber schon tut,

ist sie, weil sie statistisch arbeitet,

sind die Texte im Moment zumindest noch

auf eine Art Repetitiver

und weniger abwechslungsreich,

als was Menschen machen.

Ja, wenn wir reden

und schreiben, wir machen

überraschende Sachen,

es ist nicht immer so konsistent

und gerade das geht durch die Statistik zum Teil verloren.

Grammatikfehler, glaube ich.

Grammatikfehler genau,

die haben auch in Studien Leute gedacht,

dass das ein Problem

der KI ist, oder ungefähr,

man erkennt menschliche Texte daran,

dass sie korrekt sind,

aber eigentlich ist es genau umgekehrt,

oder weil der Mensch macht Fehler.

Genau Fehler, man kann die Maschine nicht machen.

Aber was ich dazu auch noch

habe, eben, ich glaube, dieses Versuchen,

einen Textor das so durch zu jagen

und dann das ja, nein, das

erstens lässt sich damit austricksen,

man lässt sich das austricksen

und zweitens ist schon auch die Frage,

das Potenzial der KI

ist ja auch für Leute, die vielleicht

sich nicht so leicht tun, ihre Gedanken zu formulieren,

dieses Instrumenter zu verwenden

und was ist dann mit Texten,

die Leute schreiben,

die Maschine praktisch nutzen,

ihre eigenen Gedanken nochmal besser zusammenzufassen

oder etwas kürzen

oder ein bisschen korrekt auf zu formulieren

und ich glaube, da

werden wir die KI eigentlich

in unsere Arbeit integrieren

und dieses am Resultat anschauen

ist das Mensch oder Maschine,

das ist der falsche Weg.

Du bist ja jetzt auch schon passiert

mit Rechtschreibprogrammen

und Google Translator

und ähnlichen Hilfsmitteln.

Elson, Elson oder Gegenlesen und so

Texte sind jetzt schon eigentlich

genau, also ich glaube auch, dass man

den Bildungsbereich natürlich ein bisschen

umdenken muss, aber wir haben das in der Vergangenheit

auch schon oft sehr gut gemacht.

Das Team ist das Beispiel und wenn man

das vergleichen kann, ist es auch zum Beispiel

die Einführung vom Taschenrechner.

Damals war auch die komplette Panik,

ob wir es alle...

Darf man das verwenden, wie kann man es verwenden,

wenn Wirklichkeit sind einfach die Rechnungen,

die wir damit machen können, viel komplexer geworden.

Dank des Taschensrechners

sind die Aufgaben in der Schule viel

größere Probleme damit lösen.

Und am ähnlich kann ich mir auch vorstellen,

dass die neuen Beispiele, die

KI dann vielleicht mitverwenden, einfach komplexer

werden und vielleicht ein paar positive Gedanken

auch, wie KI auf jeden Fall positiven

Einfluss auf unser Schulsystem

oder auf unsere Art und Weise,

wie wir lernen haben kann.

Es kann auf der einen Seite auch Leerende

natürlich unterstützen.

Nicht nur die Schüler, Schülerinnen werden

die KI verwenden, sondern natürlich auch Leerende

um vielleicht neue Aufgaben,

personalisierte Aufgaben zu stellen und so weiter.

Und das nächste,

das finde ich als Forschungs- und Entwicklungsbereich

total schön,

dass Leerende

mit der KI gemeinsam lernen.

Das heißt, wir haben plötzlich

alle daheim einen virtuellen Tutor

und virtuellen Assistenten,

der uns bei den Hausaufgaben hilft,

mit uns gemeinsam lernen,

den wir fragen können

und plötzlich ist Bindung viel zugänglicher für alle dadurch.

Das ist auch jemand,

der überhaupt keinen Bias hat.

Man muss ein bisschen kritisch auch sagen,

wie Sanhalt oder Leerende

sind immer abhängig von der Qualität

von den Leeren, von den Lehrerinnen

und nicht alle sind immer

sehr gleichfair zu allen.

Aber ein maschinell basiertes System

kann gleichfair zu allen sein

und allen die gleichen Möglichkeiten

bieten.

Und das finde ich total spannend,

dass wir KI einfach wirklich positiv nutzen,

um lernen für alle

und vielleicht personalisierte Art und Weise

zu ermöglichen.

Wir haben bis jetzt

eher, kommt mir vor,

wie Sie es erlebt haben,

die positiven Facetten des

Themas hervorgehoben

waren sehr pragmatisch

optimistisch, würde ich sagen.

Lassen Sie uns auch noch ein bisschen

über die Probleme reden.

Es gibt natürlich schon auch dystopische

Szenarios,

was die KI alles

anstellen kann, an Böse, mann

schlechte, mann desinformationen

und so weiter.

Helga Novotny,

wie sehen Sie das?

Es ist ja auch nicht nur so, dass wohlmeinende

Menschen die

für Bildung eintreten und für Demokratie

sich der KI bedienen werden,

sondern es gibt ja auf der Welt auch

andere Akteure,

ganz kurz vielleicht auch nur.

Aber wo sehen Sie da vielleicht auch Gefahren?

Also der Missbrauch

und die Manipulationsmöglichkeit

ist natürlich enorm,

weil die

Verbreitung sehr schnell vor sich geht

und man es auch schwer überprüfen kann

und so weiter.

Aber persönlich sehe ich die größte Gefahr

in dieser unglaublich

starken Konzentration

von ökonomischer Macht

in den großen internationalen

Konzernen.

Und ich meine, kriminelle

und machenschaftend, das gibt es,

das muss man bekämpfen

und so weiter, aber

ich sehe einfach

es sind

diese großen Konzerne, die letzten

Endes darüber entscheiden

welche

Daten werden überhaupt

zum Training verwendet,

wie wird es trainiert,

wir haben keine Ahnung,

wie genau das gemacht wird.

Und es ist vor kurzem

eine Studie in

Frankfurt veröffentlicht worden,

um zu sehen,

die verschiedenen Modelle B

schneiden sie ab,

gegenüber dieser letzten EU-Data

die ich eben erwähnt habe

und

keines dieser Modelle

schneidet gut ab.

Was heißt das aber?

Das heißt, wir können

nicht einmal sagen, warum sie nicht

gut abschneiden,

weil die Bärmen uns nicht sagen

mit der Black Box gearbeitet werden.

Die Algorithmen sind nicht

öffentlich zugänglich.

Die Datenlage ist nicht öffentlich zugänglich.

Und was ich

auch noch schlimm finde,

ist, dass die

Finanzierung

von öffentlicher Seite

und von privater Seite

unglaublich

aus dem Geistgewicht ist.

Normalerweise sagt man

zwei Drittel für die

Veranstaltung und Entwicklung

kommen von privater Seite.

Ein Drittel wird öffentlich

und in KI Bereis

ist es ein Sehntel,

das öffentlich finanziert wird.

In Zahlen

ungefähr 300 Millionen Euro

pro Jahr in den USA

Dollar und Euro

gegenüber 300

Milliarden,

die von privater Seite kommen.

Und wenn wir etwas überprüfen wollen,

wir haben nicht einmal die Möglichkeit,

das zu überprüfen.

Und insofern glaube ich,

wir müssen darauf hinarbeiten,

dass die KI ein öffentliches Gut wird.

Und nicht in den Händen

von einigen wenigen

großen Firmen bzw.

dann fünf Personen,

die wir alle kennen, Elon Musk

und dergleichen,

dass diejenigen sind, die darüber bestimmen,

auch in welche Richtung die Forschung

weitergehen wird.

Es ist ja auch wichtig,

dass wir die Möglichkeit haben,

diese Offenheit der Forschung,

die Freiheit der Forschung.

Man kann ja auch andere Themen beforschen,

als die, die für die Firmen

interessant sind.

Und für die Firmen ist interessant,

das, was uns dazu bringt,

weiterhin das zu wollen,

was uns die Firmen anbieten

und uns süchtig zu machen,

auf das, was sie anzubieten haben.

Mit dem muss man entgegentreten

und auch eine öffentliche Diskussion

darüber haben.

Und KI muss ein öffentliches Gut werden.

Rot-Fulterer, genau das,

was Helga Nordni jetzt fordert,

will dich mir ein,

höre ich schon seit 10, 15, 20 Jahren

im Bereich von Social Media.

Also Facebook, genau dieselbe Diskussion.

Und es sind ja zum Teil

auch dieselben Akteure,

die jetzt in Sachen KI aktiv sind.

Man müsse ein

öffentlich-rechtliches Social Media

in Europa einführen

oder in Österreich oder wo auch immer.

Wird schon lange gefordert.

Passieren tut eigentlich nichts.

Korrigieren Sie mich.

Wie sehen Sie das?

Wie sehen Sie die Zukunft der KI

im Licht dessen, was Helga Nordni

gerade gefordert hat?

Ja, ich glaube der Unterschied bei Social Media

ist, dass es so generell

alle davon profitieren, wenn sie auf dem

Netzwerk unterwegs sind, wo alle anderen sind.

Und ich glaube schon,

dass sie jetzt zum Beispiel

mehr Diversität

zulassen.

Es gibt auch offene Open Source,

also Projekte mit offenen Code,

die dann auch in dieser Studie

am besten abgeschnitten haben.

Die versuchen,

gemeinschaftlich

Datenzentren zu nutzen und zu überlegen,

welche Texte wollen wir überhaupt reingeben.

Und dann können die Konsumenten

im Grunde selber ein bisschen rumprobieren

und schauen, welche

Texte wir jetzt verwenden.

Da kann mehr parallel existieren

als bei Social Media.

Die Sache, die mir schon sorgt,

ist die Frage des Informations.

Es geht ja nicht einfach um

gefälschte Artikel, sondern

dass diese Modelle dafür benutzt werden können,

dass, wie zum Beispiel russische

Desinformationen, die vorher musste man

Leute zahlen, die Englisch sprechen,

sehr gut Englisch sprechen in Russland,

die sich dann ausgeben als Amerikaner

und 200 Posts am Tag schreiben

und unter irgendwelchen YouTube-Videos

kommentieren, ja, das sehe ich auch so super.

Oder das ist eine Lüge.

Und ich glaube, das geht jetzt auf

Knopfdruck.

Da ist schon die Frage, ich glaube,

da muss man auch die Firmen irgendwie

einbeziehen zu überlegen,

wie können diese Sachen gestaltet werden,

sodass das nicht so leicht zunächst brauchen ist.

Und da kann man auch viel da einbauen

oder man kann von ihnen verlangen,

dass sie schauen, was für Abfragen

dann überhaupt getätigt

wird da ein Kunde von mir, die ganze Zeit

solche Sachen. Und ich glaube, da muss man

relativ offen sich überlegen,

was gibt es da konkrete Instrumente,

um den Missbrauch zu verringern,

um die Öffentlichkeit

eben informiert zu halten.

Mhm.

Jetzt habe ich eine Kursage.

Wir brauchen Regulierung,

wir brauchen

gegen Modelle, gegen Öffentlichkeiten

auch vor der Elger-Noveau,

wie sehen Sie das?

Ja, sehr ähnlich.

Ich glaube, was ganz wichtig sein wird,

ist

der eine Punkt zu sagen,

dieses Geschäftsmodell

Services gegen Daten,

das ist ein Geschäftsmodell,

das wir eigentlich verbieten müssen

in Zukunft.

Weil das ist das, wo die Menschen,

ich weiß schon,

man sagt, ich habe da ja nichts zu verbergen

und warum sollten die nicht und so weiter,

aber wenn sie

ein spannendes Buch lesen wollen,

überlesen Sie schon,

Schanasubov, Überwachungskapitalismus

und da lesen Sie genau

drinnen, wie

diese großen Konzerne

uns zu vulnerablen

und zwar jeden von uns zu vulnerablen

Personen machen, manipulieren

uns in bestimmte Richtungen lenken,

nicht nur profilien,

sondern ganz spezifisch

targetten, wenn Sie

einen Lauf-App verwenden,

dann kriegen Sie dann,

wenn Sie gerade einen hohen Puls haben,

legen Sie die Gatorade-Werbung drauf,

weil Sie dann nämlich vulnerabel sind

und dann eher

das Produkt kaufen

und ich meine, das sind Dinge,

wie Sie arbeiten im Grunde genommen.

Das heißt, dieses Targeting,

dieses individuelle Targeting,

dieses

Profiling, dieses Modell,

ich nutze

gerade das ChatGPD

und die Augen, die alles ab

das glaube ich,

das tut uns allen nicht gut,

das ist sogar ein Punkt,

den ich ganz wichtig halte,

erachte

und

dann denke ich mir tatsächlich,

dass dieser Regulierungsvorschlag

von der Europäischen Kommission

insofern einer ist,

der

auch ganz gute Richtung

bringen könnte, nämlich

der Regulierungsvorschläge,

aber da drinnen sind auch Vorschläge

dazu, wie wir in Europa

unsere Daten

besser zusammenführen können

und miteinander teilen

können, um in Europa

auch tatsächlich diese

Entwicklungen voranzutreiben

und

wie wir quasi auch in Europa

eine Größe gebinden können,

um etwas diesen großen

Konzernen entgegenzusetzen

das haben wir jetzt ganz wenig gesprochen,

aber KI ist ja nicht nur

ChatGPD

und diese anderen Anwendungen,

sondern das ist ja auch ganz viel robotik

zum Beispiel

und das sind wir in Europa

super, das sind wir,

ich würde fast sagen Weltmeister,

also können

auch andere

Kontinente gar nicht so gut mithalten,

weil wir

in der gut old fashioned

logischen KI

total gut unterwegs

sind in Europa.

Also alles was nicht nur Daten basiert,

sondern

symbolisch

KI ist und was

auch im Bärdet KI

ist.

Mag was ein Spruch konkret?

Robotik, in welchem Sinn Pflegeroboter

für alte Menschen

oder Roboter, die

Automobilfabriken steuern?

Zum Beispiel

wenn Sie sich vorstellen

wir haben ja ein

wahnsinniges Klimaproblem

und wir müssen eigentlich Ressourcen

in Zukunft vielen Ressourcen schonender

verwenden, um zum Beispiel

auch günstiger zur Ernährung

zu kommen. Und dann gibt es

Precision Farming

wo sie robotische Technologie haben

wo sie wirklich

Ressourcen, Wasser,

Nährstoffe etc. ganz

gezielt und spezifische

einsetzen können, dass sie viel

effizienter und Ressourcen schonender

die Lebensmittel produzieren können.

Das ist zum Beispiel ein wunderbares Beispiel

von KI, wo wir sagen

ja bitte mehr davon.

Wir wollen ja

alle unsere Solaranlagen in unseren

Häusern haben.

Wir müssen auch die Energiewende schaffen.

Wenn wir das wollen, müssen wir die einspeisen

in das öffentliche Netz.

Wenn wir keinen Blackout haben wollen

brauchen wir ganz viel KI

damit wir das

managen, dass unser Netz stabil bleibt.

Das sind KI-Systeme

mit unglaublicher Rechenleistung.

Die sind so super, so sinnvoll

und bitte lasst uns in diese Richtung

KI-Systeme entwickeln

um diese großen Herausforderungen

auch zu lösen.

Und da ist diese Technologie

unendlich hinsreicher

und in anderen Bereichen

ist sie entbehrlich, würde ich sagen.

Sie hörten eine Wiener Vorlesung

vom 29. Juni 2023.

Bei der Gemeinde Wien

die diese Vorlesung organisiert

bedanke ich mich sehr herzlich

für die Zusammenarbeit.

Ich verabschiede mich von allen, die uns auf UKW hören

im Freirad Tirol

und auf radioaguralen Kärnten.

Wissenschaft ist ein großes Thema im Falter.

Es gibt dazu ein eigenes Ressort.

Ich empfehle ein Abonnent des Falters.

Alle Informationen gibt es im Internet

unter der Adresse

arbo.falter.at

Ursula Winterau

hat die Signale gestaltet.

Philipp Dietrich betreut

die Audio-Technik im Falter.

Ich verabschiede mich im Namen des Gesamteams.

Bis zur nächsten Sendung.

Sie hörten das Falter Radio

den Podcast mit Raimund Löw.

Hallo.

Hallo.

Könnt ihr mich hören?

Okay.

Mit Podcastwerbung steht eure Message

im Mittelpunkt.

So kommt eure Botschaft wirklich an

und erreicht skalierbar eure Zielgruppe.

Denn Podcastwerbung bietet euch

das perfekte Umfeld für eure Kampagne.

Erfahrt jetzt mehr auf

go.acast.com

slash Werbung.

Das war's.

Danke.

Danke.

Danke.

Danke.

Danke.

Danke.

Danke.

Danke.

Danke.

Danke.

Danke.

Danke.

Machine-generated transcript that may contain inaccuracies.

Erklärungen zu Potenzialen und Herausforderungen der revolutionären Technologie von den Wissenschaftlerinnen Ruth Fulterer, Sabine T. Köszegi, Helga Nowotny, Johanna Pirker bei einer Wiener Vorlesung mit Günter Kaindlstorfer.

Hosted on Acast. See acast.com/privacy for more information.