Nauka To Lubię: Sztuczna inteligencja namiesza w wyborach?

Nauka To Lubię Nauka To Lubię 10/12/23 - Episode Page - 9m - PDF Transcript

Za kilka dni wybory, a ja postanowiłem zrobić film o technologii, która ma na ich wynik znacznie większy wpływ, niż może nam się wydawać.

Tą technologią jest sztuczna inteligencja.

W tym filmie opowiem, gdzie widzę zagrożenie, ale obiecuję, że zrobię też film o tym, jak sztuczna inteligencja mogłaby zmieniać demokrację przedstawicielską,

czyli taką, w której to my wybieramy swoich przedstawicieli w demokrację bezpośrednią.

Tym tematem wiąże się pewna czysto teoretyczna koncepcja cyfrowego rządu.

Opowiem o tym, zrobię o tym film, ale od razu mówię, że nie jestem zwolennikiem takich rozwiązań.

Na razie śledząc to, jak wykorzystujemy technologię cyfrowe bliżej mi raczej do stwierdzenia, że to nie ekstremizmy, ale technologia może pogrzebać demokrację.

O zagrożeniach związanych z rozwojem sztucznej inteligencji mówi się całkiem spory, ale akurat o tym, że AI może zachwiać podstawami demokracji, niemal nie słychać.

Demokracja opiera się na kilku filarach, ale wśród nich zaufanie do osób i do instytucji, prywatność, autonomiczność wyboru i dostęp do informacji są kluczowe.

Sztuczna inteligencja to analiza ogromnych zbiorów danych i wyciąganie z tych danych wniosków.

Wystarczy analizowanie naszego ruchu w internecie tego, co czytamy, co i jak komentujemy, a nawet niespecjalnie rozbudowany algoryt z dość dużą dozą prawdopodobieństwa wskaże, której partii jesteśmy zwolennikami, ale wskaże także, która partia jest na drugiego wyboru, a na którą nie zagłosujemy nigdy.

I już samo to jest w pewnym sensie podważeniem tajności wyborów.

Prywatność to prawo każdego z nas, tyle tylko, że algorytmy tego słowa nie znają.

I nie tylko w kontekście wyborów technologie cyfrowe mają potencjał do całkowitego pozbawiania nas prywatności.

I uwierzcie mi, ten problem dotyczy także osób, które w internecie bywają rzadką.

Tu nie chodzi o to, że gdzieś zostanie opublikowana lista zwolenników Partii A albo Partii B.

Tu chodzi o to, że w zależności od preferencji politycznych algorytmy przedstawiają nam inny obraz rzeczywistości.

Systemy cyfrowe masowo gromadzą nasze dane, wykorzystują je i przetwarzają, wykorzystują także do swojej nauki.

Najczęściej nie mamy o tym bladego pojęcia, a często mowa o danych bardzo wrażliwych, żeby nie powiedzieć wręcz intymnych.

Jak budować społeczeństwo obywatelskie, które jest podstawą działania każdej dojrzałej demokracji,

gdy jako obywatele jesteśmy profilowani i czy tego chcemy czy nie otaczani już nie bańkami, ale bunkrami,

przez które niezwykle trudno przebić się innym niż tym dokrojonym do nas przekazem?

To pozwala nam i sprawnie manipulować, ale przekłada się także na coraz mniejsze zaufanie do instytucji

i do procedur takich jak wybory czy chociażby referenda.

Partię polityczne szerokimi garściami korzystają z narzędzi profilowania.

Tutaj w zasadzie jedynym ograniczeniem są finanse, bo na pewno już nie technologia.

Wcześniej też nie każdy korzystał ze swobody pozyskiwania informacji,

ale dzisiaj trzeba być specjalistą, by skorzystać z nich w ogóle.

Gdzie w tym wszystkim jest wolność i równość w dostępie, czy w każdym aspekcie naszego życia,

ale także w prawie dożytelnej informacji bez wolności i równości demokracja po prostu nie działa.

Kłamstwo nie jest wynalazkiem współczesności, to jest oczywiste,

ale kłamstwo, które można dostosować do milionów uszu już tak.

I to kłamanie czy manipulowanie może się odbywać na wielu różnych poziomach.

Technicznie rzecz biorąc w zasadzie nie ma żadnych granic,

które stałyby na drodze do zmanipulowania dowolnego obrazu, dowolnego materiału, wideo czy dowolnego głosu.

Popatrzcie na to.

Mentiro manipular poesucede rendistintos niveles i circunstancia diversas.

Tezdy una perspectiva tecnica no existen limit es reales que impidan la manipulacion de imagen

es materiales de video o bosses.

Wiecie co powiedziałem?

Powtórzyłem po hiszpańsku ostatnie zdanie, choć nie znam hiszpańskiego.

Algorytm nie tylko przetłumaczył, nie tylko powiedział moim głosem,

ale także zanimował ruch moich ust, by po to by materiał wyglądał jak prawdziwe.

Tyle tylko, że on nie był prawdziwy.

Jedna z partyjstw tworzyła internetowy kwestionariusz, do którego wystarczyło wpisać dowolny tekst klawiaturą,

a chwilę później można było go odsłuchać tak jak gdyby był wypowiadany przez jednego z najbardziej znanych polskich polityków.

Głos, akcent, maniera, wszystko brzmiało jak oryginał, ale było fałszerstwem.

Dlaczego o tym mówię?

Bo zaufanie jest jednym z fundamentów demokracji, między innymi zaufanie do tego co widzę i do tego co słyszę.

Co stanie się z tym zaufaniem do ludzi, do instytucji, do systemu wyborczego,

gdy proces fałszowania i manipulowania zostanie zautomatyzowany przez inteligentne algorytmy,

gdy te fałszowane pod konkretnego odbiorce, materiały, treści, wyleją się na cały cyfrowy świat,

skąd będziemy wiedzieli co jest prawdą, a co nią nie jest?

Na podstawie jakich przesłanek będziemy podejmowali wyborcze decyzje?

Jak na te decyzje można wpływać, czy może wpływać granie na przykład społecznymi emocjami i odruchami?

A przecież narzędzia do chustania społecznymi emocjami są wykorzystywane także w Polsce.

Ktoś, kto ma w ręku tak potężne narzędzia, może wpływać na wynik wyborczy.

W tym kontekście najczęściej padają takie przykłady jak wygrana przez Donalda Trumpa w 2016 roku wyborów prezydenckich w Stanach Zjednoczonych.

Czy Amerykanie rzeczywiście byli w swoich wyborach, czy w swoim wyborze wolni?

A Brytyjczycy byli, gdy głosowali za wystąpieniem ich krajus Unii Europejskiej?

Dzisiaj wiemy jak wiele energii i pieniędzy poświęcono wtedy na prowadzenie opartych, oboty i algorytmy kampanii w internecie.

Kto zatem wybory wygrywa, a kto nie migra?

Sztuczta inteligencja nie ma świadomości, nie ma swoich celów, nie ma swojego zdania.

Nic nie wie, nic nie rozumie. Jest bardzo skomplikowanym programem, który analizuje ogromne zbiory danych i na podstawie tych analiz wyciąga z nich wnioski.

Te wnioski zależą jednak od tego, jakie dane dostanie do analizy i na jakich danych się uczy.

Mogą być one obciążone stereotypami, uprzedzeniami czy poglądami twórców technologii albo i trenerów.

Te procesy powinny być regulowane prawnie i powinny być kontrolowane.

Sztuczna inteligencja powinna być regulowana ściśle i z całą stanowczością, inaczej z jej powodu wpadniemy w ogromne kłopoty.

Ale nawet najlepsze regulacje nie wystarczą, gdy my użytkownicy nie będziemy świadomi tej technologii.

I tutaj dochodzimy do edukacji i wychowania i to na wielu płaszczyznach, na płaszczyźnie technologicznej i tej obywatelskiej.

Inteligentne algorytmy są wykorzystywane w najbardziej wrażliwych systemach i dziedzinach naszego życia.

W medycynie, w edukacji, a także w wymiarze sprawiedliwości.

Mamy tego świadomość? Uczymy się o tym w szkole?

Niestety znam odpowiedź, nie uczymy.

Zachowujemy się jak dziecko, które gdy zamknie oczy uważa, że problemy tego świata znikają.

Niestety, jak nie patrzymy, to one rosną.

Nauka to lubię.

Śledźcie nas na Instagramie, Twitterze, Facebooku i LinkedInie.

No i odwiedzajcie nasze serwisy internetowe. Dziękuję za uwagę.

Machine-generated transcript that may contain inaccuracies.

Za kilka dni bardzo ważne wydarzenie w naszym kraju – wybory parlamentarne. A jak do tego wszystkiego ma się sztuczna inteligencja? Okazuje się, że może sporo namieszać. Czy technologia może pogrzebać demokrację?