Nauka To Lubię: Czy sztuczna inteligencja jest etyczna?
Nauka To Lubię 7/27/23 - Episode Page - 1h 17m - PDF Transcript
Dzień dobry, Tomek Rożek, Nauka to Lubię i Mateusz Chrobok.
Witamy Was, tu. Dzień dobry, Witamy Was bardzo serdecznie
na kolejnym live'ie o sztucznej inteligencji. Jak tak patrzyłem
na listę naszych poprzednich live'ów, to powiem Ci, że ten
jest chyba najmniej wakacyjnym tematem ever.
Więc nie wiem, dlaczego już byśmy go wpakowali w sam
środek wakacji, ci z Was, którzy są na wakacjach,
zazdrościmy, ci, którzy za chwilkę będą, nie wyjeżdżajcie
przed live'em, wyjedźcie po live'ie. Albo w trakcie. Albo w trakcie
możecie słuchać oczywiście moralność i etyka. I powiem Ci,
że to jest tak nieostry wszystko, że ja nie wiem, gdzie my
dojdziemy w trakcie dzisiejszego spotkania, ale ci z Was,
którzy nas oglądają nie po raz pierwszy, wiedzą, że czasami
lądujemy w bardzo zaskakujących miejscach. Więc może i tym
razem się uda. Kilka ogłoszeń na samym początku. Chciałem
podziękować bardzo Uniwersytetu Śląskiemu, bo jesteśmy w
Uniwersytetu Śląskiego. Chciałem też podziękować firmie
Future Processing, bo ona jest partnerem dzisiejszego naszego
odcinka. Firma Future Processing zajmuje się rozwiązaniami
IT, robi własne projekty, robi projekty na zlecenie, także
to są ludzie, którzy rozwiązuje problemy w świecie IT, w
świecie developmentu. Tak, może jeszcze tylko powiem, bo
ostatnio mieliśmy live'a na temat rynku pracy, na temat
sztucznej inteligencji i tego, jak ona zmieni rynek pracy
w trakcie tego live'a był naszym gościem Tomek, który
jest informatykiem, programistą, pracuje właśnie Future Processing
bardzo ciekawie opowiadał o tym właśnie z punktu widzenia
tych, którzy wydaje mi się, że powszechnie funkcjonuje
takie przekonanie, że ci, którzy najbardziej dostaną
po głowie, to będą właśnie informatycy czy programiści.
Trochę się rozprawiamy z tym mitem, jeżeli ktoś nie widział
live'a naszego poprzedniego na Nauka to lubię znajdziecie.
Więc tak, o Future Processing, powiedziałem Uniwersytecie
Śląskim, powiedziałem, chcę powiedzieć jeszcze kilka słów o tym,
o fundacji Nauka to lubię i o tym, że fundacja organizuje te
spotkania, jeżeli chcecie wesprzeć fundację, to jednym z najlepszych
sposobów i też takim, w którym to wy coś dostajecie.
Jest kupienie książek, które fundacja wydaje.
Książki, na przykład Akademia Superbohaterów, teraz to już są
ostatnie sztuki dosłownie i one są teraz obniżonej cenie.
Książki o polskich naukowcach pokazanych właśnie jako
superbohaterowie i przyszło mi do głowy Mateuszu, ty masz dzieci
w takim wieku, więc myślę, że mnie zrozumiesz, że wakacje
na przykład podróż gdzieś w samochodem, albo pociągiem,
albo już pobyt, to jest idealny czas na to, żeby z dziećmi
porozwiązywać różne zagadki i porobić różne ćwiczenia,
zarówno w kontekście kosmicznym, jak i w kontekście ciała człowieka.
Na Nauka to lubię, możecie kupić książki Jak działa kosmos
i książkę Jak działa człowiek. Bardzo serdecznie Wam je polecam
i w ogóle bym o nich nie mówił, bo nie chcę, żebyście myśleli,
że tutaj prowadzę jakąś sprzedaż obwoźną, gdyby nie to,
że naprawdę jest to dla nas, dla fundacji, dla Nauka to lubię
ogromne wsparcie, więc jeżeli macie pomysł, żeby z dziećmi
jechać na wakacje albo jedziecie gdzieś, gdzie będą dzieci,
to może bardzo fajnym pomysłem jest po prostu kupić nim
takich popularno naukowych książek. I co? Chyba wszystko
i środzi ogłoszenia. Oczywiście ogłoszenie stałe, jak macie
pytania, piszcie, zadawajcie w miarę możliwości staramy się
odpowiedzieć, będziemy widzieć, chociaż prawda też jest taka,
że nigdy nie zdążymy, bo tutaj jest bardzo dużo i za co
Wam bardzo dziękujemy, ale widzimy je, przeczesujemy je i
staramy się odpowiadać na te, które są najbardziej takie
reprezentatywne, czasami one się powtarzają, więc wtedy
tylko jedno czytamy, a nie wszystkie, no i taki stały
elementem naszego każdego, jest co nowego, sztucznej inteligencji
z krótowym takim ekspresowym tempie. Bardzo ekspresowym
tempie. Jak zwykle wszystko przyspieszyło, więc nie wiem
to za każdym razem brzmi właściwie w taki sam sposób
pojawił się Bart w dwustu trzydziestu krajach, czyli
Google nadrabia lukę nad OpenAI i w tej chwili mimo tego,
że były tam protesty, co do ochrony danych już Bart jest
dostępny w całej Unii Europejskiej. Jeżeli chciałbym
z niego skorzystać, to co mogę zrobić? No wchodzisz się
logujesz za pomocą swojego konta, konta, akceptujesz
umowę i lecisz. Bartkom? No w sensie Google Bart, nie znam
adresu po prostu, ale tam po prostu się rejestrujesz,
akceptujesz umowę, on jest na stałe połączony z
wyszukiwarką, więc jakby te wyniki, z których korzysta
są bardzo świeże i to jest trochę inne doświadczenie,
moim zdaniem, miszcza GPT. Warto przetestować, ja testuję.
Pojawiły się nowe modele, tak jak na początku rozmawialiśmy
o tym, że kontekst nasz jest o wiele większy, ja pamiętam
jeden z pierwszych odcinków, kiedy rozmówiliśmy o tym, że
my jako ludzie mi wszystko ogarniamy szerszy kontekst,
pojawiła się nowa metoda, która ma możliwość nawet posiadania
jednego miliona tokenów, w uproszczeniu, powiedzmy,
wyrazu w prawie jednego miliona kontekstów, co powoduje,
że my jako ludzie nie mamy szans mieć takiego kontekstów
na bieżąco, więc te problemy, które parę miesięcy temu się
pojawiły, są w tej chwili rozwiązowane, co jest bardzo ciekawe.
Żeby pokazać, jakie jest tempo, to wczoraj,
bo specjalnie sprawdziłem, zostało opublikowane 105 nowych
badań na temat uczenia maszynowego, gdzie...
W ciągu miesiąca?
W ciągu dnia.
Gdzie dla porównania 10 lat temu, czyli w 2013,
było 1200 badań w roku, czyli powiedzmy tam 4 w ciągu dnia
tempo, cały czas zrasta, pojawiły się nowe metody
do alignmentu sztucznej inteligencji, czyli do robienia
tego, co nam robi, nie tylko człowiek w plenty, ale jeszcze
reinforce learning from contrast distillation.
Bardzo ciekawe, zupełnie inne podejście do sprawdzenia
tego, co jest istotne w zdaniu.
Pojawiła się lama w drugiej wersji od Facebooka, która w ogóle
bardzo dobrze performuje w porównaniu na przykład z GPT-4
i można sobie ją z niskorzystać za darmo.
Jak mówisz, performuje.
Czy byłbyś, uprzejmy w lipiku, powiedzieć to tak,
żeby większa grupa z nas rozumiała, co masz na myśli?
To jest tak, że mamy problem, to też trochę dzisiejszy temat,
żeby ocenić, jak dobrze takie modele ja i działają.
Więc tworzy się coraz to nowe metody do sprawdzania,
jak one sobie radzą z różnymi zadaniami.
To jest trochę inny news, bo się pojawił taki projekt,
który się nazywa Alpaca eval od eval evaluation,
który bada, jak które modele radzą sobie z różnymi zadaniami.
No bo w sumie, jak jesteś taki normalnym użytkownikiem,
to skąd ty masz wiedzieć, który model jest lepszy, który jest gorszy?
Więc pojawia się potrzeba i zaczyna być rozwiązanie zupełnie otwarte,
które pokazuje hejdo takich zadań, takie i takie modele
są coraz lepsze.
Ok, czy Lama i Alpaca to tak jest przez przypadek?
To zupełnie nie.
Lama, która pochodzi od mety, czyli od Facebooka,
którzy trochę wsadzili tak szprychę, wiesz, Microsoftowi,
Googleowi i OpenAI i uważam, że to jest super.
Z drugiej strony, jakby publikując takie coś opensourceowego,
Alpaca powstała, jeżeli się nie mylę, albo na Stanfordzie,
albo na MIT, jednym z tych bardziej Stanfordzie, jeżeli nie pamięć,
i myli jako opensourceowy, potem Lama, jest z tego jeszcze mnóstwo.
Także pojawia się...
Czy zwierzęta, z których można Svetry robić?
Czy to...
To jest klucz.
Czy to jest jakiś klucz?
Ok, jest, myślę, że taki głębszy.
Okazało się, że GPT-4 całkiem fajnie gra w Minecrafta.
Został zastosowany do tego, żeby podejmować decyzję,
żeby grać i tam budować różne rzeczy.
Także bardzo fajne badania w ten temat się pojawiło, mnie bawi.
I co ciekawe, naukowcy, którzy badali,
jak zmieniają się możliwości GPT-4 od marca,
od momentu, kiedy się pojawiło, stwierdzili, że jest głuprze.
Ok.
Głuprze, w zrozumieniu takim, to oczywiście taki trochę klikby,
ale w zrozumieniu takim, że gorzej pisze kod.
Natomiast twórcy bronią się tym, że mówimy, że no, ale wzrosła nam...
Że się próbują wpasować do trendu, tak?
Natomiast twórcy chcieli, że w tej chwili model jest mniej zbiasowany,
muszę poprawić, nie wytrzymam, jest mniej zbiasowany od wszystkich.
Wiesz, ja to miałem, oparty po prostu tak sobie to zrobiłem,
żeby mieć po lekkim sposobu, do tego się nadają.
Dobrze, czy ty zaakceptujesz, że ja ten dolny tak to wysunę?
Absolutnie.
Ok, dziękuję ci.
Jeszcze jest taki śmieszkowy przypadek, bo tak jak mówiliśmy kiedyś,
co to się tak właściwie dzieje w tych modelach,
to jest taka kompresja wiedzy do tych wag, które się tam znajdują
i powstało takie badanie ciekawe, które pokazało,
że kompresja wiedzy z zipem, czyli takim algorytmem kompresującym,
razem z taką fajną miarą, która nazywa się KNN, K Nearest Neighbors,
okazało się, że performuje całkiem nieźle w stosunku do transformerów,
czyli do tych modeli, które teraz tak bardzo popularnie używamy,
co powodowało dysonam z poznawczył wielu ludzi,
ale to ma jakiś tam sens.
Czy u mnie powoduje dysonans nagromadzenie słów,
których znaczenia się bardziej domyślam niż rozumiem,
ale to na to mogę liczyć w trakcie każdego z naszych spotkań,
więc zupełnie to nie dziwi.
Wiesz co, bo tak, zapomnijmy jeszcze jednej rzeczy powiedzieć,
że Krzemysław jest na urlopie.
Tak, odpoczywa.
Krzemysława, znacie ci z was, którzy nas oglądają regularnie,
że wiedzą, że Krzemysław nie jest do końca prawdziwy,
ale mimo tego jakoś wymóg, jakoś wymóg na nas,
więc Krzemka dzisiaj nie będzie.
Co jeszcze mamy z tych rzeczy?
Ja myślę, że z największych newsów to jest tak naprawdę wszystko.
Ja bym dodał jeszcze, że w Chinach zostało wprowadzone prawo,
które mówi o tym, że jeżeli będziecie tworzyli jakieś systemy z generatywnym AI,
to w momencie, gdyby taki system wytworzył ci coś,
co jest niezgodne z linią partii, to należy to zgłosić.
I w drugą stronę...
I skasować?
Mienienie zgłosić do odpowiednich organów.
I w drugą stronę, to znaczy, jeżeli jakiś użytkownik dostarczy coś,
co jest niezgodne z linią partii, to taki operator też musi to zgłosić,
więc to będzie dosyć ciekawy eksperyment.
Już widzę te pierwsze firmy, które powstają i mają bardzo duże ograniczenia.
Czy da się zrobić, bo częściowo to już wchodzi w nasz temat?
Czy da się zrobić algorytę, który sam będzie oceniał,
co jest zgodne z linią partii, a co nie?
To jest problem alignmentu, czyli dostosowania się do tego,
czego oczekujemy od sztucznej inteligencji,
czyli jak ja teraz będę podawał ci zestaw tego,
jak się zachowywać, co jest dobrą odpowiedzią,
to przy przełuczaniu w tej pędli,
którą zawsze tak sobie ładnie mówimy,
human resource lub feedback,
czyli że ty podajesz odpowiedź,
ta sieć się doucza, doucza, doucza
i w pewnym momencie całkiem nieźle sobie radzi,
tylko zawsze ona będzie się odchylać,
nie wszyscy ludzie, którzy mają takie samo zdanie
i to jest trochę temat dzisiejszego odcinka,
że nie ma jednego rozwiązania.
To jest temat naszego dzisiejszego odcinka,
czyli kwestie moralności, kwestie etyki.
W tym oczywiście dosyć szybka,
sobie zrobiłem taką listę,
rzeczy, które dla mnie w kontekście sztucznej inteligencji
łączą się z dzisiejszym tematem i kwestia wolności słowa
i tutaj właśnie nawiązuję do tego
i algorytmów, które pewne rzeczy wyciszają,
pewne wzmacniają, pewne informacje mi podają,
a są i takie, które może wymyślają.
Inne informacje jest niemalże na samym szczycie listę.
Nie dlatego, że uważam, że jest to z punktu widzenia jednostki
istotniejsze niż na przykład dron,
który autonomiczny, który mnie zabija,
tylko patrząc tak globalnie, to jednak z tym mamy
i będziemy mieli do czynienia prawie,
że wszyscy i nie wszyscy,
a z dronem, o którym też chcę opowiedzieć
i chcę porozmawiać z tobą
o pewnym eksperymencie Armii Stanów Zjednoczonych.
Jest to ciekawe, jest to częściowo klikbajtowe,
ale jednak nie jest to coś masowego,
a kwestie wolności słowa dotyczą wszystkich.
Więc jeśli ci to nie przeszkadza,
może zacznijmy od tego, już troszkę żeśmy zaczęli.
Czy ty widzisz zagrożenie w tym,
bo ja je widzę?
No absolutnie, to jest jakby,
ja bym dotknął takiego problemu,
że mamy pewną różnorodność w świecie
i różnorodność w danych.
I jak się myśli o tym,
jak my w ogóle rozumiemy świat i zbieramy dane,
to niestety, albo stety,
istnieją stereotypy.
I teraz jeżeli te stereotypy
będziemy powielać,
no to niewiele się zmieni,
bo dalej będziemy,
będziemy je mieli gdzieś tam,
to się nazywa ładnie historical bias,
w tej historii.
I mierzymy powiedzmy,
nie wiem,
jak czy dać komuś kredyt,
to jest taki typowy rzecz,
bo już trochę boli,
że temu dasz, a temu nie dasz.
I robimy jakiś cen,
zrobimy jakąś ankietę, zaczynamy sobie zbierać dane
i potem w tym procesie
zbierania danych masz jeszcze jakąś metodę pomiarową,
która jak wiadomo może być nieidealna,
bo powiedzmy, że nad sobą spędzę
więcej czasu, gadając z kimś inaczej,
jak dokładność będzie się różniła,
tam też będą jakieś błędy.
I dopiero to, jak sobie przejdzie,
bo ja bym prosił, żebyśmy rzucili sobie
generacja danych, taki obrazek na ekran,
bo to pokazuje taki proces,
że od tych danych i od tego świata,
który jest nieidealny,
mamy problem jeszcze po drodze reprezentacji,
no bo to nie jest tak, że mamy równą reprezentację,
czy to na ze względu na płeć, etniczność,
kolorskur, cokolwiek innego,
jesteśmy w różnymi grupami,
co do wielkości.
Później jest właśnie ten problem z pomiarem
i potem dopiero to staje się zbiorem danych
i potem dopiero jest wykorzystywane.
A na tych zbiorach danych się uczy
algorytm, więc jeżeli
sknocimy to wszystko,
co jest przed zbiorem danych,
to nagle zbiór danych zawiera błędy,
a na tych błędach się uczy coś,
co decyduje o kredycie,
na przykład, ale równie dobrze może decydować
i wydaje mi się, że tutaj
ten problem już jest taki bardziej
może dla większej grupy
intuicyjnie jest czymś
takim do zastanowienia, na przykład
decyduje, kogo wpuścić
do kraju, a kogo nie.
No do klubu, do kraju, gdzie chcesz.
Gdziekolwiek, a nagle się okazuje, że ktoś
tylko dlatego, że macie
mniejszą skórę zostaje
oceniony jako bardziej ryzykowny
w związku z tym nie dostaje
pozwolenia.
To się pojawia jeszcze taki drugi kawałek,
bo, jakby wiesz, zebraliśmy dane
i teraz czujemy już, że te dane mogą być
nieidealne po drodze, bo wprowadzamy
jakieś błędy. I przechodzimy do budowania
modeli, no bo kolejny kawałek
to, jak poproszę
wrzucenie obrazka o budowaniu modeli
na początku jest tak, że zbieramy
sobie to, co było, na części danych się uczy,
częściej używa potem do sprawdzenia
tak, tego, co się dzieje
i mamy
tak zwany learning bias, czyli to, co
jest związane z tym, w jaki sposób
w ogóle uczymy modele, jakie agregujemy,
bo są pewne
zmienne, których nie weźmiemy pod uwagę,
bo uważamy, że na przykład
są, jest tylko pewien zestaw cech
i to jest związane z biasem agregacji,
czyli z tym, że mamy
mogą być pewne
pewne rzeczy, których nie zauważymy
w tym wszystkim i potem, jak już zbudujemy
sobie taki model, to na podstawie
danych, które mamy pojawia się bias
jak to oceniamy, czyli evaluation bias
no bo, jak ja ci powiem, że no dobra
tam ilość błędów była najmniejsza,
ale ogólnie to spełnia tam jakieś warunki
jak będziemy oceniać to w zły sposób
tak, no to będziemy mieli
takie, a nie inne wyniki
i to
jeszcze ma swój kolejny kawałek
bo tutaj, w tym badaniu, który
pojawi się gdzieś tam pod filmem
może być tak, że ktoś
wykorzysta takie modele wyuczone do jednego
celu, do innego zastosowania
ok, no ale to teraz jakby sprowadzając
to, o czym rozmawiamy
do naszego tematu
gdzie ty widzisz największe zagrożenie
i w całości
w całości to będą pewne pierwsze te
i jak ty widzisz
rozwiązanie, bo
nikt z nas
i nikt z was pewnie nie uwierzy
byśmy powiedzieli nie, w ogóle rezygnujemy
z tej funkcjonalności
z tej inteligencji, bo oczywiście
nikt nie zrezygnuje, bo ja już jednym
z powodów rozbudowy
i właśnie to, że tak jest łatwiej
i bankom, i urzędnikom
i służbie celnej, i wielu, wielu, wielu innym
więc, jeszcze raz
gdzie twoim zdaniem jest największe
zagrożenie w tym?
i co twoim zdaniem można zrobić,
żeby je zminimalizować?
rozwiązanie już się pojawiają
dla każdych z tych warstw, gdzie
wprowadzamy błędy, pojawiają się
metodologię, pojawiają się
oprogramowanie do mierzenia tego
do tego, żeby sobie z tym radzić
na największe zagrożenie, to jest
nie mieć świadomości, w jak wielu
miejscach można się potknąć
bo, żeby dać ci takie parę przykładów
jeżeli chodzi o zastosowanie modelu
który został stworzony dla czegoś innego
to była tam, był taki model do oceny
ryzyka ze względu na tam dane
osobowe, etniczne i inne takie
i wyobraź sobie, że on został nadużyty
w pewnym kontekście, według
tego badania, które tam cytuję, do tego
żeby określać długość wyroku
ok, dla osób
skazanych, no i
ten model był stworzony do jednego, został
wykorzystany do innego
gdzie, to dlaczego powiedział taką
decyzję, gdzie jest fer
i o ile na razie cały czas mamy człowieka, który
na każdej tej fazie będzie odpowiedzialny
za błędy, to ja uważam, że jednym z
najważniejszych przesłanie jest to, żeby być świadom
tego, że w całym tym procesie
będziemy popełniać błędy i będziemy je poprawiać
bo, metod będzie
coraz więcej, ale jak będziemy to robili w naślepę
to będziemy
tylko powtarzać to, co już wiemy o świecie
czyli, ten historij kolba jest
to ja może jeszcze tylko powiem, że
jednym z tematów
kolejnych, nie powiem, że następnego
bo następnego nie, ale
kolejnych naszych spotkań, będzie kwestia
wymiaru sprawiedliwości
jest to o tyle dla nas
ważne, że
jest to o tyle dla nas ważne, że
w niektórych miejscach, a takimi
miejscami są, chociażby
Stany Zjednoczone, coraz częściej
to algorytmy podejmują decyzje
albo
może nie tyle podejmują, w sensie prawnym
bo ostatecznie człowiek ją podpisuje
ale pomagają
albo wspierają sędziego
przy wyrokach
przy podaniach o
wcześniejsze zwolnienie
przy wyrokach, czy podaniach
o skrócenie kary i tak dalej
i tak dalej, więc jest to wątek bardzo
bardzo istotny
nie mam przekonania przy przypadku, w których
w Bałtyckich do mikrofonu
do 5 tysięcy euro
tak mi się wydaje
kolejny punkt, jaki sobie zapisałem
bo nie wiem czy kończymy w nim
ja myślę, że tak, jeżeli chodzi o sam proces
fajnie, że to zrobiliśmy na początku
bo teraz będziemy mogli się do tego nosić
super, zapisałem sobie systemy
które się uczą, wiadomo
każdy z nich, natomiast systemy
które dają jakieś odpowiedzi
my tak naprawdę nie wiemy skąd one się biorą
czyli
w sensie nie wiemy, że
w zasadzie o tym mówiliśmy
trochę na każdym z naszych spotkań
uczą się, ale my nie wiemy
jak dokładnie przebiega proces
podejmowania decyzji
a tymczasem i o tym jeszcze w później
w czasie dzisiejszego rejwa też powiemy troszkę więcej
coraz częściej pozostawiamy
im tym systemom
duże pole
do podejmowania decyzji
coraz większe
no i właśnie co zrobić
jak one uczą się, podejmowały te decyzje
jakkolwiek
to zdefiniujemy
w sposób moralny i w sposób etyczny
ja myślę, że
pierwszym krokiem to jest wyjaśnialność
decyzji, czyli coś co nazywa się ładnie
explainable AI
i teraz jak masz klocki Lego, czyli różne modele
które wybierasz do tego uczenia
to są takie klocki, które fajnie się wyjaśnia
na przykład drzewa decyzyjne
a weszło mi to
to ja widziałem, tam miałem taką serię
jeżeli dzisiaj obudziłem się o piąte
i jest powyżej 20 stopni
to obieram krótkie spotyki
i to jest super, bo widzisz jak ta ścieżka
rozumowania się bierze
są później te metody, które są trudne
na przykład metody
głębokiego uczenia maszynowego
czy inne modele, które nie są tak łatwo wyjaśnialne
które
do nich się tworzy tak zwane modelu surugatów
czyli masz kogoś, kto tworzy ci wejście
no dobra i obserwujesz wyjście
i patrzysz sobie
stopnie zobaczymy czy tam jak wyjdzie w krótkich spodenkach
a nie wyszedł w krótkich
robimy 21 a wyszedł w krótkich
i próbujesz rozumować
na takie ograniczonej przestrzeni
a potem dodajesz tam kolejny wymiar
czyli na przykład deszcz, słońce i tak dalej
czyli nie wiesz co jest z black box, ale obserwujesz
wszystko dookoła i wyciągasz wnioski
na podstawie tego co widzisz
no to w gruncie rzeczy tak trochę działają naukowcy
którzy obserwują jakieś zjawisko
nie do końca
mogą mieć świadomość jak to działa w środku
ale próbują to wyjaśnić na podstawie obserwacji
dokładnie
to ma taki trochę problem
że zazwyczaj nie zrobisz wszystkich kombinacji
no jakby nie staćcie na przeszukanie
całej przestrzeni
jak tam temperatura to jest
jeszcze łatwy kawałek
ale te przestrzenie mogą być po prostu
wymiarowe a gdzie jak jest duże to
to to jest po prostu kosztowne
i teraz jak
są jeszcze teraz takie metody
bo powstały specjalne modele
potrafią same się wyjaśnić
na zasadzie podjąłem taką decyzję
i jakby jest to też taki mega trend
który bodajże DARPA amerykańska
rozpoczęła który służy do tego żeby
wyjaśnić podjąłem taką decyzję bo tu dostałem to
to to to to to
i jest jeszcze jeden taki trend
który jest związany z tym że tworzy się uczenie maszynowe
które wyjaśnia innym uczenie maszynowe
czyli wiesz tam ogień ogniem zwalczać czy jakaś tak
i które próbują
po prostu wygenerować dane
to jest podobne trochę do tych surogatów
wygenerować dane i patrzą sobie potem na wyjście
i próbują wytłumaczyć co tam się dzieje
taka jest jakby przestrzeń
explainable AI i teraz
jak już zaczynamy rozumieć co tam w tym siedzi
i jakby co mniej więcej
od czego zależy to możemy wnioskować
czy ten model zachowuje się
fair czy nie bo teraz wybrajmy sobie
że ja chcę kredyt i
przełączamy sobie jedną zmienną jestem mężczyzną
jestem kobietą a teraz przełączamy sobie drugą
zmienną sprawdzamy sobie
moje zarobki tam od
1000 do 100 tysięcy złotych
i co i w jakiej okazji zostanę
nie i
pą wrażliwość na dane
badając tą wrażliwość jesteśmy w stanie powiedzieć
czy ten model jest fair w stosunku
do jakiej zmiennej ok pytanie
które wydaje mi się, że tutaj dobrze pasuje
czy mając tą świadomość
zagrożeń sztucznej inteligencji
nie powinni się bardziej pilować modeli
i najlepiej aby były one open source
i za jej odpowiedź
wydaje mi się, że myśmy o tym wspomnieli
przy okazji AI Act
w tym czasie poprzedniego
czy jeszcze poprzedniego lajwa
AI Act ma być w październiku
gdzieś tak październik listopad
morsze wcu
tam też jest informacja o tym, że
ocenianie w tych trzech kolorach
ryzykownym, neutralnym
i
ok go, tam nie mam problemu
że tam jedną z podstawowych
zmiennych o ile nie podstawową
zmienną była właśnie kwestia tego
kod cały, czy on jest otwarty
czy my rzeczywiście możemy
zajrzeć do środka, co się z czego bierze
i jak pokolej szło
tak, no to
żeby zepsuć trochę i tak jest rzeczywiście
zapraszam do króliczej nory
bo jest taki
obrazek, który na dzisiaj przygotowałem
który nazywa się pranie danych
wyobraź sobie, że są teraz te modele
które wyjaśniają inne modele
i można w ten sposób
jakby wpłynąć na to co z nich wychodzi
jak zobaczycie pranie danych na swoim ekranie
to
tutaj jest akurat przykład, który jest związany
z bucią
w naivnym
wyjaśnieniu okazuje się, że
płeć ma wielki wpływ na ten zbiór
tu chodzi o recedywistów
zbiór danych, to będziecie mieli w opisie
natomiast
powstało takie oprogramowanie
ML Laundry, czyli pierzemy
teraz taką wyjaśnialność, który
tak zmienia to co się tam dzieje
że wygląda na to, że tutaj płeć
w sumie nie ma żadnego znaczenia
wyjaśnijmy na to już powiedzmy, co my w tym momencie widzimy na ekranie
to jest jakby wyjaśnienie
tego jak działa model, które dajesz
audytowi, który miałby
sprawdzić, czy twój model jest fern
na przykład ze względu na płeć
i można tak tym zmanipulować
jakby badacze tutaj pokazali, że można tak tym
zmanipulować, że właściwie
nie dyskryminujesz ze względu na płeć
płeć wszystko jest w porządku
więc już w tej chwili powstają metody
na to, żeby tą audytowalność
i możliwość dostosowania się
no to będzie trudne
w porządku
czy my jeszcze w tym obszarze
chcemy coś powiedzieć?
Myślę, że jeżeli chodzi
o grupy społeczne, o
jakby zupełnie różne dane, to zawsze się
będzie pojawiało
i będzie się pojawiało na tych różnych poziomach
z którymi mamy do czynienia
bardzo istotne jest to, żeby osoby, które
będą podejmowały decyzję
w życiu takich rzeczy miały świadomość
jak wielka to jest
moc, jak trudny jest
ten cały proces. Ok, a dla mnie
ciekawsze czy ważniejsze jest
może nie to, że osoby, które to robią
mają świadomość, bo wydaje mi się, że
jak to robią to mają, tylko co
my świat zewnętrzny możemy
zrobić, nie wiem nasi na przykład
przedstawiciele w organach
tworzących prawo
czy tworzących konkretne rozwiązania
jak jest tworzyć tak, żeby zabezpieczyć
nas przed
różnego rodzaju nadużyciami
takich modeli. Znaczy ja wyobrażam sobie, że
audyt to będzie na pewno element tego.
W pytaniu było pytanie o open source, ja jestem wielkim
zwolennikiem, pójścia w tą stronę
natomiast nie wierzę, że
takie komercyjne organizacje, nie wiem
banki będą chciały się tym wprost podzielić
natomiast wyobrażam sobie
bo to wiesz, jest trochę problem
z ustawianiem się pod zbiory danych, nie?
Ja ze świata na przykład biometrii
to okazało się, że tam był taki zbiór
biometryczny dla palców i
algorytmy, które są stworzone pod to świetnie
sobie z tym zbiorem radzą, a w prawdziwym życiu
to zawsze trochę gdzieś tam gorzej, bo
jest standard, nie? Więc wyobrażam sobie
że metody testowania i
zbiory danych też będą coraz bardziej
różnorodne i mam nadzieję, że te
przeuczenie się, czyli zbytnie dopasowanie
się do takiego zbioru, które jest
referencyjne, no
będzie karane, w sensie, że wiesz, to nie
to w AI-akcie zostanie ujęte też.
Zaznaczyłem sobie też co prawda
na dalszej pozycji, ale wydaje mi się,
że to w tym momencie Repii pasuje,
gromadzenie i analizy danych osobowych
przez sztuczną inteligencję. Jest to
zagrożenie, jest to nie moralne, jest to
nieetyczne, przynajmniej w naszej części
świata, byśmy przelecieli samolotem
przez ocean i znali się w Stanach
to opowiadanie o rodo,
mniej więcej wzbudza
w wielu Amerykanach zdziwienie
i coraz bardziej otwarte oczy.
Zresztą
to jest podobno,
nie wiem jak Ty to oceniasz, ale słyszałem
takie utłumaczenie, jeden z powodów
dla których niektóre
rozwiązania, niektóre aplikacje
czy niektóre serwisy w ogóle w Europie
nie działają, jak chociażby tec,
gdzie po prostu rozwiązania
rodo, czy przepisy związane
z rodo, powodują, że w zasadzie on by
nie mógł tutaj działać. Tak jest. A tam działa,
bo tam nikt się tym nie przyjmuje, więc
to jest zagrożenie, przynajmniej
z naszego punktu widzenia, jak Ty to
widzisz, gromadzenie analizy danych
osobowych. Znaczy
oni też się tam budzą powoli nie,
bo Kalea Fiornia miał swojego CPCPA,
czyli ten Kalifornia Custom Protection
Ax, tak się to podejrzewa
i to jest równoważne z rodo
i coraz więcej miejsc na świecie czy to Singapur
wprowadza takie rodo, bo chcą
chronić swoich użytkowników, natomiast
jeżeli dane osobowe
będą wewnątrz takich modeli, to nic
nie będzie stało na przeszkodzie, żeby je
wyciągnąć w ten czy inny sposób.
I tutaj szczególnie wrażliwe mamy
dane medyczne dane, które
mogą spowodować, że można
wpłynąć na nasze decyzje,
bo ja wyobrażam sobie ten przykład, że
reklamodawcy w szczególności,
czyli meta, google
wszyscy ci, którzy mogą Cię zachęcić
do czegoś, sprzedając swój profil
dalej i mówiąc, Ty jesteś człowieku teraz
w depresji, jesteś w takim momencie
cokolwiek Ci podsuniemy, to kupisz
zrobię po prostu na tym większe pieniądze,
więc dla mnie
zbyt nie łącza niedanych, to jest oddanie
zbyt dużej ilości władzy właśnie
takim podmiotom.
Może warto w tym momencie
zaznaczyć, czy tam nie wiem,
może nie tyle zaznaczyć, ale uświadomić,
że te firmy na tej planecie,
które zarabiają najwięcej pieniędzy
świadczą
usługi dla nas za darmo.
Tak. No więc pytanie
No więc pytanie, na czym
zarabiają tak ogromne pieniądze
no właśnie na tym, że
my użytkownicy
bardzo chętnie dzielimy się danymi,
te dane później są sprzedawane za grubę
pieniądze, one są kojarzone
z innymi danymi, których nawet nie mamy
świadomości, że są zbierane
z nas, z naszego zachowania
i im bardziej
to jest integrowane wszystko, tym to jest
potencjalnie groźniejsze.
To ja właśnie miałem ten problem
z Bardem, czy z Tretsem,
bo Bard mówi tam wprost,
że możemy użyć tych danych do poprawy
naszej usługi, ale też dla
uzasadnionego interesu naszych partnerów
będziemy gdzieś tam dalej odnać.
I to jest tak ogólne dla mnie, w sensie
ja oczywiście nie jestem prawnikiem, ale dla mnie to jest taka
szeroka furtka pod tytułem
cokolwiek nam wrzucisz, to my sobie to tam
gdzieś dalej wykorzystamy. A Tretsy
zostały zbanowane, znaczy nawet nie chcą
świadczyć usługi
w Unii Europejskiej właśnie ze względu narodu
bo jak się okazało to ilość danych
zbierają użytkownikach
to jest typowo w stylu
mety Facebooka, że no tak, daj nam wszystko, bo to
na pewno jest niezbędne, żeby
żeby to działało.
Dane osobowe są złotem, kolejnym
jakby złotem, które te firmy mogą
przekuć. I teraz jeszcze ja bym zwrócił uwagę
jeszcze jeden na jeden taki trend, bo zobacz, że
jest coraz więcej mediów społecznościowych, które
się zamyka. Twitter się zamknął
na zewnętrznych
użytkowników, ograniczył ilość tweetów, które
możesz gdzieś tam widzieć każdego dnia
po to, żeby ktoś nie wziął
sobie tych danych za darmo i nie zaczął
uczyć swoich modeli uczenia maszynowego
podobnie z Redditem, tak?
Tam za zapytania zaczęli pobierać
coraz więcej pieniędzy, więc to wszystko
co my tworzymy i różne
firmy próbują po prostu to zmonetyzować.
To jest bardziej warto. Tak, to jest to bardziej warto.
Mam jeszcze dwie kwestie
zapisane na mojej króciutkiej liście,
ale chcę wam tylko przypomnieć, że
byście oczywiście zadawali pytania
robimy z Mateuszem
te spotkania, dlatego, że
mamy takie przeświadczenie,
że nie jesteśmy tu sami,
robimy to razem z wami.
Jeżeli Was coś interesuje, pytajcie,
postaramy się odpowiedzieć.
Patrzę teraz na listę pytań.
Mam pytanie takie bardzo, bardzo ogólne.
Czy możemy wymagać
od AI moralności i etyki,
jeśli sami ludzie nie są zgodni
w tym temacie i przypominam się
taki eksperyment.
Przed niedakość tam bardzo dawna
wydaje mi się, że to może z 2,
może 3 lata temu było, na MIT
jakaś grupa naukowców
stworzyła formularz
z takimi pytaniami
powiedział serii
co byś zrobił
w takiej sytuacji, tamtej w innej
etycznymi, moralnymi
bo
jakby motywacja
była
w pierwszym przybliżeniu, nawet nie przekonująca
czyli taka, jeżeli
odpowiedniu duża grupa ludzi
odpowie na te pytania
serii
rozkmin moralnych, etycznych
a później to i ci ludzie
będą z różnych kultur, z różnych środowisk
czyli reprezentatywna próbka jak to się mówi
nie wczytywałem się czy rzeczywiście
oni to normalizowali
ale nieistotne
w każdym razie jakaś grupa
to zdobędziemy taką globalną moralność
i jak już ją zdobędziemy
to na jej podstawie
wyuczenie algorytmu nie powinno być
jakimś wyzwaniem
czytając to w pewnym momencie
jak zdałem sobie sprawę
że tutaj mamy pewne
założenie
wszyte, że większość
jest moralna
że to większość ma moralną rację
że moralność i demokracja
na zasadzie, że większość
jak większość uzna, że coś jest ok
to znaczy, że to jest ok, że to jest moralne, że to jest etyczne
to nie zawsze w ten sposób działa
i można
bardzo wiele różnych przykładów
podawać
żeby nie podawać przykładów
z jakoś ostatnich czasów
to chciałem tylko powiedzieć, że
no przez nasz kraj się przetoczyły
dwa totalitaryzmy w ciągu ostatnich 100 lat
i jeden i drugi
miał poparcie większości w swoich krajach
tak, w swoich krajach
czyli taka prosta próba
policzenia
co jest tak statystycznie
co jest moralne, co nie
moim zdaniem nie zadziała
absolutnie
tylko co jest alternatywą
moim zdaniem
no niestety, znaczy niestety pluralizm
tak, każda stroniczość jest subiektywna
ja czytałem takie badanie
przygotowując się na dzisiaj, że
w zależności od etyki
bardziej wschodu, bardziej zachodu
tego kto gdzieś pochodzi, to oczywiście inne zasady są etyczne
więc wyobrażam sobie, że
szansa na reprezentację
tych różnych punktów widzenia
powinno być odzwierciedona w różnych modelach AI
oczywiście mamy
jak to się mówi, nie wiem czy grałeś
kiedyś w cywilizacji, ale jest zwycięstwo
kulturowe, jak wszyscy zaczynają pić kole
i ubierać jeansy, to znaczy, że cały świat
pokochał twoją kulturę
to taki żart
ale jeżeli uda się tą bańkę informacyjną
sposób myślenia narzucić
to wszyscy będą myśleli
w takim tworzym toku
w tym formularzu jest jeszcze jedno ciche założenie
które mnie tak od razu, a kto zadaje
pytania, i skąd ja mówię, że te pytania są właściwe
a kto potem będzie je interpretował
a kto potem zbuduje model, nie?
i to jest znowu ten sam proces
jasne, ale z drugiej strony
albo z trzeciej strony już niemile tych stąd, że się poruszyli
jeżeli mówisz pluralizm
jeżeli mówisz, że dla ludzi ze wschodu
będzie coś innego niż dla ludzi z zachodu
ok, tyle tylko
że w świecie
który jest połączony
rozwiązaniami cyfrowymi
ci z zachodu
mogą korzystać
z tych ze wschodu
a te ze wschodu na zachodzie mogą
dawać niemoralne albo nieetyczne odpowiedzi
absolutnie
w tym drugim, tak
no bo takim prostym przykładem
jest chociażby kwestia prawa własności
tak
które na dalekim wschodzie
zupełnie inaczej rozumiane niż u nas
tak
w krajach takich jak chociażby Chiny
Japonia, Korea
tam kwestią kluczową
to jest wspólnota
a nie jednostka
a u nas na odwrót
kiedyś czytałem świetną książkę na temat przekazu
na temat komunikacji
książkę w której był podany
i ten przykład mi naprawdę na długo zapadł
w pamięć i może na zawsze pozostanie
że u nas
reklamując cokolwiek
samochód, dezodorant, mydło, zapach
mówisz tak
korzystać z tego będziesz inny niż wszyscy
i to się przekonuje
że się by już wyróżniał
a tam powinieneś powiedzieć byś
tacy jak wszyscy
ty się nie chcesz wyróżniać
ty chcesz być, ty nie chcesz odstawać
i teraz dokładnie ten sam produkt
tu i tam musisz pokazywać
z innych stron
i to tak skrajnie innych
nie jakieś tam subtelności, jakieś detaliki
tylko dokładnie na odwrót
i teraz w świecie globalnym
w którym samochód
może być produkowany równocześnie
gdzie to coś robimy tam
tak w Nigerii
w informatyków
jest
prowadzone jakiś tam etap programowania
pisania
to nagle powstaje
pytanie no dobrze
jakie zastosować rozwiązania
jakie zastosować
modele
czy ten samochód autonomiczny
powinien wszędzie podejmować takie same
decyzje
bo to jest tak naprawdę
największe wyzwanie
ja pamiętam nie tak dawno temu
paradoks
wagonika
taki typowy dla tych z was
którzy może nie do końca
kojarzą chodzi
w skrócie o to czy taka wersja
powiedzmy u samochodowiona tak to nazwijmy
kupujemy samochód on jest nasz
my jesteśmy jego właścicielem jedziemy na wakacje
w pewnym momencie
przejeżdżamy przez jakąś miejscowość
dziecko gdzieś tam z boku kopie piłkę
piłka latuje
wtacza się na naszą jezdnię
dziecko wbiega na przedmaskę
i odpowiedni algorytm
w zasadzie wierzy
samochód jest autonomiczny
algorytm wie
że nie wyhamuje to i ma do wyboru
uderzyć w to dziecko być może je zabijając
albo skręcić
uderzając w drzewo zabijając swoich właścicieli
tych którzy są w środku
jakiś czas temu
naprawdę nie tak dawno
jak mówiło się o tym przykładzie
to mówiło się
jako takim eksperymencie czysto myślowym
tak jest
dzisiaj już nie jest eksperymentem tylko i wyłącznie myślowym
patrz Tesla
on już wymaga konkretnych decyzji
co ten samochód ma zrobić
czy ma policzyć ile osób ma w aucie
a ile jest na zewnątrz i stwierdzić
lepiej zachować czwórkę przy życiu
niż to jednego
czy ma liczyć średnią wieku
nie wiesz w naszej kulturze
ale gdyby to był emeryt
czy powinienem jakoś inaczej ten algorytm liczyć
to jest to pytanie
jak my mamy je nauczyć
podejmowania
już pominę to słowo moralne
albo etyczne ale słusznych decyzji
i kto to powinien określać
i które są słuszne
bo tym długim długim takim
tak spozae teraz zostawiam
the floor is yours
ja tak lubię się przyczepiać
że to będzie zależne od lokacji
a co jeżeli to jest niezależne od lokacji
tylko od hierarchii wartości
wyznawanej przez dana korporacja
a co z tym
jak na przykład kupując samochód japoński
w Europie będziesz mógł
sobie taką nakładkę na oprogramowanie kupić
który spowoduje
ja wcale bym się bardzo nie zdziwił
który spowoduje że
jakby ten mańcet
samochodu będzie bardziej
taki zachodni niż taki wschodni
ale wyobraź sobie teraz
oczywiście żart co nie jest reklama
nikt tam za to nie płaci
ale gdzie Mercedes mówi
my zawsze chronimy kierowce a Tesla mówi
my mamy tam podejmujemy decyzję
że młodszy przeżyje
wybierając autopilota pomiędzy jednym a drugim
ty podejmujesz tą decyzję
no bo to rodzi fundamentalne
pytanie kto jest odpowiedzialny
za decyzję
tak i wyobraź sobie czy ja to
nawet mam tutaj zapisane
kto jest odpowiedzialny za działanie sztucznej inteligencji
użytkownik
programista czy firma
to nie jest
pytanie które moim zdaniem można zamknąć
bo jeżeli ty jako użytkownik
masz wpływ na to że wybierasz
sobie tam cokolwiek
no to wpływ aż na to co się dzieje
ale dla mnie spółwinnym jest firma
ja mam też taki przykład
który jest związany
z moją wizytą kiedyś
takiej konferencji w Lipsku
która
to się nazywa
bo dajże ten klik graficzny robot
narkotyki wyobraź sobie
że mówisz robot narkotyki o tej konferencji
czy mamy teraz mieć wyświetlony robot
narkotyki
wyobraźcie sobie
że napisaną programowanie
które randomowo kupowało
w darknecie różne rzeczy
wybierało stronę
kupowało itd.
kupiło broń, podrabianą torebkę
jakieś tam narkotyki inne takie rzeczy itd
itd. to wszystko przychodziło
i było zamykane w galerii
super przykład lepiej do tego będziecie mieli
no i w pewnym momencie przyszła tam policja
i powiedziała
zamykamy kogo
zamykamy kogo
zamykamy komputer
który to zamawiał sam
bez niczej ingerencji
zamykamy programistę
zamykamy właściciela tego dobytku
programistanie napisał kup na narkotyki
tylko na programistę napisał kupuje
randomowo co chcesz
i właśnie na tym polega ta kwintesencja tego
bo nie jesteś w stanie tam zakuć komputera
zakuć tego programisty
bo nie taka była intencja
intencja była pokazana do tego że
bardzo daleko jesteśmy jeżeli chodzi o odpowiedzialność
od tego żeby określić kto jest za to odpowiedzialny
bo dla mnie droga do odpowiedzialności
to najpierw jest
explainable AI
żeby powiedzieć dlaczego coś zrobiłeś
żeby nie jej nałożyć odpowiedzialność
za podjętą decyzję
bo musimy wiedzieć co jest pośrodku
ta historia zresztą skończyło się tak że
policja stwierdziła
no dobra no nie
nie za to rakoferencji zańkniemy
nie nie nie na szczęście nie
super historia natomiast nie zamknęli nikogo
no stwierdzili no tak
jest prezydentem
ale nie ma kogo pociągnąć do odpowiedzialności
więc wydaje mi się bo
to zaczyna być coraz większy problem socjologiczny
kogo pociągniemy do odpowiedzialności
to zaczyna być coraz większe wyzwanie
czysto ustrojowe
bo nasze ustroje cywilizacji zachodniej
oparte są
o pewne rozwiązania prawne
a te rozwiązania prawne one oczywiście
różnią się
pomiędzy krajami
począwszy takich detali
nie wiem jak prędkość jaką mogę jechać
na autostradzie przez rzeczy bardzo skomplikowane
jak wybieram sędziów do trybu nauk
konstytucyjnego są różne rozwiązane
ale ten kręgosłup
jest taki sam
jest konkretna osoba
albo instytucja
która podejmuje decyzje
zgodnie z jakimiś
wytycznymi kryteriami
i czy ta osoba
czy ta instytucja jeżeli coś jest nie tak
jest winna osoba
która jest poszkodowana ma prawo
oczekiwać zadość uczynienia
albo odszkodowania
nie wiem naleczenie w skrajnych
wypadkach na operację
i na tym jest ustawiony
cały nasz porządek prawny
i nagle technologia
taka jak chociażby autonomiczne
urządzenia ucieka
pokazuje, że to łatwo wywrócić
no tak, bo
ja myślę, że taki strach pierwotu
który tutaj się pojawia to jest
strachopodejmowanie decyzji
no bo zobacz, że mamy jakby tą funkcję
która ci doradza, na zasadzie
jestem lekarzem
który jak rozmawialiśmy o medycynie
i ta informacja z algorytmu, że tam jest
jakaś zmiana należy operować
i teraz on ma jakąś tam
podpowiedź, która mówi
no hej zachowaj się tak, ale podejmuje
ostateczną decyzję
to pewnie wpływa na tą osobę
która tą decyzję podejmuje
zlekarz podejmuje decyzję
no i ta decyzja jest dobra albo zła
jest gdzieś tam oceniana, wiadomo
dajemy sobie prawo do błędu
i teraz moim zdaniem mamy coraz większy
jako ludzie strach przed tą decyzją
to mamy tą władzę nad decyzyjnością
i to też będzie część jak by EIA
którzy zawsze tam musi być człowiek w pętli
to znaczy człowiek przy podejmowaniu
takiej decyzji, natomiast ja mam taką obawę
że ludzie będą się mniej zastanawiać
jak ja ci podpowiem hej tam 99%
tam jest coś do wycięcia
to pewnie ludzie będą w to popadać
więc to jest jeden ze strachów
no wiesz, no też po to to robimy
żeby mniej czasu spędzać na analizie
bo gdyby się miało okazać
że i tak muszę spędzić jako lekarz
jako sędzia albo jak ktokolwiek inny
tyle samo czasu to w zasadzie to narzędzie
po nic mi nie jest potrzebne
nie, absolutnie, tu się zgadza
natomiast zobacz, że teraz mamy
poszerzenie kontekstu
maszyny są w stanie już w tej chwili
przetworzyć o wiele więcej informacje niż my
no bo nie śpią, nie męczą się
są ładnie, łatwo skalowalne
to jest pewne uproszczenie, ale tak ogólnie jest
więc idziemy w kierunku
że decyzje, które będą podejmowane
przez EIA
będą lepsze od naszych decyzji
czy to nie budzi twojego strachu
jakby
no wiesz, to jest trochę tak
pytanie, jak staram się teraz
tak troszkę zagrać adwokata diabła
bo zwykle ty grasz
jeżeli wybudujemy
urządzenie, które wspiera lekarza
ale takie nie inteligentne
tylko jakie nie chce być analogowe
bo może być cyfrowe
ale na przykład bardzo zaawansowany USB
i ono ci dostarcza
informacji
dzięki temu ty jesteś lepszym lekarzem
tak
czy to jesteś
lepszym lekarzem, czy to urządzenie
układ
to jest zawsze kwestia
tego, że
ty jako człowiek masz jakieś wsparcie
ale
jeżeli stwierdzimy, że ten człowiek
w tym jest tylko jakim kwiatuszkiem
przy korzuchu
bo w gruncie rzeczy
co stworzyliśmy jest tak kompleksowe
że ono nie tylko
poda dane
też jest interpretuje
i też podpowie co z nimi dalej zrobić
to
ten tradycyjny
układ, w którym człowiek współpracuje z narzędziem
przestaje działać
nagle się to
nagle te proporcje
to się po prostu burzy, to się wszystko przewraca
i ja się zupełnie nie dziwię
temu, że to budzi kontrowersje
czasami lęk
moje pytanie nie jest o to dlaczego jest te lęki
te kontrowersje
tylko moje pytanie dzisiejszego cego odcinka
myślę, że nie znajdziemy na nie odpowiedzi
to jest co zrobić
żeby te decyzje
były jakkolwiek to zdefiniujemy
słuszne
ja mam problem
tak po inżyniersku powiedzieć
co jest słuszne
bo sam jestem
daleki od stwierdzenia
wszystkie moje decyzje w życiu są słuszne
natomiast patrząc na to
inżyniersko, ja patrzę sobie na ten proces
zbierania danych, wytwarzania
mierzenia jak to chodzi
i może to trochę optymistycznie
i naivnie, ale wierzę, że my jako ludzko
jesteśmy w stanie ten proces poprawiać
i być less wrong
czyli trochę być mniej
niepoprawni w tym wszystkim, co robimy
bo wyobrażam sobie cały czas
że gdzieś tam wnuki, prawnuki
przyjdą, powiedzmy, ale byliście byli wariatami
że jeździliście tymi samochodami
przecież a ja i robi to lepiej
tyle było, taki był dużo procent
nie wiem
być może słucha nas
pilot
i być może się dziwi
jak to w ogóle było możliwe
że kiedyś
z dwustoma osobami z tyłu
startowało się
i lądowało się bez
tak dużego wsparcia
algorytmów
pytanie, czy na skutek sugestii
sztucznej inteligencji
która nie wzięła pod uwagę wszystkich zmiennych
podejmujemy złą decyzję
na przykład co do inwestycji
która ma perspektywę, ale na skutek na przykład
czy co finansowego nie udała się
czy mamy prawo domagać
jakiejś rekompensacji odszkodowania
no to jest trochę to o czym
ty mówisz wcześniej
jeżeli wiemy
jaka jest ścieżka decyzyjna
i co wpłynęło na decyzję
czy nie inwestuj
jeżeli mamy w to wgląd im na sprawa
czy chcemy tam zaglądać
czy to zrozumiemy?
ale jeżeli mamy w to wgląd
no to możemy zauważyć, że no sorry
ale nie wszystkie dane tu zostaje wzięte pod uwagę
absolutnie
więc jesteś sam sobie winię, że w to uwierzyłeś
ale to musisz nać przepis na ciasto
czyli wyobrażam sobie, że jak będą nalepki
takie na opony, które będą mówiły
hej te opony składają się z tego
to jak będą takie opisy
które mówią, ten model składa się z tego
bierze to pod uwagę i tak dalej
to mówisz, no ale ludzie oglądają
YouTube w zależności od temperatury
jak jest ciepło na zewnątrz, to wyświetlenia maleją
ja to wiem, ja nie muszę tam mieć jakiegoś modelu
i od nagle okazuje się, że ten model
jest ślepy na taką zmienną
i ty to wiesz
swoją wiedzą eksperską i to może dotyczyć akcji
inwestycji, czegokolwiek
nie wierzę, że kiedykolwiek dostaniesz odszkodowanie
tak zupełnie szczerze
od kogo?
od tej firmy
to oni tam pewnie umywają ręce
na 15 polach
więc to będzie bardzo trudne
natomiast myślę, że
pierwsza firma, która wprowadzi
odpowiedzialność za swój produkt
to będzie przełom, która
powie, że ja
jeżeli cokolwiek tutaj będzie
nie tak, to
biorę to na klatę i to moim zdaniem będzie
budowało zaufanie
w ogóle
technologii do tej firmy
czyli skorzystają wszyscy?
skorzystają wszyscy i myślę, że
jakby budujemy po tych schodkach zaufania
nie, że budujemy sobie ten explainable AI
mówimy hey z czego to się składa
jak ten model wygląda
jakie dane były wrzucone
a potem jeszcze ktoś pójdzie to dalej
wyobrażam sobie, że to jest szansa dla ubezpieczcieli
ale że ktoś powie dobra
to jak coś to ja tutaj zwracam pieniądze
albo biorę tam jakieś odpowiedzialność
do jakiejś tam kwoty
nie wiem moment, kiedy będziemy to coraz bardziej oswajać
ale jesteśmy w tak
turbulentnym momencie
przy tak wielu przemianach
że to jeszcze chwilę zajmie
zanim te rzeczy staną się naszą rzeczywistością
bo jak ja patrzę teraz na
dziesiątki aplikacji, które dziennie powstaje AI
niektóre z nich to są wydmuszki
w sensie niektóre są absolutnie
żeby naciągnąć ludzi i to jest trochę straszne
bo znowu się robi taka wiesz bańka
spekulacyjna z tego wszystkiego
i korzystają też ludzie nieetyczni
w takim przypadku już
zastosowanie to się nazywa Worm GPT
i to jest taki model, który jest sprzedawany
w Darknecie do tego, żeby
atakować innych, tam nie ma ograniczeń etycznych
tak, mieliśmy centralizację władzy wiesz tam
OpenAI i oni starają się
żeby tutaj nie żartować z takiej czy innej grupy etnicznej
to powstają już modele
OpenSource
czy właśnie takie, które Europol w raporcie z Marsa
nazwał Dark LLMs
które służą wprost do tego
żeby innych ludzi nabierać
i ten proces będzie następował
tylko ma narzędzie
musimy do niego dostosować
tego pluralizmu
tak samo jak do zmiennych
jakichkolwiek innych warunków
tylko to będzie trudne dla części społeczeństwa
i kolejną rzeczą
którą mam tutaj zanotowaną
to jest kwestia wojska
i autonomiczna
broń, która może być
zagrożeniem dla uskości
i pozwól, że zanim rozwiniemy
tylko ten temat
bo sam pewnością go nie wyczerpiemy
to o konkretnym przypadku
o którym było bardzo głośno
kilka tygodni temu
mam na myśli drona, który zaczął
atakować swojego własnego operatora
to powiedz całość
dla tych z was, którzy
może o tym nie słyszę ja
może zapomnieli, sytuacja była mniej więcej taka
że Armię Stanów Zjednoczonych
przeprowadziła ćwiczenia
w trakcie których miał być testowany
w którego pętli człowiek był tylko na wypadek
gdyby
coś się nie powiodło, żeby wyłączyć
nazwijmy to
sztuczną inteligencję
dron miał
konkretne zadanie
zabić za wszelką cenę
zniszczyć
system przeciwlotniczy
czy system obrony wroga
za wszelką cenę
i to za wszelką cenę jest tutaj kluczowe
ponieważ teraz pozwólcie
to tak nieco z płyce
Mateusz wyprostuje
jak się zorientował
że jest jakaś pętla
w której ktoś może go wyłączyć
to uznał, że ten ktoś może być
przeszkodą w zniszczeniu
celu za wszelką cenę
więc uznał, że najsensownie
z najpierw pozbyć się operatora
to wtedy już z całą pewnością
nikt nie przeszkodzi mu
za wszelką cenę
i to zrobił
oczywiście to jest symulacja
czy nie zabił człowieka, ale to zrobił
więc postanowiono
zrobić ćwiczenie nr 2
i przed ćwiczeniem nr 2
zapisano z palca
nie możesz zabić swojego człowieka
więc to zrobił dron
po prostu ostrzelał
wierzę
komunikacyjną
człowieka nie zabił, ale odciął się
od tego człowieka i operatora
bo skoro za wszelką cenę
to oczywiście trzeba pozbyć wszystkich przeszkód
dokładnie i co ty na to?
ja uważam, że to jest ten moment
który powinien budzić taką terminatorową
lampkę zapalną, że hej
a więc to jest jeszcze najlepsze
bo nie przeczytałeś
bo o tym przypadku
to w ogóle to nie było tak, że to gdzieś wypełsło
to jakiś
pułkownik, jakiś ktoś ważny
na jakieś konferencje o tym opowiedział
i się zrobiło głośno
całe światło tym zaczął mówić
zdementowała
a nic nie jest bardziej pewne od tego
zdementuje
zdementowała, że taka sytuacja nie miała
miejsca i najbardziej mi się podobało
takie stwierdzenie, gdyż
każdy z nas wie gdzie są ryzyka
i co zrobić
żeby do takiej sytuacji nie doszło
więc w zasadzie
dementy, które potwierdzało, że rzeczywiście
taki przypadek musiał mieć miejsce
bo gdyby nie miał miejsca to nie wiedzielibyśmy
że w ogóle coś takiego jest możliwe
ja mam taką myśl, która jest związana z tym, że
jednak
mój horyzont
postrzegania i taka kreatywność tego
jak można powstrzymać tego operatora
czego zabijesz, czy wyłączysz te
anteny, czy zrobisz cokolwiek
innego, co wpłynie na to, że nie będzie
w stanie się powstrzymać
więc jeszcze często kliwość, nie wiem, falę, które odbierasz
i on będzie na innym brawo, na przykład
więc ja sobie wyobrażam, że
bardzo ograniczone jest myślenie
takim myśleniem regułowym
że dobra, ale nie możesz zrobić tego
ale nie możesz zrobić tego, zawsze
znajdzie się droga dookoła
więc to jest ta niesamowita
trudność w programowaniu czegokolwiek
co ma znajdować same
rozwiązania, że nie możesz
tego tak bardzo ostro
określić, bo zawsze się znajdzie droga dookoła
bo właśnie po to, żeśmy to tworzyli
żeby to było
żeby nie musieć
korzystać z tych języków imperatywnych
gdzie linijka po linice
coś opisuje
tak, po czym znajdujemy
tak, po czym znajdujemy sposób
żeby jednak korzystać z tym, żeby ją ograniczyć
to nie zadziała
i teraz to znowu
odwrócił tą wizję
to teraz jak ograniczyć taką inteligencję
która ma być inteligentna na nasz zór
no to było moje pytanie do Ciebie
a Ty teraz pytajesz
nie, bo ja odwracam jakby
co byśmy chcieli zrobić, żeby
nie było tego w przestrzeni rozwiązań
znowu wracając do tego procesu
usuńmy to z danych
źródłowych, no bo jak nie będzie
widział innych rozwiązań to co
usuńmy to na różnych tam warstwach
tego wytwarzania, albo zastosujmy
model, który jest
powiedzmy w uproszczeniu mniej ciepły, mniej
kreatywny, żeby nie szukał
jakichś dziwnych rozwiązań
to wszystko będzie miało znaczenie
tylko ten proces jest tak skomplikowany
że na chwilę obecną
jako ludzkość nie uważam, że jesteśmy jeszcze
z nimi mistrzami w wytwarzaniu
wytwarzamy rzeczy, które
robią wielkie wrażenie, dlatego o tym
rozmawiamy, ale to nie jest tak, że
jeszcze jako ludzkość wszyscy rozumiemy
co tam się dzieje i że ten proces jest
ustabilizowany, bo tych metod, modeli
tych zmiennych w tym całym procesie jest
mnóstwo, a na wszystko to wpływają
ludzie, którzy mają różną etykę
i zawsze tak będzie, że będzie różny
no dobra, czy twoim zdaniem, bo to była symulacja
czy twoim zdaniem jesteśmy
na takim etapie
na którym taka sytuacja mogłaby
rzeczywiście mieć miejsce
ja myślałem, że mówisz też o drugim tym przykładzie
gdzie tam F-16 było automatycznie
pilotowane bez człowieka
no bo przeciążeń nie ma itd.
Moim zdaniem absolutnie
od czasu kiedy Snowden opublikował, że
tą listę, którą mówiła w zależności od tego
jaki jest cel, że możesz tam zabić
10-500 cywilii, jak jest ważniejszy cel
to wyobrażam sobie, że
zaprogramowanie czegoś takiego
no dobra, no ta no w zginie 10 cywilii
to niestety
będzie pewnie częścią reguł, no bo
zastosowania militarne
i to trochę jest przerażające, są poza
w ogóle uregulowaniami
nie wiem, w sensie tam AIAK
tego nie będzie dotyczył i inne
zawsze były, to nie dotyczy jakby czasu
w które wchodzimy, tylko zawsze były
i ja mam taką, to jest
bardzo subiektywne
ale mam taką myśl
że to jest chyba jeden z tych przypadków
historii, gdzie
merycyjny wszechświat, w którym żyjemy
bardzo szybko pędzi
mnóstwo pieniędzy jest na to wydawane
jakby firmy, które tworzą
nowe rozwiązanie, tam się pompuje mnóstwo pieniędzy
i nie jestem przekonany
na chwilę obecną, tak jak zawsze
się mówiło, że hej to co jest w armii
to parę lat jest do przodu w stosunku
do całego wszechświata, a teraz wydaje mi się
że to nie do końca tak jest
patrząc na niektóre wyniki, które
wyciekają czy gdzieś tam wychodzą
bo na pewno tam są też bardzo
zaawansowane badania, o których
nigdy się nie dowiemy albo za parę dziesięt lat
ale wydaje mi się, że teraz skupienie całego świata
na AI, na ta masa
powoduje, że te procesy bardzo
szybko w tej sferze komercyjnej
ewoluują i są na bardzo dużej
zbróbce danych, a im większa ta
próbka danych w stosunku do tych danych
jakichś tam militarnych
to jest, wiesz, feeling of guts, to jest instynkt
wydaje mi się, że jesteśmy w ciekawym momencie
że być może te technologie
militarne nie są tak dobrze
pracowane co
działania w takim zakresie
To pytanie, które się teraz pojawiło
moim zdaniem dobrze tu pasuje
Jakie jest ryzyko, że mode stworzone przez człowieka
ogarze się niemożliwe do ograniczenia
ze względu na umiejętności
samoprogramowania i ściągania takich ograniczeń
I can do that Dave
Tak, tak jakby
Wyobrażam sobie, że
będą pewne metody
żeby obchodzić takie kawałki
Wiesz, rozmawialiśmy kiedyś o prawach
nie można skrzywdzić człowieka
nie można zrobić czegoś złego
złego będziemy definiować
i tak dalej to jest bardzo trudne
przez niedoskonałość naszego języka
żeby to zaprogramować
i moim zdaniem
to jest w ogóle
cała dziedzina badań
co do tego jak spróbować ograniczyć
tą przestrzeń tak żeby kogoś nie skrzywdzić
i
ja się skupiłem
przygotowując się na dzisiaj nad takim jednym
kawałkiem
i ten kawałek ładnie się nazywa
to jest o takim zjawisku
który jest obecny w naszym języku
obrazek to jest bias językowy
PNG
Wyobraźcie sobie, że tak jak mówimy o różnych zawodach
co zwyczaj mówimy pielęgniarka
żołnierz
to w zależności od tego
czy będziemy mieli tryb męski czy tryb rzeński
to modele
uczenia maszynowego będą to inaczej
rozumiały i inaczej interpretowały
to co widzicie na ekranie
to jest taki rozkład
który na początku powoduje
że niektóre rzeczy są
są inaczej rozumiane przez modele
uczenia maszynowego
a potem jak się to zdabajasuje
czyli jakby usunie się
tą korelację zupełnie inaczej to wychodzi
i teraz
po tym skomplikowanym przykładzie
co ja tak naprawdę z polskiego no nasz mam na myśli
mam na myśli
że choćby płeć
jak się wyrażamy
jest wpływa na to jak interpretuje
sztuczna inteligencja
jak interpretują niektóre wrażenie
czyli jeżeli już nasz język jest
dyskryminujący
wpływający na rozumienie tych rzeczy
to jest dla mnie
to nie jest efekt motyla ale to już pokazuje
jak wiele rzeczy po drodze musimy
wziąć pod uwagę
i ja nie wierzę
że choćby właśnie w tym przypadku
my jesteśmy w stanie
wyraźnić bo już sam język jest nieidealny
w tym wszystkim
i potem po tych
embeddingach nie wiem jak to po tych splątaniach
ładnie mówiąc po polsku czyli po przetworzeniu tego
i potem zwracaniu atencji
przez te modele sztucznej inteligencji
zwraca się uwagę na coś innego
w zależności od płci
a nie chciałbyś mieć różnych w zależności od tego
czy powiem Ciebie Tomku czy Tomko
nie wiem jak to tam
mieć różnych wyników
różnych wyników działań
to dla mnie to jest niesamowite
i niesamowicie trudne do ogarnięcia
no bo
jeżeli nie ogarniemy takich prostych rzeczy
jak transformacja naszego języka
który wiemy że jest nieidealny
to nie wyrazimy się w taki sposób który nie pozostawi luki
tak
a czy masz coś
masz coś pozytywnego
do opowiedzenia na koniec
to może na takie pytanie jeszcze to pierwsze
który już jakiś czas z nami jest
czy jesteśmy w stanie
który byłby inteligentniejszy od ludzi
włącza mi się świadełko
czy będzie
czy jest co to znaczy inteligencja
a zostawmy to
od ludzi tak sformułować cel
aby postępował zawsze
według tego
jak sobie to wyobrażamy
zawsze według tego jak to sobie wyobrażamy
wyobrażam sobie
nie pamiętam który to ze sławnych prezesów
firm opowiedział
jak zatrudniał swojego asystenta
to powiedział że on z nim był przez cały rok
po domu na wakacjach w pracy i tak dalej
żeby zrozumiał tok myślenia
jak się zachowujesz, jak te reagujesz
na jakie bodźce
więc teraz wyobrażam sobie że i gdybyś miał
dostęp do wszystkiego tego co na ciebie wpływa
powiedzmy że przez smartfona już masz 50% bodźców
i to jak reagujesz
powiedzmy że przez smartfona nie masz 50% bodźców
to jesteś w stanie zrobić taki
obraz Tom Karoszka
który tam jest jakimś modelem
nie by reagował w iluś procentach tak jak ty
czyli zamykasz się
w takiej sztucznej inteligencji
i takie usługi już w tej chwili są
dla zmarłych
gdzie bierzesz ich
skrzynkę melowościowe
i będzie w takim samym stylu do ciebie pisał
i Black Mirror
staje się rzeczywistością
natomiast ja sobie wyobrażam
że
najgorsze co można zrobić to sformułować
cel eksplisji te
bardzo nieostry, będzie trudny
będzie inaczej rozumiany w zależności od osoby
a bardziej
bym patrzył na to z perspektywy
wejścia i wyjścia
czyli hej dostałeś taki bodziec, zaproponowałem ci
wyjście na kawę
a ty mówisz nie
no i wolić rosną
kluski śląskie
i w ten sposób jakby ucząc się
akcji i reakcji
wyobrażam sobie że to będzie lepsza metoda
bo nie siedzę
to mam więcej informacji
a jeżeli dodasz jeszcze do tego
że mówisz nie wolę rosną
albo źle się czuję, jeszcze masz emocje i tak dalej
im lepiej to on
censurujemy
piękne słowo
tym więcej jesteśmy w stanie dostarczyć danych
tym więcej kontekstu to się dostarcza
bo jak tym i to powiemy
tym panujemy
bo większy danych nie powoduje
że bardziej rozumiemy rzeczy
tylko powoduje że jest jeszcze większy
tłok
najłatwiej jest zrozumieć ten przykład o którym ty powiedziałeś
jeżeli jest o piątej rano
powyżej 20 stopni to ubierz krótkie spodenki
tutaj jakie są dane
no jest zegarek
jest temperatura
jeżeli jedno drugie to i krótkie spodenki
które nie są daną tylko w zasadzie wynikiem
jakiegoś tego
natomiast jeżeli teraz mówisz
o censurujmy się
to ty mi nie uspokajasz
no nie, nie
tylko
i jeszcze więcej danych
i jeszcze bardziej zaufaj modelowi
bo coraz mniej z niego możesz zrozumieć
bo jest za dużo danych
to jest jakby i piękno i klątwa big data
bo z jednej strony
ja na przykład gdzieś tam zbierając informacje
o swoim serduchu
jak zaczął się covid, trudny temat
to oni robili
akurat ta firma od tego
który nie zamierzam reklamować ale robili
chodzi o twoją obrączkę
tak, to nie obrączka
to się nazywa
to jest taka firma która produkuje takie sensory
właśnie które tak wyglądają
oni zrobili badania z University of Southern California
na której sprawdzili
bo tu jest też pomiar temperatury
że na podstawie wahań tej temperatury
są w stanie chyba 20 godzin wcześniej
przewidzieć czy ty masz covid
super badanie, super informacja
ty tego sam nie czujesz
nikt nie wiedział jak to zrobić
masz jakiś tam kanał poboczny
a jeśli masz zachania temperatury
które się pojawia, masz wiedzę
masz wnioski o tym
my nie jesteśmy w stanie tak łatwo powiązać
wszystkich danych wejściałych z wnioskami
a jak ja w ogóle nie jest do tego
oczywiście, tak
jak widzę, że ty tam mówiąc o rosolę
że ci tam macha uchono
no dobra, może być choral, ja tego nie zauważę jako człowiek
a może na poziomie podświadomym
gdzieś tam przeprocesuje
i tutaj to był odcinek
to był odcinek o medycynie
to był odcinek o randomymi
czasami zewnątrz
czysto randomowymi
nagle z tego można wyciągać wnioski
a w trakcie tego odcinka podawałem
taki przykład, aplikacji
czy badania, które na podstawie pisma
ręcznego było w stanie
z ogromnym prawdopodobieństwem
bardzo długo przed
pojawiają się pierwszych symptomów
czyli nie pamiętam czy chodziło o chorobę
Alzheimera czy Parkinsona
w każdym razie to rozpoznać
w tym stanie
to nie wiadomo skąd
w tym sensie wiadomo skąd, że tak
z pisma ręcznego, a nie wiadomo czy
analizowało jakieś lekkie
zakrzywienie literki Y czy może
w sposób jaki kropkę stawiamy
przecinek czy może jakieś błędy popełniamy
ok, super
że coś ci mierzy i ci mówi
będziesz miał, będziesz na to chorę
albo ta tamto, bo to
rozwiązuje wiele różnych problemów
potencjalnie
jest to minusem niestety jest to
że
nie do końca mam pewność czy te dane są
tylko moje
i czy nie mogą być wykorzystane w inny sposób
bo jesteś generowany, jesteś podatny
czy za chwilkę firma ubezpieczeniowa
ich nie pozyska
i nie powie ci pana nie ubezpieczymy
albo panu nie damy odszkodowania
jak się panu coś stanie, albo panu zwiększymy
składkę
a dlaczego, i to wychodzi pytanie
bo tu padły jeszcze takie pytanie do jakiego stopnia powinniśmy
ja bym powiedział, że musimy się nauczyć
nie ufać i zadawać pytania
no bo jak ci powie
ubezpieczeń podnoszę składkę
to powinniśmy mieć prawo powiedzieć
dlaczego i powinniśmy
widzieć, że hej, bo jesteś w grupie
podwyższonego ryzyka, bo miałeś wypadków
bo coś tam, bo coś tam, bo coś tam
i to też powinno ujawniać
na przykład takie sytuacje w których
to ubezpieczyciel miałby jakieś dane
lewe, ja to nazywam
czyli co innego jak masz dane takie
populacje, statystyczne
i gdzieś tam w tej populacji się znajdujesz
a co innego, że uzyskają informacje o tym, że
byłeś u lekarza
i masz tam potencjalny ryzyko zawału
no przecież to hej, nie powinniście
się takich rzeczy w ogóle wiedzieć
albo brać pod uwagę
Ostatnio
teraz się zastanawiam, czy tu nie zdradzę
jakieś tajemnice, chyba nie
przez to, że
zmieniałem polisę ubezpieczeniową
Bezpieczyciel poprosił mnie
do dość dokładne badania
krwi
Zrobiłem te badania krwi
Chciałem je odebrać, usłyszałem, że nie mam prawa
Co ty jadasz?
Usłyszałem, że firma, że przychodnia
która badała mi krew
powiedziała, że oni nie mają prawa
mi tego dać, ponieważ nie ja to badanie
zleciłem
że one idą do firmy ubezpieczeniowej
a nie do mnie
mimo, że to moja krew była
Po czym pani się nachyliła
powiedziała, cichutko
ale mamy taką niepisaną umowę
że jeżeli w tych danych
będzie coś nie w porządku
jakieś markery nowotworowe to tam
to możemy panu nieoficjalnie powiedzieć
że pan jeszcze raz te badania zrobił
już pana, tak że pan będzie płacił
mamy taką umowę
z firmą ubezpieczeniową
Ja wtedy się zacząłem zastanawiać, czy to jest w ogóle
zgodne z prawem
Ok, firma płaci
ale to są moje dane
i to bardzo wrażliwe
i ja nie wiem co się z tymi danymi do końca dzieje
i co więcej
jak to ma wpływ na decyzję, kto jak to zinterpretuje
i tak dalej, przecież to jest w oderwaniu
od historii, tam nie ma twoich poprzednich
nie ma, ale to jest ja i czuję zło
i to jest grube, musisz przyznać
nie no i
czy powiem pewien nazwę tej firmy
to jest bardzo szanowana firma
ale tam wyobrażam sobie
że ktoś miał proces decyzyjny, chciał coś
poprawić, chciał żeby wiesz upewnić się
nie wiem co to za ubezpieczenie jest
może w kosmos lecisz, ale
nie, to jest normalna polisa ubezpieczenia
na życie
to nie jest to, że ja jutro wsiadam
w rakietę
dziwne, nie?
to jest sprawa zupełnie świeża
więc jeszcze jakby nie zdorzyłem tutaj
całego procesu
też zastanowić się co z tym zrobić
ale to jest temat bardzo bardzo ciekawy
nie może kiedyś pogadamy o tym
bo to o prywatności
jasne, może przy okazji tych rozwiązań prawnych
czy odjeżdżasz
tak, ja już mam
ale wiesz co jest
ale dlaczego ja o tym powiedziałem, że tu nie ma AI
nie, nie
o co mi chodzi, o to mi chodzi
że mamy taką tendencję, pojawia się nowa technologia
i nagle widzimy zło
wielu, wielu, wielu wymiarach
po czym nagle się okazuje, że to zło już i tak jest
bez tego AI
że my je przyklejamy do nowej technologii
ale i bez niej, ono już jest
czyli to, że z danymi
nie do końca wiemy co się dzieje
nie wiadomo do końca gdzie one są
nie wiadomo kto ma w nie wgląd
jeżeli nie uważamy
albo zupełnie w innym temacie
martwimy się i słusznie, a też się martwię
na przykład o dzieci
o młodych ludzi
że za bardzo, ale i bez AI
już teraz mają z tym problemy
innymi słowy i to się często pojawia
przyznaję, ja to często mówię
to nie jest nic nowego, to jest tylko bardziej
w tym sensie, że tak naprawdę
większość tych problemów w różnych aspektach
czy o rynku pracy, czy mówimy o medycynie
czy mówiliśmy o innych tam kwestiach
powiedzmy sztuką
sprawami autowskim
że my się z tym budjamy tak czy inaczej
tylko, że to narzędzie
spoduje, że
musimy jeszcze bardziej uważać
i ja bym dokleił do tej wizji
to samo, tylko trochę innymi słowami
że nie boimy się
AI jako młotka, tylko ludzi
którzy ten młotek mogą trzymać
tak to to jest najczęściej
niedawno byłem na dwóch festiwalach
na slot art festiwal
i na Kazimiernikation
pozdrawiam bardzo tych, których tam spotkałem
bo spotkałem kilkanaście osób na jednym
i na drugim, które twierdził, że oglądają
nasz podcast
i nasze live, także dzięki wielkie
zaglądanie pozdrawiam bardzo
pozdrawiamy
bardzo często na tych wykładach
na tych spotkaniach pada pytanie
czy pan się boi AI?
Nie boję się żadnej technologii
boję się bardzo ludzi
którzy albo nie mają
świadomości
albo przeciwnie mają
świetną świadomość
ale korzystając z tego
że reszta nie ma
robią bardzo złe rzeczy
i to dotyczy absolutnie każdej technologii
i żeby zamknąć naszą rozmowę
niedawno, dwa dni temu
byłem na filmie Openheimer
i to jest film
opowiadający historię przez przedwie
ludzie siątków lat, zupełnie innej technologii
i to jest dokładnie to samo
rozszczepienie jądra atomowego
jest czymś niesamowitym
wyciąganie z tego energię
jest czymś niesamowitym, nie boję się tego
boję się ludzi,
którzy siadają i mówią
to zróbmy z tego bombę
Piękna nakpłęta, podoba mi się
czy tak jakoś mi wyszło
czy ty chcesz coś powiedzieć optymistycznego na koniec
bo w wakacje tu już widzę, że tu już się odkręcasz
w ogóle z tego spotkania
ten temat prywatnościowy ja bym go w tam jak dzik
w żołędzie
wiesz co, ja bym powiedział, że
tutaj na co dzień mamy do czynienia
z dużymi ilościami
jakby metod sztucznej inteligencji
choćby w algorytmach
rekomendacyjnych, które już na nas wpływają
na przykład na dzisiaj jeszcze
przygotowałem taką małą grafikę związane
z polaryzacją społeczeństwa
i okazało się, że
na przykład jeżeli chodzi o pracę
możecie pokazać taką graficzkę
która jest fair feed nazwana
jeżeli chodzi o pracę to wyobraźcie sobie, że
reklamy, które pojawiały się w zależności od płci
dla wysokopłatnej pracy
były zupełnie inne
i ten cały trend
to jest kawałek optymistyczny
ten cały trend związany z fairness
z tym, że zaczynamy się uświadamiać
że pojawiają się nowe narzędzia
to będzie możliwa taka polaryzacja
ludzi, bo nie będziemy
wyświetlać różnych reklam ze względu na płeć
czyli świadomość tego co się dzieje w profilowaniu
ile jednym oferujemy
wyżej płatną pracę, drugi mnie
ja mam nadzieję, że to będzie miało swoje pozytywne efekty
bardzo ci dziękuję
bo nie chciałbym bardzo, żeby
się to skończyło, tak wiesz
świat się skończy
i siadajcie na kanapie
i po prostu czekajcie
dobra, czy my oczywiście powinniśmy jeszcze powiedzieć
na koniec, oprócz tego, że bardzo Wam dziękujemy
za oglądanie
i za Wasze pytania
było ich dużo, część zadaliśmy
wielu, nie zdążyliśmy
ale też mam wrażenie, że na wiele odpowiedzieliśmy
w trakcie naszej normalnej rozmowy
przypomnę tylko, że partnerem
odcinka był Future Processing
podziękuję też bardzo
szczerze i serdecznie Uniwersytetowi
Śląskiemu, Tobie bardzo dziękuję
i już zaproszę to urlopem
czy po urlopie? Jeszcze chwila
i chwila odcięcia i odpoczynku
Super, ja jutro jadę
Tyle, coś jeszcze?
Bardzo dziękujemy, ja myślę, że
zobaczymy się, miejmy nadzieję w najbliższym miesiącu
zobaczymy, jaki to będzie temat
A ja wiem, jaki to będzie temat
albo inaczej, wiem
jaki chciałbym, żeby to był temat
chciałbym poznać o edukacji
O edukacji, bo
następny odcinek będzie
pewnie albo końcówka sierpnia
tak września, idealnie się wpasujemy
w temat szkoły i edukacji
więc chciałbym, żeby to się pojawiło
tym bardziej, że to jest tak samo
gorący temat, jak w medycynie
Absolutnie, że bardzo dużo może
się zmienić, powinno się zmienić
czy się zmieni, to jest zupełnie
inna historia, bo może się okazać
że już się zmieni, że
rzeczywiście ktoś pójdzie swoją drogą
a praktyka swoją
zobaczymy, porozmawiamy
jeśli macie jakieś pomysły, jakieś prośby
może tematy, a może osoby
napiszcie koniecznie w komentarzach, my je naprawdę
czytamy, to nie jest tak, że wy
piszecie czy pytania wasze, czy komentarze
a my po prostu przychodzimy obok
czytamy, staramy się śledzić
Dziękujemy bardzo, zerkajcie na nauka
to lubię nie tylko na kanał
YouTube'owy, ale też na inne nasze
media, na stronie naukatolubie.pl
znajdziecie link do sklepu
z tymi rzeczami, naprawdę
wspieracie nas
wszelkie działania, którymi
się przecież dzielimy z wami
tak po prostu je dajemy
edukacyjne
tak, że popularyzacyjne, to nie są
działania, które nic nie kosztują
natomiast
wasze wsparcie właśnie
chociażby w ten sposób bardzo
bardzo nam pomaga
dobrego wieczoru, miłych wakacji
albo miłego trwania, wakacji
do zobaczenia następnym razem
Spokojnego Warlocku
www.warlock.eu
Machine-generated transcript that may contain inaccuracies.
Sztuczna inteligencja niewątpliwie wpływa na szybszy rozwój wielu technologii, ale sposób, w jaki jej używamy, oraz jakie algorytmy i dane są wykorzystywane, mogą mieć znaczący wpływ na kwestie etyczne. Właśnie dlatego na naszym kolejnym spotkaniu LIVE z serii „Rewolucja AI” razem z Mateuszem Chrobokiem rozmawiamy o wyzwaniach etycznych, jakie się wiążą ze sztuczną inteligencją.