Nauka To Lubię: Czy sztuczna inteligencja jest etyczna?

Nauka To Lubię Nauka To Lubię 7/27/23 - Episode Page - 1h 17m - PDF Transcript

Dzień dobry, Tomek Rożek, Nauka to Lubię i Mateusz Chrobok.

Witamy Was, tu. Dzień dobry, Witamy Was bardzo serdecznie

na kolejnym live'ie o sztucznej inteligencji. Jak tak patrzyłem

na listę naszych poprzednich live'ów, to powiem Ci, że ten

jest chyba najmniej wakacyjnym tematem ever.

Więc nie wiem, dlaczego już byśmy go wpakowali w sam

środek wakacji, ci z Was, którzy są na wakacjach,

zazdrościmy, ci, którzy za chwilkę będą, nie wyjeżdżajcie

przed live'em, wyjedźcie po live'ie. Albo w trakcie. Albo w trakcie

możecie słuchać oczywiście moralność i etyka. I powiem Ci,

że to jest tak nieostry wszystko, że ja nie wiem, gdzie my

dojdziemy w trakcie dzisiejszego spotkania, ale ci z Was,

którzy nas oglądają nie po raz pierwszy, wiedzą, że czasami

lądujemy w bardzo zaskakujących miejscach. Więc może i tym

razem się uda. Kilka ogłoszeń na samym początku. Chciałem

podziękować bardzo Uniwersytetu Śląskiemu, bo jesteśmy w

Uniwersytetu Śląskiego. Chciałem też podziękować firmie

Future Processing, bo ona jest partnerem dzisiejszego naszego

odcinka. Firma Future Processing zajmuje się rozwiązaniami

IT, robi własne projekty, robi projekty na zlecenie, także

to są ludzie, którzy rozwiązuje problemy w świecie IT, w

świecie developmentu. Tak, może jeszcze tylko powiem, bo

ostatnio mieliśmy live'a na temat rynku pracy, na temat

sztucznej inteligencji i tego, jak ona zmieni rynek pracy

w trakcie tego live'a był naszym gościem Tomek, który

jest informatykiem, programistą, pracuje właśnie Future Processing

bardzo ciekawie opowiadał o tym właśnie z punktu widzenia

tych, którzy wydaje mi się, że powszechnie funkcjonuje

takie przekonanie, że ci, którzy najbardziej dostaną

po głowie, to będą właśnie informatycy czy programiści.

Trochę się rozprawiamy z tym mitem, jeżeli ktoś nie widział

live'a naszego poprzedniego na Nauka to lubię znajdziecie.

Więc tak, o Future Processing, powiedziałem Uniwersytecie

Śląskim, powiedziałem, chcę powiedzieć jeszcze kilka słów o tym,

o fundacji Nauka to lubię i o tym, że fundacja organizuje te

spotkania, jeżeli chcecie wesprzeć fundację, to jednym z najlepszych

sposobów i też takim, w którym to wy coś dostajecie.

Jest kupienie książek, które fundacja wydaje.

Książki, na przykład Akademia Superbohaterów, teraz to już są

ostatnie sztuki dosłownie i one są teraz obniżonej cenie.

Książki o polskich naukowcach pokazanych właśnie jako

superbohaterowie i przyszło mi do głowy Mateuszu, ty masz dzieci

w takim wieku, więc myślę, że mnie zrozumiesz, że wakacje

na przykład podróż gdzieś w samochodem, albo pociągiem,

albo już pobyt, to jest idealny czas na to, żeby z dziećmi

porozwiązywać różne zagadki i porobić różne ćwiczenia,

zarówno w kontekście kosmicznym, jak i w kontekście ciała człowieka.

Na Nauka to lubię, możecie kupić książki Jak działa kosmos

i książkę Jak działa człowiek. Bardzo serdecznie Wam je polecam

i w ogóle bym o nich nie mówił, bo nie chcę, żebyście myśleli,

że tutaj prowadzę jakąś sprzedaż obwoźną, gdyby nie to,

że naprawdę jest to dla nas, dla fundacji, dla Nauka to lubię

ogromne wsparcie, więc jeżeli macie pomysł, żeby z dziećmi

jechać na wakacje albo jedziecie gdzieś, gdzie będą dzieci,

to może bardzo fajnym pomysłem jest po prostu kupić nim

takich popularno naukowych książek. I co? Chyba wszystko

i środzi ogłoszenia. Oczywiście ogłoszenie stałe, jak macie

pytania, piszcie, zadawajcie w miarę możliwości staramy się

odpowiedzieć, będziemy widzieć, chociaż prawda też jest taka,

że nigdy nie zdążymy, bo tutaj jest bardzo dużo i za co

Wam bardzo dziękujemy, ale widzimy je, przeczesujemy je i

staramy się odpowiadać na te, które są najbardziej takie

reprezentatywne, czasami one się powtarzają, więc wtedy

tylko jedno czytamy, a nie wszystkie, no i taki stały

elementem naszego każdego, jest co nowego, sztucznej inteligencji

z krótowym takim ekspresowym tempie. Bardzo ekspresowym

tempie. Jak zwykle wszystko przyspieszyło, więc nie wiem

to za każdym razem brzmi właściwie w taki sam sposób

pojawił się Bart w dwustu trzydziestu krajach, czyli

Google nadrabia lukę nad OpenAI i w tej chwili mimo tego,

że były tam protesty, co do ochrony danych już Bart jest

dostępny w całej Unii Europejskiej. Jeżeli chciałbym

z niego skorzystać, to co mogę zrobić? No wchodzisz się

logujesz za pomocą swojego konta, konta, akceptujesz

umowę i lecisz. Bartkom? No w sensie Google Bart, nie znam

adresu po prostu, ale tam po prostu się rejestrujesz,

akceptujesz umowę, on jest na stałe połączony z

wyszukiwarką, więc jakby te wyniki, z których korzysta

są bardzo świeże i to jest trochę inne doświadczenie,

moim zdaniem, miszcza GPT. Warto przetestować, ja testuję.

Pojawiły się nowe modele, tak jak na początku rozmawialiśmy

o tym, że kontekst nasz jest o wiele większy, ja pamiętam

jeden z pierwszych odcinków, kiedy rozmówiliśmy o tym, że

my jako ludzie mi wszystko ogarniamy szerszy kontekst,

pojawiła się nowa metoda, która ma możliwość nawet posiadania

jednego miliona tokenów, w uproszczeniu, powiedzmy,

wyrazu w prawie jednego miliona kontekstów, co powoduje,

że my jako ludzie nie mamy szans mieć takiego kontekstów

na bieżąco, więc te problemy, które parę miesięcy temu się

pojawiły, są w tej chwili rozwiązowane, co jest bardzo ciekawe.

Żeby pokazać, jakie jest tempo, to wczoraj,

bo specjalnie sprawdziłem, zostało opublikowane 105 nowych

badań na temat uczenia maszynowego, gdzie...

W ciągu miesiąca?

W ciągu dnia.

Gdzie dla porównania 10 lat temu, czyli w 2013,

było 1200 badań w roku, czyli powiedzmy tam 4 w ciągu dnia

tempo, cały czas zrasta, pojawiły się nowe metody

do alignmentu sztucznej inteligencji, czyli do robienia

tego, co nam robi, nie tylko człowiek w plenty, ale jeszcze

reinforce learning from contrast distillation.

Bardzo ciekawe, zupełnie inne podejście do sprawdzenia

tego, co jest istotne w zdaniu.

Pojawiła się lama w drugiej wersji od Facebooka, która w ogóle

bardzo dobrze performuje w porównaniu na przykład z GPT-4

i można sobie ją z niskorzystać za darmo.

Jak mówisz, performuje.

Czy byłbyś, uprzejmy w lipiku, powiedzieć to tak,

żeby większa grupa z nas rozumiała, co masz na myśli?

To jest tak, że mamy problem, to też trochę dzisiejszy temat,

żeby ocenić, jak dobrze takie modele ja i działają.

Więc tworzy się coraz to nowe metody do sprawdzania,

jak one sobie radzą z różnymi zadaniami.

To jest trochę inny news, bo się pojawił taki projekt,

który się nazywa Alpaca eval od eval evaluation,

który bada, jak które modele radzą sobie z różnymi zadaniami.

No bo w sumie, jak jesteś taki normalnym użytkownikiem,

to skąd ty masz wiedzieć, który model jest lepszy, który jest gorszy?

Więc pojawia się potrzeba i zaczyna być rozwiązanie zupełnie otwarte,

które pokazuje hejdo takich zadań, takie i takie modele

są coraz lepsze.

Ok, czy Lama i Alpaca to tak jest przez przypadek?

To zupełnie nie.

Lama, która pochodzi od mety, czyli od Facebooka,

którzy trochę wsadzili tak szprychę, wiesz, Microsoftowi,

Googleowi i OpenAI i uważam, że to jest super.

Z drugiej strony, jakby publikując takie coś opensourceowego,

Alpaca powstała, jeżeli się nie mylę, albo na Stanfordzie,

albo na MIT, jednym z tych bardziej Stanfordzie, jeżeli nie pamięć,

i myli jako opensourceowy, potem Lama, jest z tego jeszcze mnóstwo.

Także pojawia się...

Czy zwierzęta, z których można Svetry robić?

Czy to...

To jest klucz.

Czy to jest jakiś klucz?

Ok, jest, myślę, że taki głębszy.

Okazało się, że GPT-4 całkiem fajnie gra w Minecrafta.

Został zastosowany do tego, żeby podejmować decyzję,

żeby grać i tam budować różne rzeczy.

Także bardzo fajne badania w ten temat się pojawiło, mnie bawi.

I co ciekawe, naukowcy, którzy badali,

jak zmieniają się możliwości GPT-4 od marca,

od momentu, kiedy się pojawiło, stwierdzili, że jest głuprze.

Ok.

Głuprze, w zrozumieniu takim, to oczywiście taki trochę klikby,

ale w zrozumieniu takim, że gorzej pisze kod.

Natomiast twórcy bronią się tym, że mówimy, że no, ale wzrosła nam...

Że się próbują wpasować do trendu, tak?

Natomiast twórcy chcieli, że w tej chwili model jest mniej zbiasowany,

muszę poprawić, nie wytrzymam, jest mniej zbiasowany od wszystkich.

Wiesz, ja to miałem, oparty po prostu tak sobie to zrobiłem,

żeby mieć po lekkim sposobu, do tego się nadają.

Dobrze, czy ty zaakceptujesz, że ja ten dolny tak to wysunę?

Absolutnie.

Ok, dziękuję ci.

Jeszcze jest taki śmieszkowy przypadek, bo tak jak mówiliśmy kiedyś,

co to się tak właściwie dzieje w tych modelach,

to jest taka kompresja wiedzy do tych wag, które się tam znajdują

i powstało takie badanie ciekawe, które pokazało,

że kompresja wiedzy z zipem, czyli takim algorytmem kompresującym,

razem z taką fajną miarą, która nazywa się KNN, K Nearest Neighbors,

okazało się, że performuje całkiem nieźle w stosunku do transformerów,

czyli do tych modeli, które teraz tak bardzo popularnie używamy,

co powodowało dysonam z poznawczył wielu ludzi,

ale to ma jakiś tam sens.

Czy u mnie powoduje dysonans nagromadzenie słów,

których znaczenia się bardziej domyślam niż rozumiem,

ale to na to mogę liczyć w trakcie każdego z naszych spotkań,

więc zupełnie to nie dziwi.

Wiesz co, bo tak, zapomnijmy jeszcze jednej rzeczy powiedzieć,

że Krzemysław jest na urlopie.

Tak, odpoczywa.

Krzemysława, znacie ci z was, którzy nas oglądają regularnie,

że wiedzą, że Krzemysław nie jest do końca prawdziwy,

ale mimo tego jakoś wymóg, jakoś wymóg na nas,

więc Krzemka dzisiaj nie będzie.

Co jeszcze mamy z tych rzeczy?

Ja myślę, że z największych newsów to jest tak naprawdę wszystko.

Ja bym dodał jeszcze, że w Chinach zostało wprowadzone prawo,

które mówi o tym, że jeżeli będziecie tworzyli jakieś systemy z generatywnym AI,

to w momencie, gdyby taki system wytworzył ci coś,

co jest niezgodne z linią partii, to należy to zgłosić.

I w drugą stronę...

I skasować?

Mienienie zgłosić do odpowiednich organów.

I w drugą stronę, to znaczy, jeżeli jakiś użytkownik dostarczy coś,

co jest niezgodne z linią partii, to taki operator też musi to zgłosić,

więc to będzie dosyć ciekawy eksperyment.

Już widzę te pierwsze firmy, które powstają i mają bardzo duże ograniczenia.

Czy da się zrobić, bo częściowo to już wchodzi w nasz temat?

Czy da się zrobić algorytę, który sam będzie oceniał,

co jest zgodne z linią partii, a co nie?

To jest problem alignmentu, czyli dostosowania się do tego,

czego oczekujemy od sztucznej inteligencji,

czyli jak ja teraz będę podawał ci zestaw tego,

jak się zachowywać, co jest dobrą odpowiedzią,

to przy przełuczaniu w tej pędli,

którą zawsze tak sobie ładnie mówimy,

human resource lub feedback,

czyli że ty podajesz odpowiedź,

ta sieć się doucza, doucza, doucza

i w pewnym momencie całkiem nieźle sobie radzi,

tylko zawsze ona będzie się odchylać,

nie wszyscy ludzie, którzy mają takie samo zdanie

i to jest trochę temat dzisiejszego odcinka,

że nie ma jednego rozwiązania.

To jest temat naszego dzisiejszego odcinka,

czyli kwestie moralności, kwestie etyki.

W tym oczywiście dosyć szybka,

sobie zrobiłem taką listę,

rzeczy, które dla mnie w kontekście sztucznej inteligencji

łączą się z dzisiejszym tematem i kwestia wolności słowa

i tutaj właśnie nawiązuję do tego

i algorytmów, które pewne rzeczy wyciszają,

pewne wzmacniają, pewne informacje mi podają,

a są i takie, które może wymyślają.

Inne informacje jest niemalże na samym szczycie listę.

Nie dlatego, że uważam, że jest to z punktu widzenia jednostki

istotniejsze niż na przykład dron,

który autonomiczny, który mnie zabija,

tylko patrząc tak globalnie, to jednak z tym mamy

i będziemy mieli do czynienia prawie,

że wszyscy i nie wszyscy,

a z dronem, o którym też chcę opowiedzieć

i chcę porozmawiać z tobą

o pewnym eksperymencie Armii Stanów Zjednoczonych.

Jest to ciekawe, jest to częściowo klikbajtowe,

ale jednak nie jest to coś masowego,

a kwestie wolności słowa dotyczą wszystkich.

Więc jeśli ci to nie przeszkadza,

może zacznijmy od tego, już troszkę żeśmy zaczęli.

Czy ty widzisz zagrożenie w tym,

bo ja je widzę?

No absolutnie, to jest jakby,

ja bym dotknął takiego problemu,

że mamy pewną różnorodność w świecie

i różnorodność w danych.

I jak się myśli o tym,

jak my w ogóle rozumiemy świat i zbieramy dane,

to niestety, albo stety,

istnieją stereotypy.

I teraz jeżeli te stereotypy

będziemy powielać,

no to niewiele się zmieni,

bo dalej będziemy,

będziemy je mieli gdzieś tam,

to się nazywa ładnie historical bias,

w tej historii.

I mierzymy powiedzmy,

nie wiem,

jak czy dać komuś kredyt,

to jest taki typowy rzecz,

bo już trochę boli,

że temu dasz, a temu nie dasz.

I robimy jakiś cen,

zrobimy jakąś ankietę, zaczynamy sobie zbierać dane

i potem w tym procesie

zbierania danych masz jeszcze jakąś metodę pomiarową,

która jak wiadomo może być nieidealna,

bo powiedzmy, że nad sobą spędzę

więcej czasu, gadając z kimś inaczej,

jak dokładność będzie się różniła,

tam też będą jakieś błędy.

I dopiero to, jak sobie przejdzie,

bo ja bym prosił, żebyśmy rzucili sobie

generacja danych, taki obrazek na ekran,

bo to pokazuje taki proces,

że od tych danych i od tego świata,

który jest nieidealny,

mamy problem jeszcze po drodze reprezentacji,

no bo to nie jest tak, że mamy równą reprezentację,

czy to na ze względu na płeć, etniczność,

kolorskur, cokolwiek innego,

jesteśmy w różnymi grupami,

co do wielkości.

Później jest właśnie ten problem z pomiarem

i potem dopiero to staje się zbiorem danych

i potem dopiero jest wykorzystywane.

A na tych zbiorach danych się uczy

algorytm, więc jeżeli

sknocimy to wszystko,

co jest przed zbiorem danych,

to nagle zbiór danych zawiera błędy,

a na tych błędach się uczy coś,

co decyduje o kredycie,

na przykład, ale równie dobrze może decydować

i wydaje mi się, że tutaj

ten problem już jest taki bardziej

może dla większej grupy

intuicyjnie jest czymś

takim do zastanowienia, na przykład

decyduje, kogo wpuścić

do kraju, a kogo nie.

No do klubu, do kraju, gdzie chcesz.

Gdziekolwiek, a nagle się okazuje, że ktoś

tylko dlatego, że macie

mniejszą skórę zostaje

oceniony jako bardziej ryzykowny

w związku z tym nie dostaje

pozwolenia.

To się pojawia jeszcze taki drugi kawałek,

bo, jakby wiesz, zebraliśmy dane

i teraz czujemy już, że te dane mogą być

nieidealne po drodze, bo wprowadzamy

jakieś błędy. I przechodzimy do budowania

modeli, no bo kolejny kawałek

to, jak poproszę

wrzucenie obrazka o budowaniu modeli

na początku jest tak, że zbieramy

sobie to, co było, na części danych się uczy,

częściej używa potem do sprawdzenia

tak, tego, co się dzieje

i mamy

tak zwany learning bias, czyli to, co

jest związane z tym, w jaki sposób

w ogóle uczymy modele, jakie agregujemy,

bo są pewne

zmienne, których nie weźmiemy pod uwagę,

bo uważamy, że na przykład

są, jest tylko pewien zestaw cech

i to jest związane z biasem agregacji,

czyli z tym, że mamy

mogą być pewne

pewne rzeczy, których nie zauważymy

w tym wszystkim i potem, jak już zbudujemy

sobie taki model, to na podstawie

danych, które mamy pojawia się bias

jak to oceniamy, czyli evaluation bias

no bo, jak ja ci powiem, że no dobra

tam ilość błędów była najmniejsza,

ale ogólnie to spełnia tam jakieś warunki

jak będziemy oceniać to w zły sposób

tak, no to będziemy mieli

takie, a nie inne wyniki

i to

jeszcze ma swój kolejny kawałek

bo tutaj, w tym badaniu, który

pojawi się gdzieś tam pod filmem

może być tak, że ktoś

wykorzysta takie modele wyuczone do jednego

celu, do innego zastosowania

ok, no ale to teraz jakby sprowadzając

to, o czym rozmawiamy

do naszego tematu

gdzie ty widzisz największe zagrożenie

i w całości

w całości to będą pewne pierwsze te

i jak ty widzisz

rozwiązanie, bo

nikt z nas

i nikt z was pewnie nie uwierzy

byśmy powiedzieli nie, w ogóle rezygnujemy

z tej funkcjonalności

z tej inteligencji, bo oczywiście

nikt nie zrezygnuje, bo ja już jednym

z powodów rozbudowy

i właśnie to, że tak jest łatwiej

i bankom, i urzędnikom

i służbie celnej, i wielu, wielu, wielu innym

więc, jeszcze raz

gdzie twoim zdaniem jest największe

zagrożenie w tym?

i co twoim zdaniem można zrobić,

żeby je zminimalizować?

rozwiązanie już się pojawiają

dla każdych z tych warstw, gdzie

wprowadzamy błędy, pojawiają się

metodologię, pojawiają się

oprogramowanie do mierzenia tego

do tego, żeby sobie z tym radzić

na największe zagrożenie, to jest

nie mieć świadomości, w jak wielu

miejscach można się potknąć

bo, żeby dać ci takie parę przykładów

jeżeli chodzi o zastosowanie modelu

który został stworzony dla czegoś innego

to była tam, był taki model do oceny

ryzyka ze względu na tam dane

osobowe, etniczne i inne takie

i wyobraź sobie, że on został nadużyty

w pewnym kontekście, według

tego badania, które tam cytuję, do tego

żeby określać długość wyroku

ok, dla osób

skazanych, no i

ten model był stworzony do jednego, został

wykorzystany do innego

gdzie, to dlaczego powiedział taką

decyzję, gdzie jest fer

i o ile na razie cały czas mamy człowieka, który

na każdej tej fazie będzie odpowiedzialny

za błędy, to ja uważam, że jednym z

najważniejszych przesłanie jest to, żeby być świadom

tego, że w całym tym procesie

będziemy popełniać błędy i będziemy je poprawiać

bo, metod będzie

coraz więcej, ale jak będziemy to robili w naślepę

to będziemy

tylko powtarzać to, co już wiemy o świecie

czyli, ten historij kolba jest

to ja może jeszcze tylko powiem, że

jednym z tematów

kolejnych, nie powiem, że następnego

bo następnego nie, ale

kolejnych naszych spotkań, będzie kwestia

wymiaru sprawiedliwości

jest to o tyle dla nas

ważne, że

jest to o tyle dla nas ważne, że

w niektórych miejscach, a takimi

miejscami są, chociażby

Stany Zjednoczone, coraz częściej

to algorytmy podejmują decyzje

albo

może nie tyle podejmują, w sensie prawnym

bo ostatecznie człowiek ją podpisuje

ale pomagają

albo wspierają sędziego

przy wyrokach

przy podaniach o

wcześniejsze zwolnienie

przy wyrokach, czy podaniach

o skrócenie kary i tak dalej

i tak dalej, więc jest to wątek bardzo

bardzo istotny

nie mam przekonania przy przypadku, w których

w Bałtyckich do mikrofonu

do 5 tysięcy euro

tak mi się wydaje

kolejny punkt, jaki sobie zapisałem

bo nie wiem czy kończymy w nim

ja myślę, że tak, jeżeli chodzi o sam proces

fajnie, że to zrobiliśmy na początku

bo teraz będziemy mogli się do tego nosić

super, zapisałem sobie systemy

które się uczą, wiadomo

każdy z nich, natomiast systemy

które dają jakieś odpowiedzi

my tak naprawdę nie wiemy skąd one się biorą

czyli

w sensie nie wiemy, że

w zasadzie o tym mówiliśmy

trochę na każdym z naszych spotkań

uczą się, ale my nie wiemy

jak dokładnie przebiega proces

podejmowania decyzji

a tymczasem i o tym jeszcze w później

w czasie dzisiejszego rejwa też powiemy troszkę więcej

coraz częściej pozostawiamy

im tym systemom

duże pole

do podejmowania decyzji

coraz większe

no i właśnie co zrobić

jak one uczą się, podejmowały te decyzje

jakkolwiek

to zdefiniujemy

w sposób moralny i w sposób etyczny

ja myślę, że

pierwszym krokiem to jest wyjaśnialność

decyzji, czyli coś co nazywa się ładnie

explainable AI

i teraz jak masz klocki Lego, czyli różne modele

które wybierasz do tego uczenia

to są takie klocki, które fajnie się wyjaśnia

na przykład drzewa decyzyjne

a weszło mi to

to ja widziałem, tam miałem taką serię

jeżeli dzisiaj obudziłem się o piąte

i jest powyżej 20 stopni

to obieram krótkie spotyki

i to jest super, bo widzisz jak ta ścieżka

rozumowania się bierze

są później te metody, które są trudne

na przykład metody

głębokiego uczenia maszynowego

czy inne modele, które nie są tak łatwo wyjaśnialne

które

do nich się tworzy tak zwane modelu surugatów

czyli masz kogoś, kto tworzy ci wejście

no dobra i obserwujesz wyjście

i patrzysz sobie

stopnie zobaczymy czy tam jak wyjdzie w krótkich spodenkach

a nie wyszedł w krótkich

robimy 21 a wyszedł w krótkich

i próbujesz rozumować

na takie ograniczonej przestrzeni

a potem dodajesz tam kolejny wymiar

czyli na przykład deszcz, słońce i tak dalej

czyli nie wiesz co jest z black box, ale obserwujesz

wszystko dookoła i wyciągasz wnioski

na podstawie tego co widzisz

no to w gruncie rzeczy tak trochę działają naukowcy

którzy obserwują jakieś zjawisko

nie do końca

mogą mieć świadomość jak to działa w środku

ale próbują to wyjaśnić na podstawie obserwacji

dokładnie

to ma taki trochę problem

że zazwyczaj nie zrobisz wszystkich kombinacji

no jakby nie staćcie na przeszukanie

całej przestrzeni

jak tam temperatura to jest

jeszcze łatwy kawałek

ale te przestrzenie mogą być po prostu

wymiarowe a gdzie jak jest duże to

to to jest po prostu kosztowne

i teraz jak

są jeszcze teraz takie metody

bo powstały specjalne modele

potrafią same się wyjaśnić

na zasadzie podjąłem taką decyzję

i jakby jest to też taki mega trend

który bodajże DARPA amerykańska

rozpoczęła który służy do tego żeby

wyjaśnić podjąłem taką decyzję bo tu dostałem to

to to to to to

i jest jeszcze jeden taki trend

który jest związany z tym że tworzy się uczenie maszynowe

które wyjaśnia innym uczenie maszynowe

czyli wiesz tam ogień ogniem zwalczać czy jakaś tak

i które próbują

po prostu wygenerować dane

to jest podobne trochę do tych surogatów

wygenerować dane i patrzą sobie potem na wyjście

i próbują wytłumaczyć co tam się dzieje

taka jest jakby przestrzeń

explainable AI i teraz

jak już zaczynamy rozumieć co tam w tym siedzi

i jakby co mniej więcej

od czego zależy to możemy wnioskować

czy ten model zachowuje się

fair czy nie bo teraz wybrajmy sobie

że ja chcę kredyt i

przełączamy sobie jedną zmienną jestem mężczyzną

jestem kobietą a teraz przełączamy sobie drugą

zmienną sprawdzamy sobie

moje zarobki tam od

1000 do 100 tysięcy złotych

i co i w jakiej okazji zostanę

nie i

pą wrażliwość na dane

badając tą wrażliwość jesteśmy w stanie powiedzieć

czy ten model jest fair w stosunku

do jakiej zmiennej ok pytanie

które wydaje mi się, że tutaj dobrze pasuje

czy mając tą świadomość

zagrożeń sztucznej inteligencji

nie powinni się bardziej pilować modeli

i najlepiej aby były one open source

i za jej odpowiedź

wydaje mi się, że myśmy o tym wspomnieli

przy okazji AI Act

w tym czasie poprzedniego

czy jeszcze poprzedniego lajwa

AI Act ma być w październiku

gdzieś tak październik listopad

morsze wcu

tam też jest informacja o tym, że

ocenianie w tych trzech kolorach

ryzykownym, neutralnym

i

ok go, tam nie mam problemu

że tam jedną z podstawowych

zmiennych o ile nie podstawową

zmienną była właśnie kwestia tego

kod cały, czy on jest otwarty

czy my rzeczywiście możemy

zajrzeć do środka, co się z czego bierze

i jak pokolej szło

tak, no to

żeby zepsuć trochę i tak jest rzeczywiście

zapraszam do króliczej nory

bo jest taki

obrazek, który na dzisiaj przygotowałem

który nazywa się pranie danych

wyobraź sobie, że są teraz te modele

które wyjaśniają inne modele

i można w ten sposób

jakby wpłynąć na to co z nich wychodzi

jak zobaczycie pranie danych na swoim ekranie

to

tutaj jest akurat przykład, który jest związany

z bucią

w naivnym

wyjaśnieniu okazuje się, że

płeć ma wielki wpływ na ten zbiór

tu chodzi o recedywistów

zbiór danych, to będziecie mieli w opisie

natomiast

powstało takie oprogramowanie

ML Laundry, czyli pierzemy

teraz taką wyjaśnialność, który

tak zmienia to co się tam dzieje

że wygląda na to, że tutaj płeć

w sumie nie ma żadnego znaczenia

wyjaśnijmy na to już powiedzmy, co my w tym momencie widzimy na ekranie

to jest jakby wyjaśnienie

tego jak działa model, które dajesz

audytowi, który miałby

sprawdzić, czy twój model jest fern

na przykład ze względu na płeć

i można tak tym zmanipulować

jakby badacze tutaj pokazali, że można tak tym

zmanipulować, że właściwie

nie dyskryminujesz ze względu na płeć

płeć wszystko jest w porządku

więc już w tej chwili powstają metody

na to, żeby tą audytowalność

i możliwość dostosowania się

no to będzie trudne

w porządku

czy my jeszcze w tym obszarze

chcemy coś powiedzieć?

Myślę, że jeżeli chodzi

o grupy społeczne, o

jakby zupełnie różne dane, to zawsze się

będzie pojawiało

i będzie się pojawiało na tych różnych poziomach

z którymi mamy do czynienia

bardzo istotne jest to, żeby osoby, które

będą podejmowały decyzję

w życiu takich rzeczy miały świadomość

jak wielka to jest

moc, jak trudny jest

ten cały proces. Ok, a dla mnie

ciekawsze czy ważniejsze jest

może nie to, że osoby, które to robią

mają świadomość, bo wydaje mi się, że

jak to robią to mają, tylko co

my świat zewnętrzny możemy

zrobić, nie wiem nasi na przykład

przedstawiciele w organach

tworzących prawo

czy tworzących konkretne rozwiązania

jak jest tworzyć tak, żeby zabezpieczyć

nas przed

różnego rodzaju nadużyciami

takich modeli. Znaczy ja wyobrażam sobie, że

audyt to będzie na pewno element tego.

W pytaniu było pytanie o open source, ja jestem wielkim

zwolennikiem, pójścia w tą stronę

natomiast nie wierzę, że

takie komercyjne organizacje, nie wiem

banki będą chciały się tym wprost podzielić

natomiast wyobrażam sobie

bo to wiesz, jest trochę problem

z ustawianiem się pod zbiory danych, nie?

Ja ze świata na przykład biometrii

to okazało się, że tam był taki zbiór

biometryczny dla palców i

algorytmy, które są stworzone pod to świetnie

sobie z tym zbiorem radzą, a w prawdziwym życiu

to zawsze trochę gdzieś tam gorzej, bo

jest standard, nie? Więc wyobrażam sobie

że metody testowania i

zbiory danych też będą coraz bardziej

różnorodne i mam nadzieję, że te

przeuczenie się, czyli zbytnie dopasowanie

się do takiego zbioru, które jest

referencyjne, no

będzie karane, w sensie, że wiesz, to nie

to w AI-akcie zostanie ujęte też.

Zaznaczyłem sobie też co prawda

na dalszej pozycji, ale wydaje mi się,

że to w tym momencie Repii pasuje,

gromadzenie i analizy danych osobowych

przez sztuczną inteligencję. Jest to

zagrożenie, jest to nie moralne, jest to

nieetyczne, przynajmniej w naszej części

świata, byśmy przelecieli samolotem

przez ocean i znali się w Stanach

to opowiadanie o rodo,

mniej więcej wzbudza

w wielu Amerykanach zdziwienie

i coraz bardziej otwarte oczy.

Zresztą

to jest podobno,

nie wiem jak Ty to oceniasz, ale słyszałem

takie utłumaczenie, jeden z powodów

dla których niektóre

rozwiązania, niektóre aplikacje

czy niektóre serwisy w ogóle w Europie

nie działają, jak chociażby tec,

gdzie po prostu rozwiązania

rodo, czy przepisy związane

z rodo, powodują, że w zasadzie on by

nie mógł tutaj działać. Tak jest. A tam działa,

bo tam nikt się tym nie przyjmuje, więc

to jest zagrożenie, przynajmniej

z naszego punktu widzenia, jak Ty to

widzisz, gromadzenie analizy danych

osobowych. Znaczy

oni też się tam budzą powoli nie,

bo Kalea Fiornia miał swojego CPCPA,

czyli ten Kalifornia Custom Protection

Ax, tak się to podejrzewa

i to jest równoważne z rodo

i coraz więcej miejsc na świecie czy to Singapur

wprowadza takie rodo, bo chcą

chronić swoich użytkowników, natomiast

jeżeli dane osobowe

będą wewnątrz takich modeli, to nic

nie będzie stało na przeszkodzie, żeby je

wyciągnąć w ten czy inny sposób.

I tutaj szczególnie wrażliwe mamy

dane medyczne dane, które

mogą spowodować, że można

wpłynąć na nasze decyzje,

bo ja wyobrażam sobie ten przykład, że

reklamodawcy w szczególności,

czyli meta, google

wszyscy ci, którzy mogą Cię zachęcić

do czegoś, sprzedając swój profil

dalej i mówiąc, Ty jesteś człowieku teraz

w depresji, jesteś w takim momencie

cokolwiek Ci podsuniemy, to kupisz

zrobię po prostu na tym większe pieniądze,

więc dla mnie

zbyt nie łącza niedanych, to jest oddanie

zbyt dużej ilości władzy właśnie

takim podmiotom.

Może warto w tym momencie

zaznaczyć, czy tam nie wiem,

może nie tyle zaznaczyć, ale uświadomić,

że te firmy na tej planecie,

które zarabiają najwięcej pieniędzy

świadczą

usługi dla nas za darmo.

Tak. No więc pytanie

No więc pytanie, na czym

zarabiają tak ogromne pieniądze

no właśnie na tym, że

my użytkownicy

bardzo chętnie dzielimy się danymi,

te dane później są sprzedawane za grubę

pieniądze, one są kojarzone

z innymi danymi, których nawet nie mamy

świadomości, że są zbierane

z nas, z naszego zachowania

i im bardziej

to jest integrowane wszystko, tym to jest

potencjalnie groźniejsze.

To ja właśnie miałem ten problem

z Bardem, czy z Tretsem,

bo Bard mówi tam wprost,

że możemy użyć tych danych do poprawy

naszej usługi, ale też dla

uzasadnionego interesu naszych partnerów

będziemy gdzieś tam dalej odnać.

I to jest tak ogólne dla mnie, w sensie

ja oczywiście nie jestem prawnikiem, ale dla mnie to jest taka

szeroka furtka pod tytułem

cokolwiek nam wrzucisz, to my sobie to tam

gdzieś dalej wykorzystamy. A Tretsy

zostały zbanowane, znaczy nawet nie chcą

świadczyć usługi

w Unii Europejskiej właśnie ze względu narodu

bo jak się okazało to ilość danych

zbierają użytkownikach

to jest typowo w stylu

mety Facebooka, że no tak, daj nam wszystko, bo to

na pewno jest niezbędne, żeby

żeby to działało.

Dane osobowe są złotem, kolejnym

jakby złotem, które te firmy mogą

przekuć. I teraz jeszcze ja bym zwrócił uwagę

jeszcze jeden na jeden taki trend, bo zobacz, że

jest coraz więcej mediów społecznościowych, które

się zamyka. Twitter się zamknął

na zewnętrznych

użytkowników, ograniczył ilość tweetów, które

możesz gdzieś tam widzieć każdego dnia

po to, żeby ktoś nie wziął

sobie tych danych za darmo i nie zaczął

uczyć swoich modeli uczenia maszynowego

podobnie z Redditem, tak?

Tam za zapytania zaczęli pobierać

coraz więcej pieniędzy, więc to wszystko

co my tworzymy i różne

firmy próbują po prostu to zmonetyzować.

To jest bardziej warto. Tak, to jest to bardziej warto.

Mam jeszcze dwie kwestie

zapisane na mojej króciutkiej liście,

ale chcę wam tylko przypomnieć, że

byście oczywiście zadawali pytania

robimy z Mateuszem

te spotkania, dlatego, że

mamy takie przeświadczenie,

że nie jesteśmy tu sami,

robimy to razem z wami.

Jeżeli Was coś interesuje, pytajcie,

postaramy się odpowiedzieć.

Patrzę teraz na listę pytań.

Mam pytanie takie bardzo, bardzo ogólne.

Czy możemy wymagać

od AI moralności i etyki,

jeśli sami ludzie nie są zgodni

w tym temacie i przypominam się

taki eksperyment.

Przed niedakość tam bardzo dawna

wydaje mi się, że to może z 2,

może 3 lata temu było, na MIT

jakaś grupa naukowców

stworzyła formularz

z takimi pytaniami

powiedział serii

co byś zrobił

w takiej sytuacji, tamtej w innej

etycznymi, moralnymi

bo

jakby motywacja

była

w pierwszym przybliżeniu, nawet nie przekonująca

czyli taka, jeżeli

odpowiedniu duża grupa ludzi

odpowie na te pytania

serii

rozkmin moralnych, etycznych

a później to i ci ludzie

będą z różnych kultur, z różnych środowisk

czyli reprezentatywna próbka jak to się mówi

nie wczytywałem się czy rzeczywiście

oni to normalizowali

ale nieistotne

w każdym razie jakaś grupa

to zdobędziemy taką globalną moralność

i jak już ją zdobędziemy

to na jej podstawie

wyuczenie algorytmu nie powinno być

jakimś wyzwaniem

czytając to w pewnym momencie

jak zdałem sobie sprawę

że tutaj mamy pewne

założenie

wszyte, że większość

jest moralna

że to większość ma moralną rację

że moralność i demokracja

na zasadzie, że większość

jak większość uzna, że coś jest ok

to znaczy, że to jest ok, że to jest moralne, że to jest etyczne

to nie zawsze w ten sposób działa

i można

bardzo wiele różnych przykładów

podawać

żeby nie podawać przykładów

z jakoś ostatnich czasów

to chciałem tylko powiedzieć, że

no przez nasz kraj się przetoczyły

dwa totalitaryzmy w ciągu ostatnich 100 lat

i jeden i drugi

miał poparcie większości w swoich krajach

tak, w swoich krajach

czyli taka prosta próba

policzenia

co jest tak statystycznie

co jest moralne, co nie

moim zdaniem nie zadziała

absolutnie

tylko co jest alternatywą

moim zdaniem

no niestety, znaczy niestety pluralizm

tak, każda stroniczość jest subiektywna

ja czytałem takie badanie

przygotowując się na dzisiaj, że

w zależności od etyki

bardziej wschodu, bardziej zachodu

tego kto gdzieś pochodzi, to oczywiście inne zasady są etyczne

więc wyobrażam sobie, że

szansa na reprezentację

tych różnych punktów widzenia

powinno być odzwierciedona w różnych modelach AI

oczywiście mamy

jak to się mówi, nie wiem czy grałeś

kiedyś w cywilizacji, ale jest zwycięstwo

kulturowe, jak wszyscy zaczynają pić kole

i ubierać jeansy, to znaczy, że cały świat

pokochał twoją kulturę

to taki żart

ale jeżeli uda się tą bańkę informacyjną

sposób myślenia narzucić

to wszyscy będą myśleli

w takim tworzym toku

w tym formularzu jest jeszcze jedno ciche założenie

które mnie tak od razu, a kto zadaje

pytania, i skąd ja mówię, że te pytania są właściwe

a kto potem będzie je interpretował

a kto potem zbuduje model, nie?

i to jest znowu ten sam proces

jasne, ale z drugiej strony

albo z trzeciej strony już niemile tych stąd, że się poruszyli

jeżeli mówisz pluralizm

jeżeli mówisz, że dla ludzi ze wschodu

będzie coś innego niż dla ludzi z zachodu

ok, tyle tylko

że w świecie

który jest połączony

rozwiązaniami cyfrowymi

ci z zachodu

mogą korzystać

z tych ze wschodu

a te ze wschodu na zachodzie mogą

dawać niemoralne albo nieetyczne odpowiedzi

absolutnie

w tym drugim, tak

no bo takim prostym przykładem

jest chociażby kwestia prawa własności

tak

które na dalekim wschodzie

zupełnie inaczej rozumiane niż u nas

tak

w krajach takich jak chociażby Chiny

Japonia, Korea

tam kwestią kluczową

to jest wspólnota

a nie jednostka

a u nas na odwrót

kiedyś czytałem świetną książkę na temat przekazu

na temat komunikacji

książkę w której był podany

i ten przykład mi naprawdę na długo zapadł

w pamięć i może na zawsze pozostanie

że u nas

reklamując cokolwiek

samochód, dezodorant, mydło, zapach

mówisz tak

korzystać z tego będziesz inny niż wszyscy

i to się przekonuje

że się by już wyróżniał

a tam powinieneś powiedzieć byś

tacy jak wszyscy

ty się nie chcesz wyróżniać

ty chcesz być, ty nie chcesz odstawać

i teraz dokładnie ten sam produkt

tu i tam musisz pokazywać

z innych stron

i to tak skrajnie innych

nie jakieś tam subtelności, jakieś detaliki

tylko dokładnie na odwrót

i teraz w świecie globalnym

w którym samochód

może być produkowany równocześnie

gdzie to coś robimy tam

tak w Nigerii

w informatyków

jest

prowadzone jakiś tam etap programowania

pisania

to nagle powstaje

pytanie no dobrze

jakie zastosować rozwiązania

jakie zastosować

modele

czy ten samochód autonomiczny

powinien wszędzie podejmować takie same

decyzje

bo to jest tak naprawdę

największe wyzwanie

ja pamiętam nie tak dawno temu

paradoks

wagonika

taki typowy dla tych z was

którzy może nie do końca

kojarzą chodzi

w skrócie o to czy taka wersja

powiedzmy u samochodowiona tak to nazwijmy

kupujemy samochód on jest nasz

my jesteśmy jego właścicielem jedziemy na wakacje

w pewnym momencie

przejeżdżamy przez jakąś miejscowość

dziecko gdzieś tam z boku kopie piłkę

piłka latuje

wtacza się na naszą jezdnię

dziecko wbiega na przedmaskę

i odpowiedni algorytm

w zasadzie wierzy

samochód jest autonomiczny

algorytm wie

że nie wyhamuje to i ma do wyboru

uderzyć w to dziecko być może je zabijając

albo skręcić

uderzając w drzewo zabijając swoich właścicieli

tych którzy są w środku

jakiś czas temu

naprawdę nie tak dawno

jak mówiło się o tym przykładzie

to mówiło się

jako takim eksperymencie czysto myślowym

tak jest

dzisiaj już nie jest eksperymentem tylko i wyłącznie myślowym

patrz Tesla

on już wymaga konkretnych decyzji

co ten samochód ma zrobić

czy ma policzyć ile osób ma w aucie

a ile jest na zewnątrz i stwierdzić

lepiej zachować czwórkę przy życiu

niż to jednego

czy ma liczyć średnią wieku

nie wiesz w naszej kulturze

ale gdyby to był emeryt

czy powinienem jakoś inaczej ten algorytm liczyć

to jest to pytanie

jak my mamy je nauczyć

podejmowania

już pominę to słowo moralne

albo etyczne ale słusznych decyzji

i kto to powinien określać

i które są słuszne

bo tym długim długim takim

tak spozae teraz zostawiam

the floor is yours

ja tak lubię się przyczepiać

że to będzie zależne od lokacji

a co jeżeli to jest niezależne od lokacji

tylko od hierarchii wartości

wyznawanej przez dana korporacja

a co z tym

jak na przykład kupując samochód japoński

w Europie będziesz mógł

sobie taką nakładkę na oprogramowanie kupić

który spowoduje

ja wcale bym się bardzo nie zdziwił

który spowoduje że

jakby ten mańcet

samochodu będzie bardziej

taki zachodni niż taki wschodni

ale wyobraź sobie teraz

oczywiście żart co nie jest reklama

nikt tam za to nie płaci

ale gdzie Mercedes mówi

my zawsze chronimy kierowce a Tesla mówi

my mamy tam podejmujemy decyzję

że młodszy przeżyje

wybierając autopilota pomiędzy jednym a drugim

ty podejmujesz tą decyzję

no bo to rodzi fundamentalne

pytanie kto jest odpowiedzialny

za decyzję

tak i wyobraź sobie czy ja to

nawet mam tutaj zapisane

kto jest odpowiedzialny za działanie sztucznej inteligencji

użytkownik

programista czy firma

to nie jest

pytanie które moim zdaniem można zamknąć

bo jeżeli ty jako użytkownik

masz wpływ na to że wybierasz

sobie tam cokolwiek

no to wpływ aż na to co się dzieje

ale dla mnie spółwinnym jest firma

ja mam też taki przykład

który jest związany

z moją wizytą kiedyś

takiej konferencji w Lipsku

która

to się nazywa

bo dajże ten klik graficzny robot

narkotyki wyobraź sobie

że mówisz robot narkotyki o tej konferencji

czy mamy teraz mieć wyświetlony robot

narkotyki

wyobraźcie sobie

że napisaną programowanie

które randomowo kupowało

w darknecie różne rzeczy

wybierało stronę

kupowało itd.

kupiło broń, podrabianą torebkę

jakieś tam narkotyki inne takie rzeczy itd

itd. to wszystko przychodziło

i było zamykane w galerii

super przykład lepiej do tego będziecie mieli

no i w pewnym momencie przyszła tam policja

i powiedziała

zamykamy kogo

zamykamy kogo

zamykamy komputer

który to zamawiał sam

bez niczej ingerencji

zamykamy programistę

zamykamy właściciela tego dobytku

programistanie napisał kup na narkotyki

tylko na programistę napisał kupuje

randomowo co chcesz

i właśnie na tym polega ta kwintesencja tego

bo nie jesteś w stanie tam zakuć komputera

zakuć tego programisty

bo nie taka była intencja

intencja była pokazana do tego że

bardzo daleko jesteśmy jeżeli chodzi o odpowiedzialność

od tego żeby określić kto jest za to odpowiedzialny

bo dla mnie droga do odpowiedzialności

to najpierw jest

explainable AI

żeby powiedzieć dlaczego coś zrobiłeś

żeby nie jej nałożyć odpowiedzialność

za podjętą decyzję

bo musimy wiedzieć co jest pośrodku

ta historia zresztą skończyło się tak że

policja stwierdziła

no dobra no nie

nie za to rakoferencji zańkniemy

nie nie nie na szczęście nie

super historia natomiast nie zamknęli nikogo

no stwierdzili no tak

jest prezydentem

ale nie ma kogo pociągnąć do odpowiedzialności

więc wydaje mi się bo

to zaczyna być coraz większy problem socjologiczny

kogo pociągniemy do odpowiedzialności

to zaczyna być coraz większe wyzwanie

czysto ustrojowe

bo nasze ustroje cywilizacji zachodniej

oparte są

o pewne rozwiązania prawne

a te rozwiązania prawne one oczywiście

różnią się

pomiędzy krajami

począwszy takich detali

nie wiem jak prędkość jaką mogę jechać

na autostradzie przez rzeczy bardzo skomplikowane

jak wybieram sędziów do trybu nauk

konstytucyjnego są różne rozwiązane

ale ten kręgosłup

jest taki sam

jest konkretna osoba

albo instytucja

która podejmuje decyzje

zgodnie z jakimiś

wytycznymi kryteriami

i czy ta osoba

czy ta instytucja jeżeli coś jest nie tak

jest winna osoba

która jest poszkodowana ma prawo

oczekiwać zadość uczynienia

albo odszkodowania

nie wiem naleczenie w skrajnych

wypadkach na operację

i na tym jest ustawiony

cały nasz porządek prawny

i nagle technologia

taka jak chociażby autonomiczne

urządzenia ucieka

pokazuje, że to łatwo wywrócić

no tak, bo

ja myślę, że taki strach pierwotu

który tutaj się pojawia to jest

strachopodejmowanie decyzji

no bo zobacz, że mamy jakby tą funkcję

która ci doradza, na zasadzie

jestem lekarzem

który jak rozmawialiśmy o medycynie

i ta informacja z algorytmu, że tam jest

jakaś zmiana należy operować

i teraz on ma jakąś tam

podpowiedź, która mówi

no hej zachowaj się tak, ale podejmuje

ostateczną decyzję

to pewnie wpływa na tą osobę

która tą decyzję podejmuje

zlekarz podejmuje decyzję

no i ta decyzja jest dobra albo zła

jest gdzieś tam oceniana, wiadomo

dajemy sobie prawo do błędu

i teraz moim zdaniem mamy coraz większy

jako ludzie strach przed tą decyzją

to mamy tą władzę nad decyzyjnością

i to też będzie część jak by EIA

którzy zawsze tam musi być człowiek w pętli

to znaczy człowiek przy podejmowaniu

takiej decyzji, natomiast ja mam taką obawę

że ludzie będą się mniej zastanawiać

jak ja ci podpowiem hej tam 99%

tam jest coś do wycięcia

to pewnie ludzie będą w to popadać

więc to jest jeden ze strachów

no wiesz, no też po to to robimy

żeby mniej czasu spędzać na analizie

bo gdyby się miało okazać

że i tak muszę spędzić jako lekarz

jako sędzia albo jak ktokolwiek inny

tyle samo czasu to w zasadzie to narzędzie

po nic mi nie jest potrzebne

nie, absolutnie, tu się zgadza

natomiast zobacz, że teraz mamy

poszerzenie kontekstu

maszyny są w stanie już w tej chwili

przetworzyć o wiele więcej informacje niż my

no bo nie śpią, nie męczą się

są ładnie, łatwo skalowalne

to jest pewne uproszczenie, ale tak ogólnie jest

więc idziemy w kierunku

że decyzje, które będą podejmowane

przez EIA

będą lepsze od naszych decyzji

czy to nie budzi twojego strachu

jakby

no wiesz, to jest trochę tak

pytanie, jak staram się teraz

tak troszkę zagrać adwokata diabła

bo zwykle ty grasz

jeżeli wybudujemy

urządzenie, które wspiera lekarza

ale takie nie inteligentne

tylko jakie nie chce być analogowe

bo może być cyfrowe

ale na przykład bardzo zaawansowany USB

i ono ci dostarcza

informacji

dzięki temu ty jesteś lepszym lekarzem

tak

czy to jesteś

lepszym lekarzem, czy to urządzenie

układ

to jest zawsze kwestia

tego, że

ty jako człowiek masz jakieś wsparcie

ale

jeżeli stwierdzimy, że ten człowiek

w tym jest tylko jakim kwiatuszkiem

przy korzuchu

bo w gruncie rzeczy

co stworzyliśmy jest tak kompleksowe

że ono nie tylko

poda dane

też jest interpretuje

i też podpowie co z nimi dalej zrobić

to

ten tradycyjny

układ, w którym człowiek współpracuje z narzędziem

przestaje działać

nagle się to

nagle te proporcje

to się po prostu burzy, to się wszystko przewraca

i ja się zupełnie nie dziwię

temu, że to budzi kontrowersje

czasami lęk

moje pytanie nie jest o to dlaczego jest te lęki

te kontrowersje

tylko moje pytanie dzisiejszego cego odcinka

myślę, że nie znajdziemy na nie odpowiedzi

to jest co zrobić

żeby te decyzje

były jakkolwiek to zdefiniujemy

słuszne

ja mam problem

tak po inżyniersku powiedzieć

co jest słuszne

bo sam jestem

daleki od stwierdzenia

wszystkie moje decyzje w życiu są słuszne

natomiast patrząc na to

inżyniersko, ja patrzę sobie na ten proces

zbierania danych, wytwarzania

mierzenia jak to chodzi

i może to trochę optymistycznie

i naivnie, ale wierzę, że my jako ludzko

jesteśmy w stanie ten proces poprawiać

i być less wrong

czyli trochę być mniej

niepoprawni w tym wszystkim, co robimy

bo wyobrażam sobie cały czas

że gdzieś tam wnuki, prawnuki

przyjdą, powiedzmy, ale byliście byli wariatami

że jeździliście tymi samochodami

przecież a ja i robi to lepiej

tyle było, taki był dużo procent

nie wiem

być może słucha nas

pilot

i być może się dziwi

jak to w ogóle było możliwe

że kiedyś

z dwustoma osobami z tyłu

startowało się

i lądowało się bez

tak dużego wsparcia

algorytmów

pytanie, czy na skutek sugestii

sztucznej inteligencji

która nie wzięła pod uwagę wszystkich zmiennych

podejmujemy złą decyzję

na przykład co do inwestycji

która ma perspektywę, ale na skutek na przykład

czy co finansowego nie udała się

czy mamy prawo domagać

jakiejś rekompensacji odszkodowania

no to jest trochę to o czym

ty mówisz wcześniej

jeżeli wiemy

jaka jest ścieżka decyzyjna

i co wpłynęło na decyzję

czy nie inwestuj

jeżeli mamy w to wgląd im na sprawa

czy chcemy tam zaglądać

czy to zrozumiemy?

ale jeżeli mamy w to wgląd

no to możemy zauważyć, że no sorry

ale nie wszystkie dane tu zostaje wzięte pod uwagę

absolutnie

więc jesteś sam sobie winię, że w to uwierzyłeś

ale to musisz nać przepis na ciasto

czyli wyobrażam sobie, że jak będą nalepki

takie na opony, które będą mówiły

hej te opony składają się z tego

to jak będą takie opisy

które mówią, ten model składa się z tego

bierze to pod uwagę i tak dalej

to mówisz, no ale ludzie oglądają

YouTube w zależności od temperatury

jak jest ciepło na zewnątrz, to wyświetlenia maleją

ja to wiem, ja nie muszę tam mieć jakiegoś modelu

i od nagle okazuje się, że ten model

jest ślepy na taką zmienną

i ty to wiesz

swoją wiedzą eksperską i to może dotyczyć akcji

inwestycji, czegokolwiek

nie wierzę, że kiedykolwiek dostaniesz odszkodowanie

tak zupełnie szczerze

od kogo?

od tej firmy

to oni tam pewnie umywają ręce

na 15 polach

więc to będzie bardzo trudne

natomiast myślę, że

pierwsza firma, która wprowadzi

odpowiedzialność za swój produkt

to będzie przełom, która

powie, że ja

jeżeli cokolwiek tutaj będzie

nie tak, to

biorę to na klatę i to moim zdaniem będzie

budowało zaufanie

w ogóle

technologii do tej firmy

czyli skorzystają wszyscy?

skorzystają wszyscy i myślę, że

jakby budujemy po tych schodkach zaufania

nie, że budujemy sobie ten explainable AI

mówimy hey z czego to się składa

jak ten model wygląda

jakie dane były wrzucone

a potem jeszcze ktoś pójdzie to dalej

wyobrażam sobie, że to jest szansa dla ubezpieczcieli

ale że ktoś powie dobra

to jak coś to ja tutaj zwracam pieniądze

albo biorę tam jakieś odpowiedzialność

do jakiejś tam kwoty

nie wiem moment, kiedy będziemy to coraz bardziej oswajać

ale jesteśmy w tak

turbulentnym momencie

przy tak wielu przemianach

że to jeszcze chwilę zajmie

zanim te rzeczy staną się naszą rzeczywistością

bo jak ja patrzę teraz na

dziesiątki aplikacji, które dziennie powstaje AI

niektóre z nich to są wydmuszki

w sensie niektóre są absolutnie

żeby naciągnąć ludzi i to jest trochę straszne

bo znowu się robi taka wiesz bańka

spekulacyjna z tego wszystkiego

i korzystają też ludzie nieetyczni

w takim przypadku już

zastosowanie to się nazywa Worm GPT

i to jest taki model, który jest sprzedawany

w Darknecie do tego, żeby

atakować innych, tam nie ma ograniczeń etycznych

tak, mieliśmy centralizację władzy wiesz tam

OpenAI i oni starają się

żeby tutaj nie żartować z takiej czy innej grupy etnicznej

to powstają już modele

OpenSource

czy właśnie takie, które Europol w raporcie z Marsa

nazwał Dark LLMs

które służą wprost do tego

żeby innych ludzi nabierać

i ten proces będzie następował

tylko ma narzędzie

musimy do niego dostosować

tego pluralizmu

tak samo jak do zmiennych

jakichkolwiek innych warunków

tylko to będzie trudne dla części społeczeństwa

i kolejną rzeczą

którą mam tutaj zanotowaną

to jest kwestia wojska

i autonomiczna

broń, która może być

zagrożeniem dla uskości

i pozwól, że zanim rozwiniemy

tylko ten temat

bo sam pewnością go nie wyczerpiemy

to o konkretnym przypadku

o którym było bardzo głośno

kilka tygodni temu

mam na myśli drona, który zaczął

atakować swojego własnego operatora

to powiedz całość

dla tych z was, którzy

może o tym nie słyszę ja

może zapomnieli, sytuacja była mniej więcej taka

że Armię Stanów Zjednoczonych

przeprowadziła ćwiczenia

w trakcie których miał być testowany

w którego pętli człowiek był tylko na wypadek

gdyby

coś się nie powiodło, żeby wyłączyć

nazwijmy to

sztuczną inteligencję

dron miał

konkretne zadanie

zabić za wszelką cenę

zniszczyć

system przeciwlotniczy

czy system obrony wroga

za wszelką cenę

i to za wszelką cenę jest tutaj kluczowe

ponieważ teraz pozwólcie

to tak nieco z płyce

Mateusz wyprostuje

jak się zorientował

że jest jakaś pętla

w której ktoś może go wyłączyć

to uznał, że ten ktoś może być

przeszkodą w zniszczeniu

celu za wszelką cenę

więc uznał, że najsensownie

z najpierw pozbyć się operatora

to wtedy już z całą pewnością

nikt nie przeszkodzi mu

za wszelką cenę

i to zrobił

oczywiście to jest symulacja

czy nie zabił człowieka, ale to zrobił

więc postanowiono

zrobić ćwiczenie nr 2

i przed ćwiczeniem nr 2

zapisano z palca

nie możesz zabić swojego człowieka

więc to zrobił dron

po prostu ostrzelał

wierzę

komunikacyjną

człowieka nie zabił, ale odciął się

od tego człowieka i operatora

bo skoro za wszelką cenę

to oczywiście trzeba pozbyć wszystkich przeszkód

dokładnie i co ty na to?

ja uważam, że to jest ten moment

który powinien budzić taką terminatorową

lampkę zapalną, że hej

a więc to jest jeszcze najlepsze

bo nie przeczytałeś

bo o tym przypadku

to w ogóle to nie było tak, że to gdzieś wypełsło

to jakiś

pułkownik, jakiś ktoś ważny

na jakieś konferencje o tym opowiedział

i się zrobiło głośno

całe światło tym zaczął mówić

zdementowała

a nic nie jest bardziej pewne od tego

zdementuje

zdementowała, że taka sytuacja nie miała

miejsca i najbardziej mi się podobało

takie stwierdzenie, gdyż

każdy z nas wie gdzie są ryzyka

i co zrobić

żeby do takiej sytuacji nie doszło

więc w zasadzie

dementy, które potwierdzało, że rzeczywiście

taki przypadek musiał mieć miejsce

bo gdyby nie miał miejsca to nie wiedzielibyśmy

że w ogóle coś takiego jest możliwe

ja mam taką myśl, która jest związana z tym, że

jednak

mój horyzont

postrzegania i taka kreatywność tego

jak można powstrzymać tego operatora

czego zabijesz, czy wyłączysz te

anteny, czy zrobisz cokolwiek

innego, co wpłynie na to, że nie będzie

w stanie się powstrzymać

więc jeszcze często kliwość, nie wiem, falę, które odbierasz

i on będzie na innym brawo, na przykład

więc ja sobie wyobrażam, że

bardzo ograniczone jest myślenie

takim myśleniem regułowym

że dobra, ale nie możesz zrobić tego

ale nie możesz zrobić tego, zawsze

znajdzie się droga dookoła

więc to jest ta niesamowita

trudność w programowaniu czegokolwiek

co ma znajdować same

rozwiązania, że nie możesz

tego tak bardzo ostro

określić, bo zawsze się znajdzie droga dookoła

bo właśnie po to, żeśmy to tworzyli

żeby to było

żeby nie musieć

korzystać z tych języków imperatywnych

gdzie linijka po linice

coś opisuje

tak, po czym znajdujemy

tak, po czym znajdujemy sposób

żeby jednak korzystać z tym, żeby ją ograniczyć

to nie zadziała

i teraz to znowu

odwrócił tą wizję

to teraz jak ograniczyć taką inteligencję

która ma być inteligentna na nasz zór

no to było moje pytanie do Ciebie

a Ty teraz pytajesz

nie, bo ja odwracam jakby

co byśmy chcieli zrobić, żeby

nie było tego w przestrzeni rozwiązań

znowu wracając do tego procesu

usuńmy to z danych

źródłowych, no bo jak nie będzie

widział innych rozwiązań to co

usuńmy to na różnych tam warstwach

tego wytwarzania, albo zastosujmy

model, który jest

powiedzmy w uproszczeniu mniej ciepły, mniej

kreatywny, żeby nie szukał

jakichś dziwnych rozwiązań

to wszystko będzie miało znaczenie

tylko ten proces jest tak skomplikowany

że na chwilę obecną

jako ludzkość nie uważam, że jesteśmy jeszcze

z nimi mistrzami w wytwarzaniu

wytwarzamy rzeczy, które

robią wielkie wrażenie, dlatego o tym

rozmawiamy, ale to nie jest tak, że

jeszcze jako ludzkość wszyscy rozumiemy

co tam się dzieje i że ten proces jest

ustabilizowany, bo tych metod, modeli

tych zmiennych w tym całym procesie jest

mnóstwo, a na wszystko to wpływają

ludzie, którzy mają różną etykę

i zawsze tak będzie, że będzie różny

no dobra, czy twoim zdaniem, bo to była symulacja

czy twoim zdaniem jesteśmy

na takim etapie

na którym taka sytuacja mogłaby

rzeczywiście mieć miejsce

ja myślałem, że mówisz też o drugim tym przykładzie

gdzie tam F-16 było automatycznie

pilotowane bez człowieka

no bo przeciążeń nie ma itd.

Moim zdaniem absolutnie

od czasu kiedy Snowden opublikował, że

tą listę, którą mówiła w zależności od tego

jaki jest cel, że możesz tam zabić

10-500 cywilii, jak jest ważniejszy cel

to wyobrażam sobie, że

zaprogramowanie czegoś takiego

no dobra, no ta no w zginie 10 cywilii

to niestety

będzie pewnie częścią reguł, no bo

zastosowania militarne

i to trochę jest przerażające, są poza

w ogóle uregulowaniami

nie wiem, w sensie tam AIAK

tego nie będzie dotyczył i inne

zawsze były, to nie dotyczy jakby czasu

w które wchodzimy, tylko zawsze były

i ja mam taką, to jest

bardzo subiektywne

ale mam taką myśl

że to jest chyba jeden z tych przypadków

historii, gdzie

merycyjny wszechświat, w którym żyjemy

bardzo szybko pędzi

mnóstwo pieniędzy jest na to wydawane

jakby firmy, które tworzą

nowe rozwiązanie, tam się pompuje mnóstwo pieniędzy

i nie jestem przekonany

na chwilę obecną, tak jak zawsze

się mówiło, że hej to co jest w armii

to parę lat jest do przodu w stosunku

do całego wszechświata, a teraz wydaje mi się

że to nie do końca tak jest

patrząc na niektóre wyniki, które

wyciekają czy gdzieś tam wychodzą

bo na pewno tam są też bardzo

zaawansowane badania, o których

nigdy się nie dowiemy albo za parę dziesięt lat

ale wydaje mi się, że teraz skupienie całego świata

na AI, na ta masa

powoduje, że te procesy bardzo

szybko w tej sferze komercyjnej

ewoluują i są na bardzo dużej

zbróbce danych, a im większa ta

próbka danych w stosunku do tych danych

jakichś tam militarnych

to jest, wiesz, feeling of guts, to jest instynkt

wydaje mi się, że jesteśmy w ciekawym momencie

że być może te technologie

militarne nie są tak dobrze

pracowane co

działania w takim zakresie

To pytanie, które się teraz pojawiło

moim zdaniem dobrze tu pasuje

Jakie jest ryzyko, że mode stworzone przez człowieka

ogarze się niemożliwe do ograniczenia

ze względu na umiejętności

samoprogramowania i ściągania takich ograniczeń

I can do that Dave

Tak, tak jakby

Wyobrażam sobie, że

będą pewne metody

żeby obchodzić takie kawałki

Wiesz, rozmawialiśmy kiedyś o prawach

nie można skrzywdzić człowieka

nie można zrobić czegoś złego

złego będziemy definiować

i tak dalej to jest bardzo trudne

przez niedoskonałość naszego języka

żeby to zaprogramować

i moim zdaniem

to jest w ogóle

cała dziedzina badań

co do tego jak spróbować ograniczyć

tą przestrzeń tak żeby kogoś nie skrzywdzić

i

ja się skupiłem

przygotowując się na dzisiaj nad takim jednym

kawałkiem

i ten kawałek ładnie się nazywa

to jest o takim zjawisku

który jest obecny w naszym języku

obrazek to jest bias językowy

PNG

Wyobraźcie sobie, że tak jak mówimy o różnych zawodach

co zwyczaj mówimy pielęgniarka

żołnierz

to w zależności od tego

czy będziemy mieli tryb męski czy tryb rzeński

to modele

uczenia maszynowego będą to inaczej

rozumiały i inaczej interpretowały

to co widzicie na ekranie

to jest taki rozkład

który na początku powoduje

że niektóre rzeczy są

są inaczej rozumiane przez modele

uczenia maszynowego

a potem jak się to zdabajasuje

czyli jakby usunie się

tą korelację zupełnie inaczej to wychodzi

i teraz

po tym skomplikowanym przykładzie

co ja tak naprawdę z polskiego no nasz mam na myśli

mam na myśli

że choćby płeć

jak się wyrażamy

jest wpływa na to jak interpretuje

sztuczna inteligencja

jak interpretują niektóre wrażenie

czyli jeżeli już nasz język jest

dyskryminujący

wpływający na rozumienie tych rzeczy

to jest dla mnie

to nie jest efekt motyla ale to już pokazuje

jak wiele rzeczy po drodze musimy

wziąć pod uwagę

i ja nie wierzę

że choćby właśnie w tym przypadku

my jesteśmy w stanie

wyraźnić bo już sam język jest nieidealny

w tym wszystkim

i potem po tych

embeddingach nie wiem jak to po tych splątaniach

ładnie mówiąc po polsku czyli po przetworzeniu tego

i potem zwracaniu atencji

przez te modele sztucznej inteligencji

zwraca się uwagę na coś innego

w zależności od płci

a nie chciałbyś mieć różnych w zależności od tego

czy powiem Ciebie Tomku czy Tomko

nie wiem jak to tam

mieć różnych wyników

różnych wyników działań

to dla mnie to jest niesamowite

i niesamowicie trudne do ogarnięcia

no bo

jeżeli nie ogarniemy takich prostych rzeczy

jak transformacja naszego języka

który wiemy że jest nieidealny

to nie wyrazimy się w taki sposób który nie pozostawi luki

tak

a czy masz coś

masz coś pozytywnego

do opowiedzenia na koniec

to może na takie pytanie jeszcze to pierwsze

który już jakiś czas z nami jest

czy jesteśmy w stanie

który byłby inteligentniejszy od ludzi

włącza mi się świadełko

czy będzie

czy jest co to znaczy inteligencja

a zostawmy to

od ludzi tak sformułować cel

aby postępował zawsze

według tego

jak sobie to wyobrażamy

zawsze według tego jak to sobie wyobrażamy

wyobrażam sobie

nie pamiętam który to ze sławnych prezesów

firm opowiedział

jak zatrudniał swojego asystenta

to powiedział że on z nim był przez cały rok

po domu na wakacjach w pracy i tak dalej

żeby zrozumiał tok myślenia

jak się zachowujesz, jak te reagujesz

na jakie bodźce

więc teraz wyobrażam sobie że i gdybyś miał

dostęp do wszystkiego tego co na ciebie wpływa

powiedzmy że przez smartfona już masz 50% bodźców

i to jak reagujesz

powiedzmy że przez smartfona nie masz 50% bodźców

to jesteś w stanie zrobić taki

obraz Tom Karoszka

który tam jest jakimś modelem

nie by reagował w iluś procentach tak jak ty

czyli zamykasz się

w takiej sztucznej inteligencji

i takie usługi już w tej chwili są

dla zmarłych

gdzie bierzesz ich

skrzynkę melowościowe

i będzie w takim samym stylu do ciebie pisał

i Black Mirror

staje się rzeczywistością

natomiast ja sobie wyobrażam

że

najgorsze co można zrobić to sformułować

cel eksplisji te

bardzo nieostry, będzie trudny

będzie inaczej rozumiany w zależności od osoby

a bardziej

bym patrzył na to z perspektywy

wejścia i wyjścia

czyli hej dostałeś taki bodziec, zaproponowałem ci

wyjście na kawę

a ty mówisz nie

no i wolić rosną

kluski śląskie

i w ten sposób jakby ucząc się

akcji i reakcji

wyobrażam sobie że to będzie lepsza metoda

bo nie siedzę

to mam więcej informacji

a jeżeli dodasz jeszcze do tego

że mówisz nie wolę rosną

albo źle się czuję, jeszcze masz emocje i tak dalej

im lepiej to on

censurujemy

piękne słowo

tym więcej jesteśmy w stanie dostarczyć danych

tym więcej kontekstu to się dostarcza

bo jak tym i to powiemy

tym panujemy

bo większy danych nie powoduje

że bardziej rozumiemy rzeczy

tylko powoduje że jest jeszcze większy

tłok

najłatwiej jest zrozumieć ten przykład o którym ty powiedziałeś

jeżeli jest o piątej rano

powyżej 20 stopni to ubierz krótkie spodenki

tutaj jakie są dane

no jest zegarek

jest temperatura

jeżeli jedno drugie to i krótkie spodenki

które nie są daną tylko w zasadzie wynikiem

jakiegoś tego

natomiast jeżeli teraz mówisz

o censurujmy się

to ty mi nie uspokajasz

no nie, nie

tylko

i jeszcze więcej danych

i jeszcze bardziej zaufaj modelowi

bo coraz mniej z niego możesz zrozumieć

bo jest za dużo danych

to jest jakby i piękno i klątwa big data

bo z jednej strony

ja na przykład gdzieś tam zbierając informacje

o swoim serduchu

jak zaczął się covid, trudny temat

to oni robili

akurat ta firma od tego

który nie zamierzam reklamować ale robili

chodzi o twoją obrączkę

tak, to nie obrączka

to się nazywa

to jest taka firma która produkuje takie sensory

właśnie które tak wyglądają

oni zrobili badania z University of Southern California

na której sprawdzili

bo tu jest też pomiar temperatury

że na podstawie wahań tej temperatury

są w stanie chyba 20 godzin wcześniej

przewidzieć czy ty masz covid

super badanie, super informacja

ty tego sam nie czujesz

nikt nie wiedział jak to zrobić

masz jakiś tam kanał poboczny

a jeśli masz zachania temperatury

które się pojawia, masz wiedzę

masz wnioski o tym

my nie jesteśmy w stanie tak łatwo powiązać

wszystkich danych wejściałych z wnioskami

a jak ja w ogóle nie jest do tego

oczywiście, tak

jak widzę, że ty tam mówiąc o rosolę

że ci tam macha uchono

no dobra, może być choral, ja tego nie zauważę jako człowiek

a może na poziomie podświadomym

gdzieś tam przeprocesuje

i tutaj to był odcinek

to był odcinek o medycynie

to był odcinek o randomymi

czasami zewnątrz

czysto randomowymi

nagle z tego można wyciągać wnioski

a w trakcie tego odcinka podawałem

taki przykład, aplikacji

czy badania, które na podstawie pisma

ręcznego było w stanie

z ogromnym prawdopodobieństwem

bardzo długo przed

pojawiają się pierwszych symptomów

czyli nie pamiętam czy chodziło o chorobę

Alzheimera czy Parkinsona

w każdym razie to rozpoznać

w tym stanie

to nie wiadomo skąd

w tym sensie wiadomo skąd, że tak

z pisma ręcznego, a nie wiadomo czy

analizowało jakieś lekkie

zakrzywienie literki Y czy może

w sposób jaki kropkę stawiamy

przecinek czy może jakieś błędy popełniamy

ok, super

że coś ci mierzy i ci mówi

będziesz miał, będziesz na to chorę

albo ta tamto, bo to

rozwiązuje wiele różnych problemów

potencjalnie

jest to minusem niestety jest to

że

nie do końca mam pewność czy te dane są

tylko moje

i czy nie mogą być wykorzystane w inny sposób

bo jesteś generowany, jesteś podatny

czy za chwilkę firma ubezpieczeniowa

ich nie pozyska

i nie powie ci pana nie ubezpieczymy

albo panu nie damy odszkodowania

jak się panu coś stanie, albo panu zwiększymy

składkę

a dlaczego, i to wychodzi pytanie

bo tu padły jeszcze takie pytanie do jakiego stopnia powinniśmy

ja bym powiedział, że musimy się nauczyć

nie ufać i zadawać pytania

no bo jak ci powie

ubezpieczeń podnoszę składkę

to powinniśmy mieć prawo powiedzieć

dlaczego i powinniśmy

widzieć, że hej, bo jesteś w grupie

podwyższonego ryzyka, bo miałeś wypadków

bo coś tam, bo coś tam, bo coś tam

i to też powinno ujawniać

na przykład takie sytuacje w których

to ubezpieczyciel miałby jakieś dane

lewe, ja to nazywam

czyli co innego jak masz dane takie

populacje, statystyczne

i gdzieś tam w tej populacji się znajdujesz

a co innego, że uzyskają informacje o tym, że

byłeś u lekarza

i masz tam potencjalny ryzyko zawału

no przecież to hej, nie powinniście

się takich rzeczy w ogóle wiedzieć

albo brać pod uwagę

Ostatnio

teraz się zastanawiam, czy tu nie zdradzę

jakieś tajemnice, chyba nie

przez to, że

zmieniałem polisę ubezpieczeniową

Bezpieczyciel poprosił mnie

do dość dokładne badania

krwi

Zrobiłem te badania krwi

Chciałem je odebrać, usłyszałem, że nie mam prawa

Co ty jadasz?

Usłyszałem, że firma, że przychodnia

która badała mi krew

powiedziała, że oni nie mają prawa

mi tego dać, ponieważ nie ja to badanie

zleciłem

że one idą do firmy ubezpieczeniowej

a nie do mnie

mimo, że to moja krew była

Po czym pani się nachyliła

powiedziała, cichutko

ale mamy taką niepisaną umowę

że jeżeli w tych danych

będzie coś nie w porządku

jakieś markery nowotworowe to tam

to możemy panu nieoficjalnie powiedzieć

że pan jeszcze raz te badania zrobił

już pana, tak że pan będzie płacił

mamy taką umowę

z firmą ubezpieczeniową

Ja wtedy się zacząłem zastanawiać, czy to jest w ogóle

zgodne z prawem

Ok, firma płaci

ale to są moje dane

i to bardzo wrażliwe

i ja nie wiem co się z tymi danymi do końca dzieje

i co więcej

jak to ma wpływ na decyzję, kto jak to zinterpretuje

i tak dalej, przecież to jest w oderwaniu

od historii, tam nie ma twoich poprzednich

nie ma, ale to jest ja i czuję zło

i to jest grube, musisz przyznać

nie no i

czy powiem pewien nazwę tej firmy

to jest bardzo szanowana firma

ale tam wyobrażam sobie

że ktoś miał proces decyzyjny, chciał coś

poprawić, chciał żeby wiesz upewnić się

nie wiem co to za ubezpieczenie jest

może w kosmos lecisz, ale

nie, to jest normalna polisa ubezpieczenia

na życie

to nie jest to, że ja jutro wsiadam

w rakietę

dziwne, nie?

to jest sprawa zupełnie świeża

więc jeszcze jakby nie zdorzyłem tutaj

całego procesu

też zastanowić się co z tym zrobić

ale to jest temat bardzo bardzo ciekawy

nie może kiedyś pogadamy o tym

bo to o prywatności

jasne, może przy okazji tych rozwiązań prawnych

czy odjeżdżasz

tak, ja już mam

ale wiesz co jest

ale dlaczego ja o tym powiedziałem, że tu nie ma AI

nie, nie

o co mi chodzi, o to mi chodzi

że mamy taką tendencję, pojawia się nowa technologia

i nagle widzimy zło

wielu, wielu, wielu wymiarach

po czym nagle się okazuje, że to zło już i tak jest

bez tego AI

że my je przyklejamy do nowej technologii

ale i bez niej, ono już jest

czyli to, że z danymi

nie do końca wiemy co się dzieje

nie wiadomo do końca gdzie one są

nie wiadomo kto ma w nie wgląd

jeżeli nie uważamy

albo zupełnie w innym temacie

martwimy się i słusznie, a też się martwię

na przykład o dzieci

o młodych ludzi

że za bardzo, ale i bez AI

już teraz mają z tym problemy

innymi słowy i to się często pojawia

przyznaję, ja to często mówię

to nie jest nic nowego, to jest tylko bardziej

w tym sensie, że tak naprawdę

większość tych problemów w różnych aspektach

czy o rynku pracy, czy mówimy o medycynie

czy mówiliśmy o innych tam kwestiach

powiedzmy sztuką

sprawami autowskim

że my się z tym budjamy tak czy inaczej

tylko, że to narzędzie

spoduje, że

musimy jeszcze bardziej uważać

i ja bym dokleił do tej wizji

to samo, tylko trochę innymi słowami

że nie boimy się

AI jako młotka, tylko ludzi

którzy ten młotek mogą trzymać

tak to to jest najczęściej

niedawno byłem na dwóch festiwalach

na slot art festiwal

i na Kazimiernikation

pozdrawiam bardzo tych, których tam spotkałem

bo spotkałem kilkanaście osób na jednym

i na drugim, które twierdził, że oglądają

nasz podcast

i nasze live, także dzięki wielkie

zaglądanie pozdrawiam bardzo

pozdrawiamy

bardzo często na tych wykładach

na tych spotkaniach pada pytanie

czy pan się boi AI?

Nie boję się żadnej technologii

boję się bardzo ludzi

którzy albo nie mają

świadomości

albo przeciwnie mają

świetną świadomość

ale korzystając z tego

że reszta nie ma

robią bardzo złe rzeczy

i to dotyczy absolutnie każdej technologii

i żeby zamknąć naszą rozmowę

niedawno, dwa dni temu

byłem na filmie Openheimer

i to jest film

opowiadający historię przez przedwie

ludzie siątków lat, zupełnie innej technologii

i to jest dokładnie to samo

rozszczepienie jądra atomowego

jest czymś niesamowitym

wyciąganie z tego energię

jest czymś niesamowitym, nie boję się tego

boję się ludzi,

którzy siadają i mówią

to zróbmy z tego bombę

Piękna nakpłęta, podoba mi się

czy tak jakoś mi wyszło

czy ty chcesz coś powiedzieć optymistycznego na koniec

bo w wakacje tu już widzę, że tu już się odkręcasz

w ogóle z tego spotkania

ten temat prywatnościowy ja bym go w tam jak dzik

w żołędzie

wiesz co, ja bym powiedział, że

tutaj na co dzień mamy do czynienia

z dużymi ilościami

jakby metod sztucznej inteligencji

choćby w algorytmach

rekomendacyjnych, które już na nas wpływają

na przykład na dzisiaj jeszcze

przygotowałem taką małą grafikę związane

z polaryzacją społeczeństwa

i okazało się, że

na przykład jeżeli chodzi o pracę

możecie pokazać taką graficzkę

która jest fair feed nazwana

jeżeli chodzi o pracę to wyobraźcie sobie, że

reklamy, które pojawiały się w zależności od płci

dla wysokopłatnej pracy

były zupełnie inne

i ten cały trend

to jest kawałek optymistyczny

ten cały trend związany z fairness

z tym, że zaczynamy się uświadamiać

że pojawiają się nowe narzędzia

to będzie możliwa taka polaryzacja

ludzi, bo nie będziemy

wyświetlać różnych reklam ze względu na płeć

czyli świadomość tego co się dzieje w profilowaniu

ile jednym oferujemy

wyżej płatną pracę, drugi mnie

ja mam nadzieję, że to będzie miało swoje pozytywne efekty

bardzo ci dziękuję

bo nie chciałbym bardzo, żeby

się to skończyło, tak wiesz

świat się skończy

i siadajcie na kanapie

i po prostu czekajcie

dobra, czy my oczywiście powinniśmy jeszcze powiedzieć

na koniec, oprócz tego, że bardzo Wam dziękujemy

za oglądanie

i za Wasze pytania

było ich dużo, część zadaliśmy

wielu, nie zdążyliśmy

ale też mam wrażenie, że na wiele odpowiedzieliśmy

w trakcie naszej normalnej rozmowy

przypomnę tylko, że partnerem

odcinka był Future Processing

podziękuję też bardzo

szczerze i serdecznie Uniwersytetowi

Śląskiemu, Tobie bardzo dziękuję

i już zaproszę to urlopem

czy po urlopie? Jeszcze chwila

i chwila odcięcia i odpoczynku

Super, ja jutro jadę

Tyle, coś jeszcze?

Bardzo dziękujemy, ja myślę, że

zobaczymy się, miejmy nadzieję w najbliższym miesiącu

zobaczymy, jaki to będzie temat

A ja wiem, jaki to będzie temat

albo inaczej, wiem

jaki chciałbym, żeby to był temat

chciałbym poznać o edukacji

O edukacji, bo

następny odcinek będzie

pewnie albo końcówka sierpnia

tak września, idealnie się wpasujemy

w temat szkoły i edukacji

więc chciałbym, żeby to się pojawiło

tym bardziej, że to jest tak samo

gorący temat, jak w medycynie

Absolutnie, że bardzo dużo może

się zmienić, powinno się zmienić

czy się zmieni, to jest zupełnie

inna historia, bo może się okazać

że już się zmieni, że

rzeczywiście ktoś pójdzie swoją drogą

a praktyka swoją

zobaczymy, porozmawiamy

jeśli macie jakieś pomysły, jakieś prośby

może tematy, a może osoby

napiszcie koniecznie w komentarzach, my je naprawdę

czytamy, to nie jest tak, że wy

piszecie czy pytania wasze, czy komentarze

a my po prostu przychodzimy obok

czytamy, staramy się śledzić

Dziękujemy bardzo, zerkajcie na nauka

to lubię nie tylko na kanał

YouTube'owy, ale też na inne nasze

media, na stronie naukatolubie.pl

znajdziecie link do sklepu

z tymi rzeczami, naprawdę

wspieracie nas

wszelkie działania, którymi

się przecież dzielimy z wami

tak po prostu je dajemy

edukacyjne

tak, że popularyzacyjne, to nie są

działania, które nic nie kosztują

natomiast

wasze wsparcie właśnie

chociażby w ten sposób bardzo

bardzo nam pomaga

dobrego wieczoru, miłych wakacji

albo miłego trwania, wakacji

do zobaczenia następnym razem

Spokojnego Warlocku

www.warlock.eu

Machine-generated transcript that may contain inaccuracies.

Sztuczna inteligencja niewątpliwie wpływa na szybszy rozwój wielu technologii, ale sposób, w jaki jej używamy, oraz jakie algorytmy i dane są wykorzystywane, mogą mieć znaczący wpływ na kwestie etyczne. Właśnie dlatego na naszym kolejnym spotkaniu LIVE z serii „Rewolucja AI” razem z Mateuszem Chrobokiem rozmawiamy o wyzwaniach etycznych, jakie się wiążą ze sztuczną inteligencją.