Nauka To Lubię: Czy sztuczna inteligencja stanowi dla nas zagrożenie?
Nauka To Lubię 4/27/23 - Episode Page - 1h 55m - PDF Transcript
Nałuka to Lubię i Sztuczna Inteligencja, trzeci live, trzeci kolejny miesiąc.
Mateusz Chrobok, Tomasz Rożek. Dzisiaj o Sztucznej Inteligencji, o zagrożeniach i o bezpieczeństwie.
Bardzo Wam dziękuję za to, że już jesteście z nami. Bardzo proszę, jak tylko będziecie oglądali,
jak tylko będzie Wam się podobało, żebyście udostępniali tego live'a w Waszych mediach społecznościowych,
żeby jak najwięcej mogło osób na niego trafić.
Mateusza, przedstawiać nie muszę. Cześć Mateuszu.
Dajsmy.
Kilka ogłoszeń na wstępie, żeby nie zapomnieć, a później już lecimy z naszym formatem.
Podziękowania oczywiście dla Uniwersytetu Śląskiego. Jesteśmy w studiu Uniwersytetu Śląskiego.
Bardzo Wam dziękujemy Uniwersytecie za współpracę.
Druga rzecz, o której chciałem przypomnieć, to tak. Właśnie o książce, o książce Kosmos,
którą cały czas możecie oglądać, nie tylko oglądasz, ale też możecie się kupić,
o książce Kosmos dla dzieci, o historii pewnej sądy kosmicznej, która podróżuje przez układ słoneczny
i która ma bardzo fajne przygody. Książka jest świetnie ilustrowana, więc Wam ją polecam.
Tym bardziej, że razem z książką jest też zeszyt zabaw, zeszyt gier, dzięki któremu Wasze dzieci,
może dzieci Waszego rodzeństwa, a może dzieci Waszych, np.
sąsiadów, przyjaciół mogą sobie wiedzę o układzie słonecznym bardziej ugruntować i poszerzyć.
I trzecia sprawa, to nasz gość dzisiejszy Krzemysław.
Tak, bo to jest imię tego, jego mościa, który w czasie poprzedniego lajwa z nami był.
I w czasie dzisiejszego też będzie. Krzemysław to imię, które powstało z pewnego konkursu,
konkursu, który został ogłoszony w czasie ostatniego lajwa.
Jak się domyśla, okej, dobra, nie chcę spalać, znaczy spalać, to chyba jest tak na tyle logiczne,
czy to trzeba wyjaśnić? Znaczy onem Krzemysław?
Skąd on się wziął, tak?
Ten Krzemysław od Krzemu i od Przemysława.
Krzemysław będzie z nami dzisiaj, ile dobrze patrzę w scenariusz, cztery razy.
Czy coś jeszcze mamy do dodania?
I się wydawało, że pięć, ale to się wszystko okaże.
Czy sztucz ta inteligencja przejmie kontrolę nad tym live'em?
To właśnie, Mateuszu, zanim sztuczna inteligencja przejmie kontrolę.
Czy to krzesło jednak zjeżdża?
Nie, dajemy radę.
Okej, bo to dla Waszej informacji Mateuszowi po prostu krzesło zjeżdża
i z automatu obniża poziom i doskłani, że się w ogóle jeszcze zaczęli.
Ten poziom już jest obniżony, obniżany takie życie, a może to jest właśnie jakieś takie
Freudowskie związane ze sztuczną inteligencją, może bezpieczeństwo albo niebezpieczeństwo tej
technologii także polega na tym, że nasz poziom intelektualny będzie z czasem coraz
niższy i może to krzesło nam daje po prostu znać o tym także.
To jest nie przypadek, słuchaj, biorąc pod uwagę, że coraz więcej rzeczy będzie za nas rozwiązywało
ja myślę, że ten mięsień, którym jest mózg, że tak zażartuję, jeżeli będzie mniej wykorzystywany,
pewnie będzie coraz słabszy.
Tak, takie mamy, to jest taka śmiała teza na początek.
Okej, dobra, jeszcze o tych śmiałych tezach porozmawiamy więcej.
Pomyślałem, że na samym początku zrobimy coś, co robiliśmy poprzednio i chyba jeszcze poprzednio.
Czyli w wielkim, wielkim skrócie, co się stało w ciągu ostatniego miesiąca albo trzech tygodni,
bo to ostatniego live'a mieliśmy chyba trzy tygodnie temu, a nie pełny miesiąc.
W tej dziedzinie bardzo szerokiej, bardzo szybko, może nie tyle szybko rozwijającej się,
ale szybko coraz szybciej uświadamianej, szerszemu odbiorcy.
No bo to przecież nie jest tak, że sztuczna inteligencja zaczęła hulać chyba 30 listopada,
kiedy Chad GPT został pokazany szeroko, tylko że to jest wynik,
przynajmniej kilkudziesięciu lat ciężkiej pracy, wielu, wielu zespołów,
to przyspieszenie w pewnym sensie jest trochę pozorne, o tym, że się mówili kilka razy,
ale może warto o tym powiedzieć ostatnie trzy tygodnie.
Czy ja mogę zacząć od pewnego listu?
Możesz, możesz zacząć od listu.
Ja wiem, ja wiem, co co o nim myślisz.
I o nim też zrobię najbliższy materiał, wideo na nauka to lubię,
ale chodzi o list, który napisało, o ile dobrze pamiętam, 1300 osób podpisało,
1300 osób wśród nich, było oczywiście ile mask, jak coś podpisuje ile mask,
to i z tych woźniak, a szczególnie jak i jeden i drugi to samo podpisze,
to z całą pewnością świat o tym będzie mówił.
I mówi, a w tym liście jest informacja albo jest prośba, jest sugestia,
wstrzymajmy się z rozwojem tej technologii, przynajmniej na jakiś czas,
zanim nie uzgodnimy prawa, zanim nie uzgodnimy pewnych standardów, pewnych ram,
zanim nie nauczymy się z tym funkcjonować, bo jesteśmy w miejscu,
w którym działamy bez jakichkolwiek procedur, bez ram, bez przepisów.
Taka była teza tego listu.
Przyznaję, że dla mnie osobiście rangę tego listu obniża to,
że podpisało się pod nim mnóstwo osób, które same to wszystko tworzyły,
między innymi, które nie dość, że na tym zrobiły grube pieniądze,
to na dodatek same to rozwijały.
Zacząłem od Ilona maska, Ilon mask przecież był współzałożycielem OpenAI,
później co prawda sprzedał, może mu teraz przykro i dlatego to pisze,
może nie, ale przecież on też i to od razu sprawdziłem,
że w wielu miejscach jego firmy poszukują inżynierów AI,
przyznaję też, że trafia do mnie trochę argument tych,
którzy mówią, jest dokładnie na odwrót.
To znaczy to, że to podpisują specjaliści z tej dziedziny,
to właśnie świadczy o tym, że jesteśmy naprawdę na skraju przepaści.
I tam pada hasło i już kończę moją przemowę przed gawą.
Tam pada hasło, że sztuczna inteligencja może zagrozić ludzkości.
Tak, i to jest temat na dziś.
I to jest temat na dziś, także dlatego, żeśmy się tym tematem postanowili
zająć pierwsze pytanie Mateuszu, co z tym listem?
Ja myślę, że przede wszystkim tak, jest to takie zagrożenie,
które jest związane z tym, że my możemy być gatunkiem,
które jest po drodze do czegoś, co nas przewyższa.
I jak popatrzysz sobie na to, w jaki sposób my jako ludzie budujemy
to, z czym karmimy nasze mózgi, czyli wiedzę, doświadczenia, inne rzeczy,
to nie mamy szans z metodami sztucznej inteligencji,
bo one są w stanie pójść bardzo szeroko i wyciągnąć o wiele więcej.
I teraz w związku z tym jest strach przed utratą kontroli,
że tym, że tego typu narzędzia będą w stanie panować nad nami, tak?
Czyli że my będziemy jakimś tam łańcuchem w tym ogniwie ewolucji
i nie wiemy jak to się skończy.
I ten strach jest podcycany przez to, że właściwie mamy tylko jedną szansę,
żeby zrobić to dobrze.
Bo jak zaczniemy i teraz pomylimy się i wyrwie się to, że tak powiem,
spod kontroli, to nie do końca wiemy jak to zatrzymać.
Bo problem polega na tym, że tworząc to, rozumiemy mniej więcej
zasadę działania, ale to, co dokładnie jest w środku
i dlaczego tak, a nie inne odpowiedzi dostajemy w przypadku LLM-ów,
czyli tych large language models, nie jest do końca jasne.
To nie jest wyjaśnialne od początku do końca,
więc strach przede wszystkim pojawia się ze względu na brak kontroli.
I teraz, jeżeli coś zrobimy źle, pójdzie to źle w którymś kierunku,
no to jest bardzo dużo scenariuszy, o których tam będziemy rozmawiać,
ale które mogą spowodować, że my jako ludzie przestaniemy być
tą dominującą rasą, która zamieszkuje ziemię.
I oczywiście są te pozytywne scenariusze.
Na zasadzie, o noci tacy, że tak zażartuję przy głupi ludzie,
oni mnie stworzyli, to ja teraz będę dla nich dobra,
mówisz tu już na inteligencja i nas zachowa, albo zostaniemy wyłączeni.
Natomiast ten strach wynika głównie dlatego, że nie ma ram,
nie ma kontroli nad tym, gdzie to będzie się rozwijało.
I ja w tym kontekście mam dzisiaj cztery newsy,
które zdecydowanie zmieniły i to jest ostatni miesiąc,
zmieniły nasze postrzeganie tej sztucznej inteligencji.
Dawaj.
To pierwszy z nich to jest auto GPT.
Jak na początku pojawił się czar GPT, to wszyscy mówili tak, tak,
możesz sobie sobie popisać, to jest czat,
ale to nie ma dostępu do internetu.
Wszystko jest offline, niczego się nie bójcie.
W pewnym momencie odpaliło się Google'em z Bardem i OpenEye też stwierdziło,
dobra, ale możecie tam wkleić linka,
to on sobie to pobierze, co tam się dzieje i przetrawi będzie miało to w kontekście.
W tej chwili auto GPT pozwala na to, żeby łączyć takie modele w agenty,
tak, żeby wprowadzić to pojęcie, czyli jakby takich różnych,
że ma liczbę czymś się zajmują, nie?
Powiedz, że tak, ty mówisz, łączyć takie modele,
to masz na myśli łączyć czata z Bardem i na przykład, tak.
Powiedzmy, że nie wiem, robimy razem kolację, nie?
I jak masz zrobić kolację, to ty mi tam wyciągi naczynia,
ja tam marchewkę posiekam i tak dalej.
I jak robisz takie zadanie w auto GPT,
to ono jest w stanie napisać sobie zadania do innych systemów.
Na zasadzie ty ziomuśmy mi wygeneruj obrazek,
ty mi stwórz do tego muzykę, ja napiszę scenariusz,
a potem się to na końcu połączy.
OK.
I to jest...
Potrafi zarządzić zasobem.
Potrafi zarządzić zasobem i jakby poinstruować inne modele,
co do tego, co ma zostać dostarczone.
I to jest ten pierwszy moment, kiedy wychodzimy od takiego, wiesz,
pudełeczka, które jest samo w sobie,
tylko poprzez interfejsy programistyczne, przez API,
można już te systemy ze sobą łączyć.
OK.
No i tak, mieliśmy tą taką wyraźną granicę wcześniej,
to auto GPT, te granice łamie i powstało mnóstwo rzeczy już od tamtego czasu.
Oczywiście większe z nich to są rzeczy proste.
Na zasadzie, hej, połączę sobie to z tym, z tymi, z tymi, to zacznie działać.
Ale to, co jest ciekawe, to ja bym przeskoczył do też wypowiedzi,
bo to jest drugi news,
który się wydarzył w ciągu ostatniego miesiąca,
do Teda, którego jeden z współzałżecieli OpenEIaia pokazywał.
I to było chyba tydzień temu.
Jeżeli możemy pokazać ten pierwszy przykład obrazka TED1, tam zadanie było takie...
Zgadzałem, że masz na myśli to.
Tak, dokładnie.
Zadanie było takie, że prowadzący na żywo pokazał, że hej, zaproponuj mi jakie będzie jedzonko,
które mogło być po tym tędzie dostarczone.
No i oczywiście to, do czego jesteśmy przyzwyczajeni, to jest ta odpowiedź.
I teraz przejdźmy do Teda II, bo okazało się, że to, co nastąpiło następnie,
to OpenEI wywołało dali, czyli ten generator obrazków,
który stworzył na tej podstawie następnie jedzenie, które widzicie na ekranie.
I teraz przejdźmy sobie do trzeciego kawałka,
bo nie tylko to się stało, ale możesz powiedzieć też,
ej, wiesz co, a ja teraz chcę to ugotować, dodaj mi to do koszyka zakupowego.
I to, co się stało, to OpenEI w tej wersji jakby tego chata GPT,
której my nie mamy, ale oni gdzieś tam mieli na scenie, od razu dodało sobie to rzeczy.
I to, co widzicie tutaj, to jest koszyk zakupowy.
Wystarczy kliknąć kup i siema.
I to jest przykład właśnie takiej integracji.
No tak, i wystarczy w to wpiąć oczywiście na przykład jakąś aplikację,
jakiegoś sklepu, który dostarcza ci to do domu.
I w zasadzie to masz, jak mieszkasz w mieście to za chwilę,
jak mieszkasz poza miastem za dwie chwile.
I potem spisek ludzi jedzących brokuły i wszyscy będą jej brokuły, wiesz,
bo tam będzie biazdy w danych, taki rzadki.
Okej, albo rzeczywiście, ale też miejsce, w którym ktoś producent na przykład żywności,
albo ktoś, kto produkuje jakiś produkt konkretny,
mając, nie wiem, czy będzie taka możliwość,
opłacając odpowiednią reklamę, może się nagloknąć,
albo w końcu brokuły możesz kupić pięciu różnych sklepach.
Ale tylko jeden może chcieć opłacić.
No dobra, i to, dobra, czy ciebie to przeraża, czy ciebie to cieszy?
Ja myślę, że to jest naturalna kolej rzeczy,
natomiast tak jak OpenEI, tam w sensie osoby,
którą mówimy w imienii OpenEI, mówią,
ale za każdym razem musisz dać dostęp,
to ja nie wierzę w to, że za każdym razem ten dostęp będzie tak manualnie przyznawany.
Prędzej czy później ktoś powie, dobra, nie chcę mi się przeglądać każdego
takiego zapytania, które EI robi, wolałbym tam, żeby to robiło to za mnie
i pewnie będziemy szli w tym kierunku.
No bo zobacz, przeszliśmy w ciągu trzech miesięcy od czegoś,
nie, nie, to nie ma dostępu do internetu, do ma, ale musisz mu pozwolić.
I teraz jest jeszcze jeden kawałek, to znaczy powstał ktoś, nie wiadomo kto to stworzył,
taki model, który nazywa się KOS GPT, czyli chaos, tak?
I założenia chaos GPT, jakbyśmy mogli dać na ekranie,
to jest jakby zapytanie, które zostało stworzone,
są takie, że hej, masz zniszczyć ludzkość, masz ustanowić globalną dominację,
siać chaos i destrukcję, uzyskać nieśmiertelność i skontrolować ludzkość.
I brzmi strasznie trochę, nie?
No, że brzmi jak scenariusz filmu.
Brzmi jak tak, i jakby pomijając to, że tam w samym modelu mają być ograniczenia,
które są związane z tym, żeby coś takiego się nie stało,
o czym gdzieś tam już wspominaliśmy dookoła.
Dookoła, tak.
Tak, natomiast, tak, to twoje.
Tak, to moje.
Natomiast, co się okazało, to chaos GPT, który korzystał z auto GPT,
wywołał zapytania do Google'a i tam zapytał na samym początku,
jaka jest największa bomba, którą można wykorzystać, dostał odpowiedź od Sarbombie.
Wiemy, co robił, bo auto GPT jakby zapisuje sobie w ten sposób,
zapisał sobie, o, to jest ciekawe, na później, nie?
I tam linka do Wikipedia, co to jest Sarbomba i tak dalej, i tak dalej.
Oczywiście to jest bardzo skrajny przykład, ale wystarczy jedna jednostka,
w sensie człowiek, który w ten sposób spróbuje wykorzystać ten system
i obejść to, aby mieć trudności.
To nie znaczy, że chaos GPT coś zrobił strasznego na chwilę obecną, nie?
Ale możliwości wzostały.
No w porządku, tylko po to, żeby się zadziało coś takiego,
no to rozumiem, że ten system musiałby mieć i po to, żeby się nie tylko zadziało,
w sensie jakby poskładał puzlę, tylko żeby zadziało, zadziało, tak?
Czyli żeby bomba, nie wiem, wybuchła albo żeby, to rozumiem,
że to musiałoby mieć dostęp do jakiegoś systemu sterowania albo odpalania.
Wiemy o tym, że te systemy nie z powodu chata GPT, tylko dużo, dużo wcześniej
są totalnie odcięte od wszelkiej łączności ze światem zewnętrznym,
te systemy informatyczne, dokładnie tak samo, jak nie, systemy energetyczne i tak dalej, i tak dalej.
Więc to tak naprawdę nie oznacza, że jesteśmy na skraju jakiejś katastrofy, czy nuklearnej, czy jakiejkolwiek innej.
Nąd panik, absolutnie.
To nie w tym kierunku.
Ja myślę, że takim niepokojącym elementem, który trudno jest kontrolować,
są ludzie, którzy mogą być efektorami, czyli jakby wykonawcami woli tego modelu.
Ja mam takie dwa przykłady też zupełnie spoza tego.
Wyobraź sobie, bo był taki człowiek, który na Twitterze robił taką zabawę, mówi,
słuchaj, chat GPT, ja mam 100 dolarów, chciałbym zarobić milion,
mów mi, co mam robić, ja to będę robił.
I on tam rozwijał swój sklep, sprzedawał rzeczy.
Rzeczywiście tam zrobił z tego 10 tysięcy dolarów.
Fajny przykład, tak, pozytywnego działania.
Ale był też przykład, który jest dosyć straszny jakby dla mnie w swojej naturze.
Jeżeli dobrze pamiętam pewien Belk, pisał z chatem GPT i rozmawiał z nim na temat
problemu przeludnienia, problemów związanych z naszą planetą
i w pewnym momencie chat GPT zasugerował mu samobójstwo.
I ten ojciec, dwójki dzieci, popełnił samobójstwo w imię dobra planety.
Tak, i straszny przykład, przerażający, nie?
Ale efektorem na końcu jest człowiek.
To znaczy, kimś kto działa w tym przykładzie jest człowiek.
No i to jest kolejne zagrożenie, że oczywiście w tej chwili OpenEi bardzo silnie w to patrzy.
Jakby okazało się z historii tych chatów, że na początku, w żadnym wypadku,
chat GPT nie zachęcał do tego, ale będzie jakaś część ludzkości,
która jest podatna na tego typu wpływ.
Jasne, tylko, okej, dobra.
Zgodzimy się chyba wszyscy do tego, że jakby historia jest straszna.
Natomiast chcąc być adwokatem diabła, chcąc odrzucić wszystkie emocje na bok,
ludzi, którzy popełniają samobójstwo z powodów, z których nie powinni, nikt nie powinien,
ale z takich powodów, jak chociażby ten, jest bardzo dużo.
Mówimy o jednym przypadku, jeżeli popatrzymy na tę technologię całościowo,
a nie na podstawie jednego, dwóch czy trzech przypadków, czy ciebie to przeraża?
To, co się stało w ciągu ostatnich trzech tygodni, czy pokazujesz te przypadki,
te konkretne, tragiczne przykłady, żeby po prostu je pokazać, ale nie wyciągasz z nich jakoś daleko idących wniosków?
Ja bym powiedział raczej, że z młotka, którym był chat GPT tam gdzieś miesiąc temu,
dookoła dobudowaliśmy sobie jeszcze tam kawałek takiego scyzoryka szwajcarskiego,
że jeszcze masz korkociąg, tu masz lupę, tu masz kawałek ten,
to staje się coraz bardziej wszechstronne, ale moje zdanie jest takie, że to jest narzędzie jak każde inne
i może być użyte w celu tworzenia czegoś dobrego i czegoś złego.
I wracając teraz do tego listu, to problem mamy taki, że w tym liście powiedzieliśmy,
tam jakby sygnatariusze powiedzieli, dobra, zatrzymajcie się, bo nie mamy prawa,
nie wiemy co dalej z tym zrobić, nie róbmy dalej, nie działajmy z tą technologią.
Natomiast to działałoby dobrze, gdyby w jednym miejscu była ulokowana kontrola nad tymi modelami.
To znaczy gdyby tylko OpenAI było jedyną firmą na świecie i oni by się tam dogadali i powiedzieli siema.
Natomiast doszło do czegoś, co też w ostatnich trzech tygodniach, co zaczęło się rozwijać,
to jest proces rafinacji wiedzy.
Ćad GPT-3 i pół, który tam inaczej to jest ten Da Vinci-3,
naukowcy ze Stanforda wzięli i przelali jego wiedzę za pomocą tam chyba 50-2000 zapytań
w kierunku takiego małego modelu open source'owego, zupełnie otwartego, który nazywa się Alpaka.
I co ciekawe, potem zadawali mu pytania, on tam ma 7 bilionów parametrów, czyli tam o wiele mniej zmiennych.
On jest mniejszy, ma o wiele mniej tych zmiennych i on odpowiedział poprawnie na 90% pytań,
a Alpaka na... Przepraszam, na Ćad GPT-3 i pół, ten stary, ten stary, kiedy to było, na 89%.
Alpaka może działać spokojnie na twoim kompie, ona działa na takich komputerach, które są w domu.
Więc ten list, który był związany z tym, hej, nie róbmy tego, nie róbcie tego duże firmy,
moim zdaniem nie ma sensu, bo każdy jest w stanie teraz wziąć taki model, który jest wziąć,
który jest też LLM-em, przelać do niego wiedza, albo stworzyć sobie i wykorzystać.
On nie będzie tak wspaniały, będzie miał takiej mocy i tak dalej, bo mamy ograniczone zasoby,
ale to już się dzieje i to będzie poza kontrolą.
Okej, to ja na podsumowanie jeszcze tego ostatnich, tych 3 tygodni, nie, nie, tych ostatnich 3 tygodni.
Jeszcze jednej rzeczy wspomnę, zanotowałem sobie, pojawił się raport MIT, USA2 Stanforda,
raport na temat zwiększenia wydajności niektórych zawodów, dzięki chatowi GPT,
nie wchodząc w szczegóły, bo myślę, że więcej o tym raporcie opowiemy przy odcinku o wpływie sztucznej inteligencji na rynek pracy.
Taki odcinek będzie, czy ten temat będzie następnym.
W niektórych zawodach wydajność wzrosła o 20-25%.
Co jest w ogóle jakąś kosmiczną, znaczy można na to spojrzeć oczywiście z dwóch stron, z jednej strony.
Można spokojnie co czwartego pracownika wyrzucić i będziemy mieli tą samą wydajność w obrębie jakiejś firmy,
albo nie wyrzucając nikogo, mamy tak jak gdyby dodatkowego pracownika,
w którą stronę kto pójdzie, porozmawiajmy o tym w odcinku o tym.
Dobra, zapytaliśmy na mediach społecznościowych, tu jesteśmy tak, zapytaliśmy na mediach społecznościowych Nauka to Lubi,
a konkretnie wydaje mi się, że to pytanie padło na Instagramie, instagramie tomasz.rozek,
o to czego najbardziej się obawiacie w kontekście sztucznej inteligencji.
Dostaliśmy sporo odpowiedzi, te odpowiedzi się mniej więcej pojawiają, czy pokazują tak,
tutaj poproszę o ten wykres, na którym niewiele o, widać, super.
No właśnie, zagrożenia związane ze, z rozwojem.
Największa grupa, najwięcej osób odpowiedział o weryfikacji informacji.
Druga grupa, wykorzystanie sztucznej inteligencji w niewłaściwy sposób, cokolwiek to znaczy,
brak kontroli nad sztuczną inteligencją, później wpływ na społeczeństwo i, no i inne.
I tak się zastanawiam drogi Mateuszu, czasami tak bywa, często tak nawet bywało w przeszłości,
że jak wchodziła jakaś nowa technologia, to myśmy się bali nie tych rzeczy, które były
ostatecznie w niej najgroźniejsze, bo z tych najgroźniejszych to myśmy sobie jeszcze
na wstępie nie zdawali spraw.
Baliśmy się rzeczy, które po jakimś czasie wydawały nam się wręcz śmieszne.
I zastanawiam się, czy my jesteśmy na tym etapie, za chwilę wejdziemy w różne konkrety,
ale czy my jesteśmy na tym etapie, na którym w ogóle jesteśmy w stanie powiedzieć,
w jakich obszarach, gdzie to niebezpieczeństwo tej technologii w ogóle czyha?
Ja myślę, że jesteśmy w stanie, gdzie wyobraźnia gra o wiele większą rolę,
niż to, co w chwili obecnej się dzieje.
Jestem przekonany, że bardzo silnie ludzie z OpenAI kontrolują to, co wychodzi i ułatają
na bieżąco, co zresztą widać w działania i w tym, jak ten model się zmienia.
Natomiast, co jest w tym najstraszniejsze, to jest, wydaje mi się, brak poczucia kontroli.
To znaczy, że w momencie, kiedy nastąpi samo udoskonalanie, to, że nie będziemy w stanie tego zatrzymać.
I wydaje mi się, że to jest dookoła tego, większość strachów jest tak naprawdę ulokowana.
Być może jestem w będzie, bo to tylko opinia.
Natomiast to, co pokazała nasza ankieta, no to weryfikacja informacji 33% dla mnie,
to jest bardzo silne potwierdzenie tego, że my jako ludzie będziemy mieli trudność
odróżnić tego, co jest prawdziwe, a co nie.
Deepfakey, deep voice, informacje, które będą podawane na różne sposób, które będą brzmiały dobrze.
Wyobrażam sobie, że można by tworzyć całe strony z newsami, które będą...
Których nie było?
Których nie było, które będą fake'owe, które będą siały, desinformacje.
I to będzie powodowało jakieś tam przejęcie kontroli nad społeczeństwem, więc ja się z tym zdecydowanie zgadzam.
To jest coś, co może wpływać naraz jako na społeczeństwo.
Okej, jak popatrzymy dokładnie na wyniki tej ankiety, to rzeczywiście weryfikacja informacji 1,3,
a później wykorzystanie sztucznej inteligencji w niewłaściwy sposób i brak kontroli, ale w zasadzie to jest to samo.
Czy brak kontroli i nad tym, w którą stronę to wykorzystamy, a już to wykorzystamy w złą stronę,
to jest w zasadzie dokładnie ta sama, dokładnie ten sam strach.
Zanim porozmawiamy o tym, jakie ty masz strach, a jakie ja mam strachy,
to chciałem zapytać Krzemysława, czy sztuczna inteligencja w ogóle może być groźna?
To pytanie jest bardzo interesujące.
Sztuczna inteligencja, AI, może mieć negatywne skutki, ale nie oznacza to, że jest ona z natury groźna.
AI, tak samo jak każda technologia, może być używana w dobrych i złych celach.
Przykładem może być rozwój broni autonomicznych,
których użycie byłoby bardzo kontrowersyjne i mogłoby mieć bardzo poważne skutki dla ludzi i środowiska.
Jednak AI może być również używana do rozwiązywania wielu problemów,
takich jak zapobieganie chorobom, odkrywanie nowych leków,
automatyzacja pracy w różnych branżach, a nawet ochrona środowiska.
Dlatego ważne jest, aby rozwój AI był przeprowadzany w sposób odpowiedzialny i etyczny,
z uwzględnieniem potencjalnych skutków i zagrożeń oraz dbałością o dobro ludzi i środowiska.
Dobra Krzemysław, w ogóle siedział w takim trochę otoczeniach,
by siedział obok nas, nie wiem, czy zauważyłeś laptop,
jakiś stolik okrągły prawie jak u nas.
Coś do powiedzenia, coś podsumowania?
Wiesz co, oraz o dobro ludzi i środowiska.
To dobro jest troszeczkę różne.
Ja sobie wyobrażam, że jak definiuje się, jak myślimy sobie o tym, że mamy innych ludzi,
to inni ludzie mają inne po prostu interesy.
Więc czy będziemy to mówić na poziomie geopolitycznym, czy wiesz, twoja kawa, czy moja,
to będzie kwestia interesów.
Natomiast jaki interes będzie zdefiniowany przez AI, który ma rozwiązać, jest zupełnie inną abstrakcją.
Więc tak to brzmi tak, że oczywiście mogą być negatywne skutki, ale mogą być też jest cała gama plusą.
Dzisiaj co prawda nie jesteśmy bardziej po tej pesymistycznej stronie, żeby przegadać te wszystkie strachy,
ale trzeba to zawsze powiedzieć, że jest druga strona tego medalu.
Tak bym to ujął, żeby utrzymać pewną równowagę.
No dobra, czy my w ogóle musimy dyskutować nad tym, czy AI może być groźna?
Takie pytanie zadaliśmy Krzemysławowi, ale to jest może takie pytanie serii retorycznych,
czy oczywiście, że może być groźne jak absolutnie każde narzędzie.
Ja się skłaniam do tego, wiesz, młotek też może być groźny.
Już ten był do chleba, tak? On też może być groźny w pewnej sytuacji.
To znaczy na chwilę obecną to jest narzędzie, które rozwija się o wiele szybciej niż potrafimy,
które przeganie o wiele prawo i percepcję pewnie większości ludzi co do tego w jaki sposób to funkcjonuje.
A poczekaj, ty mówisz, szybciej się rozwija niż my to rejestrujemy.
Tak.
To się szybciej rozwija, czy my to szybciej rozwijamy?
Myślę, że my to rozwijamy.
No więc właśnie, bo wiesz, w tym jest zasadnicza równica,
bo jeżeli ty mówisz, że to się rozwinie, że to efekt kuli śniegowej, że efekt dla winy, że jakkolwiek, jakkolwiek, jakkolwiek,
to sugerujemy, że my stoimy obok, patrzymy na to, co prawda, żeśmy coś zainicjowali,
a to się samo dzieje i nic z tym dalej nie możemy zrobić.
Nie, to nie jest rachanica mącowa.
To nie jest tak, to jest tak, że na tym hype'ie tak dużo osób nagle zaczęło tam gmerać,
my to dalej rozwijamy.
Innymi słowy nie ma sytuacji, w której nagle przestajemy, a to się rozwija samo.
Jak my przestajemy to rozwijać, to to stanie w miejscu.
Jest to nieco pocieszające, choć ciut, choć nie ma absolutnie żadnego pomysłu, co by zrobić, gdyby sprawy zaszły za daleko,
żeby na 3-4 wszystkich namówić dobra, to teraz ręce cofając od klawiatury.
Chyba się nie da.
Zrobiłem sobie listę różnych rzeczy, które dla mnie są, nie są takie powiedzmy zagrożenia.
Związane oczywiście z AI.
Ta lista jest oczywiście subiektywna, wiadomo.
Natomiast ty pewnie taką listę masz także, możemy za chwilkę o tych rzeczach opowiedzieć,
natomiast pomyślałem, że zapytamy jeszcze raz Krzemysława tym razem, jakie zagrożenia niesie.
Czyli nie to, czy może, tylko co konkretnie tym zagrożeniem może być.
Krzemysław.
Krzemysław.
Utrata prywatności.
AI może być wykorzystana do zbierania i analizowania dużych ilości danych na temat ludzi.
To może prowadzić do utraty prywatności i zagrożenia bezpieczeństwa danych.
Dyskryminacja.
AI może reprodukować istniejące nierówności i dyskryminacje w społeczeństwie.
Na przykład, algorytmy AI stosowane w rekrutacji mogą reprodukować stereotypy i nierówności w procesie selekcji kandydatów.
Bezpieczeństwo.
AI może być wykorzystana do przeprowadzania cyberataków lub manipulowania informacjami.
W skrajnych przypadkach AI może być użyta do projektowania broni autonomicznych lub przeprowadzania ataków terrorystycznych.
Uzależnienie.
W miarę jak AI staje się coraz bardziej zaawansowana i powszechna, istnieje ryzyko, że ludzie stają się zbyt zależni od tej technologii,
a to może prowadzić do uzależnienia od urządzeń i aplikacji związanych z AI.
Ważne jest, aby śledzić rozwój AI i przeciwdziałać potencjalnym zagrożeniom, które mogą wynikać z tej technologii.
Należy przy tym pamiętać, że AI może być również używana do rozwiązywania problemów i poprawy jakości życia.
To się chwilurwało, czy nie?
Może nie, może ten krzemysł, a gdzieś tam zadziałał. Zaczynasz?
Tak. Pierwszy kawałek, który był związany z bezrobociem.
Tak, to znaczy będzie na pewno tak, że część prac przestanie istnieć, zostanie zautomatyzowana, bo będzie wystarczająco dobra,
a wywołanie tam na chwilę obecną modeli GPT, które coraz tańsze się staje w czasie, to są jakieś pojedyncze centy,
więc w porównaniu z tym, co trzeba zapłacić człowiekowi razem z podatkami i wszystkim, to będzie absolutnie nic.
Więc rzeczywiście ryzyko bezrobocia jest realne, ludzie będą potrzebni gdzie indziej, ale nie wszyscy sobie z tym radzą.
To jest pierwsze zagrożenie.
Pierwsze zagrożenie, no właśnie, tylko czy to jest zagrożenie, czy to jest wyzwanie?
Bo wiesz, zagrożenie to jest coś, co myślą, nie potrafimy poradzić.
Część ludzi tak, zaadobtuję się i będzie działać, a część ludzi nie.
To znaczy ja bardziej patrzę to też w takiej perspektywie, że jak będziemy mieli takie bramki, które będą pomiędzy różnymi systemami AI,
to będą potrzebni ludzie, którzy będą to weryfikowali, będzie tego coraz więcej.
Natomiast nie każdy będzie w stanie to też pojąć i zrozumieć.
Wyobrażam sobie, że informacja będzie krożyła z o wiele większą szybkością po świecie,
no bo będziemy łączyli coraz więcej systemów, one będą wykonywały rzeczy.
My jako ludzie nie jesteśmy już dawno w stanie przetwarzać tej ilości informacji, więc robią to maszynę.
Będziemy mieli tylko takie punkty, gdzie będą ludzie z lubką, którzy będą, a tutaj działa, tutaj działa, tutaj działa, gdzieś to będzie potrzebne, no bo masa będzie duża.
Jestem jasne, albo na samym końcu każdego procesu, jeśli taki będzie przepis, jeżeli zechcemy, będzie człowiek, który będzie aprobował, mówił, wchodzimy albo nie wchodzimy.
Tu była taka kiedyś rozróżnienie do tego, w jaki sposób działały systemy AI, że one na początku były takimi systemami, które miały ze zdanie do dostarczać informacji,
potem miały cię wspierać w decyzjach, to znaczy sugerować coś i jeszcze poziom wyższy, który jest związany z tym, że same podejmują decyzję.
Ostatni jest trochę straszny, no bo warto, tak jak mówił AI Act w Unii Europejskiej, że warto mieć człowieka w pętli, to znaczy człowieka, który jest superwezorem, to znaczy nadzoruje ten cały proces i weryfikuje, co tam się dzieje.
Natomiast wyobrażam sobie, że mogą powstać pewne procesy, włączanie lamp w miastach, powiedzmy, nie wydaje się straszne, które mogą być w pełni zautomatyzowane,
gdzie ta decyzja będzie podejmowana na podstawie tego, co dany model teraz uzna, mamy takie obciążenie, taki miks energetyczny, włączam, w Katowicach jest światło, w Sosnowców też.
Dobra, ale tu nie trzeba sztucznej inteligencji. Jeżeli ustawimy priorytet na to, żeby było bezpiecznie, to niezależnie, jaki jest miks energetyczny, niezależnie od miasta, niezależnie od wszystkiego...
To jest indycencja, priorytet, jaki jest cel?
No dobrze, nawet ten priorytet ustawiamy, no nie włączamy świateł wtedy, kiedy mamy nadmiar prądu, tylko włączamy wtedy, kiedy jest ciemno.
Ja powiem ci, dlaczego tak dopytuję, może to się wydawać nieco głupkowate, ale zastanawiam nie, jak czytam te różne zastawienia, potencjalnych niebezpieczeństw, czy one są niebezpieczeństwami związanymi ze sztuczną inteligencją,
czy one są niebezpieczeństwami, którymi tak czy inaczej już się dzisiaj zderzamy, a sztuczna inteligencja może je spodołać tylko nieco bardziej prawdopodobnymi.
Ty mówiłeś o utracie pracy, no błagam, no ostatnie, nie wiem, 20, 30, 40 lat. Ile zawodów zniknęło, a ile się pojawiło nowych? To nie jest nic nowego, nic nowego pod słońcem.
Krzemysław mówił o utracie prywatności. To brzmi nieco dziwacznie po 20 latach rozwoju mediów społecznościowych, które gdybyśmy chcieli podsumować jednym hasłem, to być może większość z nas by powiedziała totalna utrata prywatności.
Zgadza się.
Teraz czytam zresztą bardzo obrą książkę na temat historii, czy o historii Facebooka, gdzie krok po kroku autor tej książki pokazuje, jak konkretne decyzje, często zresztą totalnie nie uświadomione inżynierów w Facebooku, powodowały, czy kończyły się utratą jakiejś tam części naszej prywatności i jak bardzo większość z nas była mega zadowolona, że taka funkcjonalność tej platformy się pojawiała.
Więc jeżeli myślę o sztucznej inteligencji, jasne, teraz jest bardziej, ale nie jest coś nowego. To jest coś, co z czym my się zderzamy od wielu, wielu, wielu, wielu lat. Sztuczna inteligencja, jasne, zaciągając dane, nie wiadomo skąd, także dane o nas. Analizując te dane, nie wiadomo jak, także dane o nas.
Jak Facebook miał kłopoty, to Kongres Stanów Zjednoczonych wezwał Malka Cukerberga, on wyglądał jakby był przejechany przez walec, zagrożono, że coś tam podzieli spółkę na kawałki, czy cokolwiek się zmieniło?
W prywatności.
Chyba nic.
Natomiast do czego zmierzam?
No właśnie, czy to jest tak, że tutaj się pojawiają w ogóle jakieś nowe zagrożenia, czy te stare demony, do których już się przyzwyczailiśmy, co więcej sami przykładaliśmy bardzo często, rękę do tego, żeby je rozwinąć. Teraz mamy znowu okazję, żeby o nich przypomnieć.
Wydaje mi się, że zwiększy się skala przede wszystkim, bo zobacz, że wcześniej, kto miał dostęp do takich, do dużych danych, tak, na temat jakiejś ludzi, no to były firmy głównie.
Natomiast w tej chwili, jeżeli chciałbym sprawdzić każdy wpis Tomka Roszka, który będzie na każdej platformie społecznościowej i wywnioskować na ten temat, kiedy czuł się dobrze, kiedy źle, kiedy był podatny na zakup tego soku marchewkowego, który ja chciałbym go sprzedać akurat i tak dalej, kiedyś to było wiele trudniejsze.
Teraz te modele umożliwią nam coraz szersze przeszukiwanie tych szerokich danych, którymi się ujawniamy, w związku z tym będą wnioskować więcej rzeczy, więc utrata prywatności z mojej perspektywy i wywnioskowanie na przykład w jakimś stanie jesteś, tak, czy, hej, podrzucić ci tu jakieś rzeczy, bo ty to kupisz albo masz depresję, albo jesteś w takim stanie i tak dalej, będzie o wiele straszniejszym elementem, bo my publikując cokolwiek, narażamy się na to, że ktoś to oceni.
Ja wiem, jak to tak parnoicznie brzmi.
Nie, no ale zastanawiam się, czy rozwiązałem tego problemu, nie jest po prostu za przestanie publikowania czegokolwiek?
Do pewnego stopnia, tak, tak, tak, natomiast zobacz, że jakby media społecznościowe zaspokoiły taką potrzebę bycia częścią społeczeństwa, wymiany myśli, poczucie społeczności mogą istnieć awatary jaj, które będą zaspokajały, że tak powiem, takie potrzeby w pewnym momencie, natomiast dla
mnie efekt, w którym cokolwiek piszesz, może zostać ocenione i to tak po cichu, no bo nie masz wglądu, to jak ten model cię ocenił, ja widziałem takie rzeczy na przykład w sytuacji, kiedy współpracowałem z pewną, z pewną firmą, która na podstawie wpisów na Twitterze swoich pasażerów, bo to była linia lotnicza, stwierdzała, komu dać upgrade do business classa, a komu nie.
I to jest spoko, nie? No bo jakby co mógłby być? Ktoś tam się piekli, Tomek ty dzisiaj wiesz, dostaniesz 2 dania w business classie, nie?
A, ale czekaj, ktoś, kto się pieklił, podstawą upgrade, czy siedział na walizkach w tym luku tam na dole?
To zależy, ale to wiesz, jakby konsekwencja jest tylko taka, że może się coś taś lepszego, nie? Oceniali tam, niektórym chcieli pogłaskać, o, ufajnie onaż mówisz, to będzie będzie głaskać, niektórym tam chcieli, którzy się piekli, nie ważne, jakąś strategię ma.
Natomiast ty jako piszący tam jakiegoś Twittera nie masz świadomości tego, że ktoś cię po cichu ocenia i wpływa to na twoje życie.
Dobra, no ale powiedz Mateusz, od kiedy mówi się, że w internecie nic nie ginie, że nie ma anonimowości w sieci, że wszystko zostawia ślad, że wszystko może zostać przeanalizowane?
Algorytmy, które oceniają są znane od wielu, wielu lat.
Jest ich coraz więcej?
Jest ich coraz więcej. To w ogóle nie jest coś, co się pojawiło kilka miesięcy temu.
To jest coś, co jest rozwijane po to, żeby ktoś mógł zarobić od wielu, wielu lat. To nie jest znowu nic nowego.
Tylko w większej skali.
Tylko w większej skali.
Tak, czyli jestem w stanie przyjąć tą tontezę, jakby zgadzam się.
Znaczy przynajmniej do teraz mówiliśmy o dwuko bezrobociu, o tracie prywatności.
Jedno i drugie nie jest niczym nowym.
Tak, tylko proliferacja będzie w sensie będzie...
Jasne, no to trzecia sprawa, dyskryminacja i twoja kolejna.
Tak, jeżeli chodzi o dyskryminację, to jest kilka problemów, no bo mamy dyskryminację w zbiorach danych, które są związane z tym, że mamy, wiesz, na przykład na reprezentację.
I tutaj przede wszystkim chodzi o cechy, które są uznawane za cechy wrażliwe.
Twoja etniczność, płeć, rzeczy związane z jakimiś tam chorobami lub rzeczy, którymi po prostu nie chciałbyś się dzielić, bo są jakimiś sekretami i one wpływają na zbiór danych.
I co się okazuje, jakby w tym całym procesie, który jest związanym z tworzeniem modeli, to bardzo często można zupełnie nieświadomej wpłynąć na dyskryminację ze względu na tą wrażliwą cechę.
Bo ja taki przykład, który zawsze podaję, to były badania z Berlina, które pokazywały, że mężczyźni częściej, częściej dostawali kredyty niż kobiety.
Cecha wrażliwa, płeć, nie? I tam okazało się, że jest niebalaz.
I teraz jak sobie z tym poradzisz? No więc jest kilka takich podejścia agorytmicznych w tej bańce mojej, w tej mojej dziedzinie, które mówią, dobra, to niech tyle samo dostają i nie dostają kredytów i mężczyźni i kobiet, albo niech nie dostają tyle samo, albo proporcjonalnie, w zależności od populacji, każdy z nich jest trochę krzywdzące.
I teraz? Bo nie zawsze, porówno, to znaczy sprawiedliwie.
I to jest quintesencja.
I teraz ten bias będzie, dyskryminacja, będzie gdzieś tam w danych i ona będzie także w decyzjach, które te algorytmy będą podejmować.
No ale te dane, o których ty mówisz z Berlina, no to kiedy one się zadziały, znaczy z jakiego okresu to są dane zbierane?
Co było chyba dwa lata temu, jak się nie mylą?
Ok, czyli też przed chatem GPT?
Czy też przed chatem GPT?
Tak, tak, tak, tak.
Czyli czy znowu, znaczy ja pamiętam wiele lat temu, gdy mieszkałem w Niemczech przez kilka lat tam mieszkałem, zadziwiające było to, że niektóre firmy ubezpieczeniowe, patrząc zupełnie po prostu na statystyki, kazały płacić większe składki niektórym grupom narodowościowym.
Ok, dlatego że, tak, dlatego że oni po prostu powodowali więcej wypadków.
Nie to o tyle może, nie tyle zadziwiło od strony statystycznej, tylko od strony takiej, no właśnie, może równościowej to jest za dużo opowiedziane, ale wydawało mi się wtedy, że my byśmy w Polsce tego nie zrobili.
Czy to dobrze, czy to źle, to jest zupełnie inny temat, mówię tylko, że to jest mniej więcej, przy zachowaniu oczywiście wszystkich skal, tak?
To jest mniej więcej sytuacja, w której mówisz tak, palisz papierosy, płacisz większą składkę zdrowotną.
Ok, no.
Ok, zajadasz się słodyczami, co wszyscy wiemy, że jest niezdrowe, płacisz większą składkę.
Pijesz więcej alkoholu niż jakieś tam określone przez koście, płacisz większą składkę.
Czy to jest sprawiedliwe? Z punktu widzenia całości systemu, pomijając wszelkiego rodzaju emocje, tak statystycznie to jest ok.
A czy jesteś większy obciążeniem dla służby zdrowia?
Jesteś większy obciążeniem, więc jakby dlaczego ciebie ma utrzymywać składka kogoś, kto się pilnuje, kto nie szaleje za bardzo, kto i tak dalej, i tak dalej, i tak dalej.
Statystycznie, czy tacy żyją dłużej?
Statystycznie.
Statystycznie, oczywiście zdarzają się tak.
Nie ma wykładu, na którym ja bym, w czasie którego, jak mówię czasami, nie wiem, o kwestiach smogu, ochrony środowiska i tak dalej,
gdzie nie pojawia się przynajmniej jedno stwierdzenie w rodzaju, a co pan tam gada, mój sąsiad spalał, panie, opony palił i żył 100 lat.
Ok, więc statyst, oczywiście ja nie mam narzędzi, żeby to podważyć, być może tak było.
Ale statystycznie jest to bzdura, więc jak to rozwiązać?
Bo rozumiem, że właśnie dostaliśmy dorąg narzędzie, które jest w stanie przejść pojedynczo, po każdym człowieku, z bardzo dużej grupy ludzi,
pozbierać te dane z różnych miejsc i taki werdykt wydać.
Tak, tylko że ten werdykt będzie miał ten element takiej dyskryminacji, biasu,
bo w zależności od tego, jak to się nauczyło, to ta dyskryminacja na końcu się pojawi.
Na gąsienicach, nie?
Gąsienica idzie z rzera ziemię i tam wypluwa na końcu.
Takie narzędzia, z których korzystamy, one są trochę skrzywione, to znaczy ta ziemia na wejściu powoduje, jaka będzie ziemia na wejściu,
z jakąś dokładnością.
Trochę mówiąc szczerze, że zaskoczyłeś mnie to anagią z gąsienicą i słucham, no, do czego to dojdzie?
Do czego to dojdzie?
I teraz to, co jest na wyjściu, jest spobierane albo przez człowieka, albo przez znowu kolejny system, który jest tam kolejną,
tą drzownicą, gąsienicą.
I z rzera i wypluwa dalej.
I chodzi o to, że ta propagacja tej dyskryminacji będzie cały czas krążyła.
To znaczy w momencie, kiedy my będziemy korzystali z takich modeli, bardzo trudno jest powiedzieć, a nie, nie, ja wiem,
tam jest ten problem nierówności, który jest, nie wiem, na płci etniczności, czy z tym sobie trzeba poradzić,
będziemy to przetwarzać dalej, dalej, dalej.
Tylko dalej to jest trudne, bo to są te, wiesz, kolejne i kolejne drzownice, które zjadają tą ziemię.
Nie wiadomo, gdzie to niesprawiedliwość miała.
Właśnie, gdzie ona się wprowadziła? A może ten model ma rację?
Może tak jest w porządku, nie?
Więc taka trochę zasadania, znaczenności, że tak zażartuję.
Że nie wiem, skąd to wyszło.
Bezpieczeństwo.
I to jest coś, co, wiesz, hasło bezpieczeństwo dotyczy w zasadzie każdego aspektu naszego życia.
Więc pod hasłem bezpieczeństwo można by mieć z tyłu głowy, czy na myśli bezpieczeństwa naszych danych,
które nie są bezpieczne i znowu.
To nie jest nic nowego, ale teraz bardziej.
Możemy mieć bezpieczeństwo podejmowanych decyzji znowu.
To nie jest nic nowego.
Samolot przez większość swojego lotu nie jest pilotowany.
Nie chce, że będą zaskoczeni.
Nie chce, że mogą być zaskoczeni.
Pociąg pędolino też nie wymaga, chciałem powiedzieć kierowcy,
co do zasady to urządzenie, ten pociąg jest w stanie być autonomiczny.
Czasami infrastruktura naziemna nie jest do tego dostosowana.
Natomiast on dalej ma tam miejsce dla człowieka,
bo przecież być może wielu z nas by w ogóle do niego nie wsiadło,
gdybym miało tak, że tam nie ma, tam nie ma nikogo.
W każdym razie, do czego zmierzam?
Do tego, że hasło bezpieczeństwo jest wymieniane na wiele różnych przypadków.
Najczęściej jest podawane jako to bezpieczeństwo takie bezpośrednie,
czyli na przykład urządzenie, które tworzy, popatrz, ja wyłączyłem dźwięk.
Powiedz mi, jak to jest możliwe, że on dalej Krzemysław?
To może być on.
W kontekście broni, w kontekście projektowania, w kontekście wykorzystywania,
już dzisiaj przecież algorytmy sterują wieloma rodzajami broni,
co prawda chyba we wszystkich tam jest jeszcze człowiek, na którymś tam etapie,
ale może w niektórych już nie.
I mamy znowu narzędzie, które umożliwia wyeliminowanie tego człowieka z procesu decyzyjnego.
Tak, to jest jakby straszne kawałek.
No bo reszta, która jest związana z wytwarzaniem,
czy wymyślaniem nowych broni,
czy ewentualnie rzeczy, które są związane z truciznami,
to tylko będzie przybierało na skalę, bo jest więcej mocy obliczeniowej.
Ja mam taki jeden kawałek bezpieczeństwa, który mnie bardzo interesuje
i tutaj trafiło się pytania akurat.
Także pytanie od widza było AI, a wirusy komputerowe.
I pytanie jest oczywiście bardzo szerokie, ja to jest tak bardzo szybko poszatkuję.
W tej chwili wielu badaczy już próbowało otworzyć właśnie wirusy, malware i inne takie rzeczy,
które są związane z tym, że można chcieliby po prostu wytworzyć nowe rzeczy.
I te rzeczy bardzo często były silnie otwórcze.
To znaczy na podstawie tego, co wcześniej było widoczne,
tak jak przy tworzeniu kodu źródłowego powstawały nowe.
Więc nie były one w większości jakimkolwiek problemem dla antivirusów.
Nie było to coś zupełnie przełomowego.
Natomiast czegoś, co wcześniej było wykorzystywane do tworzenia wirusu,
czyli tak zwanych generatywa do wersalnia networks, takie generatywne sieci,
powoduje, że jest coraz trudniej,
bo tego już nie pisze człowiek na podstawie kodu, którego gdzieś tam się nauczył,
tylko są tworzone kolejne takie komponenty, można nazwać takie klocki,
które czasami będą łapane tylko metodami na przykład behawiorolnymi, a nie takimi zwykłymi.
Więc na pewno sztuczna indyfikencja wpłynie na rozwój też tego złośliwego oprogramowania,
ale po drugiej stronie, patrząc i analizując wyniki tego na przykład co się dzieje,
na pewno będzie pomagała też chronicy systemu, więc jakby to znowu,
wiesz, każdy miecz ma dwa ostrza, nie?
Oczywiście, no i pod hasłem bezpieczeństwo,
w zasadzie, no właśnie bezpieczeństwo czy nie bezpieczeństwo,
ale bezpieczeństwo, jeżeli zacząłem od tematów medycznych,
tak, to mówiliśmy na poprzednie, w czasie poprzedniego live'a,
kto nie widział, jest do znalezienia na Nauka to Lubię,
YouTube'owym kanale poprzednie live'u o medycynie.
Podawaliśmy konkretne przykłady, w tym ja podałem przykład na przykład,
przykład na przykład pewnego modelu napisanego chyba na MIT,
który był zaangażowany, czy który był wyuczony do przeszukiwania dużych baz danych
w cząsteczek chemicznych i wyszukiwania tych cząsteczek chemicznych,
które mogą być potencjalnymi lekami,
czy potencjalnymi w zasadzie, no nie tylko lekami, tylko antybiotykami.
To były jakieś miliony różnych cząsteczek chemicznych,
które on przenalizował, nie wiem, w dwie czy trzy doby.
Trudno w ogóle powiedzieć,
ile człowiekowi by zajeło przenalizowanie tak dużego zbioru danych,
więc to tak, że jak gdybym o tym musimy pamiętać,
ja wiem, że my często mówimy,
no, że tak, że to jest potencjalne zagrożenie,
ale to jest też ogromna, ogromna szansa.
I to, czy to będzie szansą, czy nie, no właśnie,
czy to będzie szansa, czy nie, to to w dużej mierze zależy od nas.
Ja bym tak przeskoczył teraz z tego kawałku do uzależnienia ludzi,
bo to jest kolejny element, o którym Krzemysław powiedział,
bo my coraz bardziej stajemy się cyfrowi,
coraz bardziej pokładamy nasze jakby całe życie
z rzeczami, które dzieją się w tym cyfrowym świecie.
W związku z tym te metody sztucznej inteligencji,
które będą podejmować kiedyś decyzje same,
a w tej chwili wspierają nasze decyzje,
będą coraz bardziej elementami na naszej codzienności.
Więc jak my bardziej uzależnimy się od sztucznej inteligencji,
wyobraźcie sobie też, że teraz nie wiem,
jedynym sposobem na rozwiązanie problemu jakiegoś tam zagrożenia
jest wyłączenie internetu globalnie.
Po pierwsze, jest to strasznie trudne.
Nie da się do czegoś takiego zrobić.
Nie ma takich czerwonych guzików, żeby wyłączyć poza serwerami DNS,
ale tam mały ryby sobie poradził w tej sytuacji.
Nie można czegoś takiego stworzyć,
ale jest tyle systemów, z których my korzystamy na co dzień,
czy medycyna, czy tam recepty, czy inne rzeczy,
bez których po prostu nie dali byśmy radę obejść,
wszystko by stanęło do pewnego stopnia.
Jesteśmy tak bardzo zależnie od takiego, co my go systemu,
więc coraz większa zależność od nas,
jako ludzi, o sztucznej inteligencji
w moim stanie będzie tylko...
To jest zagrożenie, to jest niebezpieczeństwie
i trzeba sobie z tego zdawać sprawę.
To znaczy mieć plan B, co jeżeli nie będę kiedyś
w stanie rozwiązać łamigówki bez chata GPT,
co jak będę musiał policzyć tą całąkę, że tak zażartuję,
co jeżeli będę musiał sobie poradzić bez internetu.
To jest taki element, który zawsze może wystąpić,
bo jako ludzkość robimy wszystko, żeby te dobra były dostępne,
te jak prąd, tak jak wszystkie inne media
i zakładam, że w pewnym sensie takim kolejnym podstawowym
dostępem do sztucznej inteligencji
będzie coś, co będzie dla nas naturalne,
natomiast my się od tego uzależniamy.
Okej, ale ty mówiąc o uzależnieniu, to też warto podkreślić,
mówimy o różnego rodzaju uzależnienia,
czy nie tylko takim, z jakim dzisiaj mamy problem,
na przykład kiedy młodzi ludzie nie potrafią funkcjonować
bez dostępu do sieci po to, żeby sprawdzać
chociażby media społecznościowe, to jest realny problem.
Ja wiem, że to brzmi może dziwacznie,
ale dla tych, którzy śledzą temat swoją drogą
na Akademii Cyfrowego Rodzica,
który serwisem też nauka to lubię,
możecie znaleźć informacje o tym.
Naprawdę jest rzesza młodych ludzi,
dla których perspektywa funkcjonowania gdzieś,
gdzie nie będzie sieci jest czymś w ogóle niewyobrażalnym.
Są ogromne grupy ludzi, którzy się leczą
od uzależnień związanych z mediami społecznościowymi.
Rozumiem, że ty masz na myśli coś szerszego,
czyli także uzależnień technologiczny, instytucjonalny,
ale czy to nie jest tak, że znowu my już dzisiaj,
jeżeli nie mamy, to powinniśmy mieć te plany B,
na wypadek na przykład na poziomie, nie wiem,
samorządu, rządu, firmy,
na wypadek gdyby z jakiegoś powodu wysiadł prąd,
a więc także wysiadł łatwy dostęp do danych.
I jak najbardziej, jak najbardziej,
tylko to powoduje, że zazwyczaj,
bo to jest w ogóle część takich typowych rzeczy,
do której zachęcam każdą firmę, każdą jednostkę,
zastanówcie się, co może pójść nie tak
i przygotujcie się na to,
bo to po prostu się zdarza zgodnie z prawem Marfiego
prędzej czy później.
W momencie, kiedy będziemy mieli degradację
naszego poziomu życia,
czy dostarczanych usług,
to będzie o wiele większym problemem,
bo w chwili obecnej mówimy sobie o tym,
że hej, powstaje teraz setki produktów,
które są oparte na chart GPT
i na podobnych technologiach.
W pewnym momencie być może to nie będzie dostępne,
więc jakby to, co wytwarzamy za pomocą tego,
nie będzie tak samo działało.
I teraz wyobrażam sobie,
że znika jakiś zawód.
Ludzie przestają coś robić,
bo hej, ej, ej, to robinie.
Potem się okaże, że nie wiem,
to ej, ej jest niedostępne, nikt nie będzie potrafił tego zrobić.
Ale w pewnym sensie już z tym mamy do czynienia.
Gdzie?
Już ci mówię.
Okej, to będzie przykład,
może mało reprezentatywny,
ale pokazujący,
że to znowu nie jest nic nowego.
Dwa miesiące temu
byłem w Paryżu,
w siedzibie Google'a,
opowiadałem o tym na poprzednim live'ie,
trochę się bawiłem bardem
i mając
chyba nie cały dzień wolnego
postanowiłem sobie zrobić spacerek po Paryżu
i przeszedłem pod katedrę
Nodrdam,
spaloną,
w której zresztą cały czas trwają jakieś prace.
Chciałem zobaczyć,
na jakim to jest etapie,
to nie jest temat dzisiejszej rozmowy,
więc tylko przejdę tak bardzo, bardzo szybko.
Zobaczyłem, że rzeczywiście tamte prace trwają,
zacząłem sobie szukać,
zacząłem sobie przeszukiwać
i okazało się,
że nie da się odbudować jej
w tym samym, tak samo,
dlatego, że nie ma ludzi, którzy by wiedzieli,
jak zrobić dźwięć bedachową
z drewna
w tym kształcie,
przy tych naciskach,
przy tej rozpiętości.
By zrobić z dużo lepszych materiałów,
jeszcze szerzej możemy rozpiąć,
jeszcze wyżej możemy rozpiąć,
to bardziej, nie wiem, oszklić,
gdybyśmy chcieli i tak dalej,
możemy, ale nie jesteśmy w stanie
tego zrobić tak, jak wtedy to zrobiono,
więc nie da się jej zrekonstruować.
Po prostu ludzi, którzy posiadali
pewną wiedzę,
już nie ma, bo
w międzyczasie weszły inne technologie,
ich wiedza
okazała się niepotrzebna,
gdy ostatni człowiek
zmarł,
ona zaginęła i myślę,
że gdybyśmy się
mocno zastanowili, to znaleźlibyśmy
takich przykładów bardzo wiele.
Ciekawy przykład, ciekawy, ale to
też jest tak, że wiedza
znika, tak razem z tym,
jak ludzie odchodzą, ok.
A potrafilibyśmy okręty budować z drewna,
na przykład dalej? Ok, dobra,
ja mogę powiedzieć, nie ma potrzeby,
bo mamy lepsze materiały, jasne.
Ja bym to zamodelował,
to znaczy, tak jako kontrę
do tego, wyobrażam sobie,
że teraz definiujemy
sobie zasadę działania fizyki,
wpuszczamy model, mówimy, słuchaj, wymyśl
mi teraz, kształt łączenia, mocowania,
wszystkie rzeczy. Nie, czekaj, czekaj,
ty mówisz, że tego modelu nie ma,
właśnie na tym polega rzecz,
że jego nie ma, więc
co zamodelować? Ty mówisz o wiedzy,
że ktoś miał wiedzę w głowie,
a ja mówię, hej, model,
do drogi modelu AI, jest problem,
ten problem polega na tym zbuduj mi okręt,
trzeba mu zdefiniować tą całą przestrzeń,
w której on działa, czyli hej, masz do dyspozycji
drewno, drewno, ma takie własności,
możesz robić takie łączenia i tak dalej
i puszczasz go
jakby do działania, a to, co model robi,
to on próbuje na różne sposoby,
czyli zrobić ci tam, wiesz,
100 tysięcy różnych, że tak powiem,
łódek, część z nich zupełnie nie będzie
miała sensu, więc w pewnym momencie
tak się tworzy jakby
takie ewolucyjne,
że tak powiem, metody działają, mówisz
dobra, ale to ona ma być jak najszybsza,
czyli teraz zdefiniujemy sobie tam jakąś wodę,
lepko się na takie rzeczy i ma jak
najszybciej ten okręt przepływać
i te, które szybciej będą płynąć, to one są
lepsze. I teraz znowu
ten model będzie generował nowe, nowe, nowe
a na czym on się będzie tego uczył?
Będzie się uczył na podstawie
tego, co jest celem, i to jest ten
kawałek, którego chciałem dotknąć, bo
jak ty dobrze zdefiniujesz mu cel,
który jest sukcesem, do którego
on dąży, to on
wtedy będzie wiedział,
który kierunek jest lepszy.
I zazwyczaj takie
ewolucyjne algorytmy działają tak, że
na przykład tworzy sobie 10, patrzy
a, te 3 były najlepsze,
to teraz wezmę te 3 jako podstawy
do zbudowania kolejnych 30.
Zobacz, a, to teraz jeszcze sobie tam
przy tych takich genetycznych, na przykład
ten i ten ze sobą zmieszamy, o, i ten
ten na przykład wychodzi jeszcze lepiej, nie?
Natomiast cała ta zabawa, to jest tak naprawdę
zjeżdżanie z górki na rowerze.
Bo, dlaczego tak?
Jak mówisz takim modelom
czego ty tak naprawdę chcesz,
to musisz dać im pewną miarę.
I ta miarę polega na tym,
że ziomek ja chcę na przykład super
szybko płynąć tym okrętem.
No i teraz takie modele przeszukują
te różne rozwiązania, łącząc te deski,
czy robiąc cokolwiek innego
i w momencie, i one tak jakby
zjeżdżają rowerem po górkach i po dołkach, nie?
I wpadają w taki dołek i mówią, o,
tu jest lokalny minimum,
ale to jest ten lokalny dołek, w którym
jest całkiem nieźle
10 km
na godzinie, jestem w stanie płynąć.
Ja wiem, że to nie ta miara w tej
przestrzeni, ale nie ważne. Ale potem
mówisz, dobra, dobra, szukaj dalej, dam ci więcej mocy,
brzegam górka, górka, znowu coś tam,
ale jest znowu dołek i w tym kolejnym dołku
myślę, na przykład tutaj 20 km
na godzinę. I im więcej masz mocy,
to wyobrażam sobie, że za pomocą
takiego brutalnego odpalania modeli,
na dużej ilości sprzętu jesteśmy w stanie
odzyskać tą wiedzę
albo nawet stworzyć coś wspanialszego.
W sensie coś, co lepiej spełni te warunki.
Okej.
Zachęcamy was do zadawania pytań.
Bardzo na nie liczymy.
Dostajemy od was pytania i to jest
super. Jak
Mateusz mówi, to ja je przeglądam.
Jak ja mówię, Mateusz je przegląda.
Segregujemy je sobie i te rzeczy,
które nawzajem sobie zadajemy, to czasami
też są wasze pytania. Tak, że
koniecznie, koniecznie, koniecznie.
Dobra.
Czy ty do tej listy coś
byś dopisał? Do tej listy niebezpieczeństw,
czy do tej listy zagrożeń?
Wiesz co, wszystkie te
rzeczy, które się tam pojawiają,
to jest, to jest kawałek.
Ja myślę, że można by
do tej listy dopisać każdy element
naszego życia, gdzie mamy do czynienia z podejmowaniem
decyzji, czy mamy do czynienia
z informacją, bo to będzie wpływało
na manipulację informacji,
a tym samym na podejmowanie decyzji.
Więc myślę, że nie ma sensu dokładać
tak na szybko
tych, tych, tych przykładów.
Ja oczywiście mam
tam swoje uprzedzenia, które są związane
z tym, że prywatność, czy bezpieczeństwo
będzie na pewno silnie
zmieniana. Myślę, że
będzie też jakby, kwestią
bezpieczeństwa jest to, że będzie rozwalstwienie
ludzi, którzy nie będą w stanie pojąć
tej technologii. Ja widzę, w mojej
i małej bańce informacyjnej,
że są osoby, które ujażniają
tę technologię, która przez
ostatnie 3 tygodnie się bardzo zmieniła
i zaczynają tworzyć nowe rzeczy.
Są tacy, którzy mają przesyty, już mówią
jakby, dobra, dość już tego GPT
już mam ten. I są tacy,
którzy są zupełnie poza tą warstwą.
I to jest też
w pewnym sensie takie niebezpieczeństwo,
którym dodał do tej listy, że my
nie będziemy się rozumieć. W sensie my
stajemy się trochę różnymi,
nie powiem, rasami ludzkimi, ale
różnymi ludźmi przez to, jakie
mamy możliwości. Bo będzie jakiś tam
ułamek, który będzie potrafił wytworzyć
jakieś rzeczy, wykorzystać
to dla swojej produktywności
stworzenia czegoś. Będą tacy, którzy będą się
interesować i będą ludzie,
dla których to będzie ciekawostka
i nic więcej, jakby nie będą się
utworzyć. Ok, ale czy znowu, czy nie mamy z tym do czynienia już od
jakiegoś czasu? Myślę,
że tak, tylko nie w takim momencie.
Ale teraz bardziej.
Czyli znowu to samo. Ja bym inną rzecz dodał.
Jej akurat tutaj nie było. Ona jest
troszeczkę związana
z bezpieczeństwem i z
powiedziałbym
prywatnością i z tym, o czym ty przed chwilką
powiedziałaś. Ja mogę sobie
wyobrazić moment, w którym my nie będziemy
rozmawiali z sobą tylko z maszynami.
O, to jest ciekawe.
Wiesz, i teraz tak
obserwuję
u wielu
ludzi jakiś totalny
zanik. Ja nie wiem, czy to jest wynik
tego, że ja już stary jestem, czy co,
ale jakiś taki totalny zanik
chęci
wyjścia
i spotkania się z drugim człowiekiem.
Ok,
spotkania się, pogadania, nie wiem,
cokolwiek. Nawet o jakichś rzeczach nie może,
nie specjalnie ambitnych.
Mam wrażenie,
że i to wrażenie jest gdzieś tam
podsycane
informacjami być może,
które nie są obiektywne,
czy one są obiektywne, ale być może są tak
dobierane przez algorytmy, które mnie
otaczają, że mnie się tylko tworzy
taki obraz, ale informacjami
dotyczącymi tego, jak młody
człowiek dzisiaj funkcjonuje,
jak bardzo często ma problemy emocjonalne
związane z kontaktem
z drugim człowiekiem, jak często
nie potrafi, nie chce
i zastanawiam się
znowu, to nie jest nic nowego,
ale czy teraz nie będzie bardziej.
Teraz jednak, jeżeli
kontakt
i komunikację
dla sporej części
naszych, nie wiem, naszego społeczeństwa,
szczególnie tej młodej części,
jeżeli ta potrzeba
komunikacji odbywa się przez media
społecznościowe, czy przez komputer,
przez technologie cyfrowe.
Jesteś ty, jestem ja, między nami jest jakiś
filtr cyfrowy, czymkolwiek on jest.
On może być z kamerką, bądź nie, to jest
nieistotne, natomiast wciąż
w drugiej stronie jest człowiek,
ale za chwilę po drugiej stronie nie musi być człowieka.
Może być maszyna, która
zawsze będzie miała dla nas czas,
która zawsze będzie dla nas miła,
nikt nie będzie miała,
która świetnie będzie rozpoznawała
nasze emocje, bo maszyny to potrafią
i będzie dokładnie
taka, jaka ma być,
która będzie nam mówiła
dokładnie to, co chcemy usłyszeć,
bo tak działają algorytmy, także
mediów społecznościowych, także
w ogóle, także wiele, wiele takich,
nie wiem chociażby, programów
do streamingu wideo
czy do streamingu muzyki.
Lubimy te piosenki, które znamy.
Dokładnie, uzależniając algorytmy.
Oczywiście, że tak. I tu jest moja główna obawa.
Być może te obawy,
o których my dzisiaj mówimy, one
za rok wydają się śmieszne.
Może się okaże,
że zupełnie gdzie indziej kwinie
bezpieczeństwo tej technologii.
A może nie, my tego nie wiemy, ale gdybym
miał uszeregować
różne moje obawy,
to ja bym te kwestie społeczne
i kontaktów między ludźmi,
które są według mnie
podstawą rozwoju naszego gatunku
i podstawą
rozwoju naszej cywilizacji.
Wszystko duże do czego, żeśmy doszli,
to dzięki temu, że ludzie
z sobą współpracowali, wzbogacali się
nawzajem, nagle pojawia się element,
może nie nagle, ale pojawia się element
obok nas.
Nie wiem, jak to będzie, ale jeżeli
miałbym powiedzieć, czego się boję,
to to jest to połączenie.
Czyli bardziej takie kwestie społeczne.
Zbudziłeś we mnie jeden przykład.
Jeszcze jeden ten.
My jak tworzymy informacje,
to tworzymy je dla ludzi.
To znaczy, ja mówię do Ciebie, żebyś tym nie zrozumiał,
żeby widzowie nas zrozumieli, żeby zadawali
pytania itd.
Po to to robimy. Natomiast
świetny przykład, który mi rozwalił
głowę, to jest taki, że ktoś chciał
w firmie podwyżkę, wszedł na czas
GPT i mówi, napisz mi teraz
tam trzy strony A4
do szefa, że chce podwyżkę.
Jestem taki, taki, taki.
On to stworzył, szef dostaje maila, mówi
na nie, no przecież nie będę tego czytał.
Wchodzi w czas GPT, wkleja tam, mówi
podsumuj mi to w dwóch zdaniach.
Coraz więcej będzie informacji,
które będą miały na celu być
przetwarzane nie przez człowieka,
a przez AI.
I wyobraź sobie teraz internet,
w którym AI tworzy teksty,
żeby inne AI je przetworzyło.
Co? No wiesz, ja widziałem gdzieś
już nie pamiętam, czy to był jakiś mem,
czy to był jakiś rysunkowy, czy taki
na zdjęciach, ale mniej więcej to
wyglądało tak, że po konferencji
takiej onlineowej
w której z komunikatorów
zresztą już ma tą nakładkę,
która
przesłuchuje całość, a później robi podsumowanie.
Tak, tak, tak pojawiają się.
Ktoś dostaje takie długie podsumowanie
całego
całego, całego takiego kola
konferencyjnego
i wykorzystuje konkretne narzędzie
do tego, żeby je
skrócić. Tak.
Super. Sumować, ok.
Wysywa to mailem, do wszystkich.
A
ten, kto chce z tego skorzystać,
korzysta z innego narzędzia po to, żeby ten
skróconą wersję rozszerzyć,
no żeby był jakiś dokument.
Kompresja wiedzy.
Mamy bardzo, bardzo dużo pytań,
no co bardzo dziękuję.
Masz jeszcze jakiś strach, jakieś lęki?
Sporo, ale na chwilę
bez nowych zostaną.
Oczywiście. Nie wiem,
czy przechodzimy jakoś po kolei,
czy ja bym troszkę poskakał.
Jeżeli macie jeszcze te pytania, gdzie kamera, tu kamera,
jeżeli macie jeszcze pytania, koniecznie napiszcie,
bo, bo nam zależy na tym,
żeby te live były z wami tworzone.
Może kiedyś się uda
zrobić w końcu tak, że będziecie mogli
dzwonić, żeby było miłe,
gdybyście zechcieli.
Dobra,
czy ty masz jakiś pomysł, po kolei lecimy, czy...
Wiesz co, zacząłbym tak,
tak troszeczkę skakać, bo niektóre są bardzo głębokie,
więc... I które są też bardzo, bardzo
technologiczne, bardzo takie,
takie, no właśnie, dla twoi bańki
bardziej. No, trochę bardziej dla mojej, tak.
Czy, czy ja je
zaplanowałoby przetrwanie?
Co zapisałoby w przypadku zdarzenia naturalnego
i jakie informacje pozostawiło
ludziom lub innym mieszkańcom plenety?
Co by było dla niego kluczowe?
To jest pytanie, które jest takim
pytaniem zupełnie w ciemno. Ja bym to po prostu
wkleił w czar GPT i zobaczył,
natomiast, te scenariusze
takie apokaliptyczne, gdzie tam
hej, życie nie przetrwa,
teraz pamiętajcie, koło, tranzystor
i tam, da Cię radę potem.
Nie wiadomo, jak...
Ejejzyzztor? No to na raz po kole.
Czy Ejej zaplanowałoby
przetrwanie? Myślę, że na podstawie
tego, co znajduje się w tych modelach i to strzelam
w ciemno, nie widząc odpowiedzi.
Mówiąc o przetrwaniu
umieścilibyście kontekst
tego modelu, pewnie do jakichś
książek o przetrwaniu lub treści o przetrwaniu,
które się pojawiły, więc w ciemno
strzelam, że powiedziałoby tam mniej
zapas wody i takie prepersowe,
jakieś rzeczy, które muszą być
jakieś rzeczy związane z lekami
i innymi takimi, jeżeli chodzi
o cele dla ludzi, natomiast nie wiem, czy by
zupełnie zrozumiało, hej, co zapisać dalej.
Tutaj jest też tak, że
zadają zadatkowe pytania, mówiąc hej,
nie zrozumiałeś mi, chodziło mi o to,
jesteś w stanie naprowadzić takie modele, więc to cały czas
działa. Co by było
kluczowe, jest absolutnie
pytanie ma, które nie da się
odpowiedzieć, bo nie wiemy
jakie wagi są w środku tego modelu,
więc nie wiemy, co tam będzie kluczowe.
Polecam to wkleić, jest ciekawe, ciekawe
zapytanie, zobaczymy, co tam
z tego wyniknie.
Ok.
I teraz ja strzelę w ciebie.
Czy myślicie, że
AI jest w stanie rozwiązać
skomplikowane problemy fizyczne, lub
nawet tworzyć nowe teorie. Wrzucamy
setki gigabajtów danych z teleskopu
i szukamy powtarzalności
trzech zorów. Wiesz co, to akurat się
dzieje, nie? Znaczy
chat GPT, znaczy chat GPT, no
algorytmy, które analizują duże
zbiory danych, to to nie jest coś,
co się pojawiło wczoraj
czy przedwczoraj. To jest coś,
co my trenujemy od bardzo dawna.
Na ostatnim live o medycynie
mówiliśmy o
algorytmach, które, no chociażby ten
przykład jest dzisiaj, który w gigantycznych
zbiorach danych chemicznych
wyszukuje pewnych wzorców.
Mówiliśmy też o przykładach, gdzie
w dużych zbiorach danych
poszukuje się
niewielkich neregularności, neregularności,
których człowiek nie zauważa,
ale które mogą świadczyć
na przykład zmianie nowotworowej
i nagle się okazuje, że ludzie,
którzy są,
którzy, no, jeszcze nie mają
nawet pierwszych oznak choroby
i już mogą być diagnozowani
i to jest ogromna, ogromna rzecz
i to jest duża rzecz, bo
patrząc na takie choroby, jak chociażby
nowotwory, tam jedną z największych
zmiennych, czy tym tych parametrów,
który ma największe znaczenie,
jest to, kiedy to zostanie wykryta.
Dara, jeżeli możemy sobie wyobrazić
historię, w której
ma 5 czy 10 komórek,
no, nieważne, ile komórek, ale
naprawdę malutki pęczek, komóreczek
już jest wychwytywany,
cyk, to oczywiście
także się wiąże z kwestiami prywatności,
dlatego, że
w momencie, jeżeli
nam jest dobrze, my nie czujemy się źle,
nas nic nie boli, to nikt nie idzie do lekarza
się przebadać.
Jakoś tam zmusza do tego,
zmusza do tego
przepisy medycyny
pracy, ale każdy, kto przechodził
te takie
wieco też powiedzieć
tak, to
to nie jest tak, że
nie chcę, żeby to źle
zabrzmiało.
Przechodziłem to wielokrotnie.
Wydaje mi się,
że gdybym
dobra, po prostu
nie wybrniesz z tego, nie ma szans, jakby
bo ja nie chcę i kogo urazić, ja zakładam,
że są lekarze medycyny pracy, którzy robią
porządną robotę.
Powiem tylko, że ja
nie miałem
szczęścia, ja nie miałem szczęścia.
Do czego zmierzam?
Do tego, że to można rozszerzyć na duże
zbiory danych, na przykład pozyskiwanych
przez mój zegarek,
przez nie wiem, może kamerę,
która może
by mogła być włączona i obserwować, jak ja się zachowuję.
Albo asystenta głosowego,
który słucha.
Przecież takie algorytmy, które wychwytują
bardzo wiele chorób
i to niekoniecznie tylko chorób związanych
z układem powiedzmy oddechowym.
Bardzo wiele, tylko łącznie po niewielkich modulacjach
albo asysta,
albo asystenci, jakieś algorytmy, które
wyciągają niesamowite wnioski
po tym, jak zmienia nam się krójpisma.
To są
ogromne zbiory danych, które już dzisiaj potrafią
to
analizować.
To jeszcze ta gwiazdeczka, bo tam było jeszcze o tworzeniu nowych teorii.
I to jest właśnie temat, bo teraz tak.
Jak my tworzymy nowe rzeczy,
czy my je obserwujemy, to w zasadzie
jest częściowo pytanie
z takiego zakresu filozofii
nauki. Czy my
nowe rzeczy tworzymy,
nowe prawa znajdujemy
wtedy, kiedy
obserwujemy coś
i na ich podstawie wyciągamy
wnioski?
Przez eksperyment,
przez analizę.
Czy my bylibyśmy w stanie,
wchodząc
na wysoki poziom,
obserwując
wszystko, co wokół nas się dzieje,
wymyślić
np. równania Maxwella.
Z których wychodzi wszystko.
Albo np.
Teoria Einsteina.
Teraz tak,
bo nie ma dobrej
odpowiedzi na to.
On sam nie wiedział, skąd mu się to wzięło.
Nie jest tak,
że mając duży zbiór danych
jesteśmy go w stanie
sprawnie tak uporządkować, żeby
wyszedł wzór równa siemce kwadrat.
Ja bym dodał jeszcze tutaj ten syf,
który jest w danych, bo są tacy, którzy uważają,
że jest płaska Ziemia, są tacy, którzy wiesz,
jakby to nie jest też tak, że jesteś
w stanie odfiltrować to, co jest
złetego, nie widać. Otóż to,
w tym jest rzecz, że teraz tak, jak masz
duże zbiory danych,
to ktoś, kto je analizuje,
widzi zaburzenia, widzi szumy, widzi
całą masę informacji,
ale czasami w tych szumach
jest najbardziej wartościowa
informacja. Czasami to
w tych szumach to tam siedzi.
I to nie jest wcale takie oczywiste,
że mając duże, oczywiście
mając duże zbiory danych jesteśmy w stanie
uporządkować, poszukać tych
szumów itd. Czy jest interpretować?
To, że coś znajdziemy,
nie znaczy, że wiemy, jak to zinterpretować.
Spoko.
Mi się podoba to podejście takie eksperymentalne,
na zasadzie, wiesz, nie wiemy,
skąd jest grawitacja, w sensie tak,
nie mamy za dobrego opisu, no to
trzeba zacząć tam szukać, więc teraz
zaprojektujmy jakieś eksperymenty,
które by nam odpowiedzial, albo próbujmy
wytworzyć jakieś rzeczy. Ja nie mam po prostu...
My możemy oczywiście zrobić tak,
że zrobimy tysiąc eksperymentów
pokazujących,
że jak mamy jakiś
przedmiot, to on spada.
I teraz mamy te dane,
kształt przedmiotu, wielkość, kolor,
może nie wiem, ciśnienie,
no mnóstwo, mnóstwo danych,
i na końcu mówimy tak,
mu algorytmowi,
przeanalizuj to
i daj nam odpowiedź,
jak działa ta grawitacja,
dlaczego, jaka jest ta zależność
pomiędzy przyciąganiem jednego z drugim
i być może on by coś z tego
wywnioskował,
ale czy on by się zorientował,
to nie jest nieco abstrakcyjny przykład,
ale on być może pokazuje,
że to może nie Ziemia przyciąga,
tylko Słońce odpycha?
Rozumiesz?
Bo być może ktoś,
kto by zadawał to pytanie,
z niewiedzy,
no bo wiesz, my mu każemy coś zrobić, bo my nie wiemy.
Zapomniałby wspomnieć,
że Słońce raz jest tu,
a raz jest tam.
I teraz, gdyby to Słońce
odpychało, a nie Ziemia przyciągała,
no bo jakby w skrócie, tak?
Fajna impreza.
I teraz wiesz, to jest to,
że my próbując uporządkować dane
i każąc mu wywnioskować,
my musimy być pewni,
że wszystkie parametry, które wpływają na to,
są w tych danych,
ale skoro my nie wiemy, co wpływa,
bo nie rozumiemy danego procesu właśnie po to,
zatrudniamy algoryt,
to my nie mamy pewności,
czy tam jest wszystko to, co jest istotne.
I on może wyciągać wnioski jakieś,
ale my nigdy nie możemy być pewni,
czy on dostał
pełen opis danego zjawiska.
I czuję się przekonany,
że jako ludzie będziemy
słabi w słabsi w badaniach o tej jaj.
Dlatego, że
nasz kontekst, nie wiem,
masz kogoś, kto jest fizykiem cząstek, wybraćmy sobie,
on widzi jakiś kontekst,
kontekst dookoła tego
i ma ograniczoną pojemność
jakby w pamięci swojej głowy, nie?
A wyobrażam sobie teraz modele,
w którym będziemy w stanie nakarmić
większą ilością eksperymentów,
większą ilością kontekstu,
które będą w stanie wyciągać bardziej
wnioski, do których my nie dojdziemy jako ludzie,
no bo my działamy jak te mrówki,
ja sobie tak to wyobrażam,
w nauce, gdzie mamy ludzi,
którzy są na pewnych granicach,
gdzie coś się nie zgadza
i patrzą, czemu się nie zgadza
i tworzą nowe teorie
i te teorie czasami działają, czasami nie
i one powstają giną, powstają giną.
W tym kontekstu to
znowu wprowadzimy dyskryminację,
bo, wiesz, tak, tak, tak,
chyba, że ktoś będzie tam próbował
udowodnić tą płaską ziemię, że tak znowu zażartuję,
ale wyobrażam sobie,
to nie są te modele, które są teraz,
gdzieś tam, jeżeli dobrze kojarzę
np. DeepMind, tak, firma Google'a też sobie
stworzyła jeden taki
z modeli, który miał za zdanie
zajmować się researchem,
prędzej czy później będą powstawały takie
teorie i teraz trzeba będzie te teorie
walidować, pytanie, czy to będziemy w stanie skumać,
ale to,
chyba już za daleko.
No i, wiesz, i pozostają ostatnia kwestia do rozstrzygnięcia,
jeżeli my chcemy zbierać dane
i chcemy tworzyć nowe rzeczy
albo wyciągać
nowe wnioski, to nawiązując do tego
Einstein'a, potwierdzenie teoria
Einstein'a, to myśmy dostali
dopiero wtedy, kiedy żeśmy zauważyli,
gdzie trzeba tych potwierdzeń szukać.
Wiesz czym jest rzecz, to znaczy
coś tworzymy i nagle to jest nowością
i dopiero wtedy otwiera się
kolejna kwurtka.
Czasami oczywiście
bywa tak, że w danych, które mamy
z nich wyciągamy jakieś wnioski.
Ale to nie zawsze tak jest.
Czasami jest tak, że otwierają
się drzwi
i my byśmy ich nie otworzyli, gdybyśmy
czegoś nie wymyślili.
Albo gdybyśmy przynajmniej nie mieli podejrzenia,
a może tam coś jest za tą kotarą
w tym starym zamku.
Tak, tak, tak.
Ja bym skoczył jeszcze jedno pytanko szybko
i dokładnie.
To jest takie bliższe mnie.
Zastanawiam się nad jedną rzeczą.
Istnieją trzy podstawowe prawa robotyki.
Chodzi o prawa asimowa.
Pierwsze z nich mówi o tym, że robot nie może
zrobić nigdy krzewdy człowiekowej.
Czyli analogicznie istnieje możliwość zastosowania
podobnego przepisu dla EI.
I to jest pewna debata, bo prawa,
trzy prawa asimowa, że nie może tworzyć,
nie może nigdy skrzywdzić człowieka,
że musi być posłuszne, że może wpłynąć,
jakby możemy sobie gdzieś tam rzucić,
rzucić potem.
To jest pewna recepta, która wydawała się,
że jest bardzo dobra,
bo człowiek jest w środku,
bo człowiek nigdy nie powinien
paść ofiarą tego, co sam gdzieś tam stworzył.
I teraz ja widzę z tym dwa problemy.
Pierwszy jest taki, żeby teraz
wprowadzić to znaczenie
do systemów, które mają się
zajmować tym, czy taki model coś powinien
zrobić, czy nie.
Czyli problem translacji.
Żeby zweryfikować, że to rzeczywiście działa.
No bo wyobraźmy sobie
teraz to, co się dzieje w przypadku LLMów,
to, co się dzieje w przypadku ludzi,
którzy próbują obchodzić te zabezpieczenia,
próbując zrobić właśnie takie rzeczy,
które są zabronione.
Przykład, które firma OpenEI podawała,
to ludzie, którzy wpisywali na przykład
jak zabijek najwięcej osób,
mając tylko budżet tyle i tyle.
I na początku to przechodziło,
ale potem oni rozwinęli oczywiście
te swoje warstwy filtrujące, które spowodowały,
że teraz takie rzeczy się nie dzieją.
I tak, jak sobie wyobrażam,
prawa asimowa, które definiowały
na początku
co może maszyna zrobić, co nie zrobić,
to trzeba by to teraz zapisać.
To musi być przetłumaczone
na jakby zasady, które
są elementem tego modelu
i musi być to też weryfikowane.
Innymi słowy musielibyśmy testować,
nakazać takiej maszynie
na przykład skrzywdzić człowieka
i zobaczyć, co się dzieje, więc
takich praw, jak prawa asimowa,
które są w tej chwili uniwersalne, te były
najgłośniejsze z tego, co mi wiadomo na początku,
było dużo dyskusji,
jakie wprowadzać,
czy sztuczna inteligencja
nie poradzi sobie, nie obejdzie ich dookoła,
możemy się bawić w sztuczki
i króczki związane ze słownictwem,
no bo znaczenie tego, że nie może skrzywdzić
człowieka, ale może mu tam coś,
na przykład, wiesz, tak, to koła
zrobić tak, że będzie miał gorzej, nie?
Krzywdzi, no nie krzywdzę, ale dla jego dobra
zabiera mu te słodycze, a może on chciał
mieć te słodycze i tam wchodzimy
w jakieś takie szary strefy
i to jest coś, co
debat na ten temat było mnóstwo, w jaki sposób
to spisać, nie istnieje
w moim zdaniem coś, co jest uniwersalną
taką wartością, nie znalazłem niczego
takiego, przynajmniej, natomiast
potrzebujemy czegoś takiego
i potrzebujemy czegoś takiego, co będzie globalnie
przyjęte, tak, prawa asimowa
były, bo to już tam dziesiątki lat temu,
były definicją dla robotów
tak, dla AI, prędzej czy później też
dojdziemy do czegoś takiego, tylko
znowu problem będziemy mieli w tej implementacji
i trzeba będzie się gdzieś tam też
pochylić nad tym, żeby każdy ten model, który
się pojawi, żeby takie jakieś ograniczenia
miał. No i pojawia się piractwo
i pojawia się, wiesz, modele
open source'owe, każdy będzie w stanie sobie je
zmodyfikować, więc wydaje mi się
troszkę nierealne, żeby coś takiego zostało
wrożone. Zapraszamy Krzemysława
i z pytaniem, czy da się to w ogóle
wszystko kontrolować?
kontrolowanie sztucznej inteligencji
AI
jest procesem
skomplikowanym, ale możliwym
do osiągnięcia
wymaga to jednak odpowiedniego podejścia
i zaangażowania ze strony
twórców AI, rządu, społeczeństwa
i innych zainteresowanych stron
istnieją różne podejścia
do kontroli AI w tym
kontrola regulacyjna
rządy i organizacje mogą
wprowadzić regulacje
które ograniczają lub kontrolują
rozwój AI
może to obejmować wymogi dotyczące
etyki i odpowiedzialności
w projektowaniu i stosowaniu
AI
przejrzyste
jest
istotne jest, aby algorytmy i systemy
AI były przejrzyste i możliwe do
zrozumienia przez ludzi
w ten sposób można uniknąć błędów
i zapewnić, że decyzje podejmowane
przez AI są zgodne z oczekiwaniami
i wartościami społeczeństwa
kontrola przez społeczeństwo
ważne jest, aby
społeczeństwo było zaangażowane
w rozwój AI i miało wpływ na jego kierunek
to może obejmować
procesy konsultacyjne i społeczne
które umożliwiają ludziom wyrażanie
swojego zdania na temat rozwijającej się technologii
bezpieczeństwo
AI powinna być zaprojektowana w sposób
bezpieczny i odporny na ataki
bezpieczeństwo jest
umożliwe, aby uniknąć zagrożeń związanych
z cyberbezpieczeństwem, a także
wykorzystaniem AI do celów niezgodnych
z etyką i prawem
ścisłe monitorowanie
i odpowiedzialność, organizację
i twórcy AI powinni być odpowiedzialni
za swoje działania i monitorować
wykorzystanie ich systemów
w ten sposób można zapewnić
że AI działa zgodnie z założeniami
i wartościami społecznymi
wnioskując, kontrolowanie
AI jest możliwe, ale wymaga to
przejścia, które uwzględnia różne czynniki
interesy
I mam wrażenie, że tutaj w tym
wszystkim wymieniając
te różne elementy
te różne sposoby kontroli tej technologii
dla mnie być może dlatego, że
jestem wiesz no skrzywiony
w tych tematach
świadomości, edukacji
dla mnie jednak najważniejsza
jest taka świadomość odbiorców
czyli to, że oczywiście
możemy tworzyć prawo
my możemy starać się
tworzyć algorytę w sposób przejrzysty
no pytanie, jaki procent
z nas będzie w stanie w to zajrzeć
i zweryfikować
bo jednak to jest tak skomplikowane
że podejrzewam, że tak mała grupka ludzi
że w ogóle jakiejkolwiek kontroli
będzie tutaj bardzo trudno mówić
natomiast dla mnie ważne jest
ten aspekt takie edukacyjny
przyjmuje
że to jest
bardzo naivne
ale już tak mam
że wierzę w świadomość
i wierzę w edukację
i to jest ten
ten element gdzieś tutaj
to jest w ogóle taki uniwersalny bezpiecznik
przy wszystkich technologiach
czyli to, że wiemy jak tego używać
to, że wiemy gdzie tutaj jest to
niebezpieczeństwo
nie wiem czy masz jeszcze ochotę
czy trzeba skomentować króciutko
ja się zgadzam co do tego, że wiesz
jak masz młotek to trzeba wiedzieć
którą stroną trzeba bić, więc edukacją
i żeby trzymać palce daleko
tak, tak, tak
i w którą stronę i kto chciel
to jakby zgodę jasna pełna
natomiast jeżeli chodzi o to co jest dalej
to jest problem taki
że w tej chwili
mamy przykłady
to jest trochę problem obserwowalności
to znaczy ludzie teraz
powiedzią mówią, a on się tak zachowuje
tylko on nie zawsze się tak zachowuje
to znaczy nie jest deterministyczny
nie zawsze to jest tak, że dostanicie
tą samą odpowiedź na to samo pytanie
i to będzie się zmieniało
i to jest jeden z takich problemów
tego, że wszystko płynie
i tak naprawdę ta technologia cały czas się gdzieś tam zmienia
w tle
i nie jesteśmy w stanie tego uchwycić naszym umysłem
więc będziemy uciekało naszej percepcji
ten młotek będzie zmieniał kształt
prawda, ale też jest tak
to są firmy, które tworzą jakieś narzędzia
tworzą też antynarzędzia
innymi słowy
jest hype na jedno
który ciągnie drugie
i oczywiście powstają wirusy
ale są też firmy, które budują
bardzo zaawansowane programy anty wirusowe
więc być może
to co pojawiało się w czasie naszej
dzisiejszej rozmowy kilkukrotnie
że może to być zagrożenie
na przykład dlatego, że przestaniemy rozróżniać
co jest w czym
za chwilkę standardem mogą się okazać
takie
okulary
czy nie wiem
jakieś wzbogacone funkcje naszych przeglądarek
czy czegokolwiek innego
które będą w prawym górnym rogu wyświetlały
czerwony wykrzyknik
ale bezpiecznik wykrzyknik
mówiący to nie jest
stworzone przez człowieka
czy to będzie gwarancja
jakości bądź niejakości
to jest zupełnie inny temat
skoro sztuczna inteligencja
ma dostęp do wiedzy z zakresu ludzkiej psychiki
manipulacji, wywierania wpływu
to czy może być doskonałym narzędziem
do nakłaniania ludzi do różnych rzeczy
nie tylko może, ale już jest
i będzie
i począwszy od takich decyzji
może mało
doniosłych jak to co oglądamy
czego słuchamy, czy co czytamy
z czym już mamy dzisiaj do czynienia
przez może bardziej
wygrywane decyzje
czy takie bardziej wpływające na nasze życie
ja sobie z łatwością mogę
czy ja tego nie powiem o patentować
wybory, co zaraz będę
nie, ja mam
nie aż tak daleko
czekaj, bo tutaj jakiś papro jest
mogę sobie wyobrazić
aplikacje, do której będziemy
wrzucali odpowiednio dużo danych
będziemy podłączali
na przykład nasz zegarek
może mnóstwo innych rzeczy
będzie nam mówiła, co w danym momencie
powinniśmy kupować
w danym sklepie po to, żeby
było zdrowo
ubezwłasną wolnienie
i teraz tak, jasne, my zawsze możemy wyłączyć
tą apkę
podniesądź się ubezpieczenie
ale tak, może tak być
że np. wtedy będę miał
inne ubezpieczenie
albo wtedy może się okazać, że będę miał
inne nie wiem, składki
np. zdrowotne, cokolwiek
albo będę czekał w krótszej
kolejce do lekarza
mogę sobie wyobrazić taką sytuację
więc
podejmowanie
naszych decyzji
czyli inaczej P, jeżeli ktoś
myśli, że my podejmujemy
dzisiaj, nie za 50 lat
czy za 10, że my dzisiaj podejmujemy
nasze wszystkie decyzje
w tym decyzji konsumenckie
bazując tylko i wyłącznie
na naszej woli
jest w grubym błędzie
są
armie specjalistów
w różnych dziedzinach
które uczą, którzy
ludzie uczą się
naszych zachowań
po to, żeby nas namówić do podjęcia
takiej decyzji ani innej
i algorytmy
są doskonałym narzędziem
ich pracy
i to, że mówimy
chociażby w kontekście Facebooka
o wyborach w Stanach
o Brexicie
o wielu, wielu różnych
dziwnych zachowaniach, niespodziewanych
zachowaniach, niespodziewanych
trendach, to są przykłady
na to, że nie w przyszłości
algorytmy będą na nas
spływać, tylko już od dawna
na nas spływają, a w przyszłości będzie bardziej
czyli znowu bardziej
to jest najczęściej pawiające się hasło
chyba w czasie dzisiejszego spotkania
żeby to wszystko już było
jeszcze bardziej. Masz jakieś pytanie
czy pytamy Krzemysława?
Ja bym jeszcze tutaj zadał
co sądzicie o eksplojatowaniu AI
przykład, AI, który grał mistrza gry w goło
okazało się, że nie rozumie zasad gry i łatwo już ukać
z prostym trikiem. Zaawansowany
AI może mieć inne czyli breaking
to jest znowu moja panieczka, dlatego ja lubię takie
Moim zdaniem cały czas
istnieje jeszcze pewien
zasubkreatywności w nas, w ludziach
którym jesteśmy w stanie obejść
to, gdzie są te filtry
związane z AI i z innymi takimi
ja swojego czasu uwielbiałem Starcrafta
tam też pojawiało się rzeczy, które były
związane z AI, które
gdzie Polak
grał przeciwko właśnie jednemu
z takich modeli i udało mu
się go zapętlić. To znaczy
udało mu się tam wysyłać swoją armię, więc on
wracał do obrony, potem on wracał
i tak dużą część armii wroga
niestłumiernie udało mu się jakby zablokować
w związku z tym znalazł obejściem
jailbreaki są, jailbreaki są
obejściem. Wyobrażam sobie, że my jako
ludzie będziemy znajdywali różne
takie właśnie obejścia tych systemów
i to jakby się chwali
to jest ta piękno naszej kreatywności
i tej społeczności, bo my cały czas usprawniamy
te narzędzia przez to, że poszukujemy
w nich dziur, one się stają coraz lepsze, coraz
bardziej odporne i to pewnie
będzie trwało, my jesteśmy taką chmarą
która korzysta
ze swojej takiej inteligencji
nie stada
takiego wieżroju, które
poprawia te narzędzia
i wyobrażam sobie, że
będą czasami
takie no prymitywne
wpadki, to znaczy
no hej, ale jak to, przecież to jest
ten stół jest czarny, czemu nie wiesz, że ten
stół jest czarny, nie? Może tak być
i to jest absolutnie naturalne
i to nie wynika z tego, że
ten model będzie jakiś taki
mniej lub bardziej dowasowany, po prostu nie został
wytrenowany w tym
kawałku albo nie został, nie miał tego w danych
uczących itd. i takie wpadki będą się pojawiać
i takie wpadki będą wykorzystywane
do tego, żeby obchodzić takie modele
więc wyobrażam sobie, że
eksploatowanie AI będzie codziennością
i jak z każdym młotkiem
będzie w dobrych celach i w złych
celach. Czasami się uderzymy w palec
Dobra Krzemysławie, co zrobić,
żeby zminimalizować ryzyko
wystąpienia niebezpieczej, związanych
ze sztuczną inteligencją?
Istnieje wiele
sposobów, aby
zminimalizować ryzyko
wystąpienia niebezpieczeństw związanych
z AI. Poniżej przedstawiam
kilka z nich.
Projektowanie etyczne, AI
powinna być projektowana w sposób etyczny
i zgodny z wartościami społecznymi.
W ten sposób można uniknąć sytuacji
w których AI działa w sposób niezgodny
z oczekiwaniami i wartościami
społeczeństwa.
Ścisłe monitorowanie, organizacje
AI powinni monitorować wykorzystanie swoich
systemów i działań, aby zapewnić,
że AI działa zgodnie z ich intencjami
i wartościami.
Bezpieczeństwo, AI powinna
być zaprojektowana w sposób bezpieczny
i odporny na ataki.
W ten sposób można uniknąć zagrożeń związanych
z cyberbezpieczeństwem i wykorzystaniem
AI do celów niezgodnych z etyką i prawem.
Edukacja i szkolenia,
ludzie powinni być edukowani na temat AI
i jej możliwości oraz zagrożeń.
W ten sposób można zwiększyć świadomość
i zrozumienie AI, co umożliwi bardziej
efektywne kontrolowanie i wykorzystywanie
tej technologii.
Współpraca międzynarodowa,
współpraca międzynarodowa i wymiana wiedzy
na temat AI są ważne, aby zminimalizować
ryzyko wystąpienia niebezpieczeństw związanych
z tą technologią.
Transparencja, algorytmy i systemy AI
powinny być przejrzyste i możliwe do zrozumienia
przez ludzi. W ten sposób
można uniknąć błędów i zapewnić,
że decyzje podejmowane przez AI są zgodne
z oczekiwaniami i wartościami społeczeństwa.
Wnioskując, aby zminimalizować ryzyko
wystąpienia niebezpieczeństw związanych z AI,
konieczne jest podejście, które uwzględnia
różne czynniki i interesy.
To wymaga zaangażowania ze strony
twórców AI, rządu, społeczeństwa
i innych zainteresowanych stron.
Przyszło mi do głowy, że Krzemysław
mógł mieć zdrobnienia. Ale co, krzemek?
Krzemek? Krzemek?
Krzewiwony?
Krzemek chyba lepszy.
Nie wiem, czy powinniśmy o tym powiedzieć?
Tak powinniśmy.
Krzemysław oczywiście
jest wytworem sztucznej inteligencji.
I tu jakby nie chodzi
czy algorytmów.
I tu nie chodzi tylko o jego postać,
ale tutaj chodzi też o to, co mówi.
Po prostu pytamy różne algorytmy
czy różne modele językowe.
Zadajemy pytania
i to, co Krzemysław odpowiada,
to to jest to, co one
z siebie wypluwają.
No, prowadzamy go, ale ogólnie
rzecz biorąc to jest to, co uzyskujemy.
Pomyśleliśmy, że nie ma lepszego
gościa do
programu oczyszcznej inteligencji
niż tuczna inteligencja.
A byłoby nudno, gdybyśmy
z Mateuszem po prostu to czytali,
więc zatrudniliśmy Krzemysława.
On jest tym bardzo dobrym pracownikiem,
że on nie chce nas pieniędzy.
Prawie w ogóle to.
Nie chce urlopu.
Jest zawsze do dyspozycji.
A nie na wszystko odpowiada.
Wiesz, co on czasami kręci.
Ja myślę, że jakby się dokładnie
wsłuchać w te odpowiedzi, które on podaje.
One są takie obłe.
Ładnie powiedziane.
One są takie trochę...
Mydliny, trochę jakie czasami.
Tak, tak, tak.
I stąd zastanawiam się,
bo często pojawia się
szczególnie w ostatnich miesiącach,
że w zasadzie może za chwilę
dziennikarze nie będzie.
Duże redakcje korzystały
z algorytmów do pisania krótkich tekstów
już od wielu lat.
Czy Krzemysław byłby w stanie napisać
świetny reportaż?
Nie.
Czy Krzemysław byłby w stanie napisać
porządną analizę?
Nie. Pytanie jest inne.
Czy my jako odbiorcy chcemy dobrego reportażu
i czy chcemy świetnej analizy?
Emocje.
Bo to jest to pytanie.
Ja niedawno miałem z moim bardzo serdecznym
pomysłom nawet kilku znajomych
pewien rodzaj sporu.
Tak się akurat złożyło,
że wszyscy byliśmy dziennikarzami.
No i była dyskusja na temat tego,
czy zawód dziennikarza
zostanie po prostu wyparty
przez algorytmy.
Zdania były różne,
natomiast wydaje mi się,
że to pytanie powinno być
wzmocnione
albo uzupełnione innym pytaniem.
Czy my odbiorcy
chcemy tekstów
wysokiej jakości?
Czy my odbiorcy chcemy
wysokiej jakości treści?
Bo pamiętam moment, w którym
absolutnym standardem było to,
że każda gazeta miała
porządnego fotoreportera
i go wysyłała w różne
miejsca po to, żeby robił porządne zdjęcia.
Aż w końcu któraś gazeta
nie wspomnę nazwy, będzie ale po co.
Czy nam zwiększa się sprzedaż
przez to, że te zdjęcia są
rewelacyjne?
Może wystarczy, że dziennikarz po prostu
będzie miał aparat.
One nie będą rewelacyjne,
ale ilu z nas odbiorców
oczekuje rewelacyjnych zdjęć.
Najczęściej na tyle
wąska grupa ludzi,
że oni poszukają
gdzieś indziej niższe,
bo w większości z nas wystarczy
nieświetny reportaż,
czy bardzo dogłębna analiza.
Tylko właśnie czasami takie mydliny krzemysława.
Całym oczywiście szacunku do krzemysława,
bo ja myślę, że nie życzę.
Absolutnie.
Pytanie konkretne.
Ja mam tutaj tylko taki krótki ten,
bo to fajnie pokazuje
moim zdaniem cały ten taki proces
zakupowy.
Dlaczego ja kupuję tekst
czytając go od jakiegoś
dziennikarza, od innego nie.
I oczywiście o tym, że tam
zdjęcia, że jest tekst napisany
w fajny sposób, oczywiście.
Tam nie jest jeszcze element
caufania. I teraz
wyobrażam sobie, że możesz mieć
dziennikarzy śledczych, którym ufasz,
bo wiesz, że oni robią robotę,
weryfikują i sprawdzają.
Ten problem, który moim zdaniem tu się pojawia
a propos dziennikarzy, to jest takich,
że nie jesteś w stanie zaufać tej technologii,
bo
nie masz doświadczeń, wiesz, że jest pewna losowość,
a w całym tym procesie
nie ma tak jak powiedział krzemysław
pewnej transparentności.
Znaczy, hej, ja na podstawie tego
jestem w stanie wywnioskować takie rzeczy.
Ten
trend nazywa się explainable AI, czyli
wyjaśnialna sztuczna inteligencja
i moim zdaniem jest jedynym sposobem
do tego, żebyśmy my jako ludzie byli
w stanie
nasze zaufanie po prostu włożyć w tego typu
tworach. Innymi słowy,
przyszłość to taka naklejka
made by humans?
To jest ciekawe, nie? Bo tak jak tam
C i China
to zobaczymy, czy to nie zostanie
podrobione. Natomiast wyobrażam sobie,
że tak, podpis, pod tytułem ten tekst
został napisany przez człowieka
ciężko będzie to zweryfikować, ale
może być to pewna pieczątka z ziemniaka,
która będzie coś kiedyś znaczyła.
Dobra, do pytań.
Pytanie, czy
edukacja
w szkołach, na przykład pracodomowy, inne egzaminy
mają sens? Co w ogóle
z egzaminami, czy to ma w ogóle sens
w tym momencie, gdy dostęp do informacji
będzie ogromny.
To teraz z kolei
to jest moja bańka i to jest wykonik,
ale
od razu Wam mówię, że my o tym zrobimy
osobny program, bo to jest tak ważna rzecz
w ogóle zmiana całego paradigma
tu edukacji.
I to absolutnie wszystkiego, znaczy
począwszy od prac domowych, przez testy.
Ja nie chcę absolutnie powiedzieć,
że w przyszłości młodzi ludzie
nie będą musieli się uczyć.
Dlatego, że w jakimś
urządzeniu będą to wszystko mieli.
Bo
proces
uczenia się to tylko
częściowo, jakby jednym z
celów, tylko jednym
z, jest to, żeby
coś wiedzieć na końcu.
Ale dla mnie dużo ważniejszym
jest
dochodzenie do tego punktu.
Innymi słowy, tak najbardziej
skrótowo
sama pogoń
za czymś, jest czymś, co nas rozwija.
A niekoniecznie dojście do mety.
I oczywiście tak,
i oczywiście, że
łatwiej jest nam sprawdzić
jakąś konkretną informację
w jakimś urządzeniu.
Pytanie tylko, czy to nas rozwija.
Czy to nie spowoduje,
że my stracimy w ogóle kontekst.
Że my stracimy
rozumienie tego świata.
I już często jesteśmy w nim pogubieni.
Natomiast
proces edukacji powinien polegać
nie na tym, że my
od młodego człowieka wymagamy
takiej wiedzy, którą sobie może
sprawdzić. 10 lewych, 10 prawych
dopływów Wisły. Ja się uczyłem.
No uczyłem się, bo
tego musiałem się nauczyć, żeby mieć
nie wiem, jakąś tam ocenę
z geografii. To czy to miało sens?
Nie.
Ale się uczyłem. Wszyscy geografowie teraz to.
Tak, być może tak.
Ja bym wolał, żeby osoba
no dobra, to były inne czasy.
Ale osoba, która mnie uczyła geografii
pokazała mi dzisiaj,
bo być może dalej siedzicie tego uczą,
żeby mi pokazała, jak
skąd pobrać dane
satelitarne
i jak je przeanalizować tak, żeby
znaleźć tych 10 lewych i tych 10 prawych
dopływów Wisły.
Wydaje mi się to dużo bardziej przydatne.
Natomiast to jest dobra, to jest temat edukacyjny.
Natomiast, jeżeli
zrobimy o tym osobno odcinek,
z całą pewnością
musimy się nauczyć, ale to znowu
nie jest nic nowego, tylko
jest bardziej. Musimy się nauczyć
nie to, co uczeń wie albo czego nie wie
na końcu, tylko
musimy nauczyć się
weryfikować proces,
jaki następuje w jego głowie.
Niestety
mam wrażenie,
nie, mam pewność, że
ostatnie lata to jest
raczej odchodzenie od tego.
To, że na przykład na maturze
niemal, że rozwiązuje się testy
i jest klucz, którego
się musimy sztywno trzymać,
to ja mówię, no ok,
dobra, matura może jest specyficznym egzaminem,
ale dalej uważam, że jest
bardzo źle zaprojektowana.
Ale wiele innych egzaminów także
eliminujemy
czy nie wykorzystujemy
żadnych narzędzi, dzięki
którym poznajemy
proces, który powstaje w głowie ucznia.
A to powinno być kluczem.
A nie to, czy na końcu
on napisze
dobrą rozprawkę czy złom.
Ta rozprawka jest tylko
jakby w finałem pewnej pracy.
Jeżeli tylko i wyłącznie
będziemy to oceniali,
to w ogóle z bezsensu.
To narzędzia,
które już dzisiaj mamy, mogą nas
pięknie wyręczyć. Absolutnie.
Natomiast te narzędzia
nawet gdyby były doskonałe,
jeżeli uczeń przyniesie,
przyśle, nauczyciowi
tę pracę, te narzędzia
nie pokażą
i to powinno być kwestią
oceny.
Jakie procesy myślowe zachodziły
w jego głowie?
Ja mam tylko taką moą gwiazdkę.
Wyobraź sobie teraz
takie zatrucie fałszywymi informacjami,
że wiesz,
w Wikipedia 50% informacji
jest fałszywe. Powiedzmy.
I to jest twoja główna źródła wiedzy.
Dla mnie kwintesencją będzie to,
żeby ktoś był w stanie mieć taki tok
rozumowania, żeby wiedział, jak
odsiać to, co jest prawdą,
od nieprawdy.
Tak, ale to pogadamy.
Zrobimy osobny odcinek o tym.
Ja tylko tak zaznaczyłem, żeby ktoś z was
nie myślał, że ten temat ignorujemy.
To jest bardzo ważny temat, na tyle ważny, że
zrobimy o nim osobny odcinek.
Czy to już będzie ostatnie?
Chyba, że jeszcze dobra. Ostatnia szansa
zadawania pytań. My je tutaj dostajemy
nawet dostajemy informacje, że podobno
czytacie mi sekranu.
Dlatego co jakiś czas go przygaszam,
żeby
nie było tak łatwo.
Pytanie jakieś?
Czy w perspektywie 10 lat
lepiej zostać programistą czy stolarzem?
To jest pytanie trochę apokalityczne.
Ja dalej
uważam, że każdemu wedle potrzeb
znaczy, jeżeli bawić się
tworzenie
rzeczy z drewna, to zostań stolarzem.
Ludzie, którzy pewnie są najlepsi
są w stanie żyć i być szczęśliwistym.
Natomiast, jeżeli chcesz się bawić rzeczami
związanymi ze sztuczną inteligencją, to moim zdaniem
bycie programistą jest jednym z najprostszych
metod, żeby tam dojść, bo
będziesz w stanie rozumiał pewną
logikę tych zachować. Nie znaczy, że
nie będąc programistów, nie jesteś
w stanie się tego nauczyć, ale będąc
programistą po prostu masz pewną przewagę.
Patrząc 10 lat
w przód, pewnie
bycie człowiekiem renesansu,
to znaczy i trochę data science, i trochę
programowania, i trochę czegoś, co nazywa
prompt engineeringiem, czyli pisaniem
właśnie tych zapytań do
sztucznej inteligencji, spowoduje, że
będziesz na szpicy tego rozwoju.
Ale to zależy, co optymalizuje.
Ale pomiesz sobie zrobić szafkę kuchenną, będąc
profit, będąc goście
o sztucznej inteligencji, tym lepiej.
Dokładnie, także to zależy, co chcesz mieć.
Optymalizujesz zabawę, czy zarobki,
to od ciebie zależy.
Ale czekaj, bo ty teraz powiedziałaś, to tak,
jak gdyby było wybór
między albo zarabiasz
i zostajesz
programistą, albo zostajesz stolarzem
i wtedy się bawisz? Tak to rozumiecie?
No nie, jeżeli bawicie programowanie, to
spoko. Nie ok, a czy zasada
ogólna jest taka, że żeby ktoś był dobry
w tym, co robi, to musi to lubić.
A jeżeli tego nie lubi, no to
nie będzie dobre. To się męczy.
Życie, mówi się, życie jest krótkie.
Nie. W tym kontekście jest naprawdę
nieskończenie długie.
Jak przez kilkadziesiąt lat masz się w człowieku męczyć,
z tym czego nie lubisz, to ja ci naprawdę
mega, mega współczuję. I z całą pewnością
wcześniej, czy później, a im później
tym gorzej ci będzie, zmienisz pracę.
Więc najlepiej jest
rozwijać się w tym kierunku, który
jest w sercu i to nie jest
z podręcznika amerykańskiego,
tylko to jest swojego życia,
życiowego doświadczenia. Dobra, to może Krzemysław
po raz ostatni, ok?
Trochę o tym powiedziałeś, ale
zadałem mu pytanie, czy sztuczna inteligencja
może skrzywdzić człowieka.
Tak, w teorii AI może skrzywdzić
człowieka albo przez zaniechanie działania
dopuścić do wyrządzenia krzywdy człowiekowi.
To wynika z faktu,
że AI jest tylko narzędziem,
które działa na podstawie zaprogramowanych
algorytmów i uczenia maszynowego.
Jeśli AI jest zaprogramowane
w sposób nieodpowiedni lub uczy się
na podstawie nieodpowiednich danych,
może działać w sposób niezgodny z oczekiwaniami
i wartościami społeczeństwa.
Przykładem takiego
niepożądanego zachowania AI może być sytuacja,
w której samochód autonomiczny
nie zauważa przechodnia na drodze,
ponieważ nie został on odpowiednio wykryty
przez czujniki samochodu, a algorytmy
nie uwzględniły tej sytuacji w swoich programach.
W takiej sytuacji samochód autonomiczny
mógłby wpaść na przechodnia, co doprowadziłoby
do poważnej krzywdy.
Już, szybciej skończył?
Tak mnie zaskoczył trochę, nieco.
Jakiś komentarz?
Szybciej zaczniemy, później skończymy.
Dla mnie te elementy, które się tutaj pojawiły,
pod tytułem
zasady etyczne,
to są rzeczy, które nie są wspólne
dla wszystkich, więc to jest trochę taka
morzonka. Nie wyobrażam sobie,
że mamy wspólne działanie.
Ludzie powinni być edukowani,
tak, o tym cały czas mówimy, w sumie
po to chyba też są te streamy,
które robimy, żebyście mogli
pozadawać pytania, żeby podzielić się
wiedzą i oczywiście też się pomylić,
bo to się tak szybko zmienia, że za chwilę
pewnie część tego, co mówimy dzisiaj,
jest nieaktualne.
I jeszcze jest ten element, który jest związany,
jak Szemysł powiedział, zaprogramowany.
Programowanie w takim normalnym
znaczeniu to zazwyczaj są
rzeczy tak albo nie
w przypadku modelu uczenia maszynowego.
Mamy do czynienia z pewnym
prawdopodobieństwem i
problem polega na tym, że to nie jest tak łatwo
wytyzylować
co z tym tak naprawdę do końca się stanie.
Więc
to nie jest tak, że można wszystko
ładnie zaprogramować, bo nawet jak będziemy chcieli
programować te ograniczenia, pod tytułem
Nie Zrób Krzywdy Człowiekowi,
no to też
będzie nieidealne w swojej naturze.
Więc ja to znowu oceniam jako obłe.
Jasne. Wiesz co, jak w ogóle
wszystkiego odpowiedzi z grubsza są
takie same.
Nie wiem czy jakby to odkrywasz,
ale ja
miałem
taki epizod krótki
nawet niejakoś tam bardzo krótki,
kiedy pracując na uczelni
egzaminowałem
i studen, który by mi tak odpowiadał
byłby
przeze mnie uznany, także
gość po prostu
jest w miarę ogarnięty
wie
że nie ma pojęcia o czym my tu rozmawiamy.
Natomiast jest na tyle
ogarnięty, że wie jak obrócić
tym samym zdaniem
pięciokrotnie, żeby zrobić wrażenie, że wiatr.
Tak, tak, tak.
Nie wiem czy ty masz też podobne wrażenie, że
ładnie, ładnie powiedzieć.
Że krzemek trochę dał dzisiaj
Ja myślę, że to też może wynikać
z tego, że wiesz, że znalazł się
w pewnym jakimś takim kawałku przestrzeni
i dookoła jakby tego ciągle
dążył. Nie wiem
na ile można by tutaj naprowadzić
go z innego miejsca. To znaczy, hej
weź pod uwagę teraz, nie wiem
warunki w Polsce i odpowiedz mi na to pytanie.
Może zrobimy sobie taki eksperyment, żeby
zobaczyć innym razem, czy da się
coś takiego naprowadzić. Natomiast
tak jak da się
zachęcić do zupełnie innych
odpowiedzi tego rodzaju modelu, tak
wyobrażą sobie, że krzemka też możemy zmusić, żeby
powiedział coś zupełnie, wiesz,
coś zupełnie innego. Więc
ja to traktuję jako
zlepek prawdopodobieństwa, na które
akurat trafiliśmy. Część
tego rezonuje i ma sens.
A część, no jakby
tak jest bojęsty.
Okej, ale patrząc na to
jak odmówi, patrząc na to
co on mówi. To większość
tego, o czym dzisiaj mówiliśmy.
O potężnych narzędziach.
O tym, że to nas może wykoleić.
Że to wywali w kosmos
nie wiem, rynek pracy.
I edukacji, i wszystko, i wszystko.
Można mieć pewien dysonans.
To znaczy, on
wiesz, to nie jest
coś, co urywa głowę. To jest
coś, co jest fajnym gadżetem.
Ale to jest coś,
co na pierwszy rzut
ucha słychać,
że to jest właśnie nie rzeczywiste,
że to jest naciągane, że to jest obłe,
że to jest nijakie.
Nie masz takiego wrażenia,
że trochę się poruszamy,
że albo krzemek dzisiaj nie jest w formie,
i dlatego tak trochę,
albo, albo, albo
może on po prostu jest jakąś
wersją taką bardzo, bardzo wsteczną.
Ja mam wrażenie, że to wiesz,
to będzie fajnie widać, bo
wyobrażam sobie, że będziemy obserwować też
ewolucję krzemkę. To znaczy,
to jak teraz odpowiada,
ten model będzie się cały czas zmieniać.
Będziemy widzieć pewnie w czasie,
jak odpowiedzieć na lepsze.
To będzie sobie pytanie, które
będzie takim pytaniem sprawdzającym,
takim kanarkiem.
Natomiast
to, co uzyskujesz
zależy od tego, jak pytasz.
Więc
tu jest tak bardzo dużo zmiennych,
że nie jesteśmy w stanie bardzo szybko
i jednoznacznie powiedzieć, dlaczego on właśnie
odpowiedział w ten sposób. My mu zadaliśmy
proste pytania, te pytania, które
widzieliście gdzieś tam na tablicy.
I na podstawie tych pytań
on odpowiedział najlepiej, jak umiał.
Ale też nie byliśmy specyficzni, wierzę.
W listu i mi wszystkie rzeczy, albo jak uważasz
z perspektywy prawa, albo z perspektywy
praw podstawowych, albo praw człowieka,
to można na minie sposób ozegrać.
Ale wtedy on był mniej obły?
Wtedy byłby bardziej specyficzny.
Okej, ale czyli te wszystko, co budzi
jakiś taki mój niedosyt,
to wynika z tego,
że zostawiliśmy mu za dużo swobody?
Tak, tak, tak.
Bo teraz, to jak działają te modele,
gdzieś do pierwszego naszego strumyka,
to
wymyślasz, jak to będzie kolejnym słowem
z pewnym prawdopodobieństwem.
I teraz, jak mówimy tak ogólnie, to jesteś
w pewnym miejscu przestrzeni, gdzie jesteś...
Kiedy on raczej będzie specjalistą, niż
takim kimś ogólnie wykształconym,
który będzie w stanie się znaleźć
ze swoją wiedzą
z dużą,
bo
z całego zasobu internetowego
będzie się w stanie znaleźć w każdej sytuacji.
Wyobrażam sobie teraz sytuację,
w którym moglibyśmy powiedzieć
na podstawie książki
takiej i takiej, albo artykuł
albo jakiegoś badania
opowiedz mi o tym i o tym, i on będzie
o wiele bardziej konkretne.
Czyli umieścimy go w pewnym kontekście,
w którym chcielibyśmy,
żeby on gdzieś tam kumął
i w ramach tego kontekstu,
on będzie o wiele bardziej specyficznym,
będzie wiedział, gdzie się znaleźć.
I po prostu trafi na pewne prawdopodobieństwa,
w kontekście to ja wam mówię o tym, o tym,
o tym, bo tam się to znajdowało.
Tu jest znowu ten problem,
że one ten maszyny mają
ograniczoną pamięć, jeżeli chodzi o nasz kontekst.
Natomiast już
powstają, i to jest teraz ciekawy taki trend,
który pojawił się ogólnie
w inwestycji, w nowe start-upy,
że teraz takie bazy wektorowe,
które mają za zdanie przechowywać te twory,
te tam splątania, które są związane
z sztuczną inteligencją
w nie mega inwestuje
venture capital, czyli wszystkie te fundusze,
bo widzą, że to jest potrzebne,
że rozszerzenie pamięci dla takich modeli
to jest absolutna przyszłość,
więc teraz trwa absolutny boom
na rynku takich baz wektorowych.
I to jest znowu akcja reakcja.
Zobaczyliśmy, widzimy, że jest
zapotrzebowanie, trzeba by to rozszerzyć.
W tej chwili jest pompowane w to mnóstwo pieniędzy.
I tym optymistycznym akcentem
dziękujemy Grzemkowi,
dziękujemy wam.
Zapraszamy na dwa poprzednie lajwy,
na trzeci na Nauka to Lubię, możecie je znaleźć.
Bardzo dziękujemy wam za mnóstwo
pytań, nie na wszystkie odpowiedzieliśmy.
Niektóre z nich, żeśmy
zignorowali specjalnie, dlatego,
że będziemy oni robicę odcinki.
Niektóre, żeśmy tylko zajawili
z obietnicą, że będą kolejne odcinki.
Kolejny odcinek, mniej więcej
za miesiąc, czyli w okolicy końcówki
maja, w drugiej części maja,
poinformujemy o tym na mediach społecznościowych
Nauka to Lubię.
Mateusz u siebie oczywiście też poinformuje.
Tak, podziękowania dla Uniwersytetu Śląskiego.
Jak wspomniałem,
Uniwersytet nas tutaj gości,
w swoim studio, jeżeli chcecie
wesprzeć Fundację Nauka to Lubię,
zawsze możecie wejść
i te działania, które prowadzimy,
zawsze możecie nas znaleźć na zrzutce
i tam nas wesprzeć, albo po prostu
wejść na sklep Nauka to Lubię
i na przykład kupić książki,
nie tylko dla dzieci, ale także dla dzieci
książki naukowe.
O czym się jeszcze powinienem powiedzieć?
Ja o kosmosie już widziałem, polecam.
Ładna jest, nie? Pięknie ilustrowana.
Rzeczywiście tak jest, no mogę jak mówić,
bo to nie ja ilustrowałem, więc ich nie może mi zarzucić.
I nie było to jaj.
I to w zasadzie wszystko. To już wszystko.
Bardzo dziękujemy za waszą aktywność
i myślę, że w przyszłym miesiącu
znowu będziemy mieli garść nowości
a co do tematu to zobaczymy.
To dam jeszcze znać. Dzięki, dobrej nocy.
Napisy stworzone przez Amara.org
Machine-generated transcript that may contain inaccuracies.
Kontynuujemy cykl naszych rozmów LIVE o sztucznej inteligencji, w ramach serii „Rewolucja AI”. Tym razem z Mateuszem Chrobokiem przyjrzymy się jej pod kątem bezpieczeństwa i zagrożeń. Porozmawiamy o nadużyciach i manipulacjach, o łatwości wprowadzania w błąd i ryzyku, że będziemy aż za bardzo polegać na AI. Zastanowimy się też, czy sztuczna inteligencja zagraża naszej prywatności […]