Nauka To Lubię: Co dalej z AI? Rozmowa z Mateuszem Chrobokiem

Nauka To Lubię Nauka To Lubię 3/3/23 - Episode Page - 27m - PDF Transcript

Dzień dobry, wieczór. Tomek Rożek, Nauka to Lubię. Bardzo, bardzo was serdecznie witam, a witam was z moim gościem, obiecanym Mateuszem Chrobokiem, specjalistą od spraw bezpieczeństwa w sieci.

Cyfrowego człowieka, którego możecie znaleźć, możecie znać między innymi z YouTube'a, ale także z Instagrama.

Zachęcam was, tu jesteście teraz, dobra, zachęcam was do śledzenia, bo nigdzie indziej nie znajdziecie tak szybkich, krótkich i precyzyjnych informacji na tematy bardzo, bardzo aktualne.

Ten temat, o którym chcę dzisiaj porozmawiać z Mateuszem, jest aktualny i nie jest. To znaczy jest w tym sensie, że przed chwilką przed rozmową Mateusz mówi, że wiesz, jest taka strona, na której codziennie pojawia się przynajmniej 20 nowych narzędzi związanych ze sztuczną inteligencją, więc to jest aktualne.

Z drugiej strony nie jest aktualne, dlatego że w zasadzie możemy mówić o nie, o rewolucji takiej nagłej, tylko pełzającej, od lat mówi się o sztucznej inteligencji, ale pod koniec listopada stało się coś, co te rozmowy przyspieszyło.

A mianowicie pojawił się czat GPT, GPT, nie wiem jak powinno się mówić, i on spowodował, że rzeczywiście te rozmowy o sztucznej inteligencji, które zwykle były wśród specjalistów, od czasu do czasu gdzieś tam wchodziły do takiego, tak zwanego mainstreamu, a później znowu spadały.

Mam wrażenie, że od przełomu listopadach grudnia one są cały czas gdzieś tam wysoko, więc powiedz mi, bo taki tytuł dzisiejszego spotkania rewolucja sztucznej inteligencji, czy ty masz wrażenie, że jesteśmy w trakcie rewolucji, czy to dopiero jest przedsionek?

Moim zdaniem absolutnie jesteśmy w tym momencie, gdzie już rozgrzaliśmy silniki i za chwileczkę będziemy odlatywać. Dzieje się tak z kilku względów, no bo jak zapajczysz sobie na historię jakby rozwoju związanych ze sztuczną inteligencją, to lata 60.

Czasy, kiedy komputery miały moc, no prawie tam żadną, jeżeli chodzi o moc obliczeniową, dużo teorii powstawało. Czasy, które były nazywane zimą sztucznej inteligencji, głównie dlatego, że nie dało się stworzyć bardzo skomplikowanych rzeczy.

No i potem weszliśmy po latach tam 2005, mniej więcej w taką erę, kiedy zaczęło się Big Data, zaczęło się bardzo dużo danych, które nie tylko były zbierane, ale stawały się coraz bardziej dostępne.

One są paliwem, tak? Bez nich dyskusja o sztucznej inteligencji to dyskusja mniej więcej inżynierów lotniczych, którzy rozmawiają w laboratorium.

Mogą wiele rzeczy zrobić, wiele rzeczy teoretycznie wyliczyć, ale koniec końców muszą w końcu wznieść się w przestworza. I te przestworza dla sztucznej inteligencji to są ogromne zasoby danych.

Ogromne zasoby danych, które muszą na początku, na wejściu, zostać przelane, żeby tak na razie w uproszczeniu obrazowo powiedzieć, do pewnej formy.

I tą formą są właśnie te modele uczenia maszynowego, czy tam różne metody sztucznej inteligencji. Chat GPT, czy tam GPT to jest jeden z takich modeli, który nazywa się jakby klasom LLM, large language models,

bo przelewa się tą wiedzę z danych właśnie do takiego modelu. I teraz to, co się stało, jak nadeszło Big Data, to było to, że mieliśmy coraz więcej, coraz lepszych metod, żeby radzić sobie z dużą ilością danych.

Do tego dochodzi nam cały czas ewolucja, która jest związana z technologią. To znaczy mamy coraz szybsze karty graficzne, coraz szybsze procesory,

więc jesteśmy w stanie tworzyć coraz bardziej skomplikowane konstrukcje, do których coraz lepiej możemy nalać te dane wejściowe i potem lepiej je wykorzystać do bardzo różnych rzeczy.

Jak pojawia się w tak zwanym mainstreamie sztuczna inteligencja, to ona się pojawia nie dlatego, że jakiś naukowiec coś zrobił, tylko dlatego, że powstało narzędzie, które umożliwia każdemu z nas zrobienie czegoś.

Przed czatem GPT była istnyszał tworzenia obrazków. Czy spalca wpisywało się, czy przerabiało się zdjęcie. Oczywiście każdy obrazek to jest mnóstwo danych, ale zanim sztuczna inteligencja nad jakimś obrazkiem musiała się przeszkolić.

Bardzo często sami, żeśmy ją szkolili, nawet o tym nie wiedząc. Tym razem ten szał jest absolutny, dlatego że obrazek tak czy inaczej malowało się zwykle przez jakiś program.

Ale rozmowa to już jest zupełnie inna historia. Rozmowa z urządzeniem i naprawdę trzeba się mocno postarać, żeby się dowiedzieć, żeby sprawdzić, co jest rozmową z urządzeniem, a co jest rozmową z człowiekiem.

Jeszcze tylko dla informacji waszej. Oczywiście możecie zadawać pytania, gdziekolwiek nas oglądacie to wpisujcie w komentarze, a ja mam ich podgląd tutaj i postaram się bardzo, żeby jak najwięcej ich zadać.

No więc dobra, mamy ten chat GPT i pierwsze pytanie. Czy ten szał z przełomu listopada grudnia? Czy dla ciebie specjalisty? To był jakiś szok, że nagle zobaczyłeś narzędzie, które było dla ciebie nowością? Czy to jest tak, że to był szok?

Na zasadzie, dlaczego ci ludzie się dziwią? Przecież takie narzędzie już były wcześniej.

Bardziej dla mnie to był szok, że tak dużo zainwestowali w to, żeby wypuścić to za darmo. Bo takie modele poza tą fazą, gdzie wiesz, trzeba zebrać dużo danych, wytrenować ten model, wyczyścić jeszcze te wszystkie takie warunki i rzeczy, których nie chcemy z tego mieć, to jest oczywiście mnóstwo pieniędzy.

Natomiast mega ruchem było to, że oni wypuścili to za darmo właściwie dla wszystkich. Oczywiście dużo gwiazdek do badań i tak dalej, w sensie tak, że nie każdy mógł z tego korzystać wolno. Natomiast ludzie i to moim zdaniem był genialny ruch, bo w ten sposób otworzyli kreatywność ludzką.

Otworzyli się i uzyskali tam milion osób w ciągu pierwszych tam chyba paru tygodni, co jakby w stosunku do Facebooka czy innych serwisów, oni mega szybko uzyskali atencję. Jak uzyskali atencję, to uzyskali też mnóstwo danych, które ludzie wpisywali.

No i to jest to, o czym przed chwilą powiedziałem, że nie mamy świadomości, że tak naprawdę my jesteśmy trenerami tych algorytmów.

Ćad GPT jako co wynika ze struktury, bo to jest Generative Pre-Trained Transformer. On był przeuczony i on ma tak jakby sobie wyobraził taką kliszę z czasu, skończył się uczyć tam we wrześniu 2021 roku.

I można go zapytać, jeżeli chodzi o wiedzę, on tam będzie oczywiście halucinował, troszkę ściemnie, statystycznie będzie miał rację właśnie do tego okresu, ale teraz on się nie doucza.

W sensie, jak się z nim rozmawia, to on jest świadomy kontekstu rozmowy, to znaczy, ty wiesz, tak jak ja mniej więcej pamiętam twoje ostatnie pytania i dwa pytania do tyłu,

ale jesteśmy w pewnym takim toku i jest w stanie dostosować się do tego, co się dzieje, natomiast on nie ma dostępu do internetu.

Mimo, że próbowano udowodnić, że jest inaczej, to jakby tam Bing i inne mają.

Tam był jakiś przypadek dziennikarza, który zapytał, kto jest szefem Twittera, on odpowiedział, że Elon Musk, a Elon Musk został szefem Twittera czy właścicielem.

Później.

Później, on więc zapytał, skąd to wiedziałeś, bo ktoś mi powiedział, więc ten proces uczenia się jakiś tam jest, ale rzeczywiście jest tak, że wszystko co wie zatrzymało się w 2021 roku.

Tak jest.

Kilka tygodni po tym, jak tak było bardzo głośno, o tym udało mi się w Paryżu zobaczyć Google'owego.

Google'ową odpowiedź.

Bardzo.

Była konferencja, która miała chyba pokazać, ale od zazu cipem, że nie wyszło.

Miała chyba pokazać, szychy z Google'a przyjechały największe.

Chyba pokazać, że tak naprawdę to my też chcieliśmy właśnie w tym momencie się nim pochwalić, ale to było widać, że to jest jeszcze wszystko gdzieś tam na plastrzedtrzymane, na jakiejś, na jakiejś trytyce.

Nie sam Bart, bo on nam nie zrobił dużo większe wrażenie niż chat GPT.

I padło tam takie hasło.

Ja nie jestem inżynierem, więc ja nie wiem, co tam jest w środku.

Ale padło tam takie hasło, że Google chce, żebyśmy wyszukiwali nie te rzeczy, które wpisujemy, tylko te rzeczy, których doświadczamy i które widzimy.

To jest taki piękny koncept, bo zauważ, że co dzieje się między nami, to są jakby dwa zjawiska.

Taki model najpierw musi człowieka zrozumieć.

Ja też muszę cię zrozumieć, co ty masz na myśli.

I to wcale nie jest proste, jak wiesz, znamy się chwilę, ale zrozumieć...

Nawet dłuższą chwilę.

No to dłuższą chwilę, prawda.

Zrozumieć człowieka po tym, co chcę wyrazić.

I teraz ten proces będzie o tyle coraz lepszy, im lepiej takiego człowieka.

Masz zprofilowanego, wiesz o co wcześniej pytał, wiesz w jaki sposób typowo pyta.

I są wykorzystywane takie dwie struktury, trochę bardziej technicznie.

Tam są enkodery i dekodery, które z naszego, na komputerowe, a potem dekodują i to wychodzi dalej.

Tam się wywala wszystkie rzeczy zazwyczaj dla takiej czystości, które nie mają znaczenia.

Czyli jaka tam jest forma osobowa.

Skraca się takie słowa, które są nadmiarowe, żeby tylko wyciągnąć z tego esencję.

No i wtedy ja już się wyłapię tę esencję, to nie jest tak, że ja rozumiem, co można myśli.

Ale statystycznie jestem w stanie znaleźć tego reprezentację i wyszukać.

Te modele, bo Google pokazało Lambda, czyli tego Ichbarda.

Te modele, które się wszędzie znajdują związane właśnie z large language models,

one korzystają z tego typu metod po to, żeby znaleźć taką formę pośrednią,

z której lepiej zdecydowanie tłumaczy się na taki język komputerowy

i z której później można coś wyciągnąć.

Bo drugi element, jak już się zrozumieliśmy, to jest to, że ja chcę ci coś powiedzieć.

Ja chcę się z tą komunikować jakby tym językiem na twoim poziomie i to jest zupełnie osobny problem.

Teraz przetworzenia tego znaczenia, które gdzieś tam złapałem w taką formę, którą ty zrozumiesz.

To jest w ogóle abstrakcyjne.

Nie wiem, czy dla ciebie, jako dla inżyniera.

Dla mnie na pewno, bo ty używasz słów, które tak naprawdę nie powinny być używane w stosunku do urządzenia.

Mówisz zrozumieć, mówisz, chcę ci powiedzieć.

Ja rozumiem, że czasami technologia wyprzedza język, że nasze przyzwyczajenia czasami nie nadążają.

Ja przygotowując się do naszego spotkania, kilka tych pytań, które chcę zadać tobie, zadałem też algorytmowi, zadałem też chatowi.

Jedno z tych pytań to jest, jak przetwarzasz swoje dane.

I on odpowiedział tak, jak zadajesz mi pytanie, moje algorytmy przetwarzają te dane i analizują je, aby zrozumieć intencje twojego pytania.

I wygenerować odpowiedź na podstawie informacji, które zostały mi przekazane.

Jak się zastanawiam nad tym, to w zasadzie w tym zdaniu jest równocześniej wszystko i nic.

To jest takie uproszczenie, ja też trochę upraszczam.

To dobrze, bym nie zrozumiał. I zastanawiam się, bo tych pytań mam więcej, ja je będę w czasie naszej rozmowy przywoływał.

I bardzo często mam wrażenie, że to jest nic innego, tylko bardzo zgrabne, takie bardzo zgrabne lanie wody.

Ależ jeszcze ja.

Nie chcę powiedzieć przez to, że to jest nic niewarte, to robi wrażenie.

Tak.

To naprawdę robi wrażenie.

Zresztą, znając życie, na pewno sami próbowaliście, przynajmniej większość z was.

Natomiast jakby się tak głębiej w to wgryźć, to wiele odpowiedzi w zasadzie nie zawiera niczego poza zgrabnym ułożeniem słów.

I wracając do tego, o czym zacząłem mówić.

Używasz słów takich jak zrozumieć, zinterpretować, ale przecież to urządzenie ani nie rozumie, ani nie interpretuje, tylko podchodzi do sprawy statystycznie.

Tak.

Bierze bardzo, znowu wracamy, bo będziemy wracali przez cały czas do tego ogrom danych, wyciąga z tego ogromu danych jakieś wnioski, że słowa, te słowa konkretne, ułożone w tym konkretnym porządku zwykle dają takie, a takie odpowiedzi.

Więc teraz wystarczy te odpowiedzi jakoś zmiksować, zamienić innymi słowami i w zasadzie możemy udawać człowieka.

Właściwie to w tym procesie jakbyśmy go mogli troszeczkę bardziej prześledzić.

Bardzo cię proszę.

Masz słowa, które są słowami wejściowymi.

Te słowa wejściowe, na nich jest tam kilka.

No dobra, czekaj, jak przetwarzasz swoje dane?

Co tutaj jest słowem wejściowym?

Jak przetwarzasz swoje dane?

Masz słowo wejściowe, no czyli tam masz ten prompt, tak jak się to ładnie nazywa.

Czyli piszesz do niego, hej, napisz mi wierszyk, w którym kluski śląskie będą twoją ulubioną potrawą.

Więc to co się dzieje pod spodem?

Jest polecenie, napisz wierszyk, kluski śląskie muszą być tam jakimś podmiotem.

Teraz my jako ludzie musimy załapać abstrakt pod tytułem, a no wierszyk, tak?

No to musi się rymować, trzeba wymyślić jakieś tam rymy.

To co się dzieje w środku, to musi być ta abstrakcja też tego wiersza, żeby to zrozumieć.

Musi być też tak zwana atencja, jedną z takich istotniejszych pojęć, które się pojawiły, była właśnie atencja, którą wprowadziło OpenAI,

czyli firma, która jest odpowiedzialna za czat GPT.

Ta atencja musi być zwrócona na kluski śląskie, no bo bez klusek śląskiej to co to być za wiersz, nie?

I w momencie kiedy już przejdziemy do tej fazy, że hej dobrze, zrozumiałem o co ci chodzi.

Przeszedłem przez rozumienie, zaczynam generować, to mniej więcej działa tak, że z dużym prawdopodobieństwem wymyśla ten mechanizm kolejne słowo.

Czyli najpiękniejsze na świecie pluski śląskie, jak ja was bardzo szanuję.

I tam leci sobie jakiś sposób, ale to, jak to jest generowane, to wynika tylko ze statystyki, czyli wyciąga sobie teraz, wyobraź sobie, że masz taką...

A skoro tą statystykę bierze?

Z danych uczących oczywiście, bo bierzesz sobie teraz taki zbiór losujący, wyciągasz sobie słowo, że czarny kot i tam co mi najbardziej pasuje.

Na 99% powiem wszedł, albo tam zasnął na 97%.

I dobra, no to wszedł, nie na co wszedł, no to na płot 99.

I bierze to, co statystycznie jest najbardziej jakby na wyjściu poprawne, popularne.

Tylko, że problem polega na tym, że mamy w zależności od tego, jak zadasz to pytanie, co będzie na wejściu, to zadając je inaczej.

Pytanie o to samo albo prośby o to samo dostaniesz inne wyjście.

Okej, ludzie działają dokładnie tak samo.

Absolutnie.

W porządku.

Możemy do tego gdzieś tam wejść, ale chcę zadać pytanie pierwsze.

Wspominałeś o tym, że chart GPT on nie jest podłączony do internetu.

Ten googlowy Bart jest.

Pytanie, czy w planach jest podłączenie chartu GPT do internetu?

A drugie pytanie, w jakim, drugie pytanie, to w jakim sensie będzie działa ta wiedza chartu?

Czy jeśli użytkowicy go karmią fałszywymi danymi?

Tak.

Tak, to może to drugie sobie zostawmy na chwilkę później, bo ja też mu zadałem pytanie, czy można mu wierzyć.

I bardzo ciekawa była odpowiedź, ale ta pierwsza.

Podłączenie chartu, charta, chartu GPT do internetu.

Czy to wtedy spowoduje, że mamy googlowego Bart'a, czy to są zupełnie inne rzeczy?

Bardzo różne to są rzeczy, jeżeli chodzi o samą konstrukcję, taką wewnętrzną.

To, dlaczego jest tak dobry odbiór charta GPT, moim zdaniem wynika z tego,

że bardzo dużo pracy zostało włożone w warunkowanie, w sensie w Rainforest Learning, czyli innymi słowy,

w mówieniem, co jest dobre, a co nie jest dobre.

Tak jak uczysz dziecko, czy psa zachowania, przepraszam za to porównanie,

ale tak samo jakby musisz pokazać, gdzie są granice i do czego masz dążyć.

I w ten sposób, charta GPT, jakby wiele innych modeli, uczyło się, że słuchajcie,

ta to jest właściwa odpowiedź, jeżeli niebieski dom ma kolor i zadaje się pytanie.

Jeżeli on wskaże na niebieski, to mówi się, tak, nagroda, ucz się tego.

I to, co się dzieje, propaguje się ta wiedza jakby do modelu.

Ten model ma mnóstwo, nie, nie, neuronów, ale tak naprawdę powiedzmy,

że to są takie listki na wietrze, które się je, w zależności od tego,

co mu powiesz, czy dobrze, czy źle, one się będą inaczej układać

i w pewnym momencie się to zamraża.

I jak to się zamroziło w tym roku 2021,

to bardzo długo jeszcze pracowano nad tym, żeby wyjście, które z tego wychodzi,

nie było jakieś tam obraźliwe, żeby nie było, to jest bardzo trudny proces,

no bo nie przewidzisz wszystkich rzeczy, których ludzie zapytają.

W tym wszystkim jeszcze była ta historia ludzi, bodajże z Bangladeshu,

który płacono tam kilka dolarów dziennie,

za to, żeby wyczyścili te dane, które były na wyjściu tego, nie, czyli mnóstwo, mnóstwo pracy.

I teraz Bing, swoją wersję GPT, bo jakby jest czat GPT, który jest tym konwersacyjnym,

a GPT to jest jakby sam model, podłącza gdzieś tam do Binga

i jakby efekty są takie dosyć średnie na razie.

Ale moim zdaniem to wynika dlatego, że bardzo trudno jest kontrolować jakość tego modelu

w momencie, kiedy on jest podatny na zapytania na wszystko,

na wiedzę, na dezinformację, tam nie ma takiej kontroli,

a jesteśmy w ogóle pojęcie świadomości, ja wiem, to bardzo daleko,

ale nie ma możliwości, żeby na chwilę obecną ten model wiedział, co jest dobre, a co złe,

bez nauczenia go tego, więc jak ktoś będzie go usłyszył.

I to jest kolejny problem, to jest kolejny problem, bo kilka lat temu był taki projekt realizowany przez MIT.

W pewnym sensie ten projekt był odpowiedzią do niedawna jeszcze czysto teoretyczne pytanie,

jak algorytmy uczyć moralności, odejmowania decyzji.

To jest w ogóle mega temat, spotkamy się kiedyś, pogrozmawiamy tylko i wyłącznie o tym,

ale skoro to zacząłeś, to pozwól, że to powiem.

I historia była mniej więcej taka, tu o, historia była mniej więcej taka,

skoro algorytm ma od czasu do czasu podejmować decyzję, no bo na przykład ma prowadzić nasz samochód,

albo ma decydować, nie wiem, o wielu, wielu różnych procesach, to musi się nauczyć,

jakoś my go musimy nauczyć, co jest dobre, a co złe.

My się tego uczymy z wielu różnych źródeł, od rodziców, od rówieśników, nie wiem,

z otoczenia, w którym wzrastamy.

Doby religijne dla nich bardzo ważne jest to, co mówią prawdy, powiedzmy danej religii,

jakieś kody moralne. Oczywiście weryfikujemy to, dorastając, dojrzewając ze swoim partnerem-partnerką,

ale w skrócie uczymy się tego, czy wiemy to przez naukę, przez konfrontowanie.

No więc pomysł był prosty. W takim razie stwórzmy kwestionariusz.

Ten kwestionariusz będzie miał mnóstwo pytań w rodzaju, co byś zrobiła, zrobił w tej sytuacji,

roześlimy to po świecie, w zasadzie nie rozesłali tylko, ludzie się logowali,

jeżeli odpowiednio dużo osób z różnych kultur to wypełni, zbierzemy coś w rodzaju takiej globalnej moralności.

Bez Francji.

I później wystarczy, według tego modelu, uczyć algorytmy.

Znowu, jako nie inżynier, bo nie wiem, jak to zrobić.

Ale tak z drugiej strony przecież to nie jest tak, że większość wie, co jest moralne, a co nie.

Jesteśmy ludźmi.

Bo tak wychodząc zupełnie poza algorytmy i sztuczną inteligencję,

żyjemy w kraju, w którym przez ostatnie 100 lat przeczągały się dwa totalitaryzmy, jeden i drugi, na którymś etapie miał większość.

Miał większość ludzi, którzy wybrali, którzy tak właśnie chcieli.

Później różnie bywało, ale na wstępie większość tak właśnie chciała.

To może daleka analogia, ale budowanie norm moralnych przez większość moim zdaniem ma bardzo krótkie nogi.

Ja nie wiem, jaka jest alternatywa, żeby było jasne.

Ja tutaj nie pretenduję do roli kogoś, kto wie, jak to zrobić.

Ja tylko mówię, że wcześniej czy później jakoś musimy algorytmy nauczyć podejmowania decyzji.

Czyli w sumie, nie wiem, moralności, etyki.

Tak, absolutnie w sensie jasne. No bo na razie to jest czysta statystyka.

I jest czysta statystyka, ale są już pierwsze modele, które nie tylko potrafią wyjaśnić,

dlaczego podjęły taką decyzję, czyli są zgodne z nurtem explainable AI, tak zwanego,

ale też takie, w którym można zaprogramować w pewien sposób pewne zasady fair.

Samo to prosiłeś, także sorry, idziemy w to.

Wyobraźcie sobie, że tak, w tej chwili korzystając z chata GPT, który jest formą open AI,

przyjmujecie pewien pogląd, przyjmujecie pewien punkt widzenia, który jest bliskie świata zachodu.

Ale to nie jest jedyny model, który będzie powstawał na świecie i wyobraźcie sobie,

że to tak naprawdę będzie pewna bańka informacyjna, przynajmniej na chwilę obecną.

Takie bańki są tworzone w wielu miejscach na świecie.

Nie wierzę, czy Chiny, czy inne państwa nie będą takich bańek tworzyły

i zakładam, że rzeczy, które będą tam dozwolone, tak jak to bywa, w różnych wyszukiwarkach, będą zupełnie inne.

Więc w pewien sposób trwa teraz taki wyścig, co do tego znowu w jaką bańkę będziemy mogli się wepchnąć,

a to będzie wpływało na kształtowanie się ludzi i tego jakie będą miały...

Bo będzie wpływało na te odpowiedzi.

Absolutnie. I teraz jeżeli dojdziemy do tego, co jest tak, a co jest nie, open AI jest firmą prywatną.

Jak tam oni na początku mieli takie świetne podejście, że będziemy non-profit, teraz są non-profit, ale trochę for-profit,

to mimo wszystko może spowodować troszkę z moim zdaniem rząd dłuż z tej perspektywy,

że nie jesteś w stanie się z tym nie zgodzić.

Jeżeli Google będzie miało, wiesz, stosuje sobie swojego barda i będzie zezwalało na trochę inne rzeczy,

trochę inne sztuczne inteligencje, najtrudniejsze w takich sytuacjach często jest to, że zwycięstwa bierze większość.

Więc jeżeli uzależniemy się od kogoś, kto będzie jakby pierwszy, najszybszy, to może być bardzo trudne.

No i teraz co? Nie mamy wspólnej moralności, wspólnej etyki globalnie, no bo nie wierzę, że z tego...

No nie mamy. Też nigdy nie mieliśmy, żeby było jazdy.

Tak, różne ligie, różne środowiska, więc będą powstawały różne modele,

mamy nadzieję, że będzie pluralizm pomiędzy nimi, natomiast jest bardzo duża dysproporcja, która jest bliska fizyki,

bo te modele trzeba wyuczyć, do tego potrzeba prądu energii, metali, rzadkich procesorów mikro-komponentów,

to nie jest tak, że będzie równa reprezentacja tego wszystkiego.

To ok, no czyli dalej Chiny i Stany Zjednoczonych.

Co najmniej, co najmniej, wyobrażam sobie, że tego będzie zdecydowanie więcej,

bo każdy pewnie będzie chciał mieć możliwość przetrwania tej swojej myśli,

czy to będą Indie, czy to będą kraje, które jakby nie mają tak silnej reprezentacji,

jeżeli chodzi o modzobliczeniową, to ja tak zawsze warto zerknąć na te, wiesz, top 100 superkomputerów.

Gdzie one się tam znajdują, kto je buduje, dla kogo, nie?

Swojego czasu ten top 5 właśnie był ten superkomputer zbudowany przez Microsoft

dla firmy OpenAI, żeby modele GPT tworzyć, nie?

Więc to jest olbrzymi, wydatek olbrzymi wysiłek, ale zwróci się.

Okej, za chwilkę o tej energii kolejne pytanie.

Czy mogę ci wierzyć? Nie tobie, tobie wiem.

Czy mogę ci wierzyć? I jest odpowiedź taka.

Jako maszyna nie ma motywacji ani zdolności do kłamania lub wprowadzania w błąd ludzi.

To zdanie jest bardzo, bym powiedział, sprytne.

Bo nikt nie mówi, czy ty masz taką zdolność, tylko czy ja ci mogę wierzyć.

Moim celem jest udzielanie jak najbardziej precyzyjnych i rzetelnych odpowiedzi na zadane pytanie.

Na podstawie mojego wytranowania na dużych zbiorach danych testowych.

Jednakże, ważne jest również, aby zawsze zachować zdrowy sceptycyzm

i krytyczne myślenie wobec informacji, jakie otrzymujemy z różnych źródeł.

Warto również sprawdzić źródło informacji i jej wiarygodność,

aby upewnić się, że uzyskujemy dokładne i rzetelne informacje.

Niemalże jak z ulotki, takiego rządowego programu, nie daj się wkręcić.

Ważne jest to. Pamiętajcie o tym. W porządku.

Ale jeżeli ona, czy on, bo on się...

Może to jest ona.

No właśnie, ona sztuczsta inteligencja, ale on czat.

Sam twierdzi, że warto sprawdzić źródło informacji.

Czy my jesteśmy w stanie sprawdzić, skąd to urządzenie, ten algoryt,

zaciągnął informacje?

Wiesz co, w niektórych prąptach, które ja sam pisałem, czy pisały inne osoby,

rzeczywiście było tak, że on mówił, a, to jest widoczne w tym papierze.

Takie filmy robiłem, gdzie pokazywałem taki przykład z panią doktor Kubacką.

Machine-generated transcript that may contain inaccuracies.

Rewolucja związana ze sztuczną inteligencją dzieje się na naszych oczach. Świat przyszłości to już teraźniejszość. Sztuczna inteligencja ma szerokie zastosowanie. Sprawdza się w edukacji, medycynie, branży rozrywkowej czy bezpieczeństwie. Bez wątpienia to temat rzeka.