Nauka To Lubię: Czy AI zastąpi lekarzy? Sztuczna inteligencja w medycynie

Nauka To Lubię Nauka To Lubię 4/5/23 - Episode Page - 1h 48m - PDF Transcript

Ok, półktualnie ósma. No to zaczynamy. Sztuczna inteligencja w medycynie. Ja nazywam się Tomasz Rożek, a wy jesteście na nauka to lubię. Albo na Facebooku, albo na YouTubie, a być może jeszcze gdzie indziej. Jeżeli macie ochotę, a bardzo o to proszę, udostępnijcie tego lajwa Wasza.

Jestem znajomym, bardzo nam zależy na tym, żeby jak najwięcej osób nas oglądało i żeby już za bardzo nie przedłużać, to chcę przedstawić gościa, którego zresztą znacie. Mateusz Chrobok, cześć Mateuszu.

Cześć.

Specjalista od spraw bezpieczeństwa cyfrowego, internetowego, cyfrowego i od sztucznej inteligencji z Mateuszem. Tu jesteśmy, tu jesteśmy. Z Mateuszem już się poznaliśmy, znaczy myśmy się poznali już dawno, ale wy poznaliście się całkiem niedawno, czyli jakiś miesiąc temu w czasie pierwszego naszego spotkania lajwowego też o sztucznej inteligencji.

Wtedy rozmawialiśmy i to było takie trochę założenie, może nieco chaotycznie, w tym sensie chaotycznie, że pojawiał się bardzo dużo wątków, to był taki trochę pilot.

Chcieliśmy bardzo sprawdzić, czy po prostu nasi odbiorcy będą tego chcieli. Okazało się, że chcecie, oglądało nas do dzisiaj jakieś 170 tysięcy osób, wielka duma i wielkie podziękowania dla Was.

Mam przed sobą listę rzeczy, o których nie mogę zapomnieć, bo mi bardzo na nich zależy, więc pozwólcie, że po kolei się do nich odniosę.

Więc tak, po pierwsze, no właśnie, pierwszy lajw miesiąc temu, jeżeli ktoś nie widział, zobaczcie koniecznie, umówiliśmy się z Mateuszem, że będziemy o sztucznej inteligencji rozmawiali przez kolejne miesiące,

raz w miesiącu przez kolejne miesiące, bo temat jest bardzo złożony, temat jest bardzo rozwojowy i nie chcemy za bardzo mieszać wątków, dlatego dzisiaj jest medycyna.

Druga sprawa, chce bardzo podziękować Uniwersytetu Śląskiemu za to, że nas gości, jesteśmy w studiu Uniwersytetu Śląskiego i dzięki współpracy z Uniwersytetem Śląskim możemy tą relację realizować, tego lajwa realizować.

Trzecia sprawa, chcę Was bardzo zaprosić do sklepu na Ukatolubie.

Jesteśmy w ostatnich godzinach, czy są ostatnie godziny, do północy jest przed sprzedaż mojej nowej książki Jak działa kosmos, możecie ją kupić na sklep naukatolubie.pl.

To jest książka o kosmosie, jak działa kosmos, dla dzieci bardzo ładnie, przepięknie ilustrowana, może ją tylko jeszcze pokażę o przepięknie ilustrowana, bardzo ładnie ilustrowana.

Wiem od pierwszych recenzji, że dorośli też się sporo mogą od nim z niej dowiedzieć.

Mówię o tym dlatego, że to jest jeden z sposobów wsparcia Fundacji Nauka, to lubię. Dzięki temu wsparciu, dzięki temu, że sprzedajemy na przykład taką książkę, mamy pieniądze na to, żeby realizować na przykład takie lajwy.

To jest koniecznie tak, w sklepie też możecie kupić koszulki, super bohaterami, takie jak ta. Dobra, i wydaje mi się, że teraz może iść w film, króźniutki film o książce.

Co zrobić, kiedy dziecko zada Wam pytanie, na przykład, no nie wiem, czy w kosmosie wieje wiatr?

A dlaczego słońce świeci?

I to jest jeszcze lepsze pytanie. Widzisz, słońce zbudowane jest z małych atomów, które jak sklejają się sobą, to produkują bardzo dużo energii.

I część tej energii widzimy jako światło.

Takich pytań w głowie dzieci rodzi się więcej niż jest gwiazd na nocnym niebie i bardzo dobrze.

Po to, żeby rozbudzić ciekawość w głowach dzieci, ciekawość do kosmosu, postanowiłem w Fundacji Nauka, to lubię napisać książkę pod tytułem Jak działa kosmos?

To wyjątkowa opowieść o Sądzie Kosmicznej, która wybiera się w niesamowitą podróż od Słońca w kierunku granic Układu Słonecznego.

Zarówno książkę Jak działa kosmos, jak i zeszyt, gier i zabaw, możecie teraz kupić w przedsprzedaży.

Wystarczy, że wejdziecie na adres naukatorubie.pl, ukośnik, kosmos i klikniecie w taki link.

Przez chwilę widzieliście fragment serialu animowanego o pewnej Sądzie Kosmicznej. To jest serial animowany o kosmosie dla dzieci.

I właśnie tego typu treści mam na myśli, gdy mówię, że jak wspieracie Fundację Nauka, to lubię.

To my możemy robić za pieniądze zarobione albo za pieniądze darowane.

Bardzo fajne treści dla dzieciaków, nie tylko dla dzieciaków treści, które są ogólnie dostępne.

No dobra, to by było na tyle takiego głoszeń, które mam tutaj wypisane i koniecznie, koniecznie chciałem o nich wspomnieć.

Dzisiaj będziemy mieli kilku gości. Pierwszym gościem, którego już przedstawiłem i takim stałym gościem jest Mateusz, jeszcze raz cię witam,

ale będą też dwie osoby wirtualnie w pewnym sensie i będzie też sztuczna inteligencja.

W tym sensie będzie, że zadałem kilka pytań dotyczących tematu dzisiejszego spotkania, czyli medycyny albo sztucznej inteligencji w medycynie

i w trakcie dzisiejszego live'a ona będzie też odpowiadała. To, co mówi, to, co będzie mówił ten animowany człowiek, to to jest wprost to, co Chad GPT z siebie wydusił.

O samym czacie myśmy rozmawiali ostatnio, więc dzisiaj już nie rozmawiajmy o nim, jeżeli ktoś jest ciekawy, to zapraszam do tego odcinka sprzed miesiąca.

Natomiast pomyśleliśmy z Mateuszem, że spotykając się tak zgrubsza raz w miesiącu zawsze zrobimy na samym początku takie podsumowanie,

bo sprawy się dzieją bardzo szybko, bardzo dynamicznie, co wydarzyło się w ciągu ostatniego miesiąca, czyli od naszego ostatniego spotkania.

Ja wypisałem sobie kilka rzeczy, wypisałem sobie Chad GPT 4.0. Krótkie pytanie, związał odpowiedź. Czym on się różni od tego ogólnie dostępnego?

Największa różnica jest taka, że ten model jest większy, to znaczy ma więcej parametrów i dzięki temu też te tokeny,

czyli inaczej słowa, które można do niego wrzucić, mają większą pamięć, czyli ja wstą rozmawiam.

Ten stary model był w stanie pamiętać około 4 tysiące słów takiego kontekstu, o którym rozmawiamy.

Teraz jest 25 tysięcy, dużo, dużo więcej, dużo lepszy ten kontekst można podać i lepsze odpowiedzi.

O wiele silniejszy model, mniej halucynowania, widać, że firma lepiej działa OpenAI, jeżeli chodzi o ograniczenie tych negatywnych zachowań,

więc o wiele bardziej silny, ale też o wiele bardziej wymagający, jeżeli chodzi o moc obliczeniową, więc tam jest więcej limitów.

To jest jedna rzecz, która się zmieniła tak cztery kontra trzy i pół tak bardzo szybko.

Okej, ale ty mówiąc, że lepsze odpowiedzi nie masz na myśli treść tylko formę.

Są bardziej rozbudowane w sensie takim, bym powiedział, leksykalnym.

Mamy jeszcze mniejsze wątpliwości, albo jeszcze trudniej nam rozróżnić tą odpowiedź o to odpowiedzi człowieka żywego.

No już w poprzednim ja nie rozróżniam, czy dostaję odpowiedź i równie dobrze to mógł powiedzieć ktoś żywy,

a równie dobrze to mógł powiedzieć czy napisać czat.

Te odpowiedzi są lepsze z kilku względów, sam model jest większy, więc można wlać w niego i skondensować więcej wiedzy w tym GPT,

który jest modelem pod czat GPT, a to spowodowało, że masz więcej źródeł, z których możesz korzystać.

Czyli jak zadasz jakieś pytanie, to potencjalnie w samym modelu jest więcej tej wiedzy i ona z tego, co się dowiedzieliśmy,

jak już GPT-4 powstało, dłużej było dostosowywana do człowieka.

To znaczy tam jest taki proces, wiesz, jak w teleturnieju, gdzie sztuczna inteligencja pokazuje,

zadajesz pytanie, ona pokazuje jakieś odpowiedzi i człowiek w pętli, bo tak się do tym ładnie mówi,

mówi ta jest dobra, ta jest zła i tak się dostosowuje ten model do tego, żeby działało lepiej.

Human Reinforced lub Feedback.

Ok, krótko i na temat punkt drugi, Googleowy Bart.

Pojawił się, trochę żeśmy o nim rozmawiali ostatnio, ja wspominałem o tym, że go testowałem na konferencji Google w Paryżu.

Krótko, nie miałem zbyt wiele czasu, więc niewiele mogę o nim powiedzieć.

Nie jestem inżynierem, więc nie wiem, jakie tam są, zanim stoją, wiem, że Google ma swój inny model językowy.

Czy możemy coś w pięciu słuchach powiedzieć, czym te dwa czaty się od siebie różnią?

Google bardzo silnie stawia na bycie online.

To znaczy w Czad GPT w tej chwili też już można wrzucić jakąś stronę i link, żeby to było kontekstem,

z którego korzystamy, żeby coś wyjaśnić albo żeby do czegoś się odnieść.

Bart robi to jakby na samym początku, natomiast w chwili obecnej to jest jeszcze zamknięta beta.

Być może na następnym live będzie ona już dotwarta dla wszystkich i będziemy po większej ilości testów,

bo na chwilę obecną nie można zbyt wiele powiedzieć poza badaczami i osobami, które były w zamkniętej becie.

Jasne. Ja powiem tylko, jeżeli chodzi o taki user experience, to ten Bart Googleowy działał dużo lepiej.

Ta warstwa taka czysto, bym powiedział, wizualna, ona jest dopracowana dużo, dużo lepiej.

No w zasadzie trudno mówić o niej w przypadku Czadu GPT, w którym jest proste okienko i tekst.

W Googleowym Bartcie działało to bardziej wszystko intuicyjnie.

Tak mówię, nie jestem inżynierem, nie wiem co zanim stoi z tyłu, natomiast od strony użytkownika to było nie bojziemy.

Tu jest jeszcze jednak gwiazdka, bo to nie pojawiło się jeszcze w takie generalnie dostępności,

natomiast GPT-4 ma mieć możliwość rozumienia obrazów.

To znaczy w tej chwili jeszcze nie możesz mu wrzucić mema i powiedzieć mu, hey, powiedz mi, dlaczego ten mem jest śmieszny.

Natomiast moim zdaniem to będzie przełom, jeżeli będziemy w stanie to wysyłać.

I tak naprawdę oni to już zapowiedzieli, tylko jeszcze tego nie udostępnili, prawdopodobnie przez tak duże użycie obecnych modeli.

Ok, dobra, punkt drugi odhaczony, punkt trzeci, Włochy Kanada.

Włochy to jest kwestia ostatnich dwóch, trzech dni.

Mówi się, że włosi zamknęli Czad GPT.

Co jest nie do końca prawdą?

Si.

Bo z tego co zrozumiałem, si, senior, senior to po chirpańsku, tak?

Senior.

Senior, właśnie.

Bo z tego co ja zrozumiałem nie tyle zamknęli, ile zamknęli dostęp do danych z terenu włoch,

czy od włochów, jakkolwiek to rozróżniać.

Natomiast będąc w Rzymie, będąc na polu spokojnie z Czadu GPT możesz korzystać.

Możesz korzystać.

Dali im chyba trzy tygodnie na to, żeby firma OpenAI zareagowała na kilka zarzutów.

Jeden z nich był taki, że tam są treści, które potencjalnie mogą być nieodpowiednie.

No bo filtracja tleś, treści dla osób na przykład niepełnoletnich, które mogą uzyskać dostęp do czegoś, co jest groźne potencjalnie.

Nie jest tam silnie obwarowane.

Druga rzecz to jest coś, o czym też zaczęła Kanada na przykład podnosić w ostatnich dniach.

Dany, które są wykorzystowane do uczenia, nie są jawne.

No i coraz więcej przykładów pokazuje, że część z tych danych mogła być wykorzystywana bez wiedzy użytkowników.

Ja z tej mojej takiej banki cyberbezpieczeństwa wiem, że model podpowiadał na przykład sekrety, które gdzieś były dostępne w kodzie,

one były dostępne na stronach internetowych.

Jak ktoś mówił, hej, podaj mi sekret, to ten model to mówił, nie zastanawiał się nad tym, bo nie wiedział, że to jest sekret.

Podobnie stało się z niektórymi danymi osobowymi.

I o ile niektóre z nich mogą być wygenerowane i zupełnie nieprawdziwe, to tak można przez kogoś po prostu skrzywdzić,

bo znajdziesz tam, wiesz, to ma grzorzek na liście i co?

I to jest ten tomek, czy nie ten tomek?

I to już może sprawić jakimś tam świetle.

Więc włosi mają problem z tym takim nieograniczonym zbieraniem danych.

Zobaczymy, co do trzech tygodni firma OPNA ja jej powie, na pewno poziomy filtracji tego, co będzie na wychodzące z modeli,

wychodziło z modeli, będą się zmieniać, natomiast do tego dołączyła też Kanada, gdzie...

Z tym samym problemem?

Z podobnym problemem właśnie, że te ich OPC, który zajmuje się danymi osobowymi, stwierdził,

że to jest zagrożenie, będą się temu pilnie przyglądać, ale oni jeszcze nic nie zablokowali.

Więc jak to Newton wiecznie, żywy, akcja, reakcja, dochodzimy do tego, że zaczynają reagować jakby państwa,

które powoli biorą się za to, że hej, tutaj są prawa, czy te prawa przypadkiem nie zostały nadużyte.

I tak jak pojawia, ostatnio badańsze rozmawialiśmy o sprawie, nie pamiętam czy to było,

z tej diffusion czy mid-journey, które było pozwane za to, że wykorzystywało czyjeś pracę do generowania obrazów,

od tamtego czasu pojawił się jeszcze jeden wyrok sądu Najwyższego Stanu Zjednoczonych, który stwierdził jednoznacznie,

rzeczy wygenerowane przez sztuczną inteligencję nie mogą być, nie mają copyrightów, czyli nie mają praw własności intelektualnej.

No więc...

Bo nie należą do konkretnej osoby.

Bo nie należą do człowieka, ale są takim przetworzeniem przez człowieka, więc to jest ciekawy problem.

Ale z drugiej strony gdybyśmy do naszej rozmowy zaprosili neurobiologa, neurologa, może psychologa,

to bym powiedział, że w gruncie rzeczy, to co my tworzymy, to też są...

Też jest kopia.

To też jest przetworzony obraz, przetworzony dźwięk albo wrażenie, z którym w przeszłości mieliśmy do czynienia.

Absolutnie.

Pytanie, a właśnie, a propos pytań.

Oczywiście możecie zadawać pytania i bardzo zachęcam do tego, zachęcamy do tego, żebyście te pytania zadawali.

Tak jest.

Czy oglądacie na YouTube, czy oglądacie na Facebooku, pisujcie proszę w komentarze.

Ja absolutnie nie obiecuję, że wszystkie pytania padną.

Tych pytań jest bardzo dużo i bardzo, bardzo dziękuję wam za to, że te pytania zadajecie.

Te najciekawsze postaramy się wybrać.

Mamy w scenariuszu Gęsto, dlatego ja też tak szybko mówię.

Powiedz mi jeszcze, bo jedna rzecz mnie zainterygowała w kontekście Włoch i Kanady.

Si.

Jak tutaj, czy technicznie państwo może zablokować dostęp do danych wygenerowanych tak geograficznie?

No bo włosi zablokowali dane.

Dostęp do czata chcą zablokować.

Okej, ale na razie nie zablokowali dostępu do czata, tylko mówią zablokowaliśmy dostęp do danych z Włoch.

To co zostało już nauczone nie da się jakby zapomnieć w taki łatwy sposób.

No właśnie o to pytam, czy to się da wyciągnąć z jego pamięci.

To jest jeden z większych takich problemów, jak zapomnieć w ogóle w takich modelach.

Bo teraz w tym procesie uczenia musieliśmy stwierdzić, że mamy opisane te wszystkie dane, które pochodziły z rejony Włoch,

co być może mają, być może nie, ale znowu przeuczyć ten model.

Wyobrażasz sobie te koszty, jak tam są oszacowane od miliona do dziesiątek milionów dolarów, o olbrzymie koszta.

Więc nie wyobrażam sobie, że takie ćwiczenie zostanie zrobione.

To jest trochę problem taki geopolityczny, który nam się pojawia.

Na zasadzie mamy pierwszy kraj, potem drugi, co teraz.

A co będzie w sytuacji, kiedy ktoś stworzy taki model i będzie miał tam, mówiąc ładnie, w nosie ograniczenia,

jeżeli chodzi o dane osobowe, czy eletykę zastosowania.

To chyba będzie jeden z kolejnych live'ów.

Myślę, że to będzie kolejny, jak najbardziej tak.

No dobra, z danych czy z tych rzeczy, które się wydarzyły,

Uniwersytet Stanforda opublikował coroczny raport dotyczący sztucznej inteligencji.

Ja wypisałem kilka najciekawszych, moim zdaniem rzeczy.

One też się będą pojawiały chwilkę później w naszej rozmowie,

bo one też dotyczą, między innymi dotyczą medycyny.

To, co chciałem powiedzieć, to tak, takie trzy punkty tytułem wstępu.

To, co wynotowałem.

Firmy, które swoją strukturę, nie wiem jak to powiedzieć,

wykorzystują sztuczną inteligencję,

statystycznie spadają im koszty i rosną zyski znacznie, znacznie szybciej niż tym firmom, które tego nie robią.

To jest punkt pierwszy.

W firmach, które zainwestowały sztuczną inteligencję,

i to jest dla mnie, muszę ci powiedzieć, totalne zaskoczenie,

jedna trzecia tych firm powiedziała czy oświadczyła,

że zrobiła to, czy to sztuczna inteligencja w ich strukturach jest po to, żeby interpretować i rozumieć teksty.

Super.

Super.

Raczej zakładał inne rzeczy.

Raczej zakładał, że może jakieś modele matematyczne,

dzięki którym, nie wiem, mogą szybciej inwestować, albo wyciągać jakieś dane z, nie wiem, z klientów,

albo właśnie crossować, wyszukiwać jak,

ale nie założyłem, że aż tak dużo, jedna trzecia tych firm,

tylko po to, żeby algorytmy rozumiały i interpretowały teksty.

To ta gwiazdeczka, bo te LLMy, large language models, które mamy, świetnie się do tego nadają,

to jest teraz taka dziedzina, która bardzo szybko się rozwija takich LLMów,

którzy dobrze potrafią w matematykę, one w tej chwili nie są jeszcze tak popularne,

więc jakby ten rozwój, o którym ty mówisz, on pewnie za chwilę nastąpi,

ale my będąc w tym kontekście chata GPT, to nie jest jeszcze ten świat.

Okej.

Kolejna rzecz, pytanie do ciebie, chociaż w zasadzie ty to widzisz.

Dobra, to w takim razie pytanie do was.

W którym kraju jest największa akceptacja do zastosowania sztucznej inteligencji w ogóle?

Nie w firmach, tylko w ogóle.

No tym krajem są Chiny, 80% jeśli wierzyć danym z raportu Uniwersytetu Stanforda,

80% statystycznie mieszkańców Chin nie ma z tym absolutnie problemu.

Dla porównania, jeżeli chodzi o Stany Zjednoczone, to około 40%.

Zdecydowany spadek.

Zdecydowanie mniej, połowa mniej.

Chinczycy z jakiegoś powodu albo się boją tego powiedzieć, albo mimo tego,

że z naszego punktu widzenia są krajem, w którym ta sztuczna inteligencja jest zastosowana

w sytuacjach, które dla nas są jakimś, niemalże, horrorem,

totalna inwigilacja sprawdzanie wszystkich, sprawdzanie wszystkiego,

to mimo tego 80% Chinczyków nie widzi problemu, uważa, że to jest dobry kierunek.

Nie ta inwigilacja, ale sztuczna inteligencja w ogóle.

W Stanach Zjednoczonych 40% społeczeństwa nie widzi problemu w tym,

żeby sztuczna inteligencja była coraz bardziej zaawansowana i była coraz chętnie wykorzystywana.

Ja tu widzę taką małą gwiazdkę i trochę przejścia do tematu medycyny,

bo to jest nie tylko kwestia sztucznej inteligencji,

moim zdaniem tylko uogólniłbym to na pewną etykę i na pewne ograniczenia,

które są związane ze społeczeństwem.

No więc zaczynając od medycyny, wydaje mi się, że przyzwolenie do tego,

w jaki sposób można eksperymentować, eksperymenty prowadzić w dziedzinie

właśnie bardzo blisko powiązanej z człowiekiem, którą jest medycyna,

no bo człowiek jest zawsze w środku, tam też jest to o wiele bardziej akceptowalne.

Ok, i ostatnia rzecz, o której chcę powiedzieć podsumowując, co się wydarzyło.

W tym raporcie jest pokazane także inwestycje.

Stany Zjednoczone w roku 2022, czyli poprzednim,

zainwestowały w rozwój sztucznej inteligencji 50 miliardów dolarów.

I są na liście pierwszym krajem, który, no, najwięcej zainwestował.

Drugim są Chiny. Stany około 50 miliardów dolarów,

Chinczycy 13 miliardów, czyli znacząco znacząco mniej.

To nie jest mniej więcej, tyle samo, ciud mniej, ale znacząco mniej.

Trzeci kraj to jest Zjednoczone Królestwo, Wielka Brytania.

Czwarty to jest Izrael, co może dziwić, bo to bardzo ma ludki kraj,

może nie dziwić, bo to kraj, który inwestuje bardzo.

Później Indie, gdzieś tam, gdzieś tam są Niemcy, później długo, długo, nic Francja i tak dalej, i tak dalej.

Dobra, czy mamy podsumowane i czy mamy powiedziane, co się zadziało w ciągu ostatniego miesiąca naszego ostatniego spotkania?

Super, jeszcze raz przypominam, możecie zadawać pytania i zachęcam, żebyście zadawali pytania.

Mateuszu, zapytałem sztuczną inteligencję o medycynę.

O sztuczną inteligencję w medycynie, a później wygenerowaliśmy, nie wiem jak to powiedzieć, obraz kogoś, kto o tym opowiada i bardzo, bardzo proszę o pierwszy materiał.

Technologia AI jest już stosowana w medycynie na różne sposoby.

Przykłady obejmują diagnozowanie chorób, analizowanie obrazów medycznych, planowanie terapii oraz odkrywanie nowych leków i terapii.

AI może pomóc w rozpoznawaniu chorób, przewidywaniu ich rozwoju i wyborze odpowiedniej terapii, co może przyspieszyć proces leczenia i zwiększyć szanse na wyleczenie.

Technologia ta może również pomóc w automatyzacji procesów medycznych i usprawnieniu zarządzania danymi medycznymi, co pozwala lekarzom skupić się na udzielaniu bardziej skutecznej opieki pacjentom.

Mimo to nadal istnieją wyzwania związane z bezpieczeństwem i prywatnością danych medycznych, które muszą być odpowiednio rozwiązane przed pełnym wdrożeniem AI w medycynie.

Okej, zastanawiam się jak ten gość powinien mieć na imię, bo być może będzie z nami nastałe.

Słucham sobie naszym reporterem.

Mateuszu, jak byś miał wprowadzić w pięciu słowach sztuczna inteligencja medycyna?

Na pierwszy rzut oka dla kogoś, kto w ogóle się tematem nie zajmuje, to są trochę dwa różne światy.

Medycyna to biologia, to człowiek, to komórka żywa, to węgiel, a tutaj krzem.

A jednak okazuje się i to też jest informacja z raportu publikowanego z Uniwersytetu Stanforda, że to właśnie w medycyne najwięcej się inwestuje.

Znaczy w sztuczną inteligencję w medycynie dużo więcej niż na przykład w sztuczną inteligencję Fintechu, albo dużo więcej niż sztuczną inteligencję, która ma analizować dane zakupowe.

Medycyna, czy dlatego, że tam jesteśmy tak bardzo nie technologiczni i nadrabiamy, czy dlatego, że tam są największe zyski? Dlaczego?

Moim zdaniem przez to głównie, że pojawiły się tam bardzo dużo danych.

To znaczy zobacz, że jak opomiarowujesz sobie człowieka na różne sposoby, to to jest paliwo dla wszelkich modeli.

Historycznie dla tych modeli słabych sztucznej inteligencji, czyli takich eksperckich, które były wykorzystywane do odpowiedzi na proste pytania,

ale im więcej danych jest nieustrukturyzowanych takich pomieszanych, tym więcej jest możliwości do interpretacji,

więc ponieważ mamy dużo danych, interesujemy się człowiekiem z naturalnych powodów i pomiarujemy się, to powoduje, że jesteśmy w stanie więcej wywnioskować.

No i tutaj mamy teraz dziedziny, które są związane z diagnozą, bo trudno jest mieć wszystkie informacje o tym, co się dzieje,

jak wyobrażam sobie to, jak działają lekarze, którzy muszą przełączać swoje konteksty.

W zależności od tego wchodzi jeden pacjent, a mam tam pięć minut, żeby dowiedzieć się, co się dzieje,

później postawić diagnozę i zrobić coś innego.

To jest o wiele trudniejsze niż, jakbyś miał to w elektronicznej formie i ten kontekst ciągle byłby dostępny,

więc wyobrażam sobie, że ten wielką wartością jest to, że to są dane.

Przypominam sobie takie badania, o których czytałem kilka lat temu, no nie tak bardzo, mówiąc kilka,

mam na myśli nie osiem, dziewięć, tylko kilka, może dwa, trzy.

I te dane były zbierane w Stanach Zjednoczonych, gdzie pytanie z kontekstów wynikało,

że tego typu badania się tam robi od dłuższego czasu.

Pytano lekarzy, co jest dla nich źródłem największego takiego wypalenia zawodowego,

co jest źródłem takiej, powiedzmy, niezgody na to, co mają na co dzień.

I do któregoś momentu bardzo często padała odpowiedź, że nie do burdanych.

To znaczy, że lekarz kiedyś, kiedyś, nie 100 lat temu, ale 20 lat temu, 15 lat temu,

podejmował decyzję opartą w dużej mierze na intuicji.

Wiedział o tym, że gdyby miał lepszy sprzęt, lepszy dostęp do sprzętu,

więcej czasu, więcej pieniędzy na badanie konkretnego pacjenta,

to są technologie, które dałyby mu dane, na podstawie których on mógł podjąć lepszą decyzję.

Ale od kilku lat to się zmienia i dzisiaj jedną z najczęściej podawanych odpowiedzi jest nadmiar danych.

Innymi słowy lekarz ma świadomość, że jest w stanie, odnośnie konkretnego pacjenta,

wygenerować taką ilość danych, że jest znowu zgubiony.

Sama świadomość, kardiologa na przykład, że być może odpowiedzi na stan pacjenta,

że miałem w smartwatchu, ale nie wiemy jak je wyciągnąć.

Znaczy wiemy jak je wyciągnąć, ale nie mamy narzędzi do analizy.

Nie mamy wciąż narzędzi, które by potrafiły z tego ogromu danych wyciągnąć to, na czym nam najbardziej zależy.

To jest trudne. Rozumiem, że sztuczna inteligencja jest odpowiedziona.

I to jest jakby cała dziedzina algorytmów, które poszukują po pierwsze wzorców, po drugie anomalii.

Te, które są związane z wzorcami, wyobraź sobie, że mamy niezależnie tej od dziedziny,

czy mówiłeś o EKG, czy o czymś innym, zdrowe tkanki, zdrową odpowiedź w EKG człowieka

i porównujemy potem tego samego człowieka albo do jakichś grupy kontrolnej do innych.

No i będzie można zauważyć, im lepsze jest to profilowanie, bo więcej mamy danych na danym użytkowniku,

co jest nietypowe, co jest anomalią.

Jest cała dziedzina, która jest świetnie rozwinięta, jeżeli chodzi o rozpoznawanie obrazu

i to są rzeczy związane np. z radiologią, gdzie anomalie człowiek potrzebuje czasu, żeby się przyjrzeć

i tego tak naprawdę uczy się też sieci neuronowe, czyli jak jest taki społeczny efekt, że mamy starszych lekarzy,

którzy są doświadczeni i młodsi lekarze przy nich uczą się diagnoz, to naturalnie propagujemy tę wiedzę w społeczeństwie.

W przypadku tego, że teraz włączamy w ten proces jeszcze metody sztucznej inteligencji,

jak mamy te dane, jak mamy te diagnozy, które są stawiane,

to mamy o wiele większą szansę, żeby rozpropagować tę wiedzę, jakby nie patrzeć ekspercką, do różnych kolejnych dziedzin.

Więc w pewnym sensie replikujemy możliwości detekcji i w tym można powiedzieć,

że w zależności od dziedziny algorytmy już osiągają to, co osiągają ludzie, w niektórych są po prostu szybsze, są tańsze,

a to uwalnia czas lekarzy i nierzadko na inne rzeczy, które są jakby bardziej kreatywne i bardziej wysokopoziomowe.

Szczególnie, że tego może nie zauważać ktoś, kto nie śledzi, ale problem z niedoborem lekarzy jest problem globalnym.

To nie jest tylko problem nasz polski.

Powiedziałbym paradoksalnie i to może być jakoś tam dla wielu dziwne,

że w Polsce w wielu dziedzinach my mamy łatwiejszy dostęp do lekarza niż na przykład Wielkiej Brytanii, niż czy w Stanach Zjednoczonych.

Wykształcenie lekarza, dobrego lekarza to są tak ogromne pieniądze, że jego każda minuta jest warta majątek,

więc narzędzie, które pozwoli go uwolnić od tych rzeczy, które może za niego zrobić algorytm, jest cenne.

I a propos cenny, cenności i ceny, trochę o tych pieniądzach, bo to chyba jest ostatni kawałek, ostatni cytat tego uniwersytetu, rapport z Uniwersytetu Stanforda.

Do roku 2014 większość modeli uczenia maszynowego była tworzona przez środowiska akademickie.

Od tego czasu to biznes rośnie, a to co dzieje się w akademiach, albo jest w miejscu, albo spada.

W roku 2022, jeżeli mówimy o dużych modelach, to 32 zostały stworzone czy sfinansowane przez prywatne firmy, a tylko 3 przez instytucje naukowe publiczne.

To pokazuje także w kontekście medycyny, to totalne przesunięcie i to, że to nie jest już czysto teoretyczna zabawa, tylko w tym jest gruby, gruby biznes.

Bo firmy nie brałyby się za to, za wydawanie miliardów dolarów, gdyby nie miały porządnej obietnicy zwrotu.

Myślę, że to popyt i podarz jest bardzo silna w tej twojej wypowiedzi, bo mamy cały czas niedobór lekarzy, szczególnie coraz bardziej specjalistów,

więc jakiekolwiek uwolnienie ich czasu albo zwiększenie możliwości ochrony pacjentów, pomagania pacjentami, po prostu będzie opłacało się całej społeczności.

Pojawiło się takie jedno pytanie, które mi trafiło tutaj.

Ja te pytania, słuchajcie, kochani, to nie jest tak, że ja te pytania ignoruję, to jest tak, że ja te pytania mam tutaj wszystkie.

Pomyślałem, że w podsumowaniu na końcu naszego spotkania przejdziemy przez nie. Jeżeli masz konkretne pytanie, na które nas też odpowiedzieć, bo pasuje do kontekstu, jak najbardziej.

Ja mam taką myśl właśnie o propos tego, bo pytanie, w jaki sposób studenci medycyny powinni rozwijać swoją wiedzę na temat obecnych algorytmów sztucznej inteligencji,

tak by pozostać potrzebnie na rynku pracy. I to ma dwa kawałki.

Jeden jest taki, w którym wyobrażam sobie, że jak powstaje jakakolwiek ewolucja technologiczna, to znaczy mamy zastosowanie promieni rentgena,

to trzeba troszkę nauczyć się o tej technologii, żeby umieć z niej korzystać.

I teraz narzędzi trzeba umieć korzystać.

Absolutnie. I teraz wyobrażam sobie, że może jeszcze nie dziś na studiach, ale prawdopodobnie tog studiów na medycenie albo jakiś inny taki program,

powinien zostać dostosowany, żeby mieć świadomość tego, jak korzystać z narzędzi opartych o sztuczną inteligencję i jakie one mają ze sobą ryzyka.

No bo tak jak pojawiają się anomalie, które wynikają z technologii, tak dobrze jest wiedzieć, co może się stać i zawsze mieć taką gwiazdkę dookoła.

Więc ja bym odpowiedział tak, że absolutnie lekarze będą potrzebni.

Będą się rozwijać i będą coraz bardziej ekspertami, natomiast im więcej będziecie mieli świadomości narzędzi, które będą was wspierać i też niedoskonałości tych narzędzi, tym lepiej.

To mi pasowało o tyle do kontekstu, bo to jak najbardziej znowu spowoduje hiperspecjalizację i to też spowoduje, że ta takie proste rzeczy,

to mam taką wizję, możesz się absolutnie z nią zgodzić, że te proste rzeczy, które są w pewien sposób powtarzalne i jak już są te dane, bo mówimy o tym, że zbieramy więcej danych,

one będą załatwiane automatycznie. To znaczy wyobrażam sobie, że do rzeczy prostych w pewnym momencie będziemy engażować mniej i mniej ludzi,

co poza być takimi pytaniami edycznymi, natomiast to może uwolnić jeszcze więcej czasu na bardziej skomplikowane przypadki.

Ja myślę, że my w ogóle zrobimy osobny odcinek naszej rozmowy o rynku pracy, bo to jest bardzo, bardzo ciekawe i to jest jedno z częściej zadawanych pytań.

Oczywiście w kontekście medycyny, gdy opowiadam o sztucznej inteligencji w medycynie, zawsze na sali, na widowni pada pytanie, OK,

czy przyszłość to algorytmy, które zastąpią lekarza. Ja wtedy zadaję pytanie, czy USG zastąpiło lekarza, czy USG dało lekarzowi możliwości

i dało lekarzowi komfort podejmowania decyzji, których lekarz pokolenie wcześniej po prostu nie miał. Ja na to tak patrzę,

że rzeczywistość, jaka będzie tego, nie wiemy, natomiast jak najbardziej, zresztą to jest ostatni pytań, który ja sobie zapisałem w scenariuszu, czy lekarze zostaną zastąpieni,

możemy do tego wrócić jeszcze. Dobra, wydaje mi się, że powinniśmy przejść w zasadzie już też trochę o tym, żeśmy rozmawiali,

do konkretnych miejsc, w których algorytmy w medycynie są obecne, bo mówimy o analizie danych i to jest, powiedzmy,

no dobra, ale jak pada hasła analiza danych, to w zasadzie tym możemy przykryć absolutnie wszystko. A chciałbym bardzo, żebyśmy jednak powiedzieć coś więcej,

bo tak, analiza danych, ale też spieranie diagnostyki, modelowanie itd. Czyli analizy, dużych zbiorów danych, czymkolwiek te zbiory są.

Naprawdę zabrakłoby nam czasu, gdybyśmy z Mateuszem zaczęli wyliczać modele, które są na przykład lepsze w interpretacji obrazów rentgenowskich czy tomograficznych

i są dużo lepsze niż najlepsi lekarze. Potrafią to robić, robią to świetnie, robią to, znajdują pewne nieregularności, o których powiedziałeś,

dużo szybciej niż najlepszy nawet radiolog, co powoduje z jednej strony. Dużo większe szanse na wyleczenie, bo wcześniej zauważony nowotwór daje nieporównywalnie większe szanse,

ale na co rzadziej się zwraca uwagę, oszczędzają koszty systemu zdrowia, bo w momencie, w którym na przykład rak piersi zostanie wykryty wtedy, kiedy jest guleczką wielkości główki od szpilki,

to cała i diagnoza, ale oczywiście cała terapia wygląda zupełnie inaczej, także pod względem kosztowym, niż wtedy, kiedy zostanie wykryty,

bo już na przykład palpacyjnie będzie się go dał wyczuć. To jest jakby taki temat, który dla mnie jest bardzo bliski z trzech względów.

Pierwsze jest taki, że profilowanie zdecydowanie będzie poprawiało sposoby leczenia, bo im bardziej to będzie dostosowane do ciebie jako człowieka,

czyli im więcej będzie kontekstu związanego z tobą konkretnie, z tą kiem czy z kimkolwiek innym, tym lepiej będzie można to dobrać.

Po drugie to jest coś, co zawsze zbudzało jakby, ja mam taką naturalną obawę o prywatność, natomiast jeżeli będziemy mieli wystarczająco dobre próbki porównawcze.

Człowieka w twoim wieku z podobną historią chorób, z podobnymi etapami i będziemy mieli historię tego, jak oni dobrze czy źle przechodzili, posiadając taką otwartą wiedzę,

być może szybciej dobierzemy terapię tak, żeby ona była jak najbardziej skuteczna, no bo im więcej mamy tych danych, tym więcej mamy jakby odpowiedzi organizmów,

być może bardziej lub mniej zbliżonych na konkretne terapie, więc profilowanie i jakby ta historia, która będzie coraz bardziej dostępna.

Ja sobie wyobrażam tak jakby, gdybyśmy mieli mówić o medycynie takiej bardzo, gdzie człowieka mamy w centrum, to w imię dobra ludzkości trzeba by się takim przykładami dzielić.

Natomiast tam jest to niebezpieczeństwo, że tam jest jednak dużo prywatnych informacje, więc jest to trudne do wyważania.

I trzeci element, który jest dla mnie związany, to jest to, że maszyny się nie męczą.

To znaczy możemy to robić 24 na 7, a my to już pokazywały przy innym wypadku badania dotyczące np. sędziów, że po obiedzie i przed obiadem były zupełnie różne wyroki.

Każdy z nas jako człowiek inne, ale są nawet takie badania pokazujące, jak sędziowie w Stanach Zjednoczonych, nie dlatego, że oni tam są jacyś dziwni, tylko po prostu te badania się zwykle w Stanach robi,

jak inaczej orzekają wtedy, kiedy np. drużyna piłkarska czy drużyna sportowa, której sędzia kibicuje, wygrała, a jakie są podejmowane decyzje wtedy, kiedy przegrała.

Są całe modele, które pokazują, kiedy dobrze jest wbić na tą salę sądową, a kiedy nie.

Natomiast wracając do medycyny, oczywiście jest tak, że my jesteśmy jednym gatunkiem, ale oczywiście jest też tak, że każdy z nas jest inny.

I tutaj ten element intuicji lekarza zawsze był niezwykle istotny. Czy chcesz powiedzieć, że intuicja może być zastąpiona statystyką?

Bo ile statystyka będzie odpowiednio duża?

Myślę, że to jest kolejny krok w rozwoju systemów ekspertowych.

Bo to, co się działo na przestrzeni tam od lat siedemdziesiątych, osiemdziesiątych, to było próba przelania wiedzy eksperckiej.

Ludzie, którzy obserwowali, eksperymentowali np. z medycyną, ale także z innymi dziedzinami.

I później zapisanie to w formie algorytmu, tak były algorytmy eksperckie.

Natomiast one miały swój taki szklany sufit, jeżeli chodzi o rozwój, bo tam, gdzie dochodziliśmy do szerokiej liczby przypadków,

do jakichś przypadków, które są bardzo niszowe, których wcześniej ta osoba nie mogła zobaczyć, byliśmy ograniczeni.

Teraz otwierając się na o wiele szerszy zakres danych, powodujemy, że te modele mogą przebić ten szklany sufit i mamy kolejną ewolucję w tym kierunku.

Więc to jest nie tylko jeden ekspert, ale można powiedzieć, że im więcej danych będziemy mieli, to jest łączona wiedza wielu ekspertów, która sumarycznie jest wyższej jakości.

A przekłada się to, ta analiza danych i ta wiedza ekspercka, między innymi na przykład na to, że lekarze mogą liczyć na to i takie modele też już są,

i takie algorytmy też już są, algorytmy wspierające np. dawkowanie.

Tak, albo podejmowanie decyzji.

Albo podejmowanie decyzji.

Tutaj chciałem pozdrowić Piotra, Piotra Zlinktina z Wojewódzkiego, wielo specjalistycznego Centrum Onkologii i Traumatologii Miejem Marii...

Nie Marii, patrz, Mikołaja Kopernika, ślepy jestem, Marek, tego Kopernika, tak.

Włodzi, ponieważ pan Piotr, dr Piotr jest fizykiem medycznym, to jest dziedzina bliska mojemu sercu, bo sam jestem fizykiem medycznym z podstawowego wykształcenia.

I wspominał o tym właśnie, na LinkedInie mi napisał, jak pojawiło się ogłoszenie o naszym dzisiejszym streamie, o tym jak bardzo fizyków medycznych przy dawkowaniu,

czyli o określaniu na przykład dawek w chemioterapii.

O chemioterapii akurat chyba nie pisał, tylko właśnie o onkologii o radioterapii.

Wspierają modele, które, znowu, chodzi o to, żeby podać tyle, ile trzeba.

Nie za dużo, nie za mało.

Ale nie za dużo, bo jak za dużo, to to człowiekowi może zaszkodzić tkankom, które otaczają na przykład nowotwór.

Czyli dokładne określenie, gdzie on jest, dokładne przeliczenie w trzech wymiarach pod konkretną osobę, czyli szyte namiary.

Ja sobie zapisałem, jak opowiadać wcześniej, medycyna spersonalizowana.

A to bardzo często pada w kontekście raczej genetyki, gdzie mamy odpowiednio zaawansowaną analizę danych, ale związanych z naszymi genami.

I na tej podstawie, czy z tego wyciągamy wnioski, czy algorytm wyciąga wnioski, co Tobie podać, a co mnie podać, mimo tego, że na przykład chorujemy na to samo.

Może się okazać, że to będą inne dawki, a może nawet inne lekarstwo.

Ta medycyna spersonalizowana, ona jest w pewnym sensie synonimem sztucznej inteligencji w medycynie.

Profilowania, tak? Tak.

Tak jak Google czy inne wyszukiwarki znają Cię, bo mają do Tobie dużo danych, więc dobrze opowiadają.

Tak wyobrażam sobie, że medycyna spersonalizowana będzie powodowała, że to będzie skuteczniejsze.

Bo w tym wszystkim o to najbardziej chodzi.

Tak, i teraz jak sobie wyobrażam taki dylemat, czy hej, oddać swoje dane, ale w zamian to masz skuteczniejszą potencjalnie terapię, czy nie oddawać, wybór jest dosyć prosty.

Ok, ja się zastanawiam nad tym, bo Ty mówisz, oddać swoje dane, ale czy to jest nieuniknione?

No, bo przecież Ty możesz oddać swoje dane bez podawania, że chodzi o Mateusz Achroboka, który mieszka na Śląsku, który ma tyle lat i tak dalej, i tak dalej.

Te dane mogą być anonimizowane.

Mogą być, tylko są też takie procesy, delikatnie tylko odbiegając, które pozwalają odwrócić te dane.

Czyli gdybyś Ty znał historię iluś tam moich chorób, to możesz powiedzieć, a, ten ziomek to jest właśnie Mateusz.

Ok, więc ten proces deanonimizacji jest możliwy i zawsze jest tam jakieś ryzyko tego, że ktoś będzie w stanie to poznać,

a dane niezależnie jakie wyciekają prędzej czy później, więc to ma pewnym taki element swojego ryzyka, ale potencjalny zysk jest o wiele, wiesz, wyższy.

Tak myślę, chcę powiedzieć jeszcze o modelowaniu, ale pozwól, że sobie to zostawimy za chwilkę, bo chcę puścić jeden film wcześniej jeszcze,

a zanim ten film, to chcę jeszcze powiedzieć o czymś, co w ogóle nie kojarzy się ze sztuczną inteligencją w medycynie, czyli o psychologii, o psychiatrii, o terapii.

Chcę o tym koniecznie powiedzieć, po pierwsze dlatego, że to jest ciekawe, dlatego, że nie kojarzy się ze sztuczną inteligencją,

wciąż jednak nawet ci, którzy jakoś się tym tematem interesują, wydaje się powszechnie, że to, co jest związane z naszymi emocjami, uczuciami,

jednak nie jest taką ścisłą analizą danych, a to jest nieprawda, bo odpowiednio analiza danych, na przykład tego, jakie emocje widać na naszych twarzach,

jest od wielu lat doskonalona i chcę te o tym powiedzieć też dlatego, że mam w pewnym sensie tutaj osobiste doświadczenia.

Na kanale Nauka to Lubię, możecie znaleźć sprzed kilku miesięcy taki film o startupie polskim Kalmsi i to jest startup, który stworzył bardzo zaawansowanego wideobota.

Ten wideobot będzie być może pierwszym na świecie cyfrowym terapeutykiem, innymi słowy, dotychczas wszystko, co kojarzyło się z terapią,

było cząsteczką chemiczną, czy to był syrop, czy to był zastrzyk, czy to była tabletka bardzo, bardzo spłycając,

ale wchodzimy w czasy, w których być może lekarstwem będzie kot, zerojedynkowy, algorytm, który lekarz będzie dostęp do niego,

też przepisywał na receptę i ja taki algorytm widziałem.

To jest algorytm, który pomaga, który jest stworzony dla dzieci, pomaga dzieciom w Stanach, czy będzie pomagał wtedy, kiedy przejdzie pełny...

Testy kliniczne.

Testy klinicznych, co swoją drogą jest ogromnym wyzwaniem, ponieważ testy kliniczne były stworzone z myślą o cząsteczkach chemicznych,

a nagle się okazuje, że one mają mieć też zastosowanie, czy przez tą procedurę mają przechodzić programy komputerowe.

Dzieciom, które mają napady lękowe, stany paniczne, napady depresyjne, czy stany depresyjne.

Nie jestem lekarzem, więc wybaczcie, jeśli jakieś słowa używam tutaj w sposób nieuprawniony.

Natomiast to jest coś niesamowitego.

Widziałem algorytmy, które oceniają na przykład szansę i mają niezwykłą skuteczność.

Na to, że jakaś osoba za lat 10 czy za 15 zachoruje na chorobę jakąś degeneracyjną mózgu wiekustalczego,

na przykład Heimer-Parkinson i ocenia to ten algorytm pokroju pisma.

Ociekały.

Bo odpowiednio wytrenowany model już widzi pewne nieregularności.

Może to, że kropkę inaczej stawiasz, może to, że ogonek inaczej rysujesz, czy piszesz.

Coś, co jest niesamowite to to, że w przeszłości wszystkie bardzo zaawansowane technologie w medycynie

wiązały się z ogromnymi pieniędzmi.

To znaczy, jak ktoś wyprodukował pierwszy tomograf to naprawdę niewiele placówek było stać na to, żeby mieć tomograf.

Natomiast tutaj tak ktoś napisze kod, odpowiednio go wytrenuje i ty masz do tego dostęp o ile masz telefon komórkowy

z aparatem i z dostępem do internetu, bo wystarczy, że napiszesz coś ręcznie.

W tym teście on był jakiś czas temu opisywany chyba w science.

Opisywało się rysunek taki po prostu czarno biały rysunek.

Co widzisz na tym rysunku?

Fotografuje się to w chmurze, to jest analizowane i dostajesz odpowiedź.

I to jest niesamowite.

Jak najbardziej.

Dotknąłeś takiego mojego konika, to znaczy biometrii behawiralnej.

Nie wiem czy wiesz jest takie powiedzenie, że jak domownika swojego nie poznasz po krokach to to nie jest domownik,

który jest związany z tym, że słyszysz pewien rytm, ale to jest jeden z takich pośrednich metod,

pośrednich informacji, które możesz wykorzystać do tego, żeby sprawdzić, czy to się w porządku czy nie.

I wyobraź sobie, że taki smartwatch, który tam mierzy twoje kroki,

zalinkuje później takie badania, które były chyba robione w Izraelu, jak się nie mylę.

Po ośmiu krokach można sprawdzić, czy ktoś i kto idzie jest w stanie wskazującym, czy nie.

I teraz o ile wyobrażam sobie, że nie wiem, może to tam być w jakiś sposób wykorzystane do tego, żeby zbadać stan człowieka,

no to wyobrażam sobie, że w takich krajach, gdzie na przykład alkohol jest zabroniony, nie wiem,

jakaś Arabia Saudijska albo coś innego, posiadanie tego typu informacji może być bardzo, bardzo wrażliwe dla ich użytkowników.

W ogóle dla mnie fascynujący tak jak z tego pisma, które też jest jakoś tam pośrednią informacją, można wywnioskować tak wiele rzeczy.

I wyobrażam sobie, że wszystkie te firmy, które teraz zbierają jak najwięcej danych, potem takie hipotezy będą stawiać

i będą w stanie nie tylko choroby degeneracyjne, ale pewnie jakieś rzeczy post-kowidowe, jakieś rzeczy, które będą w stanie je korelować

i sugerować jakieś poprawy. A w ogóle reklamy takim ludziom dawać to na historię.

Tak, targetowanie reklamy. Ja może tylko jeszcze dodam, że w tym algorytmie, tym bardzo zaawansowanym wideobocie dla dzieci,

dziś ja nawet nie wiem jakich słów używać opowiadając o tym, bo ciśnie się, że on, że ten algorytm, no to oczywiście nie jest człowiek, tak?

W każdym razie ten algorytm rozmawiając z dzieckiem, rozpoznając jego stan emocjonalny, jest mu w stanie pomóc

i mówię o tym dlatego, że powiedziałeś 24 godziny na dobę, zawsze jest do twojej dyspozycji.

Lekarz, psychiatra, dziecięcy jest do dyspozycji za rok, albo za pół roku, albo za jakiś czas, jak pójdziesz prywatnie,

nie w środku nocy, nie wtedy, kiedy dziecko budzi się z płaczem i ma na przykład napad, jakieś choroby, a ten algorytm jest natychmiast.

I po drugiej stronie tego algorytmu jest lekarz, żywy lekarz, który jest w stanie analizować odpowiedzi dziecka,

jest w stanie analizować cały proces, proces terapii.

No dobra, ja teraz chcę ci pokazać jeszcze jeden film, inno i Wam oczywiście też.

Podstawą naszej firmy jest druk 3D, natomiast zajmujemy się też szeroką poetą biotechnologią, czyli też biodrukiem 3D.

I to jeśli chodzi właśnie o szczuczą inteligencję, to jest główne zastosowanie nasze właśnie tym się zajmujemy.

Jeśli chodzi też o zakres modelowania, tutaj właśnie biodruk 3D generalnie jest wykorzystywany do tworzenia złożonych struktur,

złożonych tkanek, które mogą naśladować dokładnie struktury i funkcje prawdziwych ludzkich narządów, czy też tkanek,

a następnie możemy opracować jakieś nowe metody leczenia, czy też różne terapie.

Jeśli chodzi o szczuczą inteligencję właśnie w tym biodruk 3D, no to ona obejmuje przede wszystkim projektowanie

i już samo odrukowanie tych trójwymiarowych struktur, które dokładnie reprezentują właśnie funkcje tkanki i narządu.

Sztuczna inteligencja jest lepsza od człowieka w biodruku 3D, ponieważ jest bardziej dokładna, mamy bardziej powtarzalne wyniki.

To jest potrzebne, żeby można było odwzorować, dodane eksperyment wiele razy w tych samych warunkach.

Jest to w zasadzie niezbędne, jeśli chcemy właśnie pracować w nauce i do tego ta nauka dolczy.

To jeśli chodzi o rozłoń szczuczeń inteligencji w biodruku 3D, to w ogóle jest to, biodruk sam 3D,

jest dosyć nową technikową, prężnie rozwijającą się, natomiast niewiele powstaje na razie takich modeli właśnie tkankowych modeli narządów.

Dlatego jeśli tutaj chodzi o rozwój, to wydaje mi się, że coraz będą tu dokładniejsze dane, które później możemy jeszcze raz analizować.

Jak wygląda sama struktura tkanki, które materiały dokładnie powinniśmy używać, żeby ta tkanka jak najbardziej przypominała tkankę ludzką?

Dla osób, które mają chroniczne orowy płódz, takie jak np. Astma, PohoP, czy Mukowiscy Doza,

dlatego że mogą na bieżąco monitorować stan zdrowia swoich płódz.

I właśnie w tym kontekście wykorzystujemy sztuczną inteligencję.

To jest jeden z naszych głównych produktów, czyli właśnie analiza dźwięków zarejestrowany z tata skopem po to,

żeby wykryć zmiany osłuchowe, sprawdzić dzień, intesywność, jak jest natężenie, żeby umożliwić monitorowanie zmian w czasie.

Podstaływa rzecz, co jest taka, że umożliwiamy wykonanie badania medycznego w zaciszu domowym.

Normalnie jest tak, że żeby dowiedzieć się, czy w płódzach jest wszystko ok, to idziemy do lekarza, lekarz używa stata skopu.

I takie wana nie odbywa się w gabinecie, co oczywiście stwarza bardzo dużo problemów, dlatego że trzeba się umówić na wizyta.

Są kolejki, lekarze są niedostępni, czasami się źle czujemy i po prostu wyjście z domu bywa dosyć trudne.

Natomiast umożliwiamy wykonanie takiego badania w domu.

Co więcej umożliwiamy wykonanie takiego badania z dokładnością, która jest wyższa niż statystyczny lekarz.

Tu też wykazaliśmy w naszych badaniach na dany kliniczny, że osiągnęliśmy już taki poziom, powiedzmy, dokładności,

że przewyższamy takiego statystycznego lekarza, więc nawet jest to wskazane do używania przez samych lekarzy,

dlatego że do czasami ich ocenami jest spadnie dokładna, jak potrafimy uzyskać przy pomocy naszego urządzenia razem z algoryzmem.

Zdecydowanie sztuczną inteligencję penetruje wszystkie dziedziny naszego życia i medycynanie jest tutaj żadnym wyjątkiem.

Na pewno spodziewało się, że w najbliższym czasie różne obszary medycyny będą wspierane przez sztuczną inteligencję.

Nie wydaje mi się, żeby w najbliższym czasie następowało zastępowanie ludzi w tym zakresie,

ale tak jak jest w przypadku naszego produktu staramy się wspierać decyzję lekarzy,

żeby odciążyć ich od rzeczy ruty nowych, rzeczy automatycznych, które można wykonać właśnie przy pomocy sztucznej inteligencji,

tak żeby lekarze mieli czas i mogli się skupić na meritum, czyli na stawianiu diagnozy pacjentów.

OK. Agata Jasińska, application engineer w firmie, która zajmuje się biodrukiem.

Tomasz Grzywalski, head of research firmie, która zajmuje się czy firmie startupie, który stworzył stetoskop opartą sztuczną inteligencję,

stetoskop analizujący dźwięki i to jest wsparcie tego, o czym mówiliśmy chwilkę temu,

czyli tego, że odpowiednio skrojony czy odpowiednio stworzone urządzenie jest w stanie uwolnić lekarza.

Innymi słowy, jeżeli kaszlesz, jeżeli kichasz, jeżeli masz jakieś szumy czy bulgotanie cokolwiek,

taki stetoskop jest w stanie po analizie dźwięków podać ci diagnozę, nie musisz iść z twoją chorobą,

być może zarażając innych do lekarza, nie musisz stać w kolejce, nie musisz tracić czasu, a dostajesz diagnozę.

I to jest prawda, to jest ta pochodna metoda, bo tutaj po dźwięku, za pomocą której możemy w stanie z pewną dokładnością taką diagnozę postawić,

całkiem dużą dokładnością w przypadku stetoskopu. Ja sobie od razu wyobraziłem taką aplikację tego w przypadku telefonów,

gdzie lekarz mówi, proszę teraz mi tutaj zakaślać do mikrofonu, zakaślasz i tam masz klasyfikator, żeby powiedzieć od razu klasyfikator,

czyli dobór tego, a to jest kaszel suchy, kaszel mokry, czyli model, który na podstawie dźwięku jest w stanie to podzielić na takie kawałki,

żeby zrozumieć co tak naprawdę się z tobą dzieje.

I takie aplikacje także istnieją, że przez telefon, bez skorzystania z jakiegoś dodatkowego urządzenia, przez telefon na żywo,

lekarz, który ma taką aplikację, jest podłączony, ten telefon do komputera, taką analizę jest w stanie zrobić,

ten stetoskop jest oczywiście dużo dokładniejszy, ale to jest niesamowite, jak ja na którejś z konferencji o sztucznej inteligencji

widziałem urządzenie do badania dziecka przed urodzeniem. I autorki, to też był polski startup, autorki pokazywały to,

jak bardzo to zmienia sytuację na przykład w Afryce, gdzie kobieta w ciąży, jak chce iść na badanie, czy chce być zbadana,

to najbliższy szpital ma na przykład za nie wiem 100 km albo za 200 km. I teraz odpowiednio nawet niewykwalifikowany człowiek,

który nie zna się na badaniu kobiet w ciąży, jeżeli dotrze do takiego miejsca albo takie urządzenie zostanie przysłane pocztą,

jest w stanie zrobić niesamowitą robotę.

To jest niesamowita zmiana. Ja myślę, że jakby adopcja w ogóle tych technologii, mimo że one niektóre będą mniej dokładne,

ale będą dawały jakieś poczucie, jest bardzo istotnym elementem triażu. Bo ja bym tutaj delikatnie zahaczył o taki kawałek,

skąd wiesz, bo cały czas jest duży, że tak powiem, popyt na to, żeby być leczonym, skąd wiesz, kim się zająć pierwszym.

I to jest masakra. I teraz ja sobie wyobrażam, że w takim idealnym świecie mielibyśmy, wiesz,

jak w grze w simsach taki pasek zdrowia nad głową z jakimiś symptomami,

którzy lekarze, którzy by nas oceniali, czy to na sorze, czy w innym miejscu, gdzie mają nas ocenić,

idealnie by było, żeby oni znali kontekst i wiedzieli, komu pomóc pierwszemu. Bo teraz nierzadko jest to bardzo trudne.

Bardzo trudne i myślę, nie jestem lekarzem, ale myślę i absolutnie nie chciałbym się znaleźć w takiej sytuacji,

że jest to jeden z powodów ogromnego stresu, jak lekarz, mając przed sobą grupę ludzi, która potencjalnie potrzebuje,

na przykład respiratora, respirator majedem. To był ogromny, ogromny problem w czasie pandemii, gdzie trzeba zadecydować,

kto bardziej, kto mniej potrzebuje. Można oczywiście opierać się na intuicji, ale ciężar psychiczny podejmowania takiej decyzji

jest ogromny. Albo lekarz, który jest na Izbie przyjęć i ma ludzi, no, sporą grupę i ileś łóżek i musi zadecydować,

kto pierwszy, kto później, kto może poczekać, a kto poczekać nie może. I rzeczywiście taki algoryt, który by mu pomagał,

byłby sporym, sporą pomocą. I modelowanie decyzji. Tak, i modelowanie pani Agata Jasińska, modelowanie.

Modelowanie kojarzy się z czymś bardzo takim, bym powiedział, może nie tyle abstrakcyjnym, ale jednak cyfrowym,

że modelujemy pogodę, modelujemy, modelujemy, nie wiem, urządzenie jakieś. Natomiast tutaj chodzi o modelowanie protest.

Biodruk, druk 3D, dzięki któremu można, może nie tyle wymieniać, ile wspierać uszkodzone części ciała,

natomiast one muszą być bardzo dobrze dopasowane do konkretnej osoby, odpowiednio napisane algorytmy analizując.

Mnóstwo danych są w stanie z siebie wyrzucić dane, jak rzeczywiście powinien wyglądać wydrukowany model.

I wiem, fragment czaszki albo jakieś kości. Ja sobie też wyobrażam, że idziemy troszeczkę w tym kierunku wymiany organów,

jak tak zahaczyliśmy ten kawałek. I teraz co świadczy o tym, że coś zostanie zaakceptowane, czy nie.

Tych czynników jest coraz więcej i więcej. I wyobrażam sobie, że posiadając więcej danych o podobnych przypadkach,

o odrzutach, o akceptacji, będziemy w stanie mieć bardziej podejmować lepsze decyzje.

No bo drukowanie jakby stkanek organów, ja wiem, że serca to jeszcze daleko, daleko, przynajmniej nie słyszałem żadnych badania na ten temat,

ale wyobrażam sobie, że będzie cały czas postępowało i będzie powodowało, że my jako ludzie będziemy mieli więcej części zamiennych

i o ile technologia będzie gdzieś tam ewoluowała w tym zakresie, to zawsze jest właśnie ten problem,

że ty jako jednostka musisz zostać sprofilowany i o tym było to modelowanie,

że dla ciebie konkretnego człowieka musimy dopasować tą część zamienną, żeby ona rzeczywiście pasowała i nie powodowała problemu.

W międzyczasie przypomniał mi się tytuł tego filmu, który zrobiliśmy na Nauka to Lubię o startupie kamzji, Polski Cyfrowylek.

Jeżeli was ten film interesuje, jeżeli was ten problem interesuje, ten temat interesuje, to na Nauka to Lubię znajdziecie,

ten film na YouTube, na Nauka to Lubię znajdziecie, Polski Cyfrowylek.

Chciałem jeszcze jeden film i to znowu będzie sztuczna inteligencja.

W dziedzinie medycyny AI może mieć kilka przewag nad człowiekiem, takich jak

Szybsze analiza i diagnozowanie AI może przetwarzać i analizować duże ilości danych medycznych znacznie szybciej niż człowiek,

co może prowadzić do szybszych i dokładniejszych diagnoz.

Bezstronność i obiektywność AI nie jest podatne na błędy ludzkie wynikające z emocji, niewłaściwego szkolenia lub subiektywnych ocen,

co może prowadzić do bardziej obiektywnych diagnoz i terapii.

Wykrywanie subtelnych wzorców AI może wykrywać subtelne wzorce lub związki między danymi medycznymi, których człowiek może nie dostrzec.

Automatyzacja procesów AI może przyspieszyć i usprawnić wiele procesów medycznych, takich jak analiza wyników badań, przygotowywanie planu terapeutycznego czy zarządzanie danymi medycznymi.

Mimo to warto zauważyć, że AI wciąż nie jest w stanie zastąpić całkowicie ludzkiej interwencji w medycynie i musi być stosowana z umiarem

i odpowiednio przetestowana przed pełnym wdrożeniem.

Ok, ewidentnie musimy uznaleźć imię, że ktoś z was ma jakiś pomysł.

Wpiszcie proszę w komentarzach, a propos komentarzy absolutnie nie zapomnieliśmy, mamy je wszystkie, zaraz do nich przejdziemy.

Jeszcze o czym chciałem powiedzieć, tutaj zaraz o czym się jeszcze chciałem powiedzieć, patrz i mi wypadło chyba nic ważnego.

Aha, już wiem o czym chciałem powiedzieć, podlinkujcie proszę, podeślijcie znajomym, udostępnijcie link do naszej transmisji, do naszego live'a.

Staramy się z Mateuszem, żeby było ciekawe.

Różnorodnie.

Różnorodnie, wam nadzieję, że nam to wychodzi, więc jeżeli macie ochotę, jeżeli widzicie, że to są ważne tematy, podlinkujcie proszę,

czy udostępnijcie proszę, żeby jak najwięcej osób mogło zobaczyć.

Dodam też, że jesteśmy na kanale Nauka To Lubię.

Nauka To Lubię to oczywiście YouTube, to oczywiście Facebook, ale to także są książki i na przykład książka o jak działa kosmos.

Dzisiaj jest ostatni dzień przed sprzedaży.

Ktoś, kto kupi do północy tą książkę, to dostanie egzemplarz z moim autografem.

Są też w sklepie Nauka To Lubię, koszulki.

Nie tylko, ty też masz kopernika. Nie tylko z kopernikiem, a nie tylko z Baweł Niana, ale też z Marią Skłodowską, full printy i tyle.

Ja bym jeszcze zachęcił do tego, bo ostatnio bardzo dziękujemy za podesłanie tych wszystkich sugestii na kolejne live'y.

I mamy trzy osoby, które zwyciężyły, do których się odezwiemy z podziękowaniami.

Natomiast jak tak powiedziałeś o tym kimś, kto na nas mówi, może zrobimy konkurs na imię.

Zróbmy konkurs. Słuchajcie, wpisujecie imię przez ile? Przez tydzień?

Tak. Dobra. Dzisiaj jest środa, tak?

Tak.

Czyli do środy po świętach.

O rzeczywiście.

Do środy po świętach.

W środę po świętach, równo przez tydzień, zbieramy informacje.

Czy ty pamiętasz maila, na którego te informacje tam te rzeczy były wysyłane?

Zaraz sobie przypomnę.

Zaraz sobie przypomnimy do tego maila, podamy, ale napiszcie proszę imię, proponowane imię tego człowieka,

który nie jest żywy, który nie jest żywy, ale który nam treści, ustami sztucznej inteligencji przekazuje pewne.

I teraz myślę, że zanim przejdziemy do zagrożeń, bo ten wątek pojawiał się kilkukrotnie, natomiast chciałbym go podsumować,

ale zanim do tych zagrożeń przejdziemy, to może spróbujmy odpowiedzieć na kilka pytań.

Jedno z pytań, które się pojawiło, czy programy AI w medycynie również muszą przejść podobne etapy jak leki, żeby zostać dopuszczone do używania w szpitalach.

Ok, i to jest ten przykład Kalmzi, o którym odpowiadałem.

Tak, na przykład.

Słuchajcie, to jest właśnie cały problem, który dotyczy nowych technologii, że my musimy jest, czy musimy, nie mamy wejścia.

Staramy się je dostosować do procedur, które były tworzone na zupełnie inne czasy i na zupełnie inne warunki.

To dotyczy na przykład, trochę się to pojawiło w czasie naszej ostatniej rozmowy, to dotyczy samochodów autonomicznych.

Są pewne procedury, są pewne prawa, jest cały kodeks cywilny, kodeks prawny, napisany.

A to jest nowe.

Po sytuację, w których człowiek siedzi za kierownicą, więc ktoś konkretnie jest odpowiedzialny, nagle pojawia się, no, ktoś wywraca stolik.

Tak.

I mamy do wyboru, albo przez jakiś czas mieć anarchię, albo zatrzymać rozwój, co jest niewykonalne.

No to to jest mistę motelona.

Tego się nie da zrobić, ale ona, który całkiem sporo zarabia na tym, że algorytmy dla niego pracują.

Albo trzecie, czyli mając te procedury, wymyślone na inne czasy, spróbować do nich dopasować to nowe i przez ewolucję je jakoś zmieniać.

I w przypadku tego pytania tak właśnie jest, tak, jest oczywiście doskonalony od wielu lat proces badań klinicznych.

Czy stopnie badań klinicznych wcześniej jest tam in vitro, in vivo.

Natomiast, no właśnie, czy to zadziała?

Nie mamy wyjścia, znaczy jeżeli albo, no właśnie, albo powiemy, nie wpuszczamy tego typu rozwiązań w ogóle.

Tak.

Albo wpuszczamy wszystkie i dopiero wtedy zaczynamy tworzyć procedury, co mogłoby być bardzo niebezpieczne.

Albo staramy się te procedury, które mamy dostosowane, czy stworzone dla leków takich chemicznych, dostosować, czy pasować w niesztóczną inteligencję i z tym mamy teraz do czynienia.

I ja jestem za tą opcją, pod tytułem, wywrócić stolik.

To znaczy może to będzie niezbyt popularna opinia, ale wydaje mi się, że to, co było związane właśnie, wiesz, z cząsteczką, z badaniem leków, to nie przystoi do tego, co zmienia sztuczna inteligencja.

Bo to, czego poszukiwuje się w takich badaniach, no to jest determinizm.

Hej, mamy próbkę kontrolną, ta próbka działa tak, tutaj nie działa.

A jakby te metody sztucznej inteligencji z definicji jeszcze nie mamy takiego dużego determinizmu.

Ja sam, jakby widząc ten rozwój, jestem trochę bardziej zwolennikiem tego, żeby tego rozwoju nie hamować, ale oczywiście trzeba to weryfikować.

Mamy tą metodę, to sito, które mówisz, który jest znane przez lata i się sprawdzało, natomiast wydaje mi się, że ono będzie musiało być silnie zmienione, bo ja nawet brałem udział w niektórych start-upach.

Widziałem start-upy, które umierały na testach klinicznych.

To jest kupa pieniędzy, które trzeba wydać, to są rzeczy, które wymagają poprawy.

To jest eksperyment, to jest obserwacja, więc to jest bardzo duży wydatek.

To nie znaczy, że teraz trzeba wywrócić stolik i na jolo wszystko zacząć wprowadzać, no bo to też może szkodzić ludziom.

Natomiast to też taki trochę przytyk do ciemnej strony tego, co jako ludzie generujemy, bo jest dużo para medycyny, która powoduje, że ludzie łapią się tego jako ostatniej szansy,

bo to słyszałem, że anegdotycznie komuś pomogło, to ja też tego spróbuję, bo medycyna jako takami nie pomogła, więc jest jeszcze ta taka czarna strona kuglarzy, którzy będą chcieli z tego korzystać.

Którzy zwykle w takich sytuacjach niepewności znajdują się w rzeczywistości lepiej niż ci nie kuglarze, którzy potrafią takie sytuacje niepewności,

pewnego takiego stanu przejściowego bardzo dobrze wykorzystać, więc rzeczywiście z tym trzeba uważać.

Adres, kontakt małpanauka.tolubie.pl, więc jeszcze raz, to jest konkurs na imię tego osobnika, który jeszcze pojawi się dzisiaj raz.

Kontakt małpanauka.tolubie.pl, jak on powinien mieć na imię? Trzy najlepsze propozycje wybierzemy i macie tydzień na to, żeby przysłać kontakt.

Małpanauka.tolubie pisane razem.pl.

OK, następne pytanie. Jakie kompetencje najlepiej pozyskać, aby w przyszłym świecie mieć duże szanse na zarobek? Informatyczne, prawnicze, programistyczne, filozoficzne?

W przyszłym świecie, wiesz, jak to brzmi, jak już tam przejdzie, że tam nie wiemy, jakie kompetencje są w przyszłym świecie potrzebne po tamtej stronie.

A w tym świecie?

A w tym świecie ja myślę, że tak samo będą rozwijały się wszystkie dziedziny, będą potrzebne i będą miały hiperspecjalizację, ale w oparciu o informację.

To znaczy tak jak mówiliśmy o tym, że trzeba umieć korzystać z narzędzi, to będą kolejne narzędzia, które będą uruchamiać, otwierać jakby specjalistów w takim kawałku.

Więc jeżeli ja jakbym był jakimś na jakiejś specjalizacji medycznej, fizycznej i tak dalej, to im bardziej to będzie być w stanie, będzie być w stanie było pięknie.

Im bardziej będzie to oparte w nowych technologiach, które są w stanie przyspieszać twoją spracę, wspierać tym dla ciebie lepiej, bo potencjalnie jesteś w stanie się szybciej rozwijać.

I teraz ten zysk, o którym gdzieś tam mówiliśmy na początku w liczbach, który jest związany z tym, że firmy, które korzystają ze sztucznej inteligencji, szybciej przetwarzają informację.

No bo te modele są dobre w podsumowaniach, w abstraktach, na przykład powiedz mi na podstawie tej książki, co tam byś zrobił w takiej i takiej sytuacji, one sobie radzą w tej przestrzeni, bo gdzieś tam je kotwiczysz i następnie się ruszają.

Więc wyobrażam sobie, że cokolwiek robisz i sprawia ci przyjemność, bo tak z mojego doświadczenia wynika, że jeżeli ktoś jest czymś zajarany, to przekracza granicę.

To po prostu bardziej się tym lubi, ale dodaj sobie do tego pewną świadomość tego, co dzieje się w świecie informacyjnym, czyli wykorzystania metod sztucznej inteligencji czy sztucznej inteligencji.

I to wydaje mi się, że uplasuje większość ludzi w takim czołówce tego. To tak ode mnie.

Zastanawiam się nad tym pytaniem, kto często pojawia się w tym kontekście, czy rzeczywiście muszę być inżynierem albo informatykiem.

I odpowiadam sobie poprawnie, jeśli ta moja odpowiedź jest zupełnie bzdurna, ale te algorytmy coraz częściej potrafią robić tą czarną robotę.

Sporo osób się na przykład zachwyca tym, że chat GPT potrafi napisać kawałki kodu.

Być może to nie chodzi o to, żeby każdy był w przyszłości, miał drugi fakultet, nie wiem matematyka, inżyniera czy informatyka.

Tylko żeby mieć w sobie taką otwartość na to, żeby poszerzać swoje horyzonty.

Ok, studiuję medycynę, ale zresztą dokładnie to samo będzie dotyczyło wszystkich innych zawodów.

Ale nie zamykam się tylko i wyłącznie na to, staram się też poznać nowe narzędzia.

To jest dokładnie sytuacja, w którymś momencie urządzeń takich doobrazowania w szpitalu, w przychodniu było na tyle dużo,

że lekarz, który nie potrafił ich obsługiwać, bo uznawał, że to nie jest medycyna, tak naprawdę był bez dwóch rąk.

Nie potrafił funkcjonować, więc po prostu jest kwestia otwartości.

Absolutnie.

Ok, kolejne pytanie.

Która specjalizacji medycznych jest najbardziej zagrożona? Zastąpieniem przez algorytmę sztucznej inteligencji oraz dlaczego?

Wydaje mi się to zagrożona, to tak trochę sugeruję, że to jest jakiś minus.

Natomiast moim zdaniem tam, gdzie mamy do czynienia z rozpoznawaniem anomalii, z tym gdzie poszukujemy wzorców,

czyli pewnie wszelkie rzeczy związane z radiologią będą coraz szybciej wspierane, ale to uwolni czas dla ludzi.

Jest taka, wyobrażam sobie, że w psychologii bardzo trudno będzie zastosować tego typu rzeczy.

Dlaczego, skąd ta opinia?

Niedawno byłem na wykładzie Mateusza o muzyce, który pokazywał, że najnowsze modele, które są wykorzystywane do generowania muzyki,

one są w stanie utrzymać temat, utrzymać tam, że tak powiem, takie skupienie na parę naście sekund,

z lutego, takim najświeższy, to prawie minutę tam jest w stanie to zrobić.

Gdzie tam do bacha, który potrafił, wiesz, tworzyć bardzo, bardzo długie dzieła.

I teraz wyobrażam sobie, że my jako ludzie mamy teraz takie skupienie, które może trwać o wiele dłużej,

które rzeczywiście o wiele większy kontekst. GPT-4 to jest 25 tysięcy słów. To nie jest mało,

ale to dalej w stosunku do tego, co my potrafimy mieć jako nasz kontekst człowieka, jest niczym.

Więc wyobrażam sobie, że wszystkie te zawody, które będą powodów wymagały tego, żeby mieć większy kontekst,

szersze pojęcie o tym, będą cały czas domeną ludzką.

A tak takie, gdzie będziemy mieli do czynienia z jakąś detekcją, ewentualnie z jakimś spieraniem informacji,

gdzie ta brudna robota, jak to powiedziałeś, będzie w stanie być zrobiona,

no bo teraz przejrzyj mi wszystkie pliki tego użytkownika, pokaż mi takie, które pasują do takiej idei choroby,

bo to mi się wydaje, albo zasugeruj mi coś, ja to tylko sprawdzę. To będzie pewnie automatyzowane.

Super.

I czego się uczyć w tematyce AI, by nie zostać z tyłu, a nawet być o kroku do przodu? To jest bardzo trudne.

Trochę nawiązując do pytania poprzedniego, czy jakie kompetencje mieć.

No właśnie, jak być na bieżąco w sytuacji, w której jesteśmy, jak na po prostu kolejce górskiej.

Tak. I wydaje mi się, że będziemy przyspieszali. Nie wiem, czy takie stwoje zdaje.

Ja mam takie wrażenie, to znaczy ja nie jestem w stanie przetworzyć wszystkich informacji i wszystkich zmian, które się tam dzieją,

więc jakby podziwiam ludzi, którzy są w stanie zrobić tego więcej i współczuję wszystkim tym, którzy nie za bardzo...

Dla nich to jest czarna magia, bo to jest bardzo trudne, żeby się w tym połapać.

Mamy rozwój sztucznej inteligencji w medycynie, mamy large language models, tak, GPT,

mamy modele matematyczne, mamy modele dostosowane w wielu dziedzinach.

I teraz, czemu one się różnią, co one dają?

Ja myślę, że trzeba by tak się nastawić.

Hej, jestem użytkownikiem, ale takim użytkownikiem świadomym, to znaczy wiem, że czasami ta śrubka tam się może omsknąć

i do tego zachęcam każdego, żeby wiedział, że takie rzeczy będą się pojawiać.

I tu pojawia się, nie wiem, czy wiecie, ale na przykład przy korzystaniu z GPT powinna się pojawić legalnie informacja,

że tam z tyłu jest AI, czyli każdy produkt, który korzystasz, fajnie, żeby miał taką naletkę,

bo to będzie w pewnym momencie mówiło, hej, to zazwyczaj działa, ale jest taka pewna niepewność,

co do tego, że to zawsze będzie działać.

Druga to jest, żeby wejść w to, jak te modele są tworzone, bo jak zaczynacie rozumieć, jak one działają,

to jesteście w stanie nagiąć ich działanie do tego, żeby działały lepiej.

To znaczy lepiej zadawać pytania, lepiej wchodzić w interakcje

i to daje bardzo często dodatkowe korzyści.

Jest taki nowy zawód, który się pojawił, on się nazywa prompt engineering po angielsku,

ładnie, czyli ten człowiek, który jest na styku z maszyną, ze sztuczną inteligencją,

zadając takie pytania, jak wie, jak je zadać dobrze,

no to jest w stanie wycisnąć tego więcej wiedzy szybciej w lepszy sposób.

I teraz taki trzeci sposób, jakby jeszcze głębiej wchodząc ten temat,

to wyobrażam sobie, że ludzie, którzy będą w stanie zrobić dopasowanie tych modeli,

bo mamy modele, które są komercyjne, tak jak GPT.

Dookoła nich powstają produkty i to może być albo właśnie dookoła takiego modelu stworzenie czegoś,

albo dopasowanie takiego modelu do swojej woli, to będzie coś, co będzie dawało także pewien zysk.

Wyobraźmy sobie, że jesteśmy firmą, która w dziedzinie medycyny przez ileś tam lat badała reakcje na jakiś lek

i ma tą wiedzę w jakiś sposób skondensowaną.

I teraz gdyby udało się z tego zrobić chatbota, który automatycznie dobiera ci leki,

no bo to jest oparte na jakieś, to można po prostu w sposób to skanalizować i sfinansować.

Taki pierwszy przykład, czyli obudować to tak, żeby to służyło człowiekowi.

Panie Tomku, więc ja się czuję.

Istotniejsze dla medycyny jest pierwiastek ludzki z empatią czy technologia.

I już odpowiadam, bo to jest prosta odpowiedź, a dlaczego tam jest czy?

Właśnie, why not both?

Bo to jest pytanie coś w rodzaju. Czy istotniejsza jest intuicja lekarza, czy istotniejsze jest to, że miała USG?

A może intuicja wsparta danymi z USG powoduje, że ten lekarz wsparty technologią jest niedopowicie.

Tak, tak.

Czyli tam nie powinno być czy.

To nie jest tak, że mamy albo jedno, albo drugie.

Mogę sobie wyobrazić lekarza, ale tak samo nauczyciela, inżyniera itd.

Każdego, kto podchodzi z efektem mierza, tak nie dotykam tego.

A drugiego, który jest otwarty i mówi, why not?

Sprawdzam.

Sprawdzam to.

To z całą pewnością ten drugi będzie miał lepsze wyniki, będzie po prostu skuteczniejszy.

Statystycznie.

Statystycznie, oczywiście.

Oczywiście, oczywiście.

A czy, bo jak jest kiepski lekarz, nauczyciel, inżynier, to nawet jak będzie miał nie wiadomo jakie wsparcie dalej będzie kiepski.

I ten most się i tak zawali, nawet jeżeli będzie miał naprawdę wsparcie porządnego komputera.

Także ja bym nie powiedział, że tam powinno być czy.

Ja bym powiedział, że tam powinno być i to, i to.

Dobra, nie wiem jeszcze mamy.

A jak, ja i zdecyduję, że leczenie jest już przeciwskazane, bo może przynieść więcej szkody niż szans na wyleczenie, czyli taki przypadek negatywny.

Ja lubię takie przypadki negatywne, bo zawsze trzeba mieć taką gwiazdkę wokół, że wyobraźcie sobie, że gdzieś tam w tym procesie uczenia powstała jakaś ścieżka, która jest negatywna.

I jak to się żartuje, że leki to trucizny w odpowiednich dawkach, to wyobrażam sobie, że może dojść do takiej sytuacji, że taki model może zasugerować coś, co będzie szkodziło.

I to jest normalne. To znaczy, ja bym nie przewidywał, że takie sytuacje nie będą miały miejsca, tylko trzeba będzie te modele dopasowywać.

I teraz na czym je dopasowywać, to wymaga otwartości tych danych, dzielenia się takimi przypadkami też negatywnymi otwarcie,

a także profilowania, żeby wiedzieć, że można tak to zadziałało na tą osobę, bo to, że to zadziała źle na mnie, nie znaczy, że zadziałać na ciebie.

Więc to jest taka głębia zrozumienia tego, że żeby dobrze operować takimi modelami, trzeba mieć dobrą próbkę statystyczną i trzeba umieć to też zinterpretować,

bo schodząc troszeczkę do takiego F-tekt motyla, to jest trochę tak, że jest bardzo dużo czynników, nie jesteśmy, nie działamy w próżni.

Modele też nie działają w próżni. One mają dookoła ludzi, my jako ludzie raz czujemy się lepiej, raz gorzej mamy swoje przeświadczenia, mamy swoje jakby skrzywienia, które wynikają z naszych doświadczeń,

a to naturalnie zapisuje się też w modelach, które potem wykorzystujemy. Więc wyobrażam sobie, że model radiologiczny, który był uczony na lekarzach z Krakowa

i będzie troszeczkę inny od modelu, który został wyłuczony na lekarzach z MIT, nie mówię, który jest lepszy, absolutnie, natomiast one naturalnie będą zawierały pewne opinie i pewne doświadczenia.

Takie jest moje zdanie w tym zakresie.

Pytanie numer 5, zostawmy sobie na podsumowanie.

Dobrze.

A propos MIT, przypomniało mi się, widzisz, ja to tutaj miałem zapisane i jakoś mi to umknęło. Farmacja, nie mówiliśmy o tym, ale też analiza danych, nowe leki.

Wydaje mi się, że w MIT powstała algorytm, który potrafił analizować ogromne bazy danych cząsteczek chemicznych w poszukiwaniu tych cząsteczek, które mogą być skutecznymi antybiotykami.

Historia mniej więcej wygląda tak, że jednym z większych i wciąż narastających wyzwań jest to, że bakterie szybciej utparniają się, stają się antybiotyko oporne, nieodporne.

To pamiętam, to mi zawsze lekarze mówią, oporne niż my wymyślamy nowe leki, bo proces jest bardzo długi, bardzo kosztowny i po prostu długi, trwa długo.

Natomiast to nie jest tak, że w bazach danych chemicznych nie ma danych, tam są miliony cząsteczek chemicznych zapisanych.

Problem polega na tym, że bardzo dużo, długo trwa i bardzo dużo kosztuje sprawdzanie niemalże cząsteczka po cząsteczce, jak ona działa, czy jest skuteczna, czy ma jakieś.

I powstał kilka lat temu, mówiąc kilka, nie mam na myśli 9, bliżej 2, 3, wydaje mi się właśnie, że na MIT taki algorytm, który jedną z baz danych, która miała coś ponad 3 miliony rekordów, przeanalizował w 3 doby.

3 doby i w tych kilku milionach rekordów znalazł 28, słownie, 28 takich do sprawdzenia. 28 jest stosunkowo łatwo sprawdzić, 3 miliony nie da się sprawdzić.

Więc ta farmacja i ta analiza danych, ale wszelkich danych, a nie tylko danych takich w kartotece, to jest duża, duża, duża rzecz.

Dobra, tutaj jakby taką małą dygresję, bo ty mówisz o przeszukiwaniu w skończonej przestrzeni tam 30 milionów do 28, ale są jeszcze takie metody, które są na przykład związane z konfiguracjami białek,

gdzie stosuje się, to się ładnie mówi, brute force, to znaczy sprawdźmy wszystkie kombinacje, jakiej wieki one wchodzą, reakcje i to jest o tyle proste, że to po prostu wymaga bardzo dużej ilości mocy obliczeniowej.

A my jako ludzkość coraz więcej tej mocy obliczeniowej generujemy, więc są nawet takie programy, że można wesprzeć tego typu konfigurację poszukiwania leków poprzez dołączenie swojego komputera do takiej wielkiej sieci,

gdzie tam twój procesor czy tam kartograficzna będzie zażynana w imię czegoś dobrego.

Czyli tak zwany Citizen Science.

Tak, Citizen Science i jest taka platforma Zo Universe, na której można ściągnąć, zalogować się, wypróbować. Tam jest mnóstwo programów z różnych dziedzin, tam są także na przykład, co moje serce ujęło, żeglujące, na przykład z Mateuszem czasami,

że tam można wspomóc odczytywanie starych dzienników pokładowych, w których ludzie sprzed dwustu, trzystu, czterystu lat zapisywali warunki pogodowe, na przykład płynąc z kąś tam do kąś tam,

przez to, że często to są stare notatki, krzywo spisywane często, gdzieś tam pobrudzone, zalane, źle sobie radziły przynajmniej jeszcze dwa, trzy, cztery lata temu algorytmy,

oczywiście zeskanować można, ale z przeczytaniem jest kłopot. W związku z tym proszono, chcesz pomóż, przepisz to formę cyfrową.

Dzięki temu jakiś model jest w stanie analizować, cofając się w przeszłość, budować przyszłość. To tylko tak mówię o tym, Zo Universe to jest bardzo, bardzo ciekawe.

To jest taka malutka dygresja, bo to jest super petarda, jeżeli chodzi na to, jak się rozmawia w ogóle ze sztuczną inteligencją, bo zobacz, że jako człowiek rozmawiając na przykład o właśnie tam nawigowaniu,

ty umieszczasz siebie w pewnym kontekście, umieszczasz się, że jak się próbujesz domyślić, co tam było napisane, to to może być o pogodzie, to może być o żaglu,

to może być jakby o pewnym elementu z pewnego zbioru, który jest ci bliskie i podobnie działają to przemieszczanie się po przestrzeni rozmowy ze sztuczną inteligencją,

bo jak ty nadaz kontekst, a ten kontekst GPT-4 to jest obecnie te 25 tysięcy słów, to tylko tyle wie, nic więcej.

Ale my jako ludzie mamy jeszcze tą przewagę, że jesteśmy w stanie po tych kontekstach sobie pięknie skakać i zazwyczaj mamy ich wiele.

Ok, jest tutaj jedno pytanie do Ciebie, drugie, a nie, to to pytanie już było, to to już takie jazdy wyrzucamy, to już było, prawda?

Czego się uczyć? Tak, w trzech punktach.

Pytanie, na których chciałbym odpowiedzieć, ale wydaje mi się, że chyba to pierwsze, wydaje mi się, że chyba nie znamy na nią odpowiedzi.

Czy my jako Polska tak, nie zastosowaliśmy tego co w osi, z tego przynajmniej co mi wiadomo, nie śledzę tak bardzo,

że tak powiem, dziennika ustaw i tego co tam jest publikowane, ale z tego co mi wiadomo, my jeszcze nie zrobiliśmy takiego kroku.

Jest taka europejska regulacja, jak to pewnie porozmawiamy przy innej okazji, ona jest przygotowana od paru lat,

ale to, gdzie jesteśmy teraz w punkcie jako ludzko, gdzie bardzo dużo się dzieje, gdzie ludzie zaczynają reagować, pokazuje jak bardzo jest to potrzebne,

jak bardzo potrzebujemy regulacji, tylko ja mam taką troszkę nie najweselszą konstatację, że niestety to, co mówi prawo, a to, gdzie jest technologia,

nie do końca ze sobą koresponduje, to znaczy jak najbardziej to prawo powinno odpowiadać temu, co jest technologii,

ale też może to powodować pewne wykluczenie, a jak wykluczymy się z tego wyściegu o sztuczną inteligencję, o rozwój sztuczną inteligencji, to też...

I jedni będą stali w miejscu, inni będą się rozwijali, więc ci pierwszy będą w zasadzie się cofali.

No mi się tak przypomniało, te 80% akceptacji w Chinach i wiesz...

Padło pytanie, jestem ciekaw, czy istnieją już jakieś próby, maria, że sztucznej inteligencji zleczenie w psychiatrii,

bo to jest działka, w której abstrakcja przybija wszystkie sufity, domyślam się, że sztuczna inteligencja może mieć problem.

Cześciowo odpowiadaliśmy już na to pytanie, czyli analiza, wbrew pozorom, tak, wbrew pozorom to wcale nie jest takie niemierzalne,

to może być dla nas trudne do uchwycenia, ale są algorytmy, które potrafią już oceniać stany psychiczne, stany emocjonalne, potrafią to robić.

Jak się to rozwinie? Zobaczymy.

Tak sobie pomyślałem, zgodnie z tym żartem, nie ma zdrowych ludzi, są tylko źle zdiagnozowani.

Mam nadzieję, że możliwości diagnostyczne, które będzie dawała sztuczna inteligencja

i to, że będziemy w stanie mieć coraz więcej możliwości przetwarzania, spowoduje, że będziemy to coraz wcześniej łapać

i pomagać sobie zanim dojdziemy do jakichś ostrzejszych stanów.

Skoro sztuczna inteligencja staje się lepsza w grze w szachy, to dlaczego nie ma być z czasem lepsza w wywieraniu wpływu technikach manipulacji ludzi?

Absolutnie.

Zróbmy sobie to na ostatni odcinek, to jest bardzo ważna rzecz, a nie chcę tego zostawiać jednym tylko i wyłącznie zdaniem.

Moja propozycja jest taka, pogadajmy o zagrożeniach i dobijajmy powoli do brzegu, bo jesteśmy już godzina 22 minuty.

Bardzo się cieszę, bardzo dziękuję, że z nami jesteście jeszcze raz.

Jeżeli Wam się podoba to bardzo, proszę udostępnijcie to nasze spotkanie.

Przypominam też o konkursie, kontakt małpanałkatolubie.pl, jak ma na imię, czy jak powinien mieć na imię ten jejomość,

który zaraz się wypowie, ale nie, najpierw się wypowiesz, czy inny jejomość i poproszę tego innego jejomość, który ma już imię.

Dobrze, tak. Jeżeli chodzi o zagrożenia, które są związane, no to mamy tak.

Jedna to jest taka ścieżka, że będziemy się mylić i to jest nieuniknione, jako ludzie też się mylimy.

Mamy mechanizmy, które wytworzyliśmy w czasie na to, żeby rali sobie z pomyłkami.

Konsylja, czyli spotyka się więcej osób, patrzą na to z różnych perspektyw, z różnych doświadczeń i podejmują wspólnie decyzje.

I teraz takie konsylja, konsyliów, jak sobie wyobrażam, gdybyśmy mieli coraz więcej modeli, które będą uczone na różnych danych.

Powiedzmy, mamy tutaj dane jakieś model z Polski, model z innych krajów lub w inny sposób na różnych rodzajach populacji, które są w stanie decydować.

One mogą dać bardzo podobny efekt, tylko wymagałoby to takiej wymiany, takiej defuzji, tak naprawdę wiedzy i otwartości w tym, co się dzieje.

Przede wszystkim tutaj jest też cały czas człowiek i nic nie wskazuje na to, żeby z tego procesu zniknął.

Więc oczywiście mogę sobie wyobrazić sytuację, że lekarz odpuszcza, czy mówi, skoro mam potężne narzędzie, to co ja się będę napinał.

Niej więcej tak samo, jak mogę sobie wyobrazić, że ktoś, kto ma napisać tekst, sobie odpuszcza, co się będę napinał, skoro mogę zapytać, czy poprosić Chad GPT, żeby napisał za mnie.

Ale nie mówimy o sytuacjach patologicznych, nie mówimy o intelektualnych leniach czy spryciarzach, mówimy o sytuacji, w której wierzymy w to, że lekarz robi swoje, nauczycie robi swoje, inżynier robi swoje.

Mateusz, wypuśćmy może teraz film, trochę, który będzie o zagrożeniach.

Oczywiście trzeba wszystko robić z rozwangą i w sposób przemyślany, sztuczna inteligencja nie jest doskonała i zawiera swoje ograniczenia.

Na pewno podstawową sprawą to jest edukacja, trzeba uświadamiać cały czas osoby, jakie są zakresy zastosowania sztucznej inteligencji.

To wynika bezpośrednio zdany, które użyliśmy do trenowania sztucznej inteligencji, więc one, gdyby definiują nam to, jaki jest obszar zastosowania i to trzeba bardzo jest nakomunikować.

Trzeba o tym, trzeba szkolić lekarzy, trzeba szkolić użytkowników, tak żeby wiedzieli, w jakich sytuacjach można zaufać wynikowi otrzymanego przez sztuczną inteligencję,

a w jakich sytuacjach jednak należy polegać na swojej intuicji. W przypadku naszego produktu, czyli elektronicznego stytaskopu, który wymiar automatycznie wykrywa zmiany osłupowe w płucach,

niestety nie ma żadnego złotego standardu, który by określał, czy takie dźwięki występują, czy nie, dlatego cała wiedza, którą my używamy do trenowania naszych modeli, pochodzi bezpośrednio od lekarzy

i był to bardzo duży projekt, który polegał na tym, że najpierw stworzyliśmy bazę danych i narzędzia do rejestrowania i do opisywania w jakich nagrań.

Nasza procedura zakłada, że każde nagranie zarejestrowane przez lekarza, którzy z nami współpracują i dzięki zgodzie komisji biotycznej nagrywają w swoich pacjentów.

W ramach tej procedury, co najmniej trzak lekarzy i dwóch akustyków opisuje każde nagranie wykonane w ten sposób i dzięki temu dane, które mamy w bazie są wysokiej jakości

i na tej podstawie dopiero odtrenujemy nasz algorytmy szczytnej inteligencji, także w naszym przypadku cała wiedza ekspertka pochodzi bezpośrednio od lekarzy.

Oczywiście mamy kilka etapów testowania takiego modelu. Podstawowa sprawa to oczywiście mamy testowy zbiór nagrań, które zostały opisane w taki sam sposób jak wcześniej opowiedziałem,

czyli przez kilku lekarzy, którzy dodatkowo w sporne przypadkach spotykają się i dyskutują, aż dojdą do kontra susu co do tego, jakie dźwięki występują w nagraniu.

Więc to jest jakby nasz złoty standard i mamy też zbiór testowy, którego nigdy nie używamy do dotrenowania modelu i właśnie na tym zbiorze testujemy skuteczność modelu.

Te znaczenie standardowe metryki, takie jak z innych zastosowania np. Recall Precision czy MR F1 to jest na takim powiedzmy najniższym poziomie szczegółowości,

czyli na pojedynczy rankać sygnału akustycznego, natomiast potem walidujemy to na wyższym poziomie, czyli na poziomie informacji,

który przekazujemy użytkownikowi i wtedy używamy takich miar typowo związanych z zastosowaniami medycznymi, czyli czułość, swoistość i w przypadku funkcji wspomierowych

jest to średni błot bezwzględny i oczywiście porównujemy się do czegoś. W przypadku wykrywania zmian osłuchowych porównujemy się do skuteczności przeciętnego lekarza,

czyli ten sam zbiór, dla którego mamy złoty standard, oprosiliśmy o opisanie niezależnej grupy lekarzy, tym razem już bez żadnych konsultacji.

Mieli okazję te nagranie opisać i sprawdzamy, to jest bardziej skuteczny w wykrywaniu zmian osłuchowych.

Czy jest to sztuczna inteligencja, czy są to lekarza? I właśnie dzięki temu wiemy, że w pewnym momencie nasz algorytmę użyskały takie poziom dokładności,

że przewyższyły skuteczność, czy możliwości perceps lekarzy i to była postawa do tego, że uznaliśmy, że to jest na pewno produkt,

który jesteśmy w stanie już komercjalizować, możemy go zcertyfikować jako urządzenie medyczne i wypuścić na rynek, bo wiemy, że będzie skuteczny i że będzie pomocna pacjentom.

Tomasz Grzywalski, Head of Research z firmy, która zajmuje się budową stetoskopów, które oceniają po dźwiękach i właśnie w tej ocenie sztuczna inteligencja,

algorytmy, które oceniają po dźwiękach, czy diagnozują po tym, co stetoskop słyszy.

Mateuszu, chciałeś o tych zagrożeniach jeszcze wspomnieć w kontekście jakości pracy lekarza?

Tak, padło takie pytanie, a czy takie narzędzia nie zmniejszą nam jakości lekarzy?

Przecież lekarz przestanie się uczyć i ich jakość znacznie spadać, bo będzie liczył, co nam powie AI.

Ja mam takie bardziej optymistyczne podejście, to znaczy wyobraźmy sobie, że jest część społeczeństwa, których albo nie stać na lekarze,

albo jest taki duży popyt na pewnych specjalistów, że nie są się w stanie dopchać, bo taką sytuację obserwujemy nie tylko w Polsce.

Wyobrażam sobie, że to będzie mogło być zaadresowane przez modele.

I o ile mówimy o tym, że normalnie zawsze jest człowiek w pętli,

wyobrażam sobie tego typu usługę, które takim ludziom, którzy normalnie nie dostaliby wsparcia, mogliby skorzystać właśnie wsparcia takiej sztucznej technologii.

Natomiast w drugą stronę, czy inaczej wyrażając tą myśl, czy lekarze się nie rozlenivią,

myślę, że każdy z nas do pewnego stopnia się rozleniwi, ale tak jak zawsze istniała gauz wiecznie żywy,

będą ci słabsi, średni i ci najlepsi, tak dalej ci najlepsi będą w stanie wykorzystywać tego typu narzędzie, żeby stawać się jeszcze lepszymi.

I mam nadzieję, że będą gdzieś tam tworzyli sposoby nauczania i wykorzystywania tego, więc ja widzę tym zagrożenie,

że oczywiście będą tacy, a tam recepta, co mi tam chat GPT powie, czy tam inna sztucznej technologia, i ok, ale dalej trzeba mieć świadomość tego,

że to będzie tylko jakiś odsetek z jakiegoś rozkładu.

Ale myślę, że to też jest trochę tak, że być może niektóre kompetencje lekarzy będą odchodziły, ale będą przychodziły inne.

Interpretacja danych.

Wydaje mi się, że dzisiaj niektórzy lekarze nie byliby w stanie przeprowadzić niektórych badań,

które były zupełnie standardem jeszcze na przykład 100 lat temu, co nie czyni ich złymi lekarzami, mają inne narzędzia do dyspozycji

i są skuteczniejsi, dzięki temu, że mają lepsze narzędzia.

Tak.

I to znowu, to nie dotyczy tylko i wyłącznie lekarzy, to dotyczy absolutnie każdego zawodu i bardzo często pojawiające się pytanie o to,

czy te algorytmy, czy te technologie nie odbiorą nam pracy, jednym odbiorą, a innym dodadzą.

Oczywiście.

Będą nowe zawody.

Będą nowe zawody w obrębie tych zawodów, które zostaną.

Będą potrzebne nieco przesunięte kompetencje, bo świat się zmienia.

To jest trójzm, ale razem z tą zmianą, która wynika z pojawiających się technologii rozwiązań technologicznych

i naszej wiedzy, co jest sobą przecież powiązane, też się przesuwamy.

Niektóre kompetencje po prostu nie będą potrzebne.

Wyobrażam sobie tak kilka, w jaki sposób lekarze mogliby ewoluować tak naturalnie, to czyli możliwości wykorzystania tej wiedzy,

która gdzieś tam będzie zapisana, czyli pewnie nowe interfejsy.

Wyobrażam sobie, że trudno jest być na bieżąco z najnowszymi badaniami.

Każdy z nas niezależnie od dziedziny ma tą trudność, więc pewnie jakaś kondensacja.

Bo tego jest bardzo dużo.

Świat, że tak powiem, zaiwania we wszystkie kierunki i teraz mieć możliwość skrócenia tego,

a do tego te modele typu GPT się świetnie nadają, czyli zrobić abstraktów tego, co się tam pozmieniało.

I teraz wyobrażam sobie, że rozwój medycyny będzie przyspieszał dzięki takim narzędziom

i ci, którzy będą w stanie z tego korzystać, będą i bardziej na bieżąco.

No i wyobrażam sobie, że jednak taka silna potrzeba odzrozumienia statystyki i analizy tego, co tam się znajduje w danych,

będzie coraz bardziej znacząca, bo skoro dane granymi będziemy się dzielić,

to trzeba będzie mieć tą możliwość, żeby zinterpretować odpowiednio i zastosować to do swojego przypadku.

Okej, dobra, no to teraz chciałbym zapytać o te zagrożenia tego gościa, który nie ma imienia,

ale o którego imię o wymyślenie go chcę Was poprosić i zaprosić o konkursie pojem.

Za chwilkę, a teraz proszę ostatnią wypowiedź sztucznej inteligencji.

Stosowanie AI w medycynie może wiązać się z kilkoma zagrożeniami takimi jak?

Bezpieczeństwo danych medycznych stosowanie AI w medycynie wymaga przechowywania i przetwarzania dużej ilości danych medycznych,

co może prowadzić do zagrożeń związanych z prywatnością i bezpieczeństwem tych danych.

Błędy i nieprawidłowe diagnozy AI nie jest wolne od błędów i nieprawidłowych diagnoz,

szczególnie jeśli algorytmy nie są dostatecznie przetestowane i skalibrowane.

Uzależnienie od technologii, w przypadku zbyt dużego polegania na AI,

istnieje ryzyko, że lekarze i personel medyczny stracą umiejętność manualnej analizy i interpretacji wyników,

co może prowadzić do pogorszenia jakości opieki medycznej.

Brak kontroli nad algorytmami AI istnieje ryzyko, że algorytmy AI mogą działać w sposób,

który nie jest zgodny z intencjami ich twórców, co może prowadzić do błędów i szkód dla pacjentów.

Problemy z etyką i odpowiedzialnością, w przypadku AI w medycynie,

istnieje ryzyko, że decyzje dotyczące opieki medycznej będą opierać się na algorytmach,

co może prowadzić do trudnych pytań etycznych i braku odpowiedzialności za decyzje podejmowane przez AI.

Dlatego też AI powinna być stosowana w medycynie z umiarem,

odpowiednio przetestowana i monitorowana w celu minimalizowania ryzyka związanego z jej stosowaniem.

Dla tych, którzy jeszcze nie zapisali adresu, kontakt mał panaUkatoLubie.pl.

Szukamy imienia dla tego jego mościa, który przed chwilką po raz trzeci pojawił się na naszym live,

po raz trzeci i ostatni opowiadał o zagrożeniach.

O tych zagrożeniach, które z Mateuszem rozmawiamy, zarówno wtedy, kiedy rozmawiamy, ale jesteśmy tak wkręceni,

że nawet jak ktoś inny się wypowiada, to my sobie tutaj wersycznie rozmawiamy.

Mateuszu, gdybyś ją podsumować, powiedz mi, czy w medycynie zagrożenia związane ze sztuczną inteligencją,

one są jakoś znacząco inne od zagrożeń związanych ze sztuczną inteligencją w innych dziedzinach,

w których ta sztuczna inteligencja działa i się rozwija?

Nie wiem, myślę, że zasadniczo chodzi o materię. Materia jest bardzo bliska człowieka,

jest bliska tego, że to wpływa na nas jako ludzi, więc niezależnie, czy to będzie rozwój nowych leków,

które czasami może być też związane z rozwojem nowych trudzizm, bo każdy, kim ma dwa końca, a praca ma trzy,

czy to będzie związane z tym, w jaki sposób leczyć ludzi, bo może być tak, że ktoś tutaj coś spaczy w pewien sposób,

a my jako ludzie, no nie mamy w tej chwili jeszcze metod, żeby zbadać intencje tego, co tam było w środku, więc to jest takie same...

O ile to coś w środku w ogóle ma jakiekolwiek intencje.

No tak, zakładając coś takiego.

Ale to tak, wiesz, ktoś zamyka cię w tomografie, no i teraz nie wiedząc, jak to wszystko działa, bardzo wiele rzeczy,

musisz wziąć na wiary, ktoś zrobił badania i tak dalej, to jest wszystko zewnętrzne, tak?

Nie jesteś w stanie tego sam jako człowiek wyeksperymentować, chyba że tam całe życie na to poświęcisz,

więc musimy temu zaufać. No i teraz siła i zarazem ta słabość właśnie pochodzi z tego zaufania,

czyli musimy wziąć na wiary, że osoby, które tworzyły tą, bo to dalej są ludzie w tym procesie, miały dobre intencje,

czyli cel zastosowania i wyuczania tej sztucznej inteligencji był dobry,

no i że statystycznie jest ona poprawiana w dobrym kierunku.

No bo oczywiście będziemy mieli tę reakcję, to znaczy coś poszło nie tak, tak jak są konsylia,

będzie douczanie tych modeli i to będzie absolutnie naturalne, ale to nie jest nic innego niż to, co się dzieje w naszym przypadku,

bo z tego co mi wiadomo, na konferencjach, na spotkaniach też dochodzi do dyfuzji wiedzy,

to znaczy lekarze ze sobą rozmawiają, dzwonią i to w naturalny sposób podnosi jakość medycyny,

bo bez tej wymiany informacji mielibyśmy ograniczone doświadczenie tylko do swojego, a tak mamy szersza.

Okej, w formie podsumowania jedno z pytań, które padło, ona zresztą pojawiało się już wcześniej,

ale chce na nie odpowiedzieć, żebyś na nie odpowiedział, a później chce nawiązać, znaczy chce powiedzieć, co ja to myślę.

Co Panowie sądzą na temat apelu, ilona maska, między innymi ilona maska,

w którym wzywa do zastanowienia się nad rozwojem szerokopojętej sztucznej inteligencji?

To jest prawdziwy problem, ale wydaje mi się, że jeszcze tam nie jesteśmy, to jest moja interpretacja.

Elon mówi, zaprzestańmy rozwoju wszystkich nowych, silniejszych modeli niż GPG4,

bo strach, jest troszkę argumentów itd.

I to jest związane z trajektorią rozwoju sztucznej inteligencji,

bo futuro lodzy i ludzie, którzy zajmują się tematem, widzą, że w pewnym momencie ta eksponenta,

czyli ten szybkość rozwoju sztucznej inteligencji,

ona zacznie odbijać do góry i będzie...

Prawo Mora? Nawet szybciej?

Tak, idea jest taka, że w pewnym momencie już tego nie ogarniemy,

że to się wymknie spod kontroli.

I teraz jest kilka opcji.

Jest taka opcja, że jesteśmy na samym początku i jest jeszcze tego rozpoędy długo,

zanim to tam zacznie się odpalać i ta sztuczna inteligencja sama zacznie się poprawiać,

to jeszcze mamy tam 50-500 lat, nie ważne, daleko.

Jest teoria, która mówi, że ona będzie bardzo, bardzo taka stroma i jesteśmy blisko tego,

no i to jest trochę wyrażenie tej intensji, że słuchajcie, przestańmy, bo nie mamy jeszcze narzędzi do tego,

żeby kontrolować, co by się stało.

I ja rozumiem naturalną, ludzką reakcję, strach przed tym.

I jest to wyrażenie tego.

Natomiast ja mam w głowie taką gwiazdkę,

pt. nie każdy w nie każdym państwie i nie każda firma będzie się stosowała do tego,

więc będą zupełnie inne intencje i będzie ten wyścig zbrojeń w pewnym sensie, który cały czas trwa.

Więc moim zdaniem ten apel jest o tyle szkodliwy, że OpenAI, mam do nich pewne zarzuty,

ale oni mimo wszystko dzielą się pewnymi efektami.

To znaczy dają testować takie rzeczy publicznie, a nie zamykają tego w laboratoriach,

albo otwierając to, nie wiem, dla zastosowań militarnych, czy jakichś innych.

Choć też nie mamy pewności, czy przymokiem nie jest tak,

że to, co dzisiaj jest pokazywane przez OpenAI, to są, no nie chcę usłyszeć swapopłczyny,

nie wiesz, po prostu coś, co już jest, dlatego że mamy już chart GPT 7.0

i tak naprawdę wojsko to, albo wojsko nie wiem.

Ale tak zrobili z czwórką.

Ktokolwiek inny ma do tego dostęp, więc tak też może być.

Tak zrobili z czwórką, bo człowiek, który napisał pierwszą książkę o GPT 4,

publikował je w dzień publikacji, bo miał dostęp przez pół roku, podobnie Microsoft,

więc ja zakładam, że inne modele to oni mają, tylko ich nie wypuszczają.

I wracając troszeczkę do zagrożeń, bo powodem, dla którego OpenAI stwierdziło,

że nie wypuści tych modeli publicznie, tak jak GPT 2,

które można sobie gdzieś tam pobrać i wykorzystać,

było to, że mogą być świetnie wykorzystane bez informacji.

I teraz wyobraź sobie, ja wiem, że to jest moja bańka, ja naturalnie w nią wpadam,

ale że ludzie, którzy tam próbują cię naciągnąć na jakieś pieniądze w ten czy inny sposób,

wykorzystają z takiego języka, który jest o wiele bardziej łatwiej, jest go po prostu przyswoić, nie?

Więc oni są świadomi tego złego wykorzystania i ja uważam, że metoda ekspozycji,

to znaczy, że pojawiają się tam pytania, to możemy zrobić ostatni,

tak jakby, ostatni life zanim AI nas wyłączy, że tak zarzartuję,

pojawiają się tam pytania, które są związane z naturą ludzką,

to znaczy, hej, jak kogoś skrzywdzić, jak zrobić coś złego

i to też jest problem, na który nie mamy odpowiedzi jako ludzkość w jednoznaczny sposób,

bo mamy różne hierarchii wartości, różne podejście etyczne, moralne,

więc kończąc ten temat apelu LNMASKA, moim zdaniem to się nie zadzieje, to raz.

Uważam, że patrząc na rozwój tej technologii, jesteśmy jeszcze stosunkowo daleko

od tej eksponenty i od tego, żeby to się szybko rozwijało, ale to jest opinia

i z mojej perspektywy wyłączenie się z tego wyścigu będzie go politycznym samobójstwem,

bo to tak czy inaczej spowoduje, że ktoś inny taką granicę przekrocza.

Tutaj przynajmniej jesteśmy w stanie ją obserwować i być częścią tego.

Okej, sporo można była ten temat dyskutować, ale nie chcę przedłużać,

powiem tak, obserwując różne dziedziny nauki, od czasu do czasu rzeczywiście pojawiają się apelę

ekspertów, naukowców, żeby czegoś nie ruszać.

Czasami one w niektórych rejonach świata są przekuwane na prawo

i na przykład w tak zwanej cywilizacji zachodniej jest zakaz robienia eksperymentów na ludzkich embryonach.

Ale na przykład w inach nie. I teraz można oczywiście do sprawy podejść dwójako.

Można powiedzieć tak, skoro oni z tym nie mają problemów, to za chwilę nauczą się czegoś,

czego my się nie nauczymy, więc jedźmy w to.

Można na to spojrzeć, to jest moralnie złe, więc nie róbmy tego.

Nawet jeżeli inni robią moralnie złe rzeczy, nie chcę dyskutować,

nie ma lepsze gorsze.

Ja mam swoje osobiste zdanie, że czasami pewnych rzeczy nie warto robić,

że nie wszystko co można warto.

Jedna rzecz to jest to, czy jesteśmy na początku tej drogi, czy w środku.

Tak, jak krzywo jest.

I czy to rzeczywiście będzie wiesz funkcja eksponencjalna, czy nie.

Inna zupełnie sprawa to jest to, czy to się da zatrzymać.

Tak, to jest.

Trochę dwie różne rzeczy.

Można dyskutować, czy ten apel ma sens na poziomie takim meta,

a można powiedzieć tak, ma sens, ale i tak tego nie zatrzymamy.

To jest możliwe, bo jak to zatrzymać.

Dobra, kończymy.

Bardzo dziękuję.

Bo mamy 21.42, i na moim zegarku jest.

To już 5 minut mi dało.

Zeszło naprawdę bardzo szybko.

Kilka rzeczy, o kilku rzeczy chciałbym przypomnieć i powiedzieć.

Więc tak, chciałem przypomnieć, że naszym gościem, moim gościem był Mateusz Chrobok.

Tak naprawdę, ja ci w ogóle nie powinienem przedstawiać jako gościadak.

Naprawdę.

Razem to prowadzimy, razem to robimy.

Nie jesteś tu bardziej gościem niż ja.

Jesteśmy razem dwoma gośćmi, którzy to po prostu prowadzą.

Bardzo dziękuję.

Mateusz Chrobok, specjalista od technologii cyfrowych, bezpieczeństwa i sztucznej inteligencji.

Więc to pierwsza sprawa.

Sprawa druga.

Nie zaprosić po pierwsze do oglądania, do zobaczenia poprzedniego naszego live'a.

Jest na Nauka to Lubię.

Podzielcie się tym.

Będzie na Nauka to Lubię, jest na Nauka to Lubię.

I zapraszam do dwóch kolejnych.

Pierwszy kolejny, to jest równo za tydzień.

13.00 o godzinie 20.00, 13.00?

Tak, 13.00 kwietnia.

O godzinie 20.00 nie będzie dotyczył sztucznej inteligencji, będzie dotyczył technologii kosmicznych.

Zapraszam na rozmowę z Krzysztofem Kurdyłą.

Będziemy rozmawiali trochę o starcie.

Mam nadzieję, że do godziny 20.00 wystartuję.

Bo tego dnia wystartuję z gujany francuskiej Sonda Juice do Księżyców Jowiszowych.

I chcemy o niej trochę opowiedzieć.

Ale też, ja też pokażę fragmenty filmów, które nakręciłem będąc na gujanie francuskiej dwa miesiące temu.

Ale też chcemy opowiedzieć o czymś, co często się pojawia, ale nigdy jakoś nie jest zgłębiane.

A mianowicie o chińskim, hinduskim, głównie tych dwóch programach kosmicznych.

Te dwa kraje bardzo szybko się w kosmosie rozwijają, ale do nas trafiają tylko jakieś skrawki informacji.

Z Krzysztofem Kurdyłą porozmawiamy o tym, w którą stronę to rzeczywiście idzie i czy idzie.

I czy ten obraz, jaki czasami u nas się buduje, że Chińczycy już są pół kroku za nasa amerykańską agencją kosmiczną.

A może już pół kroku przed, czy ten obraz jest prawdziwy.

Więc zapraszam was na 13.00 na godzinę 20.00 na Nauka to Lubię.

Koniecznie sobie zapiszcie w kalendarzu.

A nasze spotkanie kolejne będzie albo 26.00 albo 27.00 kwietnia.

Po prostu, nie wiem, zalekujcie albo zasubskrybujcie, żeby dostać tą informację.

Na pewno o tym będziemy informowali.

Więc to jest tak, to jest live z Mateuszem, live z Krzysztofem o kosmosie.

Dobra to.

I teraz tak, podziękowania.

Dobra, podziękowania dla Uniwersytetu Śląskiego.

Bardzo, bardzo dziękuję za to, że mogliśmy być w studio Uniwersytetu Śląskiego, bez Uniwersytetu.

Ta relacja byłaby, no niemożliwa.

To, co chcę powiedzieć, to chcę jeszcze raz przypomnieć króciutko o przed sprzedaży książki Jak Dzia Kosmos.

Książki dla dzieci o technologiach kosmicznych, czy w ogóle o kosmosie.

Bardzo, bardzo zachęcam.

I zepnijcie do sklepu nauka to Lubię.

Sklep naukatolubie.pl, bo tam możecie znaleźć też na przykład koszulki.

A przy okazji wspieracie naszą działalność, dzięki której możemy realizować między innymi takie live.

No dobra, to powiedziałem, to powiedziałem, to powiedziałem, to powiedziałem.

Jakiś słowo na dobrą noc?

Jeżeli macie jeszcze jakieś pytania o sztuczną inteligencję, to jest tak, że ja się tam zapuszczam w te komentarze i czasami czytam,

natomiast z odpowiedziami jest trudno, bo to wiadomo, że wszyscy jesteśmy ograniczeni czynicy do czasu.

Pewnie nie wyczerpaliśmy absolutnie całego tematu.

No nie wierzę w to, nie da się tego tematu wyczerpać.

Jest jeszcze dużo tematów dookoła.

Dajcie znać czego wam brakowało.

Może też na ten kontaktowy mail, co kontakt małpanaukatolubie.pl.

Czy w komentarzach czy tak?

Bo w komentarzach czasami bywa tak, że tych komentarzy jest bardzo, bardzo dużo.

Jeszcze wewnętrznie się odbywają dyskusje między wami, co w ogóle bardzo nas cieszy,

że chcecie między sobą też rozmawiać na ten temat i się przekonywać, albo dostarczać jakieś informacje sobie.

Więc trudno nam czasami wyłapać komentarz, który się pojawia na przykład po tygodniu.

Natomiast na majlu kontaktowym kontakt małpanaukatolubie.pl na pewno te majle do nas trafiają.

Jeżeli macie sugestie dotyczące kolejnych tematów.

My mamy te tematy wyselekcjonowane, bo ostatni konkurs,

czy możemy zrobić z tej kamery, żeby nas w wujkę mówić, że się źle czuł,

jak rozmawiamy w wujkę tylko w imię.

Bo poprzedni konkurs po poprzednim live'ie dotyczył właśnie podania różnych tematów.

Mamy taką tabelkę, jeżeli wszystkie byśmy chcieli zrealizować, to kończymy mniej więcej w roku 2050, zgrusza.

Więc tego jest naprawdę sporo.

Ale jeżeli uważacie, że coś warto by było dopisać, też piszcie,

sugestiami piszcie i koniecznie z imieniem dla tego jego mościa,

który być może będzie się pojawiał nas częściej, jak on powinien mieć na imię.

Trzy osoby wybierzemy, trzy najlepsze imiona wybierzemy i nagrodzimy autorów tych imion książkami z Nauka to lubię.

A ponieważ wszechświat cały czas się zmienia, to pewnie te tematy też będą się zmieniać.

Też się będą zmieniały. Bardzo, bardzo Wam dziękujemy za dzisiejsze spotkanie i życzę, życzę mężczyn.

Dobrej nocy.

Dobrej nocy.

Wysołych świąt sobie.

Tak, właśnie. Wysołych świąt.

To już za chwilę.

Nie chcę powiedzieć, że zapomniałem, nie zapomniałem, ale jakoś mi się nie skleiło.

Algorytmy już le działają o tej godzinie.

Wysołych świąt Wam życzę. Spędźcie je w spokoju z rodziną, z tymi, którzy są dla Was najważniejsi.

Machine-generated transcript that may contain inaccuracies.

Sztuczna inteligencja w światowej medycynie nie jest nowością. Od lat wspiera procesy terapeutyczne, diagnostyczne czy naukowo-badawcze. Jakie są jej możliwości? Czy może zastąpić lekarza? O tym z Mateuszem Chrobokiem – specjalistą od sztucznej inteligencji – rozmawiam podczas drugiego live’a z serii „Rewolucja AI”.