Raport o stanie świata Dariusza Rosiaka: Raport na dziś - 21 czerwca 2023
Dariusz Rosiak 6/21/23 - Episode Page - 37m - PDF Transcript
Przy mikrofonie Adrian Bąk, a to jest raport na dziś.
Unia Europejska jako pierwsza na świecie wprowadza prawo mające na celu uregulowanie sztucznej inteligencji.
Parlament europejski chce między nimi zakazać masowej inwigilacji z wykorzystaniem AI,
a także ujednolicić zasady, funkcjonowania i korzystania z popularnego czatu GPT,
co jeszcze zawierają przepisy o sztucznej inteligencji i w jaki sposób mają chronić Europejczyków.
Czy unijne państwa będą mówiły jednym głosem w sprawie wykorzystania tej nowej technologii?
Czy unijny akt zagraża prawom migrantów?
O tym powiemy w raporcie na dziś 21 czerwca 2023 roku.
Raport na dziś to środowa odmiana raportu o stanie świata, programu finansowanego przez słuchaczy.
Za wszystkie wpłaty serca państwu dziękujemy, bo wszystkie one sprawiają, że raport może istnieć.
Jeśli ktoś z państwa chciałby dołączyć do ogrona patronów, zapraszamy na profil raportu w serwisie patronite.pl
Dariusz Rosiak na krótkim urlopie w Stuliu Efektura niezmiennie Chris Wawrzek. Zaczynamy.
A na łączach internetowych Filip Konopczyński z Fundacji Panoptykon,
analityk regulacji sztucznej inteligencji i nowych technologii, badacz społeczeństwa i gospodarki cyfrowej.
Dzień dobry.
Dzień dobry.
Zanim powiemy, co znalazło się w tym akcie, to powiedzmy może, choć to wydaje się oczywiste,
dlaczego wprowadzane są takie przepisy i dlaczego teraz?
Tutaj nie ma żadnego zdziwienia sztuczną inteligencję należy regulować tak samo jak każdą inną technologię
i skoro udało się uregulować tak skomplikowane i potencjalnie zarówno pozytywne, jak i bardzo groźne zdobyczy nauki,
jak energia atomowa, czy różne kwestie związane z biotechnologią, to nie ma powodu,
żeby w ten sam sposób nie regulować sztucznej inteligencji.
Dodajmy też, że ten akt, czy te przepisy nie powstały w ciągu kilku miesięcy,
gdy to światu słyszało o czacie GPT i wszystkich szansach, ale też zagrożeniach z tym związanych, ale wcześniej.
Absolutnie. Pierwszy projekt Komisji Europejska złożyła w 2021 roku, więc udało się to uchwalić w dosyć szybkim,
jak na Bruksele, tempie niewiele ponad dwóch lat.
No i od tego czasu ten projekt, a teraz w zasadzie już przygłosowana wersja przez Parlament Europejskim,
mocno się zmienił, tak? To znaczy o ile na początku to była technologia adresowana,
to była regulacja adresowana przede wszystkim dla sektora nowych technologii, firm, które zajmują się AIM,
która miała wspierać innowacje i tylko bardzo ogólnie nakreślać takie ramy tego, co jest zabronione.
No tak teraz udało się, tak, że dzięki zaangażowaniu organizacji takich jak pan optykon czy sieć edryi,
które jesteśmy częścią, wprowadzić takie bardzo konkretne z jednej strony poprawki, tak?
Poprawione przepisy dotyczące np. zakazów albo technologii wysokiego ryzyka,
czy mam nadzieję, że jeszcze wspomnimy, no ale także przyznać konkretne prawa, tak?
Prawa obywatelom, więc ta droga jest od takiej regulacji, która przypominała trochę,
że może była inspirowana takim prawem bezpieczeństwa produktu w stronę czegoś,
co już przyznaje nam pewne prawa i ma taki charakter, nie chce powiedzieć konstytucji AI,
ale już odnosi się do tych praw obywatelskich, co nas bardzo cieszy.
No dobrze, to uporządkujmy, co znalazło się w tych finalnych zapisach.
Możemy też porozmawiać na ile one są finalne, czy jeszcze będą się zmieniać,
ale jak można rozumieć, to działa trochę na zasadzie takich świateł drogowych,
czyli mamy systemy sztucznej inteligencji ewidentnie zakazane, takie czerwone,
pomarańczowe, czyli wysokiego ryzyka, o czym Pan też wspomniał
i mamy też ograniczonego czy niskiego ryzyka, czyli takie światło zielone,
choć nie wiem, czy to można zakwalifikować jako kolor zielony.
No to myślę, że to jest dobra metafora, natomiast jak zawsze jest metaforami,
ma pewne wady. Generalni logika, którą przyjmuje, przyjęła komisja,
jeżeli chodzi o AI Act, to logika oparta na podejściu,
opartym na szacowaniu ryzyka, to znaczy pewne technologie AI,
tak jak pan redaktor powiedział, powinny być po prostu zakazane.
Inne w pewnych sytuacjach mogą być korzystne, ale są wielkie ryzyka,
jeżeli one nie będą poddane odpowiednim standardom,
czy właśnie nie będą w pewien sposób ograniczone.
Inne z kolei wymagają minimalnych regulacji, czyli na przykład obowiązku
informowania, że wobec nas stosowane jest AI.
Czyli zamiast tego światła zielonego, bardziej takie światło żółte, pomarańczowe i czerwone.
Tak, i tutaj warto też powiedzieć, że po pierwsze większość systemów
sztucznej inteligencji, z którymi będziemy się spotykać w życiu codziennym,
nie będzie regulowana w jakiś szczegółowy sposób, jeżeli chodzi o AI Act,
więc to, że najwięcej mówimy o tych groźnych zastosowaniach,
to nie znaczy, że ich będzie najwięcej,
a z drugiej strony też warto wspomnieć i to też ma znaczenie
pod kątem różnych prób krytykowania tego podejścia Unii Europejskiej.
To znaczy, AI Act nie będzie obowiązywał w odniesieniu do badań naukowych,
zarówno właśnie takich podstawowych, jak i wdrożeniowych,
ani do wojskowości.
Więc te wszystkie argumenty, które mówią, że to wstrzymuje innowację,
że świat nas wyprzedzi, no nie.
AI Act będzie obowiązywał w momencie wprowadzenia produktów na rynek,
czyli zarówno do administracji publicznej, albo do sektora prywatnego.
No i taka jest taka, jeżeli dana firma czy instytucja chce
oddać do użytku systemy, które wykorzystują sztuczną inteligencję,
no to musi sprawdzić, czy one są bezpieczne, tak?
Więc tutaj z jednej strony mamy to ryzyko,
a po tej pozytywnej stronie bezpieczeństwo to jest ten cel.
To jeśli pan mówi o tym ryzyku, to powiedzmy na konkretnych przykładach
czy systemach dotyczących tej sztucznej inteligencji,
co znalazło się wśród tych najbardziej niebezpiecznych systemów.
W polityku znalazłem taki artykuł, że bitwa o sztuczną inteligencję w Brukseli
właściwie dotyczy, czy dotyczyła głównie nie czatak GPT,
o czym mówimy chyba najczęściej,
a rozpoznawania twarzy, to właśnie system monitoringu,
czy masowej inwigilacji też niektórzy powiedzą,
wywołuje najwięcej kontrowersji.
Czy to jest właśnie to, czego też w dużej mierze mają dotyczyć te regulacje?
Powiedziałbym, że tak, w tych ostatnich tygodniach
najwięcej kontrowersji budziła właśnie kwestia tej zdalnej inwigilacji
osób w miejscach publicznych.
I to jest na pewno groźna technologia
i dobrze, że udało się ostatecznie jej zakazać
w tym wydaniu właśnie w czasie rzeczywistym,
bo to byłby bardzo niebezpieczne narzędzie.
Natomiast temat może wrócić,
ale warto jednak cofnąć się trochę do tyłu,
bo to, że to wzbudziło polityczne kontrowersje,
to nie znaczy, że to jest tak najistotniejsze
w tym procesie oraz że to jest akurat ta największa zmiana.
Myślę, że z takiego punktu widzenia gospodarczego,
ale także dotyczącego naszych praw,
dużą zmianą jest prowadzenie przepisów poświęconych
właśnie temu nieszczęsnemu chatowi GPT,
czy modelom fundacyjnym,
jak ta kategoria AI została nazwana w AI-akcie,
no bo to są te przepisy, które pojawiły się na końcu
i dosyć szczegółowo,
choć niezbyt restrykcyjnie regulują właśnie takie modele,
które modele generatywne oparty na dużych modelach językowych.
No i jak wiemy niestety zdoniesień między innymi time so,
ale także polityko był to jeden z tych głównych obszarów batali
pomiędzy lobbystami, tak, lobbystami a politykami
i trzeba powiedzieć, że przedstawicielom właśnie,
między innymi Googlea czy Microsoftu,
udało się wprowadzić takie przepisy,
które są, wydają się być dosyć korzystne
dla twórców takich dużych modeli językowych.
Jeszcze zatrzymajmy się, skoro pan mówi o tym,
lobbyingu i o tych korzystnych,
jak to pan powiedział, zapisach dla firm.
Oczywiście, tak jak w przypadku samej sztucznej inteligencji,
która budzi wiele nadziei, ale też zagrożeń,
już o tym zresztą rozmawialiśmy w raportach,
podobnie jest właśnie z samym prawem,
który też niesie za sobą pewne zagrożenia.
Już pojawiają się szantaże, wizją ucieczek,
przedsiębiorstw z Europy przed restrykcyjnym prawem.
Nie bez przyczyny zresztą sam Oldman, szef OpenAI,
odbył tór po Europie.
Krystian Łukasik, ekonomista w Polskim Instytucie Ekonomicznym,
pisze tak, tór sama Oldmana po Europie,
w trakcie którego opowiadał o potrzebie regulacji,
był tylko przykrywką do rozwodnienia aktu
przez lobbystów OpenAI.
Osłabić europejskie prawo udało się skutecznie,
bo część poprawy klobystów trafiła do finalnego tekstu.
To właśnie o tym pan mówił?
Tak, myślę, że Krystian Łukasik odwołował się do tego samego, o czym wspomniałem.
To znaczy faktycznie wizyta Oldmana między innymi w Warszawie,
gdzie pamiętajmy, że przed tym, jak spotkał się ze studentami
na takim otwartym sesji Q&A na UW,
wcześniej spotkał się z premierem Morawieckim.
Możemy tylko domniemywać, o czym obaj panowie rozmawiali.
Zakładam, że dotyczyło tego, żeby rząd polski,
bo tutaj po głosowaniu w parlamencie europejskim,
to właśnie Rada Unii Europejskiej,
czyli przedstawiciele rządów będą mieli duże dopowiedzenie,
jeżeli chodzi o ostateczny kształt tego aktu.
Żeby przedstawiciele rządów byli przychylni dla narracji,
czy mówiąc bardziej konkretnie rozwiązań,
które postuluje Altman jako przedstawiciel OpenAI.
I tutaj będzie ważny front tej batali w ramach procesu trilogu,
który się już rozpoczął, który będzie trwał prawdopodobnie do końca roku.
Natomiast też, żeby nie skupiać się tylko na tych ciemnych stronach,
czy na tych zagrożeniach, które przed nami są,
chociaż niestety one będą,
warto też powiedzieć o tym, co udało się wywalczyć.
I tutaj wspominałem na początku,
że ten akt jest lepszy od tego, co zaproponowała komisja.
I nie tylko udało się wprowadzić nowe zakazy dla technologii,
szczególnie niebezpiecznych.
I to nie chodzi tylko o to inwigilację biometryczną w czasie rzeczywistym,
ale także na przykład coś, co kojarzy nam się z science fiction,
czyli na przykład z raportem mniejszości,
czyli taką predyktywne szacowanie prawdopodobieństwa wypełnienia zbrodni
przez osoby bądź grupy, to także będzie zakazane.
Ale i z czego my jesteśmy bardzo zadowoleni
jako przedstawiciele organizacji, które walczą o te prawa w przestrzeni cyfrowej,
udało się w odniesieniu do tych technologii wysokiego ryzyka
wprowadzić mechanizm obowiązkowy dla twórców takich,
dla podmiotów, które wdrażają takie systemy.
Mechanizm szacowania wpływu tych systemów na nasze prawa podstawowe.
Czyli jeżeli na przykład instytucja publiczna będzie chciała wprowadzić system,
który będzie analizował stan faktyczny,
albo brał pod uwagę sytuację prawną obywateli,
to będzie musiało przeprowadzić taką analizę,
szacunek tego, jak dane rozwiązania mogą wpływać na osoby,
które będą poddane działaniom tych systemów.
To będzie dotyczyło nie tylko instytucji publicznych,
chociaż tam to jest bardzo ważne,
ale także na przykład systemów AI,
które będą używane do tego,
żeby decydować o zatrudnieniu czy zwolnieniu,
albo przyjęciu do szkoły,
bądź bądź usunięciu z placów kiedukacyjnej,
więc to jest jeden taki postulat,
który udało się wprowadzić z poparciem polityków,
ale to walczyło organizację,
tak jak pan optyko od początku,
do tej wersji przyjętej przez Parlament.
Z takich ważnych rzeczy, które są,
także po tej pozytywnej stronie,
to jest przyznanie nam praw.
I tutaj mówię zarówno o uzyskaniu prawa do wyjaśnienia decyzji,
ale niestety tylko o przypadku systemu wysokiego ryzyka.
My chcieliśmy, żeby to było szerzej,
żeby każda ważna decyzja,
która jest podejmowana przy wykorzystaniu AI,
dawała taką możliwość,
że zapytamy się, na jaki podstawie ona została podjęta.
No, ale także i tutaj to na szczęście udało się
w takiej pełnej formie wprowadzić,
czyli prawo do skargi, najpierw do urzędu,
a potem do sądu,
czyli jeżeli urząd,
albo prywatna firma
wykorzysta system AI,
żeby podjąć wobec nas decyzję,
to decyzja dotknie jakichś naszych ważnych praw,
albo uderzy w nasze zdrowie,
sytuację materialną,
to będziemy mogli po prostu złożyć skargę do urzędu.
Jeżeli ona nie będzie rozpatrzona,
będziemy mogli pójść do sądu.
I to jest właśnie to, o czym wspominałem,
że to zaczyna przypominać takie prawo,
z którego po prostu można korzystać,
to nie jest czysto techniczna regulacja,
która właśnie tutaj ma określać obowiązki,
dostawców, podmiotów wdrażających
specyfikację techniczną,
ale także my będziemy mogli coś w tym robić.
No i to na pewno bardzo cieszy.
Panie Filipie, tak prześlizgnęliśmy się
trochę po tym czacie GPT,
mówiąc o tych korzyściach
wielkich firm, o lobbyingu,
ale tak naprawdę wciąż
niewiele wiadomo o konkretach.
To znaczy, w jaki sposób
zmienia się w tym momencie
korzystanie z czatów GPT,
nie tylko na poziomie indywidualnym,
ale także na poziomie chociażby
instytucji publicznych,
co będzie można robić nadal,
a czego nie będzie można robić
i o jakich tak naprawdę korzyściach,
które forsowały te wielkie firmy
Pan wcześniej mówił?
Może zacznijmy od tego, co znalazło się
w tej ostatecznej wersji,
przyjętej przez Parlament, więc
twórcy modeli takich jak GPT,
ale to oczywiście także inne firmy,
czy OpenAI, czy Microsoft,
bo te firmy są bardzo blisko siebie,
będą musieli,
po pierwsze,
takie systemy będą musiały być rejestrowane
w centralnej bazie
prowadzonej przez Komisję Europejską
i ona będzie publicznie dostępna,
czyli będziemy wiedzieli,
jakie modele fundacyjne, czyli właśnie
np. GPT, model oparte na dużych
modelech językowych
będą działały w Europie,
po drugie,
pomyślnie móc rejestrować taki model
w Europie, będzie trzeba spełnić
szereg kryteriów, one będą
dotyczyć zarówno, przede wszystkim
będą dotyczyć tego danych,
na których taki model jest
trenowany i tutaj chodzi zarówno o to,
czy te dane zostały
pozyskane w sposób legalny
i tutaj np. dane osobowe,
tu była wielka kontrowersja
dotycząca czate GPT,
istnieje duże prawdopodobieństwo,
że one po prostu zostały pozyskane
naruszeniem RODO, tak europejskie
ochrony danych osobowych, to nie będzie
możliwe, przynajmniej w świetle tej wersji,
którą przyjął parlament, to jest pierwsza rzecz.
Druga rzecz, że
dane o ludziach np.
które będą w takiej bazie,
na której trenowany jest ten model
nie będą prowadziły do dyskryminacji,
czyli będą reprezentatywne, będą dobrze
zarządzane, będą uczciwe i sprawiedliwe
jeżeli chodzi o to,
zarówno jak zostały zbierane,
jak reprezentują np. osoby,
ale także będzie trzeba wykazać,
że te dane
w modelu
nie naruszały prawa autorskich,
kolejna duża kontrowersja,
będzie trzeba wykazać w użycie energii,
to jest taka pięta
chilesowa tych dużych modeli językowych,
bo prawdopodobnie one zużywają
ogromną ilość energii,
są bardzo nieekologiczne, o czym te firmy
często nie chcą mówić,
no więc to są te główne
założenia dotyczące
właśnie modeli, natomiast
w przypadku już aplikacji, bo chat GPT
nie jest modelem tylko aplikacją, model to jest GPT,
będą inne wymogi,
czyli np.
od prostych rzeczy, czyli obowiązek poinformowania
użytkownika, że wchodzimy w interakcję
z chatbotem, nie będzie można udawać, że
jest to prawdziwy człowiek.
Kolejny obowiązek dotyczy np.
tzw. generatywnej sztucznej inteligencji,
czyli
tego co jest w stanie np.
text, napisać kod,
zanalizować obrazek albo go stworzyć,
tutaj będziemy musieli skali być w jaki
sposób informowani, że
wytwór
takiego programu
jest właśnie dziełem
sztucznej inteligencji,
więc to są te rzeczy, które najbliżej
dotykają właśnie
tego słowianego GPT,
który odegrał taką dwuznaczną rolę
w tym procesie, bo z jednej strony wspominałem
o tych
lobistycznych
kampaniach, których celem było
tak mówiąc w skrócie to, żeby
tego typu modele i systemy nie były
traktowane jako
i wysokiego ryzyka, tylko żeby były inne regulacje.
No i stanęło na tych innych regulacjach.
Natomiast to jest ta negatywna
tak bym powiedział, strona.
Pozytywna jest taka, że dzięki temu, że
setki milionów ludzi
zaczęły korzystać właśnie
z tej aplikacji, że stało się to najszybciej
ściągane aplikacja w historii internetu,
no to zaczęła się
taka duża dyskusja i
jak to ujmujemy
trafiła podstrzechy, to znaczy
stała się przedmiotem codziennych rozmów.
Zaczęto rozmawiać nie tylko o tych
wspaniałych funkcjach, ale także
o tych wielkich zagrożeniach.
Zagrożeniach związanych na przykład z propagandą,
która jest teraz najtańsza, jest tak tania,
jak nigdy, z
masową dezinformacją,
z naruszeniami prawa autorskich
z naruszeniami, to to
jest pewnie w tym wszystkim najważniejsze
z korzystanie w naszych danych
osobowych, z tym, że tego typu
czaty mogą generować mowy nienawiści.
No to są naprawdę poważne
poważne wyzwania, których jest
zresztą znacznie więcej
i pewnie nie mamy czasu, żeby ją wszystkie omówić.
Natomiast
właśnie dzięki temu, że świat zaczął dyskutować
o GPT, politycy
jeszcze bardziej zainteresowani się
AI-aktem
i myślę tak, myślimy, że także dzięki temu
w tych ostatecznych
kompromisach, które zostały przyjęte
w połowie maja
przez największe grupy w Europarlamencie
tych przepisów właśnie,
które odpowiadają
na potrzeby dotyczące naszych praw
i naszego bezpieczeństwa, jest więcej.
Więc nie jest idealnie.
Wiele rzeczy chcielibyśmy zrobić inaczej.
Natomiast trzeba też szanować
ten progres, który udało się
uzyskać i go zabezpieczyć, bo
jak wspominałem, teraz rozpoczyna się
ten okres Trilogu
i okres Trilogu, czyli
czyli
tak zwanego dialogu trójstronnego
pomiędzy Parlamentem Europejskim,
Komisją Europejską
i Radą Unii Europejskiej,
gdzie będzie uciarało się to ostateczne brzmienie
aktu, to znaczy każda z tych instytucji
ma, przyjęła własną wersję
tego aktu, no i teraz
teraz
negocjacje zdecydują o tym
jak będzie wyglądał ostateczny
ostateczny kształt
nowego prawa.
Tak, to ucieranie, o którym Pan wspomniał
oczywiście nie musi przebiegnąć
bezproblemowo, wiadomo, że
pewnie poszczególne kraje członkowskie
mają różne interesy, zresztą
już kilka państw członkowskich
takich jak Czechy, Włochy, Malta, Polska
czy Portugalia rozważa, a nawet
konkretnie planuje działania ustawodawcze
dotyczące odpowiedzialności cywilnej
za sztuczną inteligencję, to
jak właśnie będzie wyglądało, to znaczy
czego my możemy się spodziewać? Możemy
spodziewać się jedności?
Jeżeli chodzi o kwestie odpowiedzialności
to jest co innego, tak?
Jest zresztą osobny, jak prawny
na poziomie unijnym właśnie dotyczący
dotyczący odpowiedzialności
za
szkody
dokonane z użyciem właśnie
takich systemów sztucznej inteligencji. To jest
inna sprawa. Jeżeli chodzi o
Trilok, to tutaj te osie
sporu są gdzie indziej.
Jednym z głównych
wyzwań, które dostrzegamy w Panoptykonie
jest kwestia tak zwanego bezpieczeństwa narodowego.
Otóż kiedy na jesieni
zeszłego roku Rada Unii Europejskiej
czyli szefowie rządów
przyjmowali swoją wersję EI-aktu
tam
znalazł się taki przepis, który pozwala
rządom
nie stosować, w całości nie stosować
tego aktu, w przypadku zagrożenia
dla bezpieczeństwa narodowego.
No i to jest niezwykle niebezpieczne, bo po pierwsze
nie ma w prawie Unii Europejskiej
takiej jednoznacznej, niekwestionowanej definicji
tego czym jest bezpieczeństwo narodowe.
No i w związku z czym to otwiera
furtkę dla
właśnie kreatywności polityków.
Możemy sobie tylko wyobrażać
jakie zdarzenia, czy faktycznie
rzeczy, które zagrażają
bezpieczeństwo obywateli. Czy może
raczej
bardziej niecne intencje dotyczące na przykład
tego, że rządowi się nie będzie
podobało, jak
dana grupa społeczno protestuje, albo
będzie chciał znaleźć
jakieś narzędzie do tego, żeby prześladować
czy inwigilować opozycję.
Zresztą też piszą państwo na stronie panoptykonów
prost. Omigranta, którzy mogą
pozostać bez gwarancji ochrony
przed sztuczną inteligencją, piszą państwo
kraje południa Europy być może
rozglądają się za narzędziami, które pomogą
urzędnikom na granicy sortować
osoby przebywające na te, które
mają szansę dostać azyl i na te, które
nie mają i zasłonić się decyzją
uważanej za pozbawioną ludzkich uprzedzeń
sztucznej inteligencji. No to brzmi
trochę niepokojąco. To brzmi bardzo
niepokojąco i
w ramach sieci edry zabiegaliśmy
o to, żeby wprowadzić całkowity zakaz
stosowania pewnych inwazyjnych
technik opalnych na sztucznej
inteligencji wobec osób, które
przekraczają europejskie granice.
Niestety to się nie udało
no i faktycznie powstaje
taki jeszcze nie wiemy, jak ten system będzie
oczywiście wyglądał, ale mamy
bardzo się niepokoimy tym, że
może to dać wolną rękę albo
ułatwić pewne naruszające
podstawowe prawa człowieka
techniki, tak jak na przykład szacowanie
ryzyka wystąpienia chorób,
czy szacowanie
ryzyka popełnienia przestępstwa
przez osoby, które nie dokonały tych
przestępstw, które wkraczają
na teren Unii Europejskiej, a także
przybywają o tym statusie migranskim,
więc możemy być w takiej sytuacji, że
problemy będą duże
i no to źle świat, czy po prostu o
Unii Europejskiej, że pozwala na takie rzeczy.
Natomiast wracając do tej kwestii
bezpieczeństwa narodowego, to tutaj
jest jeszcze inna rzecz,
no bo korzystając tego wyjątku,
jeżeli rząd uzna, że będzie chciał
zastosować tak właśnie takie wyłączenie
oparte na bezpieczeństwie narodowym,
no to będzie można
stosować to wobec obywateli, tak
nie tylko migrantów, ale
nas wszystkich.
No to budzi duży niepokój, bo wtedy to już
nie ma żadnych
zasad, tak to znaczy jakiekolwiek technologie
są dostępne, takie będą mogły być
przynajmniej w świetle, jak to
stosowane, więc mamy nadzieję, że
rządy pójdą po rozum do głowy
i przejdą, jakby ostateczny głos będzie
należą do tej wersji do
parlamentu, czy do negocjatorów
zreumienia parlamentu europejskiego, bo w wersji
parlamentu europejskiego takiego wyłączenia
dla bezpieczeństwa narodowego nie ma.
I to jest jeden obszar, drugi obszar
to jest właśnie ta kwestia,
o której pan redaktor wspominał na początku,
czyli możliwości
stosowania inwigilacji biometrycznej
w przestrzeniach publicznych w czasie rzeczywistym,
bo m.in.
Europosłowie,
Europejski Partii Ludowej, czyli
w polskim przypadku tu są m.in.
Platformy Obywatelskiej i PSL-u
chcieli wprowadzić taką furtkę, która pozwalałaby
nawet bez zgody
sądu stosować tę technologię.
No i nas to bardzo niepokoi,
bo niezależnie od tego
w jakich sytuacjach teoretycznie
można by było stosować takie wyłączenie
i włączać
tę biometryczną inwigilację
to takie systemy potrzebują
wielkich baz danych, także o zwykłych obywatelach
plus ciężko sobie wyobrazić
nienaruszanie naszej prywatności,
kiedy na przykład
inwigilowy
spowoduje jakiegoś rzekomego
bądź prawdziwego zagrożenia
dla na przykład
poszukiwania przestępcy
czy jakiegoś zagrożenia atakiem
terrorystycznym.
Na przykład w trakcie Wielkiego Marszu
skierowanego przeciwko rządowi
albo strajku ludzi, którzy
domagają się uznania swoich praw
policja będzie mogła
wysłać sprzęt, który będzie
mógł inwigilować wszystkich. Oczywiście
pod płaszczem tego, żeby szukać
konkretnego przestępcy, ale
czy faktycznie to tylko o to będzie chodziło?
No, mam duże wątpliwości
i mamy nadzieję, że
nie uda się przeprowadzić
tej ofensywy właśnie dotyczącej
zdalnej inwigiracji biometrycznej.
Wspomniał pan wcześniej o
sieci edry i dodajmy, że chodzi o
międzynarodową grupę European Digital
Rights, której częścią jest także
Fundacja Panoptykon i która to grupa
także zgłaszała rekomendacje, tak jak pan
wspomniał, niektóre z tych rekomendacji zostały
uwzględnione, inne nie.
Na koniec jeszcze naturalnie pojawia się
pytanie o to, czy prawo
w tym przypadku będzie nadążać za
samą technologią, bo chyba już można
zaryzykować odpowiedź, że nie będzie
nadążało, bo to jest technologia,
która zmienia się szybko, szczególnie
w ostatnim czasie po sukcesie
chatbota. Jak w ogóle tworzyć prawo
i to jeszcze w obrębie tak złożonej
i wielogłosowej instytucji, jaką jest
Unia Europejska? To jest też pytanie właśnie
o to, o czym już wspomniałem,
czy to ma być prawo finalne, tak naprawdę.
No tutaj jestem
nie większym optymistą niż pan redaktor,
to znaczy po pierwsze,
inny postulat, który, który zgłaszaliśmy
i który także został wdrożony,
tak, na poziomie prac
w parlamencie to jest zmiana definicji
sztucznej inteligencji w tym akcie
na nieco szerszą taką, która jest bardziej
odporna na, na zmiany technologiczne,
więc jakby tutaj ten
problem został częściowo rozwiązany.
Myślę, że to, to tutaj nie będzie dużych
niespodzianek i faktycznie taka definicja się
utrzyma. A to po pierwsze. Po drugie,
Komisja Europejska
będzie miała takie uprawnienie, aby
wpisywać
ewentualnie, zdejmować
pewne obszary, tak zwanych
systemu wysokiego ryzyka
w czasie, to znaczy, jeżeli się pojawi
nowa technologia, która jeszcze nie jest
niesłoznawana z wysokiego ryzyka
czy nie znalazła się w tym
akcie prawnym, to jest konkretnie
aneks trzeci, to będzie można
dopisać, tak, więc tutaj co to
takie mechanizmy, które mają właśnie zabezpieczyć
jak na jakieś niespodziewane zmiany technologiczne.
No ale myślę, że odpowiedź jest w sumie
prostsza, to znaczy
ja o tym myślę tak,
jak o na przykład
regulacjach motoryzacji, tak.
To, że sześćdziesiąt lat temu
samochody były inne i znacznie
mniej technologicznie zaawansowane niż
są dziś, no to nie znaczy,
że złym pomysłem było wprowadzanie
ograniczenia prędkości na terenie
zabudowanym na przykład, tak. Gdyby
gdyby stosować tą logikę, no to powinniśmy
czekać do osiągnięcia
rozwiniętych, tak, samochodów
być może jeszcze ich nie ma, tak,
zanim, zanim, zanim powinno się
prowadzać te regulacje, oczywiście to jest absurd, tak.
Technologia
AI, tak jak mówiłem na początku,
nie różni się od innych technologii
i tak długo, jak istnieje prawo,
tak długo regulujemy jego użycie.
Po co, po to, żeby w jak największym
stopniu korzystać z korzyści,
które nam daje oraz
minimalizować te ryzyka.
Więc myślę, że takie
nie jest jednej strony o tym, że się nie da,
bo, bo, bo
to jest zbyt szybkie, bo to jest komplikowane.
Z drugiej strony straszenie
takimi okropnymi scenariuszami końca
świata, końca ludzkości,
a po trzecie także
mówienie, że potrzebujemy globalnej
regulacji na poziomie NZ, to wszystko
są takie, bym powiedział,
narracje wytrychy,
które mają nas odwieźć od tego, co jest
konkretne i bardzo realne i bardzo
bliskie, no bo
nie przekreślają, to oczywiście
szans na to, że, że
w stanu przyszłości jakieś takie globalne
regulacje AI, skupmy się na tym, co to jest
tu i teraz.
Wiemy, że są takie przykłady
regulacji, jak na przykład RODO,
które pomimo, że tego, że obowiązuje
w Europie, to to w pewnym sensie
jest kopiowane i stosowane, zarówno
przez państwa, niektóre, jak i przez firmy
dla wszystkich swoich użytkowników,
więc mamy nadzieję, że tak samo będzie z akty masztycznej
inteligencji. To znaczy, że
Europa, która podjęła się
tego historycznego,
wyczyną właśnie
wypracowania, jesteśmy już na finiszu
tych prac takiego, takiego prawa,
która ma regulować rynek sztucznej inteligencji,
że to będą normy, które będą
promieniować, tak, inne kraje,
inne obszary gospodarcze będą mogły się
do tego odwoływać,
albo po to, żeby po prostu
mieć możliwość
niskokosztowego
sprzedarowania produktów na terenu
europejskiej, to będzie warunek, tak
będzie trzeba spełniać te kryteria, żeby móc
oferować swoje produkty w Unii,
albo dlatego, żeby też
chronić swoich obywateli. Tutaj te cele
mogą się ładnie połączyć
i z tego powodu jestem
optymistą, aczkolwiek oczywiście
ryzyka związane właśnie
przede wszystkim z tym procesem trilogu
istnieją, będziemy się temu cały czas
przyglądać i będziemy apalować także do polskiego
rządu, żeby prowadzić dyskusję na temat
tego, żeby w jak najlepszym stopniu
zagwarantować nasze prawa, no bo
postępu technologicznego, czy
sukcesów
w obszarze sztucznej inteligencji nie osiągniemy
regulacją ani najgorszą, ani najlepszą, tak.
Możemy to osiągnąć tylko
tylko dużymi inwestycjami
wspomaganiem firm, wspomaganiem
uczonych, więc
no obok tego, że
musimy dbać o to, żeby
wspierać innowatorów, to jest
służny cel, to nie róbmy tego poprzez
zdejmowanie obowiązków prawnych
tylko wspieramy ich bezpośrednio, a sami
dbajmy o nasze prawa
i myślę, że firmy czy instytucje też na tym
zyskają, no bo
najlepsze produkty są takie, to są takie
produkty, które możemy ufać
i miejmy nadzieję, że ten europejski model
regulacji AI doprowadzi do
tego, że będziemy mogli ufać tego typu systemom,
także jeżeli firma czy instytucja
publiczna będzie wykorzystywała wobec nas
system AI, to będziemy mogli sprawdzić
jaką działa, jeżeli coś nam się nie spodoba, to
będziemy mogli się, będziemy mogli
sprawdzić decyzje, które zostały
z udziałem tego systemu podjęte,
a jeżeli
problemy będą większe, to odpowiednie organy
będą w stanie albo zablokować
daną technologię
używania danej technologii w Europie, albo
nałożyć
nie albo, ale jest oblokować
i jednocześnie nałożyć kary i to mogły być bardzo
wysokie kary, tak, więc to nie jest bezzębny
akt prawny, tak, wyobrażam sobie,
że gdyby Microsoft dostał kary
w wysokości 7% globalnego
rocznego, to byłoby to
bardzo dotkliwa kara, więc
no, są i takie, jest
nie tylko marchewka, ale są także
ki w EI-akcie.
Filip Konopczeński z Fundacji Panoptykon
bardzo dziękuję. Bardzo dziękuję.
I to już prawie wszystko w dzisiejszym
wydaniu raportu na dziś.
Zapraszam na sobotę na główne wydanie
raportu o stanie świata, a wszystkie
nasze programy możemy realizować dzięki
Państwu, za co serca dziękujemy.
Rapport o stanie świata
od marca 2020
rozwija się
dzięki Państwa zaangażowaniu
i szczotrości. To dzięki
Wam możemy opowiadać o
świecie przy pomocy
dźwięków.
Dzięki Wam ten program
jest przygotowywany w profesjonalny
sposób, z zachowaniem
najwyższej jakości,
bo na nią właśnie
zasługują słuchacze
raportu o stanie świata.
Z serca dziękuję wszystkim Państwu
za wpłaty. Wasza chojność
jest dla mnie ogromnym zobowiązaniem.
Zbiórka na patronite.pl
ciągle trwa. Zachęcam do udziału.
Najchojniejsi patroni
raportu o stanie świata to
firma
Ampio Smart Home.
Aureus, leasing, kredyt,
ubezpieczenia, księgowość.
Sprawdź nas na
www.aureus.pl
Hotel Bania, termaliski
w Białce Tatrzańskiej
oferujący pakiety pobytowe
z termami w cenie.
Mikoż Barczewski
2005 Global
firma doradcza
Credo
Galmet, polskie pompy ciepła.
Sklep internetowy
GoldSaver.pl
w którym sztapkę fizycznego
złota kupisz po kawałku
i bez wydawania jednorazowo dużych
od
KR Group
firma outsourcingowa
www.krgroup.pl
Razem w przyszłość
Polsko-Japońska Akademia Technik
Komputerowych
Warszawa Gdańsk Bytom
Michał Małkiewicz
NorthMaster
Marka Łodzi Motorowych z Polski
www.northmaster.pl
firma Software Mill
od zawsze zdalni
dom dla całego świata.
Dom wydawniczy muza,
bo świat nie jest nam obojętny.
PurePlay
Transparentna agencja
Mediowa Digital i doradca
w budowaniu kompetencji in-house.
Uber, myślimy globalnie
działamy lokalnie.
Agnieszka i Sławek
Zabadcy
a także
Budros, pompy ciepła.
Gruntowe pompy ciepła dla budynków
wielorodzinnych, kompleksowa
obsługa.
Liceum Błeńskiej, Gdańsk
Kowale, przemyślana edukacja
w dobrym miejscu.
Piotr Bohnia
Michał Boyko
CIO.net
and Digital Excellence.
Łączymy ludzi i idee.
Grupa Brokerska CRB
Ubezpieczenie należności
dla twojej firmy.
Bezpłatne porównanie ofert
z Grupa CRB.pl
Duna Language Services
Biorot tłumaczeń
do zadań specjalnych
www.duna.bis
Flexi Project
Kompleksowy i intuicyjny system
do zarządzania projektami
i portfelami projektów.
JMP
Z miłości do sportu, z najlepszych tkanin
w sercu pod hala
szyjemy dla was porządną odzież.
Palarnia Kawy
LSB Data
Dedykowane aplikacje internetowe
dla biznesu.
Masz pomysł, zrealizujemy go.
LSBdata.com
Wydawnictwo Uniwersytetu Łódzkiego
Wydawca książek
serii Krótkie wprowadzenie.
Wszystko, co trzeba wiedzieć.
Leszek Małecki
Aplikacja Moja Gazetka
Polska proekologiczna
aplikacja zakupowa
z gazetkami promocyjnymi i nie tylko.
Moja Gazetka
Kupuj mądrze.
Firma Prosper
Sosnowca
Hurtownia elektroenergetyczna i właściciel marki
Czystuś.
Firma Odo24
Optymalny kosztowo
outsourcing ochrony danych osobowych
Odo24.pl
Tatrzański festiwal biegowy
Tatra Sky Marathon
22 lipca biegamy
w sercu Tatry i gminy kościelisko.
TIK 100.pl
Niezależny serwis biletowy
Sprzedamy bilety na twoje
wydarzenia kulturalne i sportowe.
Drukarnia cyfrowa
totem.com.pl
Dla nas książka zasługuje na
najwyższą jakość.
Fundacja Wasowskich
opiekująca się z puścizną Jerzego
Wasowskiego i wydawca
książek Grzegorza Wasowskiego
Szczegóły na wasowscy.com
Michał Wierzbowski
Oprogramowanie wspomagające
firmy inżynieryjne w zarządzaniu
projektami stworzone przez polskich
inżynierów dla sektora
projektowego.
www.waymansoftware.
Zen Market
Pośrednik w zakupach ze sklepów i aukcji
w Japonii.
Zen Market.jp
Dziękuję bardzo.
Do dzięki państwu mamy raport o stanie świata.
Cześć.
Machine-generated transcript that may contain inaccuracies.
Unia Europejska - jako pierwsza na świecie - wprowadza prawo mające na celu uregulowanie sztucznej inteligencji. Parlament Europejski chce m.in. zakazać masowej inwigilacji z wykorzystaniem AI, a także ujednolicić zasady funkcjonowania i korzystania z popularnego CzatuGPT. Co jeszcze zawierają przepisy i w jaki sposób mają chronić Europejczyków? Czy unijne państwa będą mówiły jednym głosem w sprawie wykorzystania tej nowej technologii? Czy unijny akt zagraża prawom migrantów?
Gość: Filip Konopczyński