Raport o stanie świata Dariusza Rosiaka: Raport na dziś - 21 czerwca 2023

Dariusz Rosiak Dariusz Rosiak 6/21/23 - Episode Page - 37m - PDF Transcript

Przy mikrofonie Adrian Bąk, a to jest raport na dziś.

Unia Europejska jako pierwsza na świecie wprowadza prawo mające na celu uregulowanie sztucznej inteligencji.

Parlament europejski chce między nimi zakazać masowej inwigilacji z wykorzystaniem AI,

a także ujednolicić zasady, funkcjonowania i korzystania z popularnego czatu GPT,

co jeszcze zawierają przepisy o sztucznej inteligencji i w jaki sposób mają chronić Europejczyków.

Czy unijne państwa będą mówiły jednym głosem w sprawie wykorzystania tej nowej technologii?

Czy unijny akt zagraża prawom migrantów?

O tym powiemy w raporcie na dziś 21 czerwca 2023 roku.

Raport na dziś to środowa odmiana raportu o stanie świata, programu finansowanego przez słuchaczy.

Za wszystkie wpłaty serca państwu dziękujemy, bo wszystkie one sprawiają, że raport może istnieć.

Jeśli ktoś z państwa chciałby dołączyć do ogrona patronów, zapraszamy na profil raportu w serwisie patronite.pl

Dariusz Rosiak na krótkim urlopie w Stuliu Efektura niezmiennie Chris Wawrzek. Zaczynamy.

A na łączach internetowych Filip Konopczyński z Fundacji Panoptykon,

analityk regulacji sztucznej inteligencji i nowych technologii, badacz społeczeństwa i gospodarki cyfrowej.

Dzień dobry.

Dzień dobry.

Zanim powiemy, co znalazło się w tym akcie, to powiedzmy może, choć to wydaje się oczywiste,

dlaczego wprowadzane są takie przepisy i dlaczego teraz?

Tutaj nie ma żadnego zdziwienia sztuczną inteligencję należy regulować tak samo jak każdą inną technologię

i skoro udało się uregulować tak skomplikowane i potencjalnie zarówno pozytywne, jak i bardzo groźne zdobyczy nauki,

jak energia atomowa, czy różne kwestie związane z biotechnologią, to nie ma powodu,

żeby w ten sam sposób nie regulować sztucznej inteligencji.

Dodajmy też, że ten akt, czy te przepisy nie powstały w ciągu kilku miesięcy,

gdy to światu słyszało o czacie GPT i wszystkich szansach, ale też zagrożeniach z tym związanych, ale wcześniej.

Absolutnie. Pierwszy projekt Komisji Europejska złożyła w 2021 roku, więc udało się to uchwalić w dosyć szybkim,

jak na Bruksele, tempie niewiele ponad dwóch lat.

No i od tego czasu ten projekt, a teraz w zasadzie już przygłosowana wersja przez Parlament Europejskim,

mocno się zmienił, tak? To znaczy o ile na początku to była technologia adresowana,

to była regulacja adresowana przede wszystkim dla sektora nowych technologii, firm, które zajmują się AIM,

która miała wspierać innowacje i tylko bardzo ogólnie nakreślać takie ramy tego, co jest zabronione.

No tak teraz udało się, tak, że dzięki zaangażowaniu organizacji takich jak pan optykon czy sieć edryi,

które jesteśmy częścią, wprowadzić takie bardzo konkretne z jednej strony poprawki, tak?

Poprawione przepisy dotyczące np. zakazów albo technologii wysokiego ryzyka,

czy mam nadzieję, że jeszcze wspomnimy, no ale także przyznać konkretne prawa, tak?

Prawa obywatelom, więc ta droga jest od takiej regulacji, która przypominała trochę,

że może była inspirowana takim prawem bezpieczeństwa produktu w stronę czegoś,

co już przyznaje nam pewne prawa i ma taki charakter, nie chce powiedzieć konstytucji AI,

ale już odnosi się do tych praw obywatelskich, co nas bardzo cieszy.

No dobrze, to uporządkujmy, co znalazło się w tych finalnych zapisach.

Możemy też porozmawiać na ile one są finalne, czy jeszcze będą się zmieniać,

ale jak można rozumieć, to działa trochę na zasadzie takich świateł drogowych,

czyli mamy systemy sztucznej inteligencji ewidentnie zakazane, takie czerwone,

pomarańczowe, czyli wysokiego ryzyka, o czym Pan też wspomniał

i mamy też ograniczonego czy niskiego ryzyka, czyli takie światło zielone,

choć nie wiem, czy to można zakwalifikować jako kolor zielony.

No to myślę, że to jest dobra metafora, natomiast jak zawsze jest metaforami,

ma pewne wady. Generalni logika, którą przyjmuje, przyjęła komisja,

jeżeli chodzi o AI Act, to logika oparta na podejściu,

opartym na szacowaniu ryzyka, to znaczy pewne technologie AI,

tak jak pan redaktor powiedział, powinny być po prostu zakazane.

Inne w pewnych sytuacjach mogą być korzystne, ale są wielkie ryzyka,

jeżeli one nie będą poddane odpowiednim standardom,

czy właśnie nie będą w pewien sposób ograniczone.

Inne z kolei wymagają minimalnych regulacji, czyli na przykład obowiązku

informowania, że wobec nas stosowane jest AI.

Czyli zamiast tego światła zielonego, bardziej takie światło żółte, pomarańczowe i czerwone.

Tak, i tutaj warto też powiedzieć, że po pierwsze większość systemów

sztucznej inteligencji, z którymi będziemy się spotykać w życiu codziennym,

nie będzie regulowana w jakiś szczegółowy sposób, jeżeli chodzi o AI Act,

więc to, że najwięcej mówimy o tych groźnych zastosowaniach,

to nie znaczy, że ich będzie najwięcej,

a z drugiej strony też warto wspomnieć i to też ma znaczenie

pod kątem różnych prób krytykowania tego podejścia Unii Europejskiej.

To znaczy, AI Act nie będzie obowiązywał w odniesieniu do badań naukowych,

zarówno właśnie takich podstawowych, jak i wdrożeniowych,

ani do wojskowości.

Więc te wszystkie argumenty, które mówią, że to wstrzymuje innowację,

że świat nas wyprzedzi, no nie.

AI Act będzie obowiązywał w momencie wprowadzenia produktów na rynek,

czyli zarówno do administracji publicznej, albo do sektora prywatnego.

No i taka jest taka, jeżeli dana firma czy instytucja chce

oddać do użytku systemy, które wykorzystują sztuczną inteligencję,

no to musi sprawdzić, czy one są bezpieczne, tak?

Więc tutaj z jednej strony mamy to ryzyko,

a po tej pozytywnej stronie bezpieczeństwo to jest ten cel.

To jeśli pan mówi o tym ryzyku, to powiedzmy na konkretnych przykładach

czy systemach dotyczących tej sztucznej inteligencji,

co znalazło się wśród tych najbardziej niebezpiecznych systemów.

W polityku znalazłem taki artykuł, że bitwa o sztuczną inteligencję w Brukseli

właściwie dotyczy, czy dotyczyła głównie nie czatak GPT,

o czym mówimy chyba najczęściej,

a rozpoznawania twarzy, to właśnie system monitoringu,

czy masowej inwigilacji też niektórzy powiedzą,

wywołuje najwięcej kontrowersji.

Czy to jest właśnie to, czego też w dużej mierze mają dotyczyć te regulacje?

Powiedziałbym, że tak, w tych ostatnich tygodniach

najwięcej kontrowersji budziła właśnie kwestia tej zdalnej inwigilacji

osób w miejscach publicznych.

I to jest na pewno groźna technologia

i dobrze, że udało się ostatecznie jej zakazać

w tym wydaniu właśnie w czasie rzeczywistym,

bo to byłby bardzo niebezpieczne narzędzie.

Natomiast temat może wrócić,

ale warto jednak cofnąć się trochę do tyłu,

bo to, że to wzbudziło polityczne kontrowersje,

to nie znaczy, że to jest tak najistotniejsze

w tym procesie oraz że to jest akurat ta największa zmiana.

Myślę, że z takiego punktu widzenia gospodarczego,

ale także dotyczącego naszych praw,

dużą zmianą jest prowadzenie przepisów poświęconych

właśnie temu nieszczęsnemu chatowi GPT,

czy modelom fundacyjnym,

jak ta kategoria AI została nazwana w AI-akcie,

no bo to są te przepisy, które pojawiły się na końcu

i dosyć szczegółowo,

choć niezbyt restrykcyjnie regulują właśnie takie modele,

które modele generatywne oparty na dużych modelach językowych.

No i jak wiemy niestety zdoniesień między innymi time so,

ale także polityko był to jeden z tych głównych obszarów batali

pomiędzy lobbystami, tak, lobbystami a politykami

i trzeba powiedzieć, że przedstawicielom właśnie,

między innymi Googlea czy Microsoftu,

udało się wprowadzić takie przepisy,

które są, wydają się być dosyć korzystne

dla twórców takich dużych modeli językowych.

Jeszcze zatrzymajmy się, skoro pan mówi o tym,

lobbyingu i o tych korzystnych,

jak to pan powiedział, zapisach dla firm.

Oczywiście, tak jak w przypadku samej sztucznej inteligencji,

która budzi wiele nadziei, ale też zagrożeń,

już o tym zresztą rozmawialiśmy w raportach,

podobnie jest właśnie z samym prawem,

który też niesie za sobą pewne zagrożenia.

Już pojawiają się szantaże, wizją ucieczek,

przedsiębiorstw z Europy przed restrykcyjnym prawem.

Nie bez przyczyny zresztą sam Oldman, szef OpenAI,

odbył tór po Europie.

Krystian Łukasik, ekonomista w Polskim Instytucie Ekonomicznym,

pisze tak, tór sama Oldmana po Europie,

w trakcie którego opowiadał o potrzebie regulacji,

był tylko przykrywką do rozwodnienia aktu

przez lobbystów OpenAI.

Osłabić europejskie prawo udało się skutecznie,

bo część poprawy klobystów trafiła do finalnego tekstu.

To właśnie o tym pan mówił?

Tak, myślę, że Krystian Łukasik odwołował się do tego samego, o czym wspomniałem.

To znaczy faktycznie wizyta Oldmana między innymi w Warszawie,

gdzie pamiętajmy, że przed tym, jak spotkał się ze studentami

na takim otwartym sesji Q&A na UW,

wcześniej spotkał się z premierem Morawieckim.

Możemy tylko domniemywać, o czym obaj panowie rozmawiali.

Zakładam, że dotyczyło tego, żeby rząd polski,

bo tutaj po głosowaniu w parlamencie europejskim,

to właśnie Rada Unii Europejskiej,

czyli przedstawiciele rządów będą mieli duże dopowiedzenie,

jeżeli chodzi o ostateczny kształt tego aktu.

Żeby przedstawiciele rządów byli przychylni dla narracji,

czy mówiąc bardziej konkretnie rozwiązań,

które postuluje Altman jako przedstawiciel OpenAI.

I tutaj będzie ważny front tej batali w ramach procesu trilogu,

który się już rozpoczął, który będzie trwał prawdopodobnie do końca roku.

Natomiast też, żeby nie skupiać się tylko na tych ciemnych stronach,

czy na tych zagrożeniach, które przed nami są,

chociaż niestety one będą,

warto też powiedzieć o tym, co udało się wywalczyć.

I tutaj wspominałem na początku,

że ten akt jest lepszy od tego, co zaproponowała komisja.

I nie tylko udało się wprowadzić nowe zakazy dla technologii,

szczególnie niebezpiecznych.

I to nie chodzi tylko o to inwigilację biometryczną w czasie rzeczywistym,

ale także na przykład coś, co kojarzy nam się z science fiction,

czyli na przykład z raportem mniejszości,

czyli taką predyktywne szacowanie prawdopodobieństwa wypełnienia zbrodni

przez osoby bądź grupy, to także będzie zakazane.

Ale i z czego my jesteśmy bardzo zadowoleni

jako przedstawiciele organizacji, które walczą o te prawa w przestrzeni cyfrowej,

udało się w odniesieniu do tych technologii wysokiego ryzyka

wprowadzić mechanizm obowiązkowy dla twórców takich,

dla podmiotów, które wdrażają takie systemy.

Mechanizm szacowania wpływu tych systemów na nasze prawa podstawowe.

Czyli jeżeli na przykład instytucja publiczna będzie chciała wprowadzić system,

który będzie analizował stan faktyczny,

albo brał pod uwagę sytuację prawną obywateli,

to będzie musiało przeprowadzić taką analizę,

szacunek tego, jak dane rozwiązania mogą wpływać na osoby,

które będą poddane działaniom tych systemów.

To będzie dotyczyło nie tylko instytucji publicznych,

chociaż tam to jest bardzo ważne,

ale także na przykład systemów AI,

które będą używane do tego,

żeby decydować o zatrudnieniu czy zwolnieniu,

albo przyjęciu do szkoły,

bądź bądź usunięciu z placów kiedukacyjnej,

więc to jest jeden taki postulat,

który udało się wprowadzić z poparciem polityków,

ale to walczyło organizację,

tak jak pan optyko od początku,

do tej wersji przyjętej przez Parlament.

Z takich ważnych rzeczy, które są,

także po tej pozytywnej stronie,

to jest przyznanie nam praw.

I tutaj mówię zarówno o uzyskaniu prawa do wyjaśnienia decyzji,

ale niestety tylko o przypadku systemu wysokiego ryzyka.

My chcieliśmy, żeby to było szerzej,

żeby każda ważna decyzja,

która jest podejmowana przy wykorzystaniu AI,

dawała taką możliwość,

że zapytamy się, na jaki podstawie ona została podjęta.

No, ale także i tutaj to na szczęście udało się

w takiej pełnej formie wprowadzić,

czyli prawo do skargi, najpierw do urzędu,

a potem do sądu,

czyli jeżeli urząd,

albo prywatna firma

wykorzysta system AI,

żeby podjąć wobec nas decyzję,

to decyzja dotknie jakichś naszych ważnych praw,

albo uderzy w nasze zdrowie,

sytuację materialną,

to będziemy mogli po prostu złożyć skargę do urzędu.

Jeżeli ona nie będzie rozpatrzona,

będziemy mogli pójść do sądu.

I to jest właśnie to, o czym wspominałem,

że to zaczyna przypominać takie prawo,

z którego po prostu można korzystać,

to nie jest czysto techniczna regulacja,

która właśnie tutaj ma określać obowiązki,

dostawców, podmiotów wdrażających

specyfikację techniczną,

ale także my będziemy mogli coś w tym robić.

No i to na pewno bardzo cieszy.

Panie Filipie, tak prześlizgnęliśmy się

trochę po tym czacie GPT,

mówiąc o tych korzyściach

wielkich firm, o lobbyingu,

ale tak naprawdę wciąż

niewiele wiadomo o konkretach.

To znaczy, w jaki sposób

zmienia się w tym momencie

korzystanie z czatów GPT,

nie tylko na poziomie indywidualnym,

ale także na poziomie chociażby

instytucji publicznych,

co będzie można robić nadal,

a czego nie będzie można robić

i o jakich tak naprawdę korzyściach,

które forsowały te wielkie firmy

Pan wcześniej mówił?

Może zacznijmy od tego, co znalazło się

w tej ostatecznej wersji,

przyjętej przez Parlament, więc

twórcy modeli takich jak GPT,

ale to oczywiście także inne firmy,

czy OpenAI, czy Microsoft,

bo te firmy są bardzo blisko siebie,

będą musieli,

po pierwsze,

takie systemy będą musiały być rejestrowane

w centralnej bazie

prowadzonej przez Komisję Europejską

i ona będzie publicznie dostępna,

czyli będziemy wiedzieli,

jakie modele fundacyjne, czyli właśnie

np. GPT, model oparte na dużych

modelech językowych

będą działały w Europie,

po drugie,

pomyślnie móc rejestrować taki model

w Europie, będzie trzeba spełnić

szereg kryteriów, one będą

dotyczyć zarówno, przede wszystkim

będą dotyczyć tego danych,

na których taki model jest

trenowany i tutaj chodzi zarówno o to,

czy te dane zostały

pozyskane w sposób legalny

i tutaj np. dane osobowe,

tu była wielka kontrowersja

dotycząca czate GPT,

istnieje duże prawdopodobieństwo,

że one po prostu zostały pozyskane

naruszeniem RODO, tak europejskie

ochrony danych osobowych, to nie będzie

możliwe, przynajmniej w świetle tej wersji,

którą przyjął parlament, to jest pierwsza rzecz.

Druga rzecz, że

dane o ludziach np.

które będą w takiej bazie,

na której trenowany jest ten model

nie będą prowadziły do dyskryminacji,

czyli będą reprezentatywne, będą dobrze

zarządzane, będą uczciwe i sprawiedliwe

jeżeli chodzi o to,

zarówno jak zostały zbierane,

jak reprezentują np. osoby,

ale także będzie trzeba wykazać,

że te dane

w modelu

nie naruszały prawa autorskich,

kolejna duża kontrowersja,

będzie trzeba wykazać w użycie energii,

to jest taka pięta

chilesowa tych dużych modeli językowych,

bo prawdopodobnie one zużywają

ogromną ilość energii,

są bardzo nieekologiczne, o czym te firmy

często nie chcą mówić,

no więc to są te główne

założenia dotyczące

właśnie modeli, natomiast

w przypadku już aplikacji, bo chat GPT

nie jest modelem tylko aplikacją, model to jest GPT,

będą inne wymogi,

czyli np.

od prostych rzeczy, czyli obowiązek poinformowania

użytkownika, że wchodzimy w interakcję

z chatbotem, nie będzie można udawać, że

jest to prawdziwy człowiek.

Kolejny obowiązek dotyczy np.

tzw. generatywnej sztucznej inteligencji,

czyli

tego co jest w stanie np.

text, napisać kod,

zanalizować obrazek albo go stworzyć,

tutaj będziemy musieli skali być w jaki

sposób informowani, że

wytwór

takiego programu

jest właśnie dziełem

sztucznej inteligencji,

więc to są te rzeczy, które najbliżej

dotykają właśnie

tego słowianego GPT,

który odegrał taką dwuznaczną rolę

w tym procesie, bo z jednej strony wspominałem

o tych

lobistycznych

kampaniach, których celem było

tak mówiąc w skrócie to, żeby

tego typu modele i systemy nie były

traktowane jako

i wysokiego ryzyka, tylko żeby były inne regulacje.

No i stanęło na tych innych regulacjach.

Natomiast to jest ta negatywna

tak bym powiedział, strona.

Pozytywna jest taka, że dzięki temu, że

setki milionów ludzi

zaczęły korzystać właśnie

z tej aplikacji, że stało się to najszybciej

ściągane aplikacja w historii internetu,

no to zaczęła się

taka duża dyskusja i

jak to ujmujemy

trafiła podstrzechy, to znaczy

stała się przedmiotem codziennych rozmów.

Zaczęto rozmawiać nie tylko o tych

wspaniałych funkcjach, ale także

o tych wielkich zagrożeniach.

Zagrożeniach związanych na przykład z propagandą,

która jest teraz najtańsza, jest tak tania,

jak nigdy, z

masową dezinformacją,

z naruszeniami prawa autorskich

z naruszeniami, to to

jest pewnie w tym wszystkim najważniejsze

z korzystanie w naszych danych

osobowych, z tym, że tego typu

czaty mogą generować mowy nienawiści.

No to są naprawdę poważne

poważne wyzwania, których jest

zresztą znacznie więcej

i pewnie nie mamy czasu, żeby ją wszystkie omówić.

Natomiast

właśnie dzięki temu, że świat zaczął dyskutować

o GPT, politycy

jeszcze bardziej zainteresowani się

AI-aktem

i myślę tak, myślimy, że także dzięki temu

w tych ostatecznych

kompromisach, które zostały przyjęte

w połowie maja

przez największe grupy w Europarlamencie

tych przepisów właśnie,

które odpowiadają

na potrzeby dotyczące naszych praw

i naszego bezpieczeństwa, jest więcej.

Więc nie jest idealnie.

Wiele rzeczy chcielibyśmy zrobić inaczej.

Natomiast trzeba też szanować

ten progres, który udało się

uzyskać i go zabezpieczyć, bo

jak wspominałem, teraz rozpoczyna się

ten okres Trilogu

i okres Trilogu, czyli

czyli

tak zwanego dialogu trójstronnego

pomiędzy Parlamentem Europejskim,

Komisją Europejską

i Radą Unii Europejskiej,

gdzie będzie uciarało się to ostateczne brzmienie

aktu, to znaczy każda z tych instytucji

ma, przyjęła własną wersję

tego aktu, no i teraz

teraz

negocjacje zdecydują o tym

jak będzie wyglądał ostateczny

ostateczny kształt

nowego prawa.

Tak, to ucieranie, o którym Pan wspomniał

oczywiście nie musi przebiegnąć

bezproblemowo, wiadomo, że

pewnie poszczególne kraje członkowskie

mają różne interesy, zresztą

już kilka państw członkowskich

takich jak Czechy, Włochy, Malta, Polska

czy Portugalia rozważa, a nawet

konkretnie planuje działania ustawodawcze

dotyczące odpowiedzialności cywilnej

za sztuczną inteligencję, to

jak właśnie będzie wyglądało, to znaczy

czego my możemy się spodziewać? Możemy

spodziewać się jedności?

Jeżeli chodzi o kwestie odpowiedzialności

to jest co innego, tak?

Jest zresztą osobny, jak prawny

na poziomie unijnym właśnie dotyczący

dotyczący odpowiedzialności

za

szkody

dokonane z użyciem właśnie

takich systemów sztucznej inteligencji. To jest

inna sprawa. Jeżeli chodzi o

Trilok, to tutaj te osie

sporu są gdzie indziej.

Jednym z głównych

wyzwań, które dostrzegamy w Panoptykonie

jest kwestia tak zwanego bezpieczeństwa narodowego.

Otóż kiedy na jesieni

zeszłego roku Rada Unii Europejskiej

czyli szefowie rządów

przyjmowali swoją wersję EI-aktu

tam

znalazł się taki przepis, który pozwala

rządom

nie stosować, w całości nie stosować

tego aktu, w przypadku zagrożenia

dla bezpieczeństwa narodowego.

No i to jest niezwykle niebezpieczne, bo po pierwsze

nie ma w prawie Unii Europejskiej

takiej jednoznacznej, niekwestionowanej definicji

tego czym jest bezpieczeństwo narodowe.

No i w związku z czym to otwiera

furtkę dla

właśnie kreatywności polityków.

Możemy sobie tylko wyobrażać

jakie zdarzenia, czy faktycznie

rzeczy, które zagrażają

bezpieczeństwo obywateli. Czy może

raczej

bardziej niecne intencje dotyczące na przykład

tego, że rządowi się nie będzie

podobało, jak

dana grupa społeczno protestuje, albo

będzie chciał znaleźć

jakieś narzędzie do tego, żeby prześladować

czy inwigilować opozycję.

Zresztą też piszą państwo na stronie panoptykonów

prost. Omigranta, którzy mogą

pozostać bez gwarancji ochrony

przed sztuczną inteligencją, piszą państwo

kraje południa Europy być może

rozglądają się za narzędziami, które pomogą

urzędnikom na granicy sortować

osoby przebywające na te, które

mają szansę dostać azyl i na te, które

nie mają i zasłonić się decyzją

uważanej za pozbawioną ludzkich uprzedzeń

sztucznej inteligencji. No to brzmi

trochę niepokojąco. To brzmi bardzo

niepokojąco i

w ramach sieci edry zabiegaliśmy

o to, żeby wprowadzić całkowity zakaz

stosowania pewnych inwazyjnych

technik opalnych na sztucznej

inteligencji wobec osób, które

przekraczają europejskie granice.

Niestety to się nie udało

no i faktycznie powstaje

taki jeszcze nie wiemy, jak ten system będzie

oczywiście wyglądał, ale mamy

bardzo się niepokoimy tym, że

może to dać wolną rękę albo

ułatwić pewne naruszające

podstawowe prawa człowieka

techniki, tak jak na przykład szacowanie

ryzyka wystąpienia chorób,

czy szacowanie

ryzyka popełnienia przestępstwa

przez osoby, które nie dokonały tych

przestępstw, które wkraczają

na teren Unii Europejskiej, a także

przybywają o tym statusie migranskim,

więc możemy być w takiej sytuacji, że

problemy będą duże

i no to źle świat, czy po prostu o

Unii Europejskiej, że pozwala na takie rzeczy.

Natomiast wracając do tej kwestii

bezpieczeństwa narodowego, to tutaj

jest jeszcze inna rzecz,

no bo korzystając tego wyjątku,

jeżeli rząd uzna, że będzie chciał

zastosować tak właśnie takie wyłączenie

oparte na bezpieczeństwie narodowym,

no to będzie można

stosować to wobec obywateli, tak

nie tylko migrantów, ale

nas wszystkich.

No to budzi duży niepokój, bo wtedy to już

nie ma żadnych

zasad, tak to znaczy jakiekolwiek technologie

są dostępne, takie będą mogły być

przynajmniej w świetle, jak to

stosowane, więc mamy nadzieję, że

rządy pójdą po rozum do głowy

i przejdą, jakby ostateczny głos będzie

należą do tej wersji do

parlamentu, czy do negocjatorów

zreumienia parlamentu europejskiego, bo w wersji

parlamentu europejskiego takiego wyłączenia

dla bezpieczeństwa narodowego nie ma.

I to jest jeden obszar, drugi obszar

to jest właśnie ta kwestia,

o której pan redaktor wspominał na początku,

czyli możliwości

stosowania inwigilacji biometrycznej

w przestrzeniach publicznych w czasie rzeczywistym,

bo m.in.

Europosłowie,

Europejski Partii Ludowej, czyli

w polskim przypadku tu są m.in.

Platformy Obywatelskiej i PSL-u

chcieli wprowadzić taką furtkę, która pozwalałaby

nawet bez zgody

sądu stosować tę technologię.

No i nas to bardzo niepokoi,

bo niezależnie od tego

w jakich sytuacjach teoretycznie

można by było stosować takie wyłączenie

i włączać

tę biometryczną inwigilację

to takie systemy potrzebują

wielkich baz danych, także o zwykłych obywatelach

plus ciężko sobie wyobrazić

nienaruszanie naszej prywatności,

kiedy na przykład

inwigilowy

spowoduje jakiegoś rzekomego

bądź prawdziwego zagrożenia

dla na przykład

poszukiwania przestępcy

czy jakiegoś zagrożenia atakiem

terrorystycznym.

Na przykład w trakcie Wielkiego Marszu

skierowanego przeciwko rządowi

albo strajku ludzi, którzy

domagają się uznania swoich praw

policja będzie mogła

wysłać sprzęt, który będzie

mógł inwigilować wszystkich. Oczywiście

pod płaszczem tego, żeby szukać

konkretnego przestępcy, ale

czy faktycznie to tylko o to będzie chodziło?

No, mam duże wątpliwości

i mamy nadzieję, że

nie uda się przeprowadzić

tej ofensywy właśnie dotyczącej

zdalnej inwigiracji biometrycznej.

Wspomniał pan wcześniej o

sieci edry i dodajmy, że chodzi o

międzynarodową grupę European Digital

Rights, której częścią jest także

Fundacja Panoptykon i która to grupa

także zgłaszała rekomendacje, tak jak pan

wspomniał, niektóre z tych rekomendacji zostały

uwzględnione, inne nie.

Na koniec jeszcze naturalnie pojawia się

pytanie o to, czy prawo

w tym przypadku będzie nadążać za

samą technologią, bo chyba już można

zaryzykować odpowiedź, że nie będzie

nadążało, bo to jest technologia,

która zmienia się szybko, szczególnie

w ostatnim czasie po sukcesie

chatbota. Jak w ogóle tworzyć prawo

i to jeszcze w obrębie tak złożonej

i wielogłosowej instytucji, jaką jest

Unia Europejska? To jest też pytanie właśnie

o to, o czym już wspomniałem,

czy to ma być prawo finalne, tak naprawdę.

No tutaj jestem

nie większym optymistą niż pan redaktor,

to znaczy po pierwsze,

inny postulat, który, który zgłaszaliśmy

i który także został wdrożony,

tak, na poziomie prac

w parlamencie to jest zmiana definicji

sztucznej inteligencji w tym akcie

na nieco szerszą taką, która jest bardziej

odporna na, na zmiany technologiczne,

więc jakby tutaj ten

problem został częściowo rozwiązany.

Myślę, że to, to tutaj nie będzie dużych

niespodzianek i faktycznie taka definicja się

utrzyma. A to po pierwsze. Po drugie,

Komisja Europejska

będzie miała takie uprawnienie, aby

wpisywać

ewentualnie, zdejmować

pewne obszary, tak zwanych

systemu wysokiego ryzyka

w czasie, to znaczy, jeżeli się pojawi

nowa technologia, która jeszcze nie jest

niesłoznawana z wysokiego ryzyka

czy nie znalazła się w tym

akcie prawnym, to jest konkretnie

aneks trzeci, to będzie można

dopisać, tak, więc tutaj co to

takie mechanizmy, które mają właśnie zabezpieczyć

jak na jakieś niespodziewane zmiany technologiczne.

No ale myślę, że odpowiedź jest w sumie

prostsza, to znaczy

ja o tym myślę tak,

jak o na przykład

regulacjach motoryzacji, tak.

To, że sześćdziesiąt lat temu

samochody były inne i znacznie

mniej technologicznie zaawansowane niż

są dziś, no to nie znaczy,

że złym pomysłem było wprowadzanie

ograniczenia prędkości na terenie

zabudowanym na przykład, tak. Gdyby

gdyby stosować tą logikę, no to powinniśmy

czekać do osiągnięcia

rozwiniętych, tak, samochodów

być może jeszcze ich nie ma, tak,

zanim, zanim, zanim powinno się

prowadzać te regulacje, oczywiście to jest absurd, tak.

Technologia

AI, tak jak mówiłem na początku,

nie różni się od innych technologii

i tak długo, jak istnieje prawo,

tak długo regulujemy jego użycie.

Po co, po to, żeby w jak największym

stopniu korzystać z korzyści,

które nam daje oraz

minimalizować te ryzyka.

Więc myślę, że takie

nie jest jednej strony o tym, że się nie da,

bo, bo, bo

to jest zbyt szybkie, bo to jest komplikowane.

Z drugiej strony straszenie

takimi okropnymi scenariuszami końca

świata, końca ludzkości,

a po trzecie także

mówienie, że potrzebujemy globalnej

regulacji na poziomie NZ, to wszystko

są takie, bym powiedział,

narracje wytrychy,

które mają nas odwieźć od tego, co jest

konkretne i bardzo realne i bardzo

bliskie, no bo

nie przekreślają, to oczywiście

szans na to, że, że

w stanu przyszłości jakieś takie globalne

regulacje AI, skupmy się na tym, co to jest

tu i teraz.

Wiemy, że są takie przykłady

regulacji, jak na przykład RODO,

które pomimo, że tego, że obowiązuje

w Europie, to to w pewnym sensie

jest kopiowane i stosowane, zarówno

przez państwa, niektóre, jak i przez firmy

dla wszystkich swoich użytkowników,

więc mamy nadzieję, że tak samo będzie z akty masztycznej

inteligencji. To znaczy, że

Europa, która podjęła się

tego historycznego,

wyczyną właśnie

wypracowania, jesteśmy już na finiszu

tych prac takiego, takiego prawa,

która ma regulować rynek sztucznej inteligencji,

że to będą normy, które będą

promieniować, tak, inne kraje,

inne obszary gospodarcze będą mogły się

do tego odwoływać,

albo po to, żeby po prostu

mieć możliwość

niskokosztowego

sprzedarowania produktów na terenu

europejskiej, to będzie warunek, tak

będzie trzeba spełniać te kryteria, żeby móc

oferować swoje produkty w Unii,

albo dlatego, żeby też

chronić swoich obywateli. Tutaj te cele

mogą się ładnie połączyć

i z tego powodu jestem

optymistą, aczkolwiek oczywiście

ryzyka związane właśnie

przede wszystkim z tym procesem trilogu

istnieją, będziemy się temu cały czas

przyglądać i będziemy apalować także do polskiego

rządu, żeby prowadzić dyskusję na temat

tego, żeby w jak najlepszym stopniu

zagwarantować nasze prawa, no bo

postępu technologicznego, czy

sukcesów

w obszarze sztucznej inteligencji nie osiągniemy

regulacją ani najgorszą, ani najlepszą, tak.

Możemy to osiągnąć tylko

tylko dużymi inwestycjami

wspomaganiem firm, wspomaganiem

uczonych, więc

no obok tego, że

musimy dbać o to, żeby

wspierać innowatorów, to jest

służny cel, to nie róbmy tego poprzez

zdejmowanie obowiązków prawnych

tylko wspieramy ich bezpośrednio, a sami

dbajmy o nasze prawa

i myślę, że firmy czy instytucje też na tym

zyskają, no bo

najlepsze produkty są takie, to są takie

produkty, które możemy ufać

i miejmy nadzieję, że ten europejski model

regulacji AI doprowadzi do

tego, że będziemy mogli ufać tego typu systemom,

także jeżeli firma czy instytucja

publiczna będzie wykorzystywała wobec nas

system AI, to będziemy mogli sprawdzić

jaką działa, jeżeli coś nam się nie spodoba, to

będziemy mogli się, będziemy mogli

sprawdzić decyzje, które zostały

z udziałem tego systemu podjęte,

a jeżeli

problemy będą większe, to odpowiednie organy

będą w stanie albo zablokować

daną technologię

używania danej technologii w Europie, albo

nałożyć

nie albo, ale jest oblokować

i jednocześnie nałożyć kary i to mogły być bardzo

wysokie kary, tak, więc to nie jest bezzębny

akt prawny, tak, wyobrażam sobie,

że gdyby Microsoft dostał kary

w wysokości 7% globalnego

rocznego, to byłoby to

bardzo dotkliwa kara, więc

no, są i takie, jest

nie tylko marchewka, ale są także

ki w EI-akcie.

Filip Konopczeński z Fundacji Panoptykon

bardzo dziękuję. Bardzo dziękuję.

I to już prawie wszystko w dzisiejszym

wydaniu raportu na dziś.

Zapraszam na sobotę na główne wydanie

raportu o stanie świata, a wszystkie

nasze programy możemy realizować dzięki

Państwu, za co serca dziękujemy.

Rapport o stanie świata

od marca 2020

rozwija się

dzięki Państwa zaangażowaniu

i szczotrości. To dzięki

Wam możemy opowiadać o

świecie przy pomocy

dźwięków.

Dzięki Wam ten program

jest przygotowywany w profesjonalny

sposób, z zachowaniem

najwyższej jakości,

bo na nią właśnie

zasługują słuchacze

raportu o stanie świata.

Z serca dziękuję wszystkim Państwu

za wpłaty. Wasza chojność

jest dla mnie ogromnym zobowiązaniem.

Zbiórka na patronite.pl

ciągle trwa. Zachęcam do udziału.

Najchojniejsi patroni

raportu o stanie świata to

firma

Ampio Smart Home.

Aureus, leasing, kredyt,

ubezpieczenia, księgowość.

Sprawdź nas na

www.aureus.pl

Hotel Bania, termaliski

w Białce Tatrzańskiej

oferujący pakiety pobytowe

z termami w cenie.

Mikoż Barczewski

2005 Global

firma doradcza

Credo

Galmet, polskie pompy ciepła.

Sklep internetowy

GoldSaver.pl

w którym sztapkę fizycznego

złota kupisz po kawałku

i bez wydawania jednorazowo dużych

od

KR Group

firma outsourcingowa

www.krgroup.pl

Razem w przyszłość

Polsko-Japońska Akademia Technik

Komputerowych

Warszawa Gdańsk Bytom

Michał Małkiewicz

NorthMaster

Marka Łodzi Motorowych z Polski

www.northmaster.pl

firma Software Mill

od zawsze zdalni

dom dla całego świata.

Dom wydawniczy muza,

bo świat nie jest nam obojętny.

PurePlay

Transparentna agencja

Mediowa Digital i doradca

w budowaniu kompetencji in-house.

Uber, myślimy globalnie

działamy lokalnie.

Agnieszka i Sławek

Zabadcy

a także

Budros, pompy ciepła.

Gruntowe pompy ciepła dla budynków

wielorodzinnych, kompleksowa

obsługa.

Liceum Błeńskiej, Gdańsk

Kowale, przemyślana edukacja

w dobrym miejscu.

Piotr Bohnia

Michał Boyko

CIO.net

and Digital Excellence.

Łączymy ludzi i idee.

Grupa Brokerska CRB

Ubezpieczenie należności

dla twojej firmy.

Bezpłatne porównanie ofert

z Grupa CRB.pl

Duna Language Services

Biorot tłumaczeń

do zadań specjalnych

www.duna.bis

Flexi Project

Kompleksowy i intuicyjny system

do zarządzania projektami

i portfelami projektów.

JMP

Z miłości do sportu, z najlepszych tkanin

w sercu pod hala

szyjemy dla was porządną odzież.

Palarnia Kawy

LSB Data

Dedykowane aplikacje internetowe

dla biznesu.

Masz pomysł, zrealizujemy go.

LSBdata.com

Wydawnictwo Uniwersytetu Łódzkiego

Wydawca książek

serii Krótkie wprowadzenie.

Wszystko, co trzeba wiedzieć.

Leszek Małecki

Aplikacja Moja Gazetka

Polska proekologiczna

aplikacja zakupowa

z gazetkami promocyjnymi i nie tylko.

Moja Gazetka

Kupuj mądrze.

Firma Prosper

Sosnowca

Hurtownia elektroenergetyczna i właściciel marki

Czystuś.

Firma Odo24

Optymalny kosztowo

outsourcing ochrony danych osobowych

Odo24.pl

Tatrzański festiwal biegowy

Tatra Sky Marathon

22 lipca biegamy

w sercu Tatry i gminy kościelisko.

TIK 100.pl

Niezależny serwis biletowy

Sprzedamy bilety na twoje

wydarzenia kulturalne i sportowe.

Drukarnia cyfrowa

totem.com.pl

Dla nas książka zasługuje na

najwyższą jakość.

Fundacja Wasowskich

opiekująca się z puścizną Jerzego

Wasowskiego i wydawca

książek Grzegorza Wasowskiego

Szczegóły na wasowscy.com

Michał Wierzbowski

Oprogramowanie wspomagające

firmy inżynieryjne w zarządzaniu

projektami stworzone przez polskich

inżynierów dla sektora

projektowego.

www.waymansoftware.

Zen Market

Pośrednik w zakupach ze sklepów i aukcji

w Japonii.

Zen Market.jp

Dziękuję bardzo.

Do dzięki państwu mamy raport o stanie świata.

Cześć.

Machine-generated transcript that may contain inaccuracies.

Unia Europejska - jako pierwsza na świecie - wprowadza prawo mające na celu uregulowanie sztucznej inteligencji. Parlament Europejski chce m.in. zakazać masowej inwigilacji z wykorzystaniem AI, a także ujednolicić zasady funkcjonowania i korzystania z popularnego CzatuGPT. Co jeszcze zawierają przepisy i w jaki sposób mają chronić Europejczyków? Czy unijne państwa będą mówiły jednym głosem w sprawie wykorzystania tej nowej technologii? Czy unijny akt zagraża prawom migrantów?


Gość: Filip Konopczyński