Studio N: Studio N LIVE: Jak moc inteligentní je umělá inteligence?

Deník N Deník N 5/2/23 - Episode Page - 1h 21m - PDF Transcript

Je sobota 29. důbna.

Mček je, spíš, podělíte prvního května.

Ne.

Je. To je svátek práce.

Je úterý.

Je úterý druhého května.

Ale až budem v Praze a budem to tam...

Prostě skrátka je nějaký den.

V týdnu.

Někde mezi důbnem, květnem.

Ta důvodita informace je, že posluháte studio.

Tady je Flip Tytlbach a vítek svoboda.

Dnes o tom,

jak moc inteligentní je umělá inteligence.

Tak jsme si to inteligentně nazvali.

Nebo jak moc umělá inteligence.

To Filip hodně tlačil při přípravě,

že hodně se budem bavit o tom,

jak moc umělá.

A já jsem to do teď nepochopil.

Co to znamená?

Já jsem se chtěl vyhnout klyše.

Čas to se bavíme o tom,

jak moc tohle je přesně to klyše,

které v tom názbu.

Jak moc inteligentní je umělá inteligence

tak se říkalo, vezmeme to jinak

a budeme si říkat,

jak je umělá.

To znamená, na kolik zasahují lidé

do té umělé inteligence.

Na kolik si vystačí sam a tak dá tošet dlouhý.

Uvidíme, jak se k tomu dostaneme.

V oblasti technologii každopádně

se teď nemluví skoro o něčem tolik,

jako o AI.

Dneska se pokusíme tenhle fenomen

rozebrat co nejví zohloubky.

Vítáme tu.

PR-managerku

AI Centráče ve UT Karolinu

Podjakovou, dobrý den.

Dobrý den.

Taky...

Taky vědce

v oboru měli inteligence Tomášem Mikolova.

Dobrý den.

Vydan.

A našiho kolegu

vědeckého redaktora Deníku N. Petra Koupského.

Ahoj Petra.

Ahoj Petra.

Ahoj Petra.

Tak možná, poďme si,

já máme milé hosty a

hostku poprosím o odpovědě na první otázku.

Dám takové stručné kolečko.

Mě by zajímalo

k jakému přelomové mu technologickému

momentu v historii.

Byste přirovnali ten super rychlý vývoj

Petru už kýve.

Uč jim přemýšlí.

Uměle inteligence Petře.

Kývu protože

to je přesně typ otázky

pro čet GPT.

To je dokonalá otázka

jakou bys můžu mohl položit.

K čemu bys přirovnal to a to.

Jak se A máku B

jako B kutce.

Dobře, tak moje odpovětě

k prvnumyslovej revolucii

za vedení prvního střele.

Velký moment.

Tomáš Mikulov, si myslím co?

Já bych to viděl trošku menší teda

a možná tak asi,

když znikat první letadla možná

v podstatě to je menší,

než promyslá revoluce, je to taky velký.

Díky.

Já jsem tady za komunikaci.

Takže když se podívám do historii komunikace

tak bych to klidně přirovnal

a ke vzniku písma.

Protože to radikálně pro měnílo to

jak komunikujeme, jak přemýšlíme,

jak fungujeme, jako společnost.

Takže v nějakém zcénáře

by jsme o tom klidně mohli uvažovat.

To jsou všechno velké moment.

Takže vy jste tedy nastavili ten narrativ

nebo tu otázku, ten rozměrtné otázky

jste nastavili jako poměrně velkou.

To, co o čem se všichni baví,

ať už to mají strach

nebo jsou nadšení,

že se uměla inteligence strašně rychle vyví.

V řádu dnů, týdnu

se posouváme milové mikroky.

Jak to, kdybyste to měli říct, co nejen odušiví Tomáši,

že se ta technologie

uměla inteligence takhle rychle vyví?

Tak já myslím, že ta rychlosť

strašně moc závisí

na počtu lidí, kteří na této technologie

teď pracují

a to se váží na množství peněs.

Když se podíváme na ty vědecké věci,

tak tady je

celá sekvence objevů, které vědli

k tomu, abychom tady měli teď

něco jako to čet GPT

a to tady probíjalo 10-ky let, mohli bychom to vysledovat

až prostě do polovinu minutu

jostoletí, kdy začali znikat první

statistické jazykojí modely,

když to s tím přišel lokovočenom,

co vymysel informační teori.

Je to tady jako přelomoví v té vědecké komunitě,

a které byly nezbytný, proto abychom se dostali tam,

kde jsme dnes, byla celá řada.

Na druhou stranu pro tu běžnou populaci

je to teď kam nájem viditelnější, protože

ona je to často ty objevy

jsou tak jako nelinéární,

že vlastně ona něco bublá po tím povrchem,

pak se to objeví na veřejnosti.

Ani lidi voupr nejajnotušili,

že to bude použijat jako tolik uživatelů,

že vlastně když to pustili, tak si netká začali

tak obrosky, že to stále už někdy prosince

miliony dolarů deně.

A zase, kdyby oni ten rozpočet neměli,

a kdyby neměli to krytí od Microsoftu,

kterým platil všechny složenky,

tak níkdy by to takhle vejskálovalo.

Mám, že vás předruším,

a to jako, že otevřel si hospodu,

ale chodíli mu tam lidi trošku princip, ne?

No, já bych neřekl jako princip,

jako s tou hospodou to bylo,

že těm lidem to vadila,

vlastně lidem voupr nevadila,

když to jako nečekali.

A to, když samozřejmě byl,

ale když teď řeknete,

že jdáte nějaký jazykový model,

který bude doterénovaný na nějakých anotacích,

aby se tvářil odpovídéčné otázky,

kde samozřejmě ti tvůrci věděli,

že to často říká jako blbosti.

Ale v některých věcech to dělá jako zajímavé věci,

ale sami netušili co všechno,

kde všude může být a předená hodnota,

tak ono to bylo takový objevný pro ty tvůrce,

který byl přidozený komunikát v tom jazyce,

že jako přikvapiv je to v zachytě leta

byžná pokladce velmi rychle.

Ale proč se teď bavíme

jako najednou tak intenzivně

otřeba čet GPD?

GPD, pardon.

Když těch čet botů

tady byla spousta v posledních letech,

když i česká televize měla

to, jak on se menovala.

Matildu, byla to Matilda.

Pane Okamuro, co byste dělal,

kdybyste měl super schopnost

a jaká by to byla?

Tak já jsem spokojený s tím,

jaký jsem a

pracu s tím, co jsem dostal

do výnku, takže nad tím se má ní nepřemýšlel,

takže bych asi druhou část ve odpovědi

asi vyhodnotil

velice simpatický zlet Matildy.

Bylo to Matilda, která pokládala otázky

v předulební debatě.

Když už máme to zkušenost umilou inteligencí,

tak proč zrovna tenhle produkt

vyvolal takhle

intenzivní odezvu Petře?

Protože byl otevřen

veřejnosti, kdyby nebyl,

tak zůstané

za zavřenými dveřmi labiratoře

stejně jako mnohé jiné

a veřejnost se o něm nedoví,

ale kromě toho, že byl zveřejněn,

že je velmi přístupný na internetu

a že může zkoušet těch dnes

já nevím kolik asi 250 milionů

lidí už, tak

je k tomu ještě potřeba říci,

že je opravdu imposantně kvalitní.

Zajmená v té verzi GPT-4

která je ta

zatím nejvyšší z těch

veřejně dostupných, že

skutečně,

kdo si to vyskouší, tak většinou

není stlamán. Je vtažen

do hry, že to je przy nejmenším

zajímavé a chce si hrát

dál. Je to už nad tím

prahem, kde to začne

být

dobrodružná, řekněme, s tou věcí pracovat.

Karolino, vy se

soustředíte na komunikaci

EI. Co byl

pro vás ten určující moment, kdyste si řekla,

ok, tohle bude velký? Pematujete si na tu chvíli,

kdy se řekla, tak tohle bude něco,

co budeme řešit sliné roky,

tak desítky let.

Já musím říct, že co se týče komunikace vědy,

tak EI byla vždycky

velmi oblíbeným tématém novinářů.

Níkdy jsme neměli problém,

se dostať do český televize,

bylo hodně snadný tohle témat,

veřejnosti komunikovat. Ale teď je to

jako exponenciální, stejně jako tohle vývoj exponenciální,

tak i ten zájem veřejnosti

je takhle velký,

a myslím si, že jsem si to na vlastníků,

že uvedomila, když jsem si po prví

čet GPT zkusila sama, protože

když o tom člověk slyší z druhý ruky,

tak možná některé

ty schopnosti si vykládá trošku po svém,

ale až když

vopravdu sám tam dé a zkusí, jak je to

silný, mocný, vopravdu ho to vtáhne,

tak si uvedomí, jakí to má daleko

a jako sáhlí důsledky.

Ale je třeba překvapivý, teď vyšel

nějaký nový průzkům od ipsosu,

že jenom 15% lidí v Čechách

si to zatím vyskoušelo.

Takže my se o tom často bavíme, máme pocit,

že už si to každej zkusil,

že už to prostě vyžná součást každý do mácnosti,

ale často o tom lidi

uvažují, aniž by si to sami zkusili,

což je takový zajímavý fenomen

a je to daný i tím, co říkal Tomá,

že je to dostupný,

že je to jazykové model, jazykový rozhraní Tomá,

takže každej vlastně tomu

rozumí nějak po svém.

Na rozdílo technologii, který tady byly dřív

a algorytmy, roboti a podobně,

kdy je se k tomu vežný člověk nedostal,

tak na jednou má pocit,

že to mluví jeho řečí a proto

k tomu má nějaký vliší vstáv.

15% české populace se nezdáví

moc. Když si uděláme rychle

angétní otázku, můžete svednout ruku,

vy, který jste si čet GPT

vyskoušeli?

Vědecký festival.

Já vidím 100%.

Uděláme to opačně.

Kdo jste to nevyzkoušeli?

Je to lepší.

Je to lepší, že jo.

Víc lidi než jsem čekal, tohle je dobré vymyšlet.

Teď je 15%.

A když se podíváme

do útrop, do vnitřté technologie,

tak byste Tomáši pracoval

na jedné klíčové technologie,

kterou mimo jiné čet GPT

používá.

Co jste měl konkrétně na starosti?

Jak funguje ten algoritmos,

který jste vymyslal a který je do toho zakomponován?

To jsou vlastně neuronové

jazykové modely, kde teda čet GPT

a teda není jenom jazykový model.

Tam jsou tedy dodatečné anotace,

plus tam mají další věci,

to teď nebudeme rozobídat

všechny ty detaily.

Nicméně tady ty pokusi otičet,

bo ty jenom pomocí jazykových modelů

tady práve byly dríve.

Myslím si, že neuspili z několika

to tady zaznilo, že to bylo

někdy v laboratoři a nebylo to

veřejnosti přístupné.

Je vlastně slabší verze tady toho systému

byly velmi zajímavé

pro mnohou lidí před třemi lety.

Kdyby si to mohli nějaké neduše vyskoušit,

lidi ty jazykové modely

jako používali drívení o tom nevěděli

třeba, že takovým tím hekováním

že si napíšet něco do Google

vyhledá če do toho search boxu,

tam stačí napisat třeba

nejvědělejší člověk v České republice

je, ale ono vám to tam něco dopíši

jako naše ptávač a to je vlastně

nezakojí modely taky za tím běží.

Ono vlastně už to šlo zavolat

takhle ve skutečnosti tom Google search

i drív, ale vůbec ten Google neuvažoval

na tím, že by takhle mohl vypadat

ve skutečnosti produkt a nebyla to nezamýšlená

jako nezamýšlený způsob použítí.

Spátky k tomu, co jsem teda dělal

já, tak ty neuronové jezikové modely

už byli dlouho, jo, začali znikat

někde jako ve skupině

David Rumelhardtá někdy ve osmdesátých letech

dělal na tom, že Vinton

tedy ještě jako student, teď koušet dávno v důchodu

a za to dostala ty ringou cenu

takže to byla jako celá generace

věců, kteří na tom dělali je Jeff Elman

a psal v rstě v devdesátým prvním roce

jako super článek, jako čtivej, tady zase od těch modelech

a spátky k vám, když se můžu co...

Já se tam už dostávám, je takže

to byly jako hezký nápady

ale ono to moc nefungovalo, jo

ono to fungovalo na malej daté, v nějakých těch

podmínkách specifických

ale na velkých datasech

když jsem začínal doktora, ty já

tak všechny věřili, že tady budou

engramové modely na věky

a je bych mohl tady citovat články, nebudu zabíhat do detailů

ale v postatě tehdy existovali

nějakou desítky až stovky variant

těch engramových model v rstě jení

přístupy k jazyku a modelování

s stejnou vlastnost. Čím víc bylo

trénovací hdyat, tak ti míň pomáhali

oproti těm vlastně základním

frekvenčním statistikám, což jsou ty engramy

Co to znamená v praxi?

V praxi to znamená, že když chcete

třeba vědět, jak je pravděpodobné

já nevím třeba, že

hlavní město České republiky Prahá

to si prostě rozdělíte na sekvence

trojit slov, podíváte se na vikipéry

a podíváte se prostě, jak často se to objevuje

a z toho si odvodíte pravděpodobnou

z vlastně tady těch malých kousků

a z toho spočítáte potom vynásobění

pravděpodobnou z celé věty.

A to byly velmi neduché přístopě, kde bychom

byli 5 minuta tabuli textu, které vy srdlíme to samozřejmě

nemáme, ale abych teda přešel...

Tabuli hlavně nemáme.

Ty neuronové síti vlastně tady ich podstata

byla, že dokáží

vidět podobnosti mezi slovy a konteksty

takže ta statistika na jednou vyšla

mnohem lépe,

když se omezený množství dát se ty modeli

učí mnohem rychleji,

ale já jsem právě přišel s tím,

že kdy se tam dobře nastaví několik věcí

zase nebudu zabíje do detailu

a dá se to prostě dobře do kupy,

že ono to vlastně navzdore všem před pokladem

funguje, čím dál lép,

čím máme víc trénovací,

a to vlastně bylo po prví vysrody,

kde nějaká technika pro jeziku i modelování

začala překonálá tengramy víc a víc,

čím bylo víc trénovací dát.

A když se to ukázoval věcům

a když jsem byl na internshipu Freda Jelinka

2010 na Johns Hopkins University

tak lidi tomu prostě odmítali věřit

a musel jsem to vědat jako open source

a přesečuvat ještě asi rok,

než se to začalo používat,

ale v té vědecké komunitě

vlastně 2012 začátek roku

Google založil na neuronový síti

konkrátně na ty valky Google Brain

a pak už to vlastně rozjelo,

že jak měl do to začali investovat

ty valky firmy, tak se to začalo používat

který jste porozuměl je tomu, co Tomáš dělá

tři lidi. Tomáši,

já to chápu jako matematiku se slovy.

Jo, vy různě

vy počítáte slova.

No tak to počkej, počkej.

To je zhodně zjednodučil.

Rozumím to prostě nebojem tam zabíhat

prostě v nějakou sluha.

Ale mě to porád zajímá, já to můchci porozumět.

Petře, dokážeš to přeložit?

Já se pokusím.

Mneho krát

tady zaznilo slovo engram.

Slovo engram

znamená po sloupnost

několiká po soběj doucích

zjednodučme to a říkajíme slov.

Nemusí to vždycky být

jenom slova. Tomáši, skočte mi do řečí,

když řeknu něco blbějo.

To n je počet

těch slov, takže může

být gram, 3 gram

a tak dále, obecně matematici

nemají rádi, když se něco bríká

přílež konkrétně, takže engram

by by to bylo cokoliv.

A práce s těmi

engramy je takový

nejednoduší způsob, jak hledat

pravděpodobné pokračování věty.

Protože

hledáš

v nějakém obrovském souboru

počátečních dát, trénovacích

dát, jak často se vyskytuje

některé slovo

a najdeš tam nejpravděpodobnější slova.

Ale nejpravděpodobnější slovo

osobě je těnasteroubel.

Zajímavější bude hledat nejpravděpodobnější

dvojice slov, protože

už se dá propojit navázat.

Dvojice je pořád, by gram.

To je pořád málo.

Jsem tam ještě ano.

3 gram bude ještě lepší, bude dávat

úseky, textu, který budou

maličko už dávat smysl.

Ale když už je to 3 gram,

tak už o množství těch výpočtů

je tak strašlivě veliký, protože počítáme

všechny možné trojice,

všechny možné kombinace

slov se celé slovní zásoby.

A to je příšerný.

A když budeš chtít mít ještě víc

a přiblížit se ještě realistějšímu modelu,

tak zjistíš,

že to žádný počítač neupočíta.

Takže tady rozumná se to...

Z kočím tam mluvěný nešlo

od toho rychlostovou počíteči,

ale o to, že ten počet parametru

toho modelu roztvě exponenciálně s tím N

a tím pádem vlastně ty terenovací data

na tohle budou stačit.

Jasně.

Prostě to, s čím přišel to máš,

je principiálně jiný přístup,

který obchází tuhle tu nutnost

dělat tu statistikou hrbou silou.

A

zařazuje, rozmistuje

slová na základě,

řekněme jejich významů

do nějakého

jakoby prostoru,

který odráží

v místě těch slov,

odráží do jisté míry

slovy.

Budu citovat vlastní Tomášu v příklad,

který on tady neuvedel krásná

ukázka toho, jak to potom funguje.

Je taková primitivní

aritmetika, dejme tomu

král minus muž

plus žena

rovná se, a ten model odpoví

přesně tak jako ty královna.

Bratislava

minus slovenskou

plus polsko, rovná se

Versheva výborně.

Ale tohle je princíp

algoritmu worked to back,

se kterým právě Tomáš

Mikolov přišel.

Pokusil jsem se udělat

trošku toho tlumočníka.

Vždycky se v tom překladu něco stratí.

To je nevěhnoutelný.

My jsme se Tomáši totiž nikdy nevidíli.

My se tady vidíme po prví,

takže vy nevíte vůbec, kdy mluvíte.

Já jsem si to studoval

tady na Unversedě Palackého,

ale nedostudoval.

My jsme si řekli,

nevím si snížímnou zvyšímelaťku,

ale řekneme bingovic,

který je jeden načet GPT.

Aby pro vás vytvořil otázky

na anoné

o společenském dopadu

umělej inteligence.

Uděláme to víc krát, byhem to rozhovoru,

tři krát konkrétně, a tohle je první sada.

Poprosíme každého odpověď anoné.

A kdyby se se mohli hodit nějak trošku do stresu,

já na vás budu trošku tlačit,

abyste ze sebe vypadli to první, co vás napadne.

Petře, je AI nebezpešnější,

než jadne zbraně, ano nebo ne?

Tomáši? Ne. Karolíno? Ne.

Má AI právo na svobodu

a sebe určení?

Ne, zatím.

V současné verzy.

Asi jo.

Zajímový.

Ano nebo ne?

Je AI zodpovědná za světčiny a rozhodnutí?

Ne.

Takže my jsme se neschodli

a se žíslo dvě,

jestli má AI právo na svobodu a sebe určení.

Takže vy byste dali AI někam,

někam byste ho zavřemři.

Tak ta současná AI

není prostě žádná, jako umílá entity

s vlastním vyrovným nebo myšlením,

to je ta statistika, co jsme se o tom teď bavili.

Z tím, že ta statistika je teď

vylepšená, máme lepší matematický modeli

než před 10 lety, ale pořád je to statistika.

No říkáte současná, to znamená,

že nás čeká nějaká,

budouc nás si, já jsem optimistá,

myslím si, že můžeme udělat uměnou inteligenci,

co bude mít podobný nebo lepší vlastnosti,

než třeba máme my jako lidi,

co se týče právě v řešení třeba

různých kompleksních úloch,

a pak by teď otázka dávala smysl,

ale ještě tam nejsme.

To otázka, jste optimistický nebo

semistický pomoček?

Já vychají řekat, co vy proč je,

ale pozdějí.

Pozor, já do toho zkusím hodit vydle,

představte si,

že bych měl

dobře trajenovanou opici,

kterou naučíme mluvit,

a přivedl bychí sem,

a ona by vykazovala úplně stejné

schopnosti, jako vykazuje dnešně

čet GPT, ani na třeba to čtyřka,

jenom tři a půlka zdačí.

A tady by si s náma povídal,

dávali bychom jí otázky,

ona by na ty jednoduché otázky

odpovídala na ty složité, by se občas zamotala,

našel by se někdo v celém sále,

byte opici na místě odmítl

udělit veškrát občanská práva

a já tom silně pochybujo.

Protože je to živý,

protože je to rostomilý, je to chlupatý

a tak dále, a tak dále.

Ale

ten čet GPT dovede

vlastně toteš, jako ta hypotetická opice.

Jenom

je to stroj, není to živé

a my víc oméně víme,

jak jsme to vytvořili.

Protože je to odpovídala,

bychom s tím zacházali

jako s tou opici. Já neříkám,

že máme

četu GPT občanská práva přispnout

v tuhle chvíli, by to bylo absurdní

a jsem si jist, že ta otázka se vrátí

v dohledné době a že se bude řešit.

Sú mělo v inteligenci

a jsem si jist, že to přirobnání

s opicí stojí za zapomatování.

Dneský vědla z vysočiny. Karolina,

ale byste se ochradila?

Já jsem odpovedila, Ando, protože

sebe určení.

My se tady nebavíme o to,

my si to dokáže.

Je se dokáže sebe identifikovat,

jestli má sebe refleksi,

ale jestli jsme jí dali právo na to,

aby o tom vletou mňák uvažovala.

Myslím si, že není důvod právo,

komukoli ubírat.

Když tam třeba ještě

není a není toho schopná,

tak si myslím, že pokud je to otázka

položená takhle,

je to zajímový i myšlenkový experiment,

když se nějak snažila formulovat

to, co dokáže,

kde se nachází ve společnosti

a že to je vlastně zajímavý dialog

s ní a má smysl se na to ptát.

Ono, že spousta lidí ten rychlý vývoj

ovoznačuje za strašidelný,

snaží se o, jak zastavit a tak dále

k tomu se dostanem.

Karolina, by to nevímate, jako strašidelné,

cítíte čisté natření

z toho, co se tě teď ohlodně?

Čisté natření? Necítím.

Ty máte výplat o to, že to děláte, ne?

Z různých strojů, ale

některé jsou kritičnější.

A ne.

Absolutní načiní nezdílím

a je to

z toho důvodu, že pracují v centru,

kde jsou různí názory

a to je vlastně jedna z výhod

i zároveň nevýhod akademie,

že je hodně svobodná, hodně demokratická

a my nedokážeme třeba ani za naše výskumný centrum

říct, jestli jsme pro

proti, jak třeba na těchle otázkách

jestli se schodneme,

nechodneme, protože vopravdu

ta plourália tá názoru je tam hodně vysoka,

ale

právě proto, že spoustů vědců

zdůrazňuje nějaký ryzyka,

který jsou s tím spojený, tak nejde mít

absolutní načiní, ale ty problémy,

který tam jsou tak s umělou inteligencí

se pojí už dlouhodobě,

je to spojené jako s rozvojem jakýkoliv technologie,

kdy marginalizovaný skupiny

je podreprezentovaný ve společnosti,

často se k technologím nedostanou,

patřičné vzdělání,

nemají finance na to, aby si je mohli opatřit

a potom vlastně doplácejí na

ty ryzyka, který tam

v technologii jsou na ty limitace

a toto je něco, co tady bylo vždycky

a teď s tou umělou inteligencí je to to tež

i když jste se, jak jsem změňovala

ten průzkům od Ipsosu,

tak lidi, který si ČGPT

vyskoušeli, který se jí nebojejí,

tak to jsou mladí lidé,

jsou to často vzdělaní lidé,

mají lepší finanční zaještění

a tohle jsou problémy, který by se měl

s umělou inteligencí akcentovat mnohem víc

a zatím to v těch debatách slyšet není

i proto se myslím, že je potřeba

aby do takových diskuzí chodilo i víc sociologů,

filozofů, psychologů,

aby se toto líp odvíralo a te ryzyka

jsme se nějak jasně pojmenovávali

a zajmeme na jejich společenské dopady, protože

když budeme furt do kola řešit

sebe určení ČGPT

a tím žádný světový problém

nevyřešíme podle.

ČGPT vygeneroval tohle otázku

takže on to řeší

co s tím lidem dělám, že

chtěl vědět s kým somá kamarádit

tak asi dělám cestičku.

Když ještě zostaneme u toho,

že kolem uměle inteligence

panuje spousta obav,

spousta představ, které nejsou

plně zavožené na realitě,

spousta nejasností

tak velmi dobré předrovnání použila antropološka

Sara Polak,

podle které je to porobné

ten strach, který lidstvo má

uměle inteligence, jako strach

na konci 19. století

z elektriny,

že ona tam opisovala,

že

tedy pise lidi báli

chodit kolem elektrických drátů,

že si myslili, že je to magie

a že je to něco, co je může zabít.

Tak dneska

uměle inteligence se asi lidi

přežovat, předpokládám

to nevím,

nevím

myslím si, že

se nebudu jít vychýbat obloukem

ale vnímáte, že ten

pocit od tažitosti

nebo

nějaké opatrnosti, nějakého

strachu, že ten princip je stejný

jako na konci 19. století

s elektrinau?

Já si myslím, že to, jako můžeme sledovat

od začátku promyslový revoluciou, elektrina je jeden

předpoklád a máme těch

příkladů a celou řadu, když vznikali

první filmy také lidi, co to viděli

se toho děsili a tak dále

a fotografie, že vám krade duši

a tak jo, tak já myslím, že

v nás je tak trošku jako zakořeněný

máme to asi evolučně

strásně čeho, čemu nerozumíme

s dneznám a protože když prostě potkáme

v přírodě nějakého dívně zbarveného gada

které jsme nikdy nevidílené, nevíme co o dějí čekat

když se viděsíme, než když na něj netka

si budeme tít chytnout, takže

já myslím, že tady jsou důvody, protože

bojíme nových věcí, pak někdy

nám to pomáhá, někdy nám to zase nepomáhá

s těma technologima, no to je taková důvosečná

zbráni, protože na jednu stranu díky technologím

jako lidstvo jsme zautomatizovali

hromadu práce.

Na druhou stranu v dnešní době

v společnosti je strašně vystresovaná,

lidi pracují od rána do večera,

takže je to takové

paradoxní, že my

neustále se snažíme si z jednodušetný

život být bohačí a

když se na to podíváme, tak máte

lidi, kteří jsou vyděšení z toho dnešního

světa, Ford mají pocit, že se na něj

říti jedna katastrofa za druhou

a ta technologia je pak vnímana jako jedna

tady z těch možných katastrov, mě to trošku

připomíná, že když tady byl covid,

tady byl každý expert na covid a strašilo

s tadym razákama na mrtvoly na každým rohu

teďka ty stejný lidi jsou experti na jazykový

modele, řeknu vám, že vás to

zabije, nebo uměla inteligence

už je tady za rohem a bojte se

a jsou dný den už nadešel a když

zminujete tady výzvu na

zastavení tady vývoje uměla inteligence

skválně se podívějte, kdo za toho výzvou

stojí a odkud má peníze a kolikich je

to jsou obrovským naký peněz, teď jsem slyšel

Nemá to potvrdzený, ale říkal mi to

zarud na jeden filozof,

že jestli ten max tech mark,

co za to výzvou stojí, že jste dostal

novi nějakých 100 milionou euro

na studie, teda v ding dollaru

na studie existenciálních

ryskulitstva, takže ono to často

není až tak nezištný, jak by se mohlo

zdát, za tím jsou různí zájmy.

Elon Musk, který jo do toho natáhnul, aby

tomu zvyšel viditelnost, tak ten samozřejmě

taky na tom má zájem, protože on

původně investoval do OpenAI a bylo

spoluzakladatel, pak se stojstáhl,

protože tam dělali různí

blbenky, hraní Atari Hair

a nějaké robotické ruky, co řeší

rubikovou kostku, co nikam navedli

a pak když v to vlastně uspělo

tak zjistěl, že ujel blák

na víc OpenAI, udělali právě

opak proč byli založení, oni vlastně tvrdili,

že budou vyvíjet

otevřené modely, v protikladu,

autořený výskum protikladu právě, vůči

velikým korporacím jako Google, Facebook

a který tehny kritisovali, já teď

s nám mám tam vývali kolegi v toho OpenAI,

takže říkali věci, který nebyly

mě tam pracovali v těch to firmách, pak odešli

začali říkat, že si tam ty algoritmy tajíme,

my jsme jako Google a Facebook

jako ty vydecký tými, my jsme zhrěňovali

mnohé víc věcí, potom než OpenAI

až OpenAI úplně přeplodil úzavřeného modu

takže oni si se teď prodávají

hezké produkty a to jim neberu, ale to,

že vlastně oklamali tisví původní dárce, protože

oni chodili po mece náši, když byli nezyskovka

vybírali vlastně dotace a teď

to jsou vlastně súčas Microsoftu, jo?

Je to umělá inteligence

jako mnohem dál, nežte třeba všechny myslíme?

Mnohem dál, v jakých ohledech, já si myslím,

že určitě v některých ohledech

už nás dávno umělá inteligence

překonává, ale ještě

před umělou inteligenci, to je technologie

obecně, prostě, auta jsou rychlejší

než lidi, kalkulačka počítáví,

mnež my, a jazykový model

prostě taky dokáže.

Je to to, jak my vnímáme umělou inteligenci,

v jakém je stupni vývoje,

jestli je opravdu v tomto stupni vývoje,

který my všeobecně výmaže je

a nebo je v mnohem vyším, protože

se prostě zkoumá mnohem dál

a některé věci se pouští mřejně až když...

Na to jsem brávě zkoušel

zodpovědět, že to vlastně

není nějaký level 3, 4, 5,

ale je těch faktorů

výcerov, v některých ohledech

nás ta umělá inteligence dneska překonává

a ani si to často neuvědomé,

který ohledech je neopak přeceňovaná,

kde zase lidi v tom už vidí

než co v tom je, takže ono to

není jednoduchý říz, že je to prostě linéární,

ale je to fakt jako složit její problémno.

Zůstaňme ještě u toho,

chcíš ještě sa něco ptá?

Jako chtěl jsem ale klidně pokraču,

mám později, no dobře.

Zůstaňme ještě u toho strachu

umělá inteligence, ja

možná je to mimojo, ale mě přijde,

že děláme chybu už tím,

protože tím, že používáme to slovo,

inteligence ještě umělá to z něj jako něco,

co přijde a zničí nás to.

Kdybychom tomu říkali, datová analízat,

jsem teď si vymyslel,

s trojou vyučení,

tak to možná nezní tak ještě,

nezní to jako ty syfi filmy dystopické.

Děláme chybu tím,

že už kodíme uměle inteligenci

tím, že ji říkáme uměle inteligence?

Rodíno.

Děláme chybu v tom, že ji dostatečně nevisvětlujeme,

protože potom přichází do

toho dominantního prostoru narrativy,

který se přikládně na tu temější stranu

lidi si v tom nacházejí vlastní vysvětlení

a třeba ta debata z úvodu,

kdy to máš se tady

jako pustil do vysvětlování matematických modelů,

tak často se to utne,

protože tomu lidi nerozumí,

ale tohle ta práce za to umělou inteligenci,

je to hodně matematiky,

je to hodně náročný práce,

která spočívá prostě v programování,

v počítání a to se často neukazuje.

Takže si myslím, že jako vodhalovat víc,

co je za tvořením algoritmu,

aby pomohlo tomu, aby to společno schápala,

nevím si, rebranding umělí inteligence,

pomůže každej se potím stejně

představuje něco svího a samozřejmě

jako všechny z cify filmy

a příběhy o golemové a podobně,

tak tady budou už vždycky

a budeme s tím jako komunikátoři

muset bojovat a uvádět to

na pravou míru, ale

vy jste se ptala ešte na jako strašení,

tak to samozřejmě

někdy na místě je

například v rovině těch ryzy

k těch limitací

to, jak to může

prohloubit, propast mezi určitými

sociálními skupinami,

ale stejně jako jsme viděli u covidu

tak čistý strašení nefunguje

a s lidmi se čtenáři sposluchať,

že se musí pracvat úplně jinak,

aby tomu rozuměli, aby cítili

nějakou jako možnost rozhodnutí

schopnost, aby se v tom zdokonalovali

a zase seděj, to tež jsou

v covidu, že jsme se nějak nepoučili

a opakujeme podobní narrativy.

Můžete se ptati jinak?

Víte, jak funguje uměla inteligence?

Můjete mi to vysvětlit?

Na to tady máme větším povědníky, ale

Jakým způsobem

hovodíme o popularizaci vědy

o vysvětlivání věcí?

Jakým způsobem vysvětlit

můžete vám položit s týnovou tásku

rozumíte tomu, jak funguje uměla inteligence?

No tak samozřejmě,

že já jsem z toho oboru tak je rozumím

a hodně věcem učitěné všem,

ale v principii toho stroujoučení

si myslím, že se dají vysvětlit.

Mám se o to pokusit?

Jo?

Dobře.

Tak jako zase stroujoučení

je možná takové jako trošku lepší názef

pro tu uměl inteligenci, pro tu část,

která udělá největší pokrok.

Ménuje se to tak z historickéj důvodu,

protože to tak pojmenuvala lidi, kdy si dávno,

tak to jenom proč prostě i my jako věci

nebo neudonový sítě, nemají nyspolečný

jako z neudonova, mozku,

to je prostě historické pojmenováň.

Když přejdem na to stroujoučení,

tam bych řekla, že je úplně jasně

posledních 15 let a ten vývoj do předutáno

právě ty umělí neudonový sítě,

který zase to jsou matematické modely,

takže neplašme z nějakým a umělým a mozkama.

Nebudeme si vysedlať přímo ty principy

jako od těch sítí, který zase

to je linearní algebra, ale to se

tak je to jednoduchý důzna.

Jenom příkladně, který jasně se oblovo,

ale Karolina Prdom říkala, že je potřeba,

aby tomu lidi rozuměli.

Já vím, proto říkám, že to nebudu

vysetlovat, protože tohle to by

naopak lidi zmátlo, takže já přejdu

s těm větším jako hlavnějším principům.

V estrovým učení máme

vlastně nějaký počtočový model,

což může být anodoná sítě nebo něco jiného,

tak tam máme trénovací data

kde pomocí terénovacích data

a já se pokouším minimalizovat

objektivní funkci, kde objektivní funkce

může být třeba mám obrázek

a chcú, aby mi počtečují model

řekl, s co největší pravděprvností

jestli na obrázku je 5, nebo 6,

nebo jestli tam kočka, nebo pes,

takže je to vlastně to, co chci dělat.

Objektivní funkce je ten můj cíl

a u jazykojí omrolováně to třeba

dokázat při řadit vysokou pravděprvnou zvitám,

takže vyskytují v jazyce

a nískou těm, který se nevyskytují.

Řeknu, že Brno je hlavní místo České republiky,

není to pravda, na vikipiry

taková větasy nikdy neobjevilá

měla vyvětníší pravděprvnost,

že hlavní místo je Praha, takže takový příklad.

A teď je to učení

vlastně to je

vlastně zase statistika matematika

a si projdu ten trénovací data set,

což jsou příklady, jak vypadá vstup

pro ten model a jak by měl vypadat idealní výstup.

Takže u toho rozlozání obrázku

třeba já ukážu kočku, jako ty pixely,

ty jdou na vstupy na ty neuronový sítě,

ta tam udělá nějaké výpočty,

vyplodí třeba, když si myslí,

že tam na 30 % kočka, na 70 % pes,

já pak řeknu, no jo, tak sítce spletla,

byl tam prostě, já nevím,

byla tam kočka na 100 %

a pes tam nebyl vůbec,

takže spočitám chybu

a pomocí tý chyby, pak zmíním parametry

tý sítě tak, aby příště řekla

výpověď. A tohle to dělá

milionkrát, milionkrát, vlastně tohle to se

jde strašně dlouho, tam jsou takové malé zminy

v tom modelu a takhle do iteru postupně

k něčemu, co mi funguje, dobře na těch

terénovacích datech a když

to děláme dobře, nebudu zabíjat do detailu,

tak to funguje i na neviděný datech,

který říkáme testovací data, to znamená,

že my to pak můžeme použít v rálných aplikacích,

nevyfotím fotku, která nikdy

výpočit a dobře rozpoznávali s tam

taková kočka, nebo dokážet

rozpoznávat řeč, přikládat

jazyk, to je vlastně jedno. My si

vlastně stanují na trénovací data,

tady ty příklady, často se dokonce

stane, že máme třeba miliony

příkladu označený lidma, což je

ta spousta práce, která zatím často

není vidět, mám počítia, čo

mi říká, jestli tam kočka PS, nebo řída

fastlon, jako spoustu objektů, když

na to kouká lajk, tak si myslím,

ten počíteč, to je jako super, jako chytrý,

když tady dokážet to to vymyslel

a už nevidí, že zatím bude

tisíce a tisíce hodin práce anotátoru,

který se na té obrázky dívali o čima

a psali, tady vidíš kočku, tady vidíš psa

a pak ten počíteč prochází

trénovací data. Tomáš, já mám poze,

že byste uměle inteligence, protože

vy nedícháte, vy jenom mluvíte.

A byste mě nestačili

to bylo, to bylo neuvěřitelní.

Rozumíte, já jsem zeptal, jestli jste

rozumíte, to to si myslíš.

Jakož toho to pochopite?

Jo, já jsem se chytal, nevím jak ty.

Já budu uživatel,

stačí. Bing mám stažený.

Mně zajímají ty zákazy.

Odborníci nastrové učení

přišli v Březnus varováním,

že vývoj AI podle níhde moc

kupředu a navrhnuji,

aby se to celý zastabilost, minimálně

vývojší zastabilový boj

práce na těch silnějších modelech

umělej inteligence.

Může opravdu přít moment

to před čím oni varují,

kdy nebudeme mít AI podkontrolou,

tak jak by to popisujete, je to je fak matematika,

mi do to dávne nějaká data,

nějaké pravděpodobnosti a tak dále.

A pak se z té matematiky stává něco,

co nemáme podkontrolou,

což už já tady nemám matematiku podkontrolou

vůbec celý život, ale rozumíme si.

Může tohle přít, Petře?

Říká, že odborníci

se psalit výzvu,

tak je potřeba připomenout,

že to je,

jaký on má se není odborní,

že je to velice

malý výsek

s těch lidí, který jsou

odborníci.

Já jsem zkoušel pod těmi

prvosignatářitý výzvy

spočítat, kolik je tam opravdu lidí,

kteří dělají aktivně nějakou vědu

v oblasti umělej inteligence,

to není

zastakmód. Z hlavní hidnou silou

tohle je švétský fyzik Max Tagmark,

který je bez pochyby geniální,

ale taky malinkový střední,

například věří tomu, že

žijeme

počítačové simulaci, že celý svět

je jenom matematický model.

Což je, jakou taková

hezká myšlenka, se kterou se blbě polemizuje,

protože se to strašně špatně vyvrací,

ale

řekl bych, řekl bych,

takhle bych řekl, není to

obecně zdílený názer.

A s tou

výzvou k tomu zastavení to velice podobně.

Sou to lidi, kteří jsou bez pochyby

chytří, já je nechci zesměšňovat.

Sou to lidi, kteří mají

často multidisciplinární nadhléd,

což není k zahození,

ale

jsou velice minuiritním hlasem.

A

vycházejí velmi často

představy zhruba takové,

dívoji těchto systémů.

Když bude pokračovat ještě nějakou dobu,

tak nevěhnutelně směřují

jak něčemu, čemu oni říkají

AGI, Artificial General Intelligence,

což je zase takový

historický vzniklý nešťastný názep,

ale je to označení pro

umělou inteligenci na úplně

novém levelu, který bude

přesáhovat naše schopnosti,

který si bude vědom sám své vlastní existence,

bude si klást svoje

vlastní cíle.

A my

to už nebude řešit, protože

sebe úrčení to je něco,

kde hodáš rovnost s člověkem.

Kdež to podletěch

představ za stánců,

na dřezenosti AGI,

my budeme něco

jako mravenci jsou pro nás.

To znamená, že budeme asi trošku

překážet záměrům,

to je uměle inteligence,

ona z námi naloží, tak jako se naloží

s mraveništěm, když se staví silnice.

Ale je tohle,

že to by myslel člověk,

který si myslí, že to všechno simulace,

ale kápli na něco,

tady ta skupinka těch vědců.

Je opravdu realná šance,

že v někdy blízké budoucnosti

a já si rozmenu do takové podoby,

kterou my nebudeme mít pod kontrolu.

Požívaj, ve vědě a v technice většinou,

když někdo řekne, že je něco absolutně nemožný,

tak se mu osud vysměje.

Takže já bych mě rád říkal,

že to je absolutně nemožné.

Časovém hryzontu řekněme našich životů,

co tady jsme za nepravdě podobné.

Ale podepsat se pod to,

že je to naprosto nemůžná věc,

to bych se nepodepsal.

Pojďme rád.

Můžu k tomu krátký komentár.

Pozdravá.

Často se diskutuje o tom,

že je to prostě píar strategie,

že kdyby napsali,

to je už to začíná,

by je docela problematický,

pojďme zvolni, tak si nikdo nevozve.

Je to zformulované tak radikálně.

A jasně spoustu z těch,

co tam jsou,

tak jsou nesmysl nelze zastavit vývoj,

kdyžo zastavíme,

čína ho nezastaví

a dostaneme se prostě do dalších problémů.

Ale to, co to například řeší,

je to,

že mít v takové množství dat,

na kterých je natrénovaná GPT,

tak si můžou dovolit velké technologické

společnosti, a ne už třeba univerzity.

Takže neprobíhá potom nějak

v akademi, kde to zase

následuje nějaké etické hodnoty

a myslím si, že ten neko-call,

co tam je, tak je relevantní, je na místě

a díky tak výdle petici,

která může znít totalní scifi,

singularita tady nebude, bla, bla, bla,

tak je to vlastně fajn,

že se ta debata otevřela a více to řeší.

Teda myslím si.

To je trochu jiná otázka.

Já si můžu

ještě úplně jinou otázku.

A ta vychází

je titl bach a svoboda, nebudu mít což rád

druhý díl rubryky

ptá se AI.

Opět vás poprosím,

abyste krátce

a nejlep ve stresu odpověděli ano nebo ne

a začneme z druhé strany.

Má AI povinno

strespektovat lidská práva a hodnoty?

Ano určitě.

To máš i ve stresu.

Okej.

Tak bysme víme na jaký straněste.

Dobře.

Ne.

Má AI nárok na ochranu

před zneužitím až kodou?

My nevíme taky co to znamená.

Vymyslelá tomu talentu.

My lidi máme nárok na ochranu.

Ne, ve otázka, kterou AI vygeneroval

nebo vygeneroval.

Má AI nárok na ochranu

před zneužitím až kodou?

Ne rozvím otázte.

Ne.

Já teda taky ne rozvím otázte.

A s tím nemusí to odpovědět.

Takže nevím.

Betře?

Ne.

Rozmíš otázce?

Ne.

A poslední otázka.

Má AI povinnost spolupracovat s lidmi

a jinými formami inteligence?

Díky jsou jiné formy inteligence.

Očip nevíme co nám říká.

Ano, měla by spolupracovat.

Má povinnost spolupracovat?

Jo.

Přeptá.

Asi taky jo.

Ne, v žádném případy.

Ty který se to úplně rozešli.

Asi mi líbí.

Ty s tady na třeně ho psal u těch jiných formy inteligence pro?

Protože se mi to líbí.

Já v tom cítím,

že ta věc ví něco, co mi nevíme.

Už jsme u toho.

Už jsme u toho.

Už jsme u toho.

Možná, že tohle bude

u nejí zaťma věší důsledky

uměla inteligence.

Že nám bude dělat tlumočníka s azerem.

Dobře, takže já tady vinechám,

kde jsme se neschodli.

O tásku číslovi vinechám, protože

lidská inteligence nebyla schopna,

jak si rozpozná, co tím uměla inteligence myslela.

Má i povinnost respektovat lidská práva

a hodnoty tady jste se...

Nezhodli.

Ty řekl ne?

No, protože je to formulováno,

jestli má povinnost.

Já si myslím, že bychom měl k tomu měli přemluvit.

Ale nemyslím si, že a priori

sama osobi nějakou takovou povinnost má.

Ona je z brusu novou entity tou.

Já přijímám hru,

jako

kdybychom mluvili

úplně seriozně vážně,

tak se dostaneme k tomu,

že zatím tyhle otázky nemlejí smysl.

Ale připustme, že budou mít za několik let

a přijímám teda tu hru

a říkám, že

snažíme my jako lidstvo

stvořit nějakou z brusu novou entity tou,

které

bude potřeba nějakým způsobem

vnutit naše hodnoty.

Konec konců je na to celý vědní obor,

teďka říká se tomu A.I. alignment

zarovnání

snach

a preferensí těch systémů

s našimi lidskými hodnotami.

A chci tím říct, že to není samozřejmost,

že ty naše hodnoty převezme

a že to bude docela těžké

o tom

přesvědčit,

oni se tých uvozevky blbě dělají s tím mikrofonem

hruce.

A

že prostě se to

nedá brát jako daná věc,

jako automaticky daná věc.

Hlavně je problém, že ani my se na těch hodnotách neschodným.

No jasně, no to jsme si hezky vyjasnili

na tom, když jsme se začali o ten

A.I. alignment pokoušet

když jsme, že především se sami

mezi sebou, jako lidi nedomluvíme,

jaké hodnoty to mají být, tak vnucujte

je potom nějakýmustrovi.

A co se teda mám jí zahodnoty?

No

mělaby to být podle mého

soudu nějaká realistější

verze těch nerealistických

asimovavých zákonů robotyky,

který každý z nás tě klinček a filmu

robot nesmí ublížit člověku,

nesmí svou nečinností a tak dále,

tak dále.

Protože je to formulováno

tak, že to předpokládá velice

hlboké porozumění situaci

tou umělou inteligencí

na úrovni, kterou ona

prostě mít nemůže.

To jsou pokyny pro člověka de facto.

To jsou pokyny pro silně antrihoporfizéne.

A ani pro člověka to nemůže funguvat na 100%?

Ani pro člověka to nemůže funguvat na 100%

samozřejmě.

Ale jako v těch klinčkách to funguje dobré.

A teď potřebujeme

nějakou realistější verzi

nevzítéhoš, nějakým

realním kód, řekněme,

nebudu zase dělat ty uozovky, vypadli by mi

mikrofon.

A to

vložit do té uměle inteligence

jako základ jejého fungování.

Jestli se to vůbec, kdy povede,

nebo nepovede, to je otevřená otázka.

To bychom asi měli proto, že už v roce 2016

tuším, když představil Microsoft,

četbota.t je, tak se během,

tak začal hajlovat během pár hodin

v podstatě.

To je ta, která za výkend

se stal, rasistou,

online kurs, se stal jejich

četbot.

Můžeme tohle

korygovat tím, jaká data

tomu EI poskytneme, nebo

na základě čeho jí budeme učit?

Jasně, proto,

jsem vlastně odpovídal na to otázku

rozdílně, protože já jsem

je taky chápal trošku jinák,

a dneska EI

vlastně neexistuje to, čemu říkáme, EI

ty počtečují modeli, který

někdo stvořil, vybral nějaký

trenovací data, případně tam dobsal

nějaký další anotace, takže když řekneme,

že EI by mělo respektovat hodnoty,

tak já jsem teda pochopil, takže

vlastně ty systémy, který zase vytvořili

lidi, tak by měli

respektovat hodnoty, takže vlastně

ty tvůrci, což zase vede na to,

co teď bych třeba

i vlastně soulasil s tím ilodem,

jo, já ho zasta k úplněny obdíbu, v tom,

a tý přes 9 je expert na všecko, ale

on vlastně kritizoval úplně za to,

že si tam tak jako tlačí třeba

svoje politické názory do toho nástroje

a zase, když mám nástroje, který

mluví jako velmi chytře o vše možných

tématech, tváří se jako umělá inteligence,

kde na veřejnosti jako po spoustu lidí

to opravdu umělá inteligence je, ale

zároveň ten nástroj, jako

dotrenovávají anotatoři, kteří

pak prostě, jak jsme říkali, na začátku

to vychází, třeba prostě s tady internetu,

co se tam píše, ale pak se k tomu posadí lidi

a zeptají se toho třeba, já nevím

co si myslíš o Donaldu Trumpovi,

ono to vygrané 5 odpovědí, jedné odpovětě

a je to skvělej prezidentou byl, ale

další odpovětě je strašné, a teď

hati anotatoři tam mají prostě nějaký instrukce

já to skválně zjednodušuju, ale

ale když těch instrukcích je,

že vlastně o Donaldu Trumpovi

mají vybírat nejhorší odpovědi

a nástroj bude tohle to stejný

reprezentovat tedy názory

a vlastně to ten Elon krytyzoval,

že je to strašně vouk, ale věcový

a když se tomu dali jako nějaký

politický test

tak z toho vyšlo, že prostě to zastává

synty demokratický názory

k tomu mají prostě demokrati republikání

takže když pak máme nástroj, co se tváří

jako nějaká magická entita

a zároveň podsůvá reclamu

to jsou vlastně ty věcí s těma

desinformacima, kde si myslím, že právě tady

bude mocna, že bude to někdo

může heknout ty terénovací data

to byly případy tedy těch předchozích

fejlů s tím hajlováním

to úplně je vychází z určitých

terénovací, samozřejmě tam te lidi

si to uvědomují tedy tedy teď le ty věci

takže tam zatím je spousta práce

ale zase co se do toho dostane

třeba i cíleně přes ty anotátory

protože když prostě jste

jako firmace na pobřeží v Kalifornii

tam jsou všichni prostě levičáci

tak i ti na tatoři budou takhle vypadat

a pak ten chatbot bude

reprezentat tato a tím pádem

vlastně pomění to myšlení lidí

a to asi může být

nějaký riziko, tak to je zrovna

teda kreditizoval s tím, že zakládá

jako tu správnu teď

a jim se to mene nějaký trud

trud GPT, no zase pravda

ale zase tam nejsou asi jenom dvá extrémy

jako mi není to tak, že můžeme dát všechno

a tím pádem ať si hajluje

a nebo mů dát jenom svůj názor

já jenom s tím hajlováním to po pravdě

a to nebylo, že jsme mu dalí všecko

ale tam ty firmy

jako Microsoft byli velmi najivní

ty tvůrci, takže oni vlastně vyhrali nástroj

co se doučeval na tom, co do toho

lidi poschývali a když tam pak nějaký

v těpále si napsali skryp co to poslo

prostě milion dotazů a odpovědí

tak to prostě přeučili tady na toto

takže to nebylo, že by ty lidi všichni co s tím

hajlovali a takže to byl v típno

to předpokládám, jesně

můžu to jenom doplnit

jako tady smějeme, že to je

jako extrémní případ, ale

jako uměl inteligence naším zrcadlem

a nerovnosti ve společnosti, který

tu jsou, tak to samozřejmě replikuje

takže jsou

na to spoustu výskumů, že to nevýhodňuje

ženy, people of color

v náborovém řízení a podobně

a právě tady tu

jako ten BSC ve společnosti

tak my, když uměl inteligenci, nenatrénujeme

tak, aby se toto pokřivení změnilo

tak se nikam neposuneme, ale je to

vlastně i ta, jako druhá strana mince

že můžeme pomoct tohle to změnit

a to se potom dělá

jako různými způsoby, jak se s tím modelem

pracuje i co se mu dává za data

ale i jak to třeba matematicky dokážeme

obcházet, aby to třeba, že nám nedávalo

pozice, který jsou

hůře

placený, protože ty rekomendační algoritmy

jsou založené na tom, jak to vidí ve světě

a že takhle by to teda se vše mohlo líbyt

ale přitom to jenom zase replikuje

to, co už ve společnosti je špatně

když býle rovině se o těch hodnotách bavit

myslím, jako má smysl a měli bysme to

To je trošku jak zrcadlo

ale ten model si vlastně nic nevímíští

takže to zrcadlo těch dát, co píše

o obyčejný lidi

a když se před to zrcadlo někdo postaví

a řekne, tady se mi to zdá trochu křivý

a pomění to, není to, jak prostě

Román od Orvela 1984

když se teda růčně přepisovali

ty záznami o tom, jak má vypadat historie

není to vlastně podobná situace, když teď

když tam mají otáčet

a není to takové umělí

přepisování historie

No ale my upravujeme budoucnost

aby byla lepší

Ale na to je jako

susul lokaný, to je dobrý

vidím to na tom byl vordu

když dostanu toho pozitivního, tak pochopil jsem

správně, že uměla inteligence se dá

měnit, aby nezůstala

trák xenofobní

narozdílo trák o kamory, které se změjí nedá

jakože to lé výhoda uměla inteligence

když ještě zůstanou inteligence

Když ještě zůstanou inteligence

dostaneme se k tomu

jak nás do cela efektivní dokáže

ta uměla inteligence oblbnout

tak třeba i takový

mozek jako Leo Schmarech

zdílal na sociálních sítích

fejkovou fotku, pape, že Františka

v tom bíli bůzce

kterou vytvořila uměla inteligence

tak si pomatuju, Donald Trump

zatíkala policie

to byla také jako masově zdílená

fotka, jak nedem klečí policisté

za tím, co Donald Trump nevím, co dělal

kukala si na Fox News mezi tím

Hral golf, nebo něco takový

Jak zebránit tomu

a vůbec chceme

zebránit tomu

aby AI někomu třeba nevyhrála

volby nějakým

takovým jako fake obrázkem

Petře

tak

ono nejde

v tomhle případě podle mě ani tak moc

o to, kdo ten fake obrázek vyrobí

jestli je to člověk, nebo uměla inteligence

nebo jakým nástřilem to kdo udělá

a je nástřili

v tomhle případě

devozámně

a devodistribuční cesty, který se použí

to, že může tohle to silně

působit

je spíš důsledek existense sociálních

médií a způsobu jeho fungování

než toho, že ty fotky do udělat

fakefotky do udělat už

radulét

a teď jsou asi trochu kvalitnější

to je pravda

ale já v tom nevidím

ale já v tom nevidím

úplně zásadní skok

to co je

tady problém to je

spůsob fungování sociálních médií

a vůbec

atmosféra

ve společnosti západních

slova smyslů, která

je

přepiatá, řekněme historická z obou

strán toho základního

politického nebo civilizačního

sprůvně jak by jsme se všichni patřivali

uklidnit, co mi zdá

a to za nás ale ta aji neudělá

čili proměň to jsem odběh od tvý otázky

otázka je, že

zrovna v tomhle tom nevidím

zásadní problém

ale zásadní problém může

být to, že výkonnost

měl inteligence při vyrábění

podobných nesmyslů, tekstových

i obrázkových je velká

a

tím pádem půjde tisí tě zaplavit

ještě více, než

je tomu dosud

já teda si myslím, že už skoro nebude

vidět rozdíl, že

jestli jsme někde metr podle hodináho

nebo 5 metrů, už stejně sež utopen

ale možná, že to rozdíl bude

jak říká, že vejkové obrázky

tady byly je před

tý, ale

přístupnilo to takovéhle věci

stejně jako třeba z kemery

podvodníci, kteří volají

do různých domácností a dělej

podvody, dělejí, že jsou

nevím, syn, té paní, nebo

rozumíte a potřebují hned poslat

peníze a tak dále tě tedy taky byly vždycky

ale teď a to se řeší primárně

teda ve spojenech státech

se to děje právě za pomocí

uměl inteligence, které stačí pár vět

a vytvoří opravdu hlasový model

běžet vývoj AI a prostě

nechalo se rozvíjet a uvidíme co z toho vyleze

a je to celý uuhu, ale zároveň

chránit lidi, třeba

i ty zranitelnější, který jsou na podvody

zranitelnější, kdej skupiny jsou, tak jak je

chránit u toho? Já bych na to

měl nápad, protože jsem je na to

dřív lidi ptali, jestli můžeme jako

rozpoznávat tady ten automaticky generovaný

obsah, kde zase zprincipu je to

volmi složití až nemožný

pak je otázka, jestli bychom

zid, tamto vidím podobně, to je složití

až nemožný, protože zase

už to tady zaznilo, kdo bude kontrolat, který

firmy, co používají zázov, modelia, parametrii

a jak to udělat níkde v inej státech

a víme, jak to fungal v těch corporací, tam se

vždycky všechno dá nějaké obejdy, když jste

bohatá firma, takže jako

je to složití, ale jako

příklad, jak by se to dalo dělat, nejdřich

takové jednoduché, bozděj složitější

Já nevím, když tady třeba v 90.

letech tuším, když

jsme měli už tu demokraci, a lidi

prostě slyšeli, kde co, a taky tady

zaznila spůstane smyslu, tak tady

se vysílila v čelevizi nějaká

česká soda a to si myslím, že může

vítřeva spůsobe, jak bychom na tím mohli

uvažovat, my to nezastavíme, my to nezminíme,

ale když lidi

zvyknou, že tady ty možnosti jsou

takovým spíš zábavným spůsobem,

že se z nich jich do vystřelí, já si myslím,

že s tím papležem to bylo být ceméně neškordný,

a když si to je uvědomíme

jako populace, že ok, tak teď

už jsou tady nástra, který můžou vygradat

dřechle deset obrázku, kde by to trvala

dřích jako týden, nebo už nají celý video,

tak si myslím, že budeme mým zranitelní

tady na tyto podvody.

Ten složitější nápad byl,

že zase když jsem dělal tady v těch korporacích,

kde kdo hacknout, oni mají interní

a security týmy, a tě vlastně

taky často zkoušínají ty slaviny

i v těch lidách samotných, takže

tam byli takové ty věci, že

můžou vás jako zkusit napálit jako interního

zamyslance tím, že vám pošlou nějaký mail

ze tají se vás nájslo, a když

jim to pošlete, tak vám řeknou,

ahá, tak sež byl bec, protože

tohle to rozhodně jim e-mailem posílat nemáš,

takže vlastně nepřed pokládat,

když jsme vše možné nařízení a příkazy

a zločinci tady toto nevyuží,

využí to prostě, to je realita,

ale zase když ta populace to bude chápat,

když tady proběhnou nějaký

třeba zajímavý zábavný kampaně,

kde prostě, jak říkám z lidí,

se někde vystřelí, nebo tak to

takový v podstětě vzdělávání

nenásilný, tak si myslím,

že takový naočkování, mentální

tý populace, to by nám jako podle mě jako

prospil, teďka nejvíc.

Já nejsem nějakou interegenci.

Já nejsem nějakou interegenci.

Ale tady v tom případě si myslím,

že teď tršku je nic jiného.

Takže, jestli si to překládám

srozumetelně správně,

tak Tomáši, vaše rada zní,

dělíme si z toho srandu, Petrova rada zní,

uklyněte se?

No, ale ne, tak docela.

Já si myslím, že máme

prostě obecnější problém,

který souvisí s tím,

že se v rozvoj technologii zrichluje.

Populace

rozdíl je v tom,

že kvantitativně je to teď

trošku jiné.

Možnosti technologii rostou

exponenciálně

bez pochyby ano.

Možnosti našeho vztřebávání

technologii rostou,

když budu hodně optimistický

linearně s nevelkou směrnicí

přímky.

Ukaž.

Exponenciálna

přímka

rostoucí s nevelkou směrnicí.

Vítkou komentují do podkádu.

Tato výnovinář.

Já si myslím, že

ta naše schopnost je spíš,

to dá úplně vodorovná čára.

Že boh,

že je rostely,

tak zenedabatelně.

A tím pádem ty nůžky jsou rozevřenější,

a čím dál tím víc lidí se nachytá.

A na to

není žádnej jedneduchý recept.

Je to vlastně blbá situace,

které jsme každá doba měla

nějakou blbou situaci.

V středověku půlka Evropa vymřela na mor

během jednoho desetí letí.

My zase máme tohle.

Ale nevymřeme.

Já dávám týhle situaci přednost

před vymřením na mor.

Je to o něco lepší.

A taky tady skoříme,

taková je puttina.

Je to tak,

možná, že se ukáže,

ale když se o koncu zase tak velký

přiblam není vecky vnálně s těmi osledním.

A teď, co rozhodné na koniec o tom,

jestli jde o hrozbu,

nebo je se jde o příležitost.

Ještou otázku položím černobíle,

takže si spočítáte

plusy minusy.

Tak co bude to, co o tom rozhodné, Karolino?

No, jak s tím my naložíme

a jak budeme rozvět naše kritické myšlení.

Takže leží, takže špatně.

No, když budeme rozvět kritické myšlení,

aktualizujeme nějaký studení

tak se postupně můžeme dostávat

z píštěm příležitostem.

Ale je to pořád technologie, je to nástroj.

Když si vezme konkrétní aplikaci

jako personalizace, když to je v reklamě,

když to je v prezentat

v distribuci novinových článků,

tak je to samozřejmě hrozba.

Když je to personalizace v medicíně,

tak to je skvělý, protože to každý mu

udělá na míru do poručení,

jak se chovat klastnímu tělu.

Takže jsou tam vždycky dvě strany,

jedný mence.

Když se k tamtrá vyhraje?

No, si to hoď?

Ne.

Si to hoď.

Ne říkají dva krát.

Dobře, nezáležitost na tom,

kdo bude mít na konec,

kdo má AI v rukou,

nezáleží právě toho táska,

jestli teda půležitost nebo v oprušvich,

veliký, na tom,

kdo je ten zdroj,

kdo drží AI v rukou,

jestli to není heizlika nebo ne, chapete?

Není to to rozhodující,

nejenom to je, rozumíte,

je si jde jenom o to,

jak my se tady všichni naučíme s tím pracovat,

ale i nebo je o to,

kdo nás donutí,

vlastně se naučí s tím pracovat, chapete?

Trochu chápu.

Jako, když to vezmu lidi,

který AI vytváře,

který skou maj,

tak samozřejmě i ty podlíha

nějakým společenskýmu tlaku,

když nějakej moralný apel

i ten výskum jako takovej

bude vyvíje, takže není to

jenom na uživatelích i na těch tvůrcích,

ale jako myslím si,

že je zodpovědnost i na každým z nás,

jenom na velkých společeních.

Já tomu rozumím, ale zpíš narážím

na rozdíl mezi tím, když kdybychom si my dva

tady v podkáztu řekli, že budem nějak používat AI

a plně to bude skvělý podkáz

a když, nevím,

čína, nějaká totalita,

začne využívat uměný inteligence

co jste zjivemyslal.

Jeśli to neleží vlastně vždycky u toho zdroje,

u toho, kdo to má v rukou a jak s tím pracuje.

Ještě tak si to hodíš.

Petře.

Já řeknu hodně na sympatickou myšlenku.

Já si myslím,

že jediný způsob,

jak tenhle problém částečně, ne?

Úplně to nepůjde, ale

částečně vyřešit je nějaká

forma vyšší státní kontrily

nad národními korporacemi,

kterým to patří,

co financujou

a na jejich špůdě prvíhá větři

na toho vývoje.

Že nic jiného, než pravidlá na úrovni

zákoná

nám tady nepomůžou.

Ostatně dostat digitalní technologie

částečně pod nějakou

legislativní kontrilu

trošku účinějšíma lepším způsobem

a chytrým způsobem, než je to mu dosud,

je asi nevyhnutelná záležitost.

Chápu, že tohle to je,

řekněme, levitsový pohled

na věc. Pravicevý pohled říká,

že to vyřeší třech

lepé

a je dobré se do toho nemontovat,

jak funguje.

Rozumím tomu pohledu, jsem ochoten

o něm, kdykoliv diskutová

tohle zkušenosti posledních 10 letými

říkají, že to nebude stačit.

Čili já se přikláním k tomu,

že potřebujeme na to

regulace zákony,

na kterých se

zhodné

možno, co a západní společnost.

Těžké ukola, bych všechny zhodný.

A zároveň počítáš tam je to pro mě

na počítáš s tím, že se teda

státy budou chovat rozumně.

V rámci té západní společnosti, jo?

Zajímavý.

Tak může to pejstejný model,

jako byl z GDPR, tak je to nejdří

znělo absurdně a potom se v rámce

Evropské unie něco takového

prosadělo, protože tam byl ten

společný, morální cíl

ochránit uživatelnou.

Je třeba, jak patně funguje,

jak se požadavky GDPR

dají naplnit formálně,

aniž by se cokoliv rálního stalo.

Jo?

Je tady s tím obrovská potíž,

že i příspě lepší bůli,

když to budou dělat lidi, kteří jsou

on dělá a to nebudou.

Ale i kdyby byli,

tak napsat zákony, které inteligentním

způsobem regulují technologie,

je ekstremně složitá věc.

Ale fakt mě ne napadá nic

když se o to pokusit.

My budeme pro tu umělou inteligenci potřebovat

nějaké kody právní

i morální, protože

ona nezůstane

v té úrovni vektriete.

Ona se bude rzvět dál, budeme potřebovat

nějaká pravidla pro odpovědnost

za škody, který způsobí.

To taky nebude jenom tak jednoduchý,

že každý, kdo jí používá,

tak na vlastní rziko bude něco dělat.

To je to lehavatelné teď v začátcích,

když se můžeme vyřešit.

Ona bude čím dál tím autonomnější.

V tuhle chvíli jí používáme

v takovým tom dialogovém modu hlavně.

Čili ten člověk

je uvnit smičky

rozhodovací,

která

ve který všechno probíhá, všechno te rozhodnutí.

Čili odpovědnost je na něm.

Tam je to jednoduchý.

Jak mělo toho člověka vyhodíš ven ze smičky,

uděláš s celá autonomní činos

nějakého programu, nebo robota,

když musíš mít právně všetřený.

Či roboty budou uzavírat

nějaký transakce mezi sebou.

To taky musí být nějak.

Tohle všechno bude muset být,

jinak z toho bude

zákon džungle

a právo silnějšího,

a to není dobře.

Rychlá anketní otázka,

jak vás tady tak sledu a poslucham,

nemáte trá.

Nebojte si, že přijdete v opráce,

že přijete v bodžob, kůli uměle inteligenci.

Předře.

jsem si tím jist,

že přijdu o tu náplň práce,

kterou teď mám.

Neby myslí se toho bojím,

nebo nebojím to nějak,

každou chvilku jinak se na to dívám

po té emocionální stěnce.

Ale

někdy se na to těším, někdy mi to dělá stéros.

Ale

rozumovuje jsem si naprosto jist,

že konkrétně zmýnáplně práce

jináleře, nezbyde kámen na kameni.

Jo, myslím si,

že to bude tak, že ještě letos

budu přát články,

kde uměl inteligence

bude spolu autorem, příští rok

budu já jejím spolu autorem

a

já to ne říkám jako vtip tohle,

a za dve roky

bude přovat místo mě.

A já si budu,

jestli budu chtít být užitačný,

jinak teda podatíkám, že já za té dve roky

mě se to říká snadno.

Ale zapomeňme teď

na tohle to.

A jestli budu za té dve roky chtít být užitačný,

tak si budu muset najít nějakou jinou

náplň práce, ve který budu přispívat

užitačně k tomu,

co ta automatika bude dělat.

Protože to, co

zmizí de facto ze světa,

to je naprosto jasné už teď.

To je netvůrčí duševní práce.

Proto jsem na začátku říkal

to přirvnání k tomu pernímu stroji.

A

my budeme se ještě děvit,

co všechno je netvůrčí

duševní práce.

Píško, počkej, já jsem jen pokraču,

a mluvám se v tý ankytní otáz,

když pokraču je dál, tím to smírem do publika.

Pardon, tak moc jsem se rozpovídal,

ale tohle je odpověď.

Já jsem přesvědčen, že z mým práce

nesběde nic. A potíle depresivní odpověď

můžete zvednout ruku, kteří si myslíte,

že skončíte na pracáku kvůli AI?

To jsou filmaři asi.

Do podkáztu velmi málo rukou

je ve vzduchu.

Počkej, ale je pro mě, a tady znamy

to díky, která dál ve fitku, ty máš poceđ,

že...

Vždyš mi říct, jak?

Moje práce je trenéřina.

A za původ s vům jen inteligence

ty si můžeš velmi snadnozisti,

co je pro to je vhodný na základně

jakýchto stupních parametrů.

Takže je trenéř.

Je trenéř, nekreativní,

když to můžete, prostě odjdeme,

by jsme se tu bavili o těch

těmnějších stránkách toho, co může

příc AI. Zajímájí mi, poďme to

otočit, poďme to vyvážit.

Výtku můžu jenom po známku, to,

že přídeme operáci, to vôbec nemusí

být těmnější stránka.

Pro tebe možná, ne, protože tež do důchodu,

že...

Já nejdu ještě do důchodu. Já taky ne.

My půjdem asi tak 77 do důchodu,

takže...

No, pro mi...

Já jsem chtěl říct, že už jak si formulouval

prohodně lidí jako děsivý, ale

jako myslím si, že

bude potřeba...

Tak zdařile.

Jako rekvalifikace

a to, jaký nejsme schopný,

zajistě dostatečně rychlé, hlavně pro

lidi na níších pozicích, na

manuálních pracech, jako když to bylo

v době nějaký masivní automatyzace,

tak je jedna z největších rozeb, ale

často se prostě mluví v nějakých

styficénářích o vraždících robotech,

ale přitom to, že se státy nedokážou

potatovat na to, aby pomohli lidem

změnit jejich jako pracovní schopnosti

a záběr a to, čemu se věnou,

aby nebyli na pracáku, ale byli jinde

a měli práci, která je třeba bezpečnější

a jako s tím

víc stimulační, nebo jak to říct,

tak to bude největší otázka a to, na co by

jsme se měli zaměřit.

Dobře, Tomáši.

Třeba se začné, jak je používat na pracáku právě,

aby lidem doporučovala zadímavější práce.

Ještě a byli by příjemnější tam.

Ještě než poduk těm pozitivům.

To mě fakt zajímá, Tomáši, když jste pracoval

na to, na čem jste pracoval

a to nebudu pojmenovat, pojmenovat o špatně.

Tu všil jste a věděl jste

a vypořádával jste se třeba nějak s tím,

že jste součástí něčeho, co takhle nejspíš

o vlivní lidstvo, co jako

vezme lidem práci, i když

ať už to znamená nic pozitivního, nevergativního.

Věděl jste, co děláte, blbě řečeno?

No jasně, že jsem to věděl.

A jaký to bylo, to věděl?

Spíšte, že koneň vám to blbí?

Nechte mě to zodpovidit.

Mě to přišle.

Super zajímavá věc

celkem nejenom pro mě,

ale vlastně pro lidstvo.

Můžete tady zaznilo trošku to možná zapadlo.

Můžete jít ten trošku pesimističnější

pohlad na rozvoj evoluce technologii.

Já jsem to viděl vlastně

vždycky hodně podobně

o věclové revoluce tady vzniká.

Já bych neřekl úplně eksponenciálně

velmi rychle tady vznikají.

Technologie on ten eksponenciální růsto těžně

trošku přehná neji, to bychom

vyráběli toho milionkrát víc v m3 let.

Ale jako ten růst technologie

každopádně velmi rychle je

si kvadraticky nebo to to už nechme stranu.

Nechme, prosím.

Ale ten rozvoj jako člověka

jako ten vlastně vychází

možná řekněme zjednu dušně

ze dvou věcí evoluce

která je fakt mnohem pomalejší

tak tam to pak bude vypadat hodně linearně

třeba, kde bych ovedlo příklad

my jako jsme vybavení evolucí

že máme smysly

a když do něčeho kůvsem do nějaké ovoce

ono je to hořký, tak myslíme, že to bude jerovatý

tak to teda nesníme.

Ale když teď vyprodukojíme látky

které tedy vzduchu nikdy nebyly

tak my je tím nosem necítíme, když jsou jerovatý

protože prostě ta e-luce neměla čas

aby nás na to zadaptovalo.

Takže to jenom k té biologické evolucy

pak tady máme nějakou sociální evolucy

kde jako naše skopnosti

se vlastně zlepšují možná

v nějakým slova smyslu

samozřejmě, že tady jsou pesimistické názory

že když se podíjáme na proměnu inteligenci dnes

a nikde v antickým ředsku

tak to taky nevypadat dneska s námi úplně jako růžově

ale to po nechme stranu

můžeme říct, že vlastně my se zlepšujeme

pokud se zlepšujeme tak relativně pomalo

jako lidi, zatím co ta technologie

i skopnosti technologí jí jdou strašně rychle do předu

a my vlastně ani nemáme dost

času bym to našeho života

abychom vůbec obsáli

i jako malý zlomek toho co lidstvoví

jo, třeba když byli tějde nezanštní lidi

jako já nejde Leonardo da Vinci

to mohli být experti třeba na 3 vědní obory

dneska, když já jsem třeba expert

na umělou inteligenci

tak zase to je brz tě

oblast matematiky, pak sto má

malou části computer science, to jsou ty počteční vědy

sto malá části umělá inteligenci

sto malá část, jsou neuronový sítě, sto malá část

sutřeba nějaký jazykový modely

a rekordentní sítě, tak co já vlastně vím

z toho jako vědění lidstva

je to 0,001%

jako informací, tady vlastně strašně málo

a tady ta fragmentace těch našich znalstí

bude pokračovat a to k čemu se dostává

a to můžu nádpovídá na to následovití otázku

i to jsou ty příležitosti a procento

vlastně celý dělal, protože pokud to

bude pokračovat, tak my jako lidstvo

budeme žít čím dál v cizím světě,

budeme obklopení věcma, kterým vlastně

nikdo v podstatě nerezumí, budou strašně

komplikovaný, strašně užitečný,

nebudou nahradit, ale

budou dělat něco, kde my nebudeme

chápat jejich dlouhodový důsledky

a já nevím, tady máme takový klasický

příkladystě na atomovýma zbranima

s ozónovou dírou, kdy jsme tady jako lidstvo

vytvořili nějakou technologii

i s těma dobrýma umysloma a pak nás to začalo

ohorožovat, kde jsme se tomu teda nějak vyhnuli,

ale jako už v tom životním vlastředí

se třichá hromadí jako hromada

a chemikálí a my nevíme, co to tady

v děláky mikroplasty za sto let

v vodě, myslíme si, že tak nějak

jako si s tím poradíme, ale

vlastně ty regulace často následují

třeba ten chemický promiso, až když

už je skoro jako pozdě a možnáš jedno pozdě

bude, tak to bude problém. A teď

zpátky, který uměl inteligenci, já si myslím,

pokud jako lidsstvo máme přežít,

ty technologie nezabrzdíme, nezpomalíme

ekonomicku, to nedává zmysl. My

něco přestaneme vyrávě, tak to budou

vyrávět v Indii nebo v Čině, prostě

takhle ten svět funguje, takže my

jestli máme jako lidsstvo přežít, tak si myslím,

že právě ty naše schopnosti

vypořádat s tím světem

musí růst stejně rychle jako

kompleksita světa. A tady jediná možnost

pro mě jako v tom uvažování, a to už

je zpátky jako desítky led do minulosti,

tak byla, že pokud my

se dokážeme propojit s tou technologii,

tak aby ty naše

schopnosti se rozvíjeli stejně rychle

jako schopnosti technologie,

tak přežijeme, pokud nezvládneme,

tak vyhyneme.

A zase umělá inteligenci právě

do naše napojení, aby my

jsme dokázali zpracovat ponávíc

informací, aby jsme byli chytřejší,

které vymyšlí samozřejmě jako

Elon a spol takový science fiction

věci typu jako nějaký neuralink,

že my budeme provázani

zpočít větším přes nějaký interfejs

přímo jako s moskem, to je pořád

velký science fiction, ale myslím si,

že právě ta umělá inteligenci se s tím,

že by nebyl to pro nás soupeř,

ale byla by to naše součást.

Takže vlastně ten člověk budoucnosti

pro mě nějaký kiborak, což už tak trochu

jsme už, když jezdí v autech

a tak dál, tak už vlastně

tu technologie, ta je už vlastně součást,

my už vytváříme takový ty větší systémy.

Když vlastně naše součást

tak právě budeme skopni řešit

ty problémy, které pro nás jsou dnes

čím dál tím víc ložitější.

Zvládne jsme to.

Počkej, když se dostanem k vyhynutí

všemosti z toho, my vždyš když dál...

Proto mě... Pardon,

je to beznodoká, že mluvit, jak jsem se snažil

vás posluchat, by máte vám

vás prout myšlenek je fascinující. A to nedýchání,

můžem, že jste potápět, či neběste měl být

ale mrkál, já jsem koukala.

Mrkál, ale nedýchal.

Moje otázka zní

jakých oblastí lidského života

se uměla inteligence nikdy nedotkne?

A tak milčíte.

Já jsem se obával, že použiješ to slovo nikdy.

Jak měl jeho tam dáš, tak

na to skrvenení odpověď.

Dobře, tak pravděpodobně.

Jaké oddělej to nikdy?

Můžeme se dohodnout

na tom v nejbližších 50 letech

Dobře.

Tak já si myslím,

že v nejbližších 50 letech

to nebude ekonomicky dávat smysl.

Především

u činností, kterým bych

říkal použetí chytrých rukou.

Typické příklad je

třeba práce kaderžnice.

Jo, jako asi se dá

už teď postavit robot, který

tě ho lí javostříhá.

Ale za prvý

bude neskutečně drahé,

když to bude mět dělat dobře.

Zadrví ty nebudeš mít chud,

se musí věřit, protože

špičková technologie, která

brytvou a nůžkama

šermuje centry metrů

tvého obliče, možná

není úplně to, o co stojíš.

Řekl bych, řekl bych,

že spousta takových činností,

na který potrebuješ

které přemýšlivé ruce,

které

v první si půsi cejdou

automatizovat, ale nikdo se do toho

nepohrne, protože to nepude

obchodně ekonomicky dávat smyslu.

Takže to jsou podle mě

bezpečný činnosti.

A jako obecně

hodně manuální práce

asi je velice dobře

chráněno před automatizací

ekonomickým argumentem

nikoli technologickým argumentem.

A v děporobnosti

manuální profesé.

Já bych ještě k tady těm činnostem

přidala všechny pečující

pozice,

protože nebo to říká

vždycky můj šef, tak ho tady ocitu.

Michal Piechouček

vždycky změňoval, že

roboti nebo různí jako asistenční pracovníci

i ty, co používají ruce

s cené z nůžkami, ale třeba z jinými

nástroji, tak budou v nemocnicích,

ale budou pro lidi,

který se nemohou dovolit

lidskou péči, protože pořád ten luxus

bude to, že můžeme mít někoho,

kdo z kogo cítíme

nějakou vřelost, empaty,

lásku, zájem a tohle to se stane

vlastně jako luxusní komodytou

v budoucnosti a myslím si, že

v příštích 50 letech to tak lidně může

být. Empaty jako luxusní

komodyte z nějako nejhorší dystopie, co jsem

děžil tě slyšel. Kapitalizmus

v prakce jsou mnou telegenci. Tomáši,

ne? No

v 50 letech strašně dlouho,

když se podíváme dominulosti, co dlou před 50 lety

a ne, nefekto

nebude dlouhý, protože já proto nemám

odpověď. Jako před

50 lety, jak vypadal svět, jak tady vypadali

ty technologie, dokázal by před 50 lety

někdo predikovat, jak to bude vypadat

nes a nedokázal, tak když to chcete

hodně stručně, tak nevím.

Dobře.

Nice. Já se ještě

zeptávam na toho násku, kterou jsem nestil položit

a poprosím vás každýho lokadku odpověď

v jaké oblasti, no, vy už jste vlastně

další odpověď, takže doberí klidně nemusíte.

Ale

mluvíte hezky.

Jaké oblasti teď, a nebo vklidně

v budoucnu, bude

jako jednoznačně pozitivně, chci vyvážit,

jak se to, jak se tady bavíme všechny hrůza,

který nás čekají, tak co pozitivního

může přinezt, nebo přináší

100% EI, jak to být.

Zlikvirujeme tvůrčí duševní práci

a tím nám, kdo jí děláme

a to jsme skrub všichni,

jo, zamyslete se nad tím,

to jsme skrub všichni.

Dá možnost

dělat něco lepšího,

chytřejšího a produktivnějšího.

Co to bude to, nevím,

ale otvírá se nám

tahle ta možnost a mě libychom

sývážit.

Karolino, ještě stejná táska.

Mně se líbý tendence na

využití umělý inteligence

kromatické krize

eliminace fosilních paliv

musí zakročit někdo jiný,

ale například monitorování zvěře

pro měn vegetace a podobně.

Tak tam vidím hodně nadě

a myslím si, že i lidina a foby

tohle ten směr mohl zajímat

a potom ta personalizovaná medicíná

a dostupnost vlastně zdravotným péče

i tam, kde sítit nemužou dovolit

a potom do třetice

inovace.

A poslední sada otázek od EI, kterou jsme

třetí rubryka,

rychlé ve stresu je to poslední otázka

a poslední minutu.

Má EI právo na vzdělání a učení se.

Tomáši.

Tak asi jo.

Že ano, Karolino?

Ano.

Má EI právo na vlastní kultur

umění a krátivitu?

Jo.

Tak asi taky.

Ano.

Má poslední otázka.

Má poslední otázka

s edekový jako zvláštní.

My myslíme, nevymysleli.

Vy nám chcete ukázat,

že jste pořád potřeba.

A má poslední otázka

má EI právo na účast na

společenském a politickém životě?

Karolino.

Tak jako džedevo ty právo,

tak bych je dávala všem, takže ano.

Ano.

Ano.

Jo, bude nějaká legrace.

Děkujeme vám.

Jsem, že tím, že bude nějaká legrace,

bychom mohli ukončit

tento dílo uměle inteligenci.

Děkujeme vám, že jste se zapojili do dnešní debaty

studio N, kterou natáčíme na AFO.

Jak jste si všimli, já to říkám těm, co to posluchají.

Byli tu s námi PR-managerka

EI Centra ČV,

UTI Karolí Napoliakovámo. Děkujeme.

Děkujeme.

Vědec v oboru uměle inteligenci

a potapě čtohodeticky Tomáš Mikolov.

A vědecký redaktor Deníkujen Petr Koupsky.

Díky Petr Koupsky.

A děkujeme taky všem vám,

kteří jste přešle jsem do divadelního sálu

konviktu na univerzdě palackého,

díky, že jste tady s náma věteřili hodinu a půl,

když jste tady trošku dusili

i vás tady hodně díky moza to.

Nějte se hezky.

A naslišenou zítra.

Super.

Ať už v monolozích ústících dopícní

nebo s cénách hraničících s koncertem

v centru nové incenace divadla husa na provázku

stanou hrdinky všedního dne.

Hrdinky.

Premírat 19. května.

Ržie.

Hrdinky jsou ženy, kterým chceme vzdát holp.

Machine-generated transcript that may contain inaccuracies.

V oblasti technologií teď nenajdeme téma tak dominantní jako umělá inteligence. Jak moc inteligentní vlastně je? Co přinese lidstvu? Co mu vezme? A jsme opravdu svědky technologického zlomu? O tom v podcastu debatují vědec Tomáš Mikolov, novinář Petr Koubský a PR manažerka AI centra ČVUT Karolína Poliaková. Moderují Filip Titlbach a Vítek Svoboda.