Forklart: Kan kunstig intelligens bli … dummere?

Aftenposten Aftenposten 8/7/23 - 18m - PDF Transcript

Om du er som meg, så har du fulgt godt med på kunstintligens og blitt både gire og begeisteret over hvor vantig bra det er blitt på veldig kort tid.

Og dette har meg forklart laget mange episoder om allerede, gjennom bryddet kom i en periode næsten daglig, der virket altså ustoppelig.

Da var det både spennende og litt urovekkende, men nå har jeg et nytt spørsmål dukket opp.

Er kunstintligens rett og slett på vei til å bli litt dummare?

Ja, flere har begynt å lure på det, og nå har vi fått resultater som viser faktisk at spørsmålene som chatgapet har blitt litt dårligere.

Du hører på forklart fra Aftenposten en podcast, der man forklarer en nyhet i hver episode.

I dag har kunstintligens allerede Nordtoppen.

Det er mandag 20. august, og eg heiter Anders Weberk.

P. Christian Bjørking er Aftenpostens K.I.-expert, og han er heldig nok til å forbruke en del tid på å bli kjent med korleis dessa språkmodellerne som chatgapet, bing og bard egentlig fungerer.

Jobben min er å følge med på hvordan disse her språkmodellerne utvikler seg, og hvordan de påvikler oss.

Dette feltet er det mest spennende som skjer i teknologins verden.

Men i tillegg til at jeg skal skrive om dette er selv en aktiv bruker, fordi jeg tror at jeg selv må bruke det for å forstå hva problemene og muligheten er.

Og en av det tinget han har brukt chatgapet til en del allerede er språkvask.

Helt enkelt så tar han en tekst som man er sånn passe fornøyd med, så mat han heile greier inn i chatgapet, og slik for han hjelper meg å korte ned litt, gjør å språke enklare, mer snappig og så videre.

Det å skrive både enkelt, korrekt og tydelig, det er jo virkelig en kunst som er mye mer krevne enn mange kanskje er klar over.

Og jeg tenkte at det å få hjelp til det, og så for meg, det burde være mulig med den kompetansen som GPT4 har da,

og så jeg utvikler en struks som skulle få den til å gjøre det for meg.

Du er en forsiktig og nøyaktig ekspert som vaskespråk.

Du rydder bort både skrivefeil og grammatiske feil, når ord og settninger opplagt der overflød det, skjærer du dem vekk.

Men ellers er du veldig forsiktig.

Ja, du skjønner greier, og instruksen var lang, og dette her da funket av veldig fint.

Tekstene kom tilbake ryddigere, kortere, altså rett og slett bedre.

Men så oppdager Kristian et problem.

Det slutter faktisk å forbedre språket over nattet,

og i stedet begynt den bare å rette helt klare feil.

Og det som du uansett kan ta med retteprogrammer og sånt, det er ikke det jeg var ute etter,

det jeg ville ha var mye mer revanseret, ting som forbedringer grammatikk,

bedre ordvalg, kanskje litt kortere, aktivt språk og så videre.

Og det som var som virkelig, det var jo at det hadde jo virket før,

og vi har vant til at teknologien bare skal bli bedre, og ikke dårligere.

Så hva betyr det her?

Det er jo litt vanskelig å si helt sikkert, men det fikk meg til å lure på hvor forutsigbart

egentlig dette med kunstig intelligens er i dag,

og om det er stabilt nok til at folk kan bruke det proft i hverdagen sin,

sånn som jeg var ute etter her da.

Og det viser seg ganske kjapt at P. Christian, han er ikke den eneste som har merket seg dette her.

Forskare ved Stanford og Berkeley, to universitet i USA,

har også lurt på akkurat det samme,

og de er ikke hvem som helst,

disse her har helt unik tilgang til modellerne,

og er i spissen av fagfeltet.

Der det gjorde, var ganske enkelt.

De testet rett og slett hvor god den nye versjonen av ChatGPT,

altså den vi kaller GPT4,

var til å løse ulike matteoppgaver, svaret på spørsmål og lignande.

Og så sammenliggner de med GPT3.5, altså den gamle modelen.

Og de fant altså en voldsom nedgang i prestasjon på enkeltesvar.

På noen ting, spesielt mattespørsmål,

så var den gamle utgaven faktisk bedre enn også denne GPT4,

som man har snakket om, så er best på alt, ikke sant?

Men kolde jeg se, denne her studien ble tatt imot da?

Ja, det var veldig mange som kom sånn.

Ja, det er tydelig at veldig mange ser det som en bekreftelse

på sin egen subjektive opplevelse.

Men det er også vanlig at når man snakker om denne studien,

så glemmer man det at GPT4 faktisk var noe bedre

på to av de fire testene som den tok da.

For det som skjedde faktisk,

det var at den ble veldig mye dårligere på to tester

og litt bedre på de to andre testene.

Så da de gjorde det, da var det ganske enkelt.

Da de tester etter slett hvor god den nyeste versjonen av chat GPT,

altså den som kalles GPT4,

var til å løse ulike matteoppgave, spørsmål og andre oppgave.

Og så sammenliggner de resultatet i,

med da GPT3.5 fikk til, altså den gamle modelen.

Så oppen av i cellet som står bak,

de har sagt at de ikke opplever en nedgang i ydelsen totalt sett,

men at den uttrykker seg ulike på ulike felter.

Men likavall, så viser det seg jo at det er sånn at chat GPT

faktisk blir ikke mye, kanskje men litt dummere med tiden.

Og da finnes aldri det mange teori om hva før det er sånn.

Ein av deg, saje at det er vår feil.

Følte Grøndedrømmen

Etter 13 år som pilot, hoppet Kristine Lorang bokstav litt alt inn.

Følte Grøndedrømmen og startet bastuppedriften Kuk Oslo,

og i dag kan hun skilte med 9 bastur og 32 ansatte.

Reinskap er ikke det jeg er best på, så for meg er det opplagt at vi skal hjelpe her.

Vi har en reinskapsfører som forstår vår bransje

og de hjelper oss å ta i bruk automatiseringen

og alle de smarte løsningen som finnes i reinskapsprogrammet TripleTex.

Vi har brukt TripleTex inn oppstart og kan genuint anbefale det til andre.

Nå kan du prøve det veldig fleksible reinskapsprogrammet TripleTex gratis i 14 dager

på TripleTex enn å gratis.

Dette spørsmålet, altså bli chat GPT dummere,

ligge fortsatt her og dyrra.

Er det hele tatt mulig?

Når hele poenget er at maskin trener seg på masse, masse data

og slikset bare blir bedre og bedre,

og når så mange mennesker også er innom å trene modelene enda mer,

hvordan kan det i hele tatt gå baklengs da?

Faktisk så er det en del teorier om hva forutviklingen av slike språkmodeller

kan gå litt baklengs.

En av de handler om kravet om at det skal bli raskere og billigere

for å nå ut til fleire,

men da kan en miste litt av tankerkraften på vegen.

Og en annen teori er at det er vår feil.

Ja, altså, faktisk kan det være vår feil.

Du kan sammenligne GPT da med en ufattelig kunnskapsrik kokk

i starten som må kokke en utdannes.

Og i denne utdannningsfasen da, når den trener på all verdens tekster,

da trener kokkene seg opp til å gjennkjenne alle smaker og nyanser

i hvordan de forskjellige ingrediensene spiller sammen i kunnskapen vår.

Når den treningen er ferdig, har du en såkalt basismodell.

Og etter denne basistrenninga,

da kan du få GPT til å lage helt fantastiske og kreative retter.

Problemet er at denne kokken, den hakker skjønt at henn,

for å si det, faktisk skal drive restaurang.

Henn skal gjøre brukene fornøyd,

og ikke få gifte maten eller lage vondetting, bare for mor og skyll.

Dette som har skjedd da når pratebottene har blitt sånne gifte

å producere skadelig, når den klarer ikke å skylle ut,

at den er jo trent på en masse dritt fra internet for å si sånn,

og producerer også det i svarene sine.

Og det må unngås.

Så når vi trener opp chatGPT på driverestaurant for å si sånn,

og lager et produkt, da er vi gjestene i restaurangen.

Og det vi gjør da, vi gir egentlig bare tommel opp og tommelen ned,

egentlig bare om vi kommer tilbake eller ikke.

På den måten skal vi si for å ikke bli forgift.

Men dette er veldig vanskelig for kokken å lære så mye av.

Mye vanskelig det, enn å lære seg alle nyangstene mellom ingredienser i mat.

Så med andre ord, en ny utdannet GPT.

En kreativ kok, som alt henger sammen,

men over tid blir de mer opptatt av å unngå og forgifte å kunne,

altså å unngå en sånn tommel ned,

og sånn skal det enda opp med et ofte helt greit resultat.

Ja, det er rett og sett vanskelig for den å fange opp nyangstene.

Så hvis du trener for mye på tommel opp og tommel ned,

så ender du gjerne opp med enklere løsninger,

og selvfølgelig rettene som du egentlig utdater,

blikker like velsmakerne og fantastisk rett og sett.

En annen utvikling som har skjedd er at modelene er ble gjort mindre skråsikre.

Det var vanlig i stund å se et kjett GPT-fantpotting helt uten å ta noen forbehold,

og da er noen ser mindre av i de nyeste modelene.

Men da kan samtidig gjøre at noen som faktisk var veldig smart,

blir kutt av vekk i frykt for at det egentlig er feil.

Det vi ser her er faktisk en begrensning.

På ulike vis kan denne menneskelige treningen redusere prestasjonen,

eller få et kjett GPT å bli litt dummer.

Vi kan ikke både få noe som er suverient hjelp somt,

og samtidig maksimalt harmløst og utrolig smart.

I hvert fall enn så lenge.

Så finnes det også litt mer kallakomiske teorier om at det er innavl som er problemet her.

Og da er omtrent like underle som det høres ut.

Tanken der er at siden bruken av kjett GPT har eksplodert så voldsomt de siste månene,

så er det blitt laget så mye koi genererte tekster og bilder

at det nå blir brukt til å trene modellen via det.

Og dermed blir det litt og litt utvannet,

litt som folk og generasjoner når den ikke utvidder tilfang av nye gener.

Pekristian, er noe å holde i en sånn teori?

Nei, det har ikke jeg selv litt tro på.

Fordi rett og stedt at sånn som GPT-4, den er jo ikke trennt på nytt materiale,

materiale, treningsmateriale.

Det er noe som den får i utdannningsfasen,

og vi ser jo selv at den svaret at den har ikke svar etter 2021.

Så det faller jo på sneden urimmeligt at det som har skjedd da det siste halvåret

og blitt produsert av GPT-4 skal være noe problem.

Så den store mengden k-generert innehold har ingen effekt på de modellerne

som en kan bruke i dag,

den teorien kan egentlig bare avskriva meg en gang.

Alt i alt så kan vi ikke si helt sikkert

hva som gjør at chat-GPT føles litt dummere noe enn før,

men at det skjer, da er det sikkert.

Pekristian, hva sa jeg åpen deg selv til dette her?

Jeg synes jo det er litt kritikkverdig at de sier så lite.

Dette har vært det som veldig mange noe hundre vi som ljoner av menneske bruker

og gjør seg egentlig i ganske raskt avhengig av,

så vet vi veldig lite om hva de egentlig gjør med dem,

og det kommer plutselig oppdateringer som skaper endringer.

Heldigvis har det da tatt til salg,

det er det litt av den kritikken,

og sier at det skal være mulig å bruke eldre modeller,

for eksempel som ikke blir oppdaterert,

sånn at man ikke skal være like i redda for at det skal bli dårligere avsikt.

Da vi ser noe, kjemmer faktisk ikke som lyn ifra å klare himmel.

Et stort team av forskere fra Microsoft,

som også ligger langt fremme på dette feltet,

evoluerte nemlig GPT4 før de ble offentlig.

Da såg de at minst treningen med tommel opp og tommel ned på gikk,

så blei-modellen ikke bære meier hjelp som,

men også litt dummere.

Per Christian, hva betyr egentlig alt dette her?

Ja, det er jo egentlig to ting da vi må se på

når det gjelder en ytelsen.

Det ene er intelligens på den eneste siden,

og så er det hjelp somhet på den andre.

Det ser ut å være en motsetning mellom de to.

Altså, du kan ikke øke begge dere like mye.

Det er faktisk viktig at disse modellerne er hjelp som med å

ikke producere sånne gifte eller falske svar,

men så ser det ut at de går utover hvor smarte de er.

Så det som gjelder fremmever er egentlig å finne balansen mellom de to.

Så utviklingen går fortsatt fremme ved?

Ja, det gjør jo det.

Det ser ut at vi nå kan nå ha en grense for hvor bra akkurat GPT4 kan bli,

men det vi kommer nye modeller,

så vi vet jo at Google, som er konkurenten,

sin store model G-meni, den står nå og trener,

og når den kommer, og kanskje når GPT5 kommer,

så deles kortene ut på nytt, og vi kan se nye fremskridt.

Du har hørt en podkast fra Aftenposten, og det var Per Christian Bjørkeng,

som forklarte deg, hva før chat GPT føles litt dummare nå enn før.

Denne episoden er laget av Jenny Føleland og meg Anders Weberg,

og resten av forklart er synesø-hållig,

og det har vært noe som gjør det.

Denne episoden er laget av Jenny Føleland og meg Anders Weberg,

og resten av forklart er synesø-håll,

Ola Vegesvik og Fridanes Nånsta.

I denne episoden har du hørt litt lyd fra BBC, CNN og Fox News.

Det finnes spørsmål som ikke er så enkel å guble seg frem til,

typ renta hvorfor mådenen absolutt godkopp opp,

altså finnes det ingen andre løsninger.

Og hva skjer med oss og samfunnet når vi verberer og rate hverandre hele tiden?

Og hvorfor straffer vi folk til fengsel,

selv om de ikke gjorde med vilje, som han vaktchefen på Fregatten Helge Insta?

Hva er poenget?

Jeg heter Marie Terikstativ Gjelland,

og i poddkassen dit dykk nær det er kollegaen mine på tema som formet tida vi lever i.

Næst fordi vi er genuint nysjærige og fant inn en god svar da vi juggler,

men også for å gi deg en helt ny innsikk og ta meg til bordet neste vennepils.

Kjekk ut dyptikk i aftenpostenappen eller hos Podny.

Ny sesong kjem onsdag 23. august.

Machine-generated transcript that may contain inaccuracies.

Kunstig intelligens blir stadig bedre. Men nærmest over natten skjedde det noe. Er den blitt dummere? Med teknologijournalist Per Kristian Bjørkeng.