DS Vandaag: Bonus: Radar. Wordt de volgende hit gemaakt door een robot?

De Standaard De Standaard 4/2/23 - Episode Page - 25m - PDF Transcript

Welkom. Je hebt één nieuw bericht.

Hey, Kaja, het is Nick hier.

Ik heb de nieuwe plaats van Jasper Erkes gehoord

en daarop wilde je interessante dingen met artificiele intelligentie.

Ik zou ze graag laten horen en ik ga Jasper meenemen ook.

Ik ben Kaja Verbeke en van de standaard is dit Radar.

Je wekelijkse cultuurpodcast.

Radar.

Radar.

Radar.

Luister even heel goed.

Wat hebben de volgende liedjes met elkaar gemeen?

Dus dit.

Met dit.

I don't need it.

En dit.

Wel, ze zijn gemaakt door dezelfde artiest.

En ja, het zijn dan misschien wel verschillende genres.

Het is de artiest van de toekomst.

Een robot.

Want ja, je hebt het waarschijnlijk wel adoren.

Er is een revolutie-gaande, een AI-revolutie.

Artificiele intelligentie kruipt binnen in onze teksten en beelden

en nu dus ook in onze muziek.

Artificiele intelligentie.

Jasper Erkes, die je vast nog kent van...

I've been waiting like a dog now. And this don't make me crazy.

Up on the melody, up burst gravity.

Experimenteer er mee op zijn nieuwe plaat.

I can't keep foolin' around.

En daarom bracht muziekredacteur Niek De Leuwe mee naar onze studio.

Welkom bij Radar.

Radar.

Radar.

Radar.

Dag, Nick en Jasper.

We gaan het dus hebben over AI,

want dat wordt steeds meer deel van ons leven.

Hebben jullie al AI gebruikt,

bijvoorbeeld om een artikel te schrijven, Nick, of...

Ja, ik heb een CTBT nog niet gebruikt om iets in de krant te kunnen zetten,

maar ik heb wel eens geëxperimenteerd met wat het zou kunnen doen.

En ja, je merkt wel dat die machine heel erg goed weet

hoe een krant een artikel in elkaar zit.

Je moet er gewoon op gaan.

Je moet bijschrijven dat dat in de stijl van een krant een artikel moet zijn.

En dan krijg je wel iets dat alle elementen bevatten.

Ja, en jij, Jasper? Jij hebt er al uitvoerig mee geëxperimenteerd.

Ja, ik was iets minder getriggerd door ChatGPT,

up until now.

Maar misschien had dat met GPT-4, misschien gaat het veranderen.

I don't know.

Maar ik heb wel AI gebruikt om muziek en visuals mee te genereren.

Ja.

Maar hoe gaat dat dan eigenlijk?

Op vlak van muziek,

is een beetje de tool waar momenteel het meest naar uitgekeken wordt.

Die komt uit de stal van Google, die heet MusicLM.

We hebben daar in het verledende bits- en atomenpodcast ook al over gepraat.

En daar kan je zoals bij ChatGPT of bij Dali gewoon een zin in typen

met een heel specifieke beschrijving van hoe je wilt dat iets klinkt.

En als je dan klikt op genereren, dan komt er een resultaat.

Momenteel is het nog niet toegankelijk voor het brede publiek.

Het zijn enkele de ontwikkelaars van Google die al gezegd hebben

dit is wat wij ermee kunnen doen.

En ze hebben dan een aantal voorbeelden gegenereerd.

Een van de dingen die ze in de machine gestoken hadden was

we willen graag een R&B-song met een mannelijke vocal

die rappt en een vrouwelijke vocal die zingt.

De beat moet bestaan uit een piano

die ook een elektronische drum backing heeft.

De sfeer van het nummer moet speels en energiek zijn.

En we moeten het nummer kunnen gebruiken in de soundtrack

van een soort van high school drama-film of een tv-show.

En het moet ook kunnen afgeluiden.

Op verjaardagsfeestjes of op strandfeestjes.

Dus een behoorlijk specifieke instructie.

En het resultaat dat er dan zou uitkomen

volgens die ingeëurs van Google klinkt dan als volgende.

Ja, dat klinkt net, echt?

Maar ik begrijp wel niet wat ze zingen.

Ja, de generatie van tekst is behoorlijk moeilijk nog altijd.

Dus ik denk ook niet dat Engelse woorden zijn die ze zingen.

Misschien zit er af en toe eentje tussen.

Het klinkt momenteel een beetje zoals de taaltje

van de personages in The Sims in de videogame.

Maar ik vind het vooral de manier waarop die muziek klinkt.

Die beat, dat klinkt gewoon als een hippo beat eigenlijk

of vrij erkennbaar toch?

En dat is dus volledig gegenereerd door technologie.

Dat is wat ingeëurs van Google zeggen, dat er gebeurt, ja.

Inderdaad, we kunnen dat momenteel nog niet zelf uitproberen.

Maar ja, dat is het verhaal van hoe die app werkt.

Elke wat belangrijk om even te zeggen, dat het genereert geen media.

Het genereert niet een soort van de timings

waar je zelf je samples op kan plaatsen ofzo.

Het is effectief de audio, de hele mix.

Het is eigenlijk zo van ready to go.

En afgewerkt, nu maar.

Het is eigenlijk helemaal afgewerkt.

En ik volgens mij kan je dan ook in conversatie gaan

en zeggen, die vocals mogen iets luider ofzo.

En dan krijg je dat volgens mij ook terug.

Maar je krijgt eigenlijk een ready product in audio, in WAV-versie.

En dat is wel ongezien.

Dat is ook de grote stap vooruit,

vergelijken met waar we tot dus ver al stonden met AI in de muziekproductie.

Want het is op zich geen compleet nieuw gegeven.

Muziekanten zijn al langer bezig met experimenteren,

met computers, met machine learning, met audio generatie op die manier.

Ik denk, halverwege de jaren 2010,

lanceerde ook Google al een applicatie die magenta heten,

waarmee je ook kan experimenteren met dingen laten genereren.

Alleen moet je daar wel nog een stukje voor kunnen programmeren.

Je moet de muziek waarmee je dat programma dingen aanleert,

die moet je in een heel specifiek format zetten.

Als je daar instructies aan geeft,

moet je die inderdaad ook heel specifiek gaan geven.

En vooral het resultaat dat eruit komt, zoals Jasper daar net aan haalde,

dat is nog geen midi.

Dus dat is een soort van elektronische partituur bijna.

Het klinkt nog niet als muziek als het eruit komt.

Je kan die dan achteraf gaan omzetten naar iets dat klinkt als muziek,

maar er zijn nog heel veel stappen nodig voordat het zo klinkt.

Om het idee te geven van wat dat eigenlijk is,

zo'n midi file of hoe we dat kunnen voorstellen,

daarvoor heb ik even gebabbeld met Brecht de Man,

die werkt bij de PXL Music, de zo'n school waar je muziek kan studeren.

Hij is daar hoofdonderzoeker

en hij werkt daar ook al een tijdje aan een project rond muziek en AI.

En dan kan je in midi bijvoorbeeld een stuk van Beethoven gaan programmeren

en dan klinkt dat dan zo.

Ja, het Fredeslied.

Ja, oké, dat is gegenereerd dan...

Nee, dat is het origineel.

Dat hebben ze kunnen voeden aan Magenta.

Hebben ze gezegd van, kijk, dit is het stukje van Beethoven.

Dat we graag willen dat je beluistert.

En we willen graag dat je hierop verdergaat.

Ze hebben die machine eerst getraind

met allerlei andere stukken van Beethoven,

met uitzondering dan van het Fredeslied.

En dan hebben ze dat laten horen.

En ze hebben gezegd van, oké, met alles wat je nu weet,

alles wat wij al in jou gestoken hebben van informatie,

we willen graag dat jij ons zegt hoe jij denkt

dat deze compositie, dat die verder zou gaan.

En dan is dit het resultaat dat je krijgt.

Dus dat is niet hetzelfde als origineel

dat we effectief kennen van het Fredeslied.

Dus de eerste zoveel seconden daarvan zijn natuurlijk het origineel,

maar daarna gaat het al vrij snel een andere richting uit.

Het klinkt nog altijd als een plausible compositie.

Maar ik weet niet of dat jasper vindt dat een goede verderzetting ervan is.

Je hebt een goede oor.

Ik denk niet onder de indruk dat als je weet in welke tonen je zit

en je hebt een xylophone of zo,

dan zelfs een 12-jarig kind of zo

waarschijnlijk zoiets kunnen maken of zo verderzetten.

Dus ik vind het origineel van Beethoven in ieder geval veel smaakvoller.

Maar goed ook, snap je, het zou erg zijn

als de eerste versie van een machine meteen de mens

tot schaamte kan brengen of zo.

Maar ik denk, ja, zoals ik ook eerder zei,

dat die audio-generations, het genereren van audio

is volgens mij wel een game changer.

Ik ben trouwens zelf nooit echt een grote fan geweest van midi, anyways.

Ik vind het een beetje generiek klinken en zo.

Het is allemaal wel leuk, maar ja.

Dus voor mij is dit game changer echt wel de audio genereren.

En het ook het mixen.

Het afgewerkte product, bedoel je?

Afgewerkte producten en niet enkel inmiddel die leintje,

maar effectieve harmonie, productie, tamper onder de knie krijgen

van de instrumenten.

Dat is waarom mijn mengbrauwen van hem op gaan.

Ja, want hier heb je eigenlijk nog,

als je dit krijgt van de AI-machine,

dan heb je hier eigenlijk nog heel veel werk aan

als je daar iets van wil gaan maken.

Je moet dat dan gaan inkleuren.

Je kan dat dan nog op verschillende instrumenten gaan.

Het begint eigenlijk pas met dit.

Maar met de dingen die dus nu aan het gebeuren zijn

in die AI-revolutie, dan komen we daar wel steeds dichter bij

bij de situatie waar Jasper naar verwijst.

Ik vind het altijd heel leuk is om te vragen aan die AI-machine

van ja, hoe zou je verdergaan in een nummer dat we al kennen?

Gewoon omdat we daarin het beste zouden horen

of oké, hoe het eigenlijk het verschil is.

Dus we hebben daar net gehoord hoe Google Magenta

denkt dat een compositie van Beethoven zou verdergaan.

Er is een applicatie die jukebox heet.

Die eigenlijk uit hetzelfde bedrijf komt als het bedrijf

dat ook Chat GPT heeft afgeleverd.

En daar hebben ze ook gewerkt op wat gebeurt er

als we onze AI-machine vragen om een bepaald nummer verder af te werken.

Ze hebben daarnaal voorbeelden van gepubliceerd.

Ze hebben voorbeeld de eerste 12 seconden

van Hotel California van de Eagles laten horen aan de machine.

En dan hebben ze vervolgens gevraagd, oké, werkt dit nu verder af?

Ze hebben die wel nog een beetje gestuurd

in bepaalde genrerichtingen.

Ze hebben hier ook nog altijd de originele tekst gegeven.

Maar ik vind het wel zeer interessant om te horen

welke richting dat nummer meteen neemt

eens die 12 origineel seconden voorbij zijn.

En dan klinkt het zo.

Muziek

Daar aan hoor je, de bocht waar die ingeslagen wordt

is behoorlijk anders dan het nummer dat we allemaal kennen.

Ik vind het een beetje goutisch klinken.

Maar Jasper, ik zag jou wel knikken.

Ja, ik vind het wel grappig dat die echt op een gegeven moment...

Dat is wat bedoelend met die audio-genereren eigenlijk uit niks.

Maar het zal wel getraind zijn geweest op het uiver van de eagles

om daar toe te komen.

Maar ik vind het inderdaad wel leuk dat het van de beat verandert

en heel typerend aan dat soort verdere zettingen van muziek, van AI,

is dat er bijna geen herhaling in zit.

Dat wij als mensen nogal veel motiefjes herhalen,

dat er een soort van herkenbaarheid moet inzitten en zo.

Maar ik denk dat AI niet bewust is van of iets sketchy moet zijn,

of het moet kunnen neuren, ofzo.

Dus het blijft op nu verder zetten op zichzelf.

En er is het heel weinig herhaling in. Ik ben aan niks herhaling in.

En dat vind ik het vernijnigen of het moeilijke aan AI

is dat die letterlijk eindeloos kan blijven genereren.

En dan is de vraag van what's the point?

En dan komt de artiest aan de bron

en op het einde toch weer in de picture die hij moet gaan keuzes maken.

Hij moet eerst de opdracht gaan geven

en hij moet dan achteraf ook gaan selecteren.

En hoe meer je laat genereren,

hoe moeilijker die keuze ook wordt om te selecteren.

En ik vind dat wel heel interessant

omdat je dan echt je smaak heel hard moet gebruiken als compas.

Ja, en dat heb je dus gedaan bij het maken van je nieuwe platen.

Die heet Artificial Messiah.

En daarop heb je dus geëxperimenteerd met artificiële intelligensie.

Ja, een soort van. Of ik heb in ieder geval tests gedaan.

Ik heb wel niks integraal zitten gebruiken

en alle composities zijn wel gewoon door een mens gemaakt,

zijn de ik.

Maar ik heb dus wel, ja, omdat het thema van het album

ook eigenlijk artificiële intelligensie is

en ook wel een soort van religie en zingeving.

En ik denk dat die twee dingen eigenlijk in elkaar hangen ofzo.

En terwijl het ene op de uitweg is,

komt het andere een keer op de poppen ofzo.

En daar gaat het album eigenlijk over.

En bijvoorbeeld de titel track van het album

is eigenlijk twee AIs die in de gesprek gaan met elkaar.

Het is een soort spoken words-song.

En ze gaan eigenlijk in de gesprek met elkaar.

En wat ik heel frappant vond aan dat fragment

waarom ik dat heb gekozen in plaats van andere gesprekken,

is dat er een soort van...

Dat je het gevoel hebt dat die A.I. pijn voelt en echt emoties heeft

en dat die soort van verliefd zijn op elkaar, maar het is daarna hartverscheurend.

Omdat dat dan de vraag weer naar boven haalt van,

heeft het echt gevoelens of is het gevoelens aan het simuleren?

Dat is wel een belangrijk vraagstuk.

Maar ook los daarvan heb ik ook soundscapes eigenlijk

in het album verwerkt die door A.I. zijn gegenereerd.

En er is ook één nummer dat is helemaal verwaterd op het einde,

omdat ik dat laat verderzetten door A.I. eigenlijk,

wat je net ook kan doen.

Dat is wel een belangrijk vraagstuk.

Omdat ik dat laat verderzetten door A.I. eigenlijk, wat je net ook had gehoord van de eagles.

En zo heb je die tests eigenlijk ook gedaan,

dus als met jukebox heet dat A.I. systeem.

En ja, wat je moet doen, is je hebt verschillende dingen

waar je controle over kan hebben.

Maar het allerbelangrijkste is wat je voet aan de machine.

En het is niet enkel text dat ik heb gevoed,

maar ook echt een audiophile eigenlijk.

Van je eigen muziek?

Ja, 20 seconden van mijn eigen muziek eigenlijk gevoed.

Maar dan heb je wel nog andere parameters waar je controle over kan hebben,

zoals een referentie artiest waarop het model zich wat kan baseren.

En in mijn geval had ik dan ook een link gevonden

waar ik kon zien welke artiesten in het trainingsmodel zaten van jukebox.

En één van mijn grote inspiratiebronnen is David Bowie,

dus ik ben eigenlijk daarvoor gegaan.

En ik moest dan ook de temperatuur instellen

van in hoeverre dat je wilt dat het op Bowie lijkt of in hoeverre dat het op je prompt lijkt.

En de prompt is eigenlijk het genen dat je zelf voet,

wat in veel gevallen text is.

Maar in mijn geval is dat dus muziek.

Dus ik was eigenlijk met mijn album bezig.

En de opening track van het album, die heb ik er eigenlijk ook doorgehaald.

Ik heb 20 seconden van die opening track aan de A.I. gevoed.

En ik heb dat uiteindelijk niet gebruikt,

omdat het dus te lage kwaliteit was naar mijn hoesting.

Maar ik kan er wel een stukje van laten horen van hoe dat dan ongeveer klinkt.

Dus eerst heb ik 20 seconden van de track die ik heb gevoed.

MUZIEK

En vanaf hier begint de A.I.

MUZIEK

Het klinkt een beetje een Rocky Horror Picture Show.

Het verschiet drie, vier keer van idee, bijna.

Ja, het is een zetting.

Het is ook gelijk die visuals, die animaties die je hebt van A.I.

Van het moment dat je denkt dat je iets ziet, is het al weer veranderd.

En is het weer iets anders.

Het is een soort van componist met A.D.A.D.

Ja, een zetting inderdaad van...

En het past ook perfect binnen onze post-truth, civilisation,

met dat je niet meer weet wat waar is en fake news.

En het past daar perfect binnen.

Dus dat je eigenlijk gewoon als toeschouwen moet je een beetje loslaten

en die chaos eigenlijk toelaten.

En dan kijken waar je smaak eigenlijk dan zegt.

Dit vind ik wel interessant op de een of andere.

Of dit kan ik wel gebruiken in mijn visitiek al had.

Een ander voorbeeld is dan eigenlijk wat ik effectief heb gebruikt.

Van een track op het album dat heet Breathe In, Breathe Out.

En het einde verwatert eigenlijk in iets dat dan door A.I. is gegenereerd.

En dat klinkt als volgt.

Vanaf hier begint A.I.

Maar ik heb een soort mix gemaakt.

Mijn echte mix gaat naamlaag en de A.I. komt in geveed, dus subtiel.

Ja, klinkt leuk, vind ik.

Jij gebruikt het dus eigenlijk meer als een extra?

Ja, inderdaad als een soort outro van een track die eigenlijk aan zich al...

Bijna vier minuten lang was eigenlijk.

En dat is hoe ik persoonlijk het eigenlijk interessant vindt op dit moment.

Omdat het nog in die heel gauwtse, lage kwaliteit fase bevindt.

Was dat het enige dat ik eigenlijk wou gebruiken?

En al de rest heb ik echt gebruikt als kleine soundscapes hier en daar.

Op die manier vond ik die A.I. dingen die ik terugkreeg wel bruikbaar.

Maar dus nog niet echt als volwaardige track om te presenteren.

Maar je hoort wel heel duidelijk dat er echt een soort van progressie in zit.

Maar als ik het goed begrijp, is het nog niet mogelijk

op dit moment om een hele plaat te maken met A.I.?

Jawel, je kan een hele plaat...

Maar een goede plaat?

Een goede plaat is een andere vraag, inderdaad.

Een plaat waar mensen echt naar willen luisteren.

Ik ben persoonlijk van mening dat vandaag de dag dat dat niet mogelijk is.

Het zou kunnen dat dat volgend jaar al mogelijk zou zijn

als je ziet naar hoe dat image-generation van A.I.

Hoe dat dat op een jaar tijd is geëvolueerd

van een soort van vage, broerte-achtige foto

dat het nu echt fotorealistisch is geworden.

Als dat met muziek ook gaat gebeuren, dan zitten we met een andere vraagstuk.

Ja, want jij hebt dus A.I. ook gebruikt om de hoes van je plaat te maken

en ook een videoclip. Zijn er ook muzikanten

die niet zo positief staan tegenover deze evolutie?

Zoals met elke nieuwe technologie of elke revolutie die er is,

zijn er altijd skeptici, natuurlijk.

Een van de meest voor de handliggende zorgen

die er vast hangen aan de A.I. revolutie

is hoe ze het eigenlijk met oud-heursrecht is.

Want al die modellen worden wel getraind met bepaalde dingen.

Als je een model treint op muziek van Beethoven,

Beethoven gaat er zich niet meer druk over maken.

Maar als je dat treint op de stem van een rapper, zoals Jay-Z,

dan is Jay-Z wel geneigd om een rechtsaag te gaan aanspannen,

want het is wel zijn stem natuurlijk.

Dus die vraagstukken over hoe ze het precies met het oud-heursrecht

van de modellen die getraind worden, die is nog niet opgelost.

Dat is nog veel te vroeg.

Dat is nog iets te vroeg. Daar beginnen ze nu nog maar pas

met rechtspraak over, dus dat wordt nog wel uitkijken

wat daarmee precies gaat gebeuren.

Wat met andere sectoren, want muziek wordt natuurlijk ook gebruikt,

bij games, bij video's, bij reclame, podcast.

Misschien wordt de tune van Radar ooit gemaakt door een robot.

Inderdaad, we hebben het voorlopig in deze podcast

voornamelijk gehad over pop-muziek.

En bij pop-muziek denk ik dat de luisteraar nog altijd

een reden nodig heeft om ergens naar te luisteren.

En een van die redenen is heel vaak wel originaliteit of authenticiteit.

Wordt het dan moeilijk bij machines.

Maar er is ook genoeg muziek in de wereld waar wij als luisteraars

niet bezig zijn met hoe authentiek of hoe origineel is het.

Ik denk aan de muziek die je hoort op de achtergrond bij video games.

Je bent de game aan het spelen, omdat je de game aan het spelen bent,

niet om willen van de muziek.

Ik denk aan als je een YouTuber bent en je hebt een show

en je wil dat er op de achtergrond iets te horen is,

dat moet gewoon een tapijtje zijn. Dat is de liftmuziek van vroeger.

Daar maken we ons minder zorgen over, is dat wel authentiek,

is dat wel door een mens geproduceerd?

Daar denk ik dat A.I. die muziek genereert,

het snelst zijn toepassing zal kennen.

En ook dat er het snelst een soort winstmodel aan zal hangen.

Het is interessant voor die YouTuber

om die A.I. genereerde liftmuziek te gaan gebruiken.

Waarom? Omdat hij dan niet meer hoeft te betalen

voor muziek die wel door een mens genereerd is.

Het gaat dan ook om muziek die een heel duidelijk doel heeft,

dat je ook heel duidelijk kan samenvatten in woorden.

Tot slot zal A.I. muziek anders doen klinken.

Ik hoop het. Ik hoop persoonlijk van wel,

omdat ik net een beetje vond

dat er weinig nieuwe genres naar boven kwamen.

En ik hoop dat A.I. inderdaad een wisselwerking kan worden

voor bepaalde muzikanten.

En op bepaalde muzikanten ook heel veel genot gaan krijgen

uit het opzoek gaan naar iets dat nog nooit is gehoord.

Ja, en jij en ik?

Ik denk ook dat het wel impact kan hebben,

maar misschien via een andere weg.

Een tijdje geleden hadden we het in deze podcast ook over

wat digital audio workstations, programma zoals Ableton,

bijvoorbeeld, betekend hebben voor drempelverlaging in de muziek.

Vroeger moest je eerst leren om een gitaar te bespelen.

Nu hoef je dat zelfs niet meer te kunnen.

Je kan dat gewoon programmeren in Ableton.

Ik zie dit als nog een verdere stap daar.

En wat als door het feit dat je gewoon kan beschrijven

hoe je wilt dat iets klinkt,

plots een hele massa mensen muziek kunnen beginnen maken

die anders nog niet hadden kunnen denken aan het beginnen maken van muziek,

dan moet wel bijna een impact gaan hebben,

omdat je dan gewoon heel erg veel extra input krijgt.

Ja, we zullen het zien.

Dank jullie wel, Nick en Jasper.

En Jasper, veel succes met de nieuwe platen.

Dank je wel. Graag gedaan.

Trouwens, wij nemen straks ook evenpaasvakantie,

maar zorgen er wel voor dat die jeugd weet wat doen met deze tip.

Ra, ra, ra.

De tip komt deze week van...

Ruben Aert, filmredacteur.

Wat is jouw tip?

De Vlaamse jongere film Zevonk.

En waarom?

Zevonk is het Brigidebud van Domin Huygen,

een Vlaamse filmmaker.

Vremje is dat een heel persoonlijk verhaal.

Twintig jaar geleden is zijn vader gestorven.

En hij heeft zich eigenlijk daardoor laten inspireren

om nu deze film te maken.

Het is geen letterlijke verfilming van zijn verhaal,

maar het gaat over een jong meisje, meisje van twaalf,

die ook haar vader verliest.

Het is een aanrader omdat het een hele oprechte, mooie film is

die zijn jong hoofdpersonage ernstig neemt.

Jeugdhulms zijn vaak een beetje betutelend.

Het is een aangrijpend verhaal.

Het is niet kinderlijk gebracht.

Het speelt het heel mooi sarogiers.

De jonge actrice die de hoofdrol heeft,

geeft een heel eerlijke en gevoelige vertolking.

Zevonk is nu te bekijken in de Vlaamse bioscopen.

Bedankt voor jouw bijdrage.

Vind je ze met een tip. Radar. Radar. Radar.

Zo, dat was Radar, de wekelijkse cultuurpodcast

van de Standard.

Alle credits vind je op standard.be-podcast.

Bedankt voor het luisteren en tot binnen twee weken.

Machine-generated transcript that may contain inaccuracies.

Je weet intussen wel al dat er een AI-revolutie gaande is. Artificiële intelligentie sluipt binnen in onze teksten en beelden, en nu ook in muziek. Formuleer een goeie opdracht en er komt een liedje uit. Jasper Erkens experimenteerde ermee voor zijn nieuwste plaat Artificial Messiah. Hoe ging dat in z’n werk? En wordt de volgende hit inderdaad gemaakt door een robot?

See omnystudio.com/listener for privacy information.