Hvordan kommer musikk til å høres ut i fremtiden? Det eneste som er sikkert er at det ikke kommer til å være noen der for å høre den.
DET VIL SI, ingen mennesker. Algoritmer, nevrale nettverk, AI-programmer, mønstergjenkjennende og -hermende scripts kommer til å lytte, men ikke bare det: også lage helt ny musikk, ny musikk som kanskje en annen algoritme igjen lager nye komposisjoner på bakgrunn av. Dette kommer til å gjenta seg i det uendelige, eller i det minste til sola eksploderer før den trekker seg sammen igjen og alt som er igjen er stillhet.
Tror vi da :)
En stillhet som for øvrig trolig kommer til å være kjærkommen. For den algoritme-baserte musikken er ikke en umiddelbar fryd for øret:
LES OGSÅ: Fremtiden er her, og den er *trommevirvel* … ikke så bra
HACKER/musiker/mattenerd-teamet Dadabots har brukt den matematiske modellen SampleRNN – i utgangspunktet utviklet for å bedre tekst-til-tale og tale-til-tekst-programmer – til å lage musikk i en rekke sjangre. Musikken i den kontinuerlige live-strømmen i vinduet over er laget av en datastruktur inspirert av hvordan nervecellene i hjernen er organisert, et såkalt nevralt nettverk, som har blitt utsatt for musikk det canadiske metalbandet Archspire. Det du hører kan du være garantert at ingen noensinne har hørt før, og sannsynligvis aldri kommer til å høre senere heller. I skrivende stund er det kun fem andre som ser på.
Det er kanskje ikke by:larm/Vill Vill Vest/Trondheim Calling-nivå heeeelt ennå, men så halvgærent er det ikke. Lyden veksler mellom ganske tøff til helt sinnsyk, spesielt partiene med tydelig vokal er helt fucka. Det er interessant å høre på, faktisk på grensen til OK, til tross for at det støyete lydbildet er noe distraherende, selv til canadisk death metal å være.
Dadabots har også laget et nevralt nettverk som genererer frijazz basert på John Coltranes album Interstellar Space. For den jevne lytter høres det strengt tatt ut akkurat som frijazz pleier å høres ut:
MODELLEN Dadabots bruker, SampleRNN, beskrives som en «Unconditional End-to-End Neural Audio Generation Model». Enkelt sagt beregner SampleRNN sannsynligheten for en gitt sekvens av lydbølger basert på sekvenser av lydbølger som allerede er matet inn i modellen, og deres sannsynlighet og så videre, og så videre. Og så blir den bedt om å gjette hva slags lydbølger som kommer etter lydbølgene den selv har produsert. All lyden du hører er autogenerert fra en Linux-PC et sted i California med et V100-grafikkort som koster fra 50 000 kroner og oppover.
Det blir billigere ganske snart. AI-musikken kommer, og den kommer til å høres bra ut. Dadabots har også en stream på Twitch med AI-generert piano-musikk. Den høres hakket mer normal ut enn resultatet fra de mer komplekse sjangrene, og bærer bud om en fremtid der det er plent umulig å skille AI-produsert musikk fra menneskeskapte hits.
Og en tid der færre bergensere får selvrealisert seg.
Den utviklingen er, med data-teknologi, plug-ins og automatiske lydeffekter, selvsagt allerede godt i gang – Autotune er eksempelvis temmelig standard. Noen artister har tatt den enda lenger. Den eksperimentelle elektronika-artisten Holly Herndon ga tidligere i år ut et album med sin hjemmelagde AI kalt «Spawn».
I fremtiden trenger man kanskje ikke mennesker. Verken som initiativtakere, til å gi input eller til å plukke ut hvilke segmenter av den AI-genererte musikken som egner seg best på en, la oss si, 5-spor lang debut-EP. Kanskje kommer man til et punkt der AI ikke trenger menneskelig påvirkning overhodet for å lage musikk.
På FAQ-siden sin skriver Dadabots:
– I fremtiden vil vi generere genomer. Og språk. Og sinnstilstander.
Allerede nå er det fullt mulig å oversette bevegelsene til en slange til «musikk», selv om det høres mer ut som en røykvarsler enn noe de kunne spilt på NRK P3 (Apropos!).
Spørsmålet er om man i fremtiden i det hele tatt trenger mennesker til å høre på musikken. Og hvis ikke: kommer AI-en til å fortsette å lage den? Basert på det Dadabots har fått til allerede håper vi svaret er ja.
Mens vi venter på singulariteten har vi selvsagt et knippe forslag til hva man kan bruke slike nevrale nettverk til. Smartinger på Blindern/NTNU/Høgskolen i Innlandet, step up!
– Et nevralt nettverk som genererer en uendelig strøm av protestsanger mot bompenger
– … en uendelig strøm av bergensk bedroom pop
– … norsk berlinbasert ambient
– … Trondheims-basert hardcore punk som handler om å drikke øl et veldig spesifikt sted i Trondheim og at regjeringen er dårlig
– … Oral Bee-låter som handler om hvilken tid på året/ukedag det er
– … jazzlinje-band med alt for mange medlemmer som både henter inspirasjon fra amerikansk 50- og 60-tallsjazz og skandinavisk folkemusikk (!)
– … søte, men ikke spesielt velfriserte visemusikere fra Nordland med søte smil og ukens Urørt-appell (i 2016)
– …«Melodisk» og «atmosfærisk» techno som har tatt kjellere over hele Skandinavia med storm (spilte en time på et skate-event i Malmø én gang og kjenner noen som bor i København)
– Et nevralt nettverk som genererer *wait for it* ALT DU SER RUNDT DEG AKKURAT NÅ
Det siste er nok allerede tilfelle.
¯\_(ツ)_/¯
LES OGSÅ: Quiz: Dax18-program eller Insta-poesi?
The post AI-generert frijazz og metal høres helt sinnssykt ut appeared first on NATT&DAG.