Provjerite studiju po kojoj se AI može koristiti za pretvaranje snimke mozga u - glazbu
Projekt Googlea i Sveučilišta u Osaki, “Brain2Music”, mogao bi biti prvi korak prema stvaranju glazbe izravno iz misli
Google i Sveučilište Osaka u Japanu objavili su istraživanje koje pokazuje zanimljivu tehniku pretvaranja aktivnosti mozga u glazbu. Pet dobrovoljaca stavljeno je u fMRI [funkcionalnu magnetsku rezonanciju] skener i puštali su im preko 500 pjesama u 10 različitih glazbenih stilova. Moždana aktivnost stvorila je slike koje su snimljene i ugrađene u Googleov AI generator glazbe, Music LM, što je značilo da je softver bio uvjetovan obrascima mozga i odgovorima pojedinaca.
Stvorena glazba bila je slična podražajima koje su subjekti primali, s suptilnim semantičkim varijacijama. Sažetak izvješća kaže da “generirana glazba nalikuje glazbenim podražajima koje su ljudski subjekti iskusili, s obzirom na semantička svojstva kao što su žanr, instrumentacija i raspoloženje.”
Studija je također otkrila da postoji preklapanje u regijama mozga odgovornim za “predstavljanje informacija proizašlih iz preklapanja teksta i glazbe”, primjećujući sličnosti između dviju komponenti MusicLM-a i aktivnosti mozga u slušnom korteksu. Nalazi, ukratko, kažu da “kada su čovjek i MusicLM izloženi istoj glazbi, interne reprezentacije MusicLM-a u korelaciji su s moždanom aktivnošću u određenim regijama.” Dodaje se i da “kada podatke iz takvih regija koristimo kao ulaz za MusicLM, možemo predvidjeti i rekonstruirati vrste glazbe kojima je ljudski subjekt bio izložen.”
Iako se smatra da bi nas takvo istraživanje moglo približiti prevođenju misli u glazbu putem neke vrste hiperinteligentnog softvera, u radu se navodi da bi izgradnja univerzalnog modela bila teška jer se aktivnost mozga uvelike razlikuje od osobe do osobe. Sljedeći bi korak bio pronalaženje načina za stvaranje glazbe isključivo iz ljudske mašte, a ne unesenog poticaja.
Cijeli rad provjerite OVDJE, gdje također možete poslušati glazbu koju je generirala umjetna inteligencija.