谷歌的研究人員使用人工智能MusicLM將腦部掃描變成音樂
微新創(chuàng)想(idea2003.com) 7月31日 消息:谷歌和大阪大學剛剛發(fā)表的研究展示了一種將思想轉化為音樂的技術。
五名志愿者躺在功能磁共振成像掃描儀內(nèi),以十種音樂風格播放了 500 多個不同的曲目。他們大腦活動的圖像被輸入到一個名為Brain2Music的AI模型中,該模型使用谷歌的AI音樂生成器MusicLM學會了創(chuàng)建類似于受試者正在聽的歌曲。
該研究的作者得出結論,“生成的音樂類似于人類受試者所經(jīng)歷的音樂刺激,就流派、樂器和情緒等語義屬性而言。結果可以在Google Research Github上聽到。
人們的想法是,這可能會導致有一天智能音樂創(chuàng)作軟件能夠解碼思想并將其轉化為音樂。研究人員表示,下一步將是使用人工智能來生成純粹基于某人的想象力的音樂,而不是特定的音樂刺激。
當然,心靈感應DAW還有一段路要走——除非你碰巧在你的臥室工作室里有一臺fMRI掃描儀。整篇研究論文可在康奈爾大學的免費學術文章在線檔案arXiv上找到。