谷歌發(fā)布音樂生成模型 自動生成音樂

來源:中關(guān)村在線


(資料圖片)

近日,谷歌發(fā)布了一項名為“Brain2Music”的研究,該研究利用人工智能技術(shù)讀取和分析人的功能性磁共振成像(fMRI)數(shù)據(jù),然后根據(jù)個體的大腦活動自動生成音樂。 在這項研究中,研究人員招募了5名志愿者,讓他們先聽取包括藍(lán)調(diào)、古典、鄉(xiāng)村、迪斯科、嘻哈、爵士樂、金屬、流行、雷鬼和搖滾等不同音樂類型的15秒音樂片段,然后記錄他們的fMRI數(shù)據(jù)。谷歌利用這些數(shù)據(jù)訓(xùn)練了一個深度神經(jīng)網(wǎng)絡(luò),以便更好地理解大腦活動模式與音樂節(jié)奏和情感等不同元素之間的關(guān)系。 “Brain2Music”是基于谷歌此前推出的“MusicLM”模型(基于文本生成音樂片段)進(jìn)行研發(fā)的,它可以根據(jù)fMRI數(shù)據(jù)生成15秒的音樂片段。研究結(jié)果顯示,“Brain2Music”生成的15秒音樂片段中,有一段內(nèi)容與測試聽到的原版音樂“Oops!...I Did It Again”基本相同。 對于這項研究感興趣的讀者,可以通過下載相關(guān)論文進(jìn)行深入閱讀。

標(biāo)簽:

推薦

財富更多》

動態(tài)更多》

熱點