谷歌發(fā)布音樂生成模型 自動(dòng)生成音樂

來源:中關(guān)村在線


(資料圖片)

近日,谷歌發(fā)布了一項(xiàng)名為“Brain2Music”的研究,該研究利用人工智能技術(shù)讀取和分析人的功能性磁共振成像(fMRI)數(shù)據(jù),然后根據(jù)個(gè)體的大腦活動(dòng)自動(dòng)生成音樂。 在這項(xiàng)研究中,研究人員招募了5名志愿者,讓他們先聽取包括藍(lán)調(diào)、古典、鄉(xiāng)村、迪斯科、嘻哈、爵士樂、金屬、流行、雷鬼和搖滾等不同音樂類型的15秒音樂片段,然后記錄他們的fMRI數(shù)據(jù)。谷歌利用這些數(shù)據(jù)訓(xùn)練了一個(gè)深度神經(jīng)網(wǎng)絡(luò),以便更好地理解大腦活動(dòng)模式與音樂節(jié)奏和情感等不同元素之間的關(guān)系。 “Brain2Music”是基于谷歌此前推出的“MusicLM”模型(基于文本生成音樂片段)進(jìn)行研發(fā)的,它可以根據(jù)fMRI數(shù)據(jù)生成15秒的音樂片段。研究結(jié)果顯示,“Brain2Music”生成的15秒音樂片段中,有一段內(nèi)容與測(cè)試聽到的原版音樂“Oops!...I Did It Again”基本相同。 對(duì)于這項(xiàng)研究感興趣的讀者,可以通過下載相關(guān)論文進(jìn)行深入閱讀。

標(biāo)簽:

推薦

財(cái)富更多》

動(dòng)態(tài)更多》

熱點(diǎn)