大多數生成式AI,不管是音樂還是其他方面,都是根據之前的內容來決定接下來要產生什麼,就像看後視鏡一樣。但是Anticipatory Music Transformer也可以預測未來:經由超過 17 萬首歌曲的資料庫訓練,它可以根據前面的內容接續一段音樂,並與之後的內容連結,還可以根據作曲家已經創作的內容添加和聲或伴奏。儘管運用這套程序目前仍需要對電腦編碼有所了解,但其開發者之一、史丹佛大學研究者John Thickstun表示,這主要是面向音樂家和作曲家的產品、是為優化他們的工作而生。
電子大提琴家 Dana Leong也曾將AI作為一種工具,並稱讚了Reiley、期待更進一步:「我不僅希望看到一部能夠創造令人驚嘆音樂的機器,還希望看到一個能夠表演音樂、創造視覺環境(全息投影、舞蹈、形狀變化)並與人類藝術家合作的機器」,Leong 在一封電子郵件中說道。他自己也曾使用AI創作了一首名為《iDragon》的多軌歌曲,結合了AI生成的聲音、數位合成的音樂和樂器錄音。
AI也正在進入舞蹈領域。舊金山芭蕾舞團以《凡人》的首演開啟2024年的節目,這是一部將AI問題與古代神話潘多拉和普羅米修斯相結合的新作品。演出包括模擬和AI生成的影像,以及電子音樂家Sam Shepherd的原創配樂,將在今年四月再次上演。
AI最有可能應用在錄音室和會議工作中。邁阿密 Animal Music Studios老闆 Alberto Farinas 在一個客戶提出不尋常要求時,開始研究一些Google的人工智能工具:一家洋芋片製造商聘請Farinas的工作室製作一組循環的樂句,如吉他旋律和鼓聲填充,以便用於廣告混音。Farinas 與一位工程師合作使用了一個名為 Nsynth的Google AI模型,將咬碎洋芋片和碎裂的聲音與一系列樂句結合起來,「最後使一切聽起來更爆脆」,Farinas 說。
手動剪輯需要很多時間,而這個軟件幾乎可以立即完成。卡內基美隆大學教授兼 Google音樂項目兼職研究員Chris Donahue說:「我認為技術的進步,很大程度上代表了非常深刻的、創造性的機會,可以讓人們創作音樂,或讓非音樂家表達自己,」Donahue曾參與Google一個名為SingSong的AI音樂計劃,該計劃允許人們對著應用程式唱歌,並讓 AI程式以他們的聲音生成不同的歌詞;他也曾參與開發類似Thickstun那樣的預測性程式。Google及其子公司YouTube推出了其他實驗性音樂產品,這些工具有助於藝術家創作、使製作過程更加簡單,例如允許哼唱的旋律轉化為小號。 由 Google DeepMind的AI 實驗室建造的Lyria模型還可以執行一些Thickstun模型擅長的「續篇」工作。 Google與Charli XCX、Charlie Puth等藝術家合作,讓他們使用這種技術創作短曲,使用簡單的文本提示,創作歌曲和聲音樣本。
Donahue 承認,純粹由AI生成的音樂浪潮,可能會污染創意空間,但到目前為止,他說:「我沒有看到任何跡象表明,人們想聽這些完全由機器生成而沒有任何人類參與的東西。」