东方网记者包永婷3月16日报道:“AI如何理解音乐?其实跟人类一样,也是听声音、读乐谱。进入大模型时代,调用百万级数据集,配合强大的算力,听和读多种输入开始整合,而模型的原理不再具有可解释性,类似人类形成乐感的过程。”今天下午,由凯迪拉克·上海音乐厅举办的“数字缪斯——2024音乐科技融创节”首场工作坊在音乐厅音乐立方举行。音频算法工程师高月洁向现场观众介绍AI学习音乐的历程。她表示,未来还有一个趋势,AI可能会从通用模型走向个人定制。
首场工作坊以“音乐黑科技:AI大战人类作曲家,谁才是真正的音乐之神?”为主题,青年作曲家、钢琴演奏家朱序芝和高月洁分别以即兴人工作曲和操作系统AI作曲进行一场作曲PK。
“描述风平浪静的海面”“我是一只猫,在捉老鼠的时候,突然有位女士走过来……”现场观众即兴提供的文字、图片、音符等内容被“投喂”给AI进行现场作曲创作。与此同时,朱序芝也用“人脑”在现场即兴创作同主题音乐片段,让现场观众直观感受人工智能重新定义音乐创作的边界,以及它与人类艺术家如何共同塑造音乐的未来。
高月洁展示了现场互动所用到的AI软件MusicFx、 ChatMusician等目前最前沿的人工智能技术在音乐领域的应用。她表示,通过这些应用,目前可以实现四部和声写作 、交响乐写作、歌曲写作以及交互式创作等。
听了AI软件根据歌词输出带有旋律的演唱,朱序芝表示,作为流行歌曲来讲还不错,有正确的音乐框架。正因为AI学习规则的能力强,对于既定的音乐风格是可以超越的。但也是因为AI的复制能力,人类的审美会疲劳,“我需要更新的音乐语言、更新的审美,很期待AI可以帮我来完成。”
朱序芝提出了一个“根本性”的问题:当AI学了所有的音乐理论后,它知不知道这些音乐理论最终影响到人类的情绪,跟类人的情绪到底发生了何种关系?他举例,一个听上去沉重忧郁的节奏,同样的音符稍微改变下节奏,表达的情绪就不一样。“音乐与个人情绪的反应有很强的联系,我们是根据自己的情绪反应来选择的。 而AI的选择不是基于情绪反应,而是音乐构成的基本逻辑等,但打动人的可能就是那几个音的差别。”
据悉, “数字缪斯——2024音乐科技融创节”共设置 五个单元 ,分别是“乐无穷”展演、“特别呈现”、“音乐科技融创论坛”、“创意推介会”和“工作坊”。“乐无穷”展演4部展演作品将于4月亮相,包括“梦境空间——徐之晗爵士管弦乐团音乐会”“过去即是未来,数字化的世界遗产‘南音+’音乐会”“漫歌行——跨时空AI音乐叙事”“万象声息——电子音乐与数字影像音乐会”,探索科技与音乐的创意边界。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.