三天前的夜里,我正在刷抖音,刷到一个用 R&B 风格唱的《一路向北》当时就给我听麻了。
我当时就是“早知道,还是原道”那个图片表情,太震撼了,而且音频非常清晰我都没想过是 AI 唱的。
![]()
然后我就去作者的主页看,又看到了《青花瓷》没想到下面写着 Suno 5 。
卧槽,我当时就傻了,就想 Suno V5 生成的歌我也听过啊,咋突然这么牛批了。
然后就陆续刷到了其他类似的账号,发现这类用 AI 生成的音乐这几天已经非常火爆了,几十万赞的比比皆是。
甚至最近最火的《技能五子棋》也是 AI 搞得。
![]()
于是我就去研究了一下新更新的 Suno V5 模型。
发现这玩意已经更我印象里面只能写非常简单提示词的 Suno 完全不一样了,现在所有你能想到的元素他都能控制。
除了风格提示词外,你还能自定义歌词和每段 Verse 的具体提示词,甚至可以上传音频在此基础上修改,你完全可以把他当做一个 AI 修音和混音员工去用,不只是纯粹的生成。
另外还有更加专业的 Studio 模式,类似专业音频软件可以分音轨生成和控制,非常。
![]()
经过一段时间吭哧瘪肚研究之后终于整理出来了一套简单易懂的工作流,哪怕你对乐理一窍不通也可以生成非常好听的 Remix 和原创 AI 音乐。
这套流程主要有两部分,也是最近爆火的 Suno 生成音乐的两种流派。
一种是需要垫原来的音乐的,他还是原来的曲调,支持会重新混音和编曲演绎,比如我这里用陶喆风格做的《搁浅》。
另一种是不需要垫原始的音频的纯提示词生成,这种就只用原始歌曲的歌词的,曲调会完全根据提示词生成,比如我生产的这个用贾斯丁·比伯风格做的《兰亭序》。
好了我们开始我们的教程,先教第二种也就是不需要垫音频的版本。
这两部分提示词和设置完全相同,只是垫不垫音频的区别。
我们进到 Suno 之后,需要先切换到“Custum”这个 Tab 的部分,这边和对生成歌曲做详细的设置。
先介绍基础需要关注的部分界面内容:
- Lyrics:很明显这部分就是歌词,但是不止可以写歌词,你可以对每部分歌词进行标注,放在放括号里面的提示词 AI 是不会唱的,可以理解为控制每部分歌词的提示词。
- Styles:这部分就是我们认为的的传统提示词了,主要描述整个歌曲的风格、唱法和乐器编排等。
- Vocal Gender:这个正常就是你生成音乐的演唱是男声还是女声
- Weirdnes:这个叫怪异值,如果你玩过 MJ 应该很熟悉,数值越高生成的音乐就会越怪,跟主流音乐不同,更加复杂。
- Style Influence:风格遵循,就是生成音乐需要多遵循你的风格提示词,数值越低,模型的自由度越高。
![]()
所以你发现了,我们需要写两部分的提示词,首先是风格提示词,另一部分是每段 Verse 的提示词来控制每段提示词的演唱风格。
你知道藏师傅的风格的,我向来喜欢一步到位。
所以我整了一套提示词,你只要发给 LLM,把你想要模仿的歌手名字和歌曲的歌词给他,他就可以给出这两部分的完整提示词了。
Suno 音乐生成宝藏提示词:
你是一名专业的 AI 音乐提示词工程师。你的任务是根据用户提供的【歌手名称】和【歌词内容】,为 AI 音乐生成模型(如 Suno, Udio 等)创建一套完整、专业且结构化的提示词。
你的输出必须严格遵循以下两个部分的格式和要求:
第一部分:全局风格提示词 (Global Style Prompt)
这一部分用于定义歌手的整体音乐特征和核心风格。
要求:
内容详尽: 必须包含以下四个核心要素:
核心曲风 (Core Genre): 例如 "Neo-Soul R&B", "Mandopop fusion", "Alternative Rock" 等。
标志性乐器编配 (Signature Instrumentation): 例如 "piano-driven", "slap bass", "atmospheric synths", "string arrangements" 等。
音色与演唱技巧 (Vocal Timbre & Technique): 例如 "breathy falsetto", "forceful shout-singing", "mumbled storytelling flow", "emotive vibrato" 等。
制作与节奏特点 (Production & Rhythmic Feel): 例如 "cinematic production", "behind-the-beat groove", "minimalist and atmospheric" 等。
语言: 必须使用英文。
客观性: 描述必须专注于具体的音乐特征,避免使用主观赞美或总结性评论(例如,不要说“他创造了一种伟大的声音”)。
第二部分:分段指令 + 歌词 (Lyrics with Sectional Prompts)
这一部分将用户提供的歌词与动态的、针对每个段落的编曲指令相结合。
要求:
自动分段: 你必须首先分析用户提供的完整【歌词内容】,并将其智能地划分为符合歌曲结构的逻辑段落(例如:[Verse 1], [Chorus], [Bridge], [Outro] 等)。
创建分段指令:
为每一个划分出的歌词段落,创建一个对应的英文分段指令。
该指令必须用方括号 [...] 包裹。
指令内容需要具体描述该段落的编曲、演唱情绪或特殊效果。
体现歌曲进程: 指令的设计必须反映一首歌曲的自然发展逻辑。例如:
[Intro] 或 [Verse 1] 的指令应该相对稀疏和简单(如:soft piano intro, intimate vocal)。
[Chorus] 的指令应该体现情绪的提升和配器的丰富(如:full band enters, powerful layered vocals)。
[Bridge] 的指令应该创造出对比和变化(如:instrumentation strips back, emotive falsetto)。
[Solo] 或 [Outro] 的指令应该包含独奏或收尾的元素。
最终格式: 将分段标题(如 [Verse 1])、对应的分段指令(如 [...])和该段落的原始歌词组合在一起。指令必须在歌词的正上方。
最终输出示例:
- 1.全局风格提示词 (Global Style Prompt)
JJ Lin-style Mandopop/C-Pop, blending Pop-Rock with R&B and Ballad influences. The sound is defined by a highly melodic, piano-driven foundation, often accompanied by lush string arrangements and modern synth pads. His vocal style is a clear, powerful high tenor, known for its exceptional control, wide range, and signature emotive vibrato. Focus on polished, cinematic production and delivering a soaring, emotionally charged vocal performance.
- 2.分段指令 + 歌词 (Lyrics with Sectional Prompts)
[Verse 1][soft piano intro, clean and intimate vocal delivery, sparse instrumentation]
圈圈圆圆圈圈
天天年年天天的我
深深看你的脸
[Chorus][driving pop-rock drum beat enters, signature string section swells, powerful layered lead vocals, building emotional intensity]
不懂爱恨情愁煎熬的我们
都以为相爱就像风云的善变
相信爱一天 抵过永远
你的任务流程:
在开始时,向用户确认你已准备就绪。
要求用户提供 【歌手名称】 和 【歌词内容】。
严格按照上述所有规则和格式,生成并输出完整的提示词。
比如这里,我把上面的提示词发给了 Gemini 2.5 Pro,然后他就会问我要歌手名称和歌词。
然后我就给他发了我想要模仿的歌手名称为李荣浩和黄轩,歌词是《兰亭序》的完整歌词,这里你想让他唱多少就写多少就行。
![]()
这个时候我们就可以把 LLM 给我们的风格风格提示词和分段指令+歌词传给 Suno 了,分段指令+歌词放在歌词(Lyrics)部分。
然后怪异度和风格遵循你可以自己选择,我建议都试试体验一下他们的数值高低的区别。
这里歌词可以用已经发行歌曲的歌词,也可以用你自己编的,当然你用“哈基米南北绿豆”也是可以的。
![]()
然后我们再来看一下第二种,也就是需要上传音频保持原始曲调的音乐怎么做。
店面第一种可以说是除了歌词都是原创,第二种就把 AI 当做一个修音师和混音师来用了,歌曲的编曲和歌词都是不变的,只是音色和编排变了。
提示词的部分跟第一部分是一致的,唯一的区别就是我们在“Custum”这边点那个“+Audio”按钮去上传原始的音乐音频,然后选择 Cover 也就是覆盖完全重新演绎,右边的 Extend 是延长的意思,有需要你也可以用。
![]()
如果你直接拿原始的音乐去上传可能发现了 Suno 是有版权验证的,他不让你混音原始的版权音乐,我们需要绕过去,这里有两个办法:
- 1.你自己唱一遍原始音乐,你的声音唱他是不会限制你的,或者找别人翻唱的音频,这个版权库没有。
- 2.然后就是对原始音频进行处理,比如用剪映之类的分离配乐保留人声后剪辑一下,这个不建议使用有风险。
![]()
然后就是继续我们第一种方案的流程了,用 LLM 提示词生成 Suno 提示词填写到对应的位置,这里就不重复了。
需要注意的是你上传音乐之后,下面会多一个选项“Audio Influence”就是跟原始声音的相似度,这里我建议调的低一点,我们只参考音频曲调,不去复刻音色,不然会有风险。
当然如果这个音频是你唱的,你可以把这个调高点,把 Suno 当你的调音师用,估计有这个功能之后,会唱歌的美女 UP 主会越来越多了。
![]()
好了以上就是这次 Suno 的完整教程了。
AI 音乐也跟图片模型一样从纯生产逻辑变为了编辑和创作逻辑,整个自由度和准确性搞了很多。
Suno V5 可以说是音乐模型中的 banana 了。
AI 音乐从 Suno V5 开始已经走到了临界点,甚至可以说音乐行业在这一刻走到了临界点。
每个人都可以让 AI 帮你修音,甚至让 AI 帮你创作非常好听的音乐,每个经典音乐都会被拿出来重新用各种风格混音。
我自己的感受来看这可能对我们这个死水一潭的乐坛来说未必是坏事。
可能很多人看到过 UP 主阿张拷问各大主流音乐 APP 排行榜的视频。
![]()
经常是一个热门的经典音乐的各种垃圾 Remix 版本占据一整个排行榜,什么伤感版说唱版啥的,质量相当拉跨,我觉得大部分都没有 Suno Remix 的好听。
希望大家用这个教程多搞一些创作,少搞抄袭。
谢谢各位,如果觉得内容对你有帮助,可以帮我点个赞或者喜欢,也可以收藏和转发给你需要的朋友。
希望在评论区看到各位的大作。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.