现在人工智能也会作曲了,OpenAI开发了深度神经网络MuseNet,可以用10种不同的乐器,结合乡村、莫扎特或是Lady Gaga等风格,制作长度四分钟的音乐作品,OpenAI并没有教MuseNet乐理或是编曲理论,而是让人工智能从数十万个MIDI档案中学习,探索合声、节奏和风格等乐曲元素。MuseNet使用通用用途的非监督式技术GPT-2,这是一种大规模的Transformer模型,经训练之后可用来预测音频或是文字的序列。OpenAI收集了多种音讯来源,作为MuseNet训练数据,除了ClassicalArchives以及BitMidi两个服务,贡献的大量MIDI档案之外,他们也在网络上收集了流行、非洲、印度、阿拉伯等风格的音乐,另外,还使用了MAESTRO数据集。
OpenAI创造了作曲家以及乐器令牌,让用户方便地控制MuseNet样本种类,在训练的时候,这些作曲家以及乐器令牌会被加到每个样本中,因此模型可以依据这些信息预测音符,而在生成阶段,模型会依据用户指定的作曲家以及乐器,进行音符预测。由于MuseNet掌握许多不同的音乐风格,因此还可以用新颖的混合方法,融合不同的风格。OpenAI将这个早期成果公开,用户在简单模式中,可以透过指定作曲家或是风格,以及一个著名的音乐作品作为开头,程序便会接续创造出新的音乐作品,用户能简单地尝试各种不同的音乐风格组合。而在高级模式中,有更多的参数可以设定,也需要较长的生成时间,但是可以让使用者灵活地产生更有创意的作品。OpenAI提醒,将差异过大的风格与乐器合在一起,像集合肖邦风格与贝斯和鼓,会让MuseNet产生意料之外的结果,选择适合作曲家的乐器可以让结果更自然些。