CN107123415A - 一种自动编曲方法及系统 - Google Patents
一种自动编曲方法及系统 Download PDFInfo
- Publication number
- CN107123415A CN107123415A CN201710317274.7A CN201710317274A CN107123415A CN 107123415 A CN107123415 A CN 107123415A CN 201710317274 A CN201710317274 A CN 201710317274A CN 107123415 A CN107123415 A CN 107123415A
- Authority
- CN
- China
- Prior art keywords
- note
- model
- training
- vector
- moment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000000605 extraction Methods 0.000 claims abstract description 20
- 239000000203 mixture Substances 0.000 claims description 15
- 238000003062 neural network model Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000011478 gradient descent method Methods 0.000 claims description 6
- 239000011295 pitch Substances 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/111—Automatic composing, i.e. using predefined musical rules
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
本申请公开了一种自动编曲方法及系统,该方法包括:步骤S11:确定与初始时刻对应的输入音符,得到当前输入音符;步骤S12:对当前输入音符进行特征提取,得到当前输入音符特征;步骤S13:将当前输入音符特征输入至预先创建的训练模型中,得到训练模型相应输出的音符,得到当前输出音符;步骤S14:将当前输出音符确定为下一时刻对应的输入音符,并将下一时刻确定为当前时刻,然后重新进入步骤S12,直到循环次数达到预设次数阈值,并对每个时刻对应的输出音符进行合并,得到相应的乐曲。本申请大幅提升了乐曲的创作效率,与此同时,也降低了乐曲的创作成本,降低了乐曲创作门槛。
Description
技术领域
本发明涉及人工智能技术领域,特别涉及一种自动编曲方法及系统。
背景技术
编曲作为一种艺术创作,一直以来都是属于门槛很高的艺术创作领域,需由专业的作曲家才能完成。当前,大部分的作曲家需要耗费相当长的时间周期才能完成一首乐曲作品的创作,也即,现有的乐曲创作效率较低,并且创作成本非常高,使得很难满足民众对音乐种类和数量的日益增大的需求。
综上所述可以看出,如何提升乐曲创作效率并降低乐曲创作成本是目前有待解决的问题。
发明内容
有鉴于此,本发明的目的在于提供一种自动编曲方法及系统,能够大幅提升乐曲创作效率并降低乐曲创作成本。其具体方案如下:
一种自动编曲方法,包括:
步骤S11:确定与初始时刻对应的输入音符,得到当前输入音符;
步骤S12:对当前输入音符进行特征提取,得到当前输入音符特征;
步骤S13:将当前输入音符特征输入至预先创建的训练模型中,得到所述训练模型相应输出的音符,得到当前输出音符;
步骤S14:将当前输出音符确定为下一时刻对应的输入音符,并将下一时刻确定为当前时刻,然后重新进入步骤S12,直到循环次数达到预设次数阈值,并对每个时刻对应的输出音符进行合并,得到相应的乐曲;
其中,所述训练模型的创建过程包括:获取音乐训练样本,提取所述音乐训练样本的时间维度特征信息以及在不同时刻下对应的音符维度特征信息,利用所述时间维度特征信息和所述音符维度特征信息进行模型训练,得到所述训练模型。
可选的,任一时刻下对应的音符维度特征信息的提取过程,包括:
提取当前时刻下对应的音符的第一音符特征向量、第二音符特征向量、第三音符特征向量、第四音符特征向量以及第五音符特征向量;
其中,所述第一音符特征向量为用于对相应音符的音高在MIDI文件中对应的数字值进行记录的向量,所述第二音符特征向量为用于对相应音符在一个八度内的位置进行记录的向量,所述第三音符特征向量为用于对当前时刻下的音符和上一时刻下的音符之间的关系进行记录的向量,所述第四音符特征向量为用于对上一时刻关联关系进行记录的向量,所述第五音符特征向量为用于对节拍进行记录的向量。
可选的,所述利用所述时间维度特征信息和所述音符维度特征信息进行模型训练,得到所述训练模型的过程,包括:
将所述时间维度特征信息以及所述音符维度特征信息输入到预先设计的神经网络模型中进行模型训练,得到所述训练模型。
可选的,所述神经网络模型为预先基于LSTM神经网络设计的模型。
可选的,所述利用所述时间维度特征信息和所述音符维度特征信息进行模型训练,得到所述训练模型的过程之后,还包括:
利用梯度下降方法对所述训练模型进行更新处理。
本发明还相应公开了一种自动编曲系统,包括模型创建模块、音符确定模块、特征提取模块、音符获取模块以及乐曲生成模块;其中,
所述模型创建模块,用于预先创建训练模型;
所述音符确定模块,用于确定与初始时刻对应的输入音符,得到当前输入音符;
所述特征提取模块,用于对当前输入音符进行特征提取,得到当前输入音符特征;
所述音符获取模块,用于将当前输入音符特征输入至所述训练模型中,得到所述训练模型相应输出的音符,得到当前输出音符;
所述乐曲生成模块,用于将当前输出音符确定为下一时刻对应的输入音符,并将下一时刻确定为当前时刻,然后重新启动所述特征提取模块,直到启动次数达到预设次数阈值,并对每个时刻对应的输出音符进行合并,得到相应的乐曲;
其中,所述模型创建模块,包括:
样本获取单元,用于获取音乐训练样本;
特征提取单元,用于提取所述音乐训练样本的时间维度特征信息以及在不同时刻下对应的音符维度特征信息;
模型训练单元,用于利用所述时间维度特征信息和所述音符维度特征信息进行模型训练,得到所述训练模型。
可选的,所述特征提取单元,具体用于提取当前时刻下对应的音符的第一音符特征向量、第二音符特征向量、第三音符特征向量、第四音符特征向量以及第五音符特征向量;
其中,所述第一音符特征向量为用于对相应音符的音高在MIDI文件中对应的数字值进行记录的向量,所述第二音符特征向量为用于对相应音符在一个八度内的位置进行记录的向量,所述第三音符特征向量为用于对当前时刻下的音符和上一时刻下的音符之间的关系进行记录的向量,所述第四音符特征向量为用于对上一时刻关联关系进行记录的向量,所述第五音符特征向量为用于对节拍进行记录的向量。
可选的,所述模型训练单元,具体用于将所述时间维度特征信息以及所述音符维度特征信息输入到预先设计的神经网络模型中进行模型训练,得到所述训练模型。
可选的,所述模型训练单元,具体用于将所述时间维度特征信息以及所述音符维度特征信息输入到预先基于LSTM神经网络设计的模型中进行模型训练,得到所述训练模型。
可选的,所述自动编曲系统,还包括:
模型更新模块,用于利用梯度下降方法对所述模型训练单元得到的所述训练模型进行更新处理。
本发明中,自动编曲方法,包括:步骤S11:确定与初始时刻对应的输入音符,得到当前输入音符;步骤S12:对当前输入音符进行特征提取,得到当前输入音符特征;步骤S13:将当前输入音符特征输入至预先创建的训练模型中,得到训练模型相应输出的音符,得到当前输出音符;步骤S14:将当前输出音符确定为下一时刻对应的输入音符,并将下一时刻确定为当前时刻,然后重新进入步骤S12,直到循环次数达到预设次数阈值,并对每个时刻对应的输出音符进行合并,得到相应的乐曲;其中,训练模型的创建过程包括:获取音乐训练样本,提取音乐训练样本的时间维度特征信息以及在不同时刻下对应的音符维度特征信息,利用时间维度特征信息和音符维度特征信息进行模型训练,得到训练模型。
可见,本发明预先利用音乐训练样本中的时间维度特征信息以及音符维度特征信息来进行模型训练,得到相应的训练模型,后续通过上述训练模型确定出多个时刻下对应的输出音符,通过将上述多个时刻下对应的输出音符进行合并,便可以得到相应的乐曲,由于上述过程中无需涉及到人工操作,从而大幅提升了乐曲的创作效率,与此同时,也降低了乐曲的创作成本,降低了乐曲创作门槛。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例公开的一种自动编曲方法流程图;
图2为本发明实施例公开的一种自动编曲系统结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种自动编曲方法,参见图1所示,该方法包括:
步骤S11:确定与初始时刻对应的输入音符,得到当前输入音符。
需要说明的是,上述确定与初始时刻对应的输入音符的过程,具体可以包括:通过随机产生的方式来确定出与初始时刻对应的输入音符。例如,通过随机抽取的方式,从预先创建的音符库中随机抽取出一个音符作为与上述初始时刻对应的输入音符,从而得到上述步骤S11中的当前输入音符。
另外,可以理解的是,上述音符库具体可以为用于对各种类型曲风所对应的音符进行分类存储的数据库。当需要使用本实施例中的方法进行自动编曲时,可以根据希望创建的乐曲的曲风,从上述音符库的保存有上述曲风的存储区域中随机抽取出一个音符作为上述初始时刻对应的输入音符。
步骤S12:对当前输入音符进行特征提取,得到当前输入音符特征。
步骤S13:将当前输入音符特征输入至预先创建的训练模型中,得到训练模型相应输出的音符,得到当前输出音符。
步骤S14:将当前输出音符确定为下一时刻对应的输入音符,并将下一时刻确定为当前时刻,然后重新进入步骤S12,直到循环次数达到预设次数阈值,并对每个时刻对应的输出音符进行合并,得到相应的乐曲。
其中,训练模型的创建过程包括:获取音乐训练样本,提取音乐训练样本的时间维度特征信息以及在不同时刻下对应的音符维度特征信息,利用时间维度特征信息和音符维度特征信息进行模型训练,得到训练模型。
需要说明的是,上述预设次数阈值具体为根据需创作乐曲的时间长度来确定出的阈值。
本实施例中,上述音乐训练样本中包含多个训练样本,而且不同训练样本所对应的曲风可以相同,也可以不相同,例如可以利用曲风为流行、蓝调、古典、爵士等多种不同曲风的训练样本来进行模型训练。另外需要说明的是,任一个训练样本对应的时间维度特征信息是指该训练样本在时间轴上的时刻信息,任一个训练样本对应的音符维度特征信息是指该训练样本在不同时刻下的音符的特征信息。
可见,本发明实施例预先利用音乐训练样本中的时间维度特征信息以及音符维度特征信息来进行模型训练,得到相应的训练模型,后续通过上述训练模型确定出多个时刻下对应的输出音符,通过将上述多个时刻下对应的输出音符进行合并,便可以得到相应的乐曲,由于上述过程中无需涉及到人工操作,从而大幅提升了乐曲的创作效率,与此同时,也降低了乐曲的创作成本,降低了乐曲创作门槛。
本发明实施例公开了一种具体的自动编曲方法,相对于上一实施例,本实施例对技术方案作了进一步的说明和优化。具体的:
在上一实施例的训练模型的创建过程中,任一时刻下对应的音符维度特征信息的提取过程,具体可以包括:
提取当前时刻下对应的音符的第一音符特征向量、第二音符特征向量、第三音符特征向量、第四音符特征向量以及第五音符特征向量;
其中,第一音符特征向量为用于对相应音符的音高在MIDI文件(MIDI,即MusicalInstrument Digital Interface,乐器数字接口)中对应的数字值进行记录的向量,具体的,MIDI格式用0~127来表示C-2到G8的音高,每升高半个音,数字加一,例如,A4的MIDI值是69,B4的MIDI值是71;第二音符特征向量为用于对相应音符在一个八度内的位置进行记录的向量,具体的,在MIDI中,一个八度有十二个音,用一个12维向量来表示,每个位置表示用1或者0来表示是否被演奏,当前被演奏音符所在位置值为1,其他位置值为0;第三音符特征向量为用于对当前时刻下的音符和上一时刻下的音符之间的关系进行记录的向量,具体的,可以在当前时刻音符的前后两个八度之间(前12个音和后12个音),每个位置用一个2维来表示,第一维表示当前时刻音符是否被演奏,如演奏则值为1,否则值为0;第二维表示上一时刻音符是否被重复演奏(这里的重复演奏是指再次演奏,而不是一直保持演奏),如重复演奏则值为1,否则值为0;第四音符特征向量为用于对上一时刻关联关系进行记录的向量,具体的,可以以12维向量来表示,在位置i的值等于上一时刻该位置音符的演奏次数,例如当前时刻音符是C,并且上一时候演奏了2次E,那么在第四个位置的值是2;第五音符特征向量为用于对节拍进行记录的向量,具体的,可以使用4维数据来表示节拍,每一维是0或1,以4/4拍为例,以0000、0001、0010…1110、1111来循环记录节拍。
另外,在上一实施例的训练模型的创建过程中,利用时间维度特征信息和音符维度特征信息进行模型训练,得到训练模型的过程,具体可以包括:
将时间维度特征信息以及音符维度特征信息输入到预先设计的神经网络模型中进行模型训练,得到训练模型。
本实施例中,上述神经网络模型优先为预先基于LSTM神经网络(LSTM,即Long-Short Term Memory,长短期记忆)设计的模型。
具体的,利用音乐训练样本中的任一训练样本进行模型训练的过程,具体可以包括:对该训练样本进行特征提取,得到该训练样本的时间维度特征信息以及音符维度特征信息,然后上述特征信息输入到上述基于LSTM神经网络设计的模型中进行训练即可。
另外,在利用时间维度特征信息和音符维度特征信息进行模型训练,得到训练模型的过程之后,还可以进一步包括:利用梯度下降方法对训练模型进行更新处理,以优化训练模型。
相应的,本发明实施例还公开了一种自动编曲系统,参见图2所示,该系统包括模型创建模块11、音符确定模块12、特征提取模块13、音符获取模块14以及乐曲生成模块15;其中,
模型创建模块11,用于预先创建训练模型;
音符确定模块12,用于确定与初始时刻对应的输入音符,得到当前输入音符;
特征提取模块13,用于对当前输入音符进行特征提取,得到当前输入音符特征;
音符获取模块14,用于将当前输入音符特征输入至训练模型中,得到训练模型相应输出的音符,得到当前输出音符;
乐曲生成模块15,用于将当前输出音符确定为下一时刻对应的输入音符,并将下一时刻确定为当前时刻,然后重新启动特征提取模块,直到启动次数达到预设次数阈值,并对每个时刻对应的输出音符进行合并,得到相应的乐曲;
其中,模型创建模块11,包括:
样本获取单元111,用于获取音乐训练样本;
特征提取单元112,用于提取音乐训练样本的时间维度特征信息以及在不同时刻下对应的音符维度特征信息;
模型训练单元113,用于利用时间维度特征信息和音符维度特征信息进行模型训练,得到训练模型。
其中,上述特征提取单元112,具体可以用于提取当前时刻下对应的音符的第一音符特征向量、第二音符特征向量、第三音符特征向量、第四音符特征向量以及第五音符特征向量;
其中,第一音符特征向量为用于对相应音符的音高在MIDI文件中对应的数字值进行记录的向量,第二音符特征向量为用于对相应音符在一个八度内的位置进行记录的向量,第三音符特征向量为用于对当前时刻下的音符和上一时刻下的音符之间的关系进行记录的向量,第四音符特征向量为用于对上一时刻关联关系进行记录的向量,第五音符特征向量为用于对节拍进行记录的向量。
另外,上述模型训练单元113,具体可以用于将时间维度特征信息以及音符维度特征信息输入到预先设计的神经网络模型中进行模型训练,得到训练模型。
更具体的,上述模型训练单元113,可以用于将时间维度特征信息以及音符维度特征信息输入到预先基于LSTM神经网络设计的模型中进行模型训练,得到训练模型。
进一步的,本实施例中的自动编曲系统,还可以包括:
模型更新模块,用于利用梯度下降方法对模型训练单元得到的训练模型进行更新处理。
可见,本发明实施例预先利用音乐训练样本中的时间维度特征信息以及音符维度特征信息来进行模型训练,得到相应的训练模型,后续通过上述训练模型确定出多个时刻下对应的输出音符,通过将上述多个时刻下对应的输出音符进行合并,便可以得到相应的乐曲,由于上述过程中无需涉及到人工操作,从而大幅提升了乐曲的创作效率,与此同时,也降低了乐曲的创作成本,降低了乐曲创作门槛。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上对本发明所提供的一种自动编曲方法及系统进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种自动编曲方法,其特征在于,包括:
步骤S11:确定与初始时刻对应的输入音符,得到当前输入音符;
步骤S12:对当前输入音符进行特征提取,得到当前输入音符特征;
步骤S13:将当前输入音符特征输入至预先创建的训练模型中,得到所述训练模型相应输出的音符,得到当前输出音符;
步骤S14:将当前输出音符确定为下一时刻对应的输入音符,并将下一时刻确定为当前时刻,然后重新进入步骤S12,直到循环次数达到预设次数阈值,并对每个时刻对应的输出音符进行合并,得到相应的乐曲;
其中,所述训练模型的创建过程包括:获取音乐训练样本,提取所述音乐训练样本的时间维度特征信息以及在不同时刻下对应的音符维度特征信息,利用所述时间维度特征信息和所述音符维度特征信息进行模型训练,得到所述训练模型。
2.根据权利要求1所述的自动编曲方法,其特征在于,任一时刻下对应的音符维度特征信息的提取过程,包括:
提取当前时刻下对应的音符的第一音符特征向量、第二音符特征向量、第三音符特征向量、第四音符特征向量以及第五音符特征向量;
其中,所述第一音符特征向量为用于对相应音符的音高在MIDI文件中对应的数字值进行记录的向量,所述第二音符特征向量为用于对相应音符在一个八度内的位置进行记录的向量,所述第三音符特征向量为用于对当前时刻下的音符和上一时刻下的音符之间的关系进行记录的向量,所述第四音符特征向量为用于对上一时刻关联关系进行记录的向量,所述第五音符特征向量为用于对节拍进行记录的向量。
3.根据权利要求1或2所述的自动编曲方法,其特征在于,所述利用所述时间维度特征信息和所述音符维度特征信息进行模型训练,得到所述训练模型的过程,包括:
将所述时间维度特征信息以及所述音符维度特征信息输入到预先设计的神经网络模型中进行模型训练,得到所述训练模型。
4.根据权利要求3所述的自动编曲方法,其特征在于,
所述神经网络模型为预先基于LSTM神经网络设计的模型。
5.根据权利要求4所述的自动编曲方法,其特征在于,所述利用所述时间维度特征信息和所述音符维度特征信息进行模型训练,得到所述训练模型的过程之后,还包括:
利用梯度下降方法对所述训练模型进行更新处理。
6.一种自动编曲系统,其特征在于,包括模型创建模块、音符确定模块、特征提取模块、音符获取模块以及乐曲生成模块;其中,
所述模型创建模块,用于预先创建训练模型;
所述音符确定模块,用于确定与初始时刻对应的输入音符,得到当前输入音符;
所述特征提取模块,用于对当前输入音符进行特征提取,得到当前输入音符特征;
所述音符获取模块,用于将当前输入音符特征输入至所述训练模型中,得到所述训练模型相应输出的音符,得到当前输出音符;
所述乐曲生成模块,用于将当前输出音符确定为下一时刻对应的输入音符,并将下一时刻确定为当前时刻,然后重新启动所述特征提取模块,直到启动次数达到预设次数阈值,并对每个时刻对应的输出音符进行合并,得到相应的乐曲;
其中,所述模型创建模块,包括:
样本获取单元,用于获取音乐训练样本;
特征提取单元,用于提取所述音乐训练样本的时间维度特征信息以及在不同时刻下对应的音符维度特征信息;
模型训练单元,用于利用所述时间维度特征信息和所述音符维度特征信息进行模型训练,得到所述训练模型。
7.根据权利要求6所述的自动编曲系统,其特征在于,
所述特征提取单元,具体用于提取当前时刻下对应的音符的第一音符特征向量、第二音符特征向量、第三音符特征向量、第四音符特征向量以及第五音符特征向量;
其中,所述第一音符特征向量为用于对相应音符的音高在MIDI文件中对应的数字值进行记录的向量,所述第二音符特征向量为用于对相应音符在一个八度内的位置进行记录的向量,所述第三音符特征向量为用于对当前时刻下的音符和上一时刻下的音符之间的关系进行记录的向量,所述第四音符特征向量为用于对上一时刻关联关系进行记录的向量,所述第五音符特征向量为用于对节拍进行记录的向量。
8.根据权利要求6或7所述的自动编曲系统,其特征在于,
所述模型训练单元,具体用于将所述时间维度特征信息以及所述音符维度特征信息输入到预先设计的神经网络模型中进行模型训练,得到所述训练模型。
9.根据权利要求8所述的自动编曲系统,其特征在于,
所述模型训练单元,具体用于将所述时间维度特征信息以及所述音符维度特征信息输入到预先基于LSTM神经网络设计的模型中进行模型训练,得到所述训练模型。
10.根据权利要求9所述的自动编曲系统,其特征在于,还包括:
模型更新模块,用于利用梯度下降方法对所述模型训练单元得到的所述训练模型进行更新处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710317274.7A CN107123415B (zh) | 2017-05-04 | 2017-05-04 | 一种自动编曲方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710317274.7A CN107123415B (zh) | 2017-05-04 | 2017-05-04 | 一种自动编曲方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107123415A true CN107123415A (zh) | 2017-09-01 |
CN107123415B CN107123415B (zh) | 2020-12-18 |
Family
ID=59727441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710317274.7A Expired - Fee Related CN107123415B (zh) | 2017-05-04 | 2017-05-04 | 一种自动编曲方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107123415B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108009218A (zh) * | 2017-11-21 | 2018-05-08 | 华南理工大学 | 基于聚类分析的个性化音乐协同创作匹配方法及系统 |
CN108806657A (zh) * | 2018-06-05 | 2018-11-13 | 平安科技(深圳)有限公司 | 音乐模型训练、音乐创作方法、装置、终端及存储介质 |
CN109192187A (zh) * | 2018-06-04 | 2019-01-11 | 平安科技(深圳)有限公司 | 基于人工智能的作曲方法、系统、计算机设备和存储介质 |
CN109285560A (zh) * | 2018-09-28 | 2019-01-29 | 北京奇艺世纪科技有限公司 | 一种音乐特征提取方法、装置及电子设备 |
CN109326270A (zh) * | 2018-09-18 | 2019-02-12 | 平安科技(深圳)有限公司 | 音频文件的生成方法、终端设备及介质 |
CN109346045A (zh) * | 2018-10-26 | 2019-02-15 | 平安科技(深圳)有限公司 | 基于长短时神经网络的多声部音乐生成方法及装置 |
CN109360543A (zh) * | 2018-09-12 | 2019-02-19 | 范子文 | 一种发音组件的定制方法和装置 |
CN109448684A (zh) * | 2018-11-12 | 2019-03-08 | 量子云未来(北京)信息科技有限公司 | 一种智能编曲方法和系统 |
CN109727590A (zh) * | 2018-12-24 | 2019-05-07 | 成都嗨翻屋科技有限公司 | 基于循环神经网络的音乐生成方法及装置 |
CN109785818A (zh) * | 2018-12-18 | 2019-05-21 | 武汉西山艺创文化有限公司 | 一种基于深度学习的音乐编曲方法和系统 |
CN110120212A (zh) * | 2019-04-08 | 2019-08-13 | 华南理工大学 | 基于用户示范音频风格的钢琴辅助作曲系统及方法 |
CN110136678A (zh) * | 2019-04-26 | 2019-08-16 | 北京奇艺世纪科技有限公司 | 一种编曲方法、装置及电子设备 |
CN110288965A (zh) * | 2019-05-21 | 2019-09-27 | 北京达佳互联信息技术有限公司 | 一种音乐合成方法、装置、电子设备及存储介质 |
CN110660375A (zh) * | 2018-06-28 | 2020-01-07 | 北京搜狗科技发展有限公司 | 一种生成乐曲的方法、装置和设备 |
CN115004294A (zh) * | 2020-02-17 | 2022-09-02 | 雅马哈株式会社 | 编曲生成方法、编曲生成装置以及生成程序 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2109609A (en) * | 1981-09-14 | 1983-06-02 | Casio Computer Co Ltd | Automatic accompaniment apparatus |
JPH07199922A (ja) * | 1993-12-28 | 1995-08-04 | Yamaha Corp | 自動編曲装置 |
CN1328679A (zh) * | 1998-09-24 | 2001-12-26 | 马达尔萨尔公司 | 自动音乐生成方法和系统 |
CN1737797A (zh) * | 2005-09-08 | 2006-02-22 | 上海交通大学 | 基于内容的数字音乐检索旋律特征数据库及生成系统 |
US7189914B2 (en) * | 2000-11-17 | 2007-03-13 | Allan John Mack | Automated music harmonizer |
CN101076850A (zh) * | 2004-10-11 | 2007-11-21 | 弗劳恩霍夫应用研究促进协会 | 用于提取构成音频信号基础的旋律的方法和设备 |
CN103902642A (zh) * | 2012-12-21 | 2014-07-02 | 香港科技大学 | 利用歌词与旋律之间的相关性的音乐作曲系统 |
CN105893460A (zh) * | 2016-03-22 | 2016-08-24 | 上海班砖网络科技有限公司 | 一种基于人工智能技术的音乐自动创作方法及装置 |
CN106205572A (zh) * | 2016-06-28 | 2016-12-07 | 海信集团有限公司 | 音符序列生成方法及装置 |
-
2017
- 2017-05-04 CN CN201710317274.7A patent/CN107123415B/zh not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2109609A (en) * | 1981-09-14 | 1983-06-02 | Casio Computer Co Ltd | Automatic accompaniment apparatus |
JPH07199922A (ja) * | 1993-12-28 | 1995-08-04 | Yamaha Corp | 自動編曲装置 |
CN1328679A (zh) * | 1998-09-24 | 2001-12-26 | 马达尔萨尔公司 | 自动音乐生成方法和系统 |
US7189914B2 (en) * | 2000-11-17 | 2007-03-13 | Allan John Mack | Automated music harmonizer |
CN101076850A (zh) * | 2004-10-11 | 2007-11-21 | 弗劳恩霍夫应用研究促进协会 | 用于提取构成音频信号基础的旋律的方法和设备 |
CN1737797A (zh) * | 2005-09-08 | 2006-02-22 | 上海交通大学 | 基于内容的数字音乐检索旋律特征数据库及生成系统 |
CN103902642A (zh) * | 2012-12-21 | 2014-07-02 | 香港科技大学 | 利用歌词与旋律之间的相关性的音乐作曲系统 |
CN105893460A (zh) * | 2016-03-22 | 2016-08-24 | 上海班砖网络科技有限公司 | 一种基于人工智能技术的音乐自动创作方法及装置 |
CN106205572A (zh) * | 2016-06-28 | 2016-12-07 | 海信集团有限公司 | 音符序列生成方法及装置 |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108009218A (zh) * | 2017-11-21 | 2018-05-08 | 华南理工大学 | 基于聚类分析的个性化音乐协同创作匹配方法及系统 |
CN109192187A (zh) * | 2018-06-04 | 2019-01-11 | 平安科技(深圳)有限公司 | 基于人工智能的作曲方法、系统、计算机设备和存储介质 |
CN108806657A (zh) * | 2018-06-05 | 2018-11-13 | 平安科技(深圳)有限公司 | 音乐模型训练、音乐创作方法、装置、终端及存储介质 |
WO2019232928A1 (zh) * | 2018-06-05 | 2019-12-12 | 平安科技(深圳)有限公司 | 音乐模型训练、音乐创作方法、装置、终端及存储介质 |
CN110660375B (zh) * | 2018-06-28 | 2024-06-04 | 北京搜狗科技发展有限公司 | 一种生成乐曲的方法、装置和设备 |
CN110660375A (zh) * | 2018-06-28 | 2020-01-07 | 北京搜狗科技发展有限公司 | 一种生成乐曲的方法、装置和设备 |
CN109360543A (zh) * | 2018-09-12 | 2019-02-19 | 范子文 | 一种发音组件的定制方法和装置 |
CN109360543B (zh) * | 2018-09-12 | 2023-01-31 | 范子文 | 一种发音组件的定制方法和装置 |
CN109326270A (zh) * | 2018-09-18 | 2019-02-12 | 平安科技(深圳)有限公司 | 音频文件的生成方法、终端设备及介质 |
CN109285560A (zh) * | 2018-09-28 | 2019-01-29 | 北京奇艺世纪科技有限公司 | 一种音乐特征提取方法、装置及电子设备 |
CN109285560B (zh) * | 2018-09-28 | 2021-09-03 | 北京奇艺世纪科技有限公司 | 一种音乐特征提取方法、装置及电子设备 |
WO2020082573A1 (zh) * | 2018-10-26 | 2020-04-30 | 平安科技(深圳)有限公司 | 基于长短时神经网络的多声部音乐生成方法及装置 |
CN109346045B (zh) * | 2018-10-26 | 2023-09-19 | 平安科技(深圳)有限公司 | 基于长短时神经网络的多声部音乐生成方法及装置 |
CN109346045A (zh) * | 2018-10-26 | 2019-02-15 | 平安科技(深圳)有限公司 | 基于长短时神经网络的多声部音乐生成方法及装置 |
CN109448684B (zh) * | 2018-11-12 | 2023-11-17 | 合肥科拉斯特网络科技有限公司 | 一种智能编曲方法和系统 |
CN109448684A (zh) * | 2018-11-12 | 2019-03-08 | 量子云未来(北京)信息科技有限公司 | 一种智能编曲方法和系统 |
CN109785818A (zh) * | 2018-12-18 | 2019-05-21 | 武汉西山艺创文化有限公司 | 一种基于深度学习的音乐编曲方法和系统 |
CN109727590A (zh) * | 2018-12-24 | 2019-05-07 | 成都嗨翻屋科技有限公司 | 基于循环神经网络的音乐生成方法及装置 |
CN110120212A (zh) * | 2019-04-08 | 2019-08-13 | 华南理工大学 | 基于用户示范音频风格的钢琴辅助作曲系统及方法 |
CN110120212B (zh) * | 2019-04-08 | 2023-05-23 | 华南理工大学 | 基于用户示范音频风格的钢琴辅助作曲系统及方法 |
CN110136678B (zh) * | 2019-04-26 | 2022-06-03 | 北京奇艺世纪科技有限公司 | 一种编曲方法、装置及电子设备 |
CN110136678A (zh) * | 2019-04-26 | 2019-08-16 | 北京奇艺世纪科技有限公司 | 一种编曲方法、装置及电子设备 |
CN110288965B (zh) * | 2019-05-21 | 2021-06-18 | 北京达佳互联信息技术有限公司 | 一种音乐合成方法、装置、电子设备及存储介质 |
CN110288965A (zh) * | 2019-05-21 | 2019-09-27 | 北京达佳互联信息技术有限公司 | 一种音乐合成方法、装置、电子设备及存储介质 |
CN115004294A (zh) * | 2020-02-17 | 2022-09-02 | 雅马哈株式会社 | 编曲生成方法、编曲生成装置以及生成程序 |
Also Published As
Publication number | Publication date |
---|---|
CN107123415B (zh) | 2020-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107123415B (zh) | 一种自动编曲方法及系统 | |
Benetos et al. | Automatic music transcription: challenges and future directions | |
US7696426B2 (en) | Recombinant music composition algorithm and method of using the same | |
CN112382257B (zh) | 一种音频处理方法、装置、设备及介质 | |
CN109036355B (zh) | 自动作曲方法、装置、计算机设备和存储介质 | |
JP2018537727A (ja) | 言語および/またはグラフィカルアイコンベースの音楽体験記述子を採用する自動化音楽作曲および生成機械、システムおよびプロセス | |
JP7415922B2 (ja) | 情報処理方法、情報処理装置及び情報処理プログラム | |
US11948542B2 (en) | Systems, devices, and methods for computer-generated musical note sequences | |
US12014708B2 (en) | Systems, devices, and methods for harmonic structure in digital representations of music | |
US10957293B2 (en) | Systems, devices, and methods for varying musical compositions | |
Meade et al. | Exploring conditioning for generative music systems with human-interpretable controls | |
Zhou et al. | BandNet: A neural network-based, multi-instrument Beatles-style MIDI music composition machine | |
CN109448684B (zh) | 一种智能编曲方法和系统 | |
CN112669811A (zh) | 一种歌曲处理方法、装置、电子设备及可读存储介质 | |
Weiß et al. | Timbre-invariant audio features for style analysis of classical music | |
JP2013164609A (ja) | 歌唱合成用データベース生成装置、およびピッチカーブ生成装置 | |
WO2021166745A1 (ja) | アレンジ生成方法、アレンジ生成装置、及び生成プログラム | |
CN112825244B (zh) | 配乐音频生成方法和装置 | |
CN101710367A (zh) | 基于勋伯格十二音体系的计算机作曲方法 | |
KR102227415B1 (ko) | 복선율 음악 생성 방법, 장치, 및 시스템 | |
CN113096624A (zh) | 交响乐曲自动创作方法、装置、设备及存储介质 | |
CN113851098B (zh) | 一种旋律的风格转换方法、装置、终端设备及存储介质 | |
CN112489607A (zh) | 录制歌曲的方法、装置、电子设备及可读存储介质 | |
WO2022244818A1 (ja) | 機械学習モデルを用いた音生成方法および音生成装置 | |
JP4735221B2 (ja) | 演奏データ編集装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20201218 Termination date: 20210504 |