CN106847294B - 基于人工智能的音频处理方法和装置 - Google Patents
基于人工智能的音频处理方法和装置 Download PDFInfo
- Publication number
- CN106847294B CN106847294B CN201710031469.5A CN201710031469A CN106847294B CN 106847294 B CN106847294 B CN 106847294B CN 201710031469 A CN201710031469 A CN 201710031469A CN 106847294 B CN106847294 B CN 106847294B
- Authority
- CN
- China
- Prior art keywords
- picture
- style
- processed
- audio
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 24
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 14
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000012545 processing Methods 0.000 claims abstract description 24
- 239000000284 extract Substances 0.000 claims abstract description 12
- 239000011159 matrix material Substances 0.000 claims description 49
- 238000013527 convolutional neural network Methods 0.000 claims description 47
- 239000012634 fragment Substances 0.000 claims description 17
- 238000012546 transfer Methods 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 12
- 238000005520 cutting process Methods 0.000 claims description 10
- 238000011478 gradient descent method Methods 0.000 claims description 8
- 230000001537 neural effect Effects 0.000 claims description 6
- 230000000694 effects Effects 0.000 abstract description 7
- 230000006870 function Effects 0.000 description 111
- 238000010586 diagram Methods 0.000 description 12
- 238000003860 storage Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000006854 communication Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000008676 import Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 206010008190 Cerebrovascular accident Diseases 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 208000006011 Stroke Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- XDDAORKBJWWYJS-UHFFFAOYSA-N glyphosate Chemical compound OC(=O)CNCP(O)(O)=O XDDAORKBJWWYJS-UHFFFAOYSA-N 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000003475 lamination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
- H04N1/00204—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
- H04N1/00129—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a display device, e.g. CRT or LCD monitor
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了基于人工智能的音频处理方法和装置。该方法的一具体实施方式包括:转换待处理音频为待处理图片;提取待处理图片的内容特征;根据风格特征和待处理图片的内容特征确定目标图片,风格特征从模板音频转换成的模板图片中得到;将目标图片转换为处理后的音频。该实施方式在不改变待处理音频的内容的同时,实现了处理后的音频带有模板音频风格的处理效果,提高了音频处理的效率和灵活性。
Description
技术领域
本申请涉及计算机技术领域,具体涉及音频处理领域,尤其涉及基于人工智能的音频处理方法和装置。
背景技术
人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。
目前的对音频的处理主要有以下两种,一种是通过改变音频的基频或者共振峰对音频进行处理;另一种是语音合成,进行语音合成时,首先要采集带标注的模板音频的数据,然后基于采集到的数据训练模型,模型的输入为文本,因此需要先对待合成的音频首先要进行语音识别,再将识别出的文本输入训练好的模型生成音频。上述第一种方法对音频的处理缺乏灵活性,不能实现很好的处理效果,第二种方法所需样本音频数据量大,且处理时需要先将待处理音频转换为文本,处理效率低。
发明内容
本申请的目的在于提出一种改进的基于人工智能的音频处理方法和装置,来解决以上背景技术部分提到的技术问题。
第一方面,本申请提供了一种基于人工智能的音频处理方法,该方法包括:转换待处理音频为待处理图片;提取待处理图片的内容特征;根据风格特征和待处理图片的内容特征确定目标图片,风格特征从模板音频转换成的模板图片中得到;将目标图片转换为处理后的音频。
在一些实施例中,转换待处理音频为待处理图片,包括:按照预设时间间隔将待处理音频切分为音频片段;将音频片段的声波图、频谱图或语谱图确定为待处理图片。
在一些实施例中,提取待处理图片的内容特征,包括:将待处理图片输入预先训练的卷积神经网络,卷积神经网络用于提取图像特征;将卷积神经网络中至少一个卷积层输出的矩阵,作为待处理图片的内容特征。
在一些实施例中,风格特征是经由以下步骤确定的:将模板图片输入预先训练的卷积神经网络,卷积神经网络用于提取图像特征;将卷积神经网络中至少一个卷积层输出的矩阵作为模板图片的风格特征。
在一些实施例中,根据风格特征和待处理图片的内容特征确定目标图片,包括:将待处理图片的内容特征导入预设的风格迁移模型,获取风格迁移模型的输出作为目标图片。
在一些实施例中,根据风格特征和待处理图片的内容特征确定目标图片,包括:提取初始目标图片的内容特征和风格特征;根据待处理图片的内容特征,和初始目标图片的内容特征确定内容损失函数;根据模板图片的风格特征,和初始目标图片的风格特征确定风格损失函数;根据内容损失函数和风格损失函数确定总损失函数;根据总损失函数调整初始目标图片,得到目标图片。
在一些实施例中,内容损失函数根据待处理图片的内容特征和初始目标图片的内容特征的均方差得到。
在一些实施例中,风格损失函数根据以下步骤确定:根据模板图片的风格特征和初始目标图片的风格特征,分别确定模板图片的格拉姆矩阵和初始目标图片的格拉姆矩阵;根据模板图片的格拉姆矩阵和初始目标图片的格拉姆矩阵的均方差,确定风格损失函数。
在一些实施例中,总损失函数根据加权后的内容损失函数和加权后的风格损失函数之和得到。
在一些实施例中,根据总损失函数调整初始目标图片,得到目标图片,进一步包括:基于梯度下降法和总损失函数调整初始目标图片,使得总损失函数取得极小值;将总损失函数的极小值对应的调整后的图片作为目标图片。
第二方面,本申请提供了一种基于人工智能的音频处理的装置,该装置包括:第一转换单元,用于转换待处理音频为待处理图片;提取单元,用于提取待处理图片的内容特征;确定单元,用于根据风格特征和待处理图片的内容特征确定目标图片,风格特征从模板音频转换成的模板图片中得到;第二转换单元,用于将目标图片转换为处理后的音频。
在一些实施例中,第一转换单元包括:切分子单元,用于按照预设时间间隔将待处理音频切分为音频片段;待处理图片确定子单元,用于将音频片段的声波图、频谱图或语谱图确定为待处理图片。
在一些实施例中,提取单元包括:输入子单元,用于将待处理图片输入预先训练的卷积神经网络,卷积神经网络用于提取图像特征;内容特征确定子单元,用于将卷积神经网络中至少一个卷积层输出的矩阵,作为待处理图片的内容特征。
在一些实施例中,装置还包括:风格特征确定单元,用于将模板图片输入预先训练的卷积神经网络,卷积神经网络用于提取图像特征;将卷积神经网络中至少一个卷积层输出的矩阵作为模板图片的风格特征。
在一些实施例中,确定单元进一步用于:将待处理图片的内容特征导入预设的风格迁移模型,获取风格迁移模型的输出作为目标图片。
在一些实施例中,确定单元包括:提取子单元,用于提取初始目标图片的内容特征和风格特征;内容损失函数确定子单元,用于根据待处理图片的内容特征,和初始目标图片的内容特征确定内容损失函数;风格损失函数确定子单元,用于根据模板图片的风格特征,和初始目标图片的风格特征确定风格损失函数;总损失函数确定子单元,用于根据内容损失函数和风格损失函数确定总损失函数;调整子单元,用于根据总损失函数调整初始目标图片,得到目标图片。
在一些实施例中,内容损失函数确定子单元进一步用于:根据待处理图片的内容特征和初始目标图片的内容特征的均方差得到内容损失函数。
在一些实施例中,风格损失函数确定子单元进一步用于:根据模板图片的风格特征和初始目标图片的风格特征,分别确定模板图片的格拉姆矩阵和初始目标图片的格拉姆矩阵;根据模板图片的格拉姆矩阵和初始目标图片的格拉姆矩阵的均方差,确定风格损失函数。
在一些实施例中,总损失函数确定子单元进一步用于:根据加权后的内容损失函数和加权后的风格损失函数之和得到总损失函数。
在一些实施例中,其特征在于,调整子单元进一步用于:基于梯度下降法和总损失函数调整初始目标图片,使得总损失函数取得极小值;将总损失函数的极小值对应的调整后的图片作为目标图片。
本申请提供的音频处理方法和装置,通过转换待处理音频为待处理图片,而后提取待处理图片的内容特征,之后根据风格特征和待处理图片的内容特征确定目标图片,最后将目标图片转换为处理后的音频,在不改变待处理音频的内容的同时,实现了处理后的音频带有模板音频风格的处理效果,提高了音频处理的效率和灵活性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的音频处理方法的一个实施例的示意性流程图;
图3A是根据本申请的音频处理方法的应用场景中待处理图片的示意图;
图3B是根据本申请的音频处理方法的应用场景中风格图片的示意图;
图3C是根据本申请的音频处理方法的应用场景中目标图片的示意图;
图3D是根据本申请的音频处理方法的应用场景中语谱图的示意图;
图4是根据本申请的音频处理方法的又一个实施例的示意性流程图;
图5是根据本申请的音频处理的装置的一个实施例的示例性结构图;
图6是适于用来实现本申请实施例的终端设备或服务器的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的音频处理方法或音频处理的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105、106。网络104用以在终端设备101、102、103和服务器105、106之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户110可以使用终端设备101、102、103通过网络104与服务器105、106交互,以接收或发送数据等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如游戏类应用、社交平台软件网页浏览器应用、搜索引擎类应用、购物类应用、即时通信工具、邮箱客户端等。
终端设备101、102、103可以是各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。终端设备101、102、103可以获取用户输入的待处理音频,转换待处理音频为待处理图片,而后提取待处理图片的内容特征,之后根据风格特征和待处理图片的内容特征确定目标图片,并将目标图片转换为处理后的音频,最后输出处理后的音频。终端设备101、102、103也可以获取用户输入的待处理音频,而后将其交由后台服务器处理,最后可以输出服务器返回的处理后的音频。
服务器105、106可以是提供各种服务的服务器,例如对终端设备101、102、103提供支持的后台服务器。后台服务器可以转换接收到的待处理音频为待处理图片,而后提取待处理图片的内容特征,之后根据风格特征和待处理图片的内容特征确定目标图片,并将目标图片转换为处理后的音频,最后可以将处理后的音频反馈给终端设备。
需要说明的是,本申请实施例所提供的音频处理方法可以由服务器105、106执行,也可以由终端设备101、102、103执行,相应地,音频处理的装置可以设置于服务器105、106中,也可以设置于终端设备101、102、103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的音频处理方法的一个实施例的流程200。该的音频处理方法,包括以下步骤:
步骤201,转换待处理音频为待处理图片。
在本实施例中,音频处理方法运行于其上的电子设备(例如图1所示的终端或服务器),可以转换待处理音频为待处理图片。待处理音频可以是用户通过具有录音功能的终端录制的,也可以是已存储在本地或云端的一段音频。待处理图片可以是待处理音频的声波图、频谱图、语谱图,或基于声波图、频谱图或语谱图进行图形变换得到的图片,上述图片可以基于数字音频编辑器得到。
在本实施例的一些可选实现方式中,转换待处理音频为待处理图片,可以包括:按照预设时间间隔将待处理音频切分为音频片段;将音频片段的声波图、频谱图或语谱图确定为待处理图片。通过切分操作一方面可以避免单次处理的数据量过大所导致的卡顿,另一方面切分得到的待处理图片大小一致便于后续处理。
步骤202,提取待处理图片的内容特征。
在本实施例中,上述电子设备可以提取步骤201中转换得到的待处理图片的内容特征。内容特征可以用于体现待处理图片的轮廓、线条、色彩等。
在本实施例的一些可选实现方式中,提取待处理图片的内容特征,可以包括:将待处理图片输入预先训练的卷积神经网络(CNN,Convolutional Neural Network),卷积神经网络用于提取图像特征;将卷积神经网络中至少一个卷积层输出的矩阵,作为待处理图片的内容特征。卷积神经网络是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。它包括卷积层和池层。卷积神经网络可以通过多层卷积提取物体的抽象特征完成物体识别。所以,可以通过卷积神经网络来提取待处理图片的内容特征。预先训练的卷积神经网络可以使用目视图像生成器(VGG,VisualGraphics Generator)模型,深度残差网络(ResNet,Deep Residual Network)模型等用于提取图像特征的模型。
在本实施例的一些可选实现方式中,还可以通过小波变换等方式提取待处理图片的内容特征。
步骤203,根据风格特征和待处理图片的内容特征确定目标图片。
在本实施例中,上述电子设备可以根据风格特征和步骤202中提取的待处理图片的内容特征确定目标图片。风格特征从模板音频转换成的模板图片中得到,模板音频可以是预置的,用户可以根据喜好进行选择,例如模板音频可以是一段明星的语音,或一段卡通人物的声音。模板音频也可以是用户自定义的一段音频。目标图片可以是综合了模板图片的风格特征和待处理图片的内容特征的图片。
在本实施例的一些可选实现方式中,风格特征可以是经由以下步骤确定的:将模板图片输入预先训练的卷积神经网络,卷积神经网络用于提取图像特征;可以将卷积神经网络中至少一个卷积层输出的矩阵作为模板图片的风格特征。模板图片输入的卷积神经网络与待处理图片输入的卷积神经网络可以相同也可以不同。经过多层卷积抽象之后的图片会丢弃像素级的特征,而保留了高级的绘画风格,即高卷积层的输出相对于低卷积层的输出更加抽象,所以可以用其提取风格特征。
在本实施例的一些可选实现方式中,根据风格特征和待处理图片的内容特征确定目标图片,可以包括:将待处理图片的内容特征导入预设的风格迁移模型,获取风格迁移模型的输出作为目标图片。风格迁移模型可以是一个生成对抗网络(GAN,GenerativeAdversarial Network)模型,生成对抗网络包含一个生成模型和一个判别模型。训练时固定一方,更新另一个模型的参数,交替迭代。用于模型训练的损失函数可以根据待处理图片的内容特征和模板图片的风格特征确定。风格迁移模型还可以基于艾施可米(Ashikhmin)算法等风格迁移算法实现。
在本实施例的一些可选实现方式中,根据风格特征和待处理图片的内容特征确定目标图片,可以包括:提取初始目标图片的内容特征和风格特征;根据待处理图片的内容特征,和初始目标图片的内容特征确定内容损失函数;根据模板图片的风格特征,和初始目标图片的风格特征确定风格损失函数;根据内容损失函数和风格损失函数确定总损失函数;根据总损失函数调整初始目标图片,得到目标图片。
在本实施例的一些可选实现方式中,内容损失函数可以根据待处理图片的内容特征和初始目标图片的内容特征的均方差得到。内容损失函数也可以根据其他能表征待处理图片的内容特征和初始目标图片的内容特征之间差异的计算方式得到。
在本实施例的一些可选实现方式中,风格损失函数可以根据以下步骤确定:根据模板图片的风格特征和初始目标图片的风格特征,分别确定模板图片的格拉姆矩阵和初始目标图片的格拉姆矩阵;根据模板图片的格拉姆矩阵和初始目标图片的格拉姆矩阵的均方差,确定风格损失函数。基于格拉姆矩阵确定风格函数的意义在于使不同风格间的差异性更加突出。风格损失函数可以根据模板图片的风格特征和初始目标图片的风格特征相关联程度确定,由于风格特征可理解为矩阵,所以也可以风格损失函数可以基于矩阵距离确定。
在本实施例的一些可选实现方式中,总损失函数可以根据加权后的内容损失函数和加权后的风格损失函数之和得到。通过调节内容损失函数权重和风格损失函数权重的大小,可以决定目标图片更注重风格还是更强调内容。
在本实施例的一些可选实现方式中,可以根据总损失函数调整初始目标图片,得到目标图片,进一步包括:基于梯度下降法和总损失函数调整初始目标图片,使得总损失函数取得极小值;将总损失函数的极小值对应的调整后的图片作为目标图片。梯度下降法(gradient descent)是一个最优化算法,通常也称为最速下降法,常用于机器学习和人工智能当中用来递归性地逼近最小偏差模型。
在本实施例的一些可选实现方式中,初始目标图片可以包括白噪声图片、空白图片或待处理图片。在调整初始目标图片以确定目标图片的过程中,初始目标图片相当于总损失函数的一个自变量,调整的目的即通过迭代求得总损失函数取得极小值时的目标图片,初始目标图片相当于迭代的一个初始值,可能会影响迭代次数但对最终结果产生影响的可能性较小。
步骤204,将目标图片转换为处理后的音频。
在本实施例中,上述电子设备可以将步骤203中确定的目标图片转换为处理后的音频。与步骤201相似,上述电子设备同样可以基于一些数字音频编辑器将目标图片转换为处理后的音频。此外,上述电子设备可以将处理后的音频保存至本地、上传到云端或发送至其他电子设备,还可以直接输出处理后的音频。
继续参考图3A、图3B、图3C、图3D,在根据本申请的音频处理方法的应用场景中,用户可以使用终端设备录入一段音频或任意选定一段音频作为待处理音频,运行有音频处理方法的设备接收到这段音频后,开始处理音频,处理所用到的模板音频可以是用户自定义的也可以是默认的模板音频。处理后的音频为待处理音频和模板音频的融合,其内容特征与待处理音频的内容特征相近,但风格特征与模板音频的风格特征相近。例如,用户输入一段自己的语音,处理后的音频不改变其说话的内容,但变换后听起来带有模板音频所体现的类似“北京腔”、“台湾腔”的腔调。用户可以使用运行有音频处理方法的设备融合自己和明星的声音,或者将男女朋友的声音变换到一起给亲朋好友发送祝福语等。由于音频处理的效果不易展示,因此这里以图片的处理类比音频的处理,以产生直观的视觉效果。图3A为待处理图片,即提供内容特征的图片;图3B为模板图片,即提供风格特征的图片;图3C为目标图片,即风格迁移后的图片,目标图片内容特征与待处理图片的内容特征相近,风格特征与模板图片的风格特征相近;图3D为音频片段的语谱图,可以对音频片段的语谱图,声波图或频谱图进行风格迁移,后再将风格迁移后的语谱图,声波图或频谱图转为音频,即得到了处理后的音频。
本申请的上述实施例提供的方法通过综合待处理音频转换的待处理图片的内容特征和模板音频转换的模板图片的风格特征,在不改变待处理音频的内容的同时,实现了处理后的音频带有模板音频风格的处理效果,提高了音频处理的效率和灵活性。
请参考图4,图4是根据本实施例的音频处理方法的又一个实施例的流程示意图。
在图4中,该音频处理方法400,包括以下步骤:
步骤401,转换待处理音频为待处理图片。
在本实施例中,音频处理方法运行于其上的电子设备(例如图1所示的终端或服务器),可以转换待处理音频为待处理图片。
步骤402,提取待处理图片的内容特征。
在本实施例中,上述电子设备可以提取步骤401中转换得到的待处理图片的内容特征。内容特征可以用于体现待处理图片的轮廓、线条、色彩等。具体的,可以将待处理图片输入预先训练的卷积神经网络,将卷积神经网络中至少一个卷积层输出的矩阵,作为待处理图片的内容特征。
步骤403,提取初始目标图片的内容特征和风格特征。
在本实施例中,上述电子设备可以提取初始目标图片的内容特征和风格特征。可以将初始目标图片输入预先训练的卷积神经网络,以获取其内容特征和风格特征,用于提取初始目标图片的卷积神经网络最好与用于提取待处理图片的卷积神经网络一致,用于提取初始目标图片的内容特征的卷积神经网络最好与用于提取待处理图片的内容特征的卷积神经网络一致,并使用相同卷积层的输出矩阵作为内容特征。同样,用于提取初始目标图片的风格特征的卷积神经网络最好与用于提取模板图片的风格特征的卷积神经网络一致,并使用相同卷积层的输出矩阵作为风格特征。
由于在一个卷积网络中会有很多卷积核,所以会有很多输出矩阵。同时,也存在很多卷积层,可以使用加权平均后的多个卷积层的输出矩阵作为内容特征或风格特征,具体权重可根据需要设置。由于风格特征与内容特征相比较为抽象,所以确定风格特征的卷积层,总体高于确定内容特征的卷积层。
步骤404,根据待处理图片的内容特征,和初始目标图片的内容特征确定内容损失函数。
在本实施例中,上述电子设备可以根据步骤402提取的待处理图片的内容特征,和步骤403提取的初始目标图片的内容特征确定内容损失函数。内容损失函数可以根据待处理图片的内容特征和初始目标图片的内容特征的均方差得到,也可以根据其他能表征待处理图片的内容特征和初始目标图片的内容特征之间差异的计算方式得到。由于卷积神经网络提取特征时将图片分成了若干卷积片,所以确定内容损失函数要针对初始目标图片和待处理图片中相同位置的分片进行。例如,可以计算初始目标图片和待处理图片中相同位置的分片的输出矩阵的均方差,再综合各个分片的计算结果作为损失函数的值。
步骤405,根据模板图片的风格特征,和初始目标图片的风格特征确定风格损失函数。
在本实施例中,上述电子设备可以根据模板图片的风格特征,和步骤403提取的初始目标图片的风格特征确定风格损失函数。模板图片的风格特征可以是预先提取好的,也可以是在获取到用户确定的模板音频后提取的。可以基于初始目标图片和待处理图片中各个相同位置的分片的输出矩阵的距离,确定损失函数。为了使不同风格间的差异性更加突出,也可以分别确定模板图片的风格特征的格拉姆矩阵和初始目标图片的风格特征的格拉姆矩阵,风格特征的格拉姆矩阵可以是同一卷积层中不同卷积片的内积。再基于所确定的格拉姆矩阵来确定损失函数。同时,也可以加权平均多个卷积层输出的初始目标图片和待处理图片的格拉姆矩阵的距离,以确定损失函数,具体权重可根据需要设置。
步骤406,根据内容损失函数和风格损失函数确定总损失函数。
在本实施例中,上述电子设备可以根据步骤404确定的内容损失函数和步骤405确定的风格损失函数确定总损失函数。总损失函数可以根据加权后的内容损失函数和加权后的风格损失函数之和得到。通过调节内容损失函数权重和风格损失函数权重的大小,可以决定目标图片更注重风格还是更强调内容。
步骤407,根据总损失函数调整初始目标图片,得到目标图片。
在本实施例中,上述电子设备可以根据步骤406确定的总损失函数调整初始目标图片,得到目标图片。调整初始目标图片是一个迭代的过程,可将初始目标图片各个像素点的值理解为总损失函数的自变量,可以通过梯度下降法对总损失函数中初始目标图片各个像素的值求导,调整的目的即通过迭代求得总损失函数取得极小值时的目标图片。
步骤408,将目标图片转换为处理后的音频。
在本实施例中,上述电子设备可以将步骤407中得到的目标图片基于一些数字音频编辑器转换为处理后的音频。处理后的音频可以保存至本地、上传到云端或发送至其他电子设备。
本申请的上述实施例提供的方法通过卷积神经网络进行特征的提取,并综合内容特征和风格特征确定损失函数,通过迭代得到目标图像,实现了更好的音频融合的效果。
进一步参考图5,作为对上述方法的实现,本申请提供了一种基于人工智能的音频处理的装置的一个实施例,该装置实施例与图1所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的基于人工智能的音频处理的装置500包括:第一转换单元510、提取单元520、确定单元530、第二转换单元540,其中,第一转换单元510,用于转换待处理音频为待处理图片;提取单元520,用于提取待处理图片的内容特征;确定单元530,用于根据风格特征和待处理图片的内容特征确定目标图片,风格特征从模板音频转换成的模板图片中得到;第二转换单元540,用于将目标图片转换为处理后的音频。
在本实施例中,第一转换单元510、提取单元520、确定单元530、第二转换单元540的具体处理可以参考图2对应实施例步骤201、步骤202、步骤203和步骤204的详细描述,在此不再赘述。
在本实施例的一些可选实现方式中,第一转换单元510包括:切分子单元511,用于按照预设时间间隔将待处理音频切分为音频片段;待处理图片确定子单元512,用于将音频片段的声波图、频谱图或语谱图确定为待处理图片。
在本实施例的一些可选实现方式中,提取单元520包括:输入子单元521,用于将待处理图片输入预先训练的卷积神经网络,卷积神经网络用于提取图像特征;内容特征确定子单元522,用于将卷积神经网络中至少一个卷积层输出的矩阵,作为待处理图片的内容特征。
在本实施例的一些可选实现方式中,装置还包括:风格特征确定单元550,用于将模板图片输入预先训练的卷积神经网络,卷积神经网络用于提取图像特征;将卷积神经网络中至少一个卷积层输出的矩阵作为模板图片的风格特征。
在本实施例的一些可选实现方式中,确定单元530进一步用于:将待处理图片的内容特征导入预设的风格迁移模型,获取风格迁移模型的输出作为目标图片。
在本实施例的一些可选实现方式中,确定单元530包括:提取子单元531,用于提取初始目标图片的内容特征和风格特征;内容损失函数确定子单元532,用于根据待处理图片的内容特征,和初始目标图片的内容特征确定内容损失函数;风格损失函数确定子单元533,用于根据模板图片的风格特征,和初始目标图片的风格特征确定风格损失函数;总损失函数确定子单元534,用于根据内容损失函数和风格损失函数确定总损失函数;调整子单元535,用于根据总损失函数调整初始目标图片,得到目标图片。
在本实施例的一些可选实现方式中,内容损失函数确定子单元532进一步用于:根据待处理图片的内容特征和初始目标图片的内容特征的均方差得到内容损失函数。
在本实施例的一些可选实现方式中,风格损失函数确定子单元533进一步用于:根据模板图片的风格特征和初始目标图片的风格特征,分别确定模板图片的格拉姆矩阵和初始目标图片的格拉姆矩阵;根据模板图片的格拉姆矩阵和初始目标图片的格拉姆矩阵的均方差,确定风格损失函数。
在本实施例的一些可选实现方式中,总损失函数确定子单元534进一步用于:根据加权后的内容损失函数和加权后的风格损失函数之和得到总损失函数。
在本实施例的一些可选实现方式中,调整子单元535进一步用于:基于梯度下降法和总损失函数调整初始目标图片,使得总损失函数取得极小值;将总损失函数的极小值对应的调整后的图片作为目标图片。
从图5中可以看出,本实施例中的音频处理方法的装置500在转换待处理音频为待处理图片的基础上,根据风格特征和待处理图片的内容特征确定目标图片,最后将目标图片转换为处理后的音频。由此,本实施例可以综合待处理音频转换的待处理图片的内容特征和模板音频转换的模板图片的风格特征,在不改变待处理音频的内容的同时,实现了处理后的音频带有模板音频风格的处理效果,提高了音频处理的效率和灵活性。
下面参考图6,其示出了适于用来实现本申请实施例的终端设备或服务器的计算机系统600的结构示意图。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的
程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口606。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,所述计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个单元、程序段、或代码的一部分,所述单元、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一转换单元、提取单元、确定单元、第二转换单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一转换单元还可以被描述为“转换待处理音频为待处理图片的单元”。
作为另一方面,本申请还提供了一种非易失性计算机存储介质,该非易失性计算机存储介质可以是上述实施例中所述装置中所包含的非易失性计算机存储介质;也可以是单独存在,未装配入终端中的非易失性计算机存储介质。上述非易失性计算机存储介质存储有一个或者多个程序,当所述一个或者多个程序被一个设备执行时,使得所述设备:转换待处理音频为待处理图片;提取待处理图片的内容特征;根据风格特征和待处理图片的内容特征确定目标图片,风格特征从模板音频转换成的模板图片中得到;将目标图片转换为处理后的音频。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (18)
1.一种基于人工智能的音频处理方法,其特征在于,所述方法包括:
转换待处理音频为待处理图片;
提取所述待处理图片的内容特征;
根据风格特征和所述待处理图片的内容特征确定目标图片,所述风格特征从模板音频转换成的模板图片中得到;
将所述目标图片转换为处理后的音频;
其中,所述根据风格特征和所述待处理图片的内容特征确定目标图片,包括:
提取初始目标图片的内容特征和风格特征;
根据所述待处理图片的内容特征,和所述初始目标图片的内容特征确定内容损失函数;
根据所述模板图片的风格特征,和所述初始目标图片的风格特征确定风格损失函数;
根据所述内容损失函数和所述风格损失函数确定总损失函数;
根据所述总损失函数调整所述初始目标图片,得到目标图片。
2.根据权利要求1所述的方法,其特征在于,所述转换待处理音频为待处理图片,包括:
按照预设时间间隔将所述待处理音频切分为音频片段;
将所述音频片段的声波图、频谱图或语谱图确定为待处理图片。
3.根据权利要求1所述的方法,其特征在于,所述提取所述待处理图片的内容特征,包括:
将所述待处理图片输入预先训练的卷积神经网络,所述卷积神经网络用于提取图像特征;
将所述卷积神经网络中至少一个卷积层输出的矩阵,作为所述待处理图片的内容特征。
4.根据权利要求1所述的方法,其特征在于,所述风格特征是经由以下步骤确定的:
将所述模板图片输入预先训练的卷积神经网络,所述卷积神经网络用于提取图像特征;
将所述卷积神经网络中至少一个卷积层输出的矩阵作为所述模板图片的风格特征。
5.根据权利要求1-4中任一项所述的方法,其特征在于,所述根据风格特征和所述待处理图片的内容特征确定目标图片,包括:
将所述待处理图片的内容特征导入预设的风格迁移模型,获取所述风格迁移模型的输出作为目标图片。
6.根据权利要求1所述的方法,其特征在于,所述内容损失函数根据所述待处理图片的内容特征和所述初始目标图片的内容特征的均方差得到。
7.根据权利要求1所述的方法,其特征在于,所述风格损失函数根据以下步骤确定:
根据所述模板图片的风格特征和所述初始目标图片的风格特征,分别确定所述模板图片的格拉姆矩阵和所述初始目标图片的格拉姆矩阵;
根据所述模板图片的格拉姆矩阵和所述初始目标图片的格拉姆矩阵的均方差,确定所述风格损失函数。
8.根据权利要求1所述的方法,其特征在于,所述总损失函数根据加权后的所述内容损失函数和加权后的所述风格损失函数之和得到。
9.根据权利要求1所述的方法,其特征在于,所述根据所述总损失函数调整所述初始目标图片,得到目标图片,进一步包括:
基于梯度下降法和所述总损失函数调整所述初始目标图片,使得所述总损失函数取得极小值;
将所述总损失函数的极小值对应的调整后的图片作为目标图片。
10.一种基于人工智能的音频处理装置,其特征在于,所述装置包括:
第一转换单元,用于转换待处理音频为待处理图片;
提取单元,用于提取所述待处理图片的内容特征;
确定单元,用于根据风格特征和所述待处理图片的内容特征确定目标图片,所述风格特征从模板音频转换成的模板图片中得到;
第二转换单元,用于将所述目标图片转换为处理后的音频;
其中,所述确定单元包括:
提取子单元,用于提取初始目标图片的内容特征和风格特征;
内容损失函数确定子单元,用于根据所述待处理图片的内容特征,和所述初始目标图片的内容特征确定内容损失函数;
风格损失函数确定子单元,用于根据所述模板图片的风格特征,和所述初始目标图片的风格特征确定风格损失函数;
总损失函数确定子单元,用于根据所述内容损失函数和所述风格损失函数确定总损失函数;
调整子单元,用于根据所述总损失函数调整所述初始目标图片,得到目标图片。
11.根据权利要求10所述的装置,其特征在于,所述第一转换单元包括:
切分子单元,用于按照预设时间间隔将所述待处理音频切分为音频片段;
待处理图片确定子单元,用于将所述音频片段的声波图、频谱图或语谱图确定为待处理图片。
12.根据权利要求10所述的装置,其特征在于,所述提取单元包括:
输入子单元,用于将所述待处理图片输入预先训练的卷积神经网络,所述卷积神经网络用于提取图像特征;
内容特征确定子单元,用于将所述卷积神经网络中至少一个卷积层输出的矩阵,作为所述待处理图片的内容特征。
13.根据权利要求10所述的装置,其特征在于,所述装置还包括:
风格特征确定单元,用于将所述模板图片输入预先训练的卷积神经网络,所述卷积神经网络用于提取图像特征;将所述卷积神经网络中至少一个卷积层输出的矩阵作为所述模板图片的风格特征。
14.根据权利要求10-13中任一项所述的装置,其特征在于,所述确定单元进一步用于:
将所述待处理图片的内容特征导入预设的风格迁移模型,获取所述风格迁移模型的输出作为目标图片。
15.根据权利要求10所述的装置,其特征在于,所述内容损失函数确定子单元进一步用于:根据所述待处理图片的内容特征和所述初始目标图片的内容特征的均方差得到所述内容损失函数。
16.根据权利要求10所述的装置,其特征在于,所述风格损失函数确定子单元进一步用于:
根据所述模板图片的风格特征和所述初始目标图片的风格特征,分别确定所述模板图片的格拉姆矩阵和所述初始目标图片的格拉姆矩阵;
根据所述模板图片的格拉姆矩阵和所述初始目标图片的格拉姆矩阵的均方差,确定所述风格损失函数。
17.根据权利要求10所述的装置,其特征在于,所述总损失函数确定子单元进一步用于:根据加权后的所述内容损失函数和加权后的所述风格损失函数之和得到所述总损失函数。
18.根据权利要求10所述的装置,其特征在于,所述调整子单元进一步用于:
基于梯度下降法和所述总损失函数调整所述初始目标图片,使得所述总损失函数取得极小值;
将所述总损失函数的极小值对应的调整后的图片作为目标图片。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710031469.5A CN106847294B (zh) | 2017-01-17 | 2017-01-17 | 基于人工智能的音频处理方法和装置 |
US15/725,419 US10192163B2 (en) | 2017-01-17 | 2017-10-05 | Audio processing method and apparatus based on artificial intelligence |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710031469.5A CN106847294B (zh) | 2017-01-17 | 2017-01-17 | 基于人工智能的音频处理方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106847294A CN106847294A (zh) | 2017-06-13 |
CN106847294B true CN106847294B (zh) | 2018-11-30 |
Family
ID=59124055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710031469.5A Active CN106847294B (zh) | 2017-01-17 | 2017-01-17 | 基于人工智能的音频处理方法和装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10192163B2 (zh) |
CN (1) | CN106847294B (zh) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107277615B (zh) * | 2017-06-30 | 2020-06-23 | 北京奇虎科技有限公司 | 直播风格化处理方法、装置、计算设备及存储介质 |
CN107277391B (zh) * | 2017-06-30 | 2020-06-23 | 北京奇虎科技有限公司 | 图像转换网络处理方法、服务器、计算设备及存储介质 |
CN107392316B (zh) * | 2017-06-30 | 2021-05-18 | 北京奇虎科技有限公司 | 网络训练方法、装置、计算设备及计算机存储介质 |
CN109285114B (zh) * | 2017-07-21 | 2020-12-15 | 华为技术有限公司 | 一种图片处理方法及设备 |
CN109426858B (zh) * | 2017-08-29 | 2021-04-06 | 京东方科技集团股份有限公司 | 神经网络、训练方法、图像处理方法及图像处理装置 |
EP3664084B1 (en) * | 2017-10-25 | 2024-04-17 | Samsung Electronics Co., Ltd. | Electronic device and control method therefor |
CN107908685A (zh) * | 2017-10-31 | 2018-04-13 | 西安交通大学 | 基于迁移学习的多视角商品图像检索与识别方法 |
CN108038821A (zh) * | 2017-11-20 | 2018-05-15 | 河海大学 | 一种基于生成式对抗网络的图像风格迁移方法 |
CN108010538B (zh) * | 2017-12-22 | 2021-08-24 | 北京奇虎科技有限公司 | 音频数据处理方法及装置、计算设备 |
CN107948529B (zh) * | 2017-12-28 | 2020-11-06 | 麒麟合盛网络技术股份有限公司 | 图像处理方法及装置 |
CN108470209B (zh) * | 2018-03-27 | 2021-06-04 | 北京工业大学 | 一种基于格拉姆矩阵正则化的卷积神经网可视化方法 |
CN108597496B (zh) * | 2018-05-07 | 2020-08-28 | 广州势必可赢网络科技有限公司 | 一种基于生成式对抗网络的语音生成方法及装置 |
CN108805803B (zh) * | 2018-06-13 | 2020-03-13 | 衡阳师范学院 | 一种基于语义分割与深度卷积神经网络的肖像风格迁移方法 |
CN108962231B (zh) * | 2018-07-04 | 2021-05-28 | 武汉斗鱼网络科技有限公司 | 一种语音分类方法、装置、服务器及存储介质 |
CN110544488B (zh) * | 2018-08-09 | 2022-01-28 | 腾讯科技(深圳)有限公司 | 一种多人语音的分离方法和装置 |
US10891949B2 (en) | 2018-09-10 | 2021-01-12 | Ford Global Technologies, Llc | Vehicle language processing |
CN109448746B (zh) * | 2018-09-28 | 2020-03-24 | 百度在线网络技术(北京)有限公司 | 语音降噪方法及装置 |
CN109191382B (zh) * | 2018-10-18 | 2023-12-05 | 京东方科技集团股份有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN109461458B (zh) * | 2018-10-26 | 2022-09-13 | 合肥工业大学 | 一种基于生成对抗网络的音频异常检测方法 |
CN109933320B (zh) * | 2018-12-28 | 2021-05-18 | 联想(北京)有限公司 | 一种图像生成方法及服务器 |
CN110009028B (zh) * | 2019-03-28 | 2021-04-02 | 北京科技大学 | 一种显微图像数据增强方法及装置 |
CN110071938B (zh) * | 2019-05-05 | 2021-12-03 | 广州虎牙信息科技有限公司 | 虚拟形象互动方法、装置、电子设备及可读存储介质 |
CN110148424B (zh) * | 2019-05-08 | 2021-05-25 | 北京达佳互联信息技术有限公司 | 语音处理方法、装置、电子设备及存储介质 |
CN110335206B (zh) * | 2019-05-31 | 2023-06-09 | 平安科技(深圳)有限公司 | 智能滤镜方法、装置及计算机可读存储介质 |
CN110189766B (zh) * | 2019-06-14 | 2021-04-06 | 西南科技大学 | 一种基于神经网络的语音风格转移方法 |
CN110299148B (zh) * | 2019-06-27 | 2024-05-28 | 平安科技(深圳)有限公司 | 基于Tensorflow的语音融合方法、电子装置及存储介质 |
CN110428480A (zh) * | 2019-08-02 | 2019-11-08 | 泰康保险集团股份有限公司 | 个性化绘画作品生成方法、装置、介质及电子设备 |
CN110567887A (zh) * | 2019-09-12 | 2019-12-13 | 中国计量大学 | 一种基于光谱成像和深度学习技术的干茧茧层丝胶溶失率的无损检测方法 |
KR20210048310A (ko) | 2019-10-23 | 2021-05-03 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN111242844B (zh) * | 2020-01-19 | 2023-09-22 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、服务器和存储介质 |
CN111325316B (zh) * | 2020-01-19 | 2023-08-01 | 深圳云天励飞技术有限公司 | 一种训练数据的生成方法及装置 |
US11170793B2 (en) * | 2020-02-13 | 2021-11-09 | Adobe Inc. | Secure audio watermarking based on neural networks |
TWI762971B (zh) * | 2020-07-15 | 2022-05-01 | 宏碁股份有限公司 | 圖像風格轉換的方法及其電腦程式產品 |
CN112331232B (zh) * | 2020-11-06 | 2022-08-12 | 杭州电子科技大学 | 一种结合cgan谱图去噪和双边滤波谱图增强的语音情感识别方法 |
CN113012706B (zh) * | 2021-02-18 | 2023-06-27 | 联想(北京)有限公司 | 一种数据处理方法、装置及电子设备 |
CN113096675B (zh) * | 2021-03-31 | 2024-04-23 | 厦门大学 | 一种基于生成式对抗网络的音频风格统一的方法 |
CN114299969B (zh) * | 2021-08-19 | 2024-06-11 | 腾讯科技(深圳)有限公司 | 音频合成方法、装置、设备及介质 |
WO2024138720A1 (zh) * | 2022-12-30 | 2024-07-04 | 深圳Tcl新技术有限公司 | 一种图像生成方法、装置、计算机设备和存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1300158A (zh) * | 1999-12-16 | 2001-06-20 | 日本电气株式会社 | 便携式无线通信终端及其表现风格的处理方法 |
CN101853658A (zh) * | 2009-06-18 | 2010-10-06 | 博石金(北京)信息技术有限公司 | 大音频数据的处理方法 |
CN103824555A (zh) * | 2012-11-19 | 2014-05-28 | 腾讯科技(深圳)有限公司 | 音频段提取方法及提取装置 |
CN103903610A (zh) * | 2012-12-27 | 2014-07-02 | 北京谊安医疗系统股份有限公司 | 一种制作合成音频数据的方法 |
CN104732981A (zh) * | 2015-03-17 | 2015-06-24 | 北京航空航天大学 | 一种结合电声门图的汉语语音情感数据库的语音标注方法 |
CN105118523A (zh) * | 2015-07-13 | 2015-12-02 | 努比亚技术有限公司 | 音频处理方法和装置 |
CN105679331A (zh) * | 2015-12-30 | 2016-06-15 | 广东工业大学 | 一种声气信号分离与合成的方法及系统 |
EP3093846A1 (en) * | 2015-05-12 | 2016-11-16 | Nxp B.V. | Accoustic context recognition using local binary pattern method and apparatus |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2499258A (en) * | 2012-02-13 | 2013-08-14 | British American Tobacco Co | Various Wrappers with Tear Strips for Multiple Containers |
EP2720222A1 (en) * | 2012-10-10 | 2014-04-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for efficient synthesis of sinusoids and sweeps by employing spectral patterns |
US10520129B2 (en) * | 2016-07-05 | 2019-12-31 | Snap-On Equipment Srl A Unico Socio | Machine body for a wheel servicing apparatus with display support unit |
KR20180057409A (ko) * | 2016-11-22 | 2018-05-30 | 박진수 | 오디오 신호 기반의 영상 분류 방법 및 영상 분류 장치 |
-
2017
- 2017-01-17 CN CN201710031469.5A patent/CN106847294B/zh active Active
- 2017-10-05 US US15/725,419 patent/US10192163B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1300158A (zh) * | 1999-12-16 | 2001-06-20 | 日本电气株式会社 | 便携式无线通信终端及其表现风格的处理方法 |
CN101853658A (zh) * | 2009-06-18 | 2010-10-06 | 博石金(北京)信息技术有限公司 | 大音频数据的处理方法 |
CN103824555A (zh) * | 2012-11-19 | 2014-05-28 | 腾讯科技(深圳)有限公司 | 音频段提取方法及提取装置 |
CN103903610A (zh) * | 2012-12-27 | 2014-07-02 | 北京谊安医疗系统股份有限公司 | 一种制作合成音频数据的方法 |
CN104732981A (zh) * | 2015-03-17 | 2015-06-24 | 北京航空航天大学 | 一种结合电声门图的汉语语音情感数据库的语音标注方法 |
EP3093846A1 (en) * | 2015-05-12 | 2016-11-16 | Nxp B.V. | Accoustic context recognition using local binary pattern method and apparatus |
CN105118523A (zh) * | 2015-07-13 | 2015-12-02 | 努比亚技术有限公司 | 音频处理方法和装置 |
CN105679331A (zh) * | 2015-12-30 | 2016-06-15 | 广东工业大学 | 一种声气信号分离与合成的方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
US10192163B2 (en) | 2019-01-29 |
CN106847294A (zh) | 2017-06-13 |
US20180204121A1 (en) | 2018-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106847294B (zh) | 基于人工智能的音频处理方法和装置 | |
CN110491407B (zh) | 语音降噪的方法、装置、电子设备及存储介质 | |
CN106782504B (zh) | 语音识别方法和装置 | |
CN110223705A (zh) | 语音转换方法、装置、设备及可读存储介质 | |
CN110085244B (zh) | 直播互动方法、装置、电子设备及可读存储介质 | |
CN110400575A (zh) | 通道间特征提取方法、音频分离方法和装置、计算设备 | |
CN110136744A (zh) | 一种音频指纹生成方法、设备及存储介质 | |
CN107609506A (zh) | 用于生成图像的方法和装置 | |
CN109101919A (zh) | 用于生成信息的方法和装置 | |
CN106227792B (zh) | 用于推送信息的方法和装置 | |
CN109299477A (zh) | 用于生成文本标题的方法和装置 | |
CN110298319A (zh) | 图像合成方法和装置 | |
CN107452378A (zh) | 基于人工智能的语音交互方法和装置 | |
EP3457401A1 (en) | Method for modifying a style of an audio object, and corresponding electronic device, computer readable program products and computer readable storage medium | |
CN106375780A (zh) | 一种多媒体文件生成方法及其设备 | |
CN109961141A (zh) | 用于生成量化神经网络的方法和装置 | |
CN107481715A (zh) | 用于生成信息的方法和装置 | |
CN113724683B (zh) | 音频生成方法、计算机设备及计算机可读存储介质 | |
CN109977905A (zh) | 用于处理眼底图像的方法和装置 | |
CN109325178A (zh) | 用于处理信息的方法和装置 | |
CN105719640B (zh) | 声音合成装置及声音合成方法 | |
CN110248195A (zh) | 用于输出信息的方法和装置 | |
CN114974281A (zh) | 语音降噪模型的训练方法、装置、存储介质及电子装置 | |
CN115098633A (zh) | 一种智能客服情感分析方法和系统、电子设备、存储介质 | |
CN109816670A (zh) | 用于生成图像分割模型的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |