CN106599110A - 基于人工智能的语音搜索方法及装置 - Google Patents
基于人工智能的语音搜索方法及装置 Download PDFInfo
- Publication number
- CN106599110A CN106599110A CN201611079405.4A CN201611079405A CN106599110A CN 106599110 A CN106599110 A CN 106599110A CN 201611079405 A CN201611079405 A CN 201611079405A CN 106599110 A CN106599110 A CN 106599110A
- Authority
- CN
- China
- Prior art keywords
- voice
- child
- search results
- artificial intelligence
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 45
- 238000012549 training Methods 0.000 claims description 39
- 238000012216 screening Methods 0.000 claims description 33
- 238000009432 framing Methods 0.000 claims description 22
- 230000000694 effects Effects 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 18
- 238000000605 extraction Methods 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 3
- 238000001914 filtration Methods 0.000 abstract description 2
- 230000009323 psychological health Effects 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 230000004069 differentiation Effects 0.000 description 7
- 230000004630 mental health Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 235000013399 edible fruits Nutrition 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 210000003733 optic disk Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000009333 weeding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3343—Query execution using phonetics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/432—Query formulation
- G06F16/433—Query formulation using audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/435—Filtering based on additional data, e.g. user or group profiles
- G06F16/436—Filtering based on additional data, e.g. user or group profiles using biological or physiological data of a human being, e.g. blood pressure, facial expression, gestures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/54—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/93—Discriminating between voiced and unvoiced parts of speech signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L2025/783—Detection of presence or absence of voice signals based on threshold decision
- G10L2025/786—Adaptive threshold
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Physiology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提出一种基于人工智能的语音搜索方法及装置,其中,方法包括:对用户所输入的语音进行识别,判断所述语音是否为童声;如果判断结果为是,对根据所述语音得到的搜索结果进行筛选;将筛选后的搜索结果反馈给所述用户。本发明中通过对用户所输入的语音进行识别,以确定该用户是否为儿童用户,在确定出该用户为儿童用户后,则对搜索结果进行筛选,实现了对儿童用户的搜索结果进行差异化设置,从而可以剔除掉搜索结果不符合儿童阅读的敏感内容,使得向儿童用户推送的内容有利用儿童的身心健康。
Description
技术领域
本发明涉及信息处理技术领域,尤其涉及一种基于人工智能的语音搜索方法及装置。
背景技术
人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语音识别、图像识别、自然语言处理和专家系统等。其中,人工智能最重要的方面就是语音识别技术。
随着语音识别技术的不断发展,语音识别技术的应用范围也越来越广泛。随着语音识别准确度的提升,越来越多的用户习惯于采用语音搜索方式,从而避免进行键盘输入,简化搜索过程。目前,随着智能终端技术的飞速发展,使用智能终端进行语音搜索的年轻人越来越多,值得注意的是儿童特别是学龄前儿童在使用智能终端时最喜欢通过语音的方式进行交互。
在进行语音搜索的过程中,通过语音识别技术,将儿童输入的语音转化为文本,从而将所转化的文本作为搜索词进行搜索。但是基于搜索词得到的搜索结果往往包含参差不齐的信息,由于儿童用户多是使用家长的智能终端进行搜索,并无法确定该用户是否为儿童用户,导致无法为儿童用户群体的搜索结果进行差异化设置。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种基于人工智能的语音搜索方法,以实现对用户是否为儿童用户的识别,用于解决现有技术中由于无法确定用户为儿童,导致无法为其差异化设置搜索结果的问题。
本发明的第二个目的在于提出一种基于人工智能的语音搜索装置。
本发明的第三个目的在于提出另一种基于人工智能的语音搜索装置。
本发明的第四个目的在于提出一种非临时性计算机可读存储介质。
本发明的第五个目的在于提出一种计算机程序产品。
为达上述目的,本发明第一方面实施例提出了一种基于人工智能的语音搜索方法,包括:
对用户所输入的语音进行识别,判断所述语音是否为童声;
如果判断结果为是,对根据所述语音得到的搜索结果进行筛选;
将筛选后的搜索结果反馈给所述用户。
本发明实施例的基于人工智能的语音搜索方法,通过对用户所输入的语音进行识别,以确定该用户是否为儿童用户,在确定出该用户为儿童用户后,则对搜索结果进行筛选,实现了对儿童用户的搜索结果进行差异化设置,从而可以剔除掉搜索结果不符合儿童阅读的敏感内容,使得向儿童用户推送的内容有利用儿童的身心健康。
为达上述目的,本发明第二方面实施例提出了一种基于人工智能的语音搜索装置,包括:
判断模块,用于对用户所输入的语音进行识别,判断所述语音是否为童声;
筛选模块,用于在所述判断模块的判断结果为是,对根据所述语音得到的搜索结果进行筛选;
反馈模块,用于将筛选后的搜索结果反馈给所述用户。
本发明实施例的基于人工智能的语音搜索装置,通过对用户所输入的语音进行识别,以确定该用户是否为儿童用户,在确定出该用户为儿童用户后,则对搜索结果进行筛选,实现了对儿童用户的搜索结果进行差异化设置,从而可以剔除掉搜索结果不符合儿童阅读的敏感内容,使得向儿童用户推送的内容有利用儿童的身心健康。
为达上述目的,本发明第三方面实施例提出了另一种基于人工智能的语音搜索装置,包括:处理器;用于存储所述处理器可执行指令的存储器;其中,所述处理器被配置为:对用户所输入的语音进行识别,判断所述语音是否为童声;如果判断结果为是,对根据所述语音得到的搜索结果进行筛选;将筛选后的搜索结果反馈给所述用户。
为了实现上述目的,本发明第四方面实施例提出了一种非临时性计算机可读存储介质,当所述存储介质中的指令由服务器端的处理器被执行时,使得服务器端能够执行一种基于人工智能的语音搜索方法,所述方法包括:对用户所输入的语音进行识别,判断所述语音是否为童声;如果判断结果为是,对根据所述语音得到的搜索结果进行筛选;将筛选后的搜索结果反馈给所述用户。
为了实现上述目的,本发明第五方面实施例提出了一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时,执行一种基于人工智能的语音搜索方法,所述方法包括:对用户所输入的语音进行识别,判断所述语音是否为童声;如果判断结果为是,对根据所述语音得到的搜索结果进行筛选;将筛选后的搜索结果反馈给所述用户。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例所提供的一种基于人工智能的语音搜索方法的流程示意图;
图2为本发明实施例所提供的另一种基于人工智能的语音搜索方法的流程示意图;
图3为本发明实施例所提供的一种分类器的训练流程;
图4为本发明实施例所提供的一种基于人工智能的语音搜索装置的结构示意图;
图5为本发明实施例提供的一种筛选模块的结构示意图;
图6为本发明实施例提供的一种判断模块的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的基于人工智能的语音搜索方法及装置。
图1为本发明实施例所提供的一种基于人工智能的语音搜索方法的流程示意图。该基于人工智能的语音搜索方法包括以下步骤:
S101、对用户所输入的语音进行识别,判断语音是否为童声。
本实施例中,预先在搜索引擎中设置有语音识别模型,通过语音识别模型可以对用户所输入的语音进行识别,以确定该语音的类别。该语音识别模型可以为机器学习模型,通过对大量样本数据的训练和学习后,该机器学习模型可以对语音的类别进行分类。
如果判断结果为是,则执行S102,如果判断结果为否,则结束流程。
S102、对根据语音得到的搜索结果进行筛选。
具体地,对语音进行转换可以获取到语音的文本内容,然后将文本内容作为搜索的关键词,基于该搜索的关键词进行搜索,得到与该语音的文本内容对应的搜索结果。
由于互联网上的信息比较繁多,根据语言的文本内容搜索到的结果中可能包含有敏感内容,或者不良网络信息。由于在S101中已经识别出语音为童声,说明输入语音的用户为儿童用户,如果不对搜索结果进行筛选直接将搜索结果推送给该儿童用户,就会导致该儿童用户接收到很多不健康的网络咨询,这些不良网络咨询或者信息会给儿童的身心健康造成不利的影响。
本实施例中,为了更好地向儿童用户提供良好地服务或者网络环境,在根据语言的文本内容获取到搜索结果之后,需要对搜索结果进行筛选,以剔除掉搜索结果中不适合儿童阅读的敏感内容。具体地,可以对搜索结果进行分析,判断该搜索结果中是否包含不适合儿童阅读的敏感内容,如果确定出搜索结果出保护有不适合儿童阅读的敏感内容,就可以从该搜索结果出剔除掉这些敏感内容。
S103、将筛选后的搜索结果反馈给用户。
由于从最初的搜索结果中剔除了不适合儿童阅读的敏感内容,完成了对搜索结果的筛选,搜索结果中的内容相对健康,比较适于儿童阅读,则将筛选后的搜索结果反馈给用户。
本实施例提供的基于人工智能的语音搜索方法,通过对用户所输入的语音进行识别,以确定该用户是否为儿童用户,在确定出该用户为儿童用户后,则对搜索结果进行筛选,实现了对儿童用户的搜索结果进行差异化设置,从而可以剔除掉搜索结果不符合儿童阅读的敏感内容,使得向儿童用户推送的内容有利用儿童的身心健康。
图2为本发明实施例所提供的一种基于人工智能的语音搜索方法的流程示意图。该基于人工智能的语音搜索方法包括以下步骤:
S201、对语音进行语音活动侦测去除语音中的静音,得到测试语音。
由于用户在说话的过程中,可能会存在停顿,为了减少占用的搜索资源可以采集到的用户所输入的语音进行语音活动侦测(Voice Activity Detection,简称VAD),以从声音信号流里识别和消除长时间的静音期,以达到节省带宽资源的目的,而且有利于减少用户感觉到的端到端的时延。
具体地,可以对语音按照预设的第一步长进行分帧,例如,可以以10ms为一帧,对语音的每帧进行语音活动侦测,以去除语音中的静音,将除去静音后的语音作为测试语音。
S202、提取测试语音的声学特征。
具体地,可以对测试语音按照预设的第二步长进行分帧,例如,第二步长可以以25ms为一帧,然后按照预设的第三步长对测试语音每帧进行提取声学特征,例如,第三步长可以为10ms。本实施例中,声学特征可以为滤波器组(Filter bank40,简称Fbank40)特征或者梅尔频率倒谱系数(Mel-Frequency Cepstral Coefficients,简称MFCC)特征。
S203、将测试语音的声学特征输入到目标分类器中进行识别,以判断语音是否为童声。
进一步地,将去除静音后的语音作为测试语音,为了识别出测试语音是否为童声,需要提取出该测试语音的声学特征,然后将该测试语音的声学特征输入到已经训练好的目标分类器中,目标分类器可以对测试语音对声学特征进行识别,以确定该语音是否为童声。
具体地,将测试语音每帧对应的声学特征输入到目标分类器之后,目标分类器可以对每一帧进行打分,然后综合每帧的得分进行最终的判决,本实施例中,可以将每帧的得分进行加和平均,根据加和平均后的平均值作为判断依据,当平均值大于或者等于预设的阈值后,则可以判断出该语音为童声,如果低于该阈值,则可以判断出语音非童声。
本实施例中,在判断出语音为童声时则执行S204,在判断出语音为非童声时,结束流程。
本实施例中,在对语音进行测试之前,需要对分类器进行训练,以获取到目标分类器。图3为本发明实施例中提供的分类器训练流程。如图3所示,该分类器训练包括以下步骤:
S301、获取用于对预设的分类器进行训练的样本语音。
本实施例中,可以对儿童的声音进行采样作为样本语音,利用这些采集到的样本语音对预设的分类器进行训练。优选地,可以采集历史上通过人工分类标记为童声的语音作为样本语音。
S302、对样本语音进行语音活动侦测去除训练数据中的静音,得到训练语音。
由于用户在说话的过程中,可能会存在停顿,为了减少占用的搜索资源,在获取到样本语音后对样本语音进行语音活动侦测去除训练数据中的静音,得到训练语音。
具体地,可以对样本语音按照预设的第一步长进行分帧,例如,可以以10ms为一帧,对样本语音的每帧进行语音活动侦测,以去除样本语音中的静音,将除去静音后的样本语音作为训练语音。
S303、提取训练语音的声学特征。
具体地,可以对训练语音按照预设的第二步长进行分帧,例如,可以以25ms为一帧,然后按照预设的第三步长对训练语音的每帧提取声学特征,其中,声学特征可以为滤波器组(Filter bank40,简称Fbank40)特征或者梅尔频率倒谱系数(Mel-FrequencyCepstral Coefficients,简称MFCC)特征。
S304、将训练语音的声学特征输入到分类器中进行训练,得到目标分类器。
本实施例中,可以基于时间递归神经网络(Long Short-Time MemoryProjection,简称LSTMP)、深度神经网络(Deep Neural Networks,简称DNN)或者循环神经网络(Recurrent Neural Networks,简称RNN)对分类器进行建模。此处基于机器学习的算法构建分类器并不进行限定。
在获取到训练语音的声学特征后,将声学特征输入到分类器中进行训练,当分类器输出的结果稳定收敛后,该分类器的训练完成得到目标分类器。
S204、将语音转换成文本内容。
S205、根据文本内容在预先为儿童建立的数据库中进行搜索。
为了保证为儿童提供较好的服务或者网络环境,本实施例中,可以预先为儿童建立一些数据库,例如试题库、儿歌动画库、益智游戏库等
在将语音转换成文本内容后,可以根据文本内容在预先为儿童建立的数据库中进行搜索,由于这些数据库是针对儿童群体建立的,能够使得搜索结果更加满足儿童的搜索需求,而且数据库中信息已经进行了甄别相对健康。
如果在预先为儿童建立的数据库中未搜索到相关的内容,则向其他的数据库中进行搜索,即执行S206;如果在预先为儿童建立的数据库中搜索到相关的内容,则执行S207。
S206、如果在预先为儿童建立的数据库中未搜索到相关的内容,根据文本内容在其他数据库中进行搜索以得到搜索结果。
当根据语音的文本内容在为儿童预先建立的数据库中未搜索到相关的内容时,为了满足搜索用户的需求,可以根据文本内容在其他的数据库进行搜索,以为用户检索到相关的内容。
S207、对搜索结果进行筛选去除不适合儿童阅读的敏感内容。
由于互联网上的信息比较繁多,根据语言的文本内容搜索到的结果中可能包含有敏感内容,或者不良网络信息。由于在S203中已经识别出语音为童声,说明输入语音的用户为儿童用户,如果不对搜索结果进行筛选直接将搜索结果推送给该儿童用户,就会导致该儿童用户接收到很多不健康的网络咨询,这些不良网络咨询或者信息会给儿童的身心健康造成不利的影响。
本实施例中,为了更好地向儿童用户提供良好地服务或者网络环境,对搜索结果进行筛选,以剔除掉搜索结果中不适合儿童阅读的敏感内容。具体地,可以对搜索结果进行分析,判断该搜索结果中是否包含不适合儿童阅读的敏感内容,如果确定出搜索结果出保护有不适合儿童阅读的敏感内容,就可以从该搜索结果出剔除掉这些敏感内容。
本实施例中,为了更好地向儿童提供网络信息,在预先建立的数据库中搜索的结果也可以进行筛选,进一步地提高了信息的安全性。
S208、将筛选后的搜索结果反馈给用户。
由于从最初的搜索结果中剔除了不适合儿童阅读的敏感内容,完成了对搜索结果的筛选,搜索结果中的内容相对健康,比较适于儿童阅读,则将筛选后的搜索结果反馈给用户。
本实施例提供的基于人工智能的语音搜索方法,通过对用户所输入的语音进行识别,以确定该用户是否为儿童用户,在确定出该用户为儿童用户后,则对搜索结果进行筛选,实现了对儿童用户的搜索结果进行差异化设置,从而可以剔除掉搜索结果不符合儿童阅读的敏感内容,使得向儿童用户推送的内容有利用儿童的身心健康。
图4为本发明实施例所提供的一种基于人工智能的语音搜索装置的结构示意图。该基于人工智能的语音搜索装置包括:判断模块11、筛选模块12和反馈模块13。
其中,判断模块11,用于对用户所输入的语音进行识别,判断所述语音是否为童声。
筛选模块12,用于在所述判断模块的判断结果为是,对根据所述语音得到的搜索结果进行筛选。
反馈模块13,用于将筛选后的搜索结果反馈给所述用户。
图5为本实施例提供的一种筛选模块的结构示意图。如图5所示,该筛选模块12包括:转换单元121、搜索单元122和筛选单元123。
转换单元121,用于将所述语音转换成文本内容。
搜索单元122,用于按照所述文本内容进行搜索得到所述搜索结果。
筛选单元123,用于对所述搜索结果进行筛选去除不适合儿童阅读的敏感内容。
进一步地,搜索单元122,具体用于:
根据所述文本内容在预先为儿童建立的数据库中进行搜索。
如果在所述数据库中未搜索到相关的内容,则根据所述文本内容在其他数据库中进行搜索,以得到所述搜索结果。
图6为本实施例提供的一种判断模块的结构示意图。如图6所示,该判断模块11包括:获取单元111、静音去除单元112、特征提取单元113、训练单元114和识别判断单元115。
获取单元111,用于获取用于对预设的分类器进行训练的样本语音。
静音去除单元112,用于对所述样本语音进行语音活动侦测去除所述训练数据中的静音,得到训练语音。
特征提取单元113,用于提取所述训练语音的声学特征。
训练单元114,用于将所述训练语音的声学特征输入到所述分类器中进行训练,得到所述目标分类器。
进一步地,静音去除单元112,具体用于:
按照预设的第一步长对所述样本语音分帧,并对所述样本语音的每帧进行语音活动侦测去除每帧中的静音,得到所述训练语音。
特征提取单元113,具体用于:
按照预设的第二步长对所述训练语音进行分帧。
按照预设的第三步长对分帧后的所述训练语音进行声学特征提取。
进一步地,静音去除单元112,还用于对所述语音进行语音活动侦测去除所述语音中的静音,得到测试语音。
特征提取单元113,还用于所述提取所述测试语音的声学特征。
进一步地,判断模块11,还包括:
识别判断单元115,用于将所述测试语音的声学特征输入到所述目标分类器中进行识别,以判断所述语音是否为童声。
进一步地,静音去除单元112,还具体用于:
按照预设的第一步长对语音分帧,并对每帧进行语音活动侦测去除每帧中的静音,得到所述测试语音。
特征提取单元113,还具体用于:
按照预设的第二步长对所述测试语音进行分帧。
按照预设的第三步长对分帧后的所述测试语音进行声学特征提取。
识别判断单元115,具体用于:
将所述测试语音每帧对应的声音特征输入到所述目标分类器中进行打分。
获取所述测试语音每帧的得分的平均值。
如果所述平均值超过预设的阈值,判定所述测试语音为童声。
本实施例提供的基于人工智能的语音搜索装置,通过对用户所输入的语音进行识别,以确定该用户是否为儿童用户,在确定出该用户为儿童用户后,则对搜索结果进行筛选,实现了对儿童用户的搜索结果进行差异化设置,从而可以剔除掉搜索结果不符合儿童阅读的敏感内容,使得向儿童用户推送的内容有利用儿童的身心健康。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (14)
1.一种基于人工智能的语音搜索方法,其特征在于,包括:
对用户所输入的语音进行识别,判断所述语音是否为童声;
如果判断结果为是,对根据所述语音得到的搜索结果进行筛选;
将筛选后的搜索结果反馈给所述用户。
2.根据权利要求1所述的基于人工智能的语音搜索方法,其特征在于,所述对根据所述语音得到的搜索结果进行筛选,包括:
将所述语音转换成文本内容;
按照所述文本内容进行搜索得到所述搜索结果;
对所述搜索结果进行筛选去除不适合儿童阅读的敏感内容。
3.根据权利要求2所述的基于人工智能的语音搜索方法,其特征在于,所述按照所述文本内容进行搜索得到所述搜索结果,包括:
根据所述文本内容在预先为儿童建立的数据库中进行搜索;
如果在所述数据库中未搜索到相关的内容,则根据所述文本内容在其他数据库中进行搜索,以得到所述搜索结果。
4.根据权利要求1-3任一项所述的基于人工智能的语音搜索方法,其特征在于,所述对用户所输入的语音进行识别之前,包括:
获取用于对预设的分类器进行训练的样本语音;
对所述样本语音进行语音活动侦测去除所述训练数据中的静音,得到训练语音;
提取所述训练语音的声学特征;
将所述训练语音的声学特征输入到所述分类器中进行训练,得到所述目标分类器。
5.根据权利要求4所述的基于人工智能的语音搜索方法,其特征在于,所述对所述样本语音进行语音活动侦测去除所述训练数据中的静音,得到训练语音,包括:
按照预设的第一步长对所述样本语音分帧,并对所述样本语音的每帧进行语音活动侦测去除每帧中的静音,得到所述训练语音;
所述提取所述训练语音的声学特征,包括:
按照预设的第二步长对所述训练语音进行分帧,
按照预设的第三步长对分帧后的所述训练语音进行声学特征提取。
6.根据权利要求4所述的基于人工智能的语音搜索方法,其特征在于,所述对用户所输入的语音进行识别,判断所述语音是否为童声,包括:
对所述语音进行语音活动侦测去除所述语音中的静音,得到测试语音;
提取所述测试语音的声学特征;
将所述测试语音的声学特征输入到所述目标分类器中进行识别,以判断所述语音是否为童声。
7.根据权利要求6所述的基于人工智能的语音搜索方法,其特征在于,所述对所述语音进行语音活动侦测去除所述语音中的静音,得到测试语音,包括:
按照预设的第一步长对语音分帧,并对每帧进行语音活动侦测去除每帧中的静音,得到所述测试语音;
所述提取所述测试语音的声学特征,包括:
按照预设的第二步长对所述测试语音进行分帧,
按照预设的第三步长对分帧后的所述测试语音进行声学特征提取;
所述将所述测试语音的声学特征输入到所述目标分类器中进行识别,以判断所述语音是否为童声,包括:
将所述测试语音每帧对应的声音特征输入到所述目标分类器中进行打分;
获取所述测试语音每帧的得分的平均值;
如果所述平均值超过预设的阈值,判定所述测试语音为童声。
8.一种基于人工智能的语音搜索装置,其特征在于,包括:
判断模块,用于对用户所输入的语音进行识别,判断所述语音是否为童声;
筛选模块,用于在所述判断模块的判断结果为是,对根据所述语音得到的搜索结果进行筛选;
反馈模块,用于将筛选后的搜索结果反馈给所述用户。
9.根据权利要求8所述的基于人工智能的语音搜索装置,其特征在于,所述筛选模块,包括:
转换单元,用于将所述语音转换成文本内容;
搜索单元,用于按照所述文本内容进行搜索得到所述搜索结果;
筛选单元,用于对所述搜索结果进行筛选去除不适合儿童阅读的敏感内容。
10.根据权利要求9所述的基于人工智能的语音搜索装置,其特征在于,所述搜索单元,具体用于:
根据所述文本内容在预先为儿童建立的数据库中进行搜索;
如果在所述数据库中未搜索到相关的内容,则根据所述文本内容在其他数据库中进行搜索,以得到所述搜索结果。
11.根据权利要求8-10任一项所述的基于人工智能的语音搜索装置,其特征在于,所述判断模块,包括:
获取单元,用于获取用于对预设的分类器进行训练的样本语音;
静音去除单元,用于对所述样本语音进行语音活动侦测去除所述训练数据中的静音,得到训练语音;
特征提取单元,用于提取所述训练语音的声学特征;
训练单元,用于将所述训练语音的声学特征输入到所述分类器中进行训练,得到所述目标分类器。
12.根据权利要求11所述的基于人工智能的语音搜索装置,其特征在于,所述静音去除单元,具体用于:
按照预设的第一步长对所述样本语音分帧,并对所述样本语音的每帧进行语音活动侦测去除每帧中的静音,得到所述训练语音;
所述特征提取单元,具体用于:
按照预设的第二步长对所述训练语音进行分帧;
按照预设的第三步长对分帧后的所述训练语音进行声学特征提取。
13.根据权利要求11所述的基于人工智能的语音搜索装置,其特征在于,
所述静音去除单元,还用于对所述语音进行语音活动侦测去除所述语音中的静音,得到测试语音;
所述特征提取单元,还用于所述提取所述测试语音的声学特征;
所述判断模块,还包括:
识别判断单元,用于将所述测试语音的声学特征输入到所述目标分类器中进行识别,以判断所述语音是否为童声。
14.根据权利要求13所述的基于人工智能的语音搜索装置,其特征在于,所述静音去除单元,还具体用于:
按照预设的第一步长对语音分帧,并对每帧进行语音活动侦测去除每帧中的静音,得到所述测试语音;
所述特征提取单元,还具体用于:
按照预设的第二步长对所述测试语音进行分帧;
按照预设的第三步长对分帧后的所述测试语音进行声学特征提取;
所述识别判断单元,具体用于:
将所述测试语音每帧对应的声音特征输入到所述目标分类器中进行打分;
获取所述测试语音每帧的得分的平均值;
如果所述平均值超过预设的阈值,判定所述测试语音为童声。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611079405.4A CN106599110A (zh) | 2016-11-29 | 2016-11-29 | 基于人工智能的语音搜索方法及装置 |
US15/823,663 US10157619B2 (en) | 2016-11-29 | 2017-11-28 | Method and device for searching according to speech based on artificial intelligence |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611079405.4A CN106599110A (zh) | 2016-11-29 | 2016-11-29 | 基于人工智能的语音搜索方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106599110A true CN106599110A (zh) | 2017-04-26 |
Family
ID=58595724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611079405.4A Pending CN106599110A (zh) | 2016-11-29 | 2016-11-29 | 基于人工智能的语音搜索方法及装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10157619B2 (zh) |
CN (1) | CN106599110A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107610706A (zh) * | 2017-09-13 | 2018-01-19 | 百度在线网络技术(北京)有限公司 | 语音搜索结果的处理方法和处理装置 |
CN108766431A (zh) * | 2018-06-06 | 2018-11-06 | 广东小天才科技有限公司 | 一种基于语音识别的自动唤醒方法及电子设备 |
CN109087633A (zh) * | 2018-08-23 | 2018-12-25 | 北京猎户星空科技有限公司 | 语音测评方法、装置及电子设备 |
CN110660393A (zh) * | 2019-10-31 | 2020-01-07 | 广东美的制冷设备有限公司 | 语音交互方法、装置、设备及存储介质 |
CN112231440A (zh) * | 2020-10-09 | 2021-01-15 | 安徽讯呼信息科技有限公司 | 一种基于人工智能的语音搜索方法 |
CN113486208A (zh) * | 2021-06-09 | 2021-10-08 | 安徽沐峰数据科技有限公司 | 一种基于人工智能的语音搜索设备及其搜索方法 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107221326B (zh) * | 2017-05-16 | 2021-05-28 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音唤醒方法、装置和计算机设备 |
CN111916065B (zh) * | 2020-08-05 | 2024-07-02 | 北京百度网讯科技有限公司 | 用于处理语音的方法和装置 |
CN112614514B (zh) * | 2020-12-15 | 2024-02-13 | 中国科学技术大学 | 有效语音片段检测方法、相关设备及可读存储介质 |
CN113514544A (zh) * | 2020-12-29 | 2021-10-19 | 大连理工大学 | 一种基于声音特征的移动机器人路面材质识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8417530B1 (en) * | 2010-08-20 | 2013-04-09 | Google Inc. | Accent-influenced search results |
CN103151039A (zh) * | 2013-02-07 | 2013-06-12 | 中国科学院自动化研究所 | 一种基于向量机svm的说话者年龄段识别方法 |
CN104795067A (zh) * | 2014-01-20 | 2015-07-22 | 华为技术有限公司 | 语音交互方法及装置 |
CN105095406A (zh) * | 2015-07-09 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 一种基于用户特征的语音搜索方法及装置 |
CN105677787A (zh) * | 2015-12-29 | 2016-06-15 | 广州神马移动信息科技有限公司 | 信息搜索装置及信息搜索方法 |
US20160171109A1 (en) * | 2014-12-12 | 2016-06-16 | Ebay Inc. | Web content filtering |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0127718B1 (fr) * | 1983-06-07 | 1987-03-18 | International Business Machines Corporation | Procédé de détection d'activité dans un système de transmission de la voix |
EP0850673B1 (en) * | 1996-07-11 | 2003-10-01 | Sega Enterprises, Ltd. | Game input device and game input method with voice recognition |
US6286001B1 (en) * | 1999-02-24 | 2001-09-04 | Doodlebug Online, Inc. | System and method for authorizing access to data on content servers in a distributed network |
US6336117B1 (en) * | 1999-04-30 | 2002-01-01 | International Business Machines Corporation | Content-indexing search system and method providing search results consistent with content filtering and blocking policies implemented in a blocking engine |
WO2001055922A2 (en) * | 2000-01-28 | 2001-08-02 | Omrad Opto-Electronics Ltd. | Apparatus and method for accessing multimedia content |
US20040128282A1 (en) * | 2001-03-07 | 2004-07-01 | Paul Kleinberger | System and method for computer searching |
EP1402409A2 (en) * | 2001-06-08 | 2004-03-31 | W.W. Grainger, Inc. | System and method for retrieving information from an electronic catalog |
US6731239B2 (en) * | 2002-01-18 | 2004-05-04 | Ford Motor Company | System and method for retrieving information using position coordinates |
US7216121B2 (en) * | 2002-12-31 | 2007-05-08 | International Business Machines Corporation | Search engine facility with automated knowledge retrieval, generation and maintenance |
US7672931B2 (en) * | 2005-06-30 | 2010-03-02 | Microsoft Corporation | Searching for content using voice search queries |
US20080183694A1 (en) * | 2007-01-31 | 2008-07-31 | Daniel Cane | Method and system presenting search results using relationship information |
US7882102B2 (en) * | 2007-09-10 | 2011-02-01 | Mitac International Corporation | Nearest-neighbor geographic search |
US8160877B1 (en) * | 2009-08-06 | 2012-04-17 | Narus, Inc. | Hierarchical real-time speaker recognition for biometric VoIP verification and targeting |
US20110302633A1 (en) * | 2010-06-07 | 2011-12-08 | Windschauer Robert J | Safe Internet Browser |
US8484219B2 (en) * | 2010-09-21 | 2013-07-09 | Sony Computer Entertainment America Llc | Developing a knowledge base associated with a user that facilitates evolution of an intelligent user interface |
US8768782B1 (en) * | 2011-06-10 | 2014-07-01 | Linkedin Corporation | Optimized cloud computing fact checking |
KR101971008B1 (ko) * | 2012-06-29 | 2019-04-22 | 삼성전자주식회사 | 상황 인지를 이용한 단말의 제어 방법 및 그 단말 |
US20150287410A1 (en) * | 2013-03-15 | 2015-10-08 | Google Inc. | Speech and semantic parsing for content selection |
US9489411B2 (en) * | 2013-07-29 | 2016-11-08 | Sybase, Inc. | High performance index creation |
US10083237B2 (en) * | 2015-08-31 | 2018-09-25 | Google Llc | Protecting users from inappropriate sensitive or offensive search results |
US20170337610A1 (en) * | 2016-05-20 | 2017-11-23 | Monroney Labels, LLC | Motor Vehicle Data Retrieval, Processing and Presentation Process |
-
2016
- 2016-11-29 CN CN201611079405.4A patent/CN106599110A/zh active Pending
-
2017
- 2017-11-28 US US15/823,663 patent/US10157619B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8417530B1 (en) * | 2010-08-20 | 2013-04-09 | Google Inc. | Accent-influenced search results |
CN103151039A (zh) * | 2013-02-07 | 2013-06-12 | 中国科学院自动化研究所 | 一种基于向量机svm的说话者年龄段识别方法 |
CN104795067A (zh) * | 2014-01-20 | 2015-07-22 | 华为技术有限公司 | 语音交互方法及装置 |
US20160171109A1 (en) * | 2014-12-12 | 2016-06-16 | Ebay Inc. | Web content filtering |
CN105095406A (zh) * | 2015-07-09 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 一种基于用户特征的语音搜索方法及装置 |
CN105677787A (zh) * | 2015-12-29 | 2016-06-15 | 广州神马移动信息科技有限公司 | 信息搜索装置及信息搜索方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107610706A (zh) * | 2017-09-13 | 2018-01-19 | 百度在线网络技术(北京)有限公司 | 语音搜索结果的处理方法和处理装置 |
CN108766431A (zh) * | 2018-06-06 | 2018-11-06 | 广东小天才科技有限公司 | 一种基于语音识别的自动唤醒方法及电子设备 |
CN109087633A (zh) * | 2018-08-23 | 2018-12-25 | 北京猎户星空科技有限公司 | 语音测评方法、装置及电子设备 |
CN110660393A (zh) * | 2019-10-31 | 2020-01-07 | 广东美的制冷设备有限公司 | 语音交互方法、装置、设备及存储介质 |
CN110660393B (zh) * | 2019-10-31 | 2021-12-03 | 广东美的制冷设备有限公司 | 语音交互方法、装置、设备及存储介质 |
CN112231440A (zh) * | 2020-10-09 | 2021-01-15 | 安徽讯呼信息科技有限公司 | 一种基于人工智能的语音搜索方法 |
CN113486208A (zh) * | 2021-06-09 | 2021-10-08 | 安徽沐峰数据科技有限公司 | 一种基于人工智能的语音搜索设备及其搜索方法 |
Also Published As
Publication number | Publication date |
---|---|
US10157619B2 (en) | 2018-12-18 |
US20180151183A1 (en) | 2018-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106599110A (zh) | 基于人工智能的语音搜索方法及装置 | |
CN110728997B (zh) | 一种基于情景感知的多模态抑郁症检测系统 | |
CN104794212B (zh) | 基于用户评论文本的上下文情感分类方法及分类系统 | |
KR102601848B1 (ko) | 데이터 인식 모델 구축 장치 및 방법과 데이터 인식 장치 | |
CN103765506B (zh) | 使用听觉注意线索进行音调/语调识别的方法 | |
CN1157710C (zh) | 会话数据开采 | |
CN105893478B (zh) | 一种标签提取方法及设备 | |
CN108320734A (zh) | 语音信号处理方法及装置、存储介质、电子设备 | |
CN105095415B (zh) | 网络情绪的确定方法和装置 | |
CN110910283A (zh) | 生成法律文书的方法、装置、设备和存储介质 | |
CN103744953A (zh) | 一种基于中文文本情感识别的网络热点挖掘方法 | |
CN108899033B (zh) | 一种确定说话人特征的方法及装置 | |
Chittaragi et al. | Automatic text-independent Kannada dialect identification system | |
CN103680493A (zh) | 区分地域性口音的语音数据识别方法和装置 | |
CN106649849A (zh) | 文本信息库建立方法和装置、以及搜索方法、装置和系统 | |
CN108897732A (zh) | 语句类型识别方法和装置、存储介质及电子装置 | |
KR20190083143A (ko) | 관능 평가 방법 및 그 장치 | |
CN110119443A (zh) | 一种面向推荐服务的情感分析方法 | |
CN112418172A (zh) | 基于多模信息智能处理单元的多模信息融合情感分析方法 | |
CN107948730A (zh) | 基于图片生成视频的方法、装置、设备及存储介质 | |
CN109800418A (zh) | 文本处理方法、装置和存储介质 | |
CN106844340A (zh) | 基于人工智能的新闻摘要生成和显示方法、装置及系统 | |
CN109241993B (zh) | 融合用户和整体评价信息的评价对象情感分类方法及装置 | |
CN109478405A (zh) | 信息处理设备、信息处理方法以及程序 | |
CN117809655A (zh) | 音频处理方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170426 |