CN107492380A - 基于音频的人机识别方法及应用其的广告投放方法和系统 - Google Patents
基于音频的人机识别方法及应用其的广告投放方法和系统 Download PDFInfo
- Publication number
- CN107492380A CN107492380A CN201710697448.7A CN201710697448A CN107492380A CN 107492380 A CN107492380 A CN 107492380A CN 201710697448 A CN201710697448 A CN 201710697448A CN 107492380 A CN107492380 A CN 107492380A
- Authority
- CN
- China
- Prior art keywords
- client
- man
- audio
- content
- microphone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 230000001960 triggered effect Effects 0.000 claims description 7
- 238000001228 spectrum Methods 0.000 claims description 5
- 238000012795 verification Methods 0.000 claims description 2
- 238000012549 training Methods 0.000 description 7
- 230000006399 behavior Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- WURBVZBTWMNKQT-UHFFFAOYSA-N 1-(4-chlorophenoxy)-3,3-dimethyl-1-(1,2,4-triazol-1-yl)butan-2-one Chemical compound C1=NC=NN1C(C(=O)C(C)(C)C)OC1=CC=C(Cl)C=C1 WURBVZBTWMNKQT-UHFFFAOYSA-N 0.000 description 1
- 241000209140 Triticum Species 0.000 description 1
- 235000021307 Triticum Nutrition 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0257—User requested
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Health & Medical Sciences (AREA)
- Finance (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于音频的人机识别方法,其包括:接收客户端发送的请求,采集客户端的音频特征信息,依据预先设置好的音频特征模型,对所述客户端进行人机识别。本发明还公开了一种基于人机识别的广告投放控制方法和基于人机识别的广告投放系统。
Description
技术领域
本发明涉及网络多媒体技术领域,特别涉及一种基于音频的人机识别方法,及应用其的广告投放方法和系统。
背景技术
移动广告交易主要是以设备为单元进行消耗的计费,例如CPC(按照点击设备数计费)、CPM(按照曝光设备数计费)、CPA(按照激活设备数计费)。随着广告支出越来越向移动端倾斜,市场上虚拟设备的拟真程度越来越高。现有的防作弊方法多是基于设备标识及其衍生的手段进行判断,但利用这种方法仅能做到事后分析,不能做到事前控制。
发明内容
目前多数智能移动设备上都有音频输入装置,例如麦克风。发明人突然想到:特定指令下的音频(人声)是很难被作弊设备模仿的,因而提出一种基于音频的人机识别方法,并进而将其应用于广告投放控制领域。
根据本发明第一个方面,本发明提供一种基于音频的人机识别方法,其包括:
接收客户端发送的请求,
采集客户端的音频特征信息,
依据预先设置好的音频特征模型,对所述客户端进行人机识别。
优选地,所述音频特征模型为:依据若干操作样本训练得到的、人类操作和机器操作的分类器。
优选地,所述音频特征模型的参数包括人声频率、单峰值和持续时间。更优选地,当采集到的音频特征信息的人声频率、单峰值和持续时间均符合预设条件时,判断为人类。
优选地,所述音频特征信息包括音量大小、清晰度、频谱特征、信号幅度、短时能量、持续时间中的一种或多种。
优选地,所述音频特征信息通过客户端的麦克风获得。
更优选地,所述音频特征信息通过客户端的至少两个麦克风获得。
本发明的发明人进而提供一种有趣的、易被接受的广告投放控制方法,其自带人机识别功能,可以做到事前控制,不但节省交易费用,还能避免无效投放占用带宽。
根据本发明第二个方面,本发明提供一种基于人机识别的广告投放控制方法,其包括:
接收广告播放请求,播放人机识别提示内容;
接收从客户端采集的、根据所述提示内容而触发的第一操作的音频特征信息;
依据预先设置好的音频特征模型,对所述客户端进行人机识别;
当第一操作的识别结果低于阈值时,向所述客户端投放广告内容。
优选地,所述音频特征模型为:依据若干操作样本训练得到的、人类操作和机器操作的分类器。
优选地,所述音频特征模型的参数包括人声频率、单峰值和持续时间。更优选地,当采集到的音频特征信息的人声频率、单峰值和持续时间均符合预设条件时,向所述客户端投放广告内容。
优选地,所述音频特征信息包括音量大小、清晰度、频谱特征、信号幅度、短时能量、持续时间中的一种或多种。
优选地,所述音频特征信息通过客户端的麦克风获得。
更优选地,所述音频特征信息通过客户端的至少两个麦克风获得。
优选地,所述提示包括语义提示和/或语音提示。
优选地,所述第一操作为根据所述提示内容的语义向客户端发声。
优选地,所述第一操作为根据所述提示内容的语义向客户端吹气。
可选地,在接收到所述广告播放请求时,可预加载所述广告内容的部分素材。
可选地,当第一操作的识别结果低于阈值时,播放预加载的所述广告内容。
根据本发明第三个方面,本发明提供一种基于人机识别的广告投放系统,其包括:
验证单元,向客户端发送验证提示,采集根据提示内容触发的第一操作的音频特征信息,对所述第一操作的触发主体进行人机识别;
广告内容单元,存储广告内容的素材,根据验证单元的识别结果投放广告内容。
优选地,所述提示包括语义提示和/或语音提示。
优选地,所述第一操作为根据所述提示内容的语义向客户端发声。
优选地,所述第一操作为根据所述提示内容的语义向客户端吹气。
优选地,所述验证单元包括:
采集模块,用于从客户端采集根据提示内容触发的第一操作的音频特征信息;和
识别模块,依据预先设置好的音频特征模型,对所述客户端进行人机识别。
优选地,所述音频特征模型为:依据若干操作样本训练得到的、人类操作和机器操作的分类器。
优选地,所述音频特征模型的参数包括人声频率、单峰值和持续时间。更优选地,当采集到的音频特征信息的人声频率、单峰值和持续时间均符合预设条件时,触发广告内容单元投放广告内容。
优选地,当验证单元得到的识别结果低于阈值时,触发广告内容单元投放广告内容。
优选地,所述音频特征信息包括音量大小、清晰度、频谱特征、信号幅度、短时能量、持续时间中的一种或多种。
优选地,所述音频特征信息通过客户端的麦克风获得。
更优选地,所述音频特征信息通过客户端的至少两个麦克风获得。
可选地,在接收到所述广告播放请求时,可预加载所述广告内容的部分素材。
可选地,当第一操作的识别结果低于阈值时,播放预加载的所述广告内容。
可选地,当采集到的音频特征信息的人声频率、单峰值和持续时间均符合预设条件时,播放预加载的所述广告内容。
附图说明
下面将通过参照附图详细描述本发明的优选实施例,使本领域的普通技术人员更清楚本发明的上述及其它特征和优点,附图中:
图1是根据本发明的第二方面的方法的流程图;
图2是根据本发明的第三方面的系统的示意图;
图3是根据本发明的第一方面的方法的流程图。
具体实施方式
在下文的描述中,给出了大量具体的细节以便提供对本发明更为彻底的理解。然而,对于本领域技术人员来说显而易见的是,本发明可以无需一个或多个这些细节而得以实施。在其他的例子中,为了避免与本发明发生混淆,对于本领域公知的一些技术特征未进行描述。
在本发明中,术语“音频信号”是(Audio)带有语音、音乐和音效的有规律的声波的频率、幅度变化信息载体。根据声波的特征,可把音频信息分类为规则音频和不规则声音。其中规则音频又可以分为语音、音乐和音效。规则音频是一种连续变化的模拟信号,可用一条连续的曲线来表示,称为声波。声音的三个要素是音调、音强和音色。声波或正弦波有三个重要参数:频率ω0、幅度An和相位ψn,这也就决定了音频信号的特征。
图灵测试(Turingtest)是图灵于1950年提出的一个关于判断机器是否能够思考的著名试验,测试某机器是否能表现出与人等价或无法区分的智能。进行图灵测试通常是作为服务器的计算机自动生成一个问题由用户来解答,这个问题可以由计算机生成并评判,但是必须只有人类才能解答,由于计算机无法解答。
通览互联网领域,发明人在研究过程中发现,生物特征的识别技术由于难以被模仿和破解,时常被用在高度机密性的认证领域。例如指纹识别、虹膜识别、人脸识别等。受限于智能手机的硬件资源,该些识别方法由于消耗大量手机资源,影响手机其他功能正常工作,因而降低了用户体验的效果。
在广告播放领域,广告主并不在意观看广告的对象的具体身份,只关注广告曝光的对象是否为可以转化为购买的真实的人类。更具体地说,广告主关注这个人类是否是能看懂广告内容的个体,例如广告播放给误触屏幕的婴儿也是无效的。
因此,在本发明的实施例中,可以通过机器学习,聚类出多维度的音频特征模型,后续可以通过该生物特征模型来判定服务器当前接收到的交互操作是否具备生物特征,从而更准确地进行人机识别。本项技术应用在广告播放领域的第一个目的是确定该次曝光是否计数,如果判断发起请求的为人类,则计数;反之,则不计,广告主无需为该次曝光付费。与现有通过事后分析修正计数不同的是:本发明的方法可以实现事前控制,即在广告投放之前判断发起请求的主体是否为人类,从而避免浪费媒体(广告服务商)的带宽。
通常情况下,从客户端访问广告页面,广告服务器接收到广告播放请求,跳转到广告内容页面,向客户端返回所请求的广告内容。
如图1~图2所示,在本发明中,广告服务器在接收到广告播放请求时,先向客户端返回用于人机识别的提示内容,通过验证单元的采集模块采集发起请求的客户端根据所述提示内容而触发的第一操作。
验证单元的识别模块依据预先设置好的音频特征模型,对所述第一操作的触发主体进行人机识别;其中,所述音频特征模型为:依据若干操作样本训练得到的、人类操作和机器操作的分类器。
所述提示内容包括语音或语义提示,提示内容为一种或多种基于音频操作。以目前的设备虚拟技术,还无法识别语音或语义提示。例如“请对麦克风吹口气”,即便能够识别出这句话,设备虚拟技术也无法实现“请对麦克风吹口气”的动作,而人类则很轻易地可以完成这个动作。
通过这样的方式,很容易地进行人机识别,且极具趣味,接受度较高。
当识别的结果低于预设的阈值时,可以认为发起请求的为人类。则向所述客户端投放广告内容。
当然,分数高于阈值属于人类还是低于阈值属于人类是人为规定的。例如,人为设定机器10分,人类为0分,则高于阈值时是机器。相反设定则会得到相反的结果。为了方便表述,在本发明中,我们规定高于阈值判断为机器(虚拟设备)。本领域技术人员应当了解,基于本发明的思想,术语“高于阈值”是指判断为更接近机器,而不限于数学上的高于。相应地,术语“低于阈值”是指判断为更接近人类。
在本发明中,可以根据需要,使用已知的各种方法训练音频特征模型。
在特征提取阶段,通过对原始行为信息进行一系列的数据分析和处理,从原始行为信息中提取出符合要求的特征数据,达到不同用户的所产生的音频都可以识别为符合识别要求的特征数据,且可用于下一阶段的特征分类。
在数据库中可以提取到设备的操作数据:包括设备信息和行为信息。
在设备信息中,浏览器信息可以是对应的操作样本触发时通过哪个版本号的浏览器,操作系统可以表示对应的操作样本触发时是通过何种操作系统,例如android还是windows等,硬件信息可以表示对应的操作样本被触发时的移动终端的MEI号,或者电脑的IP地址等信息。
在现有的智能手机等移动设备,往往不止设置一个音频输入装置(例如,麦克风)。考虑到本发明的重点并非是识别具体个体,而是将人类与虚拟设备相区别,因此只需要设计出虚拟设备难以模仿的人机识别动作即可,例如“对手机前面吹气”,则设置在手机前面和后面的麦克风接收到的音频是不同的。且不同型号的手机由于其麦克风的位置设置不同,采集到的音频特征也是不同的。本领域技术人员可以使用现有的音频识别方法训练音频特征模型,在此仅举一例。本发明音频特征模型的训练方法并不限于以下说明:
在本发明的一些实施方式中,本发明中用于人机识别的音频特征的采集方法包括:
A.当需要采集声音的应用启动时,触发上述两个以上麦克风采集声音;
本发明实施例中,移动终端上设置有两个以上麦克风。当提示需要采集声音(人机识别内容播放)时,移动终端触发上述两个以上麦克风采集声音。
B.根据上述两个以上麦克风采集到的声音,确定距离声源最近的麦克风;
本发明实施例中,移动终端主要识别麦克风采集到的声音的清晰度、音量大小等参数来确定哪个麦克风距离声源最近。
在一种应用场景中,移动终端比较上述两个以上麦克风采集到的声音的音量大小,将音量最大的声音对应的麦克风确定为距离声源最近的麦克风。举例说明,当存在麦克风1、麦克风2和麦克风3时,移动终端比较当前麦克风1、麦克风2和麦克风采集到的声音的音量大小,如果麦克风1采集到的声音的音量最大,则将麦克风1确定为距离声源最近的麦克风,如果麦克风2采集到的声音的音量最大,则将麦克风2确定为距离声源最近的麦克风,以此类推。
在另一种应用场景中,移动终端分别检测上述两个以上麦克风采集到的声音的清晰度;将清晰度最高的声音对应的麦克风确定为距离声源最近的麦克风。举例说明,当存在麦克风1、麦克风2和麦克风3时,移动终端比较当前麦克风1、麦克风2和麦克风采集到的声音的清晰度,如果麦克风1采集到的声音的清晰度最高,则将麦克风1确定为距离声源最近的麦克风,如果麦克风2采集到的声音的清晰度最高,则将麦克风2确定为距离声源最近的麦克风,以此类推。
当然,本发明实施例中结合麦克风采集到的声音的音量大小和清晰度这两个参数确定出距离声源最近的麦克风,例如,分别为音量大小、清晰度这两个参数设置相应的权值,根据麦克风采集到的声音的音量大小、清晰度以及预设的权值分别计算出各个麦克风的一总分值,将总分值最大的麦克风确定为距离声源最近的麦克风。或者,本发明实施例中也可以根据麦克风采集到的声音的其它参数确定距离声源最近的麦克风,此处不作限定。
C.对于同一型号的移动终端,广泛采集不同人针对同一人机识别提示所产生的音频特征,作为该提示内容与该型号设备对应的音频特征库。
D.采用A~C的步骤对不同型号的移动终端,训练或针对不同人机识别提示内容的音频特征库。
需要说明的是,本发明实施例中的移动终端具体可以为手机、平板电脑或其它支持声音采集的移动终端,此处不作限定。
由上可见,本发明在移动终端上设置两个以上麦克风,当需要采集声音的提示启动时,触发上述两个以上麦克风采集声音,并根据上述两个以上麦克风采集到的声音确定距离声源最近的麦克风,根据提示的内容,设定人机识别的权重。例如,提示内容为“从手机前方吹气时”,前后麦克风差异50%(前高后低)判定为人类,0分,前后麦克风差异50%(前低后高)判定为机器,10分。具体权重根据采集的情况调整设定,本领域技术人员均可知晓,在此不再赘述。
对于使用单一麦克风的情况,人机识别的方式可以简化为辨别符合提示内容(例如吹气等)的声音脉冲,例如单峰值和人声频率。
人声频率的范围一般男性:低音82~392Hz,基准音区64~523Hz,男中音123~493Hz,男高音164~698Hz。女性:低音82~392Hz,基准音区160~1200Hz,女低音123~493Hz,女高音220~1.1KHz。可以选取可能的人声范围,例如50Hz~1.2KHz作为识别范围。
单峰值可以设置为振幅大于背景音10倍以上,持续0.2~0.3秒。当两个条件同时满足时,判断为人类。仅满足一个或都不满足时,判断为机器。
这种简化的识别规则也可以用在多个麦克风的移动设备上,在前面说明的提示下,本领域技术人员很容易实现,在此不再赘述。
本发明中实现训练音频特征模型的方法并不限于上述提供的这套方案。本领域技术人员可以根据这个思路,基于设计需要寻找其他可用的方案,只需要满足能够识别出人类音频特征即可。在本发明中,音量大小、清晰度、频谱特征、信号幅度、短时能量均可以作为行为模型的依据。
在本发明的一些实施方式中,避免用户等待时间过长,可以在播放提示内容时预加载广告内容的部分素材,例如加载广告片头等。一旦提示内容的人机识别验证通过,可以立即播放广告内容,随着播放,继续加载广告内容的其余素材。这样的方案可以在占用带宽和用户等待时间之间平衡,得到一个用户感受更好的解决方案。
如图3所示,在本发明的另一些实施方式中,以本发明所提供的基于音频的人机识别作为主要的验证手段,可以作为插件与其他应用配合使用。
本发明的优点在于利用了人类与机器本质上的区别进行人机识别,比纯使用设备信息验证要准确得多。而且充分利用了广告的特点,在不增加用户负担的情况下,实现了人机识别。而且采集了更多维度的数据,为后续的数据分析提供了资料,最重要的是该些维度的数据不涉及个人隐私。
本发明不限于上述实施方式,在本发明思想的范围内可以进行各种变更。本发明已通过上述实施例进行了说明,但应当理解的是,上述实施例只是用于举例和说明的目的,而非意在将本发明限制于所描述的实施例范围内。此外本领域技术人员可以理解的是,本发明并不局限于上述实施例,根据本发明教导还可以做出更多种的变型和修改,这些变型和修改均落在本发明所要求保护的范围以内。本发明的保护范围由附属的权利要求书及其等效范围所界定。
Claims (10)
1.一种基于音频的人机识别方法,其包括:
接收客户端发送的请求,
采集客户端的音频特征信息,
依据预先设置好的音频特征模型,对所述客户端进行人机识别。
2.根据权利要求1所述的方法,其中所述音频特征信息包括音量大小、清晰度、频谱特征、信号幅度、短时能量、持续时间中的一种或多种。
3.根据权利要求2所述的方法,其中所述音频特征信息通过客户端的麦克风获得。
4.根据权利要求2所述的方法,其中所述音频特征信息通过客户端的至少两个麦克风获得。
5.一种基于人机识别的广告投放控制方法,其包括:
接收广告播放请求,播放人机识别提示内容;
接收从客户端采集的、根据所述提示内容而触发的第一操作的音频特征信息;
依据预先设置好的音频特征模型,对所述客户端进行人机识别;
当第一操作的识别结果低于阈值时,向所述客户端投放广告内容。
6.根据权利要求5所述的方法,其中所述提示包括语义提示和/或语音提示。
7.一种基于人机识别的广告投放系统,其包括:
验证单元,向客户端发送验证提示,采集根据提示内容触发的第一操作的音频特征信息,对所述第一操作的触发主体进行人机识别;
广告内容单元,存储广告内容的素材,根据验证单元的识别结果投放广告内容。
8.根据权利要求7所述的系统,其中所述验证单元包括:
采集模块,用于从客户端采集根据提示内容触发的第一操作的音频特征信息;和
识别模块,依据预先设置好的音频特征模型,对所述客户端进行人机识别。
9.根据权利要求7所述的系统,其中当验证单元得到的识别结果低于阈值时,触发广告内容单元投放广告内容。
10.根据权利要求7所述的系统,其中所述音频特征信息通过客户端的麦克风获得。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710697448.7A CN107492380A (zh) | 2017-08-15 | 2017-08-15 | 基于音频的人机识别方法及应用其的广告投放方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710697448.7A CN107492380A (zh) | 2017-08-15 | 2017-08-15 | 基于音频的人机识别方法及应用其的广告投放方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107492380A true CN107492380A (zh) | 2017-12-19 |
Family
ID=60645742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710697448.7A Pending CN107492380A (zh) | 2017-08-15 | 2017-08-15 | 基于音频的人机识别方法及应用其的广告投放方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107492380A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101425161A (zh) * | 2007-10-30 | 2009-05-06 | 沈阳 | 基于目标受众的语音特征投放精准广告的方法 |
CN101443800A (zh) * | 2005-03-23 | 2009-05-27 | 道格拉斯·阿什博 | 分布式内容交换与显示系统 |
CN104036780A (zh) * | 2013-03-05 | 2014-09-10 | 阿里巴巴集团控股有限公司 | 一种人机识别方法及系统 |
CN104754364A (zh) * | 2015-03-30 | 2015-07-01 | 合一信息技术(北京)有限公司 | 视频广告语音交互系统及方法 |
CN105701686A (zh) * | 2016-01-23 | 2016-06-22 | 北京掌阔移动传媒科技有限公司 | 一种声纹广告实现方法和装置 |
CN105869013A (zh) * | 2016-03-25 | 2016-08-17 | 上海证大喜马拉雅网络科技有限公司 | 音频广告投放装置与方法 |
US9564123B1 (en) * | 2014-05-12 | 2017-02-07 | Soundhound, Inc. | Method and system for building an integrated user profile |
-
2017
- 2017-08-15 CN CN201710697448.7A patent/CN107492380A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101443800A (zh) * | 2005-03-23 | 2009-05-27 | 道格拉斯·阿什博 | 分布式内容交换与显示系统 |
CN101425161A (zh) * | 2007-10-30 | 2009-05-06 | 沈阳 | 基于目标受众的语音特征投放精准广告的方法 |
CN104036780A (zh) * | 2013-03-05 | 2014-09-10 | 阿里巴巴集团控股有限公司 | 一种人机识别方法及系统 |
US9564123B1 (en) * | 2014-05-12 | 2017-02-07 | Soundhound, Inc. | Method and system for building an integrated user profile |
CN104754364A (zh) * | 2015-03-30 | 2015-07-01 | 合一信息技术(北京)有限公司 | 视频广告语音交互系统及方法 |
CN105701686A (zh) * | 2016-01-23 | 2016-06-22 | 北京掌阔移动传媒科技有限公司 | 一种声纹广告实现方法和装置 |
CN105869013A (zh) * | 2016-03-25 | 2016-08-17 | 上海证大喜马拉雅网络科技有限公司 | 音频广告投放装置与方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6876752B2 (ja) | 応答方法及び装置 | |
CN109166593B (zh) | 音频数据处理方法、装置及存储介质 | |
CN111355781B (zh) | 一种语音信息交流的管理方法、装置和存储介质 | |
CN112309365B (zh) | 语音合成模型的训练方法、装置、存储介质以及电子设备 | |
CN105489221B (zh) | 一种语音识别方法及装置 | |
CN104144108B (zh) | 一种消息响应方法、装置及系统 | |
CN107506166A (zh) | 信息提示方法及装置、计算机装置及可读存储介质 | |
CN106778186A (zh) | 一种用于虚拟现实交互设备的身份识别方法及装置 | |
CN107277075A (zh) | 认证装置和认证方法 | |
CN110444229A (zh) | 基于语音识别的通信服务方法、装置、计算机设备及存储介质 | |
CN109246473A (zh) | 基于声纹识别的个性化视频弹幕的语音交互方法及终端系统 | |
CN110175012A (zh) | 技能推荐方法、装置、设备及计算机可读存储介质 | |
CN109739354A (zh) | 一种基于声音的多媒体交互方法及装置 | |
CN108920657A (zh) | 用于生成信息的方法和装置 | |
US10681402B2 (en) | Providing relevant and authentic channel content to users based on user persona and interest | |
CN107491991A (zh) | 基于晃动的人机识别方法及应用其的广告投放方法和系统 | |
CN107451185B (zh) | 录音方法、朗读系统、计算机可读存储介质和计算机装置 | |
CN113314103B (zh) | 基于实时语音情感分析的非法信息识别方法及装置 | |
CN107844562B (zh) | 智能化咨询服务方法 | |
CN112860213B (zh) | 音频的处理方法和装置、存储介质及电子设备 | |
CN107492380A (zh) | 基于音频的人机识别方法及应用其的广告投放方法和系统 | |
US11899713B2 (en) | Music streaming, playlist creation and streaming architecture | |
CN107688826A (zh) | 基于光感的人机识别方法及应用其的广告投放方法和系统 | |
CN113593582B (zh) | 智能设备的控制方法和装置、存储介质及电子设备 | |
CN109119089A (zh) | 对音乐进行通透处理的方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20171219 |
|
WD01 | Invention patent application deemed withdrawn after publication |