KR101569343B1 - 차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치 - Google Patents
차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치 Download PDFInfo
- Publication number
- KR101569343B1 KR101569343B1 KR1020140036602A KR20140036602A KR101569343B1 KR 101569343 B1 KR101569343 B1 KR 101569343B1 KR 1020140036602 A KR1020140036602 A KR 1020140036602A KR 20140036602 A KR20140036602 A KR 20140036602A KR 101569343 B1 KR101569343 B1 KR 101569343B1
- Authority
- KR
- South Korea
- Prior art keywords
- high frequency
- signal
- difference
- frame
- detecting
- Prior art date
Links
- 230000035622 drinking Effects 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 title claims description 34
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 claims abstract description 45
- 238000001514 detection method Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 230000000737 periodic effect Effects 0.000 claims description 2
- 239000003651 drinking water Substances 0.000 claims 1
- 235000020188 drinking water Nutrition 0.000 claims 1
- 238000012850 discrimination method Methods 0.000 abstract description 8
- 235000019441 ethanol Nutrition 0.000 description 45
- 230000008859 change Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/66—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4803—Speech analysis specially adapted for diagnostic purposes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4845—Toxicology, e.g. by detection of alcohol, drug or toxic products
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7253—Details of waveform analysis characterised by using transforms
- A61B5/7257—Details of waveform analysis characterised by using transforms using Fourier transforms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B7/00—Instruments for auscultation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/93—Discriminating between voiced and unvoiced parts of speech signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/15—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physiology (AREA)
- Mathematical Physics (AREA)
- Psychiatry (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Pharmacology & Pharmacy (AREA)
- Toxicology (AREA)
- Epidemiology (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Telephone Function (AREA)
- Telephonic Communication Services (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Abstract
음주 판별 방법은, 입력된 음성 신호의 유효 프레임을 검출하는 단계; 유효 프레임의 원신호의 차신호를 검출하는 단계; 차신호의 고속 푸리에 변환을 수행하여 주파수 영역으로 변환하는 단계; 고속 푸리에 변환된 차신호의 고주파 성분들을 검출하는 단계; 및 고주파 성분들 간의 기울기 차이에 기초하여 음주 상태를 판단하는 단계를 포함한다. 이에 따라, 원거리에 있는 운전자 또는 운항자의 음주 여부 및 정도를 파악할 수 있으므로, 음주 운전 또는 운항으로 인한 사고를 예방할 수 있다.
Description
본 발명은 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치에 관한 것으로서, 더욱 상세하게는 목소리를 이용한 차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치에 관한 것이다.
적당한 양의 알코올 섭취는 사람에게 여러 가지 도움을 주지만 지나친 음주는 건강을 해친다. 또한, 음주 운전 후 운전으로 인한 사고는 대형 사고를 일으켜 목숨까지도 앗아간다.
음주 상태를 측정하는 방법으로는 알코올 센서가 장착된 호흡형 음주 측정기기를 사용하여 호흡 시에 내뿜는 공기에서 알코올 농도를 측정하는 방법과 레이저를 이용하여 혈류량에 포함된 알코올 농도를 측정하는 방법이 있다. 일반적으로 음주 단속에 사용되는 방법으로는 흔히 전자의 방법이 사용되는데, 일부 음주측정에 불복하는 운전자에 대해 운전자의 동의를 얻어 혈액 채취 등의 방법으로 혈중 알코올 농도를 추정하는 위드마크(Widmark) 공식을 사용하는 경우도 있다.
한편, 요즘 자동차뿐만 아니라 해양 및 항공에서의 음주운항으로 인한 사고도 문제되고 있으나, 기존의 음주 측정방법은 음주자를 직접 대면해서 측정하는 방법이므로 원거리에 있는 운항자의 음주 여부를 판단하기에는 적합하지 않다.
따라서, 해양 및 항공에서의 음주운항을 예방하기 위해 정부에서는 여러 가지 노력을 하고 있다. 그 노력의 일환으로 선박의 경우 운항 전과 후에 음주 측정을 하여 단속하지만 항해 중에는 측정이 어렵다. 물론 불시에 해양경찰청에서 해양 위에서의 직접 접촉을 통해 측정하기도 하지만 선박끼리의 접촉의 어려움과 도주 등의 위험으로 이 방법은 매우 위험하다.
대부분은 해양 위에 있는 운항자와의 통신을 통해 간접적으로 음주여부를 판별하지만, 이 또한 운항자가 음주를 부인하는 경우 음주 여부를 판단하기 어렵다. 그러므로, 원거리에서도 간접적이고 객관적인 운항자의 음주 여부 판단 방법이 필요하다.
이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 통신 중 채취한 운항자의 음성을 분석하여 음주 여부 및 정도를 판단하기 위한 음주 판별 방법을 제공하는 것이다.
본 발명의 다른 목적은 상기 음주 판별 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 기록 매체를 제공하는 것이다.
본 발명의 또 다른 목적은 상기 음주 판별 방법을 수행하기 위한 장치를 제공하는 것이다.
상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 음주 판별 방법은, 입력된 음성 신호의 유효 프레임을 검출하는 단계; 상기 유효 프레임의 원신호의 차신호를 검출하는 단계; 상기 차신호의 고속 푸리에 변환을 수행하여 주파수 영역으로 변환하는 단계; 상기 고속 푸리에 변환된 차신호의 고주파 성분들을 검출하는 단계; 및 상기 고주파 성분들 간의 기울기 차이에 기초하여 음주 상태를 판단하는 단계를 포함한다.
본 발명의 실시예에서, 상기 음주 상태를 판단하는 단계는, 상기 고주파 성분들의 주파수 기울기들을 각각 생성하는 단계; 상기 고주파 성분들 간의 기울기 차이를 측정하여 상기 고주파 성분들 간의 에너지 차이를 측정하는 단계; 상기 측정한 에너지 차이들을 합산하여 에너지 차이의 평균값을 계산하는 단계; 및 상기 에너지 차이의 평균값이 임계값보다 크면 음주 상태로 판단하여 결과를 출력하는 단계를 포함할 수 있다.
본 발명의 실시예에서, 상기 고주파 성분들의 주파수 기울기들은 포만트 기울기일 수 있다.
본 발명의 실시예에서, 상기 고주파 성분들 간의 기울기 차이를 측정하여 상기 고주파 성분들 간의 에너지 차이를 측정하는 단계는, 서로 이웃하는 고주파 성분들 간의 기울기 차이를 측정할 수 있다.
본 발명의 실시예에서, 상기 유효 프레임을 검출하는 단계는, 상기 입력된 음성 신호의 음성 프레임을 형성하는 단계; 및 상기 음성 프레임이 유성음에 해당하는지 여부를 판단하는 단계를 포함할 수 있다.
본 발명의 실시예에서, 상기 고속 푸리에 변환된 차신호의 고주파 성분들을 검출하는 단계는, 검출된 고주파 성분들을 순차적으로 4개씩 그룹화하는 단계를 포함할 수 있다.
본 발명의 실시예에서, 상기 차신호를 검출하는 단계는, 상기 유효 프레임의 원신호(S(n))를 시프트 한 시프트 신호(S(n-1))를 생성하는 단계; 및 상기 원신호와 상기 시프트 신호와의 차신호(S(n)-S(n-1))를 출력하는 단계를 포함할 수 있다.
상기한 본 발명의 다른 목적을 실현하기 위한 일 실시예에 따른 컴퓨터로 판독 가능한 저장 매체에는, 전술한 음주 판별 방법을 수행하기 위한 컴퓨터 프로그램이 기록되어 있다.
상기한 본 발명의 또 다른 목적을 실현하기 위한 일 실시예에 따른 음주 판별을 수행하기 위한 장치는, 입력된 음성 신호의 유효 프레임을 검출하는 유효 프레임 검출부; 상기 유효 프레임의 원신호의 차신호를 검출하는 차신호 검출부; 상기 차신호의 고속 푸리에 변환을 수행하여 주파수 영역으로 변환하는 푸리에 변환부; 상기 고속 푸리에 변환된 차신호의 고주파 성분들을 검출하는 고주파 검출부; 및 상기 고주파 성분들 간의 기울기 차이에 기초하여 음주 상태를 판단하는 음주 판단부를 포함한다.
본 발명의 실시예에서, 상기 음주 판단부는, 상기 고주파 성분들의 주파수 기울기들을 각각 생성하는 기울기 추출부; 상기 고주파 성분들 간의 기울기 차이를 측정하여 상기 고주파 성분들 간의 에너지 차이를 측정하는 에너지 차이 검출부; 상기 측정한 에너지 차이들을 합산하여 에너지 차이의 평균값을 계산하는 평균 계산부; 및 상기 에너지 차이의 평균값이 임계값보다 크면 음주 상태로 판단하여 결과를 출력하는 결과 출력부를 포함할 수 있다.
본 발명의 실시예에서, 상기 고주파 성분들의 주파수 기울기들은 포만트 기울기일 수 있다.
본 발명의 실시예에서, 상기 에너지 차이 검출부는, 서로 이웃하는 고주파 성분들 간의 기울기 차이를 측정할 수 있다.
본 발명의 실시예에서, 상기 유효 프레임 검출부는, 상기 입력된 음성 신호의 음성 프레임을 형성하는 프레임 형성부; 및 상기 음성 프레임이 유성음에 해당하는지 여부를 판단하는 유성음 판단부를 포함할 수 있다.
본 발명의 실시예에서, 상기 고주파 검출부는, 상기 고속 푸리에 변환된 차신호의 제(4n-3)(여기서, n은 자연수)번째 고주파 성분을 검출하는 제1 고주파 검출부; 상기 고속 푸리에 변환된 차신호의 제(4n-2)번째 고주파 성분을 검출하는 제2 고주파 검출부; 상기 고속 푸리에 변환된 차신호의 제(4n-1)번째 고주파 성분을 검출하는 제3 고주파 검출부; 및 상기 고속 푸리에 변환된 차신호의 제(4n)번째 고주파 성분을 검출하는 제4 고주파 검출부를 포함할 수 있다.
본 발명의 실시예에서, 상기 차신호 검출부는, 상기 유효 프레임의 원신호(S(n))를 시프트 한 시프트 신호(S(n-1))를 생성하는 시프트 신호부; 및 상기 원신호와 상기 시프트 신호와의 차신호(S(n)-S(n-1))를 출력하는 차신호 출력부를 포함할 수 있다.
이와 같은 본 발명에 따르면, 음성의 특징 파라미터를 주파수 영역에서의 고주파 성분을 비교 분석하고 추출하여, 원거리에 있는 운전자 또는 운항자의 음주 여부 및 정도를 파악할 수 있으며, 음주 전과 음주 후의 음성을 화자 독립과 화자 종속에 적용 가능하다. 특히, 한 프레임 내의 음성 변화를 작은 단위로 분리하여 고주파 변화를 측정하고, 이를 특징 파라미터로 이용하므로 단기간의 음성 변화를 측정하는데 유용하다.
따라서, 원거리에 있는 운전자 또는 운항자라도 통신에 의해 음성을 추출하여 음주 여부를 간접적이면서도 객관적으로 파악할 수 있으므로, 음주 운전 또는 운항으로 인한 사고를 예방할 수 있다.
도 1은 본 발명의 일 실시예에 따른 음주 판별을 수행하기 위한 장치의 블록도이다.
도 2는 도 1의 유효 프레임 검출부의 상세 블록도이다.
도 3은 도 2의 유효 프레임 검출부의 프레임 형성부에서 음성 신호를 음성 프레임으로 변환하는 개념을 설명하기 위한 도면이다.
도 4는 도 2의 유효 프레임 검출부의 유성음 판단부의 상세 블록도이다.
도 5는 도 1의 차신호 검출부의 상세 블록도이다.
도 6은 도 1의 고주파 검출부에서 고주파를 검출하여 그룹화하는 것을 설명하기 위한 그래프이다.
도 7은 도 1의 음주 판단부의 상세 블록도이다.
도 8은 도 1의 음주 판단부에서 생성하는 포만트 기울기를 나타내는 그래프이다.
도 9는 도 1의 음주 판단부에서 기울기 변화 측정에 의한 에너지 차이를 나타내는 그래프이다.
도 10은 본 발명의 일 실시예에 따른 음주 판별 방법의 흐름도이다.
도 2는 도 1의 유효 프레임 검출부의 상세 블록도이다.
도 3은 도 2의 유효 프레임 검출부의 프레임 형성부에서 음성 신호를 음성 프레임으로 변환하는 개념을 설명하기 위한 도면이다.
도 4는 도 2의 유효 프레임 검출부의 유성음 판단부의 상세 블록도이다.
도 5는 도 1의 차신호 검출부의 상세 블록도이다.
도 6은 도 1의 고주파 검출부에서 고주파를 검출하여 그룹화하는 것을 설명하기 위한 그래프이다.
도 7은 도 1의 음주 판단부의 상세 블록도이다.
도 8은 도 1의 음주 판단부에서 생성하는 포만트 기울기를 나타내는 그래프이다.
도 9는 도 1의 음주 판단부에서 기울기 변화 측정에 의한 에너지 차이를 나타내는 그래프이다.
도 10은 본 발명의 일 실시예에 따른 음주 판별 방법의 흐름도이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 음주 판별을 수행하기 위한 장치의 블록도이다.
도 1을 참조하면, 본 실시예에 따른 음주 판별을 수행하기 위한 장치(10)는 입력된 음성 신호의 유효 프레임을 검출하는 유효 프레임 검출부(110), 상기 유효 프레임의 원신호의 차신호를 검출하는 차신호 검출부(130), 상기 차신호의 고속 푸리에 변환을 수행하여 주파수 영역으로 변환하는 푸리에 변환부(150), 상기 고속 푸리에 변환된 차신호의 고주파 성분들을 검출하는 고주파 검출부(170) 및 상기 고주파 성분들 간의 기울기 차이에 기초하여 음주 상태를 판단하는 음주 판단부(190)를 포함한다.
본 발명의 상기 장치(10)는 음주 판별을 수행하기 위한 소프트웨어(애플리케이션)가 설치되어 실행될 수 있으며, 상기 유효 프레임 검출부(110) 등의 구성은 상기 장치(10)에서 실행되는 상기 음주 판별을 위한 소프트웨어에 의해 제어될 수 있다.
상기 장치(10)는 별도의 단말이거나 또는 단말의 일부 모듈일 수 있다. 상기 장치(10)는 이동성을 갖거나 고정될 수 있다. 상기 장치(10)는, 단말(terminal), UE(user equipment), MS(mobile station), MT(mobile terminal), UT(user terminal), SS(subscriber station), 무선기기(wireless device), PDA(personal digital assistant), 무선 모뎀(wireless modem), 휴대기기(handheld device) 등 다른 용어로 불릴 수 있다.
상기 장치(10)는 유선 또는 무선 통신을 지원하는 장치로서, 스마트 폰, 휴대 전화, 태블릿 컴퓨터, 노트북, 넷북, 피디에이(PDA), 피엠피(PMP), 피에스피(PSP), 엠피쓰리(MP3) 플레이어, 이북(e-book) 리더, 내비게이션, 스마트 카메라, 전자사전, 전자시계, 게임기 등 다양한 형태의 모바일(mobile) 장치뿐만 아니라 데스크 탑 컴퓨터, 스마트 TV 등의 전자 장치를 포함할 수 있다.
상기 장치(10)는 운영체제(Operation System; OS)를 기반으로 다양한 애플리케이션을 실행할 수 있다. 상기 운영체제는 애플리케이션이 장치의 하드웨어를 사용할 수 있도록 하기 위한 시스템 프로그램으로서, iOS, 안드로이드 OS, 윈도우 모바일 OS, 바다 OS, 심비안 OS, 블랙베리 OS 등 모바일 컴퓨터 운영체제 및 윈도우 계열, 리눅스 계열, 유닉스 계열, MAC, AIX, HP-UX 등 컴퓨터 운영체제를 모두 포함할 수 있다.
상기 애플리케이션은 단말기를 이용하여 특정한 작업을 수행할 수 있도록 개발된 프로그램으로서, 각종 응용 프로그램 및 서비스 객체뿐 아니라 게임, 동영상, 사진 등의 각종 멀티미디어 컨텐츠(contents) 또는 상기 멀티미디어 컨텐츠를 실행하는 이미지 뷰어, 동영상 재생기 등의 실행 프로그램을 모두 포함할 수 있다. 이하에서는, 애플리케이션으로 기재하나, 모든 응용 프로그램 및 실행 프로그램을 포함할 수 있다.
상기 유효 프레임 검출부(110)는 입력되는 사용자의 음성 신호의 유효 프레임을 검출하여 출력한다. 상기 음성 신호는 상기 장치(10)에 직접 입력되거나 통신에 의해 입력될 수 있다. 즉, 음성 신호는 상기 장치(10)에 구비된 마이크를 통해 입력되거나, 원격에서 송신될 수 있다.
도 2를 참조하면, 상기 유효 프레임 검출부(110)는 상기 입력된 음성 신호의 음성 프레임을 형성하는 프레임 형성부(111) 및 상기 음성 프레임이 유성음에 해당하는지 여부를 판단하는 유성음 판단부(113)를 포함한다.
상기 프레임 형성부(111)는 사람의 음성을 입력받아 음성 데이터로 변환하고, 음성 데이터를 프레임 단위의 음성 프레임 데이터로 변환하여 출력한다. 통상적으로 아날로그 음성 신호는 초당 8000개의 샘플과 16비트(65535단계)의 크기로 샘플링하여 음성데이터로 변환된다.
상기 프레임 형성부(111)는 입력되는 음성 신호를 음성 데이터로 변환하고, 음성 데이터를 프레임 단위의 음성 프레임 데이터로 변환할 수 있다. 여기서, 하나의 음성 프레임 데이터는 256개의 에너지 값을 갖게 된다.
음성 데이터는 도 3에서와 같이, 입력되는 음성에 따라 다수의 음성 프레임들(n=프레임의 개수, n=1,2,3,...)로 구성된다. 상기 프레임 형성부(111)는 음성 프레임을 생성한 후, 그 정보를 상기 유성음 판단부(113)로 출력한다.
상기 유성음 판단부(113)는 음성 프레임을 입력받아 기 설정된 특징들을 추출하고, 추출된 특징들에 따라 입력된 음성 프레임이 유성음, 무성음 또는 잡음에 대한 것인지 여부를 분석한다. 그 분석 결과에 따라 음성 프레임 중 유성음에 대한 프레임만 분리하여 출력할 수 있다.
도 4를 참조하면, 상기 유성음 판단부(113)는 음성 프레임을 입력받아 기 설정된 특징들을 추출하는 특징 추출부(113a)와, 음성 프레임의 인식 결과를 도출하는 인식부(113b)와, 인식 결과에 따라 입력된 음성 프레임이 유성음에 대한 것인지 무성음에 대한 것인지, 또는 배경 잡음에 의한 것인지를 판별하는 판단부(113c)와, 판별 결과에 따라 유효 프레임을 분리하여 출력하는 분리 출력부(113d)를 포함할 수 있다.
상기 특징 추출부(113a)는 상기 프레임 형성부(111)를 통해 음성 프레임이 입력되면, 그 음성 프레임으로부터 고조파의 주기적 특성 또는 저대역 음성 신호 에너지 영역의 크기(RMSE: Root Mean Squared Energy of Signal)나 0점 교차 횟수(Zero-Crossing Count: ZC) 등과 같은 특징들을 추출할 수 있다.
상기 인식부(113b)는 일반적으로 신경망으로 구성될 수 있다. 이는 신경망의 특성상, 비선형적, 즉 수학적으로 해결 가능하지 않은 복잡한 문제들을 분석하는데 유용하기 때문에, 음성 신호들을 분석하고, 분석된 결과에 따라 해당 음성 신호를 유성음 또는 무성음 및 배경 잡음으로 판단하기에 적합하기 때문이다. 이러한 신경망으로 구성된 상기 인식부(113b)는 상기 특징 추출부(113a)로부터 추출된 특징들에 기 설정된 가중치를 부여하고, 신경망 계산 과정을 통해 음성 프레임의 인식 결과를 도출할 수 있다. 여기서 인식 결과라는 것은 음성 프레임에 대해 각 음성 프레임의 특징 별로 부여된 가중치에 따라 각각의 계산 요소를 계산한 결과, 산출된 값을 말한다.
상기 판단부(113c)는 상술한 인식 결과, 즉 상기 인식부(113b)로부터 산출된 값에 따라 입력된 음성 신호가 유성음인지 무성음인지에 대한 판단을 하고, 상기 판단부(113c)의 판단 결과에 따라 상기 분리 출력부(113d)는 음성 프레임을 유성음, 무성음 또는 배경잡음으로 분리한다.
한편, 유성음의 경우 다양한 특징들이 무성음 및 배경 잡음과 확연히 차이가 나므로, 이를 구분하기는 상대적으로 쉬운 편이며 공지된 여러 가지 기술이 있다. 예를 들어, 유성음의 경우 고조파가 일정 주기를 반복하여 나타나는 주기적 특성을 가지고 있는 반면, 배경 잡음은 고조파라는 특징을 가지지 않는다.
그런데, 무성음의 경우에는 고조파가 있기는 하여도 그것이 가지는 주기성이 약하다. 다시 말해, 유성음의 경우 고조파가 하나의 프레임 안에서도 반복된다는 특성이 있으나, 무성음의 경우 고조파가 있다고는 하나, 고조파의 주기성과 같은 유성음의 특성이, 몇 개 이상의 프레임에 걸쳐서 나타나게 될 정도로 약하게 나타난다는 특성이 있다.
상기 유성음 판단부(113)가 유성음, 무성음 또는 배경잡음을 분리하면, 상기 유효 프레임 검출부(110)는 유성음에 대한 프레임만 출력한다. 이와 같이 출력된 유성음에 대한 프레임을 유효 프레임의 원신호(S(n))라 하며, 상기 유효 프레임의 원신호(S(n))는 상기 차신호 검출부(130)로 전달된다.
도 5를 참조하면, 상기 차신호 검출부(130)는 상기 유효 프레임의 원신호(S(n))의 차신호(S(n)-S(n-1))를 출력하기 위해 시프트 신호부(131) 및 차신호 출력부(133)를 포함한다.
상기 시프트 신호부(131)는 상기 유효 프레임의 원신호(S(n))를 시프트 한 시프트 신호(S(n-1))를 생성하고, 상기 차신호 출력부(133)는 상기 원신호와 상기 시프트 신호(S(n-1))와의 차신호(S(n)-S(n-1))를 출력한다.
음주 전 후의 특징으로는 비음의 특성처럼 고주파 성분이 상승하는 것으로 보고되어 있는데, 저주파 성분은 거의 변화가 없지만 고주파 성분에서 상당한 차이가 나는 현상을 보이고 있다. 이는 음주 후에는 청각 기능이 저하되어 잘 들리지 않아 화자가 소리를 크게 내게 되고 소리를 크게 내려면 입도 크게 벌리게 되고 이로써 폐활량이 증가하여 에너지에 영향을 주기 때문이다. 또한, 술에 취할 경우 음성이 적정한 음량을 일정하게 지키지 못하고 너무 커지거나 너무 작아지는 것이 일반적이기 때문에 술 마신 후 말하는 크기의 편차가 심해진다.
본 발명에서는 원신호의 차신호를 구하게 되는데 이렇게 구해진 신호는 고주파 성분이 강조된 특성을 보인다. 따라서, 음주 전 후의 차이를 더욱 강조할 수 있고, 차신호를 이용하여 고주파의 분석이 더욱 용이해진다.
상기 푸리에 변환부(150)는 상기 차신호 검출부(130)에서 출력된 상기 유효 프레임의 차신호(S(n)-S(n-1))의 고속 푸리에 변환(FFT: Fast Fourier Transform)을 수행하여 음성 신호를 주파수 영역으로 변환한다.
푸리에 변환이란, 시간 영역에서의 신호를 주파수 영역으로 변환해서 각각의 합성신호를 분석하는 방법으로 각각의 신호의 주파수나 특성을 알 수 있다. 예를 들어, 안테나에서 신호를 보내면 라디오에서는 주파수를 맞추어서 전파를 들을 수 있다. 물론 그러한 주파수를 맞춰놓으면 다른 주파수의 신호(전파)에 있는 필터가 다른 신호를 막는 역할을 한다. 이러한 필터를 만들기 위해 푸리에 변환을 하는 것이다. 시간함수 u(t)를 주파수함수 U(ω)로 변환하는 것을 푸리에 변환이라고 하고, 역으로 주파수함수 U(ω)를 시간함수 u(t)로 변환하는 것을 역푸리에 변환이라고 한다.
고속 푸리에 변환은 상기 푸리에 변환에 근거하여 근사공식을 이용한 이산푸리에변환(discrete Fourier transform)을 계산할 때 연산횟수를 줄일 수 있도록 고안된 알고리즘이다.
상기 고속 푸리에 변환된 차신호(FFT(S(n)-S(n-1)))는 주파수 영역의 음성 신호로서, 상기 고주파 검출부(170)로 출력된다.
상기 고주파 검출부(170)는 상기 고속 푸리에 변환된 차신호의 고주파 성분들을 검출하여, 그룹화한다. 본 발명에서는 한 프레임 내의 음의 변화를 작은 단위로 분리하여 고주파 변화를 측정하고, 이것을 특징 파라미터로 사용한다.
구체적으로, 상기 고주파 검출부(170)는 차신호의 고속 푸리에 변환을 수행하여 주파수 영역으로 전환한 후 일정 개수 단위로 솎아내기를 하여 재배열한다. 즉, 고주파 성분들을 순차적으로 일정 개수로 묶어서 저주파 성분과 고주파 성분이 골고루 분포하게 한다.
도 6을 참조하면, 제1 내지 제4의 고주파 성분들(FE1, FE2, FE3, FE4)을 보여주며, 예를 들어, 4개씩 그룹화한다면, FE1 내지 FE4는 한 그룹이 되는 것이다. 이것은 마치 한 프레임을 4등분하여 고속 푸리에 변환한 것과 마찬가지의 효과를 얻는다.
이 경우, 상기 고주파 검출부(170)는 상기 고속 푸리에 변환된 차신호의 제1, 5, 9, 13, ... 번째 고주파 성분을 검출하는 제1 고주파 검출부, 상기 고속 푸리에 변환된 차신호의 제2, 6, 10, 14, ... 번째 주파 성분을 검출하는 제2 고주파 검출부, 상기 고속 푸리에 변환된 차신호의 제3, 7, 11, 15, ... 번째 고주파 성분을 검출하는 제3 고주파 검출부 및 상기 고속 푸리에 변환된 차신호의 제4, 8, 12, 16, ... 번째 고주파 성분을 검출하는 제4 고주파 검출부를 포함할 수 있다.
음성 신호는 2kHz 이상의 고주파 성분에서 음주 전후에 큰 변화량을 나타낸다. 본 발명은 단기간에 고주파 성분의 변화를 분석할 수 있는 특징이 있기 때문에 이러한 특징을 이용하여 단기간의 특징을 분석해 낼 수 있다.
상기 검출된 고주파 성분들(FE1, FE2, FE3, FE4)은 상기 음주 판단부(190)로 출력된다.
상기 음주 판단부(190)는 한 그룹 내의 상기 고주파 성분들(FE1, FE2, FE3, FE4)로부터 에너지 차이를 구하여 음주 상태를 판단한다. 상기 고주파 성분들의 에너지 차이를 구하기 위해 상기 고주파 성분들의 각 기울기를 생성하고, 상기 기울기 간의 차이로부터 에너지 차이를 도출할 수 있다.
음주를 하게 되면 목소리의 크기를 제어하는 능력이 저하되어 고주파 성분의 에너지 변화가 크므로, 상기 음주 판단부(190)는 일정 구간 동안의 고주파 성분의 에너지 변화에 대한 차이에 따라 음주 여부를 판별할 수 있게 된다.
도 7을 참조하면, 상기 음주 판단부(190)는 기울기 추출부(191), 에너지 차이 검출부(193), 평균 계산부(195) 및 결과 출력부(197)를 포함한다.
상기 기울기 추출부(191)는 상기 고주파 성분들(FE1, FE2, FE3, FE4)의 주파수 기울기들을 각각 생성한다. 상기 주파수 기울기는 포만트 기울기일 수 있다.
도 8은 도 6의 제1 고주파 성분(FE1)에서 포만트 기울기를 추출하는 것을 보여준다. 상기 제1 고주파 성분(FE1)는 주파수 영역의 신호로서, 낮은 주파수부터 피크를 찾으면 그것이 각각 제1 내지 제4 피크 주파수(P1, P2, P3, P4)가 된다.
상기 기울기 추출부(191)에서, 제1 피크 주파수(P1)와 제4 피크 주파수(P4) 간의 기울기(F14), 제1 피크 주파수(P1)와 제3 피크 주파수(P3) 간의 기울기(F13), 제1 피크 주파수(P1)와 제2 피크 주파수(P2) 간의 기울기(F12) 등을 추출할 수 있다.
예를 들어, 복수 개의 포만트 기울기 중 F14(제1 피크 주파수와 제4 피크 주파수 간의 기울기)와, F24(제2 피크 주파수와 제4 피크 주파수 간의 기울기)를 음주 판단에 사용할 수 있다. 사람은 음주 후의 신체적 변화로 목소리의 크기를 제어하는 능력이 저하된다. 이에 따라, 에너지 변화를 이용해 리듬을 타듯 대화를 매끄럽게 이끌어내지 못하므로, 연속적으로 소리를 내어 발음하거나 작게 발음해야 할 경우도 크게 발음한다. 이런 특징은 제1 피크 주파수(P1)에 변화가 생기는 것을 의미한다. 또한, 음주를 하게 되면 발음할 때 혀의 위치에도 변화가 생기는데 이는 제2 피크 주파수(P2)에 영향을 준다. 즉, 혀가 앞에 위치하게 되면 제2 피크 주파수(P2)가 커지고, 뒤에 있으면 작아진다. 제4 피크 주파수(P4는 조음기관의 영향을 거의 받지 않으므로 음주 전후에 거의 일정하다. 따라서, F14와 F24의 변화량에 따라 음주 여부 판단이 더욱 용이해질 수 있다.
상기 기울기 추출부(191)는 동일한 방법으로 제2 고주파 성분(FE2) 내지 제4 고주파 성분(FE4)에서 각각 포만트 기울기를 추출하여, 에너지 차이 검출부 (193)로 출력한다.
에너지 차이 검출부(193)는 한 그룹 내의 상기 고주파 성분들 간의 기울기 차이를 측정하여 상기 고주파 성분들 간의 에너지 차이를 측정한다. 상기 에너지 차이는 상기 포만트 기울기의 거리차로부터 도출 가능하다.
예를 들어, 에너지 차이 검출부(193)는 서로 이웃하는 고주파 성분들 간의 기울기 차이를 측정할 수 있다. 즉, 제1 고주파 성분(FE1)과 제2 고주파 성분(FE2) 간의 기울기 차이, 제2 고주파 성분(FE2)과 제3 고주파 성분(FE3) 간의 기울기 차이, 제3 고주파 성분(FE3)과 제4 고주파 성분(FE4) 간의 기울기 차이를 각각 구할 수 있다.
그러나, 다른 실시예로서, 서로 이웃하지 않은 고주파 성분들 간의 기울기 차이를 더 측정할 수도 있다. 예를 들어, 제1 고주파 성분(FE1)과 제3 고주파 성분(FE3) 간의 기울기 차이, 제2 고주파 성분(FE2)과 제4 고주파 성분(FE4) 간의 기울기 차이, 제1 고주파 성분(FE1)과 제4 고주파 성분(FE4) 간의 기울기 차이 등을 더 측정하여 에너지 차이를 검출할 수도 있다.
도 9를 참조하면, 상기 에너지 차이 검출부 (193)는 제1 고주파 성분(FE1)과 제2 고주파 성분(FE2)의 포만트 기울기 차이로부터 에너지 차(ED)를 도출한다. 상기 고속 푸리에 변환된 원신호(FE1)의 기울기(F1) 및 상기 고속 푸리에 변환된 차신호(FE2)의 기울기(F2)의 포만트 기울기 차이는 기울기의 거리차로서, 주파수마다 다른 차이를 가지므로, 거리차의 평균을 계산할 수 있다.
동일한 방법으로, 제2 고주파 성분(FE2)과 제3 고주파 성분(FE3) 간의 에너지 차이, 제3 고주파 성분(FE3)과 제4 고주파 성분(FE4) 간의 에너지 차이를 각각 검출할 수 있다. 검출된 에너지 차이값들은 상기 평균 계산부(195)로 제공된다.
상기 평균 계산부(195)는 상기 측정한 에너지 차이들을 합산하여 에너지 차이의 평균값을 계산하여 상기 결과 출력부(197)에 제공한다. 만약, 두 개 이상의 그룹이 있는 경우, 한 그룹 내의 고주파 성분들끼리의 에너지 차이를 구하여 모든 그룹의 에너지 차이들을 합산하여 에너지 평균값을 계산할 수 있다.
상기 결과 출력부(197)는 상기 에너지 차이의 평균값이 임계값보다 크면 음주 상태로 판단하고, 상기 임계값 이하인 경우 비음주 상태로 판단할 수 있다.
상기 임계값은 미리 설정되어 저장될 수 있으며, 일률적으로 적용할 수 있다. 상기 임계값은 실험에 의해 설정된 최적값일 수 있다. 한편, 성별, 나이에 따라 다른 임계값이 적용되거나 개인 맞춤형으로 서로 다른 임계값이 적용될 수도 있다.
본 발명에 따른 상기 음주 판별 장치는 주파수 영역에서 음주 여부를 판단하고, 특히 음성 신호의 고주파를 강조하고 더 나아가 신호의 분석력을 높이기 위해 주파수 상에서 포만트 에너지 비교법을 사용한다. 또한, 한 프레임 내의 음의 변화를 작은 단위로 분리하여 고주파 변화를 측정하고, 이것을 특징 파라미터로 사용하므로, 단기간에 고주파 성분의 변화를 분석할 수 있다. 따라서, 단기간의 특징을 분석하여 음주 여부 및 정도를 판단하는데 유효한 분석법이다.
도 10은 본 발명의 일 실시예에 따른 음주 판별 방법의 흐름도이다.
본 실시예에 따른 음주 판별 방법은, 도 1의 장치(10)와 실질적으로 동일한 구성에서 진행될 수 있다. 따라서, 도 1의 장치(10)와 동일한 구성요소는 동일한 도면부호를 부여하고, 반복되는 설명은 생략한다.
또는, 본 실시예에 따른 음주 판별 방법은 음주 판별을 위한 소프트웨어(애플리케이션)에 의해 실행될 수 있다.
도 10을 참조하면, 본 실시예에 따른 음주 판별 방법은, 입력된 음성 신호의 유효 프레임을 검출한다(단계 S110).
상기 유효 프레임을 검출하는 단계(단계 S110)는, 상기 입력된 음성 신호의 음성 프레임을 형성하는 단계 및 상기 음성 프레임이 유성음에 해당하는지 여부를 판단하는 단계를 포함할 수 있다.
구체적으로, 사람의 음성을 입력받아 음성 데이터로 변환하고, 음성 데이터를 프레임 단위의 음성 프레임 데이터로 변환한 후, 음성 프레임이 유성음, 무성음 또는 잡음에 대한 것인지 여부를 분석한다. 그 분석 결과에 따라 유성음에 대한 프레임, 즉 유효 프레임만 출력할 수 있다.
상기 유효 프레임이 검출되면, 상기 유효 프레임의 원신호의 차신호를 검출한다(단계 S130).
상기 차신호를 검출하는 단계(단계 S130)는, 상기 유효 프레임의 원신호(S(n))를 시프트 한 시프트 신호(S(n-1))를 생성하는 단계 및 상기 원신호와 상기 시프트 신호와의 차신호(S(n)-S(n-1))를 출력하는 단계를 포함할 수 있다.
상기 차신호는 고주파 성분이 강조된 특성을 보이므로, 음주 전 후의 차이를 더욱 강조할 수 있고, 차신호를 이용하여 고주파의 분석이 더 용이해진다.
상기 차신호의 고속 푸리에 변환을 수행하여 주파수 영역으로 변환한다(단계 S150).
상기 고속 푸리에 변환된 차신호의 고주파 성분들을 검출한다(단계 S170).
상기 고주파 성분들을 검출하는 단계(단계 S170)는, 검출된 고주파 성분들을 순차적으로 4개씩 그룹화하는 단계를 포함할 수 있다.
상기 고주파 성분들 간의 기울기 차이에 기초하여 음주 상태를 판단한다(단계 S190).
상기 음주 상태를 판단하는 단계(단계 S190)는, 상기 고주파 성분들의 주파수 기울기들을 각각 생성하는 단계, 상기 고주파 성분들 간의 기울기 차이를 측정하여 상기 고주파 성분들 간의 에너지 차이를 측정하는 단계, 상기 측정한 에너지 차이들을 합산하여 에너지 차이의 평균값을 계산하는 단계 및 상기 에너지 차이의 평균값이 임계값보다 크면 음주 상태로 판단하여 결과를 출력하는 단계를 포함할 수 있다.
상기 고주파 성분들의 주파수 기울기들은 포만트 기울기일 수 있다. 상기 포만트 기울기 차이는 기울기 거리차로서, 주파수마다 다른 차이를 가지므로, 거리차의 평균을 계산할 수 있다. 이와 같은 방식으로 이웃하는 고주파 간의 에너지 차이를 각각 검출하고, 에너지 차이의 평균값을 계산한다.
상기 에너지 차이의 평균값이 임계값보다 큰 경우에는, 고주파 성분의 에너지 변화가 큰 것이므로 음주 상태로 판단할 수 있다.
이와 같은, 음주 판별 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
본 발명에 따른 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치는, 원거리에 있는 운전자 또는 운항자의 음주 여부를 통신을 통해 파악할 수 있으므로 음주 운전 또는 운항으로 인한 사고를 예방할 수 있다. 또한, 선박뿐 아니라 철도, 항공기, 자동차, 버스, 고속도로 등 근접거리에서 측정이 어려운 수송기관 및 국내외 모든 해상 및 항공 교통관제서비스 시스템에 장착하는 등 널리 적용 가능하다. 나아가, 개인 휴대폰으로 음주를 측정하는 웹 어플리케이션에 기여할 수 있다.
10: 장치 110: 유효 프레임 검출부
130: 차신호 검출부 150: 푸리에 변환부
170: 고주파 검출부 190: 음주 판단부
130: 차신호 검출부 150: 푸리에 변환부
170: 고주파 검출부 190: 음주 판단부
Claims (15)
- 입력된 음성 신호의 유효 프레임을 검출하는 단계;
상기 유효 프레임의 원신호의 차신호를 검출하는 단계;
상기 차신호의 고속 푸리에 변환을 수행하여 주파수 영역으로 변환하는 단계;
상기 고속 푸리에 변환된 차신호의 고주파 성분들을 검출하는 단계; 및
상기 고주파 성분들 간의 기울기 차이에 기초하여 음주 상태를 판단하는 단계를 포함하며,
상기 유효 프레임을 검출하는 단계는,
상기 입력된 음성 신호를 음성 데이터로 변환하고, 상기 음성 데이터를 프레임 단위의 음성 프레임 데이터로 변환하는 단계;
상기 음성 프레임 데이터로부터 고조파의 주기적 특성, 저대역 음성 신호 에너지 영역의 크기 또는 0점 교차횟수에 대한 특징을 추출하는 단계;
상기 음성 프레임에 상기 음성 프레임 별로 추출된 특징에 따라 기 설정된 가중치를 부여하고, 상기 음성 프레임의 특징 별로 부여된 가중치에 따라 각 음성 프레임의 인식값을 산출하는 단계;
상기 산출된 인식값에 따라 상기 음성 프레임 별로 프레임에 포함된 음성 신호가 유성음, 무성음 또는 배경 잡음인지 여부를 판단하는 단계; 및
상기 판단된 결과에 따라 상기 음성 프레임 데이터 중 유성음에 대한 음성 프레임을 분리하여 유효 프레임을 검출하는 단계를 포함하는 음주 판별 방법.
- 제1항에 있어서,
상기 음주 상태를 판단하는 단계는,
상기 고주파 성분들의 주파수 기울기들을 각각 생성하는 단계;
상기 고주파 성분들 간의 기울기 차이를 측정하여 상기 고주파 성분들 간의 에너지 차이를 측정하는 단계;
상기 측정한 에너지 차이들을 합산하여 에너지 차이의 평균값을 계산하는 단계; 및
상기 에너지 차이의 평균값이 임계값보다 크면 음주 상태로 판단하여 결과를 출력하는 단계를 포함하는, 음주 판별 방법.
- 제2항에 있어서,
상기 고주파 성분들의 주파수 기울기들은 포만트 기울기인, 음주 판별 방법.
- 제2항에 있어서,
상기 고주파 성분들 간의 기울기 차이를 측정하여 상기 고주파 성분들 간의 에너지 차이를 측정하는 단계는,
서로 이웃하는 고주파 성분들 간의 기울기 차이를 측정하는, 음주 판별 방법.
- 삭제
- 제1항에 있어서,
상기 고속 푸리에 변환된 차신호의 고주파 성분들을 검출하는 단계는,
검출된 고주파 성분들을 순차적으로 4개씩 그룹화하는 단계를 포함하는, 음주 판별 방법.
- 제1항에 있어서,
상기 차신호를 검출하는 단계는,
상기 유효 프레임의 원신호(S(n))를 시프트 한 시프트 신호(S(n-1))를 생성하는 단계; 및
상기 원신호와 상기 시프트 신호와의 차신호(S(n)-S(n-1))를 출력하는 단계를 포함하는, 음주 판별 방법.
- 제1항 내지 제4항 및 제6항 내지 제7항 중 어느 하나의 항에 따른 음주 판별 방법을 수행하기 위한, 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
- 입력된 음성 신호의 유효 프레임을 검출하는 유효 프레임 검출부;
상기 유효 프레임의 원신호의 차신호를 검출하는 차신호 검출부;
상기 차신호의 고속 푸리에 변환을 수행하여 주파수 영역으로 변환하는 푸리에 변환부;
상기 고속 푸리에 변환된 차신호의 고주파 성분들을 검출하는 고주파 검출부; 및
상기 고주파 성분들 간의 기울기 차이에 기초하여 음주 상태를 판단하는 음주 판단부를 포함하며,
상기 유효 프레임 검출부는 상기 입력된 음성 신호를 음성 데이터로 변환하고, 상기 음성 데이터를 프레임 단위의 음성 프레임 데이터로 변환하는 프레임 형성부 및 상기 음성 프레임 데이터로부터 고조파의 주기적 특성, 저대역 음성 신호 에너지 영역의 크기 또는 0점 교차횟수에 대한 특징을 추출하는 특징 추출부, 상기 음성 프레임에 상기 음성 프레임 별로 추출된 특징에 따라 기 설정된 가중치를 부여하고, 상기 음성 프레임의 특징 별로 부여된 가중치에 따라 각 음성 프레임의 인식값을 산출하는 인식부, 상기 산출된 인식값에 따라 상기 음성 프레임 별로 프레임에 포함된 음성 신호가 유성음, 무성음 또는 배경 잡음인지 여부를 판단하는 판단부 및 상기 판단부에 의해 판단된 결과에 따라 상기 음성 프레임 데이터 중 유성음에 대한 음성 프레임을 분리하여 유효 프레임을 검출하는 분리 출력부를 포함하는 유성음 판단부를 포함하는 음주 판별 장치.
- 제9항에 있어서,
상기 음주 판단부는,
상기 고주파 성분들의 주파수 기울기들을 각각 생성하는 기울기 추출부;
상기 고주파 성분들 간의 기울기 차이를 측정하여 상기 고주파 성분들 간의 에너지 차이를 측정하는 에너지 차이 검출부;
상기 측정한 에너지 차이들을 합산하여 에너지 차이의 평균값을 계산하는 평균 계산부; 및
상기 에너지 차이의 평균값이 임계값보다 크면 음주 상태로 판단하여 결과를 출력하는 결과 출력부를 포함하는, 음주 판별 장치.
- 제10항에 있어서,
상기 고주파 성분들의 주파수 기울기들은 포만트 기울기인, 음주 판별 장치.
- 제10항에 있어서,
상기 에너지 차이 검출부는, 서로 이웃하는 고주파 성분들 간의 기울기 차이를 측정하는, 음주 판별 장치.
- 삭제
- 제9항에 있어서,
상기 고주파 검출부는,
상기 고속 푸리에 변환된 차신호의 제(4n-3)(여기서, n은 자연수)번째 고주파 성분을 검출하는 제1 고주파 검출부;
상기 고속 푸리에 변환된 차신호의 제(4n-2)번째 고주파 성분을 검출하는 제2 고주파 검출부;
상기 고속 푸리에 변환된 차신호의 제(4n-1)번째 고주파 성분을 검출하는 제3 고주파 검출부; 및
상기 고속 푸리에 변환된 차신호의 제(4n)번째 고주파 성분을 검출하는 제4 고주파 검출부를 포함하는, 음주 판별 장치.
- 제9항에 있어서,
상기 차신호 검출부는,
상기 유효 프레임의 원신호(S(n))를 시프트 한 시프트 신호(S(n-1))를 생성하는 시프트 신호부; 및
상기 원신호와 상기 시프트 신호와의 차신호(S(n)-S(n-1))를 출력하는 차신호 출력부를 포함하는, 음주 판별 장치.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140036602A KR101569343B1 (ko) | 2014-03-28 | 2014-03-28 | 차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치 |
US15/300,168 US9916845B2 (en) | 2014-03-28 | 2014-04-02 | Method for determining alcohol use by comparison of high-frequency signals in difference signal, and recording medium and device for implementing same |
PCT/KR2014/002849 WO2015147362A1 (ko) | 2014-03-28 | 2014-04-02 | 차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치 |
CN201480077593.XA CN106133833A (zh) | 2014-03-28 | 2014-04-02 | 通过差分信号中的高频信号的比较确定饮酒的方法以及用于实现该方法的记录介质和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140036602A KR101569343B1 (ko) | 2014-03-28 | 2014-03-28 | 차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150113378A KR20150113378A (ko) | 2015-10-08 |
KR101569343B1 true KR101569343B1 (ko) | 2015-11-30 |
Family
ID=54195856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140036602A KR101569343B1 (ko) | 2014-03-28 | 2014-03-28 | 차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9916845B2 (ko) |
KR (1) | KR101569343B1 (ko) |
CN (1) | CN106133833A (ko) |
WO (1) | WO2015147362A1 (ko) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109102825B (zh) * | 2018-07-27 | 2021-06-04 | 科大讯飞股份有限公司 | 一种饮酒状态检测方法及装置 |
Family Cites Families (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5450525A (en) * | 1992-11-12 | 1995-09-12 | Russell; Donald P. | Vehicle accessory control with manual and voice response |
US5704008A (en) * | 1993-12-13 | 1997-12-30 | Lojack Corporation | Method of and apparatus for motor vehicle security assurance employing voice recognition control of vehicle operation |
AU2186095A (en) * | 1994-03-24 | 1995-10-09 | Minnesota Mining And Manufacturing Company | Biometric, personal authentication system |
GB9419388D0 (en) | 1994-09-26 | 1994-11-09 | Canon Kk | Speech analysis |
US5774858A (en) * | 1995-10-23 | 1998-06-30 | Taubkin; Vladimir L. | Speech analysis method of protecting a vehicle from unauthorized accessing and controlling |
KR100206205B1 (ko) | 1995-12-23 | 1999-07-01 | 정몽규 | 음성 인식 기능을 이용한 음주운전 방지장치 및 방법 |
US6446038B1 (en) | 1996-04-01 | 2002-09-03 | Qwest Communications International, Inc. | Method and system for objectively evaluating speech |
US5776055A (en) * | 1996-07-01 | 1998-07-07 | Hayre; Harb S. | Noninvasive measurement of physiological chemical impairment |
KR100201256B1 (ko) | 1996-08-27 | 1999-06-15 | 윤종용 | 음성을 이용한 차량 시동 제어장치 |
JP2955247B2 (ja) | 1997-03-14 | 1999-10-04 | 日本放送協会 | 話速変換方法およびその装置 |
US6006188A (en) | 1997-03-19 | 1999-12-21 | Dendrite, Inc. | Speech signal processing for determining psychological or physiological characteristics using a knowledge base |
KR19990058415A (ko) | 1997-12-30 | 1999-07-15 | 윤종용 | 음주 운전 방지 시스템 |
US6236968B1 (en) * | 1998-05-14 | 2001-05-22 | International Business Machines Corporation | Sleep prevention dialog based car system |
WO2001007281A1 (en) * | 1999-07-24 | 2001-02-01 | Novtech Co Ltd | Apparatus and method for prevention of driving of motor vehicle under the influence of alcohol and prevention of vehicle theft |
US6427137B2 (en) | 1999-08-31 | 2002-07-30 | Accenture Llp | System, method and article of manufacture for a voice analysis system that detects nervousness for preventing fraud |
US6275806B1 (en) | 1999-08-31 | 2001-08-14 | Andersen Consulting, Llp | System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters |
US7222075B2 (en) | 1999-08-31 | 2007-05-22 | Accenture Llp | Detecting emotions using voice signal analysis |
JP4696418B2 (ja) | 2001-07-25 | 2011-06-08 | ソニー株式会社 | 情報検出装置及び方法 |
EP1300831B1 (en) | 2001-10-05 | 2005-12-07 | Sony Deutschland GmbH | Method for detecting emotions involving subspace specialists |
US7283962B2 (en) | 2002-03-21 | 2007-10-16 | United States Of America As Represented By The Secretary Of The Army | Methods and systems for detecting, measuring, and monitoring stress in speech |
KR100497837B1 (ko) | 2002-10-16 | 2005-06-28 | 이시우 | 유무선 통신망과 음성신호를 이용한 음주상태의 안내서비스 시스템 |
US8972266B2 (en) | 2002-11-12 | 2015-03-03 | David Bezar | User intent analysis extent of speaker intent analysis system |
US20040167774A1 (en) | 2002-11-27 | 2004-08-26 | University Of Florida | Audio-based method, system, and apparatus for measurement of voice quality |
KR100511316B1 (ko) | 2003-10-06 | 2005-08-31 | 엘지전자 주식회사 | 음성신호의 포만트 주파수 검출방법 |
EP1531458B1 (en) | 2003-11-12 | 2008-04-16 | Sony Deutschland GmbH | Apparatus and method for automatic extraction of important events in audio signals |
US8938390B2 (en) | 2007-01-23 | 2015-01-20 | Lena Foundation | System and method for expressive language and developmental disorder assessment |
US9300790B2 (en) | 2005-06-24 | 2016-03-29 | Securus Technologies, Inc. | Multi-party conversation analyzer and logger |
US8478596B2 (en) * | 2005-11-28 | 2013-07-02 | Verizon Business Global Llc | Impairment detection using speech |
KR100664271B1 (ko) | 2005-12-30 | 2007-01-04 | 엘지전자 주식회사 | 음원분리가 가능한 휴대용 단말기 및 그 방법 |
KR100717625B1 (ko) | 2006-02-10 | 2007-05-15 | 삼성전자주식회사 | 음성 인식에서의 포먼트 주파수 추정 방법 및 장치 |
KR100762596B1 (ko) | 2006-04-05 | 2007-10-01 | 삼성전자주식회사 | 음성 신호 전처리 시스템 및 음성 신호 특징 정보 추출방법 |
EP1850328A1 (en) | 2006-04-26 | 2007-10-31 | Honda Research Institute Europe GmbH | Enhancement and extraction of formants of voice signals |
US7962342B1 (en) * | 2006-08-22 | 2011-06-14 | Avaya Inc. | Dynamic user interface for the temporarily impaired based on automatic analysis for speech patterns |
US7925508B1 (en) | 2006-08-22 | 2011-04-12 | Avaya Inc. | Detection of extreme hypoglycemia or hyperglycemia based on automatic analysis of speech patterns |
US8386257B2 (en) | 2006-09-13 | 2013-02-26 | Nippon Telegraph And Telephone Corporation | Emotion detecting method, emotion detecting apparatus, emotion detecting program that implements the same method, and storage medium that stores the same program |
JPWO2008096421A1 (ja) | 2007-02-07 | 2010-05-20 | パイオニア株式会社 | 酒酔い運転防止装置、酒酔い運転防止方法、及び、酒酔い運転防止プログラム |
CA2690433C (en) | 2007-06-22 | 2016-01-19 | Voiceage Corporation | Method and device for sound activity detection and sound signal classification |
KR101441896B1 (ko) | 2008-01-29 | 2014-09-23 | 삼성전자주식회사 | 적응적 lpc 계수 보간을 이용한 오디오 신호의 부호화,복호화 방법 및 장치 |
JP5077107B2 (ja) | 2008-07-04 | 2012-11-21 | 日産自動車株式会社 | 車両用飲酒検知装置及び車両用飲酒検知方法 |
WO2010148141A2 (en) | 2009-06-16 | 2010-12-23 | University Of Florida Research Foundation, Inc. | Apparatus and method for speech analysis |
US20120116186A1 (en) | 2009-07-20 | 2012-05-10 | University Of Florida Research Foundation, Inc. | Method and apparatus for evaluation of a subject's emotional, physiological and/or physical state with the subject's physiological and/or acoustic data |
WO2011059254A2 (en) | 2009-11-12 | 2011-05-19 | Lg Electronics Inc. | An apparatus for processing a signal and method thereof |
JP5834449B2 (ja) | 2010-04-22 | 2015-12-24 | 富士通株式会社 | 発話状態検出装置、発話状態検出プログラムおよび発話状態検出方法 |
WO2012003523A1 (en) | 2010-07-06 | 2012-01-12 | Rmit University | Emotional and/or psychiatric state detection |
JP5017534B2 (ja) | 2010-07-29 | 2012-09-05 | ユニバーサルロボット株式会社 | 飲酒状態判定装置及び飲酒状態判定方法 |
DE112011105136B4 (de) * | 2011-04-08 | 2018-12-13 | Mitsubishi Electric Corporation | Spracherkennungsvorrichtung und Navigationsvorrichtung |
US9659571B2 (en) | 2011-05-11 | 2017-05-23 | Robert Bosch Gmbh | System and method for emitting and especially controlling an audio signal in an environment using an objective intelligibility measure |
US9801590B2 (en) | 2011-05-17 | 2017-10-31 | University Health Network | Breathing disorder identification, characterization and diagnosis methods, devices and systems |
ES2364401B2 (es) | 2011-06-27 | 2011-12-23 | Universidad Politécnica de Madrid | Método y sistema para la estimación de parámetros fisiológicos de la fonación. |
JP5664480B2 (ja) | 2011-06-30 | 2015-02-04 | 富士通株式会社 | 異常状態検出装置、電話機、異常状態検出方法、及びプログラム |
US11344225B2 (en) | 2013-01-24 | 2022-05-31 | B. G. Negev Technologies And Applications Ltd. | Determining apnea-hypopnia index AHI from speech |
JP6263868B2 (ja) | 2013-06-17 | 2018-01-24 | 富士通株式会社 | 音声処理装置、音声処理方法および音声処理プログラム |
KR101475894B1 (ko) | 2013-06-21 | 2014-12-23 | 서울대학교산학협력단 | 장애 음성 개선 방법 및 장치 |
CN104347067B (zh) | 2013-08-06 | 2017-04-12 | 华为技术有限公司 | 一种音频信号分类方法和装置 |
US20150127343A1 (en) | 2013-11-04 | 2015-05-07 | Jobaline, Inc. | Matching and lead prequalification based on voice analysis |
WO2015111771A1 (ko) | 2014-01-24 | 2015-07-30 | 숭실대학교산학협력단 | 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기 |
US9916844B2 (en) | 2014-01-28 | 2018-03-13 | Foundation Of Soongsil University-Industry Cooperation | Method for determining alcohol consumption, and recording medium and terminal for carrying out same |
US10004431B2 (en) | 2014-03-13 | 2018-06-26 | Gary Stephen Shuster | Detecting medical status and cognitive impairment utilizing ambient data |
KR20150123579A (ko) | 2014-04-25 | 2015-11-04 | 삼성전자주식회사 | 사용자 음성으로부터 감정정보를 확인하는 방법 및 장치 |
-
2014
- 2014-03-28 KR KR1020140036602A patent/KR101569343B1/ko active IP Right Grant
- 2014-04-02 US US15/300,168 patent/US9916845B2/en active Active
- 2014-04-02 WO PCT/KR2014/002849 patent/WO2015147362A1/ko active Application Filing
- 2014-04-02 CN CN201480077593.XA patent/CN106133833A/zh active Pending
Non-Patent Citations (2)
Title |
---|
배성근, ‘음주운항 단속을 위한 음성감시시스템 개선에 관한 연구’, 숭실대학교 대학원 정보통신공학과, 박사학위논문, 2014년 2월.* |
정찬중 외 2명, ‘스펙트럴 변화 특성을 이용한 음주판별에 관한 연구’, 한국통신학회 2013년도 동계종합학술발표회, pp.674-675 , 2013년 1월.* |
Also Published As
Publication number | Publication date |
---|---|
CN106133833A (zh) | 2016-11-16 |
KR20150113378A (ko) | 2015-10-08 |
WO2015147362A1 (ko) | 2015-10-01 |
US20170140776A1 (en) | 2017-05-18 |
US9916845B2 (en) | 2018-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106531172B (zh) | 基于环境噪声变化检测的说话人语音回放鉴别方法及系统 | |
US9099098B2 (en) | Voice activity detection in presence of background noise | |
EP2352145B1 (en) | Transient speech signal encoding method and device, decoding method and device, processing system and computer-readable storage medium | |
EP2828856B1 (en) | Audio classification using harmonicity estimation | |
US9749021B2 (en) | Method and apparatus for mitigating feedback in a digital radio receiver | |
EP2927906B1 (en) | Method and apparatus for detecting voice signal | |
US20140350923A1 (en) | Method and device for detecting noise bursts in speech signals | |
CN104681038A (zh) | 音频信号质量检测方法及装置 | |
US20090125304A1 (en) | Method and apparatus to detect voice activity | |
US9767829B2 (en) | Speech signal processing apparatus and method for enhancing speech intelligibility | |
JP2019053321A (ja) | 音声信号を検出するための方法および装置 | |
CN106991998A (zh) | 噪声环境下语音端点的检测方法 | |
KR101621780B1 (ko) | 차신호 주파수 프레임 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치 | |
US10522160B2 (en) | Methods and apparatus to identify a source of speech captured at a wearable electronic device | |
KR101569343B1 (ko) | 차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치 | |
CN104036785A (zh) | 语音信号的处理方法和装置、以及语音信号的分析系统 | |
KR101621797B1 (ko) | 시간 영역에서의 차신호 에너지법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치 | |
KR20090098891A (ko) | 강인한 언어 활동 검출 방법 및 장치 | |
US20150279373A1 (en) | Voice response apparatus, method for voice processing, and recording medium having program stored thereon | |
Dov et al. | Voice activity detection in presence of transients using the scattering transform | |
CN106340310A (zh) | 语音检测方法及装置 | |
KR20160000680A (ko) | 광대역 보코더용 휴대폰 명료도 향상장치와 이를 이용한 음성출력장치 | |
Ong et al. | Real-time Voice Activity Detector Using Gammatone Filter and Modified Long-Term Signal Variability | |
Kyoya et al. | A method for impact noise reduction from speech using a stationary-nonstationary separating filter | |
Sun et al. | A robust feature extraction approach based on an auditory model for classification of speech and expressiveness |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20181022 Year of fee payment: 4 |