Nothing Special   »   [go: up one dir, main page]

JP5245919B2 - 情報処理装置およびプログラム - Google Patents

情報処理装置およびプログラム Download PDF

Info

Publication number
JP5245919B2
JP5245919B2 JP2009051024A JP2009051024A JP5245919B2 JP 5245919 B2 JP5245919 B2 JP 5245919B2 JP 2009051024 A JP2009051024 A JP 2009051024A JP 2009051024 A JP2009051024 A JP 2009051024A JP 5245919 B2 JP5245919 B2 JP 5245919B2
Authority
JP
Japan
Prior art keywords
time
audio
video
event
audio frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009051024A
Other languages
English (en)
Other versions
JP2010206641A (ja
Inventor
章弘 屋森
俊輔 小林
章 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009051024A priority Critical patent/JP5245919B2/ja
Priority to US12/716,805 priority patent/US20100226624A1/en
Publication of JP2010206641A publication Critical patent/JP2010206641A/ja
Application granted granted Critical
Publication of JP5245919B2 publication Critical patent/JP5245919B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影速度より遅い再生速度で再生される映像の再生中に、当該映像の撮影時に記録された音声を再生するための情報を生成する情報処理装置に関する。
通常、動画は1秒あたり30枚もしくは60枚の静止画から生成される。動画をなす静止画をフレームという。1秒あたりのフレーム数をフレームレートといい、fps(Frame Per Second)という単位で示す。近年では、300fpsや1200fpsの高フレームレートで撮影する装置がある。撮影時のフレームレートは、撮影レート、又は、記録レートと呼ばれる。
一方、テレビジョン受像機などの再生装置(もしくは表示装置)の規格で規定された再生時のフレームレートは、最大60fpsである。なお、映像が再生されるときのフレームレートは再生レートと呼ばれる。このため、例えば、900fpsで撮影された映像フレーム群が再生装置で再生される場合には、スローモーションの映像として再生される。例えば、再生レートが30fpsの再生装置では、撮影レートの1/30倍の速度で映像が再生される。或いは、再生レートが60fpsの再生装置では、撮影レートの1/15倍の速度で再生される。
高速な撮影レートで撮影された映像が低速な再生レートで再生される場合に、音声が映像と同じように1/30倍又は1/15倍の速度で再生されると、全く意味をなさない音声になる。このため、高速な撮影レートで撮影された映像がスロー再生される場合には、無音であることが多い。
特開2004−88530号公報 特開2002−16858号公報 特開2008−148085号公報
本発明は、スロー再生されるイベントを含む映像の再生中に、映像の撮影時の音声を違和感なく再生するための情報を生成する情報処理装置を提供することを目的とする。
本発明の態様の一つは、情報処理装置である。この情報処理装置は、
映像の撮影時に記録された音声からイベント音を検出する検出部と、
前記映像の撮影速度より遅い再生速度の映像再生時刻系列上で前記イベント音に応じた映像が再生されるイベント再生時刻を求める算出部と、
前記映像再生時刻系列上での前記イベント音の再生開始時刻を決定する決定部とを含む。
本発明によれば、スロー再生されるイベントを含む映像に合わせて、そのイベントの音声を違和感なく再生するための情報を生成することができる。
情報処理装置のハードウェア構成例を示す図である。 情報処理装置がプログラムを実行することによって実現される機能の説明図である。 情報処理装置の構成例である。 イベント検出時の音声フレーム群の再生開始時刻の算出の例を説明する図である。 情報処理装置の処理フローの例を示す図である。 イベント検出の時間範囲を決定する処理フローの例を示す図である。 区間フラグについてのサブルーチンAの例を示すフロー図である。 イベント検出の時間範囲を切り出す処理の実行結果の例を示す図である。
以下、図面に基づいて、本発明の実施の形態を説明する。以下の実施形態の構成は例示であり、本発明は実施形態の構成に限定されない。
<情報処理装置のハードウェア構成>
図1は、情報処理装置のハードウェア構成例を示す図である。情報処理装置1は、プロセッサ101、主記憶装置102、入力装置103、出力装置104、外部記憶装置105、媒体駆動装置106、およびネットワークインタフェース107を備える。それらはバス109により互いに接続されている。
入力装置103は、例えば、所定の撮影レートで映像を撮影するカメラ、映像撮影時の音声を収集するマイクロフォン、他の装置と接続するインターフェイス等を含む。入力装置103のカメラは、所定の撮影レートで映像撮影を行い、映像信号を出力する。マイクロフォンは、収集された音声に応じた音声信号を出力する。
ここで、カメラによる映像の撮影レートは、例えば、300fpsである。これに対し、マイク入力による音声の記録レートは、例えば、音声圧縮方式の1つであるAAC(Advanced Audio Coding)のサンプリング周波数の場合には、48kHz,44.1kHz,32kHzなどである。このように、入力装置103によれば、映像の撮影と録音とが同時に行われた場合に、映像の撮影レート(すなわち記録レート)よりも低い記録レートで音声が記録されることになる。
プロセッサ101は、例えば、CPU(Central Prosessing Unit)や、DSP(Digital Signal Processor)である。プロセッサ101は、外部記憶装置105に格納されたオペレーティングシステム(OS)や様々なアプリケーションプログラムを主記憶装置102にロードして実行することによって、映像及び音声に係る様々な処理を実行する。
例えば、プロセッサ101は、プログラムの実行によって、入力装置103から入力される映像信号及び音声信号に対する符号化処理を行い、映像データ及び音声データを得る。映像データ及び音声データは、主記憶装置102及び/又は外部記憶装置105に格納される。また、プロセッサ101は、媒体駆動装置106を介して可搬記録媒体に映像データ及び音声データを含む様々なデータを格納することもできる。
また、プロセッサ101は、ネットワークインタフェース107で受信される映像信号及び音声信号から映像データ及び音声データを生成し、主記憶装置102及び/又は外部記憶装置105に記録することもできる。
また、プロセッサ101は、外部記憶装置105や、媒体駆動装置106を介して可搬記録媒体109から読み出される映像データ及び音声データを主記憶装置102上に作成される作業領域に読み出し、映像データ及び音声データに対する様々な処理を行う。映像データは映像フレーム群を含む。音声データは音声フレーム群を含む。プロセッサ101による処理は、映像フレーム群及び音声フレーム群から、映像及び音声を再生するためのデータ及び情報を生成する処理を含む。処理の詳細は後述する。
主記憶装置102は、プロセッサ101に、外部記憶装置105に格納されているプログラムをロードする記憶領域および作業領域を提供したり、バッファとして用いられたりする。主記憶装置102は、例えば、RAM(Random Access Memory)のような半導体メモリである。
出力装置104は、プロセッサ101の処理の結果を出力する。出力装置104は、ディスプレイ及びスピーカインターフェイス回路等を含む。
外部記憶装置105は、様々なプログラムや、各プログラムの実行に際してプロセッサ101が使用するデータを格納する。データは、映像データ及び音声データを含む。映像データは、映像フレーム群を含み、音声データは音声フレーム群を含む。外部記憶装置105は、例えば、ハードディスクドライブ等である。
媒体駆動装置106は、プロセッサ101の指示に従って、可搬記録媒体110へ情報の読み書きを行う。可搬記録媒体110は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、フロッピー(登録商標)
ディスク等である。駆動装置106は、例えば、CDドライブ、DVDドライブ、フロッピー(登録商標)ディスクドライブ等である。
ネットワークインタフェース107は、ネットワークとの情報の入出力を行うインターフェイスである。ネットワークインタフェース107は、有線のネットワーク、および、無線のネットワークと接続する。ネットワークインタフェース107は、例えば、NIC(Network Interface Card)、無線LAN(Local Area Network)カード等である。
情報処理装置1は、例えば、デジタルビデオカメラ、ディスプレイ、パーソナルコンピュータ、DVDプレイヤー、HDDレコーダ等である。また、それらに格納されるICチップ等である。
<第1実施形態>
図2は、情報処理装置1のプロセッサ101がプログラムを実行することによって実現される機能の説明図である。情報処理装置1は、プロセッサ101がプログラムを実行することによって、検出部11、算出部12、及び決定部13実現することができる。すなわち、情報処理装置1は、プログラムの実行によって、検出部11、算出部12及び決定部13を備えた装置として機能する。
情報処理装置1には、映像データの映像ファイルと、音声データの音声ファイルとが入力される。映像ファイルは映像フレーム群を含み、音声ファイルは音声フレーム群を含む。音声フレーム群は、映像フレーム群に含まれるイベントの音声を含む。言い換えると、音声フレーム群は、映像フレーム群の映像に含まれるイベントが撮影されたときに記録された音声を含む。
検出部11は、映像が撮影の撮影時に記録された音声の音声フレーム群を入力として得
る。検出部11は、音声フレーム群に基づく音声が再生される場合に、イベントに対応するイベント音を含む音声フレームが再生される第1の時刻を検出する。第1の時刻は、音声フレーム群、すなわち音声ファイルの再生開始位置の時刻を基点としたときの時刻である。検出部11は、第1の時刻を決定部13に出力する。イベント音を含む音声フレームは、例えば、音声フレーム群中の最大音量レベルを有する音声フレームである。
算出部12は、映像フレーム群を入力として得る。映像フレーム群は、映像フレーム群の再生速度(再生レート)よりも高速な撮影速度(撮影レート)で生成されている。算出部12は、撮影速度より遅い再生速度の映像再生時刻系列上でイベントを含む映像フレームが再生される第2の時刻を検出する。第2の時刻は、映像フレーム群の再生開始位置の時刻を基点としたときの時刻である。算出部12は、第2の時刻を決定部13に出力する。第2の時刻は、 例えば、第1の時刻に、再生速度に対する映像フレーム群の撮影速度
の比率を乗じて求めることができる。
決定部13は、第1の時刻と第2の時刻とを入力として得る。決定部13は、第2の時刻から第1の時刻を減算した時刻を、映像フレーム群の再生開始時刻を基点とした場合の音声フレーム群の再生開始時刻として決定する。決定部13は、映像フレーム群の再生開始時刻を基点とした場合の音声フレーム群の再生開始時刻を出力する。
映像フレーム群と、音声フレーム群と、映像フレーム群の再生開始時刻を基点とした場合の音声フレーム群の再生開始時刻を、情報処理装置1の後段の再生装置が入力として得る。後段の再生装置が、映像フレーム群の再生開始から、情報処理装置1から得た再生開始刻に音声フレーム群を再生することで、イベントを含む映像フレームとイベント音を含む音声フレームとを同時刻に再生することができる。したがって、情報処理装置1は、映像フレーム群が撮影速度よりも遅い再生速度で再生される場合に、イベントを含む映像フレームとイベント音を含む音声フレームとを同時刻に再生可能となる情報を提供することができる。
尚、情報処理装置1のプロセッサ101は、例えば、映像フレーム群及び音声フレーム群を、入力装置103、外部記憶装置105、可搬記録媒体110、又はネットワークインタフェース107から入力として得る。プロセッサ101は、例えば、外部記憶装置105に格納されたプログラム、または、媒体駆動装置106を介して可搬記録媒体110に記録されたプログラムを読み出し、主記憶装置102にロードして実行する。プロセッサ101は、プログラムを実行することで、検出部11、算出部12、及び決定部13の処理を実行する。プロセッサ101は、プログラムの実行結果として、映像フレーム群の再生開始時刻を基点とした場合の音声フレーム群の再生開始時刻を、たとえば、出力装置104及び外部記憶装置105等に出力する。
<第2実施形態>
第2実施形態の情報処理装置は、高速なフレームレートで映像フレーム群を生成し、表示装置が有する表示レートで映像フレーム群をスロー再生する場合に、イベントを有する映像フレームとイベントを有する音声フレームとを同時刻に再生可能となる情報を生成する。
第2実施形態では、音声フレーム群は、1秒間におけるサンプリング数nと同じ速度で再生される。すなわち、音声フレーム群は、1秒間にn個のサンプルを出力する。音声フレームは、サンプルと同義であり、1つの音声フレームが占有するフレーム時間は、1サンプルの時間(1/n秒)である。
図3は、情報処理装置の例を示す図である。情報処理装置2は、時間制御部21と、映
像再生時刻付加部22と、イベント検出部23と、イベント発生時刻生成部24と、音声再生時刻生成部25と、音声再生時刻付加部26とを備える。情報処理装置2のハードウェア構成は、情報処理装置1と同様である。
時間制御部21は、映像取込速度と、映像再生速度とを入力として得る。映像取込速度は、入力装置103(図1)で映像フレーム群が取り込まれるときのフレームレートである。映像再生速度は、映像フレーム群及び音声フレーム群を再生できる出力装置104(図4)、または、情報処理装置1の後段の再生装置の再生レート又は表示レートである。映像取込速度をM(fps)、映像再生速度をN(fps)とする。映像取込速度Mは映像再生速度Nよりも高速である、すなわち、MNである。この場合、映像フレーム群は、N/M倍速でスロー再生される。時間制御部21は、たとえば、外部記憶装置105(図1)に格納される映像取込速度と映像再生速度を読み出す。もしくは、時間制御部21は、ネットワークインタフェース107(図1)等から、後段の再生装置の映像再生速度を取得する。
時間制御部21は、基準時刻生成部21aと補正時刻生成部21bとを含む。基準時刻生成部21aは、基準時刻を生成する。基準時刻には、プロセッサ101(図1)が生成するクロックのクロック数を用いてもよいし、情報処理装置2の起動時間を用いてもよい。基準時刻生成部21aは、補正時刻生成部21bと音声再生時刻生成部25とに基準時刻を出力する。
補正時刻生成部21bは、基準時刻を入力として得る。補正時刻生成部21bは、基準時刻から、映像フレーム群が映像再生速度Nで再生されるときの時刻を生成する。補正時刻生成部21bは、基準時刻に映像再生速度Nに対する映像取込速度Mの比率であるM/Nを乗じて補正時刻を求める。補正時刻生成部21bは、補正時刻を映像再生時刻付加部22とイベント発生時刻生成部24とに出力する。
映像再生時刻付加部22は、補正時刻と映像フレームとを入力として得る。映像再生時刻付加部22は、入力される映像フレームに、映像フレームの再生時刻TVoutをタイムスタンプとして付加する。映像再生時刻付加部22は、映像フレームの入力が開始された時刻、すなわち映像フレーム群の先頭フレームが入力された時刻を0として、カウントを開始する。映像フレームの再生時刻TVoutは、映像フレームが入力されるときに、補正時刻生成部21bから入力される補正時刻である。TVoutは、映像フレームが情報処理装置2に入力されるときの基準時刻をTVinとすると、下記の式1で表わされる。
Figure 0005245919
である。映像再生時刻付加部22は、タイムスタンプとしてTVoutが付加された映像フレームを出力する。
イベント検出部23は、音声フレームを得る。イベント検出部23は、音声フレーム群からイベントの発生を検出する。イベントとは、短い時間に一定のレベル以上の音量を有する音声が発生する現象のことである。イベントは、たとえば、ガラスに弾丸が当たる、ゴルフクラブのヘッドがボールに当たる、テニスラケットのラケット面にボールが当たる、などの現象である。
イベント検出部23は、入力される各音声フレームについて音量レベルを求め、その音
量レベルを主記憶装置102(図1)にバッファする。イベント検出部23は、バッファした音声フレーム群の先頭フレームから終了フレームまでの音量レベルについて下記の式2及び式3を満たすか否かを判定する。音量レベルの最大閾値をThAMax、音量レベルの最小閾値をThAMinとする。
Figure 0005245919
上記式1及び式2が満たされた場合に、イベント検出部23は、音声フレーム群中のイベントを検出する。イベント検出部23は、音声フレーム群中のイベントの検出結果を、イベント発生時刻生成部24に出力する。
イベント検出部23は、イベントを検出した場合には、イベントの検出結果として、イベントの発生を示す「ON」と、最大音量レベルを持つ音声フレームの情報とをイベント発生時刻生成部24に出力する。音声フレームの情報とは、例えば、音声フレームに含まれる識別子などである。
イベントを検出しなかった場合には、イベントの検出結果として、イベントがないことを示す「OFF」をイベント発生時刻生成部24に出力する。なお、イベント検出部23は、入力される音声フレームについて、順次音量レベルの算出を行い、イベントの検出結果にかかわりなく、例えば、1秒間にn個の速度で、音声フレームをイベント発生時刻生成部24と音声再生時刻生成部25とに出力する。イベントが検出された場合の、最大音量レベルを有する音声フレームを、イベントを有する音声フレームという。
音声再生時刻生成部25は、基準時刻と、1秒間にn個の速度で入力される音声フレームを入力として得る。音声再生時刻生成部25は、1秒間にn個の速度で入力される音声フレームに、音声フレームの再生時刻TAoutをタイムスタンプとして付加する。音声再生時刻生成部25は、音声フレームの入力が開始された時刻、すなわち音声フレーム群の先頭フレームが入力された時刻を0として、カウントを開始する。音声フレームの再生時刻TAoutは、音声フレームが入力されるときに、基準時刻生成部21aから入力される基準時刻である。TAoutは、音声フレームが入力されるときの基準時刻をTAinとすると、下記の式4で表わされる。
Figure 0005245919
第2実施形態では、音声フレームは、音声フレームが生成された速度と同じ速度で再生されると想定しているためである。音声再生時刻生成部25は、タイムスタンプとしてTAoutが付加された音声フレームを出力する。
イベント発生時刻生成部24は、1秒間にn個の速度で入力される音声フレームと、イベントの検出結果と、補正時刻とを入力として得る。イベント発生時刻生成部24は、音声フレームの入力が開始された時刻、すなわち音声フレーム群の先頭フレームが入力された時刻を0として、補正時刻のカウントを開始する。イベント発生時刻生成部24は、音声フレームが入力されるたびに、音声フレームの識別子と、音声フレームが入力された補正時刻を主記憶装置102(図1)にバッファする。
イベント発生時刻生成部24は、イベントの検出結果として、イベントの発生を示す「
ON」と最大音量レベルを有する音声フレームの情報とが入力されると、バッファからその音声フレームの入力された時刻を読み出して、映像補正時刻TEoutとして出力する。映像補正時刻TEoutは、最大音量レベルを有する音声フレームが入力される基準時刻を音声基準時刻TEinとすると、映像補正時刻TEoutはその時の補正時刻なので、以下の式(5)で表わされる。
Figure 0005245919
上記式5より、映像補正時刻TEoutは、映像フレーム群を映像再生速度Nで再生した場合の、イベントを有する映像フレームが出力される時刻である。すなわち、映像補正時刻TEoutは、映像フレーム群を映像再生速度Nで再生する際の映像再生時刻系列における、イベントが発生する時刻である。尚、音声基準時刻TEinは、音声フレーム群を1秒間にn個の速度で再生する際の音声再生時刻系列における、イベントが発生する時刻である。イベント発生時刻生成部24は、映像補正時刻TEoutと、イベントを有する音声フレームの情報を音声再生時刻付加部26に送信する。尚、イベント発生結果が「OFF」である場合には、イベント発生時刻生成部24は、バッファ内の音声フレームの識別子と、音声フレームが入力された補正時刻との情報を廃棄する。
音声再生時刻付加部26は、TAoutが付加された音声フレームと、映像補正時刻TEoutと、イベントを有する音声フレームの情報とを入力として得る。音声再生時刻付加部26は、入力される音声フレームを主記憶装置102(図1)にバッファする。音声再生時刻付加部26は、映像補正時刻TEoutが入力されない場合には、すなわち、イベントが検出されない場合には、音声フレームを出力しない。音声再生時刻付加部26は、映像補正時刻TEoutが入力された場合には、すなわち、イベントが検出された場合には、イベントを有する映像フレームと、イベントを有する音声フレームとに同時刻を付加する処理を実行する。
図4は、イベント検出時の音声フレーム群の再生開始時刻の算出の例を説明する図である。図4では、ゴルフのスイングシーンを例として用いる。ゴルフのスイングシーンにおけるイベントは、ゴルフクラブのヘッドがゴルフボールに当たる現象である。この現象は、一般的に、「インパクト」と呼ばれる。また、インパクト時に発生する音を、「インパクト音」という。イベント検出部23は、音声フレーム群からインパクト音を検出することで、イベントの発生を検出する。音声再生時刻付加部26は、インパクトの映像フレームが再生されるときに、インパクト音が再生されるように、音声フレーム群の再生開始時刻を算出する。
音声再生時刻付加部26は、入力されたイベントを有する音声フレームの情報から、イベントを有する音声フレームに付加されている時刻を音声基準時刻TEinとして読み出す。音声再生時刻付加部26は、入力された映像補正時刻TEoutと音声基準時刻TEinとから、音声フレーム群の再生開始時刻TAstartを算出する。
Figure 0005245919
音声再生時刻付加部26は、再生開始時刻TAstartをオフセットとして、音声フレームの再生時刻TAoutを付加しなおす。すなわち、以下の式7によって、音声フレームの再生時刻TAoutを算出する。
Figure 0005245919
音声再生時刻付加部26は、音声再生時刻TAoutが付加された音声フレームを出力する。式6及び式7によって、イベントを有する映像フレームとイベントを有する音声フレームとが出力される時刻を同期させることができる。すなわち、図4に示されるように、映像フレーム群が映像再生速度Nで再生される場合の映像再生時刻系列のイベント発生時刻と、音声の再生時刻系列のイベント発生時刻とが重なるように、音声の再生時刻系列をオフセットすることができる。
図5は、情報処理装置2の処理フローの例を示す図である。情報処理装置2は、音声フレーム及び映像フレームが入力されると、たとえば、外部記憶装置105(図1)からプログラムを読み出して、図5に示すフローを実行する。
情報処理装置2は、音声フレーム群からイベントの検出を行う(OP1)。具体的には、上述のように、イベント検出部23が、音声フレーム群中のイベントの発生を検出する。
イベントが検出される場合には(OP2:Yes)、情報処理装置2は、音声フレーム群の再生開始時刻TAoutを算出する(OP3)。再生開始時刻TAoutは、音声再生時刻付加部26において、式6を用いて算出される。
情報処理装置2は、音声再生時刻付加部26において、式7を用いて、音声フレームに再生開始時刻TAoutをオフセットした再生時刻を付加する(OP4)。その後、情報処理装置2は、音声フレーム群と映像フレーム群を出力する(OP5)。
イベントが検出されない場合には(OP2:No)、情報処理装置2は、映像のみを出力数する(OP6)。
尚、OP5及びOP6において出力される映像フレームには、映像再生時刻付加部22によって、映像再生速度Nで再生する場合の再生時刻が付加されている。
情報処理装置2は、映像フレームに、映像再生速度Nで再生される場合の再生時刻を付加する。また、情報処理装置2は、音声フレームに、1秒間にn個の速度で再生される場合の再生時刻を付加する。このとき、情報処理装置2は、イベントを有する音声フレームと映像フレームとに同時刻を付加する。すなわち、情報処理装置2は、イベントを有する音声フレームの再生時刻に、映像再生速度Nに対する映像取込速度Mの比率を乗算して、イベントを有する映像フレームの再生時刻を検出する。情報処理装置2は、イベントを有する映像フレームの再生時刻からイベントを有する音声フレームの再生時刻を減算して、音声フレーム群の再生開始時刻を算出する。情報処理装置2は、音声フレーム群の再生開始時刻をオフセットとして、各音声フレームに再生時刻を付加する。このようにすることで、イベントを有する映像フレームの再生時刻に、イベントを有する音声フレームが再生されるような再生時刻が付加された音声フレーム群を生成することができる。例えば、後段の再生装置が、音声フレームと映像フレームに付加された再生時刻にしたがって、音声フレーム群と、映像再生速度Nで映像フレーム群とを再生すると、イベントを有する映像
フレームとイベントを有する音声フレームとを同時刻に再生することができる。したがって、情報処理装置2は、映像取込速度Mで取り込まれた映像フレーム群を、映像再生速度Nで再生する場合に、イベントを有する映像フレームとイベントを有する音声フレームとを同時刻に再生可能となる情報を提供することができる。
尚、情報処理装置2のプロセッサ101は、例えば、映像フレーム群と音声フレーム群とを、入力装置103、外部記憶装置105、媒体駆動装置106を介して可搬記録媒体110、及びネットワークインタフェース107から入力として得る。プロセッサ101は、例えば、外部記憶装置105に格納されたプログラム、または、媒体駆動装置106を介して可搬記録媒体110に記録されたプログラムを読み出し、主記憶装置102にロードして実行する。プロセッサ101は、プログラムを実行することで、時間制御部21(基準時刻生成部21aと補正時刻生成部21b)、映像再生時刻付加部22、イベント検出部23、イベント発生時刻生成部24、音声再生時刻生成部25、及び音声再生時刻付加部26の処理を実行する。プロセッサ101は、プログラムの実行結果として、フレームごとに、再生時刻を付加された映像フレーム群と音声フレーム群を、たとえば、出力装置104及び外部記憶装置105等に出力する。
<変形例1>
第2実施形態では、映像フレーム及び音声フレームに再生時刻を示すタイムスタンプを付加した。これに代えて、情報処理装置2が、出力装置としてディスプレイなどの表示装置を備える場合には、タイムスタンプを付加せずに、映像フレーム群の再生開始時刻にから音声フレーム群の再生開始時刻TAstartを求める。表示装置は、映像フレーム群の再生(若しくは表示)を開始してから、再生開始時刻TAstartになったら、音声フレーム群の再生を開始すればよい。
<変形例2>
第2実施形態では、音声フレーム群が1秒間におけるサンプリング数nで生成され、1秒間にn個の速度で再生される、すなわち、音声の取込速度と再生速度が等しい場合について説明した。音声フレーム群は、映像取込速度Mと映像再生速度Nとの比率に応じて、1秒間にn個の速度よりも低速の音声再生速度でスロー再生することもできる。
この場合には、例えば、図3における補正時刻生成部21bが、音声フレーム群用の補正時刻として音声補正時刻を生成する。
音声が再生される速度を音声再生速度s(1秒間にs個再生)と定義する。音声が取り込まれるときの速度を音声取込速度n(1秒間のサンプリング数n)と定義する。情報処理装置2は、音声再生速度sを、映像取込速度Mと映像再生速度Nとの比率(M/N)をもとに決定する。音声を映像再生速度に対して何分の1倍の速度でスロー再生するかを制御する係数は、スロー再生度βとして、以下のように定義される。
Figure 0005245919
ただし、音声再生速度sが音声取込速度nより大きくなると、スロー再生ではなく、倍
速再生になってしまうため、スロー再生度を制御する係数αに下限値が設けられる。また、音声フレーム群は、映像フレーム群と同じ倍速(N/M倍)でスロー再生する必要はな
いので、スロー再生度を制御する係数αは1より小さい値でよい。すなわち、N/M<α<1である。
補正時刻生成部21bは、基準時刻に音声映像再生速度sに対する音声取込速度nの比率であるn/sを乗じて音声フレーム群用の音声補正時刻を求める。音声フレーム群を音声再生速度sで再生する場合の、TAoutは、音声フレームが入力されるときの基準時刻をTAinとすると、以下のようになる。
Figure 0005245919
同様にして、音声補正時刻に基づいて、音声フレームのタイムスタンプが生成される。したがって、イベントが検出される場合の、最大音量レベルを有する音声フレームが入力される基準時刻を音声基準時刻TEinとすると、そのフレームが再生される再生時刻TAEinは、以下の通りである。
Figure 0005245919
映像の再生時刻系列におけるイベントの発生時刻である映像補正時刻TEoutは、第2実施形態と同じ値である。したがって、音声取込速度n、音声再生速度sである場合には、音声フレーム群の再生開始時刻TAstartは以下のようになる。
Figure 0005245919
したがって、音声取込速度と音声再生速度が異なる場合、すなわち、音声もスロー再生する場合でも、イベントを有する音声フレームとイベントを有する映像フレームとが同時刻に再生されるように、再生音声フレーム群の再生開始時刻TAstartを算出することができる。
映像再生速度と映像取込速度との比率に応じて、音声再生速度も低速に変えることによって、映像シーンに合わせた臨場感のある音声を出力することができる。
<変形例3>
第2実施形態では、イベント検出を音声フレーム群の先頭フレームから終了フレームまでの時間、すなわち、全音声フレーム群に対して実行した。例えば、音声フレーム群の先頭フレームの入力される時刻を0、終了フレームの入力される時刻をTとすると、第2実施形態では、時刻0から時刻Tまでの範囲で、イベントの検出を行った。時刻0から時刻Tまでの範囲を[0、T]と表記する。
これに代えて、イベント検出の時間範囲[t1、t2](0<t1<t2<T)でイベントの検出を行うこともできる。この場合には、時間範囲[0、t2−t1]と置き換えて、イベント発生時刻である音声基準時刻TEinを求め、音声基準時刻TEinにオフセット分t1を加算した値(TEin+t1)から、TEoutを求めればよい(式5)。
また、以下のようにイベント検出の時間範囲を決定することもできる。図6は、イベント検出の時間範囲を決定する処理フローの例を示す図である。
情報処理装置2のイベント検出部23は、音声フレームが入力されると処理を開始する。イベント検出部23は、変数n=n+1に設定する(OP11)。この変数は、イベント検出部23に入力される音声フレームに対して付加され、音声フレームを識別する値となる。変数nの初期値は0である。以降、音声フレームnとは、n番目に入力された音声フレームを指す。
イベント検出部23は、音声フレーム(n)の音量レベルを算出する(OP12)。イベント検出部23は、音声フレーム(n)の音量レベルを主記憶装置102に格納する。その後、イベント検出部23は、区間フラグAについてのサブルーチンAを実行する(OP13)。
図7は、区間フラグについてのサブルーチンAの例を示すフロー図である。イベント検出部23は、区間フラグAが「0」であるか否かを判定する(OP131)。区間フラグとは、音声フレーム(n)がイベント検出の時間範囲に含まれるか否かを示すフラグである。区間フラグが「0」である場合には、音声フレーム(n)がイベント検出の時間範囲に含まれていないことを示す。区間フラグが「1」である場合には、音声フレーム(n)がイベント検出の時間範囲に含まれることを示す。尚、区間フラグAの初期値は「1」である。すなわち、最初の音声フレームの入力からイベント検出の時間範囲がかいしされる。
区間フラグが「0」である場合には(OP131:Yes)、イベント検出部23は、音声フレームnと、その一つ前の音声フレーム(n−1)との音量レベルとが、イベント検出の時間範囲(以下、区間という)の開始条件を満たすか否かを判定する。区間の開始条件は、例えば、以下の通りである。
(区間の開始条件)
ThAMax<Lv(n−1)
且つ
Lv(n)<ThAMin
尚、ThAMaxは音量レベルの最大閾値であり、ThAMinは音量レベルの最小閾値である。Lv(n)は、音声フレーム(n)の音量レベルである。変形例3では、イベント音の立ち下がりを区間の開始とする。
音声フレーム(n)の音量レベルと音声フレーム(n−1)の音量レベルとが、区間開始条件を満たす場合には(OP132:Yes)、イベント検出部23は、音声フレーム(n)を区間Aの開始フレームとして決定する。イベント検出部23は、区間フラグAを「1」に更新する。イベント検出部23は、カウンタAを0にセットする。なお、カウンタAは、1つの区間内のイベントを有する可能性のある音声フレームの数をカウントする(OP133)。
音声フレーム(n)の音量レベルと音声フレーム(n−1)の音量レベルとが、区間開始条件を満さない場合には(OP132:No)、区間フラグAについてのサブルーチンAが終了し、次にOP14(図6)の処理が実行される。
区間フラグAが「0」でない場合、すなわち、区間フラグAが「1」である場合には(OP131:No)、イベント検出部23は、音声フレーム(n)が、イベントを有する可能性がある音声フレームか否かを判定する(OP134)。イベント検出部23は、音声フレーム(n)がイベントを有する可能性がある音声フレームか否かを判定するために
、以下の条件を用いる。
(イベント検出の可能性の判定条件)
Lv(n−1)<ThAMin
且つ
ThAMax<Lv(n)
上記判定条件は、音声フレーム(n)が、イベント音の立ち上がりを検出する。
音声フレーム(n)がイベントを有する可能性がある音声フレームであると判定された場合には(OP134;Yes)、イベント検出部23は、カウンタAの値に1を加算し(OP135)、カウンタAの値が2以上か否かを判定する(OP136)。
カウンタAの値が2以上である場合には(OP136:Yes)、区間Aの中にイベントが含まれる可能性のある音声フレームが2以上含まれることになるので、イベント検出部23は、フレーム(n−1)を区間Aの終点フレームとする。さらに、イベント検出部23は、区間フラグAを「0」に更新する(OP137)。カウンタを使用して、区間内のイベントを有する可能性のある音声フレーム数を数えることによって、1つの区間内には、1つのイベントを有する可能性がある音声フレームが存在することになる。
カウンタAの値が2以上でない場合には(OP136:No)、区間フラグAについてのサブルーチンAが終了し、次にOP14(図6)の処理が実行される。
音声フレーム(n)がイベントを有する可能性がある音声フレームではないと判定された場合には(OP134;No)、イベント検出部23は、音声フレーム(n)の音量レベルと音声フレーム(n−1)の音量レベルとが、区間の終了条件を満たすか否かを判定する(OP138)。区間の終了条件は、例えば、以下の通りである。
(区間の終了条件)
Lv(n−1)<ThAMin
且つ
ThAMin<Lv(n)<ThAMax
音声フレーム(n)の音量レベルと音声フレーム(n−1)の音量レベルとが、上記区間の終了条件を満たす場合(OP138:Yes)、イベント発生部23は、OP137の処理を行う。すなわち、区間Aの終点フレームが決定される。
区間フラグBのサブルーチンB(OP14)は、図7に示されるフロー図において、区間フラグAを区間フラグBに、区間Aを区間Bに、カウンタAをカウンタBに読みかえればよい。ただし、区間フラグBの初期値は「0」である(区間フラグAの初期値は「1」)。
図6に戻って、OP15において、音声フレームの入力がされると(OP15:Yes)、再びOP11の処理が実行される。例えば、一定時間経過しても音声フレームが入力されない場合には、音声フレームの入力がないとみなし(OP15:No)、イベント検出の時間範囲の切り出し処理を終了する。
図6、図7に示したフローをイベント検出部23が実行することによって、イベント検出を行うべき時間範囲の開始フレームと終点フレームとが特定される。このあと、イベント検出部23は、特定された開始フレームと終点フレームとの間に含まれる音声フレームについて、イベント検出処理を実行し、イベントを有する音声フレームを検出する。
図8は、イベント検出部23がイベント検出の時間範囲を切り出す処理を実行した結果の例を示す図である。図8に示される例では、音声フレーム群の開始フレームから終了フ
レームまでの間に、イベントがP1,P2,P3と複数含まれる場合を示す。図6及び図7に示す処理が実行されることによって、イベントP1による音量レベルの立ち下がり時点から、イベントP3による音量レベルの立ち下がり時点までを切り出すことができる。また、時間範囲の中間時点あたりにイベントP2が含まれるように切り出すことができる。さらに、図6及び図7に示される処理において、区間フラグを複数用い、それぞれの初期値を異なる値に設定することによって、例えば、イベントP1を含む区間1、イベントP2を含む区間2、及びイベント3を含む区間3というように、重なりあう区間を切り出すことができる。このように、1つの音声フレーム群中の複数のイベントが含まれる場合でも、各イベントを含む区間を切り出すことができ、各イベントを検出することができる。
1、2 情報処理装置
11 検出部
12 算出部
13 決定部
21 時間制御部
21a 基準時刻生成部
21b 補正時刻生成部
22 映像再生時刻付加部
23 イベント検出部
24 イベント発生時刻生成部
25 音声再生時刻生成部
26 音声再生時刻付加部
101 プロセッサ
102 主記憶装置
103 入力装置
104 出力装置
105 外部記憶装置
106 媒体駆動装置
107 ネットワークインタフェース
109 バス
110 可搬記録媒体

Claims (5)

  1. 映像の撮影時に記録された音声からイベント音を検出し、該音声の音声フレーム群の再生開始位置の時刻を基点として、前記イベント音を含む音声フレームが再生される時刻を検出する検出部と
    映像の撮影速度より遅い再生速度の映像再生時刻系列上での前記イベント音の再生開始時刻を、前記イベント音を含む音声フレームが再生される時刻と、前記撮影速度と前記再生速度との比率と、を用いて、決定する決定部と
    を含む情報処理装置。
  2. 映像の撮影時に記録された音声からイベント音を検出し、該音声の音声フレーム群の再生開始位置の時刻を基点として、前記イベント音を含む音声フレームが再生される第1の時刻を検出する検出部と、
    像フレーム群が前記映像の撮影速度より遅い再生速度で再生される場合の映像再生時刻系列において前記イベント音に対応するイベントを含む映像フレームが再生される第2の時刻を取得する取得部と、
    記第2の時刻から前記第1の時刻を減算した時刻を、前記映像フレーム群の再生開始時刻を基点としたときの前記イベント音を含む音声フレームを含む音声フレーム群の再生開始時刻として決定する決定部と、
    を備える情報処理装置。
  3. 前記映像フレーム群のそれぞれの映像フレームに、前記再生速度で再生される時刻を付加する映像時刻付加部と、
    前記音声フレーム群の前記再生開始時刻を前記音声フレーム群の再生時刻のオフセットとして、再生される時刻を前記音声フレーム群のそれぞれの音声フレームに付加することで、前記第2の時刻を前記イベント音を含む音声フレームに付加する音声時刻付加部と、をさらに備える請求項2に記載の情報処理装置。
  4. 前記検出部は、前記音声フレーム群の1つの音声フレームの信号特性と前記音声フレームの1つ前の音声フレームの前記信号特性との関係に基づき、前記音声フレーム群の連続する複数の音声フレームを抜き出し、前記連続する複数の音声フレームの中に前記イベン
    ト音を含む音声フレームが存在するか否かを検出し、前記イベント音を含む音声フレームが存在する場合に該音声フレームが再生される時刻を前記第1の時刻として検出する
    請求項2又は3に記載の情報処理装置。
  5. 情報処理装置に、所定の撮影速度で撮影された映像フレーム群が前記撮影速度より遅い再生速度で再生される場合の再生時刻系列上で、前記映像フレーム群に含まれるイベントに対応するイベント音を前記イベントの再生に適合させて再生するための情報を生成する処理を実行させるプログラムであって、前記処理は、
    前記イベント音を含む音声フレームが再生される第1の時刻を検出するステップと、
    前記映像フレーム群が前記再生速度で再生される場合に、前記イベントを含む映像フレームが再生される第2の時刻を取得するステップと、
    前記第2の時刻から前記第1の時刻を減算した時刻を、前記映像フレーム群の再生開始時刻を基点としたときの前記イベント音を含む音声フレームを含む音声フレーム群の再生開始時刻として決定するステップと、
    を含むプログラム。
JP2009051024A 2009-03-04 2009-03-04 情報処理装置およびプログラム Expired - Fee Related JP5245919B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009051024A JP5245919B2 (ja) 2009-03-04 2009-03-04 情報処理装置およびプログラム
US12/716,805 US20100226624A1 (en) 2009-03-04 2010-03-03 Information processing apparatus, playback device, recording medium, and information generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009051024A JP5245919B2 (ja) 2009-03-04 2009-03-04 情報処理装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2010206641A JP2010206641A (ja) 2010-09-16
JP5245919B2 true JP5245919B2 (ja) 2013-07-24

Family

ID=42678325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009051024A Expired - Fee Related JP5245919B2 (ja) 2009-03-04 2009-03-04 情報処理装置およびプログラム

Country Status (2)

Country Link
US (1) US20100226624A1 (ja)
JP (1) JP5245919B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5146503B2 (ja) * 2010-09-06 2013-02-20 カシオ計算機株式会社 動画処理装置、動画再生装置、動画処理方法、動画再生方法及びプログラム
JP5054175B2 (ja) * 2010-09-08 2012-10-24 キヤノン株式会社 撮像装置およびその制御方法、撮影制御装置、撮影制御方法
CN104284239A (zh) * 2013-07-11 2015-01-14 中兴通讯股份有限公司 一种视频播放方法、装置、视频播放客户端和多媒体服务器
WO2016129303A1 (ja) * 2015-02-10 2016-08-18 ソニー株式会社 画像処理装置、撮像装置、画像処理方法、および、プログラム
WO2016139971A1 (ja) * 2015-03-03 2016-09-09 ソニー株式会社 信号処理装置、信号処理システム、信号処理方法、および、プログラム
JP6943949B2 (ja) * 2016-08-19 2021-10-06 スノー コーポレーション コンピュータプログラム、動画処理方法及び記録媒体
JP6882057B2 (ja) 2017-05-11 2021-06-02 キヤノン株式会社 信号処理装置、信号処理方法、およびプログラム
CN110858909B (zh) * 2018-08-23 2021-11-26 武汉斗鱼网络科技有限公司 一种播放视频时弹幕的显示方法、装置及电子设备
CN109348281B (zh) * 2018-11-08 2020-02-21 北京微播视界科技有限公司 视频处理方法、装置、计算机设备和存储介质
CN109669918B (zh) * 2018-12-13 2023-04-28 成都心吉康科技有限公司 数据展示方法、装置及可穿戴健康设备
CN114554110B (zh) * 2022-01-25 2023-12-29 北京百度网讯科技有限公司 视频生成方法、装置、电子设备和存储介质

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4496995A (en) * 1982-03-29 1985-01-29 Eastman Kodak Company Down converting a high frame rate signal to a standard TV frame rate signal by skipping preselected video information
US20030093790A1 (en) * 2000-03-28 2003-05-15 Logan James D. Audio and video program recording, editing and playback systems using metadata
JP3063838B2 (ja) * 1997-10-02 2000-07-12 日本電気株式会社 オーディオ・ビデオ同期再生装置および方法
US6680753B2 (en) * 2001-03-07 2004-01-20 Matsushita Electric Industrial Co., Ltd. Method and apparatus for skipping and repeating audio frames
US7461002B2 (en) * 2001-04-13 2008-12-02 Dolby Laboratories Licensing Corporation Method for time aligning audio signals using characterizations based on auditory events
JP2003092761A (ja) * 2001-09-18 2003-03-28 Toshiba Corp 動画再生装置、動画再生方法及び音声再生装置
WO2003085969A1 (fr) * 2002-04-04 2003-10-16 Sony Corporation Systeme d'enregistrement d'image captee, dispositif d'enregistrement de signal et procede d'enregistrement de signal
US20060140098A1 (en) * 2004-12-29 2006-06-29 Champion Mark A Recording audio broadcast program
CN1954604A (zh) * 2005-02-03 2007-04-25 松下电器产业株式会社 记录/再现装置和记录/再现方法、存储记录/再现程序的记录介质以及用于记录/再现装置的集成电路
KR100650407B1 (ko) * 2005-11-15 2006-11-29 삼성전자주식회사 멀티 모달 기반의 고속 비디오 요약 생성 방법 및 그 장치
JP2007318426A (ja) * 2006-05-25 2007-12-06 Matsushita Electric Ind Co Ltd 映像解析装置および映像解析方法
US8363161B2 (en) * 2006-05-26 2013-01-29 Broadcom Corporation Systems, methods, and apparatus for synchronization of audio and video signals
JP4743084B2 (ja) * 2006-11-07 2011-08-10 カシオ計算機株式会社 記録装置及び記録プログラム
JP4679647B2 (ja) * 2009-02-27 2011-04-27 株式会社東芝 映像音声再生装置および映像音声再生方法

Also Published As

Publication number Publication date
US20100226624A1 (en) 2010-09-09
JP2010206641A (ja) 2010-09-16

Similar Documents

Publication Publication Date Title
JP5245919B2 (ja) 情報処理装置およびプログラム
US20070074253A1 (en) Content-preference-score determining method, content playback apparatus, and content playback method
JP5370170B2 (ja) 要約映像生成装置および要約映像生成方法
CN104063157B (zh) 通知控制装置、通知控制方法以及记录介质
JP2011217197A (ja) 電子機器、再生制御システム、再生制御方法及びプログラム
JP5635859B2 (ja) 編集装置、制御方法及びプログラム
US20070071406A1 (en) Video recording and reproducing apparatus and video reproducing apparatus
JP6882057B2 (ja) 信号処理装置、信号処理方法、およびプログラム
WO2016098415A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP4435130B2 (ja) 映像再生装置、再生装置
JP2010509830A (ja) ビデオデータストリームの要約を生成するための方法及び装置
WO2023040520A1 (zh) 视频配乐方法、装置、计算机设备和存储介质
KR20140081695A (ko) 동작 분석 장치
JP2006148932A (ja) スポーツ動映像の要約方法及び装置
US20100310229A1 (en) Video processing apparatus and vide processing method
JP4289326B2 (ja) 情報処理装置および方法、撮影装置、並びにプログラム
TWI408950B (zh) 分析運動視訊之系統、方法及具有程式之電腦可讀取記錄媒體
JP3879122B2 (ja) ディスク装置、ディスク記録方法、ディスク再生方法、記録媒体、並びにプログラム
JP2011055386A (ja) 音響信号処理装置及び電子機器
WO2007013407A1 (ja) ダイジェスト生成装置、ダイジェスト生成方法、ダイジェスト生成プログラムを格納した記録媒体、およびダイジェスト生成装置に用いる集積回路
JP2011523291A (ja) オーディオ/ビジュアルデータストリームのサマリを生成するための方法及び装置
JP4310745B2 (ja) 番組要約装置および番組要約処理プログラム
JP2011139306A (ja) 撮像装置及び再生装置
WO2021100516A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2007035121A (ja) 再生制御装置および方法、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130325

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees