JP2006162692A - 講義コンテンツ自動作成システム - Google Patents
講義コンテンツ自動作成システム Download PDFInfo
- Publication number
- JP2006162692A JP2006162692A JP2004350190A JP2004350190A JP2006162692A JP 2006162692 A JP2006162692 A JP 2006162692A JP 2004350190 A JP2004350190 A JP 2004350190A JP 2004350190 A JP2004350190 A JP 2004350190A JP 2006162692 A JP2006162692 A JP 2006162692A
- Authority
- JP
- Japan
- Prior art keywords
- blackboard
- area
- video
- board
- lecturer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 12
- 230000015572 biosynthetic process Effects 0.000 claims description 11
- 238000003786 synthesis reaction Methods 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 3
- 238000005520 cutting process Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 15
- 238000000034 method Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013144 data compression Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241000051954 Caulanus thomasi Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
【課題】 通常教室における板書による講義を特別なハードウェアを用意することなく、高圧縮なコンテンツを自動生成できる講義コンテンツ自動作成システムの提供。
【解決手段】 本発明によれば、講師120が黒板110を用いて行なう講義をカメラ130で撮影してサーバ140に取り込み、画像処理により講師映像を分離して保存するとともに、板書がなされた領域を抽出して、板書文字を時系列的にベクトルデータ化して保存する。ネットワーク150を通じて端末160に配信するWebコンテンツの生成においては、例えばブラウザに講師映像と仮想黒板を表示し、講師映像の再生と同期して、仮想黒板上にベクトルデータを用いて板書を時系列的に提示する。
【選択図】図1
【解決手段】 本発明によれば、講師120が黒板110を用いて行なう講義をカメラ130で撮影してサーバ140に取り込み、画像処理により講師映像を分離して保存するとともに、板書がなされた領域を抽出して、板書文字を時系列的にベクトルデータ化して保存する。ネットワーク150を通じて端末160に配信するWebコンテンツの生成においては、例えばブラウザに講師映像と仮想黒板を表示し、講師映像の再生と同期して、仮想黒板上にベクトルデータを用いて板書を時系列的に提示する。
【選択図】図1
Description
本発明は、通常教室における板書による講義からWebコンテンツを自動生成する講義コンテンツ自動作成システムに関するものである。
近年、インターネット技術の発展により、教育現場において、講義のリアルタイム配信やオン・デマンド配信を行うためのe−Learningシステムの導入が増加している。これにより、直接参加することでしか体験できなかった講義の内容をデジタル的に保存でき、Webコンテンツとして時間や場所の制約を受けずに受講することが可能となってきている。
このように講義をデジタルコンテンツ化して配信する場合、PC上の電子スライドだけを利用しているのであれば、PCとビデオカメラのみの簡便なハードウェア環境で、資料提示のタイミングと同期をとりながらコンテンツを自動作成することが可能である。
しかしながら、一般の連続講義において、すべての内容を電子スライドとして準備することは相当な負担を教員に強いることになる。これに対して、電子ホワイトボードなどが設置された特別な教室を用意すれば、一般の講義で提示されるような板書データをコンテンツ化することができるが、この場合もすべての教室に設置するには膨大な経費が必要になる。また、電子ホワイトボードやタブレットPCを利用できたとしても、板書スペースが黒板と比べて非常に小さいため、数式や図を多用する理工系の講義では使いにくいという不満もある。学習教材としてのe−Learningコンテンツを教育現場に広く普及させることができないのは、以上のような原因によるところが大きいと考えられる。
このように講義をデジタルコンテンツ化して配信する場合、PC上の電子スライドだけを利用しているのであれば、PCとビデオカメラのみの簡便なハードウェア環境で、資料提示のタイミングと同期をとりながらコンテンツを自動作成することが可能である。
しかしながら、一般の連続講義において、すべての内容を電子スライドとして準備することは相当な負担を教員に強いることになる。これに対して、電子ホワイトボードなどが設置された特別な教室を用意すれば、一般の講義で提示されるような板書データをコンテンツ化することができるが、この場合もすべての教室に設置するには膨大な経費が必要になる。また、電子ホワイトボードやタブレットPCを利用できたとしても、板書スペースが黒板と比べて非常に小さいため、数式や図を多用する理工系の講義では使いにくいという不満もある。学習教材としてのe−Learningコンテンツを教育現場に広く普及させることができないのは、以上のような原因によるところが大きいと考えられる。
このような問題に対し、最近、一般的な黒板での講義をデジタルコンテンツ化する手法が提案されている(例えば非特許文献1,非特許文献2)。しかしながら、これらの手法は板書文字を画像として保存しているため、実際の講義と比較して臨場感に欠けるという欠点がある。この問題を解決するためには、黒板映像を高解像度で配信すればよいが、それにはこれまで以上に広帯域のインターネット環境が広く普及していることが前提となり、必ずしも現実的といえない。
西口敏司,仙田修司,美濃導彦,池田克夫,"首振りカメラによる黒板の記録手法," 画像の認識・理解シンポジウム(MIRU’96), vol.I, pp.37−42, July 1996. 大西正輝,泉正夫,福永邦雄,"講義映像における板書領域のブロック分割とその応用," 電子情報通信学会論文誌,Vol.J83−D−I, No.11, pp.1187−1195, Nov.2000.
西口敏司,仙田修司,美濃導彦,池田克夫,"首振りカメラによる黒板の記録手法," 画像の認識・理解シンポジウム(MIRU’96), vol.I, pp.37−42, July 1996. 大西正輝,泉正夫,福永邦雄,"講義映像における板書領域のブロック分割とその応用," 電子情報通信学会論文誌,Vol.J83−D−I, No.11, pp.1187−1195, Nov.2000.
本発明の課題は、上記の問題を解決し、通常教室における板書による講義を特別なハードウェアを用意することなく、高圧縮なコンテンツを自動生成できる講義コンテンツ自動作成システムを提供することである。
上記の課題を解決するために、本発明は、黒板への板書による講義をカメラで撮影した映像からWebコンテンツを自動生成する講義コンテンツ自動作成システムであって、前記カメラの映像から黒板全体を含む映像を取得する黒板映像取得手段と、前記黒板映像から黒板領域を抽出する黒板領域抽出手段と、前記黒板領域から講師領域を抽出する講師領域抽出手段と、前記講師領域に対応して、前記黒板映像から講師映像を切り出す講師映像生成手段と、一定期間ごとに、前記黒板領域から該一定期間に板書の追加又は板書の消去が行なわれた板書領域を抽出する板書領域抽出手段と、前記板書領域から板書をライン検出してベクトルデータを生成するベクトルデータ生成手段と、前記講師映像と、仮想黒板上の該当する前記板書領域に前記ベクトルデータを表示した画像を、別々のウインドウに合成するwebコンテンツ作成手段とを備えることを特徴とする講義コンテンツ自動作成システムである。
前記黒板映像取得手段は、複数台のカメラからの映像をパノラマ合成して黒板全体を含む黒板映像を取得することを特徴としてもよい。
また、前記講師領域抽出手段は、前記黒板領域抽出手段により黒板映像の最初の1フレームから抽出された黒板領域と、現在の黒板領域とを比較して講師領域を抽出することを特徴としてもよい。
また、前記板書領域抽出手段は、前記一定期間内に講師領域が存在した領域から現在の講師領域の位置を除いた検索領域内において、前記一定期間の直前の前記仮想黒板と比較して輝度値が高く又は低くなった領域を板書の追加又は板書の消去が行なわれた板書領域として抽出することを特徴としてもよい。
また、前記ベクトルデータ生成手段は、前記板書領域が板書の追加である場合には、前記ライン検出によるライン数が一定数以上である場合にのみベクトルデータを生成することを特徴としてもよい。
また、前記ベクトルデータ生成手段は、前記板書領域が板書の消去である場合には、前記ライン検出によるライン数が前記仮想黒板のライン数よりも少ない場合にのみベクトルデータを生成することを特徴としてもよい。
上記に記載の講義コンテンツ自動作成システムの機能をコンピュータ・システムに実現させるためのプログラムも、本発明である。
前記黒板映像取得手段は、複数台のカメラからの映像をパノラマ合成して黒板全体を含む黒板映像を取得することを特徴としてもよい。
また、前記講師領域抽出手段は、前記黒板領域抽出手段により黒板映像の最初の1フレームから抽出された黒板領域と、現在の黒板領域とを比較して講師領域を抽出することを特徴としてもよい。
また、前記板書領域抽出手段は、前記一定期間内に講師領域が存在した領域から現在の講師領域の位置を除いた検索領域内において、前記一定期間の直前の前記仮想黒板と比較して輝度値が高く又は低くなった領域を板書の追加又は板書の消去が行なわれた板書領域として抽出することを特徴としてもよい。
また、前記ベクトルデータ生成手段は、前記板書領域が板書の追加である場合には、前記ライン検出によるライン数が一定数以上である場合にのみベクトルデータを生成することを特徴としてもよい。
また、前記ベクトルデータ生成手段は、前記板書領域が板書の消去である場合には、前記ライン検出によるライン数が前記仮想黒板のライン数よりも少ない場合にのみベクトルデータを生成することを特徴としてもよい。
上記に記載の講義コンテンツ自動作成システムの機能をコンピュータ・システムに実現させるためのプログラムも、本発明である。
本発明の講義コンテンツ自動作成システムによれば、画像処理により黒板の板書文字を時系列的にベクトルデータ化して提示することにより、通常教室における講義をデジタルコンテンツ化して、現状のインターネット環境でもストレスなく快適に遠隔配信できるシステムを提案する。本システムでは、まずカメラで撮影された黒板映像から、ライン検出により板書文字をベクトルデータとして抽出している。また、画像の差分処理により、壇上を移動する講師を追跡して、小さなフレームとして講師映像を切り出す。つぎに、仮想黒板に、抽出したベクトルデータを板書文字として時系列的に講師映像と同期しながら表示できるように、Webコンテンツを作成しているので、このWebコンテンツをインターネット配信することができる。
このようにして、通常教室における板書による講義を特別なハードウェアを用意することなく、高圧縮なコンテンツを自動生成することができる。
このようにして、通常教室における板書による講義を特別なハードウェアを用意することなく、高圧縮なコンテンツを自動生成することができる。
以降、本発明の講義コンテンツ自動作成システムの実施の形態を詳細に説明する。
<1.システム構成>
まず、本実施形態の講義コンテンツ自動作成システムのシステム構成の一例を、図1のシステム構成図を参照しながら説明する。
図1に示すように、本実施形態のシステムでは黒板110(通常の黒板のほか、ホワイトボード等であってもよい)を設置している教室において、講師120が黒板110を用いて行なう講義に対してカメラ130を用いて撮影を行う。なお、本実施形態では講師120が1人であることを想定している。また、図1ではカメラを3台用いる場合を図示しているが、黒板の大きさ等に応じて何台でもよい。
本実施形態のシステムにおいては、カメラ130で撮影した映像をデジタル的にサーバ140に取り込んで処理する。複数台のカメラ130で撮影した場合には、各々のカメラ130で撮影した映像を同期してデジタル的にサーバ140に取り込み、パノラマ合成処理により、黒板全体を含む1枚の映像として捉えた高解像度映像を取得する。なお、パノラマ合成処理の方法は後で詳しく説明する。
まず、本実施形態の講義コンテンツ自動作成システムのシステム構成の一例を、図1のシステム構成図を参照しながら説明する。
図1に示すように、本実施形態のシステムでは黒板110(通常の黒板のほか、ホワイトボード等であってもよい)を設置している教室において、講師120が黒板110を用いて行なう講義に対してカメラ130を用いて撮影を行う。なお、本実施形態では講師120が1人であることを想定している。また、図1ではカメラを3台用いる場合を図示しているが、黒板の大きさ等に応じて何台でもよい。
本実施形態のシステムにおいては、カメラ130で撮影した映像をデジタル的にサーバ140に取り込んで処理する。複数台のカメラ130で撮影した場合には、各々のカメラ130で撮影した映像を同期してデジタル的にサーバ140に取り込み、パノラマ合成処理により、黒板全体を含む1枚の映像として捉えた高解像度映像を取得する。なお、パノラマ合成処理の方法は後で詳しく説明する。
図2に、本実施形態のシステムで行なう処理の全体的な流れを示す。まず、前処理(S210)として、黒板全体を含む1枚の映像として捉えた高解像度映像を合成する。本実施形態においては、まず複数のカメラ映像の色調特性を均一になるように補正し、次に黒板全体が1つの映像となるようにパノラマ合成を行なう。
そして、講義の撮影時には、複数のカメラによる映像を同期しながら取り込み、上記の前処理により得られたパラメータを用いて、リアルタイムに色調補正(S220)及びパノラマ合成(S230)を行いながら、映像をデジタル的に保存していく。
次に、得られた高解像度のパノラマ映像から、背景差分を用いて講師領域を取得し、講師映像を分離して保存する(S240)。また、黒板上で一定期間変化が保持されている部分を板書がなされた部分と判断して、これを時系列的な差分画像として板書データを保存する。さらに、得られた板書データをブロック化し、それらを細線化してベクトルデータに変換する(S250)。このようにベクトルデータに変換することにより大幅なデータ圧縮が可能になる。
また、生成したベクトルデータを用いて、メモリ内に設けた仮想黒板にリアルタイムに板書を追加する(S260)。これは、上述の板書データ取得の際に、現在の板書と今までの板書と比較する際に用いる。
そして、講義の撮影時には、複数のカメラによる映像を同期しながら取り込み、上記の前処理により得られたパラメータを用いて、リアルタイムに色調補正(S220)及びパノラマ合成(S230)を行いながら、映像をデジタル的に保存していく。
次に、得られた高解像度のパノラマ映像から、背景差分を用いて講師領域を取得し、講師映像を分離して保存する(S240)。また、黒板上で一定期間変化が保持されている部分を板書がなされた部分と判断して、これを時系列的な差分画像として板書データを保存する。さらに、得られた板書データをブロック化し、それらを細線化してベクトルデータに変換する(S250)。このようにベクトルデータに変換することにより大幅なデータ圧縮が可能になる。
また、生成したベクトルデータを用いて、メモリ内に設けた仮想黒板にリアルタイムに板書を追加する(S260)。これは、上述の板書データ取得の際に、現在の板書と今までの板書と比較する際に用いる。
次に、上記で生成された講師映像およびベクトルデータから、Webコンテンツを生成する(S270)。このWebコンテンツは、例えば、講師映像と仮想黒板を表示し、講師映像と同期しながら、仮想黒板上にベクトルデータを用いて板書を提示するものである。
本実施形態では上述のようにして、講義の映像からリアルタイムにWebコンテンツを生成することができる。生成されたWebコンテンツは、図1に示すように、インターネット等のネットワーク150を介して、受講者が利用するパソコンなどの端末160に配信される。このようにして、受講者は端末160のブラウザ上で講義を閲覧することができる。
本実施形態では上述のようにして、講義の映像からリアルタイムにWebコンテンツを生成することができる。生成されたWebコンテンツは、図1に示すように、インターネット等のネットワーク150を介して、受講者が利用するパソコンなどの端末160に配信される。このようにして、受講者は端末160のブラウザ上で講義を閲覧することができる。
<2.複数台のカメラからの高解像度黒板映像の合成>
複数台のカメラから捉えた黒板映像から板書データを抽出するためには、上述したように、前処理として、複数のカメラからの映像を、黒板全体を1枚の映像として捉えた高解像度映像として合成する必要がある。本実施形態においては、まず複数のカメラ映像の色調特性を均一になるように補正し、次に黒板全体が1つの映像となるようにパノラマ合成を行なう。以降、この方法について説明する。
複数台のカメラから捉えた黒板映像から板書データを抽出するためには、上述したように、前処理として、複数のカメラからの映像を、黒板全体を1枚の映像として捉えた高解像度映像として合成する必要がある。本実施形態においては、まず複数のカメラ映像の色調特性を均一になるように補正し、次に黒板全体が1つの映像となるようにパノラマ合成を行なう。以降、この方法について説明する。
図3はその手順を示したフローチャートである。まず、黒板全体を撮影するのに十分な台数のカメラを用意し、複数視点から黒板映像を取得する(S310)。次に、各映像間の色調特性を均一にするための色変換パラメータを求める(S320)。
次に、隣接するカメラが重複して撮影している共通部分にキャリブレーションパターンを配置して、各カメラで捉えた黒板の画像と仮想黒板との射影関係を算出し(S330)、仮想黒板と一致させるように画像変形を行ない(S340)、変形した画像をパノラマ合成する(S350)。このようにして、画像間で継ぎ目のない黒板全体のパノラマ画像を生成する。
また、この前処理で求めたパラメータを用いて、同様にリアルタイムでの色調補正(図2のS220)およびリアルタイムでのパノラマ合成(図2のS230)を行なう。
以降、各々の処理について詳しく説明する。
次に、隣接するカメラが重複して撮影している共通部分にキャリブレーションパターンを配置して、各カメラで捉えた黒板の画像と仮想黒板との射影関係を算出し(S330)、仮想黒板と一致させるように画像変形を行ない(S340)、変形した画像をパノラマ合成する(S350)。このようにして、画像間で継ぎ目のない黒板全体のパノラマ画像を生成する。
また、この前処理で求めたパラメータを用いて、同様にリアルタイムでの色調補正(図2のS220)およびリアルタイムでのパノラマ合成(図2のS230)を行なう。
以降、各々の処理について詳しく説明する。
<3.色調補正>
上述したように、本実施形態においては、複数のカメラによる黒板映像から、黒板全体が1つの映像となるようにパノラマ合成を行なう。
ここで、各カメラの色調特性が異なると、黒板のパノラマ映像の色調が不均一になるため、映像の継ぎ目部分で板書データの抽出に失敗する可能性がある。したがって、パノラマ合成処理を行う前に各映像の色調を補正する必要がある。
本実施形態においては、色調補正を「池田聖,佐藤智和,横矢直和,”全方位型マルチカメラシステムを用いた高解像度な全天球パノラマ動画像の生成とテレプレゼンスへの応用,” 日本バーチャルリアリティ学会論文誌,Vol.8, No.4, pp.443−450, Dec.2003」等に記載されている従来技術を用いて行なう。すなわち、まず、適当な多色の基準色パターンを作成し、各カメラでそのパターンを含む黒板領域を撮影する。次に、これら各画像のヒストグラムが一致するように最適な線形明度変換パラメータを算出して、色調補正を行なう。
上述したように、本実施形態においては、複数のカメラによる黒板映像から、黒板全体が1つの映像となるようにパノラマ合成を行なう。
ここで、各カメラの色調特性が異なると、黒板のパノラマ映像の色調が不均一になるため、映像の継ぎ目部分で板書データの抽出に失敗する可能性がある。したがって、パノラマ合成処理を行う前に各映像の色調を補正する必要がある。
本実施形態においては、色調補正を「池田聖,佐藤智和,横矢直和,”全方位型マルチカメラシステムを用いた高解像度な全天球パノラマ動画像の生成とテレプレゼンスへの応用,” 日本バーチャルリアリティ学会論文誌,Vol.8, No.4, pp.443−450, Dec.2003」等に記載されている従来技術を用いて行なう。すなわち、まず、適当な多色の基準色パターンを作成し、各カメラでそのパターンを含む黒板領域を撮影する。次に、これら各画像のヒストグラムが一致するように最適な線形明度変換パラメータを算出して、色調補正を行なう。
<4.パノラマ合成>
板書データを正確に再現するためには、黒板全体を正面から捉えた歪のない高解像度映像が必要になる。このためにはハイビジョンカメラなどの高解像度カメラを用いればよいが、本実施形態では、安価にシステムを構築できるように、市販のビデオカメラを複数台用いて黒板全体を撮影して所望のパノラマ映像を生成する。
n台のカメラを用いるとする(図4では3台のカメラを用いた場合を示している)と、図4(a)に示すように、まず、黒板400を水平方向にn等分(図4では3等分)した位置に、適当な大きさの白い正方形のキャリブレーションパターン410,420を配置する。そして図4(b)に示すように、これらの正方形パターンが隣接カメラの共通撮影領域に必ず含まれ、かつn台のカメラ映像が黒板全体を覆うように撮影する。図4(b)では、黒板400を3台のカメラで撮影した場合の各々のカメラの映像を示している。
次に、図4(c)に示すようなn−1個(図4では2個)の正方形パターン410,420を含み、正面から見込んだ黒板全体の仮想画像を考え、この仮想黒板上の正方形の頂点と各映像上の特徴点との対応関係から映像間の射影変換を求める。黒板は3次元空間上の平面として記述されるので、2つの画像中に捉えられた平面上の点の射影変換は次式で記述できる。
板書データを正確に再現するためには、黒板全体を正面から捉えた歪のない高解像度映像が必要になる。このためにはハイビジョンカメラなどの高解像度カメラを用いればよいが、本実施形態では、安価にシステムを構築できるように、市販のビデオカメラを複数台用いて黒板全体を撮影して所望のパノラマ映像を生成する。
n台のカメラを用いるとする(図4では3台のカメラを用いた場合を示している)と、図4(a)に示すように、まず、黒板400を水平方向にn等分(図4では3等分)した位置に、適当な大きさの白い正方形のキャリブレーションパターン410,420を配置する。そして図4(b)に示すように、これらの正方形パターンが隣接カメラの共通撮影領域に必ず含まれ、かつn台のカメラ映像が黒板全体を覆うように撮影する。図4(b)では、黒板400を3台のカメラで撮影した場合の各々のカメラの映像を示している。
次に、図4(c)に示すようなn−1個(図4では2個)の正方形パターン410,420を含み、正面から見込んだ黒板全体の仮想画像を考え、この仮想黒板上の正方形の頂点と各映像上の特徴点との対応関係から映像間の射影変換を求める。黒板は3次元空間上の平面として記述されるので、2つの画像中に捉えられた平面上の点の射影変換は次式で記述できる。
上式において、(ui,vi)と(uki,vki)は、それぞれ正方形パターンのi番目(i=1〜4)の頂点の仮想画像上における画像座標とk番目(k=1〜n)のカメラから撮影した映像上における画像座標である。αi kは定数、Hkはホモグラフィー行列と呼ばれる。上式から、ホモグラフィー行列Hkは、スカラ倍の自由度を除けば、8個の未知数として記述できるので、3次元空間内で同一平面上にある4点以上の画像上での対応が分かれば直接に求められることがわかる。カメラ映像上の正方形の4頂点の画像位置は、画像勾配の直交性を用いたコーナー検出手法により、サブピクセル精度で抽出している。なお、この方法については「J.Shi and C.Tomasi, ”Good features to track,”IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’94), pp.593−600, June 1994.」を参照されたい。
n枚の映像を合成するためには、まず、1番目と2番目のカメラ映像と仮想黒板上の正方形の頂点の対応付けを行って、ホモグラフィー行列H1とH2を用いて仮想画像上の正方形と一致するように画像変形を行い、お互いが正方形を2分するように画像を接続する。これに得られた画像と3番目のカメラ映像に対して同様の処理を行い、図4(c)のように、これをn番目のカメラ映像まで繰り返して、黒板全体を正面から見込んだ歪のないパノラマ画像を得る。
2台のカメラを用いて上述のパノラマ合成を行なった実際の例を図5に示す。図5(a)は、正方形パターンを見込んだ画像、(b)はそれらをホモグラフィー行列により変形した画像、(c)はパノラマ合成した画像である。
2台のカメラを用いて上述のパノラマ合成を行なった実際の例を図5に示す。図5(a)は、正方形パターンを見込んだ画像、(b)はそれらをホモグラフィー行列により変形した画像、(c)はパノラマ合成した画像である。
<5.講師映像と板書文字のデータ生成>
黒板での講義画像における重要な二つの要素は講師画像と板書文字(図形等を含む)である。本実施形態のシステムでは、これらをデジタル化していくことで講義中の情報を完全に再現する。
図6に、講義映像から講師画像と板書文字をデジタル化する処理全体のフローチャートを示す。まず、上述のパノラマ合成を行なって得た黒板映像から初期画像となる黒板領域を抽出する(S610)。この処理は最初に1度行なえばよい。
次に、リアルタイム処理として、現在の画像と初期画像との背景差分によりある程度の大きさの領域を講師映像として抽出し、その領域を現在の講師領域とする(S620)。また、一定期間ごとに講師が板書を行なった領域を背景差分により抽出し(S630)、その領域に対しライン検出を用いて板書文字をベクトルデータ化する(S640)。
このように板書データをベクトル化することにより、データ量を大幅に削減でき、また、拡大・縮小表示に対しても劣化の少ない映像情報を提示できる。
以降、図6のフローチャートに示した各々の処理について詳細に説明する。
黒板での講義画像における重要な二つの要素は講師画像と板書文字(図形等を含む)である。本実施形態のシステムでは、これらをデジタル化していくことで講義中の情報を完全に再現する。
図6に、講義映像から講師画像と板書文字をデジタル化する処理全体のフローチャートを示す。まず、上述のパノラマ合成を行なって得た黒板映像から初期画像となる黒板領域を抽出する(S610)。この処理は最初に1度行なえばよい。
次に、リアルタイム処理として、現在の画像と初期画像との背景差分によりある程度の大きさの領域を講師映像として抽出し、その領域を現在の講師領域とする(S620)。また、一定期間ごとに講師が板書を行なった領域を背景差分により抽出し(S630)、その領域に対しライン検出を用いて板書文字をベクトルデータ化する(S640)。
このように板書データをベクトル化することにより、データ量を大幅に削減でき、また、拡大・縮小表示に対しても劣化の少ない映像情報を提示できる。
以降、図6のフローチャートに示した各々の処理について詳細に説明する。
(5−1.黒板領域の抽出)
黒板領域の抽出処理(図6のS610)を、図7のフローチャートに示す。まず、講師が映っていない初期画像を取得する(S710)。本実施形態では例えば講義を撮影した動画の最初の1フレームを取得するものとする。次に、初期画像に対してある程度の大きさの黒板領域の色の平均と分散からその色範囲を推定し、黒板の色である緑色の部分を取得する(S720)。次に、閾値処理を行なって黒板の範囲を取得する(S730)。ただし、そのままでは黒板の輪郭部分が直線にならないことがあるので、垂直・水平方向の各ラインの両端の座標の平均値を求め(S740)、その平均値により黒板領域を抽出する(S750)。
黒板領域の抽出処理(図6のS610)を、図7のフローチャートに示す。まず、講師が映っていない初期画像を取得する(S710)。本実施形態では例えば講義を撮影した動画の最初の1フレームを取得するものとする。次に、初期画像に対してある程度の大きさの黒板領域の色の平均と分散からその色範囲を推定し、黒板の色である緑色の部分を取得する(S720)。次に、閾値処理を行なって黒板の範囲を取得する(S730)。ただし、そのままでは黒板の輪郭部分が直線にならないことがあるので、垂直・水平方向の各ラインの両端の座標の平均値を求め(S740)、その平均値により黒板領域を抽出する(S750)。
(5−2.講師領域の抽出)
次に、講師領域の抽出処理(図6のS620)を、図8のフローチャートを参照しながら説明する。
講義中に移動する物体は講師だけであると仮定すると、移動体が存在しない画像(以下、背景画像と呼ぶ)と現在の画像との差分によって講師領域を抽出できる。しかし、板書文字も前景として抽出されてしまうため、講師領域と板書領域を区別しなければならない。
そこで、講師映像は板書文字に対して面積が大きいことから、背景画像と現在画像の差分(S810)により得られた領域に対して収縮処理(S820)を行なうことによって、講師の大部分を残すようにする。次に、膨張処理(S830)を行なって、ある程度の面積をもつ講師領域を抽出する。
ただし、そのままではチョークや講師の腕・指先などは最初に行う収縮処理(S820)により消去される可能性があるため、フレーム間差分を用いて動体検出(S840)を行ない、動体が検出された部分と上述で抽出された講師領域とを合成して、全体を覆う矩形をとることによって、講師領域を抽出する(S850)。ただし、講師の姿勢や動作によって講師領域の大きさや中心が変わるため、そのまま映像化すると細かく揺れる映像となる場合がある。そこで、本実施形態では、講師領域の中心点の座標をローパスフィルタに通して、急激な位置変化を抑制する。
また、もとの映像から、上記で抽出した講師領域を追いかけた講師映像(常に講師が映っている映像)を切り出して保存する(図2のS240)。この講師映像は、後述のWebブラウザに表示するための映像である。
次に、講師領域の抽出処理(図6のS620)を、図8のフローチャートを参照しながら説明する。
講義中に移動する物体は講師だけであると仮定すると、移動体が存在しない画像(以下、背景画像と呼ぶ)と現在の画像との差分によって講師領域を抽出できる。しかし、板書文字も前景として抽出されてしまうため、講師領域と板書領域を区別しなければならない。
そこで、講師映像は板書文字に対して面積が大きいことから、背景画像と現在画像の差分(S810)により得られた領域に対して収縮処理(S820)を行なうことによって、講師の大部分を残すようにする。次に、膨張処理(S830)を行なって、ある程度の面積をもつ講師領域を抽出する。
ただし、そのままではチョークや講師の腕・指先などは最初に行う収縮処理(S820)により消去される可能性があるため、フレーム間差分を用いて動体検出(S840)を行ない、動体が検出された部分と上述で抽出された講師領域とを合成して、全体を覆う矩形をとることによって、講師領域を抽出する(S850)。ただし、講師の姿勢や動作によって講師領域の大きさや中心が変わるため、そのまま映像化すると細かく揺れる映像となる場合がある。そこで、本実施形態では、講師領域の中心点の座標をローパスフィルタに通して、急激な位置変化を抑制する。
また、もとの映像から、上記で抽出した講師領域を追いかけた講師映像(常に講師が映っている映像)を切り出して保存する(図2のS240)。この講師映像は、後述のWebブラウザに表示するための映像である。
(5−3.板書領域の抽出とベクトルデータ生成)
次に、一定期間ごとに行なう板書領域の抽出処理(図6のS630)と、板書のベクトルデータ生成処理(図6のS640)について説明する。
一定期間に講師が黒板に書き込みや消去などを行って板書文字が更新される領域は、その期間に講師が移動した範囲以外に存在しない。そこで、図9に示すように、黒板領域900から、講師領域930が一定期間に移動した範囲全体を抽出して保持し、その範囲から現在(一定期間の最後の1フレーム)の講師領域を除いた領域を、板書文字の更新情報を検索する検索領域940(図9では講師領域930の左右の淡いグレー部分2箇所)とする。なお、本実施形態のシステムにおいては、例として講義を30フレーム/秒の動画として撮影し、1秒(30フレーム)を上述の一定期間として処理を行なったが、動画の精度および検索領域を抽出する間隔は、これに限らない。
本実施形態では、上述で抽出した検索領域940から、さらに、板書が書き込まれた領域と板書が消去されたと判断される領域を板書領域として抽出し、その時刻や位置、書き込み/消去などの情報を板書の更新情報として保持(以降「中間データ」と呼ぶ)する。その後に、中間データに対応するフレームの画像から、より板書の領域を絞り込んだ板書データを抽出する。最後に、板書データをブロック化し、それらを細線化してベクトルデータを生成する。
次に、一定期間ごとに行なう板書領域の抽出処理(図6のS630)と、板書のベクトルデータ生成処理(図6のS640)について説明する。
一定期間に講師が黒板に書き込みや消去などを行って板書文字が更新される領域は、その期間に講師が移動した範囲以外に存在しない。そこで、図9に示すように、黒板領域900から、講師領域930が一定期間に移動した範囲全体を抽出して保持し、その範囲から現在(一定期間の最後の1フレーム)の講師領域を除いた領域を、板書文字の更新情報を検索する検索領域940(図9では講師領域930の左右の淡いグレー部分2箇所)とする。なお、本実施形態のシステムにおいては、例として講義を30フレーム/秒の動画として撮影し、1秒(30フレーム)を上述の一定期間として処理を行なったが、動画の精度および検索領域を抽出する間隔は、これに限らない。
本実施形態では、上述で抽出した検索領域940から、さらに、板書が書き込まれた領域と板書が消去されたと判断される領域を板書領域として抽出し、その時刻や位置、書き込み/消去などの情報を板書の更新情報として保持(以降「中間データ」と呼ぶ)する。その後に、中間データに対応するフレームの画像から、より板書の領域を絞り込んだ板書データを抽出する。最後に、板書データをブロック化し、それらを細線化してベクトルデータを生成する。
(1)中間データ生成
図10は、検索領域から板書領域を抽出して中間データを生成する処理のフローチャートである。まず、上述の方法で一定期間(例えば1秒=30フレーム)における検索領域を抽出し(S1010)、その検索領域に対して背景差分を求める(S1020)。次に、求めた背景差分と現在までの板書を表示した仮想黒板(上述の図2のS260に示すようにリアルタイムで保持している)との差分を求め(S1030)、検索領域内である閾値以上輝度値が変化した領域を板書の更新情報とみなし(S1040でYes)、その変化した領域の色および位置座標、輝度値により判断した書き込み・消去の別、および更新時刻を、中間データとして保存する(S1050)。
図10は、検索領域から板書領域を抽出して中間データを生成する処理のフローチャートである。まず、上述の方法で一定期間(例えば1秒=30フレーム)における検索領域を抽出し(S1010)、その検索領域に対して背景差分を求める(S1020)。次に、求めた背景差分と現在までの板書を表示した仮想黒板(上述の図2のS260に示すようにリアルタイムで保持している)との差分を求め(S1030)、検索領域内である閾値以上輝度値が変化した領域を板書の更新情報とみなし(S1040でYes)、その変化した領域の色および位置座標、輝度値により判断した書き込み・消去の別、および更新時刻を、中間データとして保存する(S1050)。
(2)板書データ抽出とベクトルデータ生成
黒板による講義で板書された文字や図形は線分によって構成されているという特徴がある。そこで、本実施形態では、上述で生成した中間データに対応するフレームの画像から、さらに領域を絞り込んだ板書データを抽出してその領域をブロック化し、板書文字をライン検出によってベクトルデータ化する。なお、ここで中間データに対応するフレームとは、中間データの更新時刻に対応する一定期間の最後の1フレーム(上述の図9で検索領域を抽出したフレーム)である。
板書の書き込み部分である場合の処理のフローを図11に、消去部分である場合の処理のフローを図13に示す。
書き込み部分に対しては、まず膨張処理を行って、ある程度の大きさをもつ書き込み領域を抽出する(S1110)。この面積が閾値以上で、一定期間面積変化がほとんどない領域に対して、ゼロ交差点を用いたライン検出を行う(S1120)。
なお、ライン検出については「C.Steger,”An Unbiased Detector of Curvilinear Structures,”IEEE Transaction on Pattern Analysis and Machine Intelligence, Vol.20, No.2, pp.113−125, Feb. 1998」を参照されたい。
黒板による講義で板書された文字や図形は線分によって構成されているという特徴がある。そこで、本実施形態では、上述で生成した中間データに対応するフレームの画像から、さらに領域を絞り込んだ板書データを抽出してその領域をブロック化し、板書文字をライン検出によってベクトルデータ化する。なお、ここで中間データに対応するフレームとは、中間データの更新時刻に対応する一定期間の最後の1フレーム(上述の図9で検索領域を抽出したフレーム)である。
板書の書き込み部分である場合の処理のフローを図11に、消去部分である場合の処理のフローを図13に示す。
書き込み部分に対しては、まず膨張処理を行って、ある程度の大きさをもつ書き込み領域を抽出する(S1110)。この面積が閾値以上で、一定期間面積変化がほとんどない領域に対して、ゼロ交差点を用いたライン検出を行う(S1120)。
なお、ライン検出については「C.Steger,”An Unbiased Detector of Curvilinear Structures,”IEEE Transaction on Pattern Analysis and Machine Intelligence, Vol.20, No.2, pp.113−125, Feb. 1998」を参照されたい。
ライン数がある程度以上になった場合(S1130でYesの場合)、それらのラインに対して折れ線近似を用いて板書文字をベクトルデータ化して保存する(S1140)。また、このとき、図12に示すように、上述のS1110で抽出した各々の書き込み領域ごとに、取得したラインの膨張画像全体を覆う最小の外接矩形(図12では黒板1200における1210a,1210b,1210cの各矩形)を、その一定期間における更新領域(以降これを「ブロック」と呼ぶ)とし、その位置および時刻等を保存する。一方、上述で生成したベクトルデータを、このブロックと対応付ける。そして、Webコンテンツ上の仮想黒板に板書を表示する際に、講師映像と同期するように、対応するベクトルデータをブロック(更新領域)単位で仮想黒板に提示することで、仮想黒板上に時系列に板書を表示することができる。
一方、ライン数が満たなかった場合(S1130でNoの場合)には、その書き込み領域のブロック化およびベクトルデータの生成は行なわない。
なお、ベクトルデータの生成については「U.Ramer. ”An iterative procedure for the polygonal approximation of plane curves,”Computer Vision, Graphics, and Image Processing, 1:244−−256, 1972.」を参照されたい。
一方、ライン数が満たなかった場合(S1130でNoの場合)には、その書き込み領域のブロック化およびベクトルデータの生成は行なわない。
なお、ベクトルデータの生成については「U.Ramer. ”An iterative procedure for the polygonal approximation of plane curves,”Computer Vision, Graphics, and Image Processing, 1:244−−256, 1972.」を参照されたい。
一方、消去部分に対しては、その領域を含む外接矩形を更新領域とし(S1310)、更新領域に対して再度ライン検出を行なって(S1320)、仮想黒板(現在までの板書データ)とのライン数の比較を行なう(S1330)。仮想黒板と比べてライン数が減少している場合(S1340でYesの場合)には、この領域について再度ベクトルデータの生成を行なう(S1350)。また、上述の書き込み部分と同様に、その更新領域をブロック化し、ブロックの位置および時刻等を保存する。これにより,板書文字を一部訂正したような場合でも忠実に再現することができる。一方、仮想黒板と比べてライン数が減少していない場合(S1340でNoの場合)には、ブロック化およびベクトルデータの生成は行なわない。
本実施形態のようにライン検出を用いることにより、板書文字の変化のみが抽出され、照明の変化などによって面的に変化した部分が誤って検出されないという利点がある。また、ベクトルデータとして出力されるためデータ容量がきわめて小さいという大きな利点もある。例えば、図14(a)に示す板書を行なった約1分の映像(30フレーム/秒,画像サイズ1280ピクセル×480ピクセル(640ピクセル×480ピクセル×2台))の場合、動画、画像切り出し、本手法のデータ容量は表1のようになった。なお、図14(b)はライン検出の結果である。
本実施形態のようにライン検出を用いることにより、板書文字の変化のみが抽出され、照明の変化などによって面的に変化した部分が誤って検出されないという利点がある。また、ベクトルデータとして出力されるためデータ容量がきわめて小さいという大きな利点もある。例えば、図14(a)に示す板書を行なった約1分の映像(30フレーム/秒,画像サイズ1280ピクセル×480ピクセル(640ピクセル×480ピクセル×2台))の場合、動画、画像切り出し、本手法のデータ容量は表1のようになった。なお、図14(b)はライン検出の結果である。
<6.Webコンテンツ作成>
最後に上述で分離・抽出した講師映像と板書のベクトルデータを用いて、ブラウザ上で講義を再現できるようにWebコンテンツを作成する。板書データをベクトル化して仮想黒板に描画するので、黒板全体の高解像度な映像を配信する必要がない。このため、データ配信の容量を大幅に小さくできるだけでなく、板書を自由に拡大縮小して表示することができる。これにより、受講者は、例えば講義時に見づらかった部分や見過ごした部分を、講義後自宅などでもう一度確認することができる。
本実施形態では、PC上のブラウザとして標準的に採用されているHTML,Java(登録商標)Script,Java Applet,Windows(登録商標) Media Player(以下WMP)を用いてWebコンテンツを作成するものとする。この方法によれば、すべての機能をテキスト形式で記述しているので、Javaコンパイラさえ用意すれば、コンテンツを自動作成できるという大きな利点がある。
最後に上述で分離・抽出した講師映像と板書のベクトルデータを用いて、ブラウザ上で講義を再現できるようにWebコンテンツを作成する。板書データをベクトル化して仮想黒板に描画するので、黒板全体の高解像度な映像を配信する必要がない。このため、データ配信の容量を大幅に小さくできるだけでなく、板書を自由に拡大縮小して表示することができる。これにより、受講者は、例えば講義時に見づらかった部分や見過ごした部分を、講義後自宅などでもう一度確認することができる。
本実施形態では、PC上のブラウザとして標準的に採用されているHTML,Java(登録商標)Script,Java Applet,Windows(登録商標) Media Player(以下WMP)を用いてWebコンテンツを作成するものとする。この方法によれば、すべての機能をテキスト形式で記述しているので、Javaコンパイラさえ用意すれば、コンテンツを自動作成できるという大きな利点がある。
図15に、本実施形態で生成するWebコンテンツの画面の例を示す。図15の画面1500中の左上の講師映像フレーム1520には、講師領域を追いかけた映像である講師映像を表示する。また、下段の仮想黒板フレーム1530には板書のベクトルデータを表示する仮想黒板を表示し、この仮想黒板上でマウスをクリックすると、右上の拡大表示フレーム1540に、そのクリック点を中心とする拡大画像が得られるようになっている。さらに、「Zoom In」ボタン1564および「Zoom Out」ボタン1563により、拡大表示の比率を変えることができる。なお、現在の比率を表示部1562に表示している。
表示部1561には、総再生時間と現在の再生時間を示している。「PLAY」ボタン1552は映像を再生するボタンであり、「STOP」ボタン1553は映像の再生を停止するボタンであり、「PAUSE」ボタン1554は映像の再生を一時停止するボタンである。またスライドバー1551をマウス等で左右に動かすことにより、映像の再生位置を制御できる。各動作の制御はJavaScriptを用いてWMPやJava Appletの関数を呼び出すことによって行っており、それらは連携して、講師映像と板書の時系列データを同期させながら提示している。以下に、これらの動作の仕組みをそれぞれ説明する。なお、これらの仕組みはすべて従来技術により実現することができる。また、上記以外の機能を付加してもよい。
表示部1561には、総再生時間と現在の再生時間を示している。「PLAY」ボタン1552は映像を再生するボタンであり、「STOP」ボタン1553は映像の再生を停止するボタンであり、「PAUSE」ボタン1554は映像の再生を一時停止するボタンである。またスライドバー1551をマウス等で左右に動かすことにより、映像の再生位置を制御できる。各動作の制御はJavaScriptを用いてWMPやJava Appletの関数を呼び出すことによって行っており、それらは連携して、講師映像と板書の時系列データを同期させながら提示している。以下に、これらの動作の仕組みをそれぞれ説明する。なお、これらの仕組みはすべて従来技術により実現することができる。また、上記以外の機能を付加してもよい。
(1)PLAY(再生)
WMPのplay()関数とJavaScriptの時間経過ループを同時に開始し、ループ処理内でWMPの経過時間とJavaScriptの基準時間とを一致させることによって同期をとる。基準時間が変化するたびに時系列データと比較し、描画タイミングになったらJava Appletの描画関数で仮想黒板フレーム1530に板書データの内容を描画する。
WMPのplay()関数とJavaScriptの時間経過ループを同時に開始し、ループ処理内でWMPの経過時間とJavaScriptの基準時間とを一致させることによって同期をとる。基準時間が変化するたびに時系列データと比較し、描画タイミングになったらJava Appletの描画関数で仮想黒板フレーム1530に板書データの内容を描画する。
(2)STOP(停止)
WMPのstop()関数とJavaScriptの時間経過ループを終了し、すべてのパラメータを初期化することで実現する。
WMPのstop()関数とJavaScriptの時間経過ループを終了し、すべてのパラメータを初期化することで実現する。
(3)PAUSE(一時停止)
WMPのpause()関数とJavaScriptの時間経過ループの停止を実行することで実現する。
WMPのpause()関数とJavaScriptの時間経過ループの停止を実行することで実現する。
(4)ZOOM IN / ZOOM OUT(板書の拡大/縮小)
仮想黒板フレーム1530内のズームしたい場所をマウスでクリック等すると、取得した座標とJavaScriptから得た倍率(rate)をもとに、その点を中心とする長方形を切り出し、Applet間通信を用いて、その内容を右上の拡大表示フレーム1540に描画する。
仮想黒板フレーム1530内のズームしたい場所をマウスでクリック等すると、取得した座標とJavaScriptから得た倍率(rate)をもとに、その点を中心とする長方形を切り出し、Applet間通信を用いて、その内容を右上の拡大表示フレーム1540に描画する。
<7.本実施形態の応用>
上述で説明した本実施形態においては、講師に隠れて見えない板書部分が避けられないため、板書文字が書き込まれた順に正確に再現されるわけではなく、上述で説明した方法により生成したブロック単位で板書が提示される。そこで、蓄積した板書データと講師の移動情報から、事後的に板書位置を推定し、講師に隠れて見えない部分も含めて正確に板書ブロック領域を正確な時系列で再現する機能を今後付加する予定である。
上述で説明した本実施形態においては、講師に隠れて見えない板書部分が避けられないため、板書文字が書き込まれた順に正確に再現されるわけではなく、上述で説明した方法により生成したブロック単位で板書が提示される。そこで、蓄積した板書データと講師の移動情報から、事後的に板書位置を推定し、講師に隠れて見えない部分も含めて正確に板書ブロック領域を正確な時系列で再現する機能を今後付加する予定である。
Claims (7)
- 黒板への板書による講義をカメラで撮影した映像からWebコンテンツを自動生成する講義コンテンツ自動作成システムであって、
前記カメラの映像から黒板全体を含む映像を取得する黒板映像取得手段と、
前記黒板映像から黒板領域を抽出する黒板領域抽出手段と、
前記黒板領域から講師領域を抽出する講師領域抽出手段と、
前記講師領域に対応して、前記黒板映像から講師映像を切り出す講師映像生成手段と、
一定期間ごとに、前記黒板領域から該一定期間に板書の追加又は板書の消去が行なわれた板書領域を抽出する板書領域抽出手段と、
前記板書領域から板書をライン検出してベクトルデータを生成するベクトルデータ生成手段と、
前記講師映像と、仮想黒板上の該当する前記板書領域に前記ベクトルデータを表示した画像を、別々のウインドウに合成するwebコンテンツ作成手段と
を備えることを特徴とする講義コンテンツ自動作成システム。 - 請求項1に記載の講義コンテンツ自動作成システムであって、
前記黒板映像取得手段は、複数台のカメラからの映像をパノラマ合成して黒板全体を含む黒板映像を取得すること
を特徴とする講義コンテンツ自動作成システム。 - 請求項1又は2に記載の講義コンテンツ自動作成システムであって、
前記講師領域抽出手段は、前記黒板領域抽出手段により黒板映像の最初の1フレームから抽出された黒板領域と、現在の黒板領域とを比較して講師領域を抽出すること
を特徴とする講義コンテンツ自動作成システム。 - 請求項1〜3のいずれかに記載の講義コンテンツ自動作成システムであって、
前記板書領域抽出手段は、前記一定期間内に講師領域が存在した領域から現在の講師領域の位置を除いた検索領域内において、前記一定期間の直前の前記仮想黒板と比較して輝度値が高く又は低くなった領域を板書の追加又は板書の消去が行なわれた板書領域として抽出すること
を特徴とする講義コンテンツ自動作成システム。 - 請求項1〜4のいずれかに記載の講義コンテンツ自動作成システムであって、
前記ベクトルデータ生成手段は、前記板書領域が板書の追加である場合には、前記ライン検出によるライン数が一定数以上である場合にのみベクトルデータを生成すること
を特徴とする講義コンテンツ自動作成システム。 - 請求項1〜5のいずれかに記載の講義コンテンツ自動作成システムであって、
前記ベクトルデータ生成手段は、前記板書領域が板書の消去である場合には、前記ライン検出によるライン数が前記仮想黒板のライン数よりも少ない場合にのみベクトルデータを生成すること
を特徴とする講義コンテンツ自動作成システム。 - 請求項1〜6のいずれかに記載の講義コンテンツ自動作成システムの機能をコンピュータ・システムに実現させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004350190A JP2006162692A (ja) | 2004-12-02 | 2004-12-02 | 講義コンテンツ自動作成システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004350190A JP2006162692A (ja) | 2004-12-02 | 2004-12-02 | 講義コンテンツ自動作成システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006162692A true JP2006162692A (ja) | 2006-06-22 |
Family
ID=36664823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004350190A Pending JP2006162692A (ja) | 2004-12-02 | 2004-12-02 | 講義コンテンツ自動作成システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006162692A (ja) |
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006049681A1 (de) * | 2006-10-12 | 2008-04-17 | Caveh Valipour Zonooz | Aufnahmeeinrichtung zur Erstellung einer multimedialen Aufnahme einer Veranstaltung und Verfahren zur Bereitstellung einer multimedialen Aufnahme |
JP2008187566A (ja) * | 2007-01-31 | 2008-08-14 | Sanyo Electric Co Ltd | カメラ校正装置及び方法並びに車両 |
JP2008289070A (ja) * | 2007-05-21 | 2008-11-27 | Aplix Corp | ポータブル機器の画像表示方法 |
JP2009010915A (ja) * | 2007-05-31 | 2009-01-15 | Takeshi Yanagisawa | 映像表示方法及び映像システム |
JP2009104323A (ja) * | 2007-10-22 | 2009-05-14 | Alpine Electronics Inc | マッピングテーブル生成装置、車両周辺画像生成装置およびマッピングテーブル生成方法 |
JP2010118826A (ja) * | 2008-11-12 | 2010-05-27 | Seiko Epson Corp | 画像処理装置およびプログラム並びに画像処理方法 |
DE102008056917A1 (de) * | 2008-11-12 | 2010-06-02 | Universität Konstanz | Kooperationsfenster/wand |
JP2011040921A (ja) * | 2009-08-10 | 2011-02-24 | Nippon Telegr & Teleph Corp <Ntt> | コンテンツ生成装置,コンテンツ生成方法およびコンテンツ生成プログラム |
JP2011524572A (ja) * | 2008-06-14 | 2011-09-01 | マイクロソフト コーポレーション | マルチメディア会議イベント用のホワイトボード管理手法 |
US8295641B2 (en) | 2008-09-19 | 2012-10-23 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and medium storing image processing program |
JP2012213063A (ja) * | 2011-03-31 | 2012-11-01 | Nec Corp | 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム |
JP2013162341A (ja) * | 2012-02-06 | 2013-08-19 | Nippon Telegr & Teleph Corp <Ntt> | チャプタ代表画像生成装置およびその動作方法 |
JP2013162344A (ja) * | 2012-02-06 | 2013-08-19 | Nippon Telegr & Teleph Corp <Ntt> | 映像イベント検出装置およびその動作方法 |
JP5457668B2 (ja) * | 2006-04-03 | 2014-04-02 | 健 柳沢 | 映像表示方法及び映像システム |
US8737749B2 (en) | 2008-09-12 | 2014-05-27 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and medium storing image processing program |
US8761582B2 (en) | 2009-03-13 | 2014-06-24 | Ricoh Company, Limited | Video editing device and video editing system |
CN104731404A (zh) * | 2014-12-10 | 2015-06-24 | 朱云 | 新型黑板 |
JP2015141327A (ja) * | 2014-01-29 | 2015-08-03 | 株式会社ティ−・エス・シ− | 学習支援システム及び学習支援プログラム |
JP2016009266A (ja) * | 2014-06-23 | 2016-01-18 | コニカミノルタ株式会社 | 撮影システム、撮影の方法、およびコンピュータープログラム |
KR20160082291A (ko) * | 2014-12-30 | 2016-07-08 | 채수한 | 영상 처리 장치 및 영상 처리 방법 |
JP2016537903A (ja) * | 2013-08-21 | 2016-12-01 | ジョーント・インコーポレイテッドJaunt Inc. | バーチャルリアリティコンテンツのつなぎ合わせおよび認識 |
CN108389438A (zh) * | 2018-05-10 | 2018-08-10 | 科大讯飞股份有限公司 | 一种板书采集系统 |
JP2018523432A (ja) * | 2015-05-25 | 2018-08-16 | 抒一 程 | マルチユーザー会議システム |
WO2019033660A1 (zh) * | 2017-08-18 | 2019-02-21 | 广州视源电子科技股份有限公司 | 教学关联信息的确定方法、装置、教学设备及存储介质 |
WO2019087577A1 (ja) * | 2017-10-31 | 2019-05-09 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
CN111008969A (zh) * | 2019-12-06 | 2020-04-14 | 浙江蓝鸽科技有限公司 | 黑板板书提取与智能识别方法及系统 |
KR102124826B1 (ko) * | 2019-10-14 | 2020-06-19 | 주식회사 산타 | 복수의 영상들의 싱크를 컨트롤하는 방법 및 그를 이용한 장치 |
KR20200084204A (ko) * | 2019-01-02 | 2020-07-10 | 충북대학교 산학협력단 | 필기 내용을 공유하는 강의 관리 시스템 및 방법 |
KR102143756B1 (ko) * | 2019-10-14 | 2020-08-12 | 주식회사 산타 | 복수의 영상들을 편집하는 방법 및 그를 이용한 장치 |
CN112507927A (zh) * | 2020-12-16 | 2021-03-16 | 罗普特科技集团股份有限公司 | 一种板书内容自动生成方法和装置 |
CN113168675A (zh) * | 2018-12-17 | 2021-07-23 | 索尼集团公司 | 图像处理装置、图像处理方法和图像处理程序 |
CN113326813A (zh) * | 2021-07-08 | 2021-08-31 | 长春电子科技学院 | 数学课堂板书电子格式转换方法 |
KR102404925B1 (ko) * | 2021-12-14 | 2022-06-02 | 한예주 | 학습자의 온라인 교육 참여 확인을 위한 ai 멀티포커싱 시스템 및 이의 실행 방법 |
CN114694434A (zh) * | 2020-12-28 | 2022-07-01 | 康立 | 基于深度学习的视频教学课程智能生成方法及系统 |
KR102492423B1 (ko) * | 2022-03-22 | 2023-01-27 | (주)에이블소프트 | Diy 전자칠판 기반의 원격강의 제공 시스템 및 그 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002515144A (ja) * | 1994-05-10 | 2002-05-21 | モトローラ・インコーポレイテッド | 手書き入力ストローク分割方法 |
JP2003241630A (ja) * | 2001-12-11 | 2003-08-29 | Rikogaku Shinkokai | 動画配信方法、動画表示システム、教育モデル、ユーザーインターフェース、手動操作手順 |
JP2003256842A (ja) * | 2002-02-26 | 2003-09-12 | Optowave Laboratory Inc | 動体位置検出装置および方法 |
JP2004212895A (ja) * | 2003-01-08 | 2004-07-29 | Nec Corp | 教育支援システム及び方法並びに教育支援用プログラム |
JP2004260823A (ja) * | 2003-02-24 | 2004-09-16 | Microsoft Corp | リアルタイムホワイトボードストリーミングのためのシステムおよび方法 |
-
2004
- 2004-12-02 JP JP2004350190A patent/JP2006162692A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002515144A (ja) * | 1994-05-10 | 2002-05-21 | モトローラ・インコーポレイテッド | 手書き入力ストローク分割方法 |
JP2003241630A (ja) * | 2001-12-11 | 2003-08-29 | Rikogaku Shinkokai | 動画配信方法、動画表示システム、教育モデル、ユーザーインターフェース、手動操作手順 |
JP2003256842A (ja) * | 2002-02-26 | 2003-09-12 | Optowave Laboratory Inc | 動体位置検出装置および方法 |
JP2004212895A (ja) * | 2003-01-08 | 2004-07-29 | Nec Corp | 教育支援システム及び方法並びに教育支援用プログラム |
JP2004260823A (ja) * | 2003-02-24 | 2004-09-16 | Microsoft Corp | リアルタイムホワイトボードストリーミングのためのシステムおよび方法 |
Cited By (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5457668B2 (ja) * | 2006-04-03 | 2014-04-02 | 健 柳沢 | 映像表示方法及び映像システム |
DE102006049681A1 (de) * | 2006-10-12 | 2008-04-17 | Caveh Valipour Zonooz | Aufnahmeeinrichtung zur Erstellung einer multimedialen Aufnahme einer Veranstaltung und Verfahren zur Bereitstellung einer multimedialen Aufnahme |
DE102006049681B4 (de) * | 2006-10-12 | 2008-12-24 | Caveh Valipour Zonooz | Aufnahmeeinrichtung zur Erstellung einer multimedialen Aufnahme einer Veranstaltung und Verfahren zur Bereitstellung einer multimedialen Aufnahme |
JP2008187566A (ja) * | 2007-01-31 | 2008-08-14 | Sanyo Electric Co Ltd | カメラ校正装置及び方法並びに車両 |
JP2008289070A (ja) * | 2007-05-21 | 2008-11-27 | Aplix Corp | ポータブル機器の画像表示方法 |
JP2009010915A (ja) * | 2007-05-31 | 2009-01-15 | Takeshi Yanagisawa | 映像表示方法及び映像システム |
JP2009104323A (ja) * | 2007-10-22 | 2009-05-14 | Alpine Electronics Inc | マッピングテーブル生成装置、車両周辺画像生成装置およびマッピングテーブル生成方法 |
JP2011524572A (ja) * | 2008-06-14 | 2011-09-01 | マイクロソフト コーポレーション | マルチメディア会議イベント用のホワイトボード管理手法 |
US8731299B2 (en) | 2008-06-14 | 2014-05-20 | Microsoft Corporation | Techniques to manage a whiteboard for multimedia conference events |
US8737749B2 (en) | 2008-09-12 | 2014-05-27 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and medium storing image processing program |
US8295641B2 (en) | 2008-09-19 | 2012-10-23 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and medium storing image processing program |
JP2010118826A (ja) * | 2008-11-12 | 2010-05-27 | Seiko Epson Corp | 画像処理装置およびプログラム並びに画像処理方法 |
DE102008056917A1 (de) * | 2008-11-12 | 2010-06-02 | Universität Konstanz | Kooperationsfenster/wand |
US8761582B2 (en) | 2009-03-13 | 2014-06-24 | Ricoh Company, Limited | Video editing device and video editing system |
JP2011040921A (ja) * | 2009-08-10 | 2011-02-24 | Nippon Telegr & Teleph Corp <Ntt> | コンテンツ生成装置,コンテンツ生成方法およびコンテンツ生成プログラム |
JP2012213063A (ja) * | 2011-03-31 | 2012-11-01 | Nec Corp | 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム |
JP2013162341A (ja) * | 2012-02-06 | 2013-08-19 | Nippon Telegr & Teleph Corp <Ntt> | チャプタ代表画像生成装置およびその動作方法 |
JP2013162344A (ja) * | 2012-02-06 | 2013-08-19 | Nippon Telegr & Teleph Corp <Ntt> | 映像イベント検出装置およびその動作方法 |
JP2016537903A (ja) * | 2013-08-21 | 2016-12-01 | ジョーント・インコーポレイテッドJaunt Inc. | バーチャルリアリティコンテンツのつなぎ合わせおよび認識 |
JP2015141327A (ja) * | 2014-01-29 | 2015-08-03 | 株式会社ティ−・エス・シ− | 学習支援システム及び学習支援プログラム |
JP2016009266A (ja) * | 2014-06-23 | 2016-01-18 | コニカミノルタ株式会社 | 撮影システム、撮影の方法、およびコンピュータープログラム |
CN105323463A (zh) * | 2014-06-23 | 2016-02-10 | 柯尼卡美能达株式会社 | 拍摄系统以及拍摄的方法 |
CN104731404A (zh) * | 2014-12-10 | 2015-06-24 | 朱云 | 新型黑板 |
CN104731404B (zh) * | 2014-12-10 | 2018-03-06 | 朱云 | 新型黑板 |
KR101686143B1 (ko) * | 2014-12-30 | 2016-12-13 | 채수한 | 영상 처리 장치 및 영상 처리 방법 |
KR20160082291A (ko) * | 2014-12-30 | 2016-07-08 | 채수한 | 영상 처리 장치 및 영상 처리 방법 |
US10530593B2 (en) | 2015-05-25 | 2020-01-07 | Shuyi CHENG | Multi-user conferencing system |
JP2018523432A (ja) * | 2015-05-25 | 2018-08-16 | 抒一 程 | マルチユーザー会議システム |
WO2019033660A1 (zh) * | 2017-08-18 | 2019-02-21 | 广州视源电子科技股份有限公司 | 教学关联信息的确定方法、装置、教学设备及存储介质 |
US11403057B2 (en) | 2017-10-31 | 2022-08-02 | Sony Corporation | Information processing device, information processing method, and information processing program |
JPWO2019087577A1 (ja) * | 2017-10-31 | 2020-12-17 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
JP7302477B2 (ja) | 2017-10-31 | 2023-07-04 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
CN111345035A (zh) * | 2017-10-31 | 2020-06-26 | 索尼公司 | 信息处理装置、信息处理方法以及信息处理程序 |
WO2019087577A1 (ja) * | 2017-10-31 | 2019-05-09 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
CN108389438A (zh) * | 2018-05-10 | 2018-08-10 | 科大讯飞股份有限公司 | 一种板书采集系统 |
CN113168675A (zh) * | 2018-12-17 | 2021-07-23 | 索尼集团公司 | 图像处理装置、图像处理方法和图像处理程序 |
CN113168675B (zh) * | 2018-12-17 | 2023-12-05 | 索尼集团公司 | 图像处理装置、图像处理方法和图像处理程序 |
KR102192558B1 (ko) * | 2019-01-02 | 2020-12-17 | 충북대학교 산학협력단 | 필기 내용을 공유하는 강의 관리 시스템 및 방법 |
KR20200084204A (ko) * | 2019-01-02 | 2020-07-10 | 충북대학교 산학협력단 | 필기 내용을 공유하는 강의 관리 시스템 및 방법 |
KR102143756B1 (ko) * | 2019-10-14 | 2020-08-12 | 주식회사 산타 | 복수의 영상들을 편집하는 방법 및 그를 이용한 장치 |
KR102124826B1 (ko) * | 2019-10-14 | 2020-06-19 | 주식회사 산타 | 복수의 영상들의 싱크를 컨트롤하는 방법 및 그를 이용한 장치 |
CN111008969B (zh) * | 2019-12-06 | 2023-07-18 | 浙江蓝鸽科技有限公司 | 黑板板书提取与智能识别方法及系统 |
CN111008969A (zh) * | 2019-12-06 | 2020-04-14 | 浙江蓝鸽科技有限公司 | 黑板板书提取与智能识别方法及系统 |
CN112507927A (zh) * | 2020-12-16 | 2021-03-16 | 罗普特科技集团股份有限公司 | 一种板书内容自动生成方法和装置 |
CN114694434A (zh) * | 2020-12-28 | 2022-07-01 | 康立 | 基于深度学习的视频教学课程智能生成方法及系统 |
CN114694434B (zh) * | 2020-12-28 | 2023-12-01 | 康立 | 基于深度学习的视频教学课程智能生成方法及系统 |
CN113326813A (zh) * | 2021-07-08 | 2021-08-31 | 长春电子科技学院 | 数学课堂板书电子格式转换方法 |
KR102404925B1 (ko) * | 2021-12-14 | 2022-06-02 | 한예주 | 학습자의 온라인 교육 참여 확인을 위한 ai 멀티포커싱 시스템 및 이의 실행 방법 |
KR102492423B1 (ko) * | 2022-03-22 | 2023-01-27 | (주)에이블소프트 | Diy 전자칠판 기반의 원격강의 제공 시스템 및 그 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006162692A (ja) | 講義コンテンツ自動作成システム | |
CN110650368B (zh) | 视频处理方法、装置和电子设备 | |
JP6966421B2 (ja) | 角度分離されたサブシーンの合成およびスケーリング | |
US6556775B1 (en) | Image and sound reproduction system | |
US6466262B1 (en) | Digital wide camera | |
US5999641A (en) | System for manipulating digitized image objects in three dimensions | |
US7027054B1 (en) | Do-it-yourself photo realistic talking head creation system and method | |
US6724386B2 (en) | System and process for geometry replacement | |
CN111698390A (zh) | 虚拟摄像机控制方法及装置、虚拟演播厅实现方法及系统 | |
US20060165310A1 (en) | Method and apparatus for a virtual scene previewing system | |
US20070122786A1 (en) | Video karaoke system | |
WO2008156437A1 (en) | Do-it-yourself photo realistic talking head creation system and method | |
CN105376547A (zh) | 一种基于3d虚拟合成技术的微课录制系统及方法 | |
KR102186607B1 (ko) | 증강현실을 통한 발레 공연 시스템 및 방법 | |
CN114327700A (zh) | 一种虚拟现实设备及截屏图片播放方法 | |
US11335039B2 (en) | Correlation of multiple-source image data | |
KR100901111B1 (ko) | 삼차원 가상 공간 콘텐츠를 이용한 영상제공시스템 | |
CN108391077A (zh) | 一种简易精品课程视频自动拍摄录制装置 | |
CN115118880A (zh) | 一种基于沉浸式视频终端搭建的xr虚拟拍摄系统 | |
CN112675527A (zh) | 一种基于vr技术的家庭教育游戏系统及方法 | |
WO1996025710A1 (en) | Multiple camera system for synchronous image recording from multiple viewpoints | |
Kuchelmeister et al. | Affect and place representation in immersive media: The Parragirls Past, Present project | |
CN113507575B (zh) | 一种人体自拍镜头生成方法及系统 | |
CN116778121A (zh) | 一种虚拟屏幕书写操控合成系统及方法 | |
JP2002223405A (ja) | 映像記録再生装置、及び映像記録再生プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100126 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100615 |