JP2008010966A - Moving picture generation system and method - Google Patents
Moving picture generation system and method Download PDFInfo
- Publication number
- JP2008010966A JP2008010966A JP2006176937A JP2006176937A JP2008010966A JP 2008010966 A JP2008010966 A JP 2008010966A JP 2006176937 A JP2006176937 A JP 2006176937A JP 2006176937 A JP2006176937 A JP 2006176937A JP 2008010966 A JP2008010966 A JP 2008010966A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- video
- moving
- music
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
Description
本発明は、様々な動作を行うことが可能であると共に見る位置を自在に変更できる三次元的な人体画像等を含む動画に、実際に撮影した被写体の画像を合成して合成動画を生成する動画生成システム、及び動画生成方法に関する。 The present invention generates a synthesized moving image by synthesizing an actually photographed subject image with a moving image including a three-dimensional human body image that can perform various operations and can freely change the viewing position. The present invention relates to a moving image generation system and a moving image generation method.
従来、モーションキャプチャ技術を用いて三次元的な動画を作成することが行われている(特許文献1参照)。モーションキャプチャとは、人体の所要箇所にデータ取得対象となるマーカを複数取り付けた状態で、その人にダンス及びスポーツ等の動きを行ってもらうことにより、三次元座標系におけるマーカを付した箇所の座標値及び角度を表すモーションデータ(姿勢情報)を取得するものである。 Conventionally, a three-dimensional moving image is created using a motion capture technique (see Patent Document 1). Motion capture is a process of attaching a marker in a 3D coordinate system by attaching a plurality of markers for data acquisition to the required part of the human body and having the person perform movements such as dance and sports. Motion data (posture information) representing coordinate values and angles is acquired.
このように取得されたモーションデータを利用して人体を表す動体(人体を模した形態の三次元的な人体画像)を作成すれば、その動体がモーションデータに基づいた姿勢で様々な動作を行う内容の動画を作成できる。また、モーションデータに基づく動画は、動体を見る位置を様々に規定することで、動体を見る向きを自在に変更でき、例えば、動体を真正面から見た状態で動画を生成すること、動体を斜め上から見た状態で動画を生成することなども行える。 If a motion object (three-dimensional human body image imitating a human body) representing a human body is created using the motion data acquired in this way, the motion object performs various operations with postures based on the motion data. You can create a video of the content. In addition, moving images based on motion data can freely change the direction in which the moving object is viewed by prescribing the position where the moving object is viewed, for example, generating a moving image when the moving object is viewed from the front, You can also create a video as seen from above.
一方、上述したモーションキャプチャ技術を用いた内容とは別に、撮影した被写体を含む映像(実写映像)から被写体の画像のみを抽出し、その抽出した被写体画像を、別の画像に合成することが従来から行われている。例えば、実写映像から被写体画像のみを抽出する方法として、クロマキー(chroma key)法、ロートスコーピング(roto scoping)法、ディファレンスマッチング(difference matting)法などがある。 On the other hand, apart from the contents using the motion capture technology described above, it has been conventionally possible to extract only the image of the subject from the video including the photographed subject (actual video) and synthesize the extracted subject image with another image. It is made from. For example, there are a chroma key method, a roto scoping method, a difference matting method and the like as a method for extracting only a subject image from a live-action video.
また、上述した方法を利用して抽出された被写体の画像の合成対象となる別の画像としては、予め準備された静止画、動画以外にも、随時生成される画像を対象にしているものもある。例えば、特許文献2では、画像合成を行う処理部に加えて、歌い手を撮影するビデオカメラを設け、ビデオカメラで撮影した歌い手の映像に基づく検出結果に対応してグラフィック映像(例えば、風船が飛び交う映像)が生成され、このグラフィック映像にビデオカメラで撮影した歌い手の映像を合成することが開示されている。なお、特許文献2では、ビデオカメラで撮影する歌い手の動作を検出し、例えば、歌い手の右手がグラフィック映像の風船に触れた時は、合成対象のグラフィック映像を変化させることも記載されている。
Further, as another image to be combined with the image of the subject extracted using the above-described method, there are images that are generated at any time other than previously prepared still images and moving images. is there. For example, in
また、特許文献3では、画像合成を行う処理部と、役者を撮影するカメラを設けると共に、予め蓄積されたCG(コンピュータグラフィックス)キャラクタの三次元モデルデータを元に、操作者がCG操作部で入力したCG動き情報を付加して3次元CGデータを生成し、この生成した3次元CGデータに、カメラで撮影した役者の映像を三次元的に合成することが開示されている。なお、特許文献3では、合成した映像を表示する際、CG操作部の操作者が分かり易いように、その操作者の視点(つまりCGのキャラクタの視点)から見えるであろう仮想的な映像を提示することが記載されている。
特許文献2に記載された内容は、撮影画像の合成対象となるグラフィック映像は、二次元的なものであるため、合成された映像に三次元的な奥行き、及び三次元的な映像の変化を表現できないと云う問題がある。
The content described in
また、特許文献3に記載された内容は、操作者の入力によるCG動き情報を付加して3次元CGデータを生成するため、3次元CGデータを見る方向を変更できず、画一的なアングルの3次元CGデータを撮影映像に合成するに留まり、合成された映像に含まれる3次元CGデータに対するアングル変化が乏しく、ユーザが飽きやすい内容になると云う問題がある。 Also, the content described in Patent Document 3 is that the CG motion information input by the operator is added to generate 3D CG data, and the viewing direction of 3D CG data cannot be changed. However, there is a problem that the angle change with respect to the 3D CG data included in the synthesized video is scarce and the user is easily bored.
本発明は、斯かる事情に鑑みてなされたものであり、動体を見る方向が変更可能な動画を、撮影した被写体の画像の合成対象にすることで、アングル変化が多彩な合成画像を生成できる動画生成システム、及び動画生成方法を提供することを目的とする。
また、本発明は、動体を見る位置を様々な条件に基づき変更することで毎回、画像内容が多様に変化する合成画像を生成できる動画生成システムを提供することを目的とする。
さらに、本発明は、生成する合成画像をカラオケと組み合わせること、合成画像を記憶媒体に記憶可能にすること、及び合成画像をネットワークを通じて配信可能にすることにより、生成した合成画像の利用範囲を広げられるようにした動画生成システムを提供することを目的とする。
The present invention has been made in view of such circumstances, and by generating a moving image in which the moving object viewing direction can be changed as a composition target of the captured subject image, it is possible to generate a composite image with various angle changes. It is an object to provide a moving image generation system and a moving image generation method.
Another object of the present invention is to provide a moving image generation system that can generate a composite image in which the image content changes variously every time the position where the moving object is viewed is changed based on various conditions.
Furthermore, the present invention expands the range of use of the generated composite image by combining the generated composite image with karaoke, enabling the composite image to be stored in a storage medium, and enabling the composite image to be distributed over a network. An object of the present invention is to provide a moving image generation system that can be used.
上記課題を解決するために本発明に係る動画生成システムは、動体の三次元座標系での姿勢を単位時間ごとに規定する姿勢情報、及び動体を見る位置を規定する視点情報に基づいて姿勢及び視点が特定された動体を含む動画を生成する動画生成手段を備える動画生成システムにおいて、被写体を撮影する撮影手段と、該撮影手段が撮影した映像中に含まれる被写体画像を抽出する画像抽出手段と、該画像抽出手段が抽出した被写体画像を、前記動画生成手段が生成した動画に合成して合成動画を生成する合成動画生成手段とを備えることを特徴とする。
また、本発明に係る動画生成方法は、動画生成システムが、動体の三次元座標系での姿勢を単位時間ごとに規定する姿勢情報、及び動体を見る位置を規定する視点情報に基づいて姿勢及び視点が特定された動体を含む動画を生成する動画生成方法において、前記動画生成システムは、被写体を撮影し、撮影した映像中に含まれる被写体画像を抽出し、抽出した被写体画像を、前記動画に合成して合成動画を生成することを特徴とする。
In order to solve the above problems, the moving image generating system according to the present invention includes a posture based on posture information that defines a posture of a moving object in a three-dimensional coordinate system for each unit time, and viewpoint information that defines a position where the moving object is viewed. In a moving image generation system including a moving image generation unit that generates a moving image including a moving object with a specified viewpoint, an imaging unit that captures a subject, and an image extraction unit that extracts a subject image included in a video captured by the imaging unit And a synthesized moving picture generating means for generating a synthesized moving picture by synthesizing the subject image extracted by the image extracting means with the moving picture generated by the moving picture generating means.
In addition, the moving image generation method according to the present invention includes a moving image generation system based on posture information that defines a posture of a moving object in a three-dimensional coordinate system for each unit time and viewpoint information that defines a position where the moving object is viewed. In the moving image generation method for generating a moving image including a moving object with a specified viewpoint, the moving image generation system captures a subject, extracts a subject image included in the captured video, and converts the extracted subject image into the moving image. A synthesized moving image is generated by synthesis.
本発明にあっては、撮影した映像から抽出した被写体画像を、姿勢情報及び視点情報を利用して三次元的な形態が特定された動体を含む動画に合成するので、合成動画に表れる動体を見る方向が様々に変化自在となる。その結果、アングル変化が多彩な合成画像を生成でき、様々な用途に適用可能な合成画像を各種ユーザに提供できる。特に、撮影手段の被写体としてユーザを撮影することで、視点変更が可能な動体を含む動画中にユーザを登場させて新たなアミューズメントサービスを実現できる。 In the present invention, the subject image extracted from the captured video is synthesized into a moving image including a moving object whose three-dimensional form is specified using posture information and viewpoint information. The viewing direction can be changed in various ways. As a result, a composite image with various angle changes can be generated, and a composite image applicable to various uses can be provided to various users. In particular, by photographing the user as the subject of the photographing means, it is possible to realize a new amusement service by allowing the user to appear in a moving image including a moving object whose viewpoint can be changed.
本発明に係る動画生成システムは、楽曲を取得する楽曲取得手段と、該楽曲取得手段が取得した楽曲の再生処理を行う楽曲再生手段と、該楽曲再生手段の再生処理に合わせて、前記合成動画の表示処理を行う表示処理手段とを備えることを特徴とする。 The video generation system according to the present invention includes a music acquisition unit that acquires music, a music playback unit that performs playback processing of the music acquired by the music acquisition unit, and the synthetic video according to the playback processing of the music playback unit. And display processing means for performing the display processing.
本発明にあっては、取得した楽曲の再生処理に合わせて、生成した合成動画の表示処理を行うことで、多彩な動きを行うと共にアングルを自由に変更できる動体を含む合成動画を楽曲の進行に合わせて表示でき、聴覚及び視覚の両面でユーザを楽しませることができる。 In the present invention, by performing display processing of the generated composite video in accordance with the playback processing of the acquired music, a composite video including a moving body that can perform various movements and change the angle freely can be processed. The user can be entertained in both hearing and vision.
また、本発明に係る動画生成システムは、前記楽曲取得手段は、歌詞を表す文字が付帯された楽曲を取得するようにしてあり、前記楽曲に付帯された文字を、前記合成動画に合成する文字合成手段を備え、前記表示処理手段は、前記文字合成手段により文字が合成された合成動画の表示処理を行うことを特徴とする。 Further, in the moving image generating system according to the present invention, the music acquisition means is configured to acquire a music accompanied by a character representing lyrics, and a character that combines the character attached to the music with the synthesized moving image. The image processing apparatus includes a composing unit, and the display processing unit performs display processing of a synthesized moving image in which characters are synthesized by the character synthesizing unit.
本発明にあっては、楽曲に付帯された歌詞を表す文字を合成動画に合成して表示処理を行うので、カラオケに好適なシステムを提供できる。即ち、合成動画には歌詞のテロップ(文字)が表示されるので、ユーザはテロップを参照して歌うことができ、特に、撮影手段で歌うユーザを撮影すると共に、動画に含まれる動体をバックダンサーを模した人体画像にすれば、まるで多彩な動きをするバックダンサーを引き連れた歌手の状況を擬似的にユーザは体験可能となり、さらに、カラオケ曲に合わせて振りの動作を行えば、自身の振りも合成動画を見ることで確認でき、カラオケにユーザを楽しませる新たな機能を付加できる。さらに、本発明をカラオケに適用した場合、歌うユーザ以外に、表示する合成動画を見るユーザも歌っている人(ユーザ)が映り込んだ表示を見て楽しむことができ、歌うユーザと、見るユーザの連帯感(一体感)を高めることができる。 In the present invention, a character suitable for karaoke can be provided because the character representing the lyrics attached to the music is combined with the synthesized moving image and displayed. That is, since the telop (characters) of the lyrics is displayed in the synthesized video, the user can sing with reference to the telop. In particular, the user shoots the user singing with the shooting means and moves the moving object included in the video as a back dancer. If you create a human body image that mimics the situation, the user will be able to experience the situation of a singer with a back dancer that makes various movements. Can also be confirmed by watching the synthesized video, and can add new functions to entertain users in karaoke. Furthermore, when the present invention is applied to karaoke, in addition to the user who sings, the user who sees the composite video to be displayed can also enjoy watching the display reflected by the person (user) who is singing, and the user who sings and the user who watches Can enhance the sense of solidarity.
さらに、本発明に係る動画生成システムは、前記楽曲取得手段は、複数の視点情報が楽曲進行順に付帯された楽曲を取得するようにしており、前記動画生成手段は、前記楽曲再生手段の再生処理の進行時点に応じた視点情報に基づいて動画を生成することを特徴とする。 Furthermore, in the moving image generation system according to the present invention, the music acquisition unit acquires a piece of music in which a plurality of viewpoint information is attached in the order of music progression, and the moving image generation unit is a reproduction process of the music reproduction unit. The moving image is generated based on the viewpoint information corresponding to the progress time of.
本発明にあっては、複数の視点情報が楽曲進行順に付帯された楽曲の再生処理を行い、再生処理の進行時点に応じた視点情報に基づき動画を生成するので、表示処理が行われる合成動画中の動体を見る位置が楽曲の再生処理の進行に伴い変化するようになる。そのため、楽曲の再生処理にリンクした合成動画中の動体のアングル変化をユーザは楽しめることができる。 According to the present invention, a music reproduction process in which a plurality of viewpoint information is added in the order of music progression is performed, and a moving image is generated based on the viewpoint information corresponding to the point in time of the reproduction processing, so that a synthetic video in which display processing is performed The position where the moving object is viewed changes as the music playback process proceeds. Therefore, the user can enjoy the change in the angle of the moving object in the synthesized moving image linked to the music reproduction process.
さらにまた、本発明に係る動画生成システムは、複数の視点情報の中から1つの視点情報をランダムに選択する選択手段を備え、前記動画生成手段は、選択された視点情報に基づいて動画を生成することを特徴とする。 Furthermore, the moving image generation system according to the present invention includes a selection unit that randomly selects one viewpoint information from a plurality of viewpoint information, and the moving image generation unit generates a moving image based on the selected viewpoint information. It is characterized by doing.
本発明にあっては、複数の視点情報の中からランダムに視点情報を選択して、その視点情報に基づいて動画を生成するので、ランダムに動体を見る位置が様々に変化する合成動画を生成でき、動体の視点変化が多様な合成動画をユーザに提供できる。 In the present invention, since viewpoint information is randomly selected from a plurality of viewpoint information, and a moving image is generated based on the viewpoint information, a synthetic moving image in which the position where the moving object is viewed varies randomly is generated. It is possible to provide a user with a composite video with various viewpoint changes of moving objects.
また、本発明に係る動画生成システムは、前記撮影手段が撮影した映像中に含まれる被写体画像の位置を検出する画像位置検出手段と、映像中の各位置、及び複数の視点情報をそれぞれ対応付けた位置対応テーブルと、前記画像位置検出手段が検出した位置に対応する視点情報を、前記位置対応テーブルから選択する手段とを備え、前記動画生成手段は、前記位置対応テーブルから選択された視点情報に基づいて動画を生成することを特徴とする。 Also, the moving image generating system according to the present invention associates the image position detecting means for detecting the position of the subject image included in the video imaged by the imaging means with each position in the video and a plurality of viewpoint information. A position correspondence table; and means for selecting viewpoint information corresponding to the position detected by the image position detection means from the position correspondence table, wherein the moving image generation means is the viewpoint information selected from the position correspondence table. A moving image is generated based on the above.
本発明にあっては、撮影した映像中の被写体画像の位置に基づいて、動体を見る位置が変化する動画を生成するので、合成画像中の動体のアングルも被写体の位置に応じて変動し、被写体の位置変化に連動して動体のアングルが変化する合成動画を得られる。よって、被写体がユーザであれば、ユーザは積極的に移動すれば、合成動画中の動体のアングルを変化させることが可能となる。そのため、ユーザは、自らが撮影映像中に映り込む位置をコントロールすることで動体のアングルを自在に制御できる。なお、動体を見る位置の変更は、最適な構図の合成動画を得る観点より、検出された被写体画像の位置を参考にして、被写体画像と重ならない状況へ変更することが好ましい。 In the present invention, based on the position of the subject image in the captured video, a moving image in which the position where the moving object is viewed changes is generated, so the angle of the moving object in the composite image also varies depending on the position of the subject, A composite video in which the angle of the moving object changes in conjunction with a change in the position of the subject can be obtained. Therefore, if the subject is a user, if the user actively moves, the angle of the moving object in the synthesized moving image can be changed. Therefore, the user can freely control the angle of the moving object by controlling the position where the user reflects in the captured video. Note that it is preferable to change the position where the moving object is viewed from the viewpoint of obtaining a synthesized moving image having an optimal composition, with reference to the position of the detected subject image so as not to overlap the subject image.
さらに、本発明に係る動画生成システムは、前記撮影手段が撮影した映像中の被写体画像の動作を検出する動作検出手段と、被写体画像に係る各動作、及び複数の視点情報をそれぞれ対応付けた動作対応テーブルと、前記動作検出手段が検出した動作に対応する視点情報を、前記動作対応テーブルから選択する手段とを備え、前記動画生成手段は、前記動作対応テーブルから選択された視点情報に基づいて動画を生成することを特徴とする。 Furthermore, the moving image generation system according to the present invention is an operation in which the motion detection unit that detects the motion of the subject image in the video captured by the capturing unit, the motions related to the subject image, and the motions associated with the plurality of viewpoint information, respectively. A correspondence table; and means for selecting viewpoint information corresponding to the motion detected by the motion detection means from the motion correspondence table, wherein the moving image generation means is based on the viewpoint information selected from the motion correspondence table. It is characterized by generating a moving image.
本発明にあっては、撮影した映像中の被写体画像の動作に基づいて、動体を見る位置が変化する動画を生成するので、合成動画中の動体のアングルも被写体の動作に連動して変化するようになる。そのため、被写体がユーザであれば、ユーザは自らの動きにより合成動画中のアングルをコントロール可能となり、合成動画のサービスにおいてユーザを楽しませる新たな機能を追加できる。 In the present invention, a moving image in which the position where the moving object is viewed changes is generated based on the operation of the subject image in the captured video, so the angle of the moving object in the synthesized moving image also changes in conjunction with the operation of the subject. It becomes like this. Therefore, if the subject is a user, the user can control the angle in the synthesized moving image by his / her movement, and can add a new function to entertain the user in the synthesized moving image service.
さらにまた、本発明に係る動画生成システムは、前記姿勢情報には、複数の動体に係る三次元座標系の姿勢が規定してあり、前記動画生成手段は、前記姿勢情報に基づいて複数の動体を含む動画を生成することを特徴とする。 Furthermore, in the moving image generating system according to the present invention, the posture information defines a posture of a three-dimensional coordinate system related to a plurality of moving objects, and the moving image generating unit is configured to generate a plurality of moving objects based on the posture information. It is characterized by producing | generating the moving image containing.
本発明にあっては、姿勢情報が複数の動体に係る姿勢を規定するので、複数の動体を含む動画が生成されるようになり、合成動画中の動体数を豊富にして、よりダイナミックな内容の動画をユーザに提供可能となる。例えば、本発明をカラオケに適用して被写体としてユーザを撮影すると共に、動体をバックダンサーを模した人体画像にすれば、ユーザは複数のバックダンサーに囲まれて歌う雰囲気を擬似的に楽しむことが可能となり、カラオケの楽しさを高められる。 In the present invention, since the posture information defines postures related to a plurality of moving objects, a moving image including a plurality of moving objects is generated, and the number of moving objects in the composite moving image is abundant and more dynamic content is generated. Can be provided to the user. For example, when the present invention is applied to karaoke and a user is photographed as a subject, and the moving body is a human body image that imitates a back dancer, the user can enjoy a singing atmosphere surrounded by a plurality of back dancers. It becomes possible and can enhance the fun of karaoke.
また、本発明に係る動画生成システムは、背景の三次元座標系での位置を規定した背景情報を記憶する手段を備え、前記動画生成手段は、記憶された背景情報に基づいて背景を含む動画を生成することを特徴とする。 In addition, the moving image generating system according to the present invention includes means for storing background information that defines the position of the background in the three-dimensional coordinate system, and the moving image generating means includes a moving image including a background based on the stored background information. Is generated.
本発明にあっては、動体に加えて、背景を含む動画を生成するので、合成動画中には背景も追加されるようになり、合成動画の内容を詳細にしてユーザの目を楽しませることができる。特に、本発明をカラオケに適用して被写体としてユーザを撮影し、動体をバックダンサーを模した人体画像にすると共に、背景をステージにすれば、ユーザはステージ上でバックダンサーを従えて歌う雰囲気を擬似的に楽しむことが可能となり、カラオケの楽しさを視覚的に一段と向上できる。 In the present invention, in addition to moving objects, a moving image including a background is generated, so a background is also added to the synthesized moving image, and the details of the synthesized moving image are detailed to entertain the user's eyes. Can do. In particular, when the present invention is applied to karaoke and a user is photographed as a subject, the moving body is a human body image simulating a back dancer, and the background is a stage, the user can sing along with the back dancer on the stage. It becomes possible to enjoy in a pseudo manner, and the joy of karaoke can be further improved visually.
さらに、本発明に係る動画生成システムは、前記合成動画生成手段が生成した合成動画を記憶媒体に記憶する処理を行う記憶処理手段を備えることを特徴とする。 Furthermore, the moving image generating system according to the present invention is characterized by comprising storage processing means for performing processing for storing the synthesized moving image generated by the synthesized moving image generating means in a storage medium.
本発明にあっては、生成した合成動画を記憶媒体に記憶できるので、例えば、ユーザ自身が登場する合成動画をDVD等の着脱式の記憶媒体に記憶して、その記憶媒体を再生すれば、擬似的な体験を家庭でも楽しめるようになり、結婚式の二次会、同窓会、各種オーディション等の多様なイベントで利用可能なサービスを提供できる。 In the present invention, since the generated composite video can be stored in a storage medium, for example, if the composite video that the user himself appears is stored in a removable storage medium such as a DVD, and the storage medium is reproduced, You can enjoy a simulated experience at home, and can provide services that can be used at various events such as wedding reunions, alumni associations, and various auditions.
さらにまた、本発明に係る動画生成システムは、ネットワークを通じて送信された動画要求信号を受信する受信手段と、該受信手段が動画要求信号を受信した場合、該動画要求信号の送信元へ動画を送信する動画送信手段とを備え、前記動画送信手段は、前記合成動画生成手段が生成した合成動画を送信することを特徴とする。 Furthermore, the moving image generation system according to the present invention receives a moving image request signal transmitted through a network, and transmits a moving image to a transmission source of the moving image request signal when the receiving unit receives the moving image request signal. Moving image transmitting means for transmitting the synthesized moving image generated by the synthesized moving image generating means.
本発明にあっては、生成した合成動画をネットワークを通じて、要求するユーザの元へ配信可能となるので、合成動画をネットワークを利用して広く配布可能となり、生成した合成動画の利用範囲を広げられる。 In the present invention, since the generated synthesized video can be distributed to the requesting user via the network, the synthesized video can be widely distributed using the network, and the usage range of the generated synthesized video can be expanded. .
本発明にあっては、撮影した映像から抽出した被写体画像を、姿勢情報に加えて視点情報も利用して三次元的な状態が特定される動体を含む動画に合成するので、生成された合成動画に含まれる動体の見る方向を変更でき、合成動画中の動体の見る方向を変えて多様な表現形態で毎回、ユーザの目を楽しませることができる。 In the present invention, the subject image extracted from the captured video is synthesized into a moving image including a moving object whose three-dimensional state is specified using viewpoint information in addition to posture information. The viewing direction of the moving object included in the moving image can be changed, and the viewing direction of the moving object in the synthesized moving image can be changed to entertain the user's eyes every time in various expression forms.
また、本発明にあっては、取得した楽曲の再生処理に合わせて、生成した合成動画の表示処理を行うことで、楽曲の進行に会わせて動体を見るアングルが変化する合成動画をユーザに表示でき、聴覚及び視覚の両面でユーザに楽しさを提供できる。 In addition, in the present invention, by performing display processing of the generated composite video in accordance with the playback processing of the acquired music, a composite video in which the angle at which the moving object is viewed changes according to the progress of the music is displayed to the user. It can be displayed, and enjoyment can be provided to the user in both auditory and visual senses.
さらに、本発明にあっては、楽曲に付帯された歌詞を表す文字を合成動画に合成して表示処理を行うので、動体の見る方向が様々に変化可能な合成動画中に歌詞を表示して、カラオケに好適なシステムを実現でき、カラオケを歌うユーザは擬似的なステージ体験を楽しめると共に、表示された合成動画を見るユーザには知人、友人等が画面中に登場する表示内容を楽しめる。
さらにまた、本発明にあっては、複数の視点情報が付帯した楽曲を用いるので、楽曲の再生処理の進行時点に応じて合成動画中の動体を見る位置の変化を行い、楽曲のイントロ、盛り上がり箇所など楽曲の再生状況にマッチした表示内容でユーザを楽しませることができる。
Furthermore, in the present invention, since the character representing the lyrics attached to the music is combined with the composite video and the display processing is performed, the lyrics are displayed in the composite video in which the moving direction of the moving object can be changed variously. A system suitable for karaoke can be realized, and a user who sings karaoke can enjoy a pseudo stage experience, and a user who sees the displayed synthesized video can enjoy display contents that acquaintances, friends, etc. appear on the screen.
Furthermore, in the present invention, since the music with a plurality of viewpoint information is used, the position of viewing the moving object in the synthesized video is changed according to the progress of the music playback process, and the music intro and excitement The user can be entertained with the display content that matches the playback status of the music such as the location.
また、本発明にあっては、見る位置の規定がそれぞれ異なる複数の視点情報の中からランダムに視点情報を選択して、その視点情報に基づいて動画を生成するので、動体を見る位置が毎回変化して飽きが来ない合成動画をユーザに提供できる。 In the present invention, viewpoint information is randomly selected from a plurality of viewpoint information with different viewing positions, and a moving image is generated based on the viewpoint information. It is possible to provide the user with a synthetic video that does not get tired of changes.
さらに、本発明にあっては、撮影した映像中の被写体画像の位置に基づいて、合成動画中の動体を見る位置を変化でき、撮影の被写体となるユーザに対して、撮影される位置を変えることで動体の位置が制御可能なシステムを実現できる。
さらにまた、本発明にあっては、撮影した映像中の被写体画像の動作に基づいて、合成動画中の動体を見る位置を変化でき、撮影の被写体となるユーザに対して、撮影中の動作を変えることで動体の位置が制御可能なシステムを実現できる。
Furthermore, according to the present invention, the position where the moving object in the synthesized moving image is viewed can be changed based on the position of the subject image in the shot video, and the position where the shot is taken can be changed for the user who is the shooting subject. Thus, a system capable of controlling the position of the moving object can be realized.
Furthermore, in the present invention, based on the operation of the subject image in the captured video, the position of viewing the moving object in the composite video can be changed, and the operation during the shooting is performed for the user who is the subject of the shooting. A system that can control the position of the moving object can be realized by changing it.
本発明にあっては、姿勢情報が複数の動体に係る姿勢を規定するので、複数の動体のアングルが変化するダイナミックな動きの合成動画をユーザに提供できる。
また、本発明にあっては、動体の他に背景を含む動画を生成するので、合成動画中に視点位置の変更が可能な動体及び背景が登場し、一段と多様な三次元内容の合成動画を作成できる。
In the present invention, since the posture information defines postures related to a plurality of moving objects, it is possible to provide the user with a dynamic motion synthesized moving image in which the angles of the plurality of moving objects change.
In the present invention, since a moving image including a background in addition to a moving object is generated, moving objects and backgrounds whose viewpoint position can be changed appear in the combined moving image, and a combined moving image having a more various three-dimensional content is displayed. Can be created.
本発明にあっては、生成した合成動画を記憶媒体に記憶するので、その記憶媒体を介して多くの人に生成した合成動画を見てもらう機会を提供できる。
また、本発明にあっては、生成した合成動画をネットワークを通じて、要求するユーザの元へ配信可能となるので、ネットワークを利用して多くの人に合成動画を容易に見てもらう機会を提供できる。
In the present invention, since the generated synthesized moving image is stored in the storage medium, it is possible to provide an opportunity for many people to see the generated synthesized movie through the storage medium.
Further, in the present invention, since the generated synthesized video can be distributed to the requesting user via the network, it is possible to provide an opportunity for many people to easily see the synthesized video using the network. .
図1は、本発明の第1実施形態に係る動画生成システム10を適用したカラオケシステム1の全体的な構成を示している。カラオケシステム1は、本発明の動画生成システム10を用いることで、カラオケ楽曲を歌うユーザUが登場する合成動画を生成して大型ディスプレイ2に表示し、ユーザUには、多様な動きを行う3人のバックダンサー15a〜15cを前にして歌う状況を擬似的に体験可能にすると共に、周囲のユーザには、歌うユーザUのパフォーマンスを楽しめるようにして、カラオケの新たな楽しさを歌う人、見る人の両方に提供できることが特徴になっている。
FIG. 1 shows an overall configuration of a
第1実施形態のカラオケシステム1は、ユーザUを撮影した被写体画像を取り込むために、クロマキー法を採用しており、カラオケの楽曲を歌うユーザUが位置する場所の背部及び周囲に、青色の壁部材6を設けている。なお、カラオケシステム1は、歌うユーザUが歌詞及び自身の撮影画像等を確認するためのサブディスプレイ4を、壁部材6に対向するよう配置している。また、カラオケシステム1は、カラオケ楽曲の配信を行うカラオケ楽曲サーバ5をネットワークNWを通じて動画生成システム10に接続し、さらに生成した合成動画及びユーザUの歌唱を、周囲のユーザが確認できるように大型ディスプレイ2及び左右スピーカ3a、3bを設けている。
The
カラオケシステム1に適用された本実施形態の動画生成システム10は図1中、波線で囲まれた範囲に該当し、カメラ装置11、クロマキー装置20、3D動画生成装置30、分配装置40、カラオケ装置41、記憶装置44、及び3D動画配信サーバ45を含んでいる。なお、動画生成システム10において、必須となるのはカメラ装置11、クロマキー装置20、及び3D動画生成装置30であり、その他の部分(分配装置40、カラオケ装置41等)は適用対象のサービスの種類に応じてオプション的に追加される周辺装置に該当する。
A moving
よって、第1実施形態の動画生成システム10は、カラオケシステム1に適用されることから、分配装置40及びカラオケ装置41を有し、さらに、生成した合成動画を記憶媒体(DVD)に記憶可能にすると共に、ネットワークNWを通じて配信可能にするため、記憶装置44及び3D動画配信サーバ45を設けている。以下、動画生成システム10が有する各装置11、20等について、追加した周辺装置(分配装置40及びカラオケ装置41等)から説明する。
Therefore, since the moving
分配装置40は、クロマキー装置20で生成された合成動画を分配して複数の分配先へ送る処理を行うものである。具体的には、第3ビデオ線V3でクロマキー装置20から受け取る合成動画を、第4ビデオ線V4を通じて大型ディスプレイ2へ送ると共に、第5ビデオ線V5を通じてカラオケ装置41へ送る処理を行う。
The
図2は、カラオケ装置41の内部構成を示すブロック図である。カラオケ装置41は内部バス41iを介して、各種制御を行う制御部41a、通信処理部41b、カラオケ楽曲処理部41c、楽曲再生処理部41d、メモリ部41e、テロップ合成部41f、入出力インタフェース41g、及び赤外光受光部41hを接続した構成にしている。
FIG. 2 is a block diagram showing the internal configuration of the
通信処理部41bは楽曲取得手段に相当し、ネットワークNWを介してカラオケ楽曲サーバ5と繋がっており、制御部41aの制御指示に基づきカラオケ楽曲サーバ5へユーザが指定するカラオケ楽曲の要求信号を送信する。カラオケ楽曲サーバ5は、要求信号の受信に伴って指定されたカラオケ楽曲を送信するようになっており、通信処理部41bは、カラオケ楽曲サーバ5から送信されたカラオケ楽曲を受信して取得する。なお、カラオケ楽曲サーバ5が配信するカラオケ楽曲は、音楽に関する楽曲データに、歌詞を表す文字データ(テロップ)が付帯されたものになっている。
The
さらに、本実施形態では、通信処理部41bは、後述する音声合成部42aでカラオケ楽曲とユーザ音声が合成された合成音の音ファイル及びテロップ合成部41fでテロップが合成された合成動画の動画ファイルをメモリ部41eから読み出して、両者を関連づけて3D動画配信サーバ45へネットワークNWを通じてアップロード(送信)する処理も行う。このようなアップロード処理は、制御部41aの制御指示に基づいて行われており、アップロードされる際には、日付、及びカラオケが行われた場所の情報(例えば、カラオケ店の名称)等が付加されたファイル形式で送信される。
Furthermore, in the present embodiment, the
また、カラオケ楽曲処理部41cは、通信処理部41bで取得されたカラオケ楽曲を、楽曲データと、文字データに分離して、楽曲データを楽曲再生処理部41dに送ると共に、文字データをテロップ合成部41fに送る処理を行う。
The karaoke
楽曲再生処理部41dは楽曲再生手段に相当し、楽曲データの再生処理を順次行って再生した楽曲音を音声合成部42aに送る。音声合成部42aには、第1音声ケーブルA1が繋がったマイク音声入力部42bが受け付けるカラオケ楽曲を歌うユーザUのユーザ音声も送られており、音声合成部42aは、再生された楽曲音とユーザ音声を合成する処理を行い、合成音を増幅部42cへ送ると共に、第2音声ケーブルA2を通じて記憶装置44へも送るようにしている。さらに、音声合成部42aは合成音を、アップロード用の音ファイルにしてメモリ部41eへ送る処理も行っている。なお、増幅部42cは、合成音を増幅して第3音声ケーブルA3を通じて左右スピーカ3a、3bから出力する。
The music
一方、テロップ合成部41fは文字合成手段に相当し、動画入力部42dと接続されている。動画入力部42は第5ビデオ線V5を通じて、後述するクロマキー装置20で生成された合成動画を取得しており、取得した合成動画をテロップ合成部41fへ送る処理を行う。よって、テロップ合成部41fは送られた合成動画を受け取ると、その合成動画にカラオケ楽曲のテロップを合成する処理を行い、テロップを合成した合成動画(図16参照)を動画インタフェース部42eへ送る。なお、テロップ合成部41fも、合成処理を行った合成動画を、アップロード用の動画ファイルとしてメモリ部41eに送る処理を行う。
On the other hand, the
また、動画インタフェース部42eは表示処理手段に相当し、受け取った合成動画を表示用のデータ(データ信号及び走査信号)に変換して、所定のタイミングで第6ビデオ線V6を通じてサブディスプレイ4へ送る処理を行う。動画インタフェース部42eでの上述した表示処理のタイミングは制御部41aにより、楽曲再生処理部41dにおける再生処理と同期が取られており、楽曲の再生状況に合ったタイミングで、図16に示すようなカラオケ楽曲のテロップ付きの合成動画が表示されるように表示処理が行われる。なお、動画インタフェース部42eは、音声合成部41aが第2音声ケーブルA2を通じて音データを記憶装置44へ送るタイミングに合わせて、合成動画の動画データを、第7ビデオ線V7を通じて記憶装置44へ送る処理も行っている。
The moving
メモリ部41eは、アップロード用となる音ファイル及び動画ファイルを関連付けて一時的に記憶している。また、入出力インタフェース41gは、ネットワークケーブルL1を通じて後述する3D動画生成装置30と接続されている。入出力インタフェース41gは、制御部41aの制御に基づき楽曲再生処理部41dで再生処理を開始すると、再生開始信号を3D動画生成装置30へ送ると共に、再生処理を終了すると、再生終了信号を3D動画生成装置30へ送る処理を行う。
The
赤外光受光部41hは、ユーザが操作するリモコン装置43から発せられる操作指示を含む赤外光を受光するものであり、受光した赤外光に含まれる操作指示を内部バス40iを通じて制御部41aへ送る処理を行う。制御部41aは、受け取った操作指示に従って上述した各部41b、41c等の制御を行っている。
The infrared
また、図1に示す記憶装置44は記憶媒体であるDVDに、生成された合成動画の記憶処理を行う記憶処理手段に相当し、具体的には第7ビデオ線V7を通じてカラオケ装置41からテロップが合成された合成動画を受け取ると共に、第2音声ケーブルA2を通じてカラオケ装置41からカラオケ楽曲音とユーザ音声の合成音を受け取っている。記憶装置44は、受け取った合成動画及び合成音を記憶処理部44aでDVDに書き込む処理(記憶する処理)を行っており、合成動画等が記憶されたDVDを、ユーザはカラオケに伴うサービス品目(サービスメニュー)の一つとして有償で入手できる。
Further, the
図3は、3D動画配信サーバ45の主要な内部構成を示すブロック図である。3D動画配信サーバ45は、クロマキー装置20で生成された合成動画をネットワークNWを通じて広く配信可能にするものであり、図4に示すようなウェブページ47を有するウェブサイトをネットワーク上に設けている。3D動画配信サーバ45は、MPU45a、通信インタフェース45b、RAM45c、ROM45d、及びハードディスク装置45eを内部バス45iで接続している。
FIG. 3 is a block diagram illustrating a main internal configuration of the 3D moving
通信インタフェース45bは、ネットワークNWと接続されており、各種信号及びデータファイルの送受信を行い、本実施形態ではカラオケ装置41からアップロードされる合成動画及び音声のファイル(動画ファイル及び音ファイル)を受信して、ハードディスク装置45eに記憶されたコンテンツデータベース46へ送る処理を行う。また、通信インタフェース45bは、ネットワークNWを通じてウェブサイトへアクセスしてきたアクセス元へMPU45aの制御によりウェブページ47のページデータを送信すると共に、コンテンツの要求信号(動画要求信号)の受信、コンテンツ(動画ファイル及び音ファイル)の配信等もMPU45aの制御に基づき行う。
The
RAM45cはMPU45aの処理に従うデータ及びフォルダ等を一時的に記憶し、ROM45dはMPU45aが行う基本的な処理内容を規定したプログラム等を予め記憶する。ハードディスク装置45eは、サーバの基本的な処理を規定したサーバプログラム45f、コンテンツの配信処理を規定した配信プログラム45g、ウェブページ用のページデータ45h、及びアップロードされた動画ファイル及び音ファイルを格納したコンテンツデータベース46を記憶している。
The RAM 45c temporarily stores data, folders, and the like according to the processing of the
配信プログラム45gは、コンテンツ配信に係るMPU45aの制御処理の内容を規定したものであり、ウェブサイトのアクセス元の端末に図4のサイトページ47を表示させる処理を行う。なお、サイトページ47は、コンテンツデータベース46に格納されているコンテンツを、コンテンツの作成日付及びコンテンツが作成されたカラオケ店を表記して選択可能にした選択欄47a、選択欄47aで選択した状態のコンテンツの配信を決定する決定ボタン47b、及び選択した状態のコンテンツをキャンセルするキャンセルボタン47cを有する。決定ボタン47bがアクセス元の端末で選択されると、選択状態のコンテンツを要求する動画要求信号が、3D動画配信サーバ45へ送信されるようになっている。
The
そのため、配信プログラム45gは、3D動画配信サーバ45の通信インタフェース45bで動画要求信号を受信すると、選択されたコンテンツ(動画ファイル及び音ファイル)をコンテンツデータベース46から読み出して、アクセス元の端末へ通信インタフェース45bから送信することを規定している。
Therefore, when the
次に、動画生成システム10において必須となるカメラ装置11、クロマキー装置20、及び3D動画生成装置30を説明する。カメラ装置11は、被写体としてカラオケ楽曲を歌うユーザUを、所定のフレームレートでビデオ撮影する撮影手段に相当し、撮影した映像は第1ビデオ線V1によりクロマキー装置20へ順次送っている。
Next, the
図5は、クロマキー装置20の内部構成を示すブロック図である。クロマキー装置20は、第1入力部21、第2入力部22、被写体画像抽出部23、合成部24、及び出力部25を有する。第1入力部21は第1ビデオ線V1が接続されており、カメラ装置11から送られる撮影映像が入力される。また、第2入力部22は第2ビデオ線V2が接続されており、3D動画生成装置30で生成された3D動画(図14(b)参照)が入力される。被写体画像抽出部23は画像抽出手段に相当し、第1入力部21に入力された撮影映像中に含まれるユーザUの画像(被写体画像)のみをクロマキー法により抽出する処理を行い、抽出した被写体画像(図14(a)参照)を合成部24へ送る。
FIG. 5 is a block diagram showing an internal configuration of the chroma
合成部24は合成動画生成手段に相当し、被写体画像抽出部23から送られる被写体画像を、第2入力部22で入力された3D動画に合成して合成動画(図1の大型ディスプレイ2に表示された内容)を随時生成するものである。なお、合成部24は、図14(a)に示すように撮影映像W(図中、波線で示す)から抽出された被写体画像Hを、撮影映像Wの映像枠の下辺Waと、3D動画生成装置30で生成された図14(b)に示す3D動画Gの動画枠の下辺Gaが一致するように合成する処理を行って、図15(a)(b)に示すような合成動画のフレーム画像G1、G2等を生成する。また、出力部25は第3ビデオ線V3が接続されており、合成部24で生成された合成動画を第3ビデオ線V3を通じて分配装置40へ随時出力する処理を行っている。
The synthesizing
図6は、3D動画生成装置30(動画生成手段に相当)の内部構成を示すブロック図である。本実施形態の3D動画生成装置30は汎用のパーソナルコンピュータを適用している。3D動画生成装置30は、モーションキャプチャ技術により得られた動体のモーションデータ(姿勢情報に相当)を動画フレームごとに含んだ動画データDと、動体を見る位置を規定した視点情報を複数格納した視点テーブルTを予め記憶しており、これら動画データD及び視点テーブルTに基づき、動体に対する視点位置がランダムに変更する3D動画(図14(b)参照)を生成する。
FIG. 6 is a block diagram showing an internal configuration of the 3D moving image generating apparatus 30 (corresponding to moving image generating means). A general-purpose personal computer is applied to the 3D moving
3D動画生成装置30は、コンピュータ本体30aの内部において、各種制御処理を行う制御部31(プロセッサ)に、RAM32、ROM33、動画出力インタフェース34、入出力インタフェース35、及びハードディスク装置36を内部バス30bで接続している。RAM32は制御部31の処理に従うデータ及びフォルダ等を一時的に記憶し、ROM33は制御部31が行う基本的な処理内容を規定したプログラム等を予め記憶する。動画出力インタフェース34は第2ビデオ線V2が接続されており、生成した3D動画をクロマキー装置20へ随時送る処理を行う。入出力インタフェース35はネットワークケーブルL1が接続されており、カラオケ装置41から送られる再生開始信号、再生終了信号等を受け付けている。
The 3D moving
ハードディスク装置36は、各種プログラム及びデータ等を記憶し、本実施形態ではプログラムとして、コンピュータ本体30aを作動させる上でベースとなる処理を規定したシステムプログラム37、3D動画の生成に係る処理を規定した動画生成プログラム38、動画データD、及び視点テーブルT等を記憶している。
The
ハードディスク装置36に記憶される動画データDは、動体として3体の三次元的なバックダンサー(バックダンサー画像)を含む動画コンテンツであり、実際のダンサーにマーカを付してモーションキャプチャ技術により得た三次元座標系における実際のダンサーの姿勢を、マーカの座標及び角度等で単位時間(動画フレーム)ごとに規定して作成されたモーションデータを含む内容になっている。このような動画データDは、3D動画の生成時に視点テーブルTに含まれる視点情報に基づき動体を見る位置(視点)を規定することで、その視点から3体のバックダンサーを見た状態の姿勢で3D動画が生成されるようになっている。なお、本実施形態の動画データDは、3体のバックダンサーに関する三次元座標系の姿勢情報に加えて、ステージ背景画像となる背景情報(三次元座標系でのステージ背景画像の位置を規定したもの)も含んでいる。
The moving image data D stored in the
図7は3D動画の生成に係る状態のイメージを概略的に示したものである。図中、X軸、Y軸、Z軸で構成されるXYZ座標系における3体のバックダンサー15a〜15c、及び4個のステージ背景16a〜16d(ハート型のモチーフ画像)は、動画データDに基づくものであり、図中、多数存在するカメラ17A、17B等は視点テーブルTが規定する三次元座標XYZにおける動体を見る位置を表したものである。なお、各カメラ17A、17B等ごとに、XYZ座標系とは相違するカメラ系座標であるUVW座標系が設けてあり、本実施形態の各カメラ17A、17Bは、撮像方向(視点方向)に一致するV軸を中央に位置するバックダンサー15bに向けている。これら複数のカメラ17A、17B等の中から1つを選択することで、XYZ座標系での動体(バックダンサー15a〜15c)を見る位置が定まり、その定まったカメラで撮影した内容になるように3D動画が生成される。なお、図7で示されたカメラの数及び位置は一例であり、仕様に応じてカメラの数及び位置は適宜設定できる。
FIG. 7 schematically shows an image of a state related to generation of a 3D moving image. In the figure, three
図8は、視点テーブルTの中身を示している。視点テーブルTはカメラ(第1カメラ17A〜第nカメラ17N)ごとにXYZ座標における座標値を規定したものになっており、テーブル中のカメラの種類(及び座標値)が視点情報に該当する。
FIG. 8 shows the contents of the viewpoint table T. The viewpoint table T defines the coordinate values in the XYZ coordinates for each camera (the
なお、動体データDに含まれる動体(バックダンサー)ついて少し説明すると、図9(a)は三次元コンピュータグラフィックス技術により作成される3体の中の1体のバックダンサー15a(バックダンサー画像)を示し、バックダンサー画像は図9(b)に示すように、人体の骨に相当するボーンBと云う棒状のリンク部材を連結したものに、人体の皮膚に相当するスキンを被せて作成される。さらに、図9(b)に示すボーンBの各所に付された点P1〜P17が、実際のダンサーに付されたマーカ位置に相当し、これら各点P1〜P17ごとにモーションデータの値が存在する。なお、図9(b)に示す各点P1〜P17の位置及び個数は一例であり、実際のダンサーに付すマーカの位置及び個数に応じて適宜変更できる。
The moving body (back dancer) included in the moving body data D will be described briefly. FIG. 9A shows one
図10は、動画データDに含まれる動画フレーム(単位時間)ごとに生成される三次元的な状態が特定されたバックダンサーを含む3D動画における各フレームのイメージを示す図である。3D動画は、時刻t1、t2、t3・・・における動画フレームf1、f2、f3・・・により構成されており、各動画フレームf1、f2、f3等に応じた画像を順次生成することで、各動画フレームf1、f2、f3等に含まれるバックダンサー15a〜15cが動く動画を得られる。なお、本実施形態の動画データDは、1秒当たりの動画フレーム数を60個(60フレーム/秒)にしているが、この数値はあくまで一例であり、モーションデータを取得する際のフレーム数の範囲であれば、要求される動画品質に応じて適宜増減できる。また、図10では、動画データDに含まれるステージ背景画像の図示は省略している。
FIG. 10 is a diagram illustrating an image of each frame in a 3D moving image including a back dancer in which a three-dimensional state generated for each moving image frame (unit time) included in the moving image data D is specified. The 3D moving image is composed of moving image frames f1, f2, f3... At times t1, t2, t3..., And sequentially generates images corresponding to the moving image frames f1, f2, f3, etc. A moving image in which the
図11は、動画データDに含まれる時刻t1、t2における第1動画フレームf1、第2動画フレームf2中の1つのバックダンサー15aに対するモーションデータM1a、M2aの中身を概略的に示したものである。モーションデータM1a、M2aは、図9(b)に示す各点P1〜P17ごとに、図7に示すXYZ座標系におけるX軸、Y軸、Z軸のそれぞれに対する回転角度、及び座標値を有する。このような動画フレームごとのモーションデータに基づいて、図10に示す各動画フレームに含まれるバックダンサー15a〜15cの姿勢が特定された画像が生成される。なお、図10の画像は、中央のバックダンサー15bを正面から見た状態で視点が特定されたものになっている。また、図11では、残りのバックダンサー15b、15c及びステージ背景16a〜16dに係るモーションデータの図示を省略しているが、動画データDは、これらのモーションデータも勿論含んでいる。
FIG. 11 schematically shows the contents of motion data M1a and M2a for one
次に、動画生成プログラム38が規定する処理内容について説明する。動画生成プログラム38は、制御部31が行う制御処理内容を規定しており、カラオケ装置41からの再生開始信号の入力に伴い、視点テーブルTからランダムにカメラを選択する処理を行う。具体的には、N個のカメラを視点テーブルTが含んでいるとすると、1/Nの確率でいずれか1つのカメラに対応する番号を発生する乱数発生処理を行い、発生した乱数の数値に対応するカメラを選択する処理を行う。例えば、乱数発生処理で「2」が生じると、図8の視点テーブルTから第2カメラ17Bを制御部31が選択することになる。
Next, processing contents defined by the moving
また、動画生成プログラム38は、選択されたカメラの視点で3D動画を生成することを規定している。なお、本実施形態の動画生成プログラム38は、このようなカメラ選択処理を8秒ごとに行うようにしており、3D動画の生成及びカメラ選択処理はカラオケ装置41からの再生終了信号の入力に伴って終わらせるようにしている。
The moving
図12は、3D動画生成装置30における動画生成プログラム38に基づく処理の流れを整理した第1フローチャートである。以下、この第1フローチャートに従って3D動画生成装置30の処理手順を説明する。先ず、3D動画生成装置30は、カラオケ装置41からの再生開始信号を受け取ったか否かを判断する(S1)。再生開始信号を受け取っていない場合(S1:NO)、3D動画生成装置30は処理待ちとなる。また、再生開始信号を受け取った場合(S1:YES)、3D動画生成装置30は複数のカメラの中から一つのカメラをランダムに選択する処理を行い(S2)、視点テーブルTを参照して、選択したカメラの視点で3D動画の生成処理を行う(S3)。それから、3D動画生成装置30は、8秒が経過したか否かを判断し(S4)、8秒が経過していない場合(S4:NO)、3D動画生成の処理段階(S3)へ戻り、以降、8秒が経過するまで所定のフレームレートで3体のバックダンサーが所定の動作を行う3D動画の生成を行う。
FIG. 12 is a first flowchart in which the flow of processing based on the moving
また、8秒が経過した場合(S4:YES)、3D動画生成装置30は、再生終了信号をカラオケ装置41から受け取ったか否かを判断し(S5)、再生終了信号を受け取っていない場合(S5:NO)、カメラ選択処理の段階(S2)へ戻り、新たなカメラの選択処理を行うことになる。この新たなカメラの選択により自動的に3D動画の視点が変更される。以降、再生終了信号を受け取るまでS2〜S5の段階を繰り返し、再生終了信号を受け取った場合(S5:YES)、3D動画生成装置30は、処理を終了する。
If 8 seconds have elapsed (S4: YES), the 3D moving
図13は、3D動画における視点の変更状態を表したタイムチャートである。3D動画生成装置30が、上述したようなカメラの選択処理を行うので、本実施形態ではカラオケ楽曲の再生開始から8秒ごとにカメラが切り替わる。それにより、本発明では、図14(b)に示す3D動画Gのアングル以外に、各バックダンサー15a〜15c及びステージ背景16a〜16dの三次元的な画像を見る位置が8秒ごと切り替わる3D画像が3D動画生成装置30で生成される。
FIG. 13 is a time chart showing a viewpoint change state in a 3D moving image. Since the 3D moving
また、最終的にはクロマキー装置20での合成処理により、図15(a)(b)に示すように、被写体画像Hの背後に位置する3体のバックダンサー15a〜15c、及びステージ背景16a〜16dの三次元的な画像を見るアングルが様々に切り替わる合成画像のフレーム画像G1、G2を得ることができる。このようなフレーム画像G1、G2により構成される合成画像は、大型ディスプレイ2に表示されるため、カラオケ楽曲を歌うユーザUの周囲にいるユーザも大型ディスプレイ2の表示内容を見て楽しむことができ、歌うユーザUと一緒に楽しめる一体感を演出できる。なお、図15(a)は、図7において、正面の第6カメラ17Fが選択された場合のものであり、図15(b)は左側の第2カメラ17Bが選択された場合のものである。
Finally, as shown in FIGS. 15A and 15B, three
さらに、図16は、サブディスプレイ4で表示されるテロップ19が合成された合成動画のフレーム画像G10を示している。この合成動画のフレーム画像G10は、カラオケ楽曲を歌うユーザUが見ることになる。そのためユーザUは、通常のカラオケ画面に加えて自身が登場するため、楽曲に合わせた振りを確認できると共に、リアルに多様な動きを行うバックダンサー15a〜15cとステージ背景16a〜16dにより、擬似的にステージ上で熱唱している雰囲気を味わえる。さらに、バックダンサー15a〜15cとステージ背景16a〜16dを見る位置及びアングルがランダムに切り替わるため、ユーザUはテレビ番組における本物のカメラワークにようにダイナミックな構図の変化を毎回楽しむことができる。
Further, FIG. 16 shows a frame image G10 of a combined moving image in which the
さらにまた、本発明のカラオケシステム1では、図16に示すような合成動画を記憶装置44でDVDに記憶できると共に、3D動画配信サーバ45よりネットワーク配信可能にしているので、生成したコンテンツ(合成動画)の二次的な利用も容易に行えるようにしている。その結果、本発明のカラオケシステム1は、今までにない新たな楽しさをユーザに与えられると共に、カラオケを歌うことで生成されたコンテンツの提供もスムーズに展開することができ、カラオケサービスを行う事業体にとって新たな収益源の確保にも役立てることができ、さらに、カラオケサービス以外にも結婚式の二次会、同窓会等の各種イベント、また、新人歌手を発掘するためのオーディション等にも本発明を活用できる。
Furthermore, in the
なお、第1実施形態のカラオケシステム1及び動画生成システム10は、上述した内容に限定されるものではなく、種種の変形例の適用が可能である。たとえば、カラオケ楽曲の取得方法は、図1に示すようにネットワークNWを通じてカラオケ楽曲サーバ5から取得する以外にも、カラオケ装置41に、多数のカラオケ楽曲を記憶した記憶媒体(DVD、ハードディスク装置等)の読取部を設け、この読取部でユーザが指定したカラオケ楽曲を記憶媒体から読み取ることで、カラオケ装置41がカラオケ楽曲を取得するようにしてもよい。
The
また、カラオケ楽曲を歌うユーザUも大型ディスプレイ2の表示を確認できるときは、サブディスプレイ4を省略してもよく、このときは、分配装置40を省略できると共に、大型ディスプレイ2にはテロップを合成した合成動画を表示するようにカラオケ装置41からの出力動画を表示することが好適である。また、仕様を簡略化する場合は、記憶装置44及び3D動画配信サーバ45を省略してもよい。さらに、動画生成システム10をカラオケシステム1に適用しない場合は、カラオケ装置41も省略して動画のみに処理を絞った仕様にしてもよい。
Further, when the user U who sings karaoke music can also confirm the display on the
さらにまた、3D動画生成装置30でランダムにカメラを選択する時間間隔は、8秒に限定されるものではなく(図12のステップS4参照)、他の時間を適用することも可能である。さらに、カメラを選択する間隔の時間もランダムに変化させることも可能であり、例えば、最初の時間間隔は3秒、2番目の時間間隔は10秒、3番目の時間間隔を7秒と云うように不規則な時間間隔にして、時間的にもランダムに視点が変化する動画内容にしてもよい。なお、この場合は、カメラ選択の処理後に時間間隔を決定する処理が必要となり、決定する時間は例えば1秒から15秒の範囲の各秒が1/15の確率で当たるように乱数を発生させて時間を決定する。
Furthermore, the time interval for selecting a camera at random by the 3D moving
また、動体に相当するバックダンサー15a〜15cは3体以外に適宜増減可能であり、さらに、バックダンサー以外にも動物、アニメのキャラクタ等の様々な形態を動体として適用してもよい。さらにまた、ステージ背景は別の形態のものを適用することが可能であり、画像内容の簡略化を図るときは省略することも勿論可能である。また、合成処理に用いる方法は、クロマキー法以外にも、他の方法を適用してもよい。
Further, the
図17は、第1実施形態の変形例の処理に用いられるカラオケ楽曲のデータ構造を概略的に示したものである。このカラオケ楽曲は、楽曲データの最初(時刻0)から最後(時刻Tn)までにおいて、所定の時間間隔(例えば、8秒ごと)で、選択するカメラを指定する情報が楽曲進行順に付帯されたものになっている。なお、このようなデータ構造のカラオケ楽曲は、カラオケ楽曲の作成者側で、3D動画生成装置30で生成される際のアングルを決めることができるため、カラオケ楽曲の作成者側がカラオケ楽曲の際に表示される動画内容のアングルをコントロールできるメリットがある。また、この変形例では上述したデータ構造のカラオケ楽曲を、図1に示すカラオケ楽曲サーバ5から配信できる構成にして、カラオケ装置41で取得できるようにする。
FIG. 17 schematically shows the data structure of a karaoke piece used in the process of the modification of the first embodiment. In this karaoke music piece, information for specifying a camera to be selected is attached in order of the musical piece progression at a predetermined time interval (for example, every 8 seconds) from the first (time 0) to the last (time Tn) of the music data. It has become. In addition, since the karaoke music creator of the data structure can determine the angle when the creator of the karaoke music is generated by the 3D moving
さらに、この変形例では、カラオケ装置41は、カラオケ楽曲の再生処理を行う際、付帯するカメラの情報をカメラ指定信号として3D動画生成装置30へ、楽曲の再生処理に合わせて送る処理を行う。例えば、カラオケ装置41は、図17に示すデータ構造のカラオケ楽曲の再生処理を行う場合、楽曲の再生開始時に、再生開始信号及び第4カメラを指定するカメラ指定信号を3D動画生成装置30へ送り、再生開始からt10秒経過後に第6カメラを指定するカメラ指定信号を3D動画生成装置30へ送り、再生開始からt11秒経過後に第3カメラを指定するカメラ指定信号を3D動画生成装置30へ送る。
Furthermore, in this modified example, when the
また、図18は、図17に示す変形例のカラオケ楽曲を用いる場合の3D動画生成装置30が行う処理手順を示す第2フローチャートである。この第2フローチャートに従って変形例の3D動画生成装置30が行う3D動画の生成処理を説明する。先ず、3D動画生成装置30は、カラオケ装置41からの再生開始信号を受け取ったか否かを判断し(S10)、再生開始信号を受け取っていない場合(S10:NO)、処理待ちとなり、再生開始信号を受け取った場合(S10:YES)、次にカメラ指定信号をカラオケ装置41から受け取ったか否かを判断する。
FIG. 18 is a second flowchart showing a processing procedure performed by the 3D moving
カメラ指定信号を受け取っていない場合(S11:NO)、3D動画生成装置30は、処理待ちとなり、カメラ指定信号を受け取った場合(S11:YES)、受け取ったカメラ指定信号が指定するカメラを選択する処理を行い(S12)、選択したカメラの視点で3D動画の生成処理を行う(S13)。それから、3D動画生成装置30は、新たなカメラ指定信号を受け取ったか否かを判断し(S14)、新たなカメラ指定信号を受け取った場合(S14:YES)、カメラ選択段階(S12)へ戻り、新たなカメラ指定信号が指定するカメラを選択する。
When the camera designation signal is not received (S11: NO), the 3D moving
また、新たなカメラ指定信号を受け取っていない場合(S14:NO)、再生終了信号をカラオケ装置41から受け取ったか否かを判断し(S15)、再生終了信号を受け取っていない場合(S15:NO)、3D動画生成の段階(S13)へ戻り、カメラを変更することなく3D動画の生成処理を行う。また、再生終了信号を受け取った場合(S15:YES)、3D動画生成装置30は、処理を終了する。
If a new camera designation signal has not been received (S14: NO), it is determined whether or not a playback end signal has been received from the karaoke apparatus 41 (S15). If a playback end signal has not been received (S15: NO) Returning to the 3D moving image generation stage (S13), a 3D moving image generation process is performed without changing the camera. When the playback end signal is received (S15: YES), the 3D moving
このように図17に示すカラオケ楽曲に基づく変形例では、3D動画生成装置30において、視点を決めるカメラをランダムに選択する処理が不要となり、処理負担の低減を図れる。また、カラオケ楽曲の作成側は表示する合成動画中に含まれる3D動画部分(バックダンサーの画像及び背景の画像等)の視点を指定できるため、作成側の意図に沿った動画コンテンツの生成を実現できる。
As described above, in the modification based on the karaoke music piece shown in FIG. 17, the 3D moving
図19は、本発明の第2実施形態に係る動画生成システム50の主要部を示すブロック図である。第2実施形態の動画生成システム50は、カメラ装置51で撮影された映像中における被写体画像の位置に応じて、3D動画の視点情報を切り替えることを特徴にしている。そのため、カメラ装置51の第1ビデオ線V1の一方の端を二股に分岐して第1分岐線V1aをクロマキー装置60に接続すると共に、第2分岐線V1bを、3D動画生成装置70に新たに設けた動画入力インタフェース77に接続して、3D動画生成装置70が撮影映像を取得して、撮影映像中に含まれる被写体画像の位置を検出する処理を行えるようにしている。なお、カメラ装置51は、図1に示す第1実施形態と同様に所定の撮像方向を向いた状態で固定されている。
FIG. 19 is a block diagram showing a main part of the moving
第2実施形態の3D動画生成装置70は、ハードディスク装置76に記憶される動画生成プログラム79に被写体画像の位置検出の処理を含ませており、制御部71は動画生成プログラム79が規定する内容に基づいて被写体画像の位置検出処理を行う。
In the 3D moving
図20(a)は、3D動画生成装置70の制御部71が行う被写体画像の位置検出処理を説明する図である。制御部71は、動画入力インタフェース77で、カメラ装置51の撮影映像W1を取得すると、取得した撮影映像W1の全範囲を格子状に区分けして計12個のブロックB1〜B12を形成する。それから、制御部71は各ブロックB1〜B12中において、被写体画像Hが占有する領域が最も大きいブロックを特定し、その特定したブロックを被写体画像Hの検出した位置(検出位置)に決定する。なお、図20(a)では、被写体画像Hの占める領域が最も大きいブロックB11が被写体画像Hの検出位置になる。
FIG. 20A is a diagram for describing a subject image position detection process performed by the
また、図20(b)は、第2実施形態の3D動画生成装置70が、ハードディスク装置76に新たに記憶する位置対応テーブル80の中身を示している。位置対応テーブル80は、区分けされた撮影映像W1のブロックB1〜B12ごとに、複数種類のカメラを予め対応付けた内容になっている。なお、位置対応テーブル80の対応付けは、被写体画像Hが占有するブロックの位置に対して、動体(バックダンサー)及び背景の画像が重複せずに見やすくなることを考慮して決められている。例えば、被写体画像Hが右側(又は右下)のブロックを占有する場合、その逆側となる左側、又は対角的に反対方向となる左上側のカメラが対応付けられており、さらに、被写体画像Hが左側(又は左下)のブロックを占有する場合、その逆側となる右側、又は対角的に反対方向となる右上側のカメラが対応付けられている。
FIG. 20B shows the contents of the position correspondence table 80 newly stored in the
ハードディスク装置76が記憶する動画生成プログラム79は、図20(b)の位置対応テーブル80を用いて、視点を定めるカメラを選択する処理を規定している。詳しくは、動画生成プログラム79は、上述した被写体画像Hの検出処理により一つのブロックを特定すると、その特定したブロックに対応するカメラ(視点情報)を位置対応テーブル80から選択する処理を制御部71が行うことを規定している。それから、動画生成プログラム79は、選択したカメラの位置(XYZ座標系の位置)を視点テーブルT(図8参照)に基づき制御部71が特定し、3D動画の生成処理を行うことを規定している。
The moving
第2実施形態の3D動画生成装置70における他の部分(RAM72、ROM73、動画出力インタフェース74、入出力インタフェース75等)及びハードディスク装置76に記憶されるシステムプログラム78、動画データD、視点テーブルTは、第1実施形態と同等である。また、第2実施形態の動画生成システム50のカメラ装置51及びクロマキー装置60も第1実施形態と同等であるため説明を省略する。さらに、第2実施形態の動画生成システム50も、図1に示すようなカラオケシステム1に採用され、カラオケ楽曲を歌うユーザUが合成された合成動画の生成を行っている。なお、カラオケシステム1に含まれる動画生成システム50以外の分配装置40、カラオケ装置41等も第1実施形態と同等であるため、説明を省略すると共に、第2実施形態でも第1実施形態と同等の符号を用いて以下の説明を行う。
The other part (
図21は、第2実施形態の3D動画生成装置70における3D動画の生成処理を示す第3フローチャートである。先ず、3D動画生成装置70は、カラオケ装置41からの再生開始信号を受け取ったか否かを判断し(S20)、再生開始信号を受け取っていない場合(S20:NO)、処理待ちとなり、再生開始信号を受け取った場合(S20:YES)、次にカメラ装置51から送られる撮影映像の入力があるか否かを判断する(S21)。
FIG. 21 is a third flowchart illustrating 3D moving image generation processing in the 3D moving
撮影映像の入力がない場合(S21:NO)、3D動画生成装置70は、撮影映像の入力待ちとなり、撮影映像の入力があった場合(S21:YES)、図20(a)に示すような被写体画像Hの位置検出処理を行い(S22)、検出した位置に応じたカメラの選択処理を位置対応テーブル80を利用して行い(S23)、選択したカメラの視点で3D動画の生成処理を行う(S24)。それから、3D動画生成装置70は、再生終了信号をカラオケ装置41から受け取ったか否かを判断し(S25)、再生終了信号を受け取っていない場合(S25:NO)、撮影映像の入力判断処理の段階(S21)へ戻り、処理を継続する。また、再生終了信号を受け取った場合(S25:YES)、3D動画生成装置70は、処理を終了する。
When there is no input of a captured video (S21: NO), the 3D moving
このように第2実施形態の3D動画生成装置70は、撮影映像中の被写体画像の位置に応じて視点を変更した3D動画を生成するので、最終的にクロマキー装置60において生成される合成動画のフレーム画像G20、G21等は、図22(a)(b)に示すように、被写体画像Hの位置が変わるごとに、バックダンサー15a〜15c及びステージ背景16a〜16dの画像を見る方向が変化する内容になる。
As described above, since the 3D moving
即ち、図22(a)では、ユーザUの移動により被写体画像Hが、フレーム画像G20において左側に位置するので、左側と反対側になる右側のカメラを視点にして、右端のバックダンサー15cが大きくなるように視点変更が行われている。一方、図22(b)では、ユーザUの移動により被写体画像Hが、フレーム画像G21において右側に位置するので、右側と反対側になる左側のカメラに視点にして、左端のバックダンサー15aが大きくなるように視点変更が行われている。そのため、カラオケ楽曲を歌うユーザUは、撮影を行うカメラ装置51に対する位置を移動することで、バックダンサー15a〜15c及びステージ背景16a〜16dの画像の視点が切り替わるようになり、歌いながら位置を変えることよる視覚的な楽しさを味わえる。
That is, in FIG. 22A, the subject image H is positioned on the left side in the frame image G20 due to the movement of the user U, so that the right end back
なお、第2実施形態でも、第1実施形態で述べた各種変形例の適用が可能である。また、図23(a)(b)は、第2実施形態特有の変形例の処理内容を示している。この変形例では、カメラ装置51で撮影された映像中における被写体画像の動作に応じて、3D動画の視点情報を切り替えることを特徴にしている。そのため、変形例の3D動画生成装置70は、ハードディスク装置76に記憶される動画生成プログラム79に撮影された被写体の動作を検出する処理を含ませており、制御部71は動画生成プログラム79が規定する内容に基づいて被写体の動作検出を行う。
In the second embodiment, the various modifications described in the first embodiment can be applied. FIGS. 23A and 23B show the processing contents of a modification specific to the second embodiment. This modification is characterized in that the viewpoint information of the 3D moving image is switched according to the operation of the subject image in the video shot by the
被写体の動作検出は、カメラ装置51から順次送られる撮影映像の時間的に前後する映像フレームの差分を取ることで行う。例えば、図23(a)は、時刻t20での撮影映像W10の内容、図23(b)は時刻t20に続く時刻t21での撮影映像W11の内容を示し、動画生成プログラム79の規定に基づき制御部71は、各撮影映像W10、W11を区分けした各ブロックB1〜B12で、被写体画像Hが位置するブロックを検出する。
The motion detection of the subject is performed by taking a difference between video frames that are temporally mixed in the captured video sequentially sent from the
そして、制御部71は、検出した被写体画像Hが位置するブロックの中で、時刻t20の撮影映像W10では位置しないが、時刻t21の撮影映像W11では被写体Hが位置するブロックがあるか否かを、各ブロックごとの差分で判断し、そのようなブロックがあるときは、被写体に動作があったと判定する。例えば、図23(a)(b)の場合では、図23(a)の第6ブロックB6に被写体画像Hは位置しないが、図23(b)の第6ブロックB6では被写体画像H(ユーザUの右手)が位置するため、動作の有ったブロックとして第6ブロックB6が特定され、被写体に動作があったと判定される。
Then, the
図24は、動作検出に係る変形例で使用される動作対応テーブル85の中身を示しており、動作対応テーブル85は変形例の3D動画生成装置70が、ハードディスク装置76に新たに記憶するものである。動作対応テーブル85は、動作のあったブロックB1〜B12ごとに、複数種類のカメラ(視点情報に相当)を予め対応付けた内容になっている。なお、動作対応テーブル85の対応付けは、動作のあったブロックの位置に対して、動体(バックダンサー)及び背景の画像が重複せずに見やすくなることを考慮して決められているが、動作に連動するようにカメラの対応付けを行ってもよい。例えば、現在の被写体Hが位置するブロックより右側のブロックが被写体Hの動作により新たに検出されれば、使用中のカメラより右側に位置するカメラを対応付けるようにしてもよく、また、被写体Hが位置するブロックより左側のブロックが新たに検出されれば、使用中のカメラより左側のカメラを対応付けるようにしてもよい。なお、上述した各ブロックB1〜B12が本発明では内容的に、検出対象の被写体の動作に該当したものになっている。
FIG. 24 shows the contents of the motion correspondence table 85 used in the modification relating to motion detection. The motion correspondence table 85 is newly stored in the
また、ハードディスク装置76に記憶される変形例の動画生成プログラム79は、動作検出に基づき、図24の動作対応テーブル85を用いて、視点を定めるカメラを選択する処理を規定している。詳しくは、動画生成プログラム79は上述した動作の検出処理により、動作のあったブロックを特定し、その特定したブロックに対応するカメラ(視点情報)を動作対応テーブル85から選択する処理を規定する。
In addition, the modified moving
図25は、上述した動作検出に係る変形例の3D動画生成装置70が行う処理内容を示す第4フローチャートである。先ず、3D動画生成装置70は、カラオケ装置41から再生開始信号の受け取りの判断処理(S30)、及びカメラ装置51から送られる撮影映像の入力の判断処理(S31)を、図21に示す第3フローチャートと同様に行う。
FIG. 25 is a fourth flowchart illustrating the processing contents performed by the 3D moving
そして、カメラ装置51からの撮影映像の入力があった場合(S31:YES)、3D動画生成装置70は、図23(a)(b)に示すような被写体の動作検出処理を行い(S32)、動作による変化があったか否かを判断する(S33)。変化があったと判断した場合(S33:YES)、3D動画生成装置70は、動作のあったブロックに対応するカメラの選択処理を、動作対応テーブル85を用いて行う(S34)。また、変化が無いと判断した場合(S33:NO)、被写体画像Hが占有するブロックに応じたカメラの選択処理を、図20(b)の位置対応テーブル80を用いて行う(S35)。
When a captured video is input from the camera device 51 (S31: YES), the 3D moving
それから、3D動画生成装置70は、選択したカメラの視点で3D動画の生成処理を行う(S36)。そして、3D動画生成装置70は、再生終了信号をカラオケ装置41から受け取ったか否かを判断し(S37)、再生終了信号を受け取っていない場合(S37:NO)、撮影映像の入力判断処理の段階(S31)へ戻り、処理を継続する。また、再生終了信号を受け取った場合(S37:YES)、3D動画生成装置70は、処理を終了する。
Then, the 3D moving
このように第2実施形態の変形例の3D動画生成装置70は、被写体の動作に応じて視点を変更した3D動画を生成するので、最終的にクロマキー装置60において生成される合成動画もカラオケ楽曲を歌うユーザUの動作に応じて、バックダンサー15a〜15c及びステージ背景16a〜16dの画像を見る方向が切り替わる。そのため、カラオケ楽曲を歌うユーザUは、歌っている途中に振りの動作を行うことで、合成動画中のバックダンサー15a〜15c及びステージ背景16a〜16dの画像の視点が変化するので、振りの動作に対する楽しみを得られると共に、各ユーザは積極的に様々な振りの動作を行って画像の視点を変えて、合成動画を見るユーザを楽しませることもできる。なお、図25中の第4フローチャートは、動作検出に係る処理と、位置検出に係る処理を組み合わせた内容にしているが(S34、S35)、動作検出に係る処理のみを行って、動作による変化が無い場合は(S33:NO)、固定の視点(デフォルトの視点)を選択するようにしてもよい。
As described above, the 3D moving
1 カラオケシステム
2 大型ディスプレイ
4 サブディスプレイ
5 カラオケ楽曲サーバ
6 壁部材
10 動画生成システム
11 カメラ装置
15a〜15c バックダンサー
16a〜16d ステージ背景
20 クロマキー装置
23 被写体画像抽出部
24 合成部
30 3D動画生成装置
38 動画生成プログラム
40 分配装置
41 カラオケ装置
41d 楽曲再生処理部
40f テロップ合成部
44 記憶装置
45 3D動画配信サーバ
46 コンテンツデータベース
80 位置対応テーブル
85 動作対応テーブル
D 動画データ
T 視点テーブル
H 被写体画像
DESCRIPTION OF
Claims (12)
被写体を撮影する撮影手段と、
該撮影手段が撮影した映像中に含まれる被写体画像を抽出する画像抽出手段と、
該画像抽出手段が抽出した被写体画像を、前記動画生成手段が生成した動画に合成して合成動画を生成する合成動画生成手段とを備えることを特徴とする動画生成システム。 Movie generation means for generating a moving image including a moving object whose posture and viewpoint are specified based on posture information that defines a posture of the moving object in a three-dimensional coordinate system per unit time and viewpoint information that defines a position where the moving object is viewed In the video generation system provided,
Photographing means for photographing the subject;
Image extracting means for extracting a subject image included in the video imaged by the imaging means;
A moving image generating system comprising: a synthesized moving image generating unit configured to combine a subject image extracted by the image extracting unit with a moving image generated by the moving image generating unit to generate a combined moving image.
該楽曲取得手段が取得した楽曲の再生処理を行う楽曲再生手段と、
該楽曲再生手段の再生処理に合わせて、前記合成動画の表示処理を行う表示処理手段とを備える請求項1に記載の動画生成システム。 Music acquisition means for acquiring music;
Music playback means for performing playback processing of the music acquired by the music acquisition means;
The moving image generating system according to claim 1, further comprising display processing means for performing display processing of the synthetic moving image in accordance with the reproduction processing of the music reproducing means.
前記楽曲に付帯された文字を、前記合成動画に合成する文字合成手段を備え、
前記表示処理手段は、前記文字合成手段により文字が合成された合成動画の表示処理を行う請求項2に記載の動画生成システム。 The music acquisition means is adapted to acquire a music accompanied by a character representing lyrics,
Character synthesis means for synthesizing the characters attached to the music into the synthesized video,
The moving image generation system according to claim 2, wherein the display processing unit performs display processing of a combined moving image in which characters are combined by the character combining unit.
前記動画生成手段は、前記楽曲再生手段の再生処理の進行時点に応じた視点情報に基づいて動画を生成する請求項2又は請求項3に記載の動画生成システム。 The music acquisition means is configured to acquire a music in which a plurality of viewpoint information is attached in the order of music progress,
4. The moving image generation system according to claim 2, wherein the moving image generation unit generates a moving image based on viewpoint information corresponding to a progress point of the reproduction process of the music reproduction unit.
前記動画生成手段は、選択された視点情報に基づいて動画を生成する請求項1乃至請求項3のいずれか1つに記載の動画生成システム。 A means for randomly selecting one viewpoint information from a plurality of viewpoint information,
The moving image generating system according to any one of claims 1 to 3, wherein the moving image generating means generates a moving image based on selected viewpoint information.
映像中の各位置、及び視点情報をそれぞれ対応付けた位置対応テーブルと、
前記画像位置検出手段が検出した位置に対応する視点情報を、前記位置対応テーブルから選択する手段とを備え、
前記動画生成手段は、前記位置対応テーブルから選択された視点情報に基づいて動画を生成する請求項1乃至請求項3のいずれか1つに記載の動画生成システム。 Image position detecting means for detecting the position of a subject image included in the video imaged by the imaging means;
A position correspondence table in which each position in the video and viewpoint information are associated with each other;
Means for selecting viewpoint information corresponding to the position detected by the image position detection means from the position correspondence table;
The moving image generation system according to any one of claims 1 to 3, wherein the moving image generation unit generates a moving image based on viewpoint information selected from the position correspondence table.
被写体画像に係る各動作、及び複数の視点情報をそれぞれ対応付けた動作対応テーブルと、
前記動作検出手段が検出した動作に対応する視点情報を、前記動作対応テーブルから選択する手段とを備え、
前記動画生成手段は、前記動作対応テーブルから選択された視点情報に基づいて動画を生成する請求項1、2、3、6のいずれか1つに記載の動画生成システム。 An action detecting means for detecting an action of a subject image in a video taken by the photographing means;
An action correspondence table in which each action related to a subject image and a plurality of viewpoint information are respectively associated;
Means for selecting viewpoint information corresponding to the motion detected by the motion detection means from the motion correspondence table;
The moving image generating system according to any one of claims 1, 2, 3, and 6, wherein the moving image generating means generates a moving image based on viewpoint information selected from the operation correspondence table.
前記動画生成手段は、前記姿勢情報に基づいて複数の動体を含む動画を生成する請求項1乃至請求項7のいずれか1つに記載の動画生成システム。 In the posture information, the posture of a three-dimensional coordinate system related to a plurality of moving objects is defined,
The moving image generation system according to any one of claims 1 to 7, wherein the moving image generation unit generates a moving image including a plurality of moving objects based on the posture information.
前記動画生成手段は、記憶された背景情報に基づいて背景を含む動画を生成する請求項1乃至請求項8のいずれか1つに記載の動画生成システム。 Means for storing background information defining the position of the background in the three-dimensional coordinate system;
The moving image generation system according to claim 1, wherein the moving image generation unit generates a moving image including a background based on the stored background information.
該受信手段が動画要求信号を受信した場合、該動画要求信号の送信元へ動画を送信する動画送信手段とを備え、
前記動画送信手段は、前記合成動画生成手段が生成した合成動画を送信する請求項1乃至請求項10のいずれか1つに記載の動画像生成システム。 Receiving means for receiving a video request signal transmitted through the network;
A video transmission means for transmitting a video to a transmission source of the video request signal when the receiving means receives the video request signal;
The moving image generation system according to any one of claims 1 to 10, wherein the moving image transmission unit transmits the combined moving image generated by the synthetic moving image generation unit.
前記動画生成システムは、
被写体を撮影し、
撮影した映像中に含まれる被写体画像を抽出し、
抽出した被写体画像を、前記動画に合成して合成動画を生成することを特徴とする動画生成方法。
The video generation system generates a video that includes a moving object whose posture and viewpoint are specified based on posture information that defines the posture of the moving object in the 3D coordinate system per unit time and viewpoint information that defines the position where the moving object is viewed. In the video generation method to
The video generation system includes:
Shoot the subject,
Extract the subject image included in the captured video,
A moving image generating method comprising combining the extracted subject image with the moving image to generate a combined moving image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006176937A JP4981370B2 (en) | 2006-06-27 | 2006-06-27 | Movie generation system and movie generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006176937A JP4981370B2 (en) | 2006-06-27 | 2006-06-27 | Movie generation system and movie generation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008010966A true JP2008010966A (en) | 2008-01-17 |
JP4981370B2 JP4981370B2 (en) | 2012-07-18 |
Family
ID=39068812
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006176937A Active JP4981370B2 (en) | 2006-06-27 | 2006-06-27 | Movie generation system and movie generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4981370B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100956454B1 (en) | 2007-09-15 | 2010-05-10 | 김영대 | Virtual Studio Posture Correction Machine |
JP2011059619A (en) * | 2009-09-14 | 2011-03-24 | Xing Inc | Karaoke system, central device and content data creation method |
WO2012053371A1 (en) * | 2010-10-20 | 2012-04-26 | 株式会社メガチップス | Amusement system |
JP2016054524A (en) * | 2015-11-18 | 2016-04-14 | 株式会社ニコン | Program and display device |
JP2016166928A (en) * | 2015-03-09 | 2016-09-15 | 高橋 勝治 | Performance device, performance method, program, and amusement system |
CN106303288A (en) * | 2015-06-05 | 2017-01-04 | 福建凯米网络科技有限公司 | The method of video, Apparatus and system are sung in synthesis |
JP2018107834A (en) * | 2018-04-05 | 2018-07-05 | 株式会社ニコン | Reproduction presentation program and reproduction presentation device |
KR20200090138A (en) * | 2019-01-18 | 2020-07-28 | 주식회사딜루션 | Karaoke mike for displaying hologram image and karaoke system using the same |
WO2023157652A1 (en) * | 2022-02-17 | 2023-08-24 | ソニーグループ株式会社 | Program, image processing device, and image processing method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05232861A (en) * | 1991-06-11 | 1993-09-10 | C S K Sogo Kenkyusho:Kk | Orchestral accompaniment system |
JPH10222668A (en) * | 1997-02-04 | 1998-08-21 | Syst Sakomu:Kk | Motion capture method and system therefor |
JP2000023037A (en) * | 1998-07-06 | 2000-01-21 | Sony Corp | Video compositing device |
JP2003259214A (en) * | 2002-03-01 | 2003-09-12 | Univ Waseda | Image composition system and image acquisition system |
JP2003346180A (en) * | 2002-05-22 | 2003-12-05 | Yappa Corp | 3d image synthesizing system |
-
2006
- 2006-06-27 JP JP2006176937A patent/JP4981370B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05232861A (en) * | 1991-06-11 | 1993-09-10 | C S K Sogo Kenkyusho:Kk | Orchestral accompaniment system |
JPH10222668A (en) * | 1997-02-04 | 1998-08-21 | Syst Sakomu:Kk | Motion capture method and system therefor |
JP2000023037A (en) * | 1998-07-06 | 2000-01-21 | Sony Corp | Video compositing device |
JP2003259214A (en) * | 2002-03-01 | 2003-09-12 | Univ Waseda | Image composition system and image acquisition system |
JP2003346180A (en) * | 2002-05-22 | 2003-12-05 | Yappa Corp | 3d image synthesizing system |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100956454B1 (en) | 2007-09-15 | 2010-05-10 | 김영대 | Virtual Studio Posture Correction Machine |
JP2011059619A (en) * | 2009-09-14 | 2011-03-24 | Xing Inc | Karaoke system, central device and content data creation method |
WO2012053371A1 (en) * | 2010-10-20 | 2012-04-26 | 株式会社メガチップス | Amusement system |
US9601118B2 (en) | 2010-10-20 | 2017-03-21 | Megachips Corporation | Amusement system |
JP2016166928A (en) * | 2015-03-09 | 2016-09-15 | 高橋 勝治 | Performance device, performance method, program, and amusement system |
CN106303288A (en) * | 2015-06-05 | 2017-01-04 | 福建凯米网络科技有限公司 | The method of video, Apparatus and system are sung in synthesis |
JP2016054524A (en) * | 2015-11-18 | 2016-04-14 | 株式会社ニコン | Program and display device |
JP2018107834A (en) * | 2018-04-05 | 2018-07-05 | 株式会社ニコン | Reproduction presentation program and reproduction presentation device |
KR20200090138A (en) * | 2019-01-18 | 2020-07-28 | 주식회사딜루션 | Karaoke mike for displaying hologram image and karaoke system using the same |
KR102302057B1 (en) * | 2019-01-18 | 2021-09-15 | 주식회사딜루션 | Karaoke mike for displaying hologram image and karaoke system using the same |
WO2023157652A1 (en) * | 2022-02-17 | 2023-08-24 | ソニーグループ株式会社 | Program, image processing device, and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP4981370B2 (en) | 2012-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4981370B2 (en) | Movie generation system and movie generation method | |
JP4310916B2 (en) | Video display device | |
JPH11219446A (en) | Video/sound reproducing system | |
CN106534618B (en) | Method, device and system for realizing pseudo field explanation | |
WO2021246183A1 (en) | Information processing device, information processing method, and program | |
JP5012373B2 (en) | Composite image output apparatus and composite image output processing program | |
JP5169111B2 (en) | Composite image output apparatus and composite image output processing program | |
KR20100017242A (en) | Method of creating and reproducing a panoramic sound image, and apparatus for reproducing such an image | |
JP2005020607A (en) | Composite image output device and composite image output processing program | |
KR102200239B1 (en) | Real-time computer graphics video broadcasting service system | |
CN113792646B (en) | Dance motion auxiliary generation method and device and dance equipment | |
US7002584B2 (en) | Video information producing device | |
WO2023120691A1 (en) | Video creation system, video creation device, and program for video creation | |
KR101295862B1 (en) | Karaoke apparatus and method thereof for providing augmented reality images | |
JP4962219B2 (en) | Composite image output apparatus and composite image output processing program | |
JP6313003B2 (en) | Karaoke apparatus, image output method, and program | |
JP2004328788A (en) | Method for compounding person video image separately photographed and background video image recorded and outputting to indicator, and karaoke apparatus adopting the method | |
JP2004355567A (en) | Image output device, image output method, image output processing program, image distribution server and image distribution processing program | |
JP5894505B2 (en) | Image communication system, image generation apparatus, and program | |
JP7442979B2 (en) | karaoke system | |
JP6548499B2 (en) | Karaoke system | |
JP2006217183A (en) | Data processor and program for generating multimedia data | |
JP2017215375A (en) | Music generator and program | |
JP2006067405A (en) | Television broadcast transmitter, television broadcast receiver, and broadcast program participation system and method | |
KR20170075321A (en) | Karaoke system for providing augmented reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120406 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120420 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150427 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4981370 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |