JP2004295441A - Automatic photograph preparing device and method - Google Patents
Automatic photograph preparing device and method Download PDFInfo
- Publication number
- JP2004295441A JP2004295441A JP2003086577A JP2003086577A JP2004295441A JP 2004295441 A JP2004295441 A JP 2004295441A JP 2003086577 A JP2003086577 A JP 2003086577A JP 2003086577 A JP2003086577 A JP 2003086577A JP 2004295441 A JP2004295441 A JP 2004295441A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pen
- unit
- user
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、利用者をカメラで撮影し、その撮影画像に基づき生成される合成画像を写真として出力する自動写真作成装置に関する。
【0002】
【従来の技術】
従来より、利用者をカメラで撮影し、その撮影画像を写真として出力する遊戯用写真作成装置が知られている。このような遊戯用写真作成装置は、遊戯性または娯楽性が高いことから、撮影画像と合成すべき画像(以下「付加画像」という)を、利用者の嗜好に応じて、予め用意された多種多様な背景画像および前景画像から選択したり、タッチペンやライトペン等のペン型入力手段を用いて利用者が自由に描いたりできるように構成されているものが多い。利用者によるこのような行為は、撮影画像に対してなされるため、「落書き」と呼ばれる。
【0003】
この落書きの例としては、ペン型入力手段により所定の太さや色などを有する曲線を画面上に自由に描く動作や、予め用意された複数の比較的小さな画像の1つを選択して画面上の任意の位置に貼り付け合成する動作などがある。前者の動作は「落書きペンによる落書き」と呼ばれ、画面上に当該曲線を形成する命令または曲線を形成するための位置を示すカーソルは「落書きペン」と呼ばれる。また、後者の画像は「スタンプ」と呼ばれる。
【0004】
【発明が解決しようとする課題】
しかし、遊戯用写真作成装置において、上記落書きペンまたは上記スタンプは、1つまたは複数が予め用意されるので、その種類には限界がある。そのため、利用者は、落書きペンによる軌跡やスタンプの貼り付け位置または貼り付け数を自由に決定できるとしても、用意された種類以外の外観が生じるような落書きペンまたはスタンプによる落書きをすることができない。よって、従来の遊戯用写真作成装置では、落書きペンまたはスタンプを利用者の嗜好に応じた外観が生じるように変化させることによる遊戯性または娯楽性を得ることができない。
【0005】
そこで本発明では、撮影画像と合成すべき付加画像を利用者の嗜好に応じて高い自由度で変化させることができる自動写真作成装置および自動写真作成方法を提供することを目的とする。
【0006】
【課題を解決するための手段および発明の効果】
第1の発明は、所定の撮影領域における被写体である利用者を撮影する撮像手段と、当該撮像手段により得られる撮影画像を含む合成画像を表示する表示手段と、当該合成画像を写真として出力する出力手段とを備える自動写真作成装置であって、
前記利用者による操作を受け付ける入力手段と、
前記入力手段により受け付けられた操作に応じて、前記撮影画像に合成されるべき付加画像を生成するための3次元モデルデータに対して所定の属性を設定する設定手段と、
前記設定手段により設定される所定の属性に応じて、前記3次元モデルデータから2次元の画像である前記付加画像を生成する付加画像生成手段と、
前記付加画像と前記撮影画像とを合成することにより前記合成画像を生成する合成手段と
を備えることを特徴とする。
【0007】
このような第1の発明によれば、予め用意された(または利用者により作成された)1つまたは複数の3次元データに基づいて入力手段の操作に応じた新たな属性を有する付加画像を作成する。このことにより、撮影画像と合成すべき付加画像を利用者の嗜好に応じて高い自由度で変化させることができる。したがって、例えば落書きペンによる画像またはスタンプ画像のような付加画像を利用者の嗜好に応じた外観が生じるように変化させることによる遊戯性または娯楽性を得ることができる。
【0008】
また、当該3次元データが予め記憶される場合、当該3次元データのみから多様な付加画像を生成することができるので、必要となる記憶容量を比較的小さくすることができる。
【0009】
第2の発明は、第1の発明において、
前記入力手段は、入力位置を示す座標を取得可能なペン型入力手段であることを特徴とする。
【0010】
このような第2の発明によれば、ペン型入力手段の操作により付加画像が作成されるため、利用者は簡単な操作で自らの嗜好に合った合成画像を効率よく容易に生成することができる。特に、遊技用写真作成装置では、操作の習熟を利用者に期待できず、また撮影時間や落書き時間などの利用時間に制限が設けられているため、ペン型入力手段により簡単かつ直感的に操作可能である上記構成は極めて有効である。
【0011】
第3の発明は、第1または第2の発明において、
前記入力手段は、前記表示手段と一体的に構成されることを特徴とする。
【0012】
このような第3の発明によれば、利用者は表示手段に表示される画像(例えば撮影画像やペンの軌跡など)を見ながら付加画像を作成できるので、利用者は自らの嗜好に合った合成画像を効率よく容易に生成することができ、また撮影画像に対して化粧を行っているかのような落書きによる遊戯性または娯楽性を得ることができる。
【0013】
第4の発明は、第1から第3の発明のいずれかにおいて、
前記設定手段は、前記入力手段による入力位置の軌跡に応じて前記所定の属性を設定し、
前記付加画像生成手段は、前記3次元モデルデータから前記軌跡に応じた付加画像を作成することを特徴とする。
【0014】
このような第4の発明によれば、例えばタッチペンなどの入力手段の軌跡に応じて新たな付加画像が作成されるため、利用者は簡単な操作で自らの嗜好に合った合成画像を効率よく容易に生成することができる。特に、遊技用写真作成装置では、操作の習熟を利用者に期待できず、また撮影時間や落書き時間などの利用時間に制限が設けられているため、軌跡を利用することにより簡単かつ直感的に操作可能である上記構成は極めて有効である。
【0015】
第5の発明は、第1から第3までのいずれかの発明において、
前記設定手段は、前記入力手段による所定の入力状態の継続時間に応じて前記所定の属性を設定し、
前記付加画像生成手段は、前記3次元モデルデータから前記経過時間に応じた付加画像を作成することを特徴とする。
【0016】
このような第5の発明によれば、例えばタッチペンなどの入力手段の入力状態の継続時間(例えば押下時間)に応じて新たな付加画像が作成されるため、利用者は簡単な操作で自らの嗜好に合った合成画像を効率よく容易に生成することができる。特に、遊技用写真作成装置では、操作の習熟を利用者に期待できず、また撮影時間や落書き時間などの利用時間に制限が設けられているため、入力状態の継続時間に応じて簡単かつ直感的に操作可能である上記構成は極めて有効である。
【0017】
第6の発明は、第1から第3までのいずれかの発明において、
前記設定手段は、前記入力手段に対して前記利用者により加えられる押圧力に応じて前記所定の属性を設定し、
前記付加画像生成手段は、前記3次元モデルデータから前記押圧力に応じた付加画像を作成することを特徴とする。
【0018】
このような第6の発明によれば、例えばタッチペンなどの入力手段の押圧力(例えば筆圧)に応じて新たな付加画像が作成されるため、利用者は簡単な操作で自らの嗜好に合った合成画像を効率よく容易に生成することができる。特に、遊技用写真作成装置では、操作の習熟を利用者に期待できず、また撮影時間や落書き時間などの利用時間に制限が設けられているため、押圧力により簡単かつ直感的に操作可能である上記構成は極めて有効である。
【0019】
第7の発明は、所定の撮影領域における被写体である利用者を撮影する撮影ステップと、当該撮影ステップにより得られる撮影画像を含む合成画像を表示する表示ステップと、当該合成画像を写真として印刷する出力ステップとを備える自動写真作成方法であって、
前記利用者による操作を受け付ける入力ステップと、
前記入力ステップにおいて受け付けられた操作に応じて、前記撮影画像に合成されるべき付加画像を生成するための3次元モデルデータに対して所定の属性を設定する設定ステップと、
前記設定ステップにおいて設定される所定の属性に応じて、前記3次元モデルデータから2次元の画像である前記付加画像を生成する付加画像生成ステップと、
前記付加画像と前記撮影画像とを合成することにより前記合成画像を生成する合成ステップと
を含むことを特徴とする。
【0020】
第8の発明は、第7の発明に記載の自動写真作成方法をコンピュータに実行させることを特徴とするプログラムである。
【0021】
第9の発明は、第7の発明に記載の自動写真作成方法により写真として印刷されたことを特徴とする印刷媒体である。
【0022】
【発明の実施の形態】
以下、本発明の一実施形態につき添付図面を参照して説明する。
<1. 全体構成>
図1は、本発明の一実施形態に係る自動写真作成装置である遊戯用写真作成装置を側面から見た図であり、図2は、この遊戯用写真作成装置の本体部4を正面から(被写体としての利用者Uから見た)図である。以下、図1および図2を参照して、本実施形態に係る遊戯用写真作成装置の全体構成について説明する。
【0023】
この遊戯用写真作成装置は、利用者Uが入る撮影室2と、利用者Uの撮影画像を含む合成画像を生成して写真シール(または写真カード)として出力する本体部4とを備えており、撮影室2内には利用者Uの背景を提供する背景パネルを備えている。
【0024】
本体部4は、利用者Uを撮影する撮像手段としてのカメラ10と、当該カメラ10の上方の適宜の位置に配置され閃光を発するフラッシュ11と、当該カメラ10の下方に配置されたCRT(Cathode Ray Tube)または液晶ディスプレイパネル等からなる表示装置であるプレビューモニタ22と、撮影画像を表示し、利用者Uによる自由な作図(落書き)を行うための画面や、操作画面などを提供する液晶ディスプレイおよび当該操作画面を覆う操作位置検出用の透明シートからなる液晶タッチパネル20と、液晶タッチパネル20に対する操作に使用されるタッチペン21とを備える。なお、図ではこのタッチペン21は1つ備えられるが、2つ以上備えられてもよい。また、液晶タッチパネル20は、上記透明シートを含まない静電誘導方式の操作位置検出機能を有する液晶タッチパネルであってもよい。カメラ10は、撮影室2の床面上に存在する利用者Uを被写体として撮影し、その撮影画像を表す画像信号を出力する。典型的には、CCD(電荷結合素子)を利用してデジタル画像信号を生成するデジタルカメラが使用される。プレビューモニタ22は、上記画像信号の表す画像をリアルタイムで表示するように構成されており、カメラ10によって得られる撮影画像を確認するために使用される。液晶タッチパネル20は、後述の落書き処理の際に撮影画像を指定するための操作手段や、落書きを行うための操作手段などとして機能する。
【0025】
また本体部4は、コンピュータを中心に構成され各部の制御や上記画像合成等の画像処理を行う主制御装置およびI/O制御装置や、カメラ10により得られる撮影画像または当該撮影画像を含む合成画像を写真シール(または写真カード)として出力するプリンタ等を内蔵している。さらに、本体部4は、前面下方にコイン投入口26を、側面に写真シールの取出口28を、それぞれ備えている。さらにまた、本体部4は、本遊戯用写真作成装置の動作中は常時点灯される照明装置201L,201Rをカメラ10の左右にそれぞれ備えている。
【0026】
<2. 機能的構成>
図3は、本実施形態に係る遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。この遊戯用写真作成装置は、機能的には、撮像部52と、確認表示部54と、メイン表示・操作部62と、出力部64と、照明部70と、I/O制御部72と、主制御部80とから構成される。
【0027】
この構成において、撮像部52は、CCD等の撮像素子を用いて構成されるカメラ10に相当し、リアルタイムに画像を取り込んで当該画像(この画像は「スルー画像」と呼ばれることがあるが、以下では「モニタ用撮影画像」というものとする)を表す画像信号を出力する。この画像信号は主制御部80に入力されて、その内部のメモリにモニタ用画像データとして一時的に記憶される。また、このモニタ用画像データは、モニタ用画像信号として主制御部80から確認表示部54に供給される。確認表示部54は、プレビューモニタ22に相当し、そのモニタ用画像信号に基づきモニタ用撮影画像をリアルタイムで表示する。
【0028】
メイン表示・操作部62は、液晶タッチパネル20に相当し、後述の落書き処理に関連する利用者Uの操作や、シャッター操作、プリント出力のための操作等を受け付け、これらの操作を示す信号は、操作信号として主制御部80に入力される。いま、利用者Uの撮影のためにシャッターボタン(不図示)が押下されたとすると、主制御部80からの指示に基づき、数秒程度の予め決められた時間の経過後にカメラ10の撮影方向にフラッシュ11から閃光が放たれ、利用者Uの撮影画像を表す信号として撮像部52から出力される画像信号が主制御部80に入力され、主制御部80内のメモリまたは補助記憶装置としてのハードディス装置等に撮影画像データとして格納される。出力部64は、本体部4に内蔵されるプリンタに相当し、主制御部80からの指示に基づき、この撮影画像データの表す画像を写真シール(または写真カード)として出力する。
【0029】
照明部70は、本体部4における照明装置201L,201Rとフラッシュ11とに相当し、主制御部80からの指示に基づきI/O制御部72によって点灯/消灯および調光が制御される。
【0030】
I/O制御部72は、本体部4に内蔵されるI/O制御装置に相当し、主制御部80からの指示に基づき、照明部70を制御すると共に、後述のコイン検出部(不図示)からの検出信号等の入力信号を主制御部80へ転送する。
【0031】
主制御部80は、本体部4に内蔵され、CPU(Central Processing Unit )や、メモリ、フレームバッファ、タイマー、補助記憶装置などを含むコンピュータを中心に構成される主制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、上述のようにして入力される操作信号に基づき各部を制御するために、上述のように各部に指示を出す。また、撮影画像に対する後述の落書き処理を行い、操作信号に基づき上記の撮影画像データの一部を書き換えることにより、撮影画像に所定画像を描画した画像である合成画像を生成する。生成された画像はフレームバッファに書き込まれることにより、メイン表示・操作部62に表示される。なお、ここで描画されるうる画像としては、後述する落書き処理により生成される立体形状の画像のほか、予め複数種類の3次元または2次元の形状を有する画像(典型的には星形を表す画像やハート形を表す画像のような周知パターンの画像であるが、これに限定されるものではなく、例えば予め取得された撮影画像であってもよい)が用意されて主制御部80内のメモリまたは補助記憶装置に格納されていてもよい。上記のような画像合成が終了すると、その後、出力部からは合成画像が写真シール等として出力される。出力された写真シール等は、本体部4の側面に設けられた取出口28から取り出される。
【0032】
上記の構成要素の他、本体部4におけるコイン投入口26に投入されたコインを検出するためのコイン検出部(不図示)が更に本体部4に設けられており、主制御部80は、コイン検出部での検出結果に基づき、利用者Uに所定時間だけ撮影や撮影画像に対する描画等による合成画像の生成など、本遊戯用写真作成装置によるプレイを許容するように各部を制御する。このコイン検出部やその検出結果に基づく主制御部80による制御動作は、従来の遊戯用写真作成装置と同様であって周知であるので、その詳しい説明を省略する。
【0033】
なお、主制御装置において実行される上記所定プログラムは、例えば、そのプログラムを記録した記録媒体であるCD−ROMによって提供される。すなわち、上記所定プログラムの記録媒体としてのCD−ROMが主制御装置内に補助記憶装置として内蔵されたCD−ROM駆動装置に装着され、そのCD−ROMから所定プログラムが読み出されて補助記憶装置としてのハードディスク装置にインストールされる。そして、本遊戯用写真作成装置の起動のための所定操作がなされると、ハードディスク装置にインストールされた所定プログラムは、主制御装置内のメモリに転送されてそこに一時的に格納され、主制御装置内のCPUによって実行される。これにより、主制御装置による上記各部の制御や後述の画像処理が実現される。
【0034】
<3. 動作>
上述のように本実施形態における主制御部80の動作は、その内部のCPUが上記所定プログラムを実行により実現される。図4は、このようにして実現される主制御部80の動作を示すフローチャートである。本実施形態では、コイン投入口26に所定のコインが投入されると、主制御部80(主制御装置)は、以下のように動作する。
【0035】
まず、主制御部80は、装置の初期化処理、すなわち各ハードウェアの初期化や、設定値として主制御部80に記憶されるデータの初期化処理を行う(ステップS10)。
【0036】
次に、利用者Uを撮影するための撮影処理が行われる(ステップS20)。この撮影処理が開始されると、主制御部80は、まず、予め決められた時間(以下「撮影時間」という)が経過するとタイムアウトとなるようにタイマーを設定し、そのタイマーをスタートさせる。その後、タイムアウトとなるまで、図示されないシャッターボタンまたはメイン表示・操作部62の画面に表示されるシャッターボタンが押下されたか否かを操作信号によって調べる。この間にシャッターボタンが押下されると、主制御部80は、撮影開始を利用者にメイン表示・操作部62の画面で知らせ、数秒程度の予め決められた時間の経過後に撮像部(カメラ)52に撮影信号(シャッター信号)を送る。これにより、撮像部52のシャッター動作と同期して照明部(フラッシュ)70が閃光を放ち、主制御部80がキャプチャ処理を開始する。すなわち、主制御部80は、照明部(フラッシュ)70からの閃光で照らされた利用者Uの撮影画像を表す信号として撮像部52から出力される画像信号を受け取り、メモリまたは補助記憶装置内に撮影画像の画像ファイルとして格納する。このようにして所定の撮影時間の間、シャッターボタンが押下される毎にキャプチャ処理が実行され、撮影画像が画像ファイルとして一時的に保存される。撮影時間が経過すると、タイムアウトとなって撮影処理を終了する。また、撮影時間の経過前であっても、メイン表示・操作部62に対して撮影処理の終了を指示する操作が行われると、撮影処理を終了する。
【0037】
続いて、落書きのための利用者Uによる操作を受け付け、当該操作に応じた画像処理を含む落書き処理が行われる(ステップS30)。ここで、この落書き処理の詳しい処理(サブルーチン)について説明する。図5は、このサブルーチンの手順を示すフローチャートである。
【0038】
まず、撮影画像が複数取得された場合、主制御部80は、そのうちのひとつを利用者に選択させた後、落書き処理のために予め決められた時間(以下「落書き時間」という)を設定する(ステップS31)。すなわち、撮影画像が複数取得された場合、まずこれらの撮影画像をメイン表示・操作部62の画面に表示し、いずれの画像が選択(例えばタッチペン21で画面の所定部分が押下)されたかを操作信号によって調べ、選択された撮影画像を落書き対象となるべき撮影画像(以下「対象撮影画像」という)として設定する。さらに、予め決められた時間(以下「落書き時間」という)が経過するとタイムアウトとなるようにタイマーを設定し、そのタイマーをスタートさせる。そして、この落書き時間を示すタイムアウトまでの残り時間、対象撮影画像、および各種落書きのための操作アイコン等を含む落書きのための初期画面がメイン表示・操作部62に表示される。
【0039】
次に、主制御部80は、落書きのため予めメイン表示・操作部62の初期画面に表示された所定の立体形状を有する複数のスタンプ画像の中から、いずれかの画像を選択するための操作がメイン表示・操作部62において行われたか否かを判定する(ステップS32)。この判定の結果、このようなスタンプ画像の選択操作が行われていない場合は、そのままステップS34の処理へ進み、このような選択操作が行われた場合には、当該選択操作に応じて、後述する3次元スタンプ描画処理を行い(ステップS33)、その後にステップS34の処理へ進む。
【0040】
ステップS34では、落書きのためメイン表示・操作部62の初期画面上に予め用意された所定の軌跡を有する複数の(仮想的な)落書きペンの中から、いずれかのペンを選択するための操作がメイン表示・操作部62において行われたか否かを判定する。この判定の結果、このような落書きペンの選択操作が行われていない場合は、そのままステップS36の処理へ進み、このような選択操作が行われた場合には、当該選択操作に基づき、後述する3次元落書きペン描画処理を行い(ステップS35)、その後にステップS36の処理へ進む。
【0041】
ステップS36では、落書きが終了したか否か、すなわち落書き時間が経過したか、または落書き時間の経過前にメイン表示・操作部62に対する操作により落書きが中止(または印刷開始が指示)されたか否かを判定する。この判定の結果、落書きが終了した場合、主制御部80は、図4に示す処理へ復帰し、ステップS40における印刷処理へ進む。落書き処理が終了しない場合には、ステップS32の処理に戻り、落書き処理が終了するまで上記処理が繰り返される。
【0042】
なお、図5に示す落書き処理では、3次元スタンプ描画処理および3次元落書きペン描画処理のみが含まれるが、これらに限定されるものではなく、合成画像を作成するための手書き画像描画処理や所定の画像処理などが含まれていてもよいし、予め用意された複数の背景画像または前景画像(フレーム)からひとつが適宜選択されてもよい。また、対象撮影画像の選択はステップS31のほか、例えばステップS36の処理中または処理直前において再度または繰り返して何度も行われてもよい。
【0043】
図4に示すステップS40における印刷処理では、主制御部80は、印刷指示を示す操作信号を受け取ると、これに基づき、その時点でメイン表示・操作部62に表示されている合成画像の出力を出力部(プリンタ)64に指示する。これにより、出力部64としてプリンタは、その合成画像を写真シールとして出力する。これにより、印刷処理が終了する。出力された写真シールは、本体部4の側面に設けられた取出口28から利用者Uによって取り出される。この印刷処理が終了すると、全ての処理は終了され、所定の金額に相当するコインが新たにコイン投入口26に投入されるまで待機状態となる。この待機状態において、所定の金額に相当するコインが新たに投入されると、上記と同様の処理(ステップS10〜S40)が実行され、その後、再びステップS10へ戻る。
【0044】
ここで、図5に示すステップS33の3次元スタンプ描画処理についての詳しい処理(サブルーチン)について説明する。図6は、このサブルーチンの手順を示すフローチャートである。
【0045】
まず、主制御部80は、メイン表示・操作部62の画面の中から選択されたスタンプ画像に対応する、所定の立体形状を作成するための3次元モデルを構成するデータ(以下「3次元データ」という)を補助記憶装置から呼び出し、3次元画像処理のための各種設定値とともにメモリに一時記憶する(ステップS331)。なお、スタンプ画像の選択操作は、メイン表示・操作部62の画面における所定部分をタッチペン21により押下する動作、より詳しくはタッチペン21を一旦画面上に下ろした後に上げる(画面から離す)動作によりなされる。したがって、スタンプ画像が選択されたとき、タッチペン21は上げられている。
【0046】
次に、メイン表示・操作部62に対しタッチペン21が下ろされる操作がなされたか否かを判定する(ステップS332)。この判定の結果、タッチペン21が未だ下ろされていない場合には、下ろされるまで待機し、タッチペン21が下ろされた場合に、ステップS333の処理へ進む。なお、上記待機中には所定のキャンセルのための操作に基づくキャンセル処理または所定時間の経過に基づくタイムアウト処理がなされるものとする。
【0047】
続いて、主制御部80は、メイン表示・操作部62の画面上でのタッチペン21の位置座標(X,Y)と、タッチペン21が当該画面上に下ろされたときからの経過時間TDとを取得する(ステップS333)。
【0048】
そして、上記ステップS331において呼び出された所定の3次元データから、この経過時間TDに応じて属性を変化させた新たな3次元データを作成する(ステップS334)。ここで、上記属性は、3次元データが構成する立体の配置位置、向き、大きさ、色、または表面の模様や反射率などのほか、球に徐々に近似させる(丸みを付ける)ような変形を行う場合や、放射状の星形に徐々に近似させるような変形を行う場合などに生じる、あらゆる外観を含む。また、経過時間TDは、上記属性の変化量や変化率、変形率など、上記属性の変化量または変化率と関連づけられる。例えば、経過時間TDが大きくなるほど、色が赤くなったり、大きさが大きくなったり、形が丸みを帯びたりするように、属性変化と経過時間TDとが関連づけられる。なお、上記属性の変化は、例えば、経過時間TDが大きくなることにより、最大値まで増加すると次に最小値まで戻り再び増加するような循環的な変化、または最大値まで増加すると減少に転じさらに最小値まで減少すると増加に転じるような振動的な変化が好ましい。図7は、このようなスタンプ画像の画面上での属性の変化を示す図である。図7(a)に示すスタンプ画像は、タッチペン21で押下された(タッチペン21が下ろされた)状態で維持されると時計回りに回転し、所定時間の経過後には、時計回りに90度回転された図7(b)に示すスタンプ画像となるように属性(配置方向)が変化する。
【0049】
さらに、このようにして作成された3次元データに対して、所定のレンダリングが行われることにより立体形状を表す2次元のスタンプ画像が作成される(ステップS335)。このレンダリングには、所定の座標変換、隠面消去、シェーディング、およびテクスチャマッピングなどの各種の手法が含まれるが、これらの手法は公知であるためその詳細な内容については説明を省略する。なお、ステップS334での属性の変化を上記レンダリングにより実現することができる場合、ステップS334,S335の両処理は一体的になされる。すなわち、上記ステップS331において呼び出された所定の3次元データに対して、経過時間TDに応じて属性を変化させるように所定のレンダリングが行われることにより上記スタンプ画像が作成される。
【0050】
この2次元のスタンプ画像は、画面上のタッチペン21の位置座標(X,Y)に対応するフレームバッファのアドレス位置を基点として描画される(ステップS336)。このことにより、メイン表示・操作部62に当該2次元のスタンプ画像が表示される。具体的には、すでに表示されている対象撮影画像上の一部分に、当該スタンプ画像が合成表示(例えば上書き)される。なお、ペンが画面上に下ろされたまま動かされる(ドラッグされる)場合、上記位置座標(X,Y)が変化するため、この変化に応じて上記2次元のスタンプ画像の描画位置も移動する。
【0051】
続いて、メイン表示・操作部62に対しタッチペン21が上げられる操作がなされたか否かを判定する(ステップS337)。この判定の結果、タッチペン21が下ろされている場合、ステップS333の処理に戻り、ペンが上げられるまで上記処理が繰り返される(S337→S333→S334→S335→S336→S337)。ペンが上げられた場合、3次元スタンプ画像描画処理は終了して図5に示す処理へ復帰し、ステップS34の処理へ進む。前述したように、ステップS34では、いずれかの落書きペンを選択するための操作がメイン表示・操作部62において行われたか否かが判定され、この判定の結果、当該選択操作が行われた場合には、3次元落書きペン描画処理が行われる(ステップS35)。
【0052】
ここで、上記ステップS35の3次元落書きペン描画処理についての詳しい処理(サブルーチン)について説明する。図8は、このサブルーチンの手順を示すフローチャートである。
【0053】
まず、主制御部80は、メイン表示・操作部62の画面の中から選択された落書きペンに対応する所定の3次元データを補助記憶装置から呼び出し、3次元画像処理のための各種設定値とともにメモリに一時記憶する(ステップS351)。なお、落書きペンの選択操作もスタンプ画像の選択操作と同様、タッチペン21を一旦メイン表示・操作部62の画面上に下ろした後に上げる動作によりなされるので、落書きペンが選択されたとき、タッチペン21は上げられている。
【0054】
次に、メイン表示・操作部62に対しタッチペン21が下ろされる操作がなされたか否かを判定する(ステップS352)。この判定の結果、タッチペン21が未だ下ろされていない場合には、下ろされるまで待機し、タッチペン21が下ろされた場合に、ステップS353の処理へ進む。なお、上記待機中には所定のキャンセル処理またはタイムアウト処理がなされる。
【0055】
続いて、主制御部80は、メイン表示・操作部62の画面上でのタッチペン21の現在の位置座標(X,Y)を取得し、連続的な軌跡を示す座標列としてとしてメモリに記憶する(ステップS353)。
【0056】
さらに、画面上のタッチペン21の位置座標(X,Y)に対応するフレームバッファのアドレス位置に、上記軌跡を示す連続的な線が描画される(ステップS354)。このことにより、メイン表示・操作部62に当該軌跡が表示される。具体的には、すでに表示されている対象撮影画像上の一部分に、当該軌跡が合成表示される。
【0057】
続いて、メイン表示・操作部62に対しタッチペン21が上げられる操作がなされたか否かを判定する(ステップS355)。この判定の結果、タッチペン21が下ろされている場合、ステップS353の処理に戻り、ペンが上げられるまで上記処理が繰り返される(S355→S353→S354→S355)。ペンが上げられた場合には、ステップS356の処理へ進む。
【0058】
次に、上記ステップS351において呼び出された所定の3次元データから、上記ステップS353において得られた座標列により示される当該軌跡を変形方向(の基準線)とする新たな3次元データを作成する(ステップS356)。具体的には、軌跡により与えられた変形方向の基準線に沿って引き延ばすように上記所定の3次元データを変形することにより、新たな3次元データを作成する。したがって、ここでは3次元データの形状(例えば奥行き)という属性が変化することになる。
【0059】
さらに、このようにして作成された3次元データに対して、所定のレンダリングが行われることにより立体形状を表す2次元画像が作成される(ステップS357)。なお、ステップS356,S357の両処理は、ステップS334,S335の両処理と同様に、一体的になされる場合も考えられる。この場合には、上記ステップS351において呼び出された所定の3次元データに対して、上記軌跡に応じて形状を変化させるように所定のレンダリングが行われることにより上記2次元画像が作成される。
【0060】
続いて、上記ステップS354において描画された軌跡を示す線が消去された後、上記2次元画像は、軌跡を示す線の位置に対応するフレームバッファのアドレス位置に描画される(ステップS358)。このことにより、メイン表示・操作部62に当該2次元画像が、すでに表示されている対象撮影画像上の一部分に合成表示される。その後、3次元落書きペン描画処理は終了して図5に示す処理へ復帰し、ステップS36の処理へ進む。
【0061】
図9は、このような3次元落書きペン描画処理における表示例を示す図である。メイン表示・操作部62の画面上にタッチペン21が下ろされて動かされると、図9(a)に示すような軌跡を示す線が描画される。その後、タッチペン21が上げられると、図9(b)に示すような立体形状を有する2次元画像が描画される。
【0062】
<4. 変形例>
ここで、上記ステップS35の3次元落書きペン描画処理についての変形例を示す詳しい処理(サブルーチン)について説明する。図10は、この変形例であるサブルーチンの手順を示すフローチャートである。
【0063】
まず、主制御部80は、メイン表示・操作部62の画面の中から選択された落書きペンに対応する所定の3次元データを補助記憶装置から呼び出し、3次元画像処理のための各種設定値とともにメモリに一時記憶する(ステップS551)。次に、メイン表示・操作部62に対しタッチペン21が下ろされる操作がなされたか否かを判定する(ステップS552)。この判定の結果、タッチペン21が未だ下ろされていない場合には、下ろされるまで待機し、タッチペン21が下ろされた場合に、ステップS553の処理へ進む。なお、上記待機中には所定のキャンセル処理またはタイムアウト処理がなされる。
【0064】
さらに、主制御部80は、メイン表示・操作部62の画面上でのタッチペン21の初期位置座標(X0,Y0)を取得する(ステップS353)。この初期位置座標(X0,Y0)は、画面上での落書きペンが最初に下ろされる位置に相当する。ここでは前述のように軌跡を示す線が引かれるのではなく、この初期位置から動かされる落書きペンの軌跡に沿って、立体形状を表す2次元画像が画面上に順次描画される。
【0065】
続いて、主制御部80は、メイン表示・操作部62の画面上でのタッチペン21の現在の位置座標(X,Y)を取得し、初期位置座標(X0,Y0)からの連続的な軌跡を示す座標列としてとしてメモリに記憶する(ステップS554)。もちろん、タッチペン21が上記画面上に下ろされた直後には、タッチペン21の現在の位置座標(X,Y)は初期位置座標(X0,Y0)と等しいが、その後タッチペン21が動かされるにつれて、その軌跡を示す新たな座標列が得られる。
【0066】
そして、上記ステップS551において呼び出された所定の3次元データから、上記ステップS554において得られた座標列により示される軌跡を変形方向(の基準線)とする新たな3次元データを作成する(ステップS555)。なお、この変形方向の基準線は所定の長さの初期値を有しており、タッチペン21が上記画面上に下ろされた直後であっても所定の形状を有する3次元データが作成される。ここで、上記軌跡は変形方向を規定するが、これに限定されるわけではなく、例えば、3次元データにより表される立体図形の所定部分が延ばされるように変形されるときの変形位置や変形量を規定してもよい。
【0067】
さらに、このようにして作成された3次元データに対して、所定のレンダリングが行われることにより立体形状を表す2次元画像が作成される(ステップS556)。続いて、上記2次元画像は、初期位置座標(X0,Y0)に対応するフレームバッファのアドレス位置を基点として描画される(ステップS557)。このことにより、メイン表示・操作部62に当該2次元画像が、すでに表示されている対象撮影画像上の一部分に合成表示される。
【0068】
続いて、メイン表示・操作部62に対しタッチペン21が上げられる操作がなされたか否かを判定する(ステップS558)。この判定の結果、タッチペン21が下ろされている場合、ステップS554の処理に戻り、ペンが上げられるまで上記処理が繰り返される(S558→S554→S555→S556→S557→S558)。ペンが上げられた場合、3次元落書きペン描画処理は終了して図5に示す処理へ復帰し、ステップS36の処理へ進む。
【0069】
次に、上記ステップS33の3次元スタンプ画像描画処理についての変形例を示す詳しい処理(サブルーチン)について説明する。図11は、この変形例であるサブルーチンの手順を示すフローチャートである。
【0070】
まず、主制御部80は、メイン表示・操作部62の画面の中から選択されたスタンプ画像に対応する3次元データを補助記憶装置から呼び出し、3次元画像処理のための各種設定値とともにメモリに一時記憶する(ステップS531)。次に、メイン表示・操作部62に対しタッチペン21が下ろされる操作がなされたか否かを判定する(ステップS532)。この判定の結果、タッチペン21が未だ下ろされていない場合には、下ろされるまで待機し、タッチペン21が下ろされた場合に、ステップS533の処理へ進む。
【0071】
続いて、主制御部80は、メイン表示・操作部62の画面上でのタッチペン21の位置座標(X,Y)と、タッチペン21が利用者の手により当該画面上に押しつけられるときの押圧力(以下「筆圧」という)Ftとを取得する(ステップS533)。なお、この筆圧を検知可能であるタッチペンには静電結合方式などが用いられるが、その構成は公知であるため説明を省略する。
【0072】
そして、上記ステップS531において呼び出された所定の3次元データから、この筆圧Ftに応じて属性を変化させた新たな3次元データを作成する(ステップS534)。この属性の変化の例としては、筆圧が大きくなるほどスタンプ画像が大きくなる変化などが考えられるが、この属性の変化にはあらゆる外観上の変化が含まれることについては前述した通りである。さらに、このようにして作成された3次元データに対して、所定のレンダリングが行われることにより立体形状を表す2次元のスタンプ画像が作成される(ステップS535)。なお、ステップS534,S535の両処理が一体的になされる場合があることについては前述した通りである。
【0073】
このようにして作成された2次元のスタンプ画像は、画面上のタッチペン21の位置座標(X,Y)に対応するフレームバッファのアドレス位置を基点として描画される(ステップS536)。このことにより、メイン表示・操作部62に当該2次元のスタンプ画像が表示される。
【0074】
続いて、メイン表示・操作部62に対しタッチペン21が上げられる操作がなされたか否かを判定する(ステップS537)。この判定の結果、タッチペン21が下ろされている場合、ステップS533の処理に戻り、ペンが上げられるまで上記処理が繰り返される(S537→S533→S534→S535→S536→S537)。ペンが上げられた場合、3次元スタンプ画像描画処理は終了して図5に示す処理へ復帰し、ステップS34の処理へ進む。なお、上記の繰り返し処理が利用者の動作速度よりも極めて速い速度で行われる場合、ペンを上げる利用者の動作が筆圧を小さくする動作であるものして処理が行われることもあり得るため、上記繰り返し処理の速度を遅くするか、または筆圧がほぼ一定の状態から急激に小さくなりペンが上げられた場合にのみペンが上げられたものと判定されるなどの処理が行われることが好ましい。
【0075】
また、以上のように筆圧に基づく動作は、3次元落書きペン描画処理においても適用可能である。例えば、ステップS356(またはS555)において、描画されるべき立体形状の太さ(すなわち軌跡に対して垂直方向の幅)が筆圧に応じて変化するように当該3次元データが作成されることなどが考えられる。
【0076】
上記実施形態では、各種スタンプ画像または落書きペンに対応する3次元データは、予め補助記憶装置などに記憶されているが、この3次元データは(空間上の)所定の平面を示すものであってもよい。例えば、落書きペンの断面を示す平面が3次元データとして予め記憶されており、タッチペンの軌跡に沿って当該平面が移動するときに得られる体形状が生成される構成などが考えられる。また、この3次元データは利用者により作成されてもよい。例えば、利用者がメイン表示・操作部62にタッチペンで平面的な絵(例えばハートマークなど)を描くことにより、この絵に基づく平面を示す3次元データが作成され、この3次元データに基づき各種スタンプ画像または落書きペンに対応する画像が描画される構成などが考えられる。
【0077】
上記実施形態では、入力手段としてペン型入力手段であるタッチペンが備えられるが、入力位置の座標を取得可能な入力手段として、例えば指などで押すことにより座標入力が可能なタッチパネルやディジタイザ、マウス、またはトラックボールなどであってもよい。また、筆圧に相当する押圧力を検知するための圧力検知手段が新たに備えられてもよい。さらに、3次元データから所望の2次元画像を得るために必要な属性または属性変化を入力することができる入力手段であれば、必ずしも入力位置の座標を取得可能である必要はなく、例えばボタンやキーボード、画像認識や音声認識による入力装置などであってもよい。
【0078】
<1.4 効果>
上記のように本実施形態によれば、予め用意された(または利用者により作成された)1つまたは複数の3次元データに基づいてタッチペンの操作に応じた新たな属性を有する付加画像を作成する。このことにより、撮影画像と合成すべき付加画像を利用者の嗜好に応じて高い自由度で変化させることができる。したがって、落書きペンまたはスタンプ画像を利用者の嗜好に応じた外観が生じるように変化させることによる遊戯性または娯楽性を得ることができる。また、当該3次元データが予め記憶される場合、当該3次元データのみから多様な付加画像を生成することができるので、必要となる記憶容量を比較的小さくすることができる。
【0079】
さらに、本実施形態によれば、タッチペンの軌跡、押下時間、または筆圧に応じて新たな付加画像が作成されるため、利用者は簡単な操作で自らの嗜好に合った合成画像を効率よく容易に生成することができる。特に、遊技用写真作成装置では、操作の習熟を利用者に期待できず、また撮影時間や落書き時間などの利用時間に制限が設けられているため、タッチペンにより簡単かつ直感的に操作可能である上記構成は極めて有効である。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る遊戯用写真作成装置の側面図である。
【図2】一実施形態に係る遊戯用写真作成装置の本体部を示す正面図である。
【図3】一実施形態に係る遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。
【図4】一実施形態に係る遊戯用写真作成装置における主制御部の動作を説明するためのフローチャートである。
【図5】一実施形態におけるステップS30のサブルーチン処理の手順を示すフローチャートである。
【図6】一実施形態におけるステップS33のサブルーチン処理の手順を示すフローチャートである。
【図7】一実施形態におけるスタンプ画像の画面上での属性の変化を示す図である。
【図8】一実施形態におけるステップS35のサブルーチン処理の手順を示すフローチャートである。
【図9】一実施形態における3次元落書きペン描画処理における表示例を示す図である。
【図10】一実施形態の変形例におけるステップS35のサブルーチン処理の手順を示すフローチャートである
【図11】一実施形態の変形例におけるステップS33のサブルーチン処理の手順を示すフローチャートである
【符号の説明】
2 …撮影室
4 …本体部
10 …カメラ
20 …液晶タッチパネル
21 …タッチペン
52 …撮像部(カメラ)
54 …確認表示部(プレビューモニタ)
62 …操作部(液晶タッチパネル)
64 …出力部(プリンタ)
70 …照明部
72 …I/O制御部(I/O制御装置)
80 …主制御部(主制御装置)
TD …経過時間
Ft …筆圧
U …利用者[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an automatic photograph creation device that photographs a user with a camera and outputs a composite image generated based on the photographed image as a photograph.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been known an amusement photo creator that captures a user with a camera and outputs the captured image as a photograph. Such a game photo creation device has a high level of playability or recreation, so that an image to be combined with a photographed image (hereinafter referred to as an “additional image”) can be prepared in various types in accordance with the user's preference. Many are configured so that a user can select from various background images and foreground images, and freely draw using a pen-type input unit such as a touch pen or a light pen. Such an action by the user is performed on the photographed image, and is therefore called “graffiti”.
[0003]
Examples of the graffiti include an operation of freely drawing a curve having a predetermined thickness and color on the screen by the pen-type input means, and selecting one of a plurality of relatively small images prepared in advance on the screen. There is an operation of pasting and synthesizing at an arbitrary position. The former operation is called “graffiti with a graffiti pen”, and the cursor for indicating the command for forming the curve or the position for forming the curve on the screen is called “graffiti pen”. The latter image is called a “stamp”.
[0004]
[Problems to be solved by the invention]
However, since one or more of the graffiti pens or the stamps are prepared in advance in the amusement photo creator, the types thereof are limited. For this reason, even if the user can freely determine the locus of the doodle pen or the sticking position or the number of stickers of the stamp, the user cannot do the scribbling with the scribble pen or the stamp such that an appearance other than the prepared type is generated. . Therefore, in the conventional amusement photo creator, it is not possible to obtain the amusement or entertainment by changing the graffiti pen or the stamp so as to have an appearance according to the user's preference.
[0005]
Therefore, an object of the present invention is to provide an automatic photo creation device and an automatic photo creation method that can change an additional image to be combined with a photographed image with a high degree of freedom according to a user's preference.
[0006]
Means for Solving the Problems and Effects of the Invention
According to a first aspect of the present invention, an imaging unit for imaging a user who is a subject in a predetermined imaging region, a display unit for displaying a composite image including a captured image obtained by the imaging unit, and outputting the composite image as a photograph An automatic photo creation device comprising output means,
Input means for receiving an operation by the user;
Setting means for setting a predetermined attribute to three-dimensional model data for generating an additional image to be combined with the photographed image in accordance with an operation received by the input means;
An additional image generation unit configured to generate the additional image that is a two-dimensional image from the three-dimensional model data according to a predetermined attribute set by the setting unit;
Synthesizing means for generating the synthesized image by synthesizing the additional image and the photographed image;
It is characterized by having.
[0007]
According to the first aspect, an additional image having a new attribute corresponding to an operation of an input unit is created based on one or a plurality of three-dimensional data prepared in advance (or created by a user). create. Thus, the additional image to be combined with the captured image can be changed with a high degree of freedom according to the user's preference. Therefore, it is possible to obtain playability or entertainment by changing an additional image such as an image using a graffiti pen or a stamp image so as to have an appearance according to the user's preference.
[0008]
When the three-dimensional data is stored in advance, various additional images can be generated only from the three-dimensional data, so that the required storage capacity can be made relatively small.
[0009]
In a second aspect, in the first aspect,
The input means is a pen-type input means capable of acquiring coordinates indicating an input position.
[0010]
According to the second aspect, since the additional image is created by the operation of the pen-type input unit, the user can efficiently and easily generate a composite image that suits his / her taste by a simple operation. it can. In particular, in the game photo creation device, since the user is not expected to be proficient in the operation, and the use time such as the shooting time and the graffiti time is limited, the operation can be easily and intuitively performed by the pen-type input means. The above possible configurations are extremely effective.
[0011]
A third invention is a method according to the first or second invention,
The input means is integrally formed with the display means.
[0012]
According to the third aspect, the user can create the additional image while viewing the image (for example, the photographed image or the locus of the pen) displayed on the display means. It is possible to efficiently and easily generate a composite image, and it is possible to obtain playability or amusement by graffiti as if makeup is applied to a captured image.
[0013]
In a fourth aspect, in any one of the first to third aspects,
The setting means sets the predetermined attribute according to a locus of an input position by the input means,
The additional image generation unit may generate an additional image according to the trajectory from the three-dimensional model data.
[0014]
According to the fourth aspect, a new additional image is created according to the trajectory of an input unit such as a touch pen, so that the user can efficiently create a composite image that matches his or her taste by a simple operation. Can be easily generated. In particular, in the game photo creation device, since the user cannot expect the mastery of the operation, and the use time such as the photographing time and the graffiti time is limited, the use of the trajectory makes it easy and intuitive. The above operable configuration is extremely effective.
[0015]
According to a fifth aspect, in any one of the first to third aspects,
The setting means sets the predetermined attribute according to the duration of a predetermined input state by the input means,
The additional image generation unit may generate an additional image according to the elapsed time from the three-dimensional model data.
[0016]
According to the fifth aspect, a new additional image is created in accordance with the duration (for example, pressing time) of the input state of the input unit such as a touch pen, so that the user can perform his or her own operation with a simple operation. It is possible to efficiently and easily generate a synthesized image that matches the taste. In particular, with a game photo creation device, the user cannot expect the user to become proficient in the operation, and there are restrictions on the usage time such as shooting time and graffiti time. The above-mentioned configuration which can be operated operatively is extremely effective.
[0017]
According to a sixth aspect, in any one of the first to third aspects,
The setting means sets the predetermined attribute according to a pressing force applied by the user to the input means,
The additional image generation unit may generate an additional image according to the pressing force from the three-dimensional model data.
[0018]
According to the sixth aspect, a new additional image is created according to a pressing force (for example, a pen pressure) of an input unit such as a touch pen, so that the user can easily match his / her preference with a simple operation. The synthesized image can be efficiently and easily generated. In particular, in the game photo creation device, the user cannot expect the mastery of the operation, and since the use time such as the photographing time and the graffiti time is limited, the operation can be easily and intuitively performed by the pressing force. Some of the above configurations are extremely effective.
[0019]
According to a seventh aspect, a photographing step of photographing a user who is a subject in a predetermined photographing area, a display step of displaying a composite image including a photographed image obtained by the photographing step, and printing the composite image as a photograph An automatic photo creation method comprising:
An input step of receiving an operation by the user;
A setting step of setting a predetermined attribute to three-dimensional model data for generating an additional image to be combined with the photographed image in accordance with the operation received in the input step;
An additional image generating step of generating the additional image that is a two-dimensional image from the three-dimensional model data according to a predetermined attribute set in the setting step;
A combining step of generating the combined image by combining the additional image and the captured image;
It is characterized by including.
[0020]
An eighth invention is a program for causing a computer to execute the automatic photo creation method according to the seventh invention.
[0021]
A ninth invention is a print medium characterized by being printed as a photograph by the automatic photograph creation method according to the seventh invention.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.
<1. Overall Configuration>
FIG. 1 is a side view of an amusement photo creator, which is an automatic photographic creator according to an embodiment of the present invention, and FIG. FIG. 3 is a diagram (as viewed from a user U as a subject). Hereinafter, with reference to FIG. 1 and FIG. 2, an overall configuration of the game photo creation device according to the present embodiment will be described.
[0023]
This game photo creation device includes a photographing
[0024]
The main body unit 4 includes a
[0025]
The main unit 4 is mainly composed of a computer, and is a main control device and an I / O control device that control each unit and perform image processing such as the image synthesis described above, a captured image obtained by the
[0026]
<2. Functional configuration>
FIG. 3 is a block diagram showing a configuration of a main part of the game photo creation device according to the present embodiment viewed from a functional aspect. Functionally, the game photograph creation device includes an
[0027]
In this configuration, the
[0028]
The main display /
[0029]
The illuminating
[0030]
The I /
[0031]
The
[0032]
In addition to the above-described components, a coin detection unit (not shown) for detecting a coin inserted into the
[0033]
The predetermined program executed by the main control device is provided, for example, by a CD-ROM which is a recording medium on which the program is recorded. That is, a CD-ROM as a recording medium of the predetermined program is mounted on a CD-ROM drive device built in the main control device as an auxiliary storage device, and the predetermined program is read from the CD-ROM and is stored in the auxiliary storage device. Is installed on the hard disk device. Then, when a predetermined operation for starting the present game photo creation device is performed, a predetermined program installed in the hard disk device is transferred to a memory in the main control device and temporarily stored therein, and is stored in the main control device. It is executed by the CPU in the device. As a result, control of each unit by the main controller and image processing described later are realized.
[0034]
<3. Operation>
As described above, the operation of the
[0035]
First, the
[0036]
Next, a photographing process for photographing the user U is performed (step S20). When the photographing process is started, first, the
[0037]
Subsequently, an operation by the user U for graffiti is received, and a graffiti process including image processing according to the operation is performed (step S30). Here, a detailed process (subroutine) of the graffiti process will be described. FIG. 5 is a flowchart showing the procedure of this subroutine.
[0038]
First, when a plurality of captured images are acquired, the
[0039]
Next, the
[0040]
In step S34, an operation for selecting one of a plurality of (virtual) graffiti pens having a predetermined locus prepared in advance on the initial screen of the main display /
[0041]
In step S36, whether or not the graffiti has ended, that is, whether or not the graffiti time has elapsed, or whether or not the graffiti has been stopped (or the start of printing has been instructed) by an operation on the main display /
[0042]
Note that the graffiti processing shown in FIG. 5 includes only three-dimensional stamp drawing processing and three-dimensional graffiti pen drawing processing, but is not limited thereto. May be included, or one of a plurality of background images or foreground images (frames) prepared in advance may be appropriately selected. In addition to the step S31, the selection of the target photographed image may be performed again or repeatedly, for example, during or immediately before the processing of the step S36.
[0043]
In the printing process in step S40 shown in FIG. 4, upon receiving an operation signal indicating a print instruction, the
[0044]
Here, a detailed process (subroutine) of the three-dimensional stamp drawing process in step S33 shown in FIG. 5 will be described. FIG. 6 is a flowchart showing the procedure of this subroutine.
[0045]
First, the
[0046]
Next, it is determined whether or not an operation of lowering the
[0047]
Subsequently, the
[0048]
Then, from the predetermined three-dimensional data called in step S331, new three-dimensional data whose attribute is changed according to the elapsed time TD is created (step S334). Here, the above attributes include the arrangement position, orientation, size, color, surface pattern and reflectivity of the solid formed by the three-dimensional data, and a deformation that gradually approximates (rounds) a sphere. , Or a deformation that gradually approximates a radial star shape. In addition, the elapsed time TD is associated with the change amount or change rate of the attribute, such as the change amount, change rate, and deformation rate of the attribute. For example, the attribute change is associated with the elapsed time TD such that the larger the elapsed time TD, the redder the color, the larger the size, or the rounder the shape. Note that the change in the attribute is, for example, a cyclic change in which the elapsed time TD increases, increases to the maximum value, returns to the next minimum value and then increases again, or decreases to the maximum value, and then decreases. Oscillatory changes are preferred, such that when they decrease to a minimum, they turn to increase. FIG. 7 is a diagram showing a change in attribute of such a stamp image on the screen. The stamp image shown in FIG. 7A rotates clockwise when maintained in a state where the
[0049]
Further, a predetermined rendering is performed on the three-dimensional data created in this way, thereby creating a two-dimensional stamp image representing a three-dimensional shape (step S335). The rendering includes various methods such as a predetermined coordinate transformation, hidden surface removal, shading, and texture mapping. Since these methods are known, detailed description thereof will be omitted. If the attribute change in step S334 can be realized by the above-described rendering, the processes in steps S334 and S335 are performed integrally. That is, the predetermined three-dimensional data called in step S331 is subjected to predetermined rendering so as to change the attribute according to the elapsed time TD, thereby creating the stamp image.
[0050]
The two-dimensional stamp image is drawn based on the address position of the frame buffer corresponding to the position coordinates (X, Y) of the
[0051]
Subsequently, it is determined whether an operation of raising the
[0052]
Here, a detailed process (subroutine) of the three-dimensional graffiti pen drawing process in step S35 will be described. FIG. 8 is a flowchart showing the procedure of this subroutine.
[0053]
First, the
[0054]
Next, it is determined whether or not an operation of lowering the
[0055]
Subsequently, the
[0056]
Further, a continuous line indicating the trajectory is drawn at the address position of the frame buffer corresponding to the position coordinates (X, Y) of the
[0057]
Subsequently, it is determined whether or not an operation of raising the
[0058]
Next, from the predetermined three-dimensional data called in step S351, new three-dimensional data in which the trajectory indicated by the coordinate sequence obtained in step S353 is a deformation direction (a reference line) is created (step S353). Step S356). Specifically, new three-dimensional data is created by deforming the predetermined three-dimensional data so as to extend along a reference line in the deformation direction given by the trajectory. Therefore, here, the attribute of the shape (eg, depth) of the three-dimensional data changes.
[0059]
Further, a predetermined rendering is performed on the three-dimensional data created in this way, thereby creating a two-dimensional image representing a three-dimensional shape (step S357). Note that both the processes of steps S356 and S357 may be integrally performed, similarly to the processes of steps S334 and S335. In this case, the predetermined three-dimensional data called in step S351 is subjected to predetermined rendering so as to change the shape according to the trajectory, thereby creating the two-dimensional image.
[0060]
Subsequently, after the line indicating the locus drawn in step S354 is deleted, the two-dimensional image is drawn at the address position of the frame buffer corresponding to the position of the line indicating the locus (step S358). As a result, the two-dimensional image is displayed on the main display /
[0061]
FIG. 9 is a diagram showing a display example in such a three-dimensional graffiti pen drawing process. When the
[0062]
<4. Modification>
Here, a detailed process (subroutine) showing a modification of the three-dimensional graffiti pen drawing process in step S35 will be described. FIG. 10 is a flowchart showing the procedure of a subroutine that is a modification example.
[0063]
First, the
[0064]
Further, the
[0065]
Subsequently, the
[0066]
Then, from the predetermined three-dimensional data called in step S551, new three-dimensional data in which the trajectory indicated by the coordinate sequence obtained in step S554 is a deformation direction (a reference line) is created (step S555). ). The reference line in the deformation direction has an initial value of a predetermined length, and three-dimensional data having a predetermined shape is created even immediately after the
[0067]
Further, a predetermined rendering is performed on the three-dimensional data created in this way, thereby creating a two-dimensional image representing a three-dimensional shape (step S556). Subsequently, the two-dimensional image is drawn based on the address position of the frame buffer corresponding to the initial position coordinates (X0, Y0) (step S557). As a result, the two-dimensional image is displayed on the main display /
[0068]
Subsequently, it is determined whether or not an operation of raising the
[0069]
Next, a detailed process (subroutine) showing a modification of the three-dimensional stamp image drawing process in step S33 will be described. FIG. 11 is a flowchart showing the procedure of a subroutine that is a modification example.
[0070]
First, the
[0071]
Subsequently, the
[0072]
Then, from the predetermined three-dimensional data called in step S531, new three-dimensional data whose attributes are changed according to the pen pressure Ft is created (step S534). As an example of the change of the attribute, a change in which the stamp image becomes larger as the pen pressure becomes larger can be considered. However, as described above, the change of the attribute includes any change in appearance. Further, a predetermined rendering is performed on the three-dimensional data created in this way, thereby creating a two-dimensional stamp image representing a three-dimensional shape (step S535). It is to be noted that both the processes of steps S534 and S535 may be performed integrally as described above.
[0073]
The two-dimensional stamp image created in this way is drawn based on the address position of the frame buffer corresponding to the position coordinates (X, Y) of the
[0074]
Subsequently, it is determined whether or not an operation of raising the
[0075]
The operation based on the pen pressure as described above is also applicable to the three-dimensional graffiti pen drawing process. For example, in step S356 (or S555), the three-dimensional data is created such that the thickness of the three-dimensional shape to be drawn (that is, the width in the direction perpendicular to the locus) changes according to the pen pressure. Can be considered.
[0076]
In the above embodiment, three-dimensional data corresponding to various stamp images or graffiti pens is stored in advance in an auxiliary storage device or the like, but this three-dimensional data indicates a predetermined plane (in space). Is also good. For example, a configuration is conceivable in which a plane indicating a cross section of a graffiti pen is stored in advance as three-dimensional data, and a body shape obtained when the plane moves along the trajectory of the touch pen is generated. The three-dimensional data may be created by a user. For example, when a user draws a two-dimensional picture (for example, a heart mark) on the main display /
[0077]
In the above embodiment, a touch pen, which is a pen-type input unit, is provided as an input unit.As an input unit capable of acquiring coordinates of an input position, for example, a touch panel or a digitizer capable of inputting coordinates by pressing with a finger or the like, a mouse, Alternatively, it may be a trackball or the like. Further, a pressure detecting means for detecting a pressing force corresponding to the pen pressure may be newly provided. Further, if the input means is capable of inputting an attribute or an attribute change necessary to obtain a desired two-dimensional image from three-dimensional data, it is not always necessary to be able to obtain the coordinates of the input position. It may be a keyboard, an input device based on image recognition or voice recognition, or the like.
[0078]
<1.4 Effects>
As described above, according to the present embodiment, an additional image having a new attribute corresponding to a touch pen operation is created based on one or a plurality of three-dimensional data prepared in advance (or created by a user). I do. Thus, the additional image to be combined with the captured image can be changed with a high degree of freedom according to the user's preference. Therefore, it is possible to obtain playability or entertainment by changing the graffiti pen or the stamp image so as to have an appearance according to the user's preference. When the three-dimensional data is stored in advance, various additional images can be generated only from the three-dimensional data, so that the required storage capacity can be made relatively small.
[0079]
Furthermore, according to the present embodiment, a new additional image is created according to the locus of the touch pen, the pressing time, or the pen pressure, so that the user can efficiently create a composite image that matches his / her taste with a simple operation. Can be easily generated. In particular, in the game photo creation device, since the user cannot expect the mastery of the operation, and the use time such as the shooting time and the graffiti time is limited, the operation can be easily and intuitively performed by the touch pen. The above configuration is extremely effective.
[Brief description of the drawings]
FIG. 1 is a side view of an amusement photo creator according to an embodiment of the present invention.
FIG. 2 is a front view showing a main body of the game photo creation device according to the embodiment.
FIG. 3 is a block diagram showing a configuration of a main part of the game photo creation device according to the embodiment as viewed from a functional aspect.
FIG. 4 is a flowchart for explaining the operation of a main control unit in the game picture creating device according to one embodiment.
FIG. 5 is a flowchart illustrating a procedure of a subroutine process in step S30 according to one embodiment.
FIG. 6 is a flowchart illustrating a procedure of a subroutine process in step S33 according to the embodiment.
FIG. 7 is a diagram illustrating a change in an attribute of a stamp image on a screen according to an embodiment.
FIG. 8 is a flowchart illustrating a procedure of a subroutine process in step S35 according to one embodiment.
FIG. 9 is a diagram showing a display example in a three-dimensional graffiti pen drawing process according to one embodiment.
FIG. 10 is a flowchart illustrating a procedure of a subroutine process in step S35 in a modified example of one embodiment.
FIG. 11 is a flowchart illustrating a procedure of a subroutine process in step S33 according to a modified example of the embodiment.
[Explanation of symbols]
2 ... shooting room
4 Body part
10. Camera
20… LCD touch panel
21… Touch pen
52 ... Imaging unit (camera)
54… Confirmation display section (preview monitor)
62… Operation unit (liquid crystal touch panel)
64… Output unit (printer)
70: Lighting unit
72 ... I / O control unit (I / O control device)
80… Main control unit (main control device)
TD ... elapsed time
Ft… pen pressure
U: User
Claims (9)
前記利用者による操作を受け付ける入力手段と、
前記入力手段により受け付けられた操作に応じて、前記撮影画像に合成されるべき付加画像を生成するための3次元モデルデータに対して所定の属性を設定する設定手段と、
前記設定手段により設定される所定の属性に応じて、前記3次元モデルデータから2次元の画像である前記付加画像を生成する付加画像生成手段と、
前記付加画像と前記撮影画像とを合成することにより前記合成画像を生成する合成手段と
を備えることを特徴とする、自動写真作成装置。An image pickup device for photographing a user who is a subject in a predetermined photographing area, a display device for displaying a composite image including a photographed image obtained by the image capture device, and an output device for outputting the composite image as a photograph A photo creator,
Input means for receiving an operation by the user;
Setting means for setting a predetermined attribute to three-dimensional model data for generating an additional image to be combined with the photographed image in accordance with an operation received by the input means;
An additional image generation unit configured to generate the additional image that is a two-dimensional image from the three-dimensional model data according to a predetermined attribute set by the setting unit;
An automatic photograph creation device, comprising: a combining unit that generates the combined image by combining the additional image and the captured image.
前記付加画像生成手段は、前記3次元モデルデータから前記軌跡に応じた付加画像を作成することを特徴とする、請求項1から3までのいずれか1項に記載の自動写真作成装置。The setting means sets the predetermined attribute according to a locus of an input position by the input means,
4. The automatic photograph creation device according to claim 1, wherein the additional image generation unit creates an additional image according to the trajectory from the three-dimensional model data. 5.
前記付加画像生成手段は、前記3次元モデルデータから前記経過時間に応じた付加画像を作成することを特徴とする、請求項1から3までのいずれか1項に記載の自動写真作成装置。The setting means sets the predetermined attribute according to the duration of a predetermined input state by the input means,
4. The automatic photograph creation device according to claim 1, wherein the additional image generation unit creates an additional image according to the elapsed time from the three-dimensional model data. 5.
前記付加画像生成手段は、前記3次元モデルデータから前記押圧力に応じた付加画像を作成することを特徴とする、請求項1から3までのいずれか1項に記載の自動写真作成装置。The setting means sets the predetermined attribute according to a pressing force applied by the user to the input means,
4. The automatic photograph creation device according to claim 1, wherein the additional image generation unit creates an additional image according to the pressing force from the three-dimensional model data. 5.
前記利用者による操作を受け付ける入力ステップと、
前記入力ステップにおいて受け付けられた操作に応じて、前記撮影画像に合成されるべき付加画像を生成するための3次元モデルデータに対して所定の属性を設定する設定ステップと、
前記設定ステップにおいて設定される所定の属性に応じて、前記3次元モデルデータから2次元の画像である前記付加画像を生成する付加画像生成ステップと、
前記付加画像と前記撮影画像とを合成することにより前記合成画像を生成する合成ステップと
を含むことを特徴とする、自動写真作成方法。An automatic step including: a photographing step of photographing a user who is a subject in a predetermined photographing area; a display step of displaying a composite image including a photographed image obtained by the photographing step; and an output step of printing the composite image as a photograph. How to create a photo,
An input step of receiving an operation by the user;
A setting step of setting a predetermined attribute to three-dimensional model data for generating an additional image to be combined with the photographed image in accordance with the operation received in the input step;
An additional image generating step of generating the additional image that is a two-dimensional image from the three-dimensional model data according to a predetermined attribute set in the setting step;
A synthesizing step of synthesizing the additional image and the photographed image to generate the synthesized image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003086577A JP2004295441A (en) | 2003-03-26 | 2003-03-26 | Automatic photograph preparing device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003086577A JP2004295441A (en) | 2003-03-26 | 2003-03-26 | Automatic photograph preparing device and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004295441A true JP2004295441A (en) | 2004-10-21 |
Family
ID=33401161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003086577A Pending JP2004295441A (en) | 2003-03-26 | 2003-03-26 | Automatic photograph preparing device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004295441A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010135985A (en) * | 2008-12-03 | 2010-06-17 | Furyu Kk | Photograph seal creation device, photograph seal creation method, and program |
JP2013062823A (en) * | 2012-10-22 | 2013-04-04 | Furyu Kk | Photograph seal creation device, photograph seal creation method, and program |
JP2018101396A (en) * | 2016-12-19 | 2018-06-28 | 株式会社ワコム | Image processing apparatus |
-
2003
- 2003-03-26 JP JP2003086577A patent/JP2004295441A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010135985A (en) * | 2008-12-03 | 2010-06-17 | Furyu Kk | Photograph seal creation device, photograph seal creation method, and program |
JP2013062823A (en) * | 2012-10-22 | 2013-04-04 | Furyu Kk | Photograph seal creation device, photograph seal creation method, and program |
JP2018101396A (en) * | 2016-12-19 | 2018-06-28 | 株式会社ワコム | Image processing apparatus |
JP6990057B2 (en) | 2016-12-19 | 2022-01-12 | 株式会社ワコム | Image processing equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6621938B1 (en) | Image capture apparatus and method | |
JP5170771B2 (en) | Drawing processing program, information processing apparatus, information processing system, and information processing control method | |
JP5274187B2 (en) | Image processing program, information processing apparatus, image processing method, and image processing system | |
JP3548852B2 (en) | Photo sticker vending machine, image processing method of photo sticker vending machine, and program | |
US20100053206A1 (en) | Storage medium having stored thereon image processing program and image processing apparatus | |
JP2007240887A (en) | Automatic photographing device and method thereof | |
JP5782873B2 (en) | Game shooting device, game shooting method and program | |
JP2008054234A (en) | Photographing game machine | |
JP4214010B2 (en) | Automatic photo creation device | |
JP4746653B2 (en) | Automatic photo creation device | |
JP2004295441A (en) | Automatic photograph preparing device and method | |
JP5178462B2 (en) | Image creation apparatus and image creation program | |
JP4328182B2 (en) | Automatic photo creation device and automatic photo creation method | |
JP2011164141A (en) | Automatic photograph producing device | |
JP6245529B2 (en) | Game shooting device, game shooting method and program | |
JP5527460B2 (en) | Game shooting device, game shooting method and computer program | |
JP4452086B2 (en) | Automatic photo creation device and automatic photo creation method | |
JP2005142788A (en) | Apparatus and method for automatic creating photograph | |
JP4336215B2 (en) | Automatic photo creation device and automatic photo creation method | |
JP3328679B1 (en) | Drawing method for photo sticker vending and photo sticker vending machine | |
JP2003219328A (en) | Image printing apparatus and method, printing medium, program, and printing medium unit | |
JP2007060325A (en) | Image editing device, photo seal preparing device, image editing method and image editing program | |
JP2006339951A (en) | Device, method and program for automatic photography | |
JP2004110383A (en) | Image forming system, its program and information storage medium | |
JP2005078601A (en) | Program and method for picture developing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080917 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080924 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090203 |