Nothing Special   »   [go: up one dir, main page]

JP4995934B2 - Augmented reality system, marker terminal, photographing terminal, augmented reality method, and information recording medium - Google Patents

Augmented reality system, marker terminal, photographing terminal, augmented reality method, and information recording medium Download PDF

Info

Publication number
JP4995934B2
JP4995934B2 JP2010071267A JP2010071267A JP4995934B2 JP 4995934 B2 JP4995934 B2 JP 4995934B2 JP 2010071267 A JP2010071267 A JP 2010071267A JP 2010071267 A JP2010071267 A JP 2010071267A JP 4995934 B2 JP4995934 B2 JP 4995934B2
Authority
JP
Japan
Prior art keywords
image
marker
terminal
information
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010071267A
Other languages
Japanese (ja)
Other versions
JP2011204047A (en
Inventor
和宏 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2010071267A priority Critical patent/JP4995934B2/en
Publication of JP2011204047A publication Critical patent/JP2011204047A/en
Application granted granted Critical
Publication of JP4995934B2 publication Critical patent/JP4995934B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、拡張現実(AR;Augmented Reality)画像において、現実世界の様子を表す画像に合成されるオブジェクト画像を適切に変化させるのに好適な拡張現実システム、マーカ端末、撮影端末、拡張現実方法、ならびに、これらをコンピュータにて実現するプログラムを記録したコンピュータ読取可能な情報記録媒体に関する。   The present invention relates to an augmented reality system, marker terminal, imaging terminal, and augmented reality method suitable for appropriately changing an object image combined with an image representing the state of the real world in an augmented reality (AR) image. In addition, the present invention relates to a computer-readable information recording medium on which a program that realizes these on a computer is recorded.

従来から、現実世界を撮影した画像を背景にして仮想的なオブジェクトの画像を合成することにより、現実を拡張した画像を生成する拡張現実技術が提案されている。   Conventionally, an augmented reality technique has been proposed in which an image of a real world is generated by synthesizing a virtual object image against a background of an image of the real world.

拡張現実技術では、マーカと呼ばれる所定の形状の図形を現実世界に配置する。撮影機器は、このマーカを含む現実世界を撮影する。したがって、マーカは、撮影された画像内において透視変換された様子で配置されることになる。   In augmented reality technology, a figure of a predetermined shape called a marker is placed in the real world. The photographing device photographs the real world including this marker. Therefore, the marker is arranged in a state of being perspective-transformed in the photographed image.

撮影された画像に含まれるマーカが画像認識される際には、透視変換のパラメータも取得される。   When the marker included in the photographed image is recognized, the perspective transformation parameters are also acquired.

そして、マーカに対応付けられるオブジェクトに対して、この透視変換が適用される。   Then, this perspective transformation is applied to the object associated with the marker.

そして、撮影された画像を背景にして得られたオブジェクト画像が合成されると、拡張現実画像が生成される。拡張現実画像においては、オブジェクト画像はマーカを隠す位置やマーカの近傍に描画されることになる。   Then, when the object image obtained with the captured image as a background is synthesized, an augmented reality image is generated. In the augmented reality image, the object image is drawn at a position where the marker is hidden or near the marker.

このような拡張現実技術については、以下の文献に開示されている。   Such augmented reality technology is disclosed in the following documents.

特開2005−234757号公報JP 2005-234757 A

ここで、マーカに対応付けられるオブジェクトの形状や模様、色彩などを変化させたい、という要望は強い。また、マーカと撮影機器との距離に応じて、オブジェクトの形状や模様、色彩などを変化させたい、という要望もある。   Here, there is a strong demand for changing the shape, pattern, color, etc. of the object associated with the marker. There is also a desire to change the shape, pattern, color, etc. of an object according to the distance between the marker and the imaging device.

本発明は、上記のような課題を解決するもので、拡張現実画像において、現実世界の様子を表す画像に合成されるオブジェクト画像を適切に変化させるのに好適な拡張現実システム、マーカ端末、撮影端末、拡張現実方法、ならびに、これらをコンピュータにて実現するプログラムを記録したコンピュータ読取可能な情報記録媒体を提供することを目的とする。   The present invention solves the above-described problems, and in an augmented reality image, an augmented reality system, a marker terminal, and an imaging suitable for appropriately changing an object image combined with an image representing the state of the real world It is an object of the present invention to provide a terminal, an augmented reality method, and a computer-readable information recording medium in which a program for realizing the terminal and a computer is recorded.

以上の目的を達成するため、本発明の原理にしたがって、下記の発明を開示する。   In order to achieve the above object, the following invention is disclosed in accordance with the principle of the present invention.

本発明の第1の観点に係る拡張現実システムは、1次元コードもしくは2次元コードからなる図形コードを用い、マーカ端末と撮影端末とを有し、以下のように構成する。   The augmented reality system according to the first aspect of the present invention uses a graphic code including a one-dimensional code or a two-dimensional code, has a marker terminal and a photographing terminal, and is configured as follows.

ここで、1次元コードとは、複数の線分を並べる際にその間隔や太さを変化させることによって情報を符号化するものであり、いわゆるバーコードが相当する。   Here, the one-dimensional code encodes information by changing the interval and thickness when arranging a plurality of line segments, and corresponds to a so-called bar code.

また、2次元コードとは、複数のバーコードを、線が並ぶ方向とは垂直の方向に並べたものや、正方形や長方形を複数の桝目(セル;cell)に区切り、各桝目に塗る色を黒や白(あるいは無色)に変化させることによって情報を符号化するものであり、データマトリックスと呼ばれることもある。日本では、2次元コードとして、QRコード(登録商標)が普及している。   Also, the two-dimensional code is a color in which a plurality of barcodes are arranged in a direction perpendicular to the direction in which the lines are arranged, or a square or rectangle is divided into a plurality of cells (cells), Information is encoded by changing it to black or white (or colorless), and is sometimes called a data matrix. In Japan, a QR code (registered trademark) is widely used as a two-dimensional code.

マーカ端末は、拡張現実用のマーカ画像を画面に表示する端末であり、撮影端末は、画面に表示されたマーカ画像と、その周囲の現実世界の様子を撮影して、拡張現実画像を生成するものである。両者はいずれも、典型的には、携帯型のゲーム機やパーソナルコンピュータで所定のプログラムを動作させることによって実現される。   The marker terminal is a terminal that displays a marker image for augmented reality on the screen, and the photographing terminal captures the marker image displayed on the screen and the surrounding real world to generate an augmented reality image. Is. Both of them are typically realized by operating a predetermined program on a portable game machine or personal computer.

ここで、マーカ端末は、符号化部、マーカ生成部、マーカ表示部、繰返制御部を有し、撮影端末は、撮影部、マーカ認識部、復号部、画像生成部を有する。   Here, the marker terminal includes an encoding unit, a marker generation unit, a marker display unit, and a repetition control unit, and the imaging terminal includes an imaging unit, a marker recognition unit, a decoding unit, and an image generation unit.

そして、符号化部は、1つの図形コードにより表現可能な情報量が指定されると、撮影端末に伝達すべき情報を、当該指定された情報量を表現可能な図形コードの列に符号化する。   Then, when an information amount that can be expressed by one graphic code is specified, the encoding unit encodes information to be transmitted to the photographing terminal into a graphic code string that can express the specified information amount. .

ここで、1つの図形コードにより表現可能な情報量とは、たとえば、バーコードの場合には、表現できる数値の桁数に相当し、2次元コードの場合には、セルの個数に相当する。たとえば、4行4列の桝目からなる2次元コードが表現可能な情報量は、4×4=16ビットである。   Here, the amount of information that can be expressed by one graphic code corresponds to, for example, the number of digits that can be expressed in the case of a barcode, and corresponds to the number of cells in the case of a two-dimensional code. For example, the amount of information that can be expressed by a two-dimensional code composed of 4 rows and 4 columns is 4 × 4 = 16 bits.

一方、撮影端末に伝達すべき情報は、より多いビット数(たとえば、128ビット。)で表現しなければならないこともある。   On the other hand, information to be transmitted to the photographing terminal may have to be expressed by a larger number of bits (for example, 128 bits).

このような場合、符号化部は、128/16=8個の2次元コードの列により、撮影端末に伝達すべき情報を符号化する。   In such a case, the encoding unit encodes information to be transmitted to the photographing terminal using a sequence of 128/16 = 8 two-dimensional codes.

なお、実際には、図形コードには、当該図形コードが列中の何番目かを表すビットや、パリティビット、誤り訂正ビット等を含むこととするのが典型的である。この場合、128ビットの情報を4行4列の図形コードで符号化しようとすると、8個よりも多い図形コードが必要となる。   In practice, the graphic code typically includes a bit representing the number of the graphic code in the column, a parity bit, an error correction bit, and the like. In this case, if 128 bits of information are to be encoded with a 4 × 4 graphic code, more than 8 graphic codes are required.

また、図形コードは、表現可能な情報量にかかわらず、縦横のドット数を一定とするのが典型的である。たとえば、4行4列の桝目の2次元コードの各桝目の幅や高さは、7行7列の桝目の2次元コードの各桝目の幅や高さの7/4=1.75倍の長さとなる。   In addition, the figure code typically has a fixed number of vertical and horizontal dots regardless of the amount of information that can be expressed. For example, the width and height of each cell of the two-dimensional code of the 4 × 4 cell is 7/4 = 1.75 times the width and height of each cell of the two-dimensional code of the 7 × 7 cell. It becomes length.

さらに、マーカ生成部は、符号化された列に含まれる図形コードのそれぞれを所定の大きさで描画したコード画像と、所定の基準画像と、を合成したマーカ画像を順に生成する。   Further, the marker generation unit sequentially generates a marker image obtained by combining a code image in which each graphic code included in the encoded sequence is drawn with a predetermined size and a predetermined reference image.

ここで、基準画像とは、AR認識に適した形状を有する画像であり、典型的には正方形の辺を太線で描いて枠状にしたものや、これに、方向を表すための図形を付加したものが利用される。   Here, the reference image is an image having a shape suitable for AR recognition. Typically, a square shape is drawn with a thick line to form a frame shape, and a figure for expressing a direction is added to the frame. What was done is used.

合成の際には、後述するように、基準画像の枠形状の中にコード画像を埋め込んだり、基準画像とコード画像を隣り合わせて配置するなどの手法が採用できる。   At the time of composition, as will be described later, it is possible to employ a technique such as embedding a code image in the frame shape of the reference image or arranging the reference image and the code image next to each other.

上記のようにコード画像は、表現可能な情報量にかかわらず、その幅や高さは一定であるから、マーカ画像の幅や高さも一定である。   As described above, the code image has the same width and height regardless of the amount of information that can be expressed, and therefore the width and height of the marker image are also constant.

そして、マーカ表示部は、生成された複数のマーカ画像を、当該生成された順に画面に表示する。   And a marker display part displays the produced | generated several marker image on a screen in the said produced | generated order.

上記のように、伝送すべき情報が複数の図形コードによって表現されるので、複数のマーカ画像が順に画面に表示されることになる。   As described above, since the information to be transmitted is represented by a plurality of graphic codes, a plurality of marker images are sequentially displayed on the screen.

さらに、繰返制御部は、あらかじめ定めた複数の情報量のそれぞれについて、符号化部に当該情報量を指定して、マーカ表示部に複数のマーカ画像を順に表示させる処理を繰り返す。   Further, the repetition control unit repeats the process of designating the information amount in the encoding unit and displaying the plurality of marker images in order on the marker display unit for each of a plurality of predetermined information amounts.

たとえば、符号化部に対して「4行4列」「5行5列」「6行6列」「7行7列」の4通りの情報量を指定すると、それぞれに応じた異なる桝目の大きさのマーカ画像の列が、順次表示されることになる。   For example, if four kinds of information amounts of “4 rows and 4 columns”, “5 rows and 5 columns”, “6 rows and 6 columns”, and “7 rows and 7 columns” are designated to the encoding unit, The sequence of the marker images is sequentially displayed.

一方、撮影部は、現実世界を順次撮影する。   On the other hand, the photographing unit sequentially photographs the real world.

一般には撮影部は、動画撮影を行い、現実世界を撮影することによって、マーカ画像を画面に表示しているマーカ端末も撮影されることになる。   In general, the photographing unit shoots a moving image and shoots the real world, so that the marker terminal displaying the marker image on the screen is also photographed.

さらに、マーカ認識部は、順次撮影された画像のそれぞれから、マーカ端末の画面に表示されたマーカ画像を認識する。   Further, the marker recognizing unit recognizes the marker image displayed on the screen of the marker terminal from each of the sequentially captured images.

マーカ画像の認識には、通常のAR認識技術を適用することが可能であるが、後述するように、まず基準画像を認識し、その後にコード画像の認識を行うような手法を採用することも可能である。   For the recognition of the marker image, it is possible to apply a normal AR recognition technique. However, as will be described later, it is also possible to adopt a method in which the reference image is first recognized and then the code image is recognized. Is possible.

さらに、復号部は、マーカ画像が順次認識されると、当該マーカ画像に含まれるコード画像を取得し、当該コード画像に含まれる図形コードが表現可能な情報量ごとに分類して、当該分類された図形コードの列ごとに、マーカ端末から伝達された情報を復号する。   Further, when the marker images are sequentially recognized, the decoding unit acquires a code image included in the marker image, classifies the graphic image included in the code image for each information amount that can be expressed, and classifies the classified image. For each row of graphic codes, the information transmitted from the marker terminal is decoded.

すなわち、復号部は、コード画像が「4行4列」「5行5列」「6行6列」「7行7列」「8行8列」のいずれの図形コードを表すものであるか、を、列の中の順序を表すビットや、パリティビット等によって識別し、その種類ごとに分類して、元の情報を復号するのである。   In other words, the decoding unit represents which graphic code represents “4 rows 4 columns” “5 rows 5 columns” “6 rows 6 columns” “7 rows 7 columns” “8 rows 8 columns”. Are identified by bits representing the order in the column, parity bits, and the like, and are classified according to their types to decode the original information.

そして、画像生成部は、復号された情報に対応付けられるオブジェクト画像を生成して、撮影された画像を背景として当該オブジェクト画像を合成した拡張現実画像を生成する。   Then, the image generation unit generates an object image associated with the decoded information, and generates an augmented reality image obtained by synthesizing the object image with the captured image as a background.

一般的なAR技術では、1つのマーカに対応付けられるオブジェクトは1つであり、マーカが撮影された向きや大きさに応じてオブジェクトの向きや大きさを変更するのみであるが、本発明では、伝送される情報に基づいてオブジェクト画像を生成する。   In a general AR technique, there is one object associated with one marker, and only the direction and size of the object are changed according to the direction and size of the marker photographed. Then, an object image is generated based on the transmitted information.

したがって、オブジェクトそのものの形状や色彩、模様等を変化させることが可能となる。たとえば、オブジェクトにゲームのキャラクターを採用した場合には、キャラクターの姿勢や表情、服装等を変化させることが可能となる。   Therefore, the shape, color, pattern, etc. of the object itself can be changed. For example, when a game character is adopted as an object, it is possible to change the character's posture, facial expression, clothes, and the like.

本発明によれば、拡張現実画像において、現実世界の様子を表す画像に合成されるオブジェクト画像を適切に変化させることができる。   According to the present invention, in an augmented reality image, an object image combined with an image representing the state of the real world can be appropriately changed.

また、本発明の拡張現実システムにおいて、撮影端末は、距離推定部をさらに備え、以下のように構成することができる。   In the augmented reality system of the present invention, the photographing terminal can further include a distance estimation unit and can be configured as follows.

ここで、距離推定部は、情報が復号できた図形コードの列のうち、当該図形コードが表現可能な情報量が最大のものを選択し、当該最大の情報量から、マーカ端末と、撮影端末と、の間の距離を推定する。   Here, the distance estimation unit selects the largest information amount that can be expressed by the graphic code from among the graphic code sequences from which the information can be decoded, and the marker terminal and the photographing terminal are selected from the maximum information amount. And estimate the distance between.

ここで推定される距離は、座標に基づく距離ではなく、視界の良好性に基づく距離である。すなわち、観察対象がはっきり明瞭に見える場合には近く、ぼんやり不明瞭に見える場合には遠い、と判定されるような距離を採用する。   The distance estimated here is not a distance based on coordinates but a distance based on good visibility. That is, a distance that is determined to be close when the observation target looks clear and clear, and far when it is blurred or unclear is adopted.

たとえば、同じ大きさのマーカ画像が撮影されたとしても、認識できた図形コードが「4行4列」のものだけである場合と、「8行8列」のものまで認識できた場合とでは、前者は後者に比べて「遠い」ことになる。   For example, even if a marker image of the same size is captured, the recognized graphic code is only “4 rows and 4 columns” and when it can recognize “8 rows and 8 columns”. The former will be “far” compared to the latter.

たとえば、撮影時の明暗や塵埃、煙、乱反射などの影響によって、認識できた図形コードの表現可能な情報量が変化し、「距離」も変化することになる。   For example, the amount of information that can be expressed by the recognized graphic code changes due to the influence of light and darkness, dust, smoke, diffuse reflection, etc. at the time of shooting, and the “distance” also changes.

そして、撮影端末において、画像生成部は、オブジェクト画像を、復号された情報と、推定された距離と、に基づいて生成する。   Then, in the photographing terminal, the image generation unit generates an object image based on the decoded information and the estimated distance.

たとえば、推定された距離が「遠い」場合には、オブジェクト画像のシャープネスを変更してぼんやりさせると、背景の現実世界とマッチした画像が得られると考えられる。このほか、推定された距離の「遠さ」に基づいて、オブジェクトが表現するキャラクターの表情や姿勢、セリフ等を変更することとしても良い。   For example, when the estimated distance is “far”, it is considered that if the sharpness of the object image is changed and blurred, an image that matches the real world of the background can be obtained. In addition, the expression, posture, dialogue, etc. of the character represented by the object may be changed based on the “distance” of the estimated distance.

本発明によれば、認識できた図形コードの情報量に基づいて、マーカ端末と撮影端末との間の視界の良好性に基づく距離により、オブジェクト画像を適切に変化させることができるようになる。   According to the present invention, the object image can be appropriately changed based on the distance based on the good visibility between the marker terminal and the photographing terminal based on the information amount of the recognized graphic code.

また、本発明の拡張現実システムにおいて、撮影端末は、情報が復号できると、その旨を前記マーカ端末に通知し、マーカ端末において、繰返制御部は、マーカ端末からの通知に基づいて、複数の情報量のそれぞれを符号化部に指定する頻度を変化させるように構成することができる。   In the augmented reality system of the present invention, when the information can be decoded, the imaging terminal notifies the marker terminal of the fact, and the marker terminal includes a plurality of repetition control units based on the notification from the marker terminal. The frequency of designating each of the information amounts to the encoding unit can be changed.

たとえば、情報が復号できるごとに、撮影端末は、ビープ音声や無線通信で情報を送信することによって、その旨をマーカ端末に通知する。   For example, whenever the information can be decoded, the photographing terminal notifies the marker terminal of the fact by transmitting the information by beep sound or wireless communication.

マーカ端末は、マイクでビープ音声を検知したり、無線通信で情報を受信することによって、どんな情報量のコード画像であれば、撮影端末が認識できるか、を知得することができる。   By detecting beep sound with a microphone or receiving information by wireless communication, the marker terminal can know what amount of code image the photographing terminal can recognize.

そして、認識できた情報量のうち、できるだけ高い情報量、すなわち、桝目の多いコード画像によって情報を伝達するように、情報量の指定の頻度を変化させるのである。   Then, the frequency of designation of the information amount is changed so that the information amount is transmitted as high as possible among the recognized information amount, that is, the code image having many cells.

本発明によれば、撮影端末からマーカ端末へ認識の可否を知らせることで、できるだけ高速な情報伝送が可能となる。   According to the present invention, it is possible to transmit information as fast as possible by notifying the marker terminal of whether or not recognition is possible.

また、本発明の拡張現実システムにおいて、基準画像は、図形コードを囲むように合成されるように構成することができる。   In the augmented reality system of the present invention, the reference image can be configured to be synthesized so as to surround the graphic code.

本発明は上記発明の好適実施形態に係るもので、基準画像が枠状の形状を有する場合に、その内部に図形コードを配置することで、コンパクトな形状のマーカ画像を生成するものである。   The present invention relates to a preferred embodiment of the present invention. When the reference image has a frame shape, a marker code having a compact shape is generated by arranging a graphic code therein.

また、本発明の拡張現実システムにおいて、基準画像は、図形コードに隣り合うように合成されるように構成することができる。   In the augmented reality system of the present invention, the reference image can be composed so as to be adjacent to the graphic code.

本発明は上記発明の好適実施形態に係るもので、基準画像と図形コードとを近接する位置に配置することで、既存のライブラリを利用して基準図形のみをAR認識した後に、図形コードを認識することができるようになる。   The present invention relates to a preferred embodiment of the above invention, and by arranging the reference image and the figure code in a close position, the figure code is recognized after AR recognition of only the reference figure using an existing library. Will be able to.

また、本発明の拡張現実システムにおいて、基準画像と、図形コードと、は、異なる色彩であり、マーカ認識部は、順次撮影された画像のそれぞれに図形コードの色彩が打ち消され、もしくは、基準画像の色彩が強調されるフィルタを適用し、当該適用結果から基準画像が透視変換された結果を抽出することにより、当該適用前の画像において当該マーカ画像が配置されている領域を認識し、復号部は、認識された領域の画像に透視変換の逆変換を施すことによりコード画像を復元して、当該復元されたコード画像から情報を復号するように構成することができる。   Further, in the augmented reality system of the present invention, the reference image and the figure code have different colors, and the marker recognizing unit cancels the color of the figure code in each of the sequentially captured images, or the reference image By applying a filter in which the color of the image is emphasized and extracting the result of perspective transformation of the reference image from the application result, the region where the marker image is arranged in the image before the application is recognized, and the decoding unit Can be configured to restore the code image by performing the inverse transformation of the perspective transformation on the image of the recognized area, and to decode the information from the restored code image.

たとえば、既存のARライブラリがモノクローム画像からマーカを認識するようなものである場合に、基準画像として黒色の図形を採用し、図形コードを赤色で描くような態様を考える。   For example, when an existing AR library recognizes a marker from a monochrome image, consider a mode in which a black figure is adopted as a reference image and a figure code is drawn in red.

この場合に、撮影された画像から、赤色の成分を除去して、その他の色成分によってモノクローム画像を生成するフィルタ処理を行う。すると、既存のARライブラリを利用するだけで、基準画像がAR認識できる。   In this case, a filter process is performed to remove the red component from the photographed image and generate a monochrome image with the other color components. Then, it is possible to recognize the reference image by simply using the existing AR library.

基準画像がAR認識できたら、元の撮影された画像に、透視変換の逆変換を施せば、図形コードの元の姿が復元できる。そして、復元された姿から、情報を復号するのである。   If the reference image can be recognized by the AR, the original form of the figure code can be restored by performing reverse transformation of the perspective transformation on the original photographed image. Then, the information is decrypted from the restored form.

本発明によれば、たとえば、既存のARライブラリを利用しつつ、図形コードを用いた情報伝送が可能となる。   According to the present invention, for example, it is possible to transmit information using a graphic code while using an existing AR library.

本発明のその他の観点に係るマーカ端末は、上記拡張現実システムにおけるマーカ端末である。   A marker terminal according to another aspect of the present invention is a marker terminal in the augmented reality system.

本発明のその他の観点に係る撮影端末は、上記の拡張現実システムにおける撮影端末である。   A photographing terminal according to another aspect of the present invention is a photographing terminal in the above augmented reality system.

本発明のその他の観点に係る拡張現実方法は、1次元コードもしくは2次元コードからなる図形コードを用い、マーカ端末と撮影端末とが実行する。   The augmented reality method according to another aspect of the present invention is executed by a marker terminal and a photographing terminal using a graphic code including a one-dimensional code or a two-dimensional code.

ここで、マーカ端末は、符号化部、マーカ生成部、マーカ表示部、繰返制御部を備え、撮影端末は、撮影部、マーカ認識部、復号部、画像生成部を備える。   Here, the marker terminal includes an encoding unit, a marker generation unit, a marker display unit, and a repetition control unit, and the imaging terminal includes an imaging unit, a marker recognition unit, a decoding unit, and an image generation unit.

一方、当該拡張現実方法は、符号化工程、マーカ生成工程、マーカ表示工程、繰返制御工程、撮影工程、マーカ認識工程、復号工程、画像生成工程を備える。   On the other hand, the augmented reality method includes an encoding step, a marker generation step, a marker display step, a repetition control step, a photographing step, a marker recognition step, a decoding step, and an image generation step.

ここで、マーカ端末において、符号化工程では、符号化部が、1つの図形コードにより表現可能な情報量が指定されると、撮影端末に伝達すべき情報を、当該指定された情報量を表現可能な図形コードの列に符号化する。   Here, in the marker terminal, in the encoding step, when an information amount that can be expressed by one graphic code is specified, the encoding unit expresses the information to be transmitted to the photographing terminal. Encode into a sequence of possible graphic codes.

一方、マーカ生成工程では、マーカ生成部が、符号化された列に含まれる図形コードのそれぞれを所定の大きさで描画したコード画像と、所定の基準画像と、を合成したマーカ画像を順に生成する。   On the other hand, in the marker generation step, the marker generation unit sequentially generates a marker image obtained by synthesizing a code image in which each graphic code included in the encoded sequence is drawn with a predetermined size and a predetermined reference image. To do.

さらに、マーカ表示工程では、マーカ表示部が、生成された複数のマーカ画像を、当該生成された順に画面に表示する。   Further, in the marker display step, the marker display unit displays the plurality of generated marker images on the screen in the order in which they are generated.

そして、繰返制御工程では、繰返制御部が、あらかじめ定めた複数の情報量のそれぞれについて、マーカ生成工程に対して、当該情報量を指定して、マーカ表示工程において、複数のマーカ画像を順に表示させる処理を繰り返す。   In the repetition control step, the repetition control unit designates the information amount for each of the plurality of predetermined information amounts with respect to the marker generation step, and the marker display step displays the plurality of marker images. Repeat the process of displaying in order.

一方、撮影端末において、撮影工程では、撮影部が、現実世界を順次撮影する。   On the other hand, in the photographing terminal, in the photographing process, the photographing unit sequentially photographs the real world.

さらに、マーカ認識工程では、マーカ認識部が、順次撮影された画像のそれぞれから、マーカ端末の画面に表示されたマーカ画像を認識する。   Further, in the marker recognition step, the marker recognition unit recognizes a marker image displayed on the screen of the marker terminal from each of the sequentially captured images.

そして、復号工程では、復号部が、マーカ画像が順次認識されると、当該マーカ画像に含まれるコード画像を取得し、当該コード画像に含まれる図形コードが表現可能な情報量ごとに分類して、当該分類された図形コードの列ごとに、マーカ端末から伝達された情報を復号する。   In the decoding process, when the marker images are sequentially recognized, the decoding unit acquires the code image included in the marker image, and classifies the code image according to the amount of information that can be expressed by the graphic code included in the code image. The information transmitted from the marker terminal is decoded for each of the classified graphic code columns.

一方、画像生成工程では、画像生成部が、復号された情報に対応付けられるオブジェクト画像を生成して、撮影された画像を背景として当該オブジェクト画像を合成した拡張現実画像を生成する。   On the other hand, in the image generation step, the image generation unit generates an object image associated with the decoded information, and generates an augmented reality image obtained by synthesizing the object image with the captured image as a background.

本発明のその他の観点に係るコンピュータ読取可能な情報記録媒体は、第1のコンピュータを、上記のマーカ端末として機能させるマーカ用プログラムと、第2のコンピュータを、当該マーカ端末に対する撮影端末として機能させる撮影用プログラムと、が記録されるように構成する。   A computer-readable information recording medium according to another aspect of the present invention causes a marker program to cause a first computer to function as the marker terminal and a second computer to function as an imaging terminal for the marker terminal. The shooting program is recorded.

また、これらのプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読取可能な情報記憶媒体に記録することができる。   These programs can be recorded on a computer-readable information storage medium such as a compact disk, a flexible disk, a hard disk, a magneto-optical disk, a digital video disk, a magnetic tape, and a semiconductor memory.

これらのプログラムは、プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配布・販売することができる。また、上記情報記憶媒体は、コンピュータとは独立して配布・販売することができる。   These programs can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information storage medium can be distributed and sold independently from the computer.

本発明によれば、拡張現実画像において、現実世界の様子を表す画像に合成されるオブジェクト画像を適切に変化させるのに好適な拡張現実システム、マーカ端末、撮影端末、拡張現実方法、ならびに、これらをコンピュータにて実現するプログラムを記録したコンピュータ読取可能な情報記録媒体を提供することができる。   According to the present invention, in an augmented reality image, an augmented reality system, a marker terminal, a photographing terminal, an augmented reality method, and these suitable for appropriately changing an object image combined with an image representing the state of the real world, and these It is possible to provide a computer-readable information recording medium in which a program for realizing the above is recorded.

典型的な情報処理装置の概要構成を示す模式図である。It is a schematic diagram which shows schematic structure of a typical information processing apparatus. 本実施形態に係る拡張現実システムの概要構成を示す模式図である。It is a mimetic diagram showing an outline composition of an augmented reality system concerning this embodiment. 2次元コードを表すコード画像の様子を示す説明図である。It is explanatory drawing which shows the mode of the code image showing a two-dimensional code. 2次元コードを表すコード画像の様子を示す説明図である。It is explanatory drawing which shows the mode of the code image showing a two-dimensional code. 2次元コードを表すコード画像の様子を示す説明図である。It is explanatory drawing which shows the mode of the code image showing a two-dimensional code. 2次元コードを表すコード画像の様子を示す説明図である。It is explanatory drawing which shows the mode of the code image showing a two-dimensional code. 基準画像の様子を示す説明図である。It is explanatory drawing which shows the mode of a reference | standard image. マーカ画像の様子を示す説明図である。It is explanatory drawing which shows the mode of a marker image. マーカ画像の様子を示す説明図である。It is explanatory drawing which shows the mode of a marker image. マーカ端末を実現する情報処理装置において実行されるマーカ表示処理の制御の流れを示すフローチャートである。It is a flowchart which shows the flow of control of the marker display process performed in the information processing apparatus which implement | achieves a marker terminal. あるマーカ画像を液晶ディスプレイの画面に表示しているマーカ端末を含むように、撮影された現実世界の様子を表す画像の説明図である。It is explanatory drawing of the image showing the mode of the real world image | photographed so that the marker terminal which is displaying the marker image on the screen of a liquid crystal display may be included. あるマーカ画像を液晶ディスプレイの画面に表示しているマーカ端末を含むように、撮影された現実世界の様子を表す画像の説明図である。It is explanatory drawing of the image showing the mode of the real world image | photographed so that the marker terminal which is displaying the marker image on the screen of a liquid crystal display may be included. 撮影画像に色彩フィルタを施した結果を表す説明図である。It is explanatory drawing showing the result of having applied the color filter to the picked-up image. 元の撮影画像において描画されているコード画像を示す説明図である。It is explanatory drawing which shows the code image currently drawn in the original picked-up image. 撮影されたコード画像に対して逆変換を施した結果を表す説明図である。It is explanatory drawing showing the result of having performed reverse conversion with respect to the image | photographed code image. 拡張現実画像の様子を示す説明図である。It is explanatory drawing which shows the mode of an augmented reality image. 撮影端末にて実行される撮影処理の制御の流れを示すフローチャートである。It is a flowchart which shows the flow of control of the imaging | photography process performed with an imaging | photography terminal. 拡張現実画像の様子を示す説明図である。It is explanatory drawing which shows the mode of an augmented reality image.

以下に本発明の実施形態を説明する。以下では、理解を容易にするため、ゲーム用の情報処理装置を利用して本発明が実現される実施形態を説明するが、以下に説明する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。   Embodiments of the present invention will be described below. In the following, for ease of understanding, an embodiment in which the present invention is realized using a game information processing device will be described. However, the embodiment described below is for explanation, and the present invention It does not limit the range.

したがって、当業者であればこれらの各要素もしくは全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。   Therefore, those skilled in the art can employ embodiments in which each or all of these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.

(情報処理装置)
図1は、プログラムを実行することにより、本実施形態の拡張現実システムに係るマーカ端末や撮影端末として機能しうる典型的な情報処理装置の概要構成を示す模式図である。以下、本図を参照して説明する。
(Information processing device)
FIG. 1 is a schematic diagram illustrating a schematic configuration of a typical information processing apparatus that can function as a marker terminal or a photographing terminal according to the augmented reality system of the present embodiment by executing a program. Hereinafter, a description will be given with reference to FIG.

本図に示す情報処理装置101は、携帯可能なマルチメディア端末であり、CPU(Central Processing Unit)102、RAM(Random Access Memory)103、ROM(Read Only Memory)104、入力装置105、画像処理部106、液晶ディスプレイ107、音声処理部108、ヘッドホン109、カセットリーダ110、ROMカセット111、外部メモリ112、RTC(Real Time Clock)113、無線LAN(Local Area Network)インターフェース114、カメラ115を備える。   An information processing apparatus 101 shown in the figure is a portable multimedia terminal, and includes a central processing unit (CPU) 102, a random access memory (RAM) 103, a read only memory (ROM) 104, an input device 105, and an image processing unit. 106, a liquid crystal display 107, an audio processing unit 108, headphones 109, a cassette reader 110, a ROM cassette 111, an external memory 112, an RTC (Real Time Clock) 113, a wireless LAN (Local Area Network) interface 114, and a camera 115.

本実施形態に係るプログラムが記録されたROMカセット111を、情報処理装置101のカセットリーダ110に装着することによって、本実施形態に係るマーカ端末や撮影端末が実現される。   By mounting the ROM cassette 111 in which the program according to the present embodiment is recorded on the cassette reader 110 of the information processing apparatus 101, the marker terminal and the photographing terminal according to the present embodiment are realized.

ここで、CPU 102は、情報処理装置101の各部を制御するとともに、各種の演算処理や判断処理を行う。   Here, the CPU 102 controls each unit of the information processing apparatus 101 and performs various arithmetic processes and determination processes.

情報処理装置101に電源が投入されると、CPU 102は、ROM 104に記録されたIPL(Initial Program Loader)を実行し、その処理の過程で、カセットリーダ110を介して接続されたROMカセット111に記録されたプログラムに処理を移行する。   When the information processing apparatus 101 is turned on, the CPU 102 executes an IPL (Initial Program Loader) recorded in the ROM 104, and the ROM cassette 111 connected via the cassette reader 110 in the course of the processing. The process is transferred to the program recorded in

情報処理装置101で実行されるゲームプログラムやマルチメディア情報再生プログラムは、ROMカセット111によって提供されるのが一般的であるが、ROM 104内にあらかじめ用意しておくことも可能である。   The game program and multimedia information reproduction program executed by the information processing apparatus 101 are generally provided by the ROM cassette 111, but can be prepared in the ROM 104 in advance.

また、ROM 104内には、BIOS(Basic Input Output System)と呼ばれるプログラム群が用意されており、入力装置105や画像処理部106、音声処理部108の制御を行うことができる。   Further, a program group called BIOS (Basic Input Output System) is prepared in the ROM 104, and the input device 105, the image processing unit 106, and the audio processing unit 108 can be controlled.

RAM 103は、一時的な情報を記憶するための領域であり、外部メモリ112は、不揮発な情報を記憶するための領域である。外部メモリ112としては、ハードディスクなど、主として情報処理装置101に内蔵されるもののほか、各種のメモリカードなど、情報処理装置101に抜挿されるものを利用しても良い。   The RAM 103 is an area for storing temporary information, and the external memory 112 is an area for storing nonvolatile information. As the external memory 112, a hard disk or the like that is mainly built in the information processing apparatus 101, or various memory cards or the like that are inserted into or removed from the information processing apparatus 101 may be used.

入力装置105は、各種のボタンやキーボード、マウス、ジョイスティック等により実現されるのが一般的であるが、液晶ディスプレイ107と一体に形成されたタッチスクリーンを入力装置105として利用することも可能である。   The input device 105 is generally realized by various buttons, a keyboard, a mouse, a joystick, or the like, but a touch screen formed integrally with the liquid crystal display 107 can also be used as the input device 105. .

画像処理部106は、CPU 102の制御の下、各種の文字情報や画像情報を液晶ディスプレイ107の画面に表示させるものであり、一般には、垂直同期割込周期(典型的には、30分の1秒や60分の1秒程度である。)ごとに、RAM 103内に用意されたフレームバッファに記憶された画素情報を液晶ディスプレイ107の各画素に反映させる。   The image processing unit 106 displays various character information and image information on the screen of the liquid crystal display 107 under the control of the CPU 102. In general, the image processing unit 106 has a vertical synchronization interrupt cycle (typically 30 minutes). The pixel information stored in the frame buffer prepared in the RAM 103 is reflected on each pixel of the liquid crystal display 107 every 1 second or 1/60 second).

なお、画像の表示先は、必ずしも液晶ディスプレイ107に限られるものではなく、画像処理部106に接続されるテレビジョン装置やCRT(Cathode Ray Tube)など、各種の表示用のモニターを利用することが可能である。   Note that the display destination of the image is not necessarily limited to the liquid crystal display 107, and various display monitors such as a television apparatus connected to the image processing unit 106 and a CRT (Cathode Ray Tube) may be used. Is possible.

ユーザからの指示入力は、液晶ディスプレイ107に表示されたカーソルを入力装置105の移動ボタン操作により移動して、所望のメニュー項目にカーソルを合わせ、決定ボタン操作によって当該メニュー項目を選択するのが一般的であるが、タッチスクリーンを利用する場合にはカーソルは不要である。また、入力装置105の各ボタンに割り当てられる機能があらかじめ決まっている場合には、液晶ディスプレイ107に対する表示は、必ずしも必要ない。   In general, an instruction input from the user is performed by moving the cursor displayed on the liquid crystal display 107 by operating the move button of the input device 105, moving the cursor to a desired menu item, and selecting the menu item by operating the enter button. The cursor is not necessary when using a touch screen. Further, when the function assigned to each button of the input device 105 is determined in advance, the display on the liquid crystal display 107 is not necessarily required.

音声処理部108は、RAM 103やROM 104、ROMカセット111、外部メモリ112に用意された音声データをヘッドホン109に出力する。音声データとしては、音声の波形データをディジタル化したPCM(Pulse Code Modulation)データや、PCMデータを圧縮してサイズを小さくしたMP3(MPeg audio layer-3)データ等を利用することが可能であるほか、MIDI(Music Instruction Data Interface)データのように、音高、音長、音量、音色の種類を定義するデータを用意し、これにしたがって、あらかじめ用意された音源波形データを適宜選択・変形して再生する手法を採用しても良い。   The audio processing unit 108 outputs audio data prepared in the RAM 103, the ROM 104, the ROM cassette 111, and the external memory 112 to the headphones 109. As audio data, it is possible to use PCM (Pulse Code Modulation) data obtained by digitizing audio waveform data, MP3 (MPeg audio layer-3) data obtained by compressing PCM data to reduce the size, and the like. In addition, data such as MIDI (Music Instruction Data Interface) data that defines the pitch, tone length, volume, and timbre type is prepared, and the sound source waveform data prepared in advance is selected and transformed accordingly. It is also possible to adopt a method for reproducing the image.

RTC 113は、現在の日時を計測するもので、情報処理装置101を初めて利用する際に時刻合わせを行うのが一般的であるが、無線LANインターフェース114を介してNTP(Network Time Protocol)サーバに接続することで、自動的に時刻合わせを行うような態様を採用することも可能である。   The RTC 113 measures the current date and time, and generally adjusts the time when the information processing apparatus 101 is used for the first time. The RTC 113 is connected to an NTP (Network Time Protocol) server via the wireless LAN interface 114. It is also possible to adopt a mode in which the time is automatically adjusted by connecting.

また、アラーム割込を発生させる機能を持つRTC 113もある。設定された時刻になるとアラーム割込が発生して、CPU 102は、現在実行中のプログラムを一時中断し、あらかじめ設定された割込ハンドラを実行してから、中断したプログラムを再開する。   There is also an RTC 113 having a function for generating an alarm interrupt. When the set time comes, an alarm interrupt occurs, and the CPU 102 temporarily suspends the currently executing program, executes a preset interrupt handler, and then resumes the interrupted program.

無線LANインターフェース114は、自宅や会社、街角に用意された無線LANアクセスポイントを介してインターネットに接続したり、近傍に配置された他の情報処理装置101と、アドホックに通信路を確立し、1対1で通信を行うこと等が可能である。   The wireless LAN interface 114 is connected to the Internet via a wireless LAN access point prepared at home, company, or street corner, and establishes a communication path ad hoc with another information processing apparatus 101 disposed in the vicinity. It is possible to perform communication on a one-to-one basis.

カメラ115は、情報処理装置101によってディジタルカメラの機能を実現するものであり、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)撮像素子などの技術を適用することが可能である。撮影された画像は、一時的にRAM 103に展開された後、外部メモリ112等に保存される。   The camera 115 realizes the function of a digital camera by the information processing apparatus 101, and a technique such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) image sensor can be applied. The captured image is temporarily expanded in the RAM 103 and then stored in the external memory 112 or the like.

このほか、ビジネス用コンピュータ、携帯電話、PDA(Personal Data Assistant)、携帯マーカ端末やエンタテインメント端末、多機能テレビジョン装置、DVD(Digital Versatile Disc)プレイヤー、携帯音楽プレイヤーなどを、本発明のマーカ端末や撮影端末が実現される情報処理装置として採用することもできる。   In addition, a business computer, a mobile phone, a PDA (Personal Data Assistant), a portable marker terminal, an entertainment terminal, a multi-function television device, a DVD (Digital Versatile Disc) player, a portable music player, etc. It can also be employed as an information processing apparatus in which a photographing terminal is realized.

(拡張現実システム)
図2は、本実施形態に係る拡張現実システムの概要構成を示す模式図である。以下、本図を参照して説明する。
(Augmented reality system)
FIG. 2 is a schematic diagram showing a schematic configuration of the augmented reality system according to the present embodiment. Hereinafter, a description will be given with reference to FIG.

本図に示すように、拡張現実システム201は、マーカ端末211と撮影端末231とを有する。   As shown in the figure, the augmented reality system 201 includes a marker terminal 211 and a photographing terminal 231.

ここで、マーカ端末211は、情報処理装置100においてROMカセット111から読み出したマーカ端末用プログラムをCPU 102が実行して各部を制御することにより実現される。   Here, the marker terminal 211 is realized by the CPU 102 executing the marker terminal program read from the ROM cassette 111 in the information processing apparatus 100 to control each unit.

ここで、また撮影端末231も、情報処理装置100においてROMカセット111から読み出した撮影端末用プログラムをCPU 102が実行して各部を制御することにより実現される。   Here, the photographing terminal 231 is also realized by the CPU 102 executing the photographing terminal program read from the ROM cassette 111 in the information processing apparatus 100 and controlling each unit.

なお、マーカ端末211と撮影端末231を実現するための情報処理装置100は、必ずしも同一の構成とする必要はない。たとえば、マーカ端末211としては、カメラの塔載されていない携帯用端末を利用し、撮影端末231として、USB(Universal Serial Bus)カメラを接続した携帯用パーソナルコンピュータを利用する等、種々の態様を採用することが可能である。   Note that the information processing apparatus 100 for realizing the marker terminal 211 and the photographing terminal 231 does not necessarily have the same configuration. For example, the marker terminal 211 may be a portable terminal that does not have a camera mounted thereon, and the photographing terminal 231 may be a portable personal computer connected to a USB (Universal Serial Bus) camera. It is possible to adopt.

マーカ端末211は、AR技術におけるマーカ画像を表示する端末である。従来のAR技術では、マーカは、紙などに印刷して壁や地面、テーブル等に配置するのが一般的であるが、本実施形態では、マーカ端末211を実現する情報処理装置100の液晶ディスプレイ107に、マーカ画像が表示される。また、本実施形態では、マーカ画像は時間の経過とともに変化する。   The marker terminal 211 is a terminal that displays a marker image in AR technology. In the conventional AR technology, the marker is generally printed on paper or the like and placed on a wall, the ground, a table, or the like. In this embodiment, the liquid crystal display of the information processing apparatus 100 that realizes the marker terminal 211 is used. A marker image is displayed at 107. In the present embodiment, the marker image changes with the passage of time.

一方、撮影端末231は、マーカ端末211が含まれる現実世界の様子を情報処理装置100のカメラ115で撮影して、画像内に撮影されたマーカ画像の位置に、仮想的なオブジェクト画像を合成することにより、拡張現実画像を生成し、これをユーザに提示できるようにする。   On the other hand, the imaging terminal 231 captures the situation in the real world including the marker terminal 211 with the camera 115 of the information processing apparatus 100, and synthesizes a virtual object image at the position of the marker image captured in the image. Thus, an augmented reality image is generated and can be presented to the user.

本実施形態に係る拡張現実システムでは、図形コードとして、1次元コードもしくは2次元コードを用いることが可能である。   In the augmented reality system according to the present embodiment, a one-dimensional code or a two-dimensional code can be used as a graphic code.

ここで、1次元コードとは、複数の線分を並べる際にその間隔や太さを変化させることによって情報を符号化するものであり、いわゆるバーコードが相当する。   Here, the one-dimensional code encodes information by changing the interval and thickness when arranging a plurality of line segments, and corresponds to a so-called bar code.

また、2次元コードとは、複数のバーコードを、線が並ぶ方向とは垂直の方向に並べたものや、正方形や長方形を複数の桝目に区切り、各桝目に塗る色を黒や白(あるいは無色)に変化させることによって情報を符号化するものであり、データマトリックスと呼ばれることもある。日本では、2次元コードとして、QRコード(登録商標)が普及している。   In addition, the two-dimensional code means that a plurality of barcodes are arranged in a direction perpendicular to the direction in which the lines are arranged, or a square or rectangle is divided into a plurality of cells, and the color applied to each cell is black or white (or Information is encoded by changing it to (colorless), and is sometimes called a data matrix. In Japan, a QR code (registered trademark) is widely used as a two-dimensional code.

以下では、理解を容易にするため、簡単な2次元コードを例として説明する。   Hereinafter, in order to facilitate understanding, a simple two-dimensional code will be described as an example.

(マーカ端末)
以下では、マーカ端末211の構成について概説した後、マーカ端末211にて実行される処理についてさらに詳細に説明する。
(Marker terminal)
Below, after outlined about the structure of the marker terminal 211, the process performed in the marker terminal 211 is demonstrated in detail.

図2に示すように、マーカ端末211は、符号化部212、マーカ生成部213、マーカ表示部214、繰返制御部215を有する。   As illustrated in FIG. 2, the marker terminal 211 includes an encoding unit 212, a marker generation unit 213, a marker display unit 214, and a repetition control unit 215.

また、マーカ端末211は、省略可能な要素として通知受付部216を有する。なお、通知受付部216の機能については、実施例2において説明する。   In addition, the marker terminal 211 includes a notification receiving unit 216 as an optional element. The function of the notification receiving unit 216 will be described in the second embodiment.

まず、符号化部212は、繰返制御部215により、「1つの図形コードにより表現可能な情報量」が指定されると、それに応じて、撮影端末231が合成するオブジェクト画像を生成する際の情報を図形コードの列に符号化する。   First, when the repetition control unit 215 specifies “amount of information that can be expressed by one graphic code”, the encoding unit 212 generates an object image to be combined by the photographing terminal 231 accordingly. Information is encoded into a sequence of graphic codes.

したがって、符号化部212は、CPU 102がRAM 103等と共働することによって実現される。   Therefore, the encoding unit 212 is realized when the CPU 102 cooperates with the RAM 103 or the like.

本実施形態では、拡張現実で合成されるオブジェクトとしてゲームのキャラクターを採用する。この場合、オブジェクト画像を生成するための情報とは、たとえば以下のようなものが含まれる。   In this embodiment, a game character is adopted as an object to be synthesized in augmented reality. In this case, the information for generating the object image includes, for example, the following information.

(1)当該オブジェクトが表すキャラクターの種類パラメータ。キャラクターの基本的な形状が種類パラメータによって決定される。   (1) Character type parameter represented by the object. The basic shape of the character is determined by the type parameter.

(2)当該キャラクターの頭や腕、足、胴体などの姿勢を表す姿勢パラメータ。このパラメータに基づいて、キャラクターの基本的な形状を定めるボーンの位置や向きを変化させると、キャラクターが姿勢を変える。   (2) A posture parameter representing the posture of the character's head, arms, legs, torso, etc. Based on this parameter, changing the position and orientation of the bone that defines the basic shape of the character changes the character's posture.

(3)当該キャラクターの感情パラメータ。このパラメータに基づいて、キャラクターの目や口の形状を表すボーンを移動させたり、頬部分のサーフェスに貼り付けるテクスチャの色彩を変化させると、キャラクターの表情が変わる。   (3) The emotion parameter of the character. Based on this parameter, moving the bone that represents the shape of the character's eyes and mouth, or changing the color of the texture pasted on the cheek surface changes the character's facial expression.

(4)当該キャラクターが発するセリフ。オブジェクト画像の一部として、マンガの吹き出しのようにメッセージを合成することができる。   (4) Lines from the character. As part of the object image, a message can be synthesized like a comic balloon.

(5)当該キャラクターの服装パラメータ。このパラメータに基づいて、キャラクターの周縁に配置されるサーフェスや、当該サーフェスに貼り付けられるテクスチャなどが変化する。   (5) Clothing parameters of the character. Based on this parameter, the surface arranged at the periphery of the character and the texture pasted on the surface change.

1つの図形コードにより表現可能な情報量とは、たとえば、バーコードの場合には、表現できる数値の桁数に相当し、2次元コードの場合には、セルの個数に相当する。たとえば、4行4列の桝目からなる2次元コードが表現可能な情報量は、4×4=16ビットである。   The amount of information that can be expressed by one graphic code corresponds to, for example, the number of digits that can be expressed in the case of a barcode, and corresponds to the number of cells in the case of a two-dimensional code. For example, the amount of information that can be expressed by a two-dimensional code composed of 4 rows and 4 columns is 4 × 4 = 16 bits.

本実施形態では、2次元コードとして、「4行4列」「5行5列」「6行6列」「7行7列」の4通りの情報量が表現可能なものを採用するが、用途やハードウェアの性能によっては、他の行数、列数を適宜選択したり、2次元コードの種類の数を増減させたような態様を採用することができる。   In the present embodiment, as the two-dimensional code, a code that can express four types of information such as “4 rows and 4 columns”, “5 rows and 5 columns”, “6 rows and 6 columns”, and “7 rows and 7 columns” is adopted. Depending on the application and the performance of the hardware, it is possible to appropriately select other numbers of rows and columns, or to increase or decrease the number of types of two-dimensional codes.

図3A、図3B、図3C、図3Dは、それぞれ、「4行4列」「5行5列」「6行6列」「7行7列」の2次元コードを表すコード画像の様子を示す説明図である。以下、これらの図を参照して説明する。   3A, FIG. 3B, FIG. 3C, and FIG. 3D show the state of code images representing two-dimensional codes of “4 rows and 4 columns”, “5 rows and 5 columns”, “6 rows and 6 columns”, and “7 rows and 7 columns”, respectively. It is explanatory drawing shown. Hereinafter, description will be given with reference to these drawings.

これらの図に示すように、コード画像301は、複数の桝目302からなり、各桝目302は、無色(図中では白)または有色(図中では黒色)に塗り分けられている。   As shown in these drawings, the code image 301 includes a plurality of cells 302, and each cell 302 is painted in a colorless (white in the drawing) or colored (black in the drawing).

本図では、コード画像301全体の領域を示すため、縁に点線を描いているが、実際にはこの点線は使用しない。また、2次元コードでは、桝目302同士の境界には線を描かないのが一般的である。   In this figure, in order to show the whole area | region of the code image 301, the dotted line is drawn on the edge, but actually this dotted line is not used. In a two-dimensional code, a line is generally not drawn at the boundary between the cells 302.

1つの桝目302を塗る色彩をいずれにするかによって、1ビットの情報が表現できる。したがって、図3Aに示すような4行4列の2次元コードは、4×4=16ビットの情報量が、図3Bに示すような5行5列の2次元コードは、5×5=25ビットの情報量が、図3Cに示すような6行6列の2次元コードは、6×6=36ビットの情報量が、図3Dに示すような7行7列の2次元コードは、7×7=49ビットの情報量が、それぞれ表現可能である。   One-bit information can be expressed depending on which color the one cell 302 is painted on. Accordingly, a 4 × 4 two-dimensional code as shown in FIG. 3A has an information amount of 4 × 4 = 16 bits, and a 5 × 5 two-dimensional code as shown in FIG. 3B has 5 × 5 = 25. An information amount of 6 bits and 6 columns as shown in FIG. 3C is 6 × 6 = 36 bits, and an information amount of 7 rows and 7 columns as shown in FIG. X7 = 49 bits of information can be expressed respectively.

本実施形態では、コード画像301の高さと幅は、いずれも同じ長さを用いる。したがって、1つの桝目302の大きさは、図3Aに示す4行4列の2次元コードが最も大きく、図3Dに示す7行7列の2次元コードが最も小さい。   In the present embodiment, the same length is used for both the height and width of the code image 301. Accordingly, the size of one cell 302 is the largest for the 4 × 4 two-dimensional code shown in FIG. 3A and the smallest for the 7 × 7 two-dimensional code shown in FIG. 3D.

一般に、コード画像301をカメラ115で撮影すると、その画像情報は劣化してしまう。カメラ115とコード画像301の距離や相対的な角度、その間の空気の透明度、塵埃や湯気などが存在しているか否か等によって、劣化の程度は異なる。   In general, when the code image 301 is photographed by the camera 115, the image information is degraded. The degree of deterioration varies depending on the distance and relative angle between the camera 115 and the code image 301, the transparency of the air therebetween, whether dust or steam exists, and the like.

しかしながら、桝目302が大きければ大きいほど、劣化は少ないと考えられる。したがって、カメラ115によって撮影されたコード画像301の画像から、元の情報が正しく復元できる可能性は、図3Aに示す4行4列のコード画像301が最も確率が高く、図3Dに示す7行7列のコード画像301が最も確率が低いことになる。   However, the larger the cell 302 is, the less degradation is considered. Therefore, the possibility that the original information can be correctly restored from the image of the code image 301 photographed by the camera 115 is most likely in the 4 × 4 code image 301 shown in FIG. 3A, and the 7th row shown in FIG. 3D. Seven rows of code images 301 have the lowest probability.

一方、1枚のコード画像301で伝送できる情報量は、図3Aに示す4行4列のコード画像301が最も少なく、図3Dに示す7行7列のコード画像301が最も多い。   On the other hand, the amount of information that can be transmitted by one code image 301 is the smallest in the 4 × 4 code image 301 shown in FIG. 3A and the 7 × 7 code image 301 shown in FIG. 3D is the largest.

そこで、情報を伝送するためにコード画像301を複数枚利用することとする。   Therefore, a plurality of code images 301 are used to transmit information.

たとえば、4行4列のコード画像301を8枚利用する場合を考える。この場合、個々のコード画像301が何番目か(0番目〜7番目)を表すのに、3ビットを要する。また、個々のコード画像301のパリティビットとして1ビットを採用する。すると、1枚のコード画像301に埋め込める残りの情報量は、4×4−3−1=12ビットである。したがって、4行4列のコード画像301が8枚並んだ列によって撮影端末231に伝送される情報全体は、12×8=96ビットということになる。   For example, consider a case where eight code images 301 of 4 rows and 4 columns are used. In this case, 3 bits are required to represent the number of each code image 301 (0th to 7th). Also, 1 bit is adopted as the parity bit of each code image 301. Then, the remaining information amount that can be embedded in one code image 301 is 4 × 4-3-1 = 12 bits. Accordingly, the entire information transmitted to the photographing terminal 231 by a column in which four 4 × 4 code images 301 are arranged is 12 × 8 = 96 bits.

これと同じ情報量を伝送するには、他の2次元コードでは、以下のような枚数およびフォーマットを採用する。
(1)5行5列の場合には、5枚。0番目〜4番目を表すために3ビット、パリティに1ビットとすれば、(5×5−3−1)×5=105ビットまで表現できる。
(2)6行6列の場合には、3枚。0番目〜3番目を表すために2ビット、パリティに1ビットとすれば、(6×6−2−1)×3=99ビットまで表現できる。
(3)7行7列の場合には、3枚。0番目〜3番目を表すために2ビット、パリティに1ビットとすれば、(7×7−2−1)×3=138ビットまで表現できる。
In order to transmit the same amount of information, the following number and format are adopted in other two-dimensional codes.
(1) 5 sheets in the case of 5 rows and 5 columns. If 3 bits are used to represent 0th to 4th and 1 bit is used for parity, (5 × 5-3-1) × 5 = 105 bits can be expressed.
(2) 3 in the case of 6 rows and 6 columns. If 2 bits are used to represent 0th to 3rd and 1 bit is used for parity, (6 × 6-2-1) × 3 = 99 bits can be expressed.
(3) 3 in the case of 7 rows and 7 columns. If 2 bits are used to represent 0th to 3rd and 1 bit is used for parity, (7 × 7-2-1) × 3 = 138 bits can be expressed.

なお、5行5列の場合には105−96=9ビット、6行6列の場合には99−96=3ビット、7行7列の場合には138−96=42ビットの余裕がある。そこで、この余裕ビットに誤り訂正符号を埋め込む等の手法を採用することとすれば、情報伝送の信頼性を高めることができる。誤り訂正符号を埋め込む際には、パリティビットを省略して、その分を誤り訂正符号用のビットとして利用することが可能である。   In the case of 5 rows and 5 columns, 105-96 = 9 bits, in the case of 6 rows and 6 columns, 99-96 = 3 bits, and in the case of 7 rows and 7 columns, there is 138-96 = 42 bits. . Therefore, if a technique such as embedding an error correction code in the surplus bits is employed, the reliability of information transmission can be improved. When embedding the error correction code, it is possible to omit the parity bit and use the same as the bit for the error correction code.

さて、マーカ生成部213は、符号化部212により符号化された列に含まれる図形コードのそれぞれを所定の大きさで描画したコード画像と、所定の基準画像と、を合成したマーカ画像を順に生成する。   The marker generation unit 213 sequentially generates a marker image obtained by combining a code image in which each graphic code included in the sequence encoded by the encoding unit 212 is drawn with a predetermined size and a predetermined reference image. Generate.

したがって、マーカ生成部213は、CPU 102の制御の下、画像処理部106等が動作することによって実現され、生成されたマーカ画像はRAM 103内に一時的に保存される。   Therefore, the marker generation unit 213 is realized by the operation of the image processing unit 106 and the like under the control of the CPU 102, and the generated marker image is temporarily stored in the RAM 103.

図4は、基準画像の様子を示す説明図である。以下、本図を参照して説明する。   FIG. 4 is an explanatory diagram showing the state of the reference image. Hereinafter, a description will be given with reference to FIG.

本実施形態では、基準画像401として、既存のライブラリを利用した際のAR認識に適した形状を有する基準図形を描画した画像を採用する。本図に示すように、基準画像401は、正方形の各辺402を一定の太さの黒(有色)で描き、さらに、3つの角の内側に小さい正方形403を黒(有色)で描いた形状をしているが、この形状は、適宜変更が可能である。   In the present embodiment, as the reference image 401, an image in which a reference graphic having a shape suitable for AR recognition when an existing library is used is drawn. As shown in the figure, the reference image 401 has a shape in which each side 402 of a square is drawn with black (colored) having a constant thickness, and a small square 403 is drawn with black (colored) inside three corners. However, this shape can be changed as appropriate.

図5A、図5Bは、マーカ画像の様子を示す説明図である。以下、本図を参照して説明する。   5A and 5B are explanatory diagrams showing the state of the marker image. Hereinafter, a description will be given with reference to FIG.

図5Aに示すマーカ画像501は、基準画像401の枠内にコード画像301を埋め込んだもの、すなわち、コード画像301の周りを囲むように基準画像401を描いたものである。   A marker image 501 shown in FIG. 5A is an image in which the code image 301 is embedded in the frame of the reference image 401, that is, the reference image 401 is drawn so as to surround the code image 301.

図5Aに示すマーカ画像501を採用する際には、基準画像401とコード画像301とを異なる色彩で描くことが望ましい。このように、異なる色彩で描画すると、マーカ画像501を撮影した後で、当該撮影結果に適切な色彩フィルタを適用することで、コード画像301に相当する部分を容易に除去あるいは減衰させることができるからである。   When adopting the marker image 501 shown in FIG. 5A, it is desirable to draw the reference image 401 and the code image 301 in different colors. As described above, when drawing with different colors, after the marker image 501 is captured, a part corresponding to the code image 301 can be easily removed or attenuated by applying an appropriate color filter to the captured result. Because.

一方、図5Bに示すマーカ画像501は、コード画像301と基準画像401とを一定の距離を持って隣り合うように配置したものである。   On the other hand, a marker image 501 shown in FIG. 5B is obtained by arranging the code image 301 and the reference image 401 so as to be adjacent to each other with a certain distance.

本態様では、マーカ画像501の撮影結果に対して、従来のAR認識を用いるだけで、基準画像401の認識が可能である。   In this aspect, the reference image 401 can be recognized only by using conventional AR recognition for the imaging result of the marker image 501.

したがって、当該認識結果を利用して、マーカ画像501の撮影結果から、元のコード画像301を復元することができる。   Therefore, the original code image 301 can be restored from the imaging result of the marker image 501 using the recognition result.

また、マーカ画像501とコード画像301とは、同じ色彩で描いても良い。   Further, the marker image 501 and the code image 301 may be drawn with the same color.

本実施形態では、コード画像301の高さや幅、基準画像401の高さや幅は一定であるから、マーカ画像501の高さや幅は一定となる。   In the present embodiment, since the height and width of the code image 301 and the height and width of the reference image 401 are constant, the height and width of the marker image 501 are constant.

そして、マーカ表示部214は、生成された複数のマーカ画像501を、当該生成された順に画面に表示する。   Then, the marker display unit 214 displays the generated plurality of marker images 501 on the screen in the order of generation.

したがって、マーカ表示部214は、CPU 102の制御の下、RAM 103、画像処理部106、液晶ディスプレイ107が共働することによって実現される。   Therefore, the marker display unit 214 is realized by the RAM 103, the image processing unit 106, and the liquid crystal display 107 working together under the control of the CPU 102.

1枚のマーカ画像501を画面に表示する時間長は、撮影端末231における認識時間に応じて実験等により適切な値を求め、適宜設定することが望ましいが、数フレーム〜十数フレームの時間長(すなわち、垂直同期周期の数倍から十数倍。)とするのが典型的である。   It is desirable that the time length for displaying one marker image 501 on the screen is appropriately set by obtaining an appropriate value by experiment or the like according to the recognition time in the photographing terminal 231, but the time length of several frames to several tens of frames. (That is, several times to several tens of times of the vertical synchronization period).

さて、繰返制御部215は、あらかじめ定めた複数の情報量のそれぞれについて、符号化部212に当該情報量を指定して、マーカ表示部214に複数のマーカ画像を順に表示させる処理を繰り返す。したがって、繰返制御部215は、CPU 102によって実現される。   Now, for each of a plurality of predetermined information amounts, the repetition control unit 215 repeats the process of designating the information amount to the encoding unit 212 and displaying the plurality of marker images on the marker display unit 214 in order. Therefore, the repetition control unit 215 is realized by the CPU 102.

本実施例では、繰返制御部215は、符号化部212に対して「4行4列」「5行5列」「6行6列」「7行7列」の4通りの情報量を指定することによって、マーカ表示部214は、マーカ画像501の列を4種類、それぞれ順次表示することになる。   In the present embodiment, the repetition control unit 215 gives four types of information amounts of “4 rows and 4 columns”, “5 rows and 5 columns”, “6 rows and 6 columns”, and “7 rows and 7 columns” to the encoding unit 212. By specifying, the marker display unit 214 sequentially displays four types of columns of the marker image 501 respectively.

通知受付部216の機能については、後述する実施例において説明する。   The function of the notification receiving unit 216 will be described in an embodiment described later.

さて、図6は、マーカ端末211を実現する情報処理装置101において実行されるマーカ表示処理の制御の流れを示すフローチャートである。以下、本図を参照して説明する。   FIG. 6 is a flowchart showing the flow of control of marker display processing executed in the information processing apparatus 101 that implements the marker terminal 211. Hereinafter, a description will be given with reference to FIG.

本処理が開始されると、CPU 102は、各種の初期化を行う(ステップS601)。この初期化には、撮影端末231に伝送すべきキャラクターのオブジェクトのパラメータを、外部メモリ112からRAM 103内に読み出す、等の設定が含まれる。   When this process is started, the CPU 102 performs various initializations (step S601). This initialization includes settings such as reading out the parameters of the character object to be transmitted to the photographing terminal 231 from the external memory 112 into the RAM 103.

ついで、CPU 101は、以下の処理を繰り返す(ステップS602〜)。   Next, the CPU 101 repeats the following processing (step S602).

まず、CPU 102は、上記4種類の情報量のうちいずれかの情報量を選択する(ステップS603)。選択の手法として最も単純なものは、4種類の情報量をラウンドロビンで順に選択する、というものである。その他の手法については、後述する実施例において説明する。   First, the CPU 102 selects one of the four types of information amounts (step S603). The simplest selection method is to sequentially select four types of information in round robin. Other methods will be described in examples described later.

ステップS603における情報量の選択は、繰返制御部215による符号化部212に対する情報量の指定に相当する。   The selection of the information amount in step S603 corresponds to designation of the information amount for the encoding unit 212 by the repetition control unit 215.

ついで、CPU 101は、ステップS603で選択された情報量の図形コードで、RAM 103内に格納されたパラメータ、すなわち、撮影端末231に伝送すべき情報を符号化して、図形コードの列を得る(ステップS604)。   Next, the CPU 101 encodes the parameters stored in the RAM 103, that is, the information to be transmitted to the photographing terminal 231 with the graphic code of the information amount selected in step S603, and obtains a graphic code string ( Step S604).

上記のように、本実施形態では、伝送すべき情報は96ビットであり、表現可能な情報量が「4行4列」に相当する場合は、8枚の図形コードからなる列が、「5行5列」の場合は5枚の列が、「6行6列」と「7行7列」の場合は3枚の列が、それぞれ生成されることになる。   As described above, in this embodiment, the information to be transmitted is 96 bits, and when the amount of information that can be expressed corresponds to “4 rows and 4 columns”, the sequence of 8 graphic codes is “5”. In the case of “row 5 column”, five columns are generated, and in the case of “6 row 6 column” and “7 row 7 column”, three columns are generated.

ついで、図形コードの列に含まれる図形コードのそれぞれについて、順に、以下の処理を繰り返す(ステップS605〜)。   Next, the following processing is repeated in order for each graphic code included in the graphic code column (step S605).

まず、CPU 102と画像処理部106は、当該図形コードを表すコード画像301をRAM 103内に生成する(ステップS606)。   First, the CPU 102 and the image processing unit 106 generate a code image 301 representing the graphic code in the RAM 103 (step S606).

ついで、CPU 102と画像処理部106は、生成されたコード画像301と、基準画像401と、を合成して、マーカ画像501を生成する(ステップS607)。   Next, the CPU 102 and the image processing unit 106 combine the generated code image 301 and the reference image 401 to generate a marker image 501 (step S607).

この後、垂直同期割込が発生するまで待機する(ステップS608)。この待機中には、他の処理をコルーチン的に適宜実行することが可能である。   Thereafter, the process waits until a vertical synchronization interrupt occurs (step S608). During this standby, other processes can be appropriately executed in a coroutine manner.

垂直同期割込が発生したら、生成されたマーカ画像501をRAM 103から転送して、液晶ディスプレイ107の画面に表示する(ステップS609)。   When the vertical synchronization interrupt occurs, the generated marker image 501 is transferred from the RAM 103 and displayed on the screen of the liquid crystal display 107 (step S609).

この後、CPU 102は、所定の回数(N回)の垂直同期割込が生じるまで待機する(ステップS610)。この処理によって、垂直同期割込周期が1/60秒であるとすると、1枚のマーカ画像501は、N/60秒だけ表示されることになる。   Thereafter, the CPU 102 waits until a predetermined number of times (N times) of vertical synchronization interrupts are generated (step S610). With this processing, if the vertical synchronization interrupt period is 1/60 second, one marker image 501 is displayed for N / 60 seconds.

この表示時間は、撮影端末231において、1枚のマーカ画像501を認識してコード画像301を復元し、当該コード画像301により表現される情報を得るのに要する時間以上の長さであることが望ましい。実験によって時間長を求めることによってNを定数として定めるのが最も典型的である。その他の態様については、後述する。   This display time may be longer than the time required for the imaging terminal 231 to recognize one marker image 501, restore the code image 301, and obtain information represented by the code image 301. desirable. It is most typical to determine N as a constant by determining the time length by experiment. Other aspects will be described later.

なお、ステップS610における待機中も、ステップS608の待機中と同様に、他の処理をコルーチン的に実行することが可能である。   Note that other processes can be executed in a coroutine during the standby in step S610, as in the standby in step S608.

このようにして、1枚のマーカ画像501を液晶ディスプレイ107の所定時間(N/60秒)画面に表示したら、列に含まれる図形コードのすべてについて処理がされるまで、ステップS605以降の処理を繰り返す(ステップS611)。   In this way, when one marker image 501 is displayed on the screen for a predetermined time (N / 60 seconds) of the liquid crystal display 107, the processes in and after step S605 are performed until all the graphic codes included in the column are processed. Repeat (step S611).

得られた図形コードの列に含まれる図形コードのすべてについて繰り返しがなされたら、CPU 102は、必要があれば、RAM 103撮影端末231に伝送すべきパラメータを更新して(ステップS612)、ステップS602以降の処理を繰り返す(ステップS613)。   When repetition is performed for all the graphic codes included in the obtained graphic code string, the CPU 102 updates parameters to be transmitted to the RAM 103 photographing terminal 231 if necessary (step S612), and step S602. The subsequent processing is repeated (step S613).

このような処理を繰り返すことによって、マーカ端末211は、画面に、最新のパラメータ情報を表現する種々の行数桁数の図形コードを、順次表示することになる。   By repeating such processing, the marker terminal 211 sequentially displays graphic codes of various numbers of lines and digits representing the latest parameter information on the screen.

一方、撮影端末231は、当該マーカ端末211の液晶ディスプレイ107の画面が視界に入るようなアングルで、現実世界を動画撮影する。以下、撮影端末231の構成ならびに処理について詳細に説明する。   On the other hand, the photographing terminal 231 shoots a moving image of the real world at an angle such that the screen of the liquid crystal display 107 of the marker terminal 211 enters the field of view. Hereinafter, the configuration and processing of the photographing terminal 231 will be described in detail.

(撮影端末)
図2に示すように、本実施形態に係る撮影端末231は、撮影部232、マーカ認識部233、復号部234、画像生成部235を有する。
(Shooting terminal)
As illustrated in FIG. 2, the imaging terminal 231 according to the present embodiment includes an imaging unit 232, a marker recognition unit 233, a decoding unit 234, and an image generation unit 235.

また、本図に示すように、撮影端末231は、省略可能な要素として、距離推定部236や通知報告部237を備える。なお、距離推定部236と通知報告部237の機能については、後述する実施例において説明する。   As shown in the figure, the photographing terminal 231 includes a distance estimation unit 236 and a notification report unit 237 as elements that can be omitted. Note that the functions of the distance estimation unit 236 and the notification report unit 237 will be described in an embodiment described later.

まず、撮影部232は、現実世界を順次撮影する。   First, the photographing unit 232 sequentially photographs the real world.

一般には、撮影部232は、動画撮影を行い、現実世界を撮影する。この際に、ユーザは、マーカ端末211が撮影範囲に入るように、撮影端末231の位置や向きを調整する。したがって、撮影された画像には、マーカ端末211が液晶ディスプレイ107の画面に表示したマーカ画像501も含まれることになる。   In general, the photographing unit 232 performs moving image photographing to photograph the real world. At this time, the user adjusts the position and orientation of the photographing terminal 231 so that the marker terminal 211 enters the photographing range. Therefore, the captured image includes a marker image 501 displayed on the screen of the liquid crystal display 107 by the marker terminal 211.

したがって、撮影部232は、CPU 102の制御の下でカメラ115によって実現され、撮影結果である撮影画像は、一時的にRAM 103に記憶される。   Therefore, the photographing unit 232 is realized by the camera 115 under the control of the CPU 102, and a photographed image that is a photographing result is temporarily stored in the RAM 103.

図7A、図7Bは、撮影部によって、あるマーカ画像501を液晶ディスプレイ107の画面に表示しているマーカ端末211を含むように、撮影された現実世界の様子を表す画像の説明図である。以下、本図を参照して説明する。   FIG. 7A and FIG. 7B are explanatory diagrams of images representing the state of the real world photographed so as to include the marker terminal 211 displaying a certain marker image 501 on the screen of the liquid crystal display 107 by the photographing unit. Hereinafter, a description will be given with reference to FIG.

本図に示す撮影画像701には、情報処理装置101によって実現されるマーカ端末211が撮影されているほか、マーカ端末211が設置されているテーブル721、手摺り722、遠くには山723などが撮影されている。   In the photographed image 701 shown in this figure, a marker terminal 211 realized by the information processing apparatus 101 is photographed, a table 721 on which the marker terminal 211 is installed, a handrail 722, and a mountain 723 in the distance. Have been filmed.

本図に示すように撮影画像701には、液晶ディスプレイ107に表示されたマーカ画像501が、透視投影されて配置されることになる。なお、ここでいう「透視投影」とは、カメラ115のレンズによる屈折を考慮した投影を意味するものであり、たとえばピントが合わずに画像がぼけてしまう、等の現象が生じうる。   As shown in the figure, a marker image 501 displayed on the liquid crystal display 107 is arranged on the photographed image 701 by being perspective-projected. Note that “perspective projection” here means projection in consideration of refraction by the lens of the camera 115, and for example, a phenomenon such as an image being out of focus and blurring may occur.

ただし、本実施形態のように、マーカ画像501のほかに現実世界の様子が撮影されるような状況では、「透視投影」を、一点透視による透視投影や、平行投影とみなして、AR画像認識を進めることも可能である。   However, as in the present embodiment, in a situation where a situation in the real world is photographed in addition to the marker image 501, the “perspective projection” is regarded as a perspective projection by one-point perspective or a parallel projection, and AR image recognition is performed. It is also possible to proceed.

図7Aに示すマーカ画像501では、コード画像301と基準画像401が異なる色彩で描かれており、図5Aに示すマーカ画像501を、アフィン変換したような形状となっている。また、コード画像301は、基準画像401に囲まれている。   In the marker image 501 shown in FIG. 7A, the code image 301 and the reference image 401 are drawn in different colors, and the marker image 501 shown in FIG. The code image 301 is surrounded by the reference image 401.

図7Bに示すマーカ画像501では、コード画像301と基準画像401が同じ色彩で描かれており、図5Bに示すマーカ画像501を、アフィン変換したような形状となっている。コード画像301は、基準画像401に隣り合わせに配置されている。   In the marker image 501 shown in FIG. 7B, the code image 301 and the reference image 401 are drawn in the same color, and the marker image 501 shown in FIG. The code image 301 is arranged adjacent to the reference image 401.

さて、マーカ認識部233は、このようにして撮影された画像701からマーカ端末211の画面に表示されたマーカ画像501を認識する。   Now, the marker recognizing unit 233 recognizes the marker image 501 displayed on the screen of the marker terminal 211 from the image 701 thus shot.

マーカ画像の認識には、通常のAR認識技術を適用することが可能であるが、まず基準画像を認識し、その後にコード画像の認識を行うような手法を採用することも可能である。   For recognition of the marker image, a normal AR recognition technique can be applied. However, it is also possible to adopt a method of first recognizing the reference image and then recognizing the code image.

したがって、マーカ認識部233は、画像701が一時的に記憶されるRAM 103とCPU 102が共働することによって実現される。   Therefore, the marker recognizing unit 233 is realized by the cooperation between the RAM 103 in which the image 701 is temporarily stored and the CPU 102.

図7Bに示す撮影画像701では、基準画像401がコード画像301とは独立した図形として液晶ディスプレイ107に表示されている。したがって、各種のAR認識ライブラリを利用することによって、撮影画像701から、基準画像401が投影されている領域を認識するとともに、元の基準画像401と、撮影画像701に含まれる基準画像401と、の間の透視変換ならびにその逆変換が計算できる。   In the captured image 701 shown in FIG. 7B, the reference image 401 is displayed on the liquid crystal display 107 as a graphic independent of the code image 301. Therefore, by using various AR recognition libraries, the area where the reference image 401 is projected is recognized from the captured image 701, the original reference image 401, the reference image 401 included in the captured image 701, The perspective transformation between and the inverse can be calculated.

このように、基準画像401とコード画像301とを近接する位置に配置することで、既存のライブラリを利用して基準図形のみをAR認識した後に、図形コードを認識することができるようになる。   As described above, by arranging the reference image 401 and the code image 301 at positions close to each other, it is possible to recognize the graphic code after performing AR recognition of only the reference graphic using the existing library.

一方、図7Aに示す撮影画像701では、基準画像401の内部にコード画像301が埋め込まれている。これは、基準画像401が枠状の形状を有する場合に、その内部にコード画像301を配置することで、コンパクトな形状のマーカ画像501を生成するためである。しかしながら、このままでは、既存のAR認識ライブラリを利用できない場合がある。   On the other hand, in the captured image 701 shown in FIG. 7A, the code image 301 is embedded inside the reference image 401. This is because when the reference image 401 has a frame shape, the marker image 501 having a compact shape is generated by arranging the code image 301 therein. However, there are cases where the existing AR recognition library cannot be used as it is.

たとえば、AR認識ライブラリがモノクロームの画像のみを認識する場合で、認識可能なマーカ画像501のパターンの数に上限がある場合等である。ちなみに、本実施形態では、96ビットの情報を伝送するので、単純に全マーカ画像501をパターンとして登録しようとすると、各行数・列数ごとに少なくとも296種類のパターンを、AR認識ライブラリに登録しなければならないが、これは事実上不可能である。 For example, when the AR recognition library recognizes only a monochrome image, there is an upper limit on the number of recognizable marker image 501 patterns. Incidentally, in this embodiment, since 96-bit information is transmitted, if all the marker images 501 are simply registered as patterns, at least 296 patterns are registered in the AR recognition library for each number of rows and columns. This must be done, but this is virtually impossible.

そのような場合には、撮影画像701に対して、色彩フィルタを適用する。   In such a case, a color filter is applied to the captured image 701.

たとえば、コード画像301が赤色で描かれており、基準画像401が黒色で描かれている場合を考える。この場合の最も単純な色彩フィルタは、撮影画像701から赤色成分を除去するものである。すなわち、撮影画像701の各画素のRGB成分が(r,g,b)である場合に、当該画素を明度(g+b)/2のモノクローム画素に変換するような色彩フィルタである。このような色彩フィルタは、コード画像301を描く色彩に応じて、適宜調整が可能である。   For example, consider a case where the code image 301 is drawn in red and the reference image 401 is drawn in black. The simplest color filter in this case is to remove the red component from the captured image 701. In other words, when the RGB component of each pixel of the photographed image 701 is (r, g, b), the color filter converts the pixel into a monochrome pixel of lightness (g + b) / 2. Such a color filter can be appropriately adjusted according to the color in which the code image 301 is drawn.

図8は、図7Aに示す撮影画像701に色彩フィルタを施した結果を表す説明図である。以下、本図を参照して説明する。   FIG. 8 is an explanatory diagram showing the result of applying a color filter to the captured image 701 shown in FIG. 7A. Hereinafter, a description will be given with reference to FIG.

本図に示すように、撮影画像701に色彩フィルタを施した結果画像702では、コード画像301が消えてしまっており、基準画像401が独立して配置されているかのように見える。   As shown in this figure, in the result image 702 obtained by applying the color filter to the photographed image 701, the code image 301 has disappeared, and it appears as if the reference image 401 is arranged independently.

したがって、図7Bに示す撮影画像をAR認識する場合と同様に、図7Aに示す撮影画像を認識する際にも、各種のAR認識ライブラリを利用することができる。   Therefore, as in the case of AR recognition of the captured image shown in FIG. 7B, various AR recognition libraries can be used when recognizing the captured image shown in FIG. 7A.

なお一般には、撮影画像701に色彩フィルタを適用したとしても、コード画像301が完全に消去されるとは限らない。カメラ115による撮影が行われた条件によって、元のコード画像301がある色彩で描画されていたとしても、撮影画像701におけるコード画像301の色彩は、これとは微妙に異なるのが一般的だからである。   In general, even if a color filter is applied to the captured image 701, the code image 301 is not always completely deleted. Even if the original code image 301 is drawn in a certain color depending on the conditions under which the image is taken by the camera 115, the color of the code image 301 in the photographed image 701 is generally slightly different from this. is there.

しかしながら、色彩フィルタを施すことによって、コード画像301の色合いを薄くすることができる。   However, the color of the code image 301 can be reduced by applying a color filter.

したがって、既存のAR認識ライブラリを利用した場合であっても、撮影画像701から、基準画像401が投影されている領域が認識できる可能性は、色彩フィルタを施すことで飛躍的に高まることになる。   Therefore, even when an existing AR recognition library is used, the possibility that the region on which the reference image 401 is projected can be recognized from the captured image 701 by applying a color filter. .

このようにして、元の基準画像401から撮影画像701に含まれる基準画像401へ透視変換(あるいは、これを近似するアフィン変換等。)、ならびに、その逆変換が計算される。これらの変換は、変換行列によって表現され、当該変換行列の各要素の値は、RAM 103内に一時的に保存される。   In this way, a perspective transformation (or an affine transformation approximating this) from the original reference image 401 to the reference image 401 included in the photographed image 701 and its inverse transformation are calculated. These transformations are expressed by a transformation matrix, and the values of the elements of the transformation matrix are temporarily stored in the RAM 103.

さて、復号部234は、上記のようにマーカ画像501が認識されると、マーカ画像501に含まれるコード画像301を取得して、当該コード画像301が「4行4列」「5行5列」「6行6列」「7行7列」のいずれの図形コードを表すものであるか、何枚目の図形コードであるか、を復号する。   When the marker image 501 is recognized as described above, the decoding unit 234 acquires the code image 301 included in the marker image 501, and the code image 301 is “4 rows × 4 columns” “5 rows × 5 columns”. "6 rows and 6 columns" and "7 rows and 7 columns" which figure code represents and what figure code it represents.

したがって、CPU 102が、一時的に各種の画像や変換行列が記憶されるRAM 103と共働ことによって実現される。   Therefore, the CPU 102 is realized by cooperating with the RAM 103 in which various images and conversion matrices are temporarily stored.

具体的には、まず、元の撮影画像701において、コード画像301が描画されている領域を求める。既に基準画像401がAR認識されており、基準画像401には向きの情報が付与されている。したがって、当該基準画像401の位置や向きを基準にすれば、コード画像301が配置されている領域は容易に得られる。   Specifically, first, in the original photographed image 701, an area where the code image 301 is drawn is obtained. The reference image 401 has already been AR-recognized, and orientation information is given to the reference image 401. Therefore, if the position and orientation of the reference image 401 are used as a reference, the area where the code image 301 is arranged can be easily obtained.

図9は、元の撮影画像701において描画されているコード画像301を示す説明図である。一般に、撮影画像701におけるコード画像301は、マーカ端末211と撮影端末231との間の塵埃や乱反射、湯煙などの影響のほか、カメラ115の画素数の影響で、その画質が劣化している。   FIG. 9 is an explanatory diagram showing the code image 301 drawn in the original captured image 701. In general, the image quality of the code image 301 in the captured image 701 is deteriorated due to the influence of dust, irregular reflection, hot water, and the like between the marker terminal 211 and the imaging terminal 231 and the number of pixels of the camera 115.

次に、当該領域に対して、上記のように得られた逆変換を施す。図10は、撮影されたコード画像301に対して逆変換を施した結果を表す説明図である。以下、本図を参照して説明する。   Next, the inverse transformation obtained as described above is applied to the area. FIG. 10 is an explanatory diagram showing the result of performing inverse transformation on the photographed code image 301. Hereinafter, a description will be given with reference to FIG.

本図のように、逆変換を施すことで、復元画像751が得られる。復元画像751は、元のコード画像301に、各種のノイズが付加されたような画像である。   As shown in the figure, a restored image 751 is obtained by performing inverse transformation. The restored image 751 is an image in which various noises are added to the original code image 301.

そして、得られた復元画像751の復号を試みる。2次元の画像から元の符号を復号する処理は、一般的な2次元コードの復号技術を適用することができる。すなわち、当該復元画像751が「4行4列」「5行5列」「6行6列」「7行7列」のいずれかの図形コードであると仮定してパターンマッチを行って、最も適合するものを復号結果とする。なお、撮影状況によっては、復元画像751からの復号に失敗することもありうる。   Then, decoding of the obtained restored image 751 is attempted. A general two-dimensional code decoding technique can be applied to the process of decoding the original code from the two-dimensional image. That is, pattern matching is performed assuming that the restored image 751 is one of the graphic codes “4 rows and 4 columns”, “5 rows and 5 columns”, “6 rows and 6 columns”, and “7 rows and 7 columns”. The matching result is the decryption result. Depending on the shooting situation, decoding from the restored image 751 may fail.

このようにして、復元画像751から、「4行4列」「5行5列」「6行6列」「7行7列」のいずれの図形コードを表すものであるか、何枚目の図形コードであるか、含まれるビット列の具体的な値は何か、が得られたら、行数・列数ごとに、得られた図形コードの順序に基づいて、ビット列を並べることによって、伝送された情報全体を復号することができる。   In this way, from the restored image 751, which graphic code represents “4 rows, 4 columns”, “5 rows, 5 columns”, “6 rows, 6 columns”, or “7 rows, 7 columns”. When it is a graphic code or what is the specific value of the bit string included, it is transmitted by arranging the bit string based on the order of the obtained graphic code for each number of rows and columns. The entire information can be decrypted.

上記のように、ビット列にはパリティビットや誤り訂正符号を含めるのが典型的である。これらの情報を用いれば、情報の伝送ができるだけ正しく行われるようにすることができる。   As described above, the bit string typically includes a parity bit and an error correction code. By using these pieces of information, it is possible to transmit information as correctly as possible.

さて、このようにして、マーカ端末211から伝送されたオブジェクトの形状等を表すためのパラメータ情報が復号できたら、画像生成部235は、復号された情報に対応付けられるオブジェクト画像を生成し、撮影された画像を背景として当該オブジェクト画像を合成した拡張現実画像を生成する。   When the parameter information for representing the shape of the object transmitted from the marker terminal 211 can be decoded in this way, the image generation unit 235 generates an object image associated with the decoded information and captures the image. An augmented reality image is generated by synthesizing the object image with the set image as a background.

したがって、CPU 102は、RAM 103や画像処理部106と共働して、画像生成部235として機能する。なお、典型的には、ここで生成された拡張現実画像は、撮影端末231を実現する情報処理装置101の液晶ディスプレイ107に表示されるが、外部メモリ112等に適宜保存するのみとしても良い。   Therefore, the CPU 102 functions as the image generation unit 235 in cooperation with the RAM 103 and the image processing unit 106. Typically, the augmented reality image generated here is displayed on the liquid crystal display 107 of the information processing apparatus 101 that implements the photographing terminal 231, but may be stored only in the external memory 112 or the like as appropriate.

図11は、拡張現実画像の様子を示す説明図である。以下、本図を参照して説明する。   FIG. 11 is an explanatory diagram showing a state of an augmented reality image. Hereinafter, a description will be given with reference to FIG.

本図に示すように、拡張現実画像801は、撮影画像701を背景として、その中のマーカ画像501の位置や向きに合わせてオブジェクト画像851を生成して描画したものである。   As shown in the figure, the augmented reality image 801 is generated by drawing an object image 851 in accordance with the position and orientation of the marker image 501 in the captured image 701 as a background.

なお、本図は、図7Aにおける撮影画像701にオブジェクト画像851を合成したものであるが、図7Bにおける撮影画像701を元にした拡張現実画像801も、同様の手法により作られる。   In this figure, the object image 851 is combined with the photographed image 701 in FIG. 7A, but the augmented reality image 801 based on the photographed image 701 in FIG. 7B is also created by the same method.

一般的なAR技術では、1つのマーカに対応付けられるオブジェクトは1つであり、マーカが撮影された向きや大きさに応じてオブジェクトの向きや大きさを変更するのみであるが、本実施形態では、伝送されるパラメータ情報に基づいてオブジェクト画像851を生成する。   In the general AR technique, there is one object associated with one marker, and only the direction and size of the object are changed according to the direction and size in which the marker is photographed. Then, the object image 851 is generated based on the transmitted parameter information.

したがって、拡張現実画像801に含まれるオブジェクトそのものの形状や色彩、模様等を変化させることが可能となる。たとえば、オブジェクトにゲームのキャラクターを採用した場合には、キャラクターの姿勢や表情、服装等を変化させることが可能となる。   Therefore, the shape, color, pattern, etc. of the object itself included in the augmented reality image 801 can be changed. For example, when a game character is adopted as an object, it is possible to change the character's posture, facial expression, clothes, and the like.

図12は、撮影端末231にて実行される撮影処理の制御の流れを示すフローチャートである。以下、本図を参照して説明する。   FIG. 12 is a flowchart showing a flow of control of the photographing process executed by the photographing terminal 231. Hereinafter, a description will be given with reference to FIG.

本処理が開始されると、CPU 102は、各種の初期化を行う(ステップS901)。この初期化では、たとえば、ROMカセット111からキャラクターのオブジェクトを構成するボーンやスキン、テクスチャなどの情報をRAM 103に読み出す等の処理が行われる。   When this process is started, the CPU 102 performs various initializations (step S901). In this initialization, for example, processing such as reading information such as bones, skins, and textures constituting the character object from the ROM cassette 111 into the RAM 103 is performed.

このほか、マーカ端末211から伝送される情報は、上記の4種類の行数・列数の図形コード列内の各図形コードに分割されるため、今までに受け付けた図形コードから取得された情報を一時的に記憶する領域が、RAM 103内に確保される。   In addition, since the information transmitted from the marker terminal 211 is divided into the graphic codes in the graphic code string of the above four types of rows and columns, the information acquired from the graphic codes received so far Is temporarily stored in the RAM 103.

そして、CPU 102は、以下の処理を繰り返す(ステップS902〜)。   Then, the CPU 102 repeats the following process (step S902).

まず、CPU 102は、カメラ115を制御して撮影を行い、撮影結果である撮影画像701をRAM 103内に一時的に保存する(ステップS903)。   First, the CPU 102 controls the camera 115 to perform image capturing, and temporarily stores the captured image 701 as the image capturing result in the RAM 103 (step S903).

ついで、CPU 102は、撮影画像701から、マーカ画像501を認識するため、撮影画像701に色彩フィルタを適用して、結果画像702をRAM 103内に得る(ステップS904)。なお、この処理は、基準画像401の内部にコード画像301が配置されない態様では不要である。   Next, the CPU 102 applies a color filter to the captured image 701 in order to recognize the marker image 501 from the captured image 701, and obtains a result image 702 in the RAM 103 (step S904). Note that this processing is unnecessary in an aspect in which the code image 301 is not arranged inside the reference image 401.

そして、得られた結果に対してAR認識を試行して、元の基準画像401に対する透視変換行列の計算を試みる(ステップS905)。   Then, AR recognition is tried for the obtained result, and calculation of a perspective transformation matrix for the original reference image 401 is tried (step S905).

ここで、AR認識が成功すれば(ステップS905;成功)、元の基準画像401から撮影画像701内の基準画像401への透視変換行列が得られることになるから、当該行列の逆行列を計算することにより、逆変換を取得する(ステップS906)。   Here, if AR recognition is successful (step S905; success), a perspective transformation matrix from the original reference image 401 to the reference image 401 in the photographed image 701 is obtained, and an inverse matrix of the matrix is calculated. By doing so, inverse transformation is acquired (step S906).

そして、CPU 102は、撮影画像701内におけるコード画像301の描画領域を抽出して(ステップS907)、その結果をRAM 103内に得る。   Then, the CPU 102 extracts the drawing area of the code image 301 in the photographed image 701 (step S907), and obtains the result in the RAM 103.

そして、得られた描画領域の画像に対して、ステップS905において得られた逆変換を施して、復元画像751を得る(ステップS908)。   Then, the inverse image obtained in step S905 is applied to the obtained drawing region image to obtain a restored image 751 (step S908).

さらに、当該復元画像751に対して2次元コード認識を試行する(ステップS909)。2次元コード認識が成功すれば(ステップS909;成功)、以下の情報が取得され、RAM 103内に保存される。
(1)当該復元画像751による図形コードが何行何列かの情報。すなわち、当該復元画像751によって表現可能な情報量。
(2)当該復元画像751は、伝送された図形コード列のうち、何番目の図形コードか、を表す順番の情報。
(3)当該復元画像751により表現されるビット列。
Further, two-dimensional code recognition is tried for the restored image 751 (step S909). If the two-dimensional code recognition is successful (step S909; success), the following information is acquired and stored in the RAM 103.
(1) Information on how many rows and columns the graphic code by the restored image 751 is. That is, the amount of information that can be expressed by the restored image 751.
(2) Information on the order in which the restored image 751 indicates the figure code number in the transmitted figure code string.
(3) A bit string represented by the restored image 751.

本実施形態では、2次元コード認識は、4行4列から7行7列までのそれぞれのパターンと、復元画像751との適合度に基づいて行われる。さらに、復元を試行した結果のビット列におけるビットパターンとパリティビットとの関係から、認識が失敗したか否かを判定することも可能である。   In the present embodiment, the two-dimensional code recognition is performed based on the degree of matching between each pattern from 4 rows 4 columns to 7 rows 7 columns and the restored image 751. Furthermore, it is possible to determine whether or not the recognition has failed from the relationship between the bit pattern and the parity bit in the bit string as a result of the restoration attempt.

ついで、RAM 103内に保存された情報から、現在の行数・列数の図形コードについて、列内の順序の通りにすべてのビット列が取得されたか否かを調べる(ステップS910)。   Next, it is checked from the information stored in the RAM 103 whether or not all the bit strings have been acquired in the order in the columns for the graphic codes having the current number of rows and columns (step S910).

すべてのビット列が取得された場合(ステップS910;Yes)、当該ビット列をマーカ端末211から伝送されたパラメータ情報としてRAM 103内のオブジェクトに関する設定情報を更新して(ステップS911)、ステップS912に進む。   When all the bit strings have been acquired (step S910; Yes), the setting information regarding the object in the RAM 103 is updated using the bit string as parameter information transmitted from the marker terminal 211 (step S911), and the process proceeds to step S912.

一方、ビット列全体がまだ得られていない場合(ステップS910;No)や、2次元コード認識に失敗した場合(ステップS909;失敗)は、パラメータ情報の更新はおこなわず、そのままステップS912に進む。   On the other hand, when the entire bit string has not yet been obtained (step S910; No) or when the two-dimensional code recognition has failed (step S909; failure), the parameter information is not updated, and the process directly proceeds to step S912.

そして、RAM 103内のオブジェクトに関する設定情報と、ステップS904におけるAR認識によって得られる透視変換行列と、から、オブジェクト画像851を生成する(ステップS912)。   Then, an object image 851 is generated from the setting information related to the object in the RAM 103 and the perspective transformation matrix obtained by the AR recognition in step S904 (step S912).

キャラクターのオブジェクトの設定情報に基づいて、キャラクターの各ボーンの向きを決め、ボーンとともに連動する制御点の座標からスキンの形状を定め、当該スキンにテクスチャを貼り込み、必要に応じてセリフなどの画像を付加することによって、オブジェクト画像851が生成される。この際に、透視変換行列により、この際のオブジェクトに対する視点の相対的な位置や視線の相対的な方向が定められる。   Based on the setting information of the character object, determine the direction of each bone of the character, determine the shape of the skin from the coordinates of the control points linked with the bone, paste the texture on the skin, and images such as lines as necessary Is added to generate an object image 851. At this time, the perspective transformation matrix determines the relative position of the viewpoint with respect to the object and the relative direction of the line of sight.

そして、CPU 102は、画像処理部106を制御して、RAM 103内に保存された撮影画像701に対し、これを背景にしてオブジェクト画像851を合成して、拡張現実画像801を生成して(ステップS913)、ステップS914に進む。   Then, the CPU 102 controls the image processing unit 106 to generate an augmented reality image 801 by synthesizing the object image 851 with the captured image 701 stored in the RAM 103 as a background ( The process proceeds to step S913) and step S914.

一方、AR認識に失敗した場合(ステップS905;No)、撮影画像701をそのまま拡張現実画像801として取り扱うこととして(ステップS916)、ステップS914に進む。   On the other hand, when AR recognition fails (step S905; No), the captured image 701 is handled as it is as the augmented reality image 801 (step S916), and the process proceeds to step S914.

この後、CPU 102は、垂直同期割込が生じるまで待機してから(ステップS914)、画像処理部106を制御して拡張現実画像801を液晶ディスプレイ107に転送させ、拡張現実画像801をモニター画面に表示し(ステップS915)、ステップS917に進む。   Thereafter, the CPU 102 waits until a vertical synchronization interrupt occurs (step S914), and then controls the image processing unit 106 to transfer the augmented reality image 801 to the liquid crystal display 107, so that the augmented reality image 801 is displayed on the monitor screen. (Step S915), and the process proceeds to step S917.

なお、ステップS914においては、CPU 102は、コルーチン的に他の処理を実行することが可能である。   In step S914, the CPU 102 can execute other processing in a coroutine manner.

このため、AR認識に成功した場合には、マーカ端末211から伝送された最新の情報に基づいて、その形状や色彩、模様、表情などを変化させるキャラクターのオブジェクトが現実世界の様子と合成されて描画された拡張現実画像801が、モニター画面に表示され、AR認識に失敗した場合には、オブジェクト画像851は合成されないので、カメラ115によって撮影された現実世界の様子を表す撮影画像701がそのまま液晶ディスプレイ107のモニター画面に表示されることになる。   For this reason, when AR recognition is successful, based on the latest information transmitted from the marker terminal 211, a character object that changes its shape, color, pattern, facial expression, etc., is combined with the real world state. When the drawn augmented reality image 801 is displayed on the monitor screen and AR recognition fails, the object image 851 is not synthesized, so that the photographed image 701 representing the state of the real world photographed by the camera 115 is directly liquid crystal. It is displayed on the monitor screen of the display 107.

これらのステップS902からの処理を繰り返すことによって(ステップS917)、液晶ディスプレイ107のモニター画面には、マーカ画像501の認識に成功している間、撮影画像701にオブジェクト画像851を合成した画像が動画表示され、マーカ画像501の認識に失敗している間は、撮影画像701がそのまま動画表示されることになる。   By repeating the processing from step S902 (step S917), an image obtained by combining the object image 851 with the captured image 701 is displayed on the monitor screen of the liquid crystal display 107 while the marker image 501 is successfully recognized. While the image is displayed and the marker image 501 fails to be recognized, the captured image 701 is displayed as a moving image as it is.

このように、本実施形態によれば、拡張現実画像において、現実世界の様子を表す画像に合成されるオブジェクト画像を適切に変化させることができる。   As described above, according to the present embodiment, in the augmented reality image, it is possible to appropriately change the object image combined with the image representing the state of the real world.

たとえばオブジェクト画像としてゲームのキャラクターを採用した場合に、時間の経過等とともにキャラクターの表情や姿勢を変化させて、身振りや手振りをさせたり、踊らせたり等、拡張現実キャラクターを動画表示することが可能となる。   For example, when a game character is used as an object image, it is possible to display an augmented reality character as a video by changing its facial expression and posture as time passes, etc. It becomes.

上記実施形態では、表現可能な情報量が互いに異なる複数の種類の図形コード列を用いて、マーカ端末211から撮影端末231へ情報を転送していた。   In the above-described embodiment, information is transferred from the marker terminal 211 to the imaging terminal 231 using a plurality of types of graphic code strings having different expressible information amounts.

本実施形態は、各行数・列数の図形コードのそれぞれについて、情報転送の成功の頻度を測定し、その結果に基づいて、マーカ端末211と撮影端末231との間の「距離」を推定するものである。   In the present embodiment, the frequency of successful information transfer is measured for each of the graphic codes of the number of rows and the number of columns, and the “distance” between the marker terminal 211 and the imaging terminal 231 is estimated based on the result. Is.

すなわち、撮影端末231は、距離推定部236をさらに備える。ここで、距離推定部236は、情報が復号できた図形コードの列のうち、当該図形コードが表現可能な情報量が最大のものを選択し、当該最大の情報量から、マーカ端末211と、撮影端末231と、の間の距離を推定する。   That is, the photographing terminal 231 further includes a distance estimation unit 236. Here, the distance estimation unit 236 selects the largest information amount that can be expressed by the graphic code from among the graphic code sequences from which the information can be decoded, and the marker terminal 211, The distance between the photographing terminal 231 is estimated.

ここで推定される距離は、座標に基づく距離ではなく、視界の良好性に基づく距離である。すなわち、観察対象がはっきり明瞭に見える場合には近く、ぼんやり不明瞭に見える場合には遠い、と判定されるような距離を採用する。   The distance estimated here is not a distance based on coordinates but a distance based on good visibility. That is, a distance that is determined to be close when the observation target looks clear and clear, and far when it is blurred or unclear is adopted.

たとえば、同じ大きさのマーカ画像が撮影されたとしても、認識できた図形コードが「4行4列」のものだけである場合と、「7行7列」のものまで認識できた場合とでは、前者は後者に比べて「遠い」ことになる。   For example, even when a marker image of the same size is captured, when the recognized graphic code is only “4 rows and 4 columns” and when “7 rows and 7 columns” are recognized, The former will be “far” compared to the latter.

たとえば、撮影時の明暗や塵埃、煙、乱反射などの影響によって、認識できた図形コードの表現可能な情報量が変化し、「距離」も変化することになる。   For example, the amount of information that can be expressed by the recognized graphic code changes due to the influence of light and darkness, dust, smoke, diffuse reflection, etc. at the time of shooting, and the “distance” also changes.

具体的には、ステップS901の初期化の際に、RAM 103内に、変数vを確保し、その値を0に設定する。   Specifically, at the time of initialization in step S901, a variable v is secured in the RAM 103, and its value is set to zero.

そして、上記フローチャートのステップS910において、c行・c列の図形コード列について、すべてのビット列が取得された場合(ステップS910;Yes)、v≦cであれば、vの値をcに設定し、c<vであれば、vの値に0以上1未満の定数(典型的には、0.8〜0.9程度の定数。)を乗じる、あるいは、vの値を所定の定数(典型的には0.5〜1程度の定数。)だけ減らす。   In step S910 of the flowchart, if all bit strings have been acquired for the graphic code string of c rows and c columns (step S910; Yes), the value of v is set to c if v ≦ c. If c <v, the value of v is multiplied by a constant not less than 0 and less than 1 (typically a constant of about 0.8 to 0.9), or the value of v is a predetermined constant (typically It is reduced by a constant of about 0.5 to 1.).

このような処理を行うと、変数vによって、「マーカ端末211と撮影端末231との間は、v行v列の図形コードであればぎりぎり見える距離である」ことがわかる。   When such processing is performed, the variable v indicates that “the distance between the marker terminal 211 and the imaging terminal 231 is a barely visible distance if it is a graphic code of v rows and v columns”.

本実施形態においては、このようにして得られた「距離」によっても、オブジェクト画像851に変更を加えることが望ましい。   In the present embodiment, it is desirable to change the object image 851 based on the “distance” obtained in this way.

たとえば、「距離」が長ければ、すなわち、vが小さければ小さいほど、オブジェクト画像851を不明瞭にし、vが大きければ大きいほど、オブジェクト画像851を明瞭にするように、オブジェクト画像生成時のシャープネスを変更したり、ぼかしフィルタを適用したりすることができる。   For example, the sharpness at the time of object image generation is set such that the longer the “distance”, that is, the smaller v is, the more obscured the object image 851 is, and the larger v is, the clearer the object image 851 is. You can change or apply a blur filter.

このような処理を行うと、撮影画像701の質感(距離感)とオブジェクト画像851の質感(距離感)とを揃えることができるので、両者を合成して拡張現実画像801を得る際にも、より「リアル」な画像が得られることになる。   When such processing is performed, the texture (distance) of the captured image 701 and the texture (distance) of the object image 851 can be matched, so that when the augmented reality image 801 is obtained by combining the two, A more “real” image can be obtained.

このほかの手法として、「距離」を表す画像をオブジェクト画像851に新たに付加する手法もありうる。   As another method, there may be a method of newly adding an image representing “distance” to the object image 851.

図13は、拡張現実画像の様子を示す説明図である。以下、本図を参照して説明する。   FIG. 13 is an explanatory diagram showing a state of an augmented reality image. Hereinafter, a description will be given with reference to FIG.

本図に示す拡張現実画像801においては、オブジェクト画像851に、半透明画像852が付加されている。この半透明画像852によって、たとえば、温泉において湯煙にキャラクターが隠れており、キャラクターがはっきりとは見えないというような状況を表す演出をオブジェクト画像851に与えることができる。   In the augmented reality image 801 shown in this figure, a semi-transparent image 852 is added to the object image 851. The translucent image 852 can give the object image 851 an effect that represents a situation in which, for example, the character is hidden behind hot water in a hot spring and the character cannot be clearly seen.

また、本図におけるオブジェクト画像851においては、「距離」に応じてキャラクターの顔の表情や姿勢も変化させている。   Further, in the object image 851 in this figure, the facial expression and posture of the character are also changed according to the “distance”.

このほか、「距離」が長ければ、すなわち、vが小さければ小さいほど、オブジェクト画像851を小さくし、vが大きければ大きいほど、オブジェクト画像851を大きくする、という手法を採用しても良い。   In addition, a method may be employed in which the “distance” is longer, that is, the smaller v is, the smaller the object image 851 is, and the larger v is, the larger the object image 851 is.

従来のAR技術に置いては、オブジェクト画像851の大きさは、撮影画像701内におけるマーカ画像501の大きさに連動して決まることとなっているが、この手法では、マーカ画像501の大きさだけではなく、マーカ画像501の明瞭度によって、オブジェクト画像851の大きさを変更することができるようになる。   In the conventional AR technique, the size of the object image 851 is determined in conjunction with the size of the marker image 501 in the captured image 701. In this method, the size of the marker image 501 is determined. In addition, the size of the object image 851 can be changed depending on the clarity of the marker image 501.

上記実施形態では、どの図形コード列が認識でき、どの図形コード列が認識できなかったか、の情報は、撮影端末231のみで利用されていたが、本実施形態では、この情報をマーカ端末211に返送する。   In the above embodiment, the information indicating which graphic code string can be recognized and which graphic code string cannot be recognized is used only by the photographing terminal 231, but in the present embodiment, this information is transmitted to the marker terminal 211. Return it.

すなわち、撮影端末231の通知報告部237は、ステップS910において、c行・c列の図形コード列について、すべてのビット列が取得された場合(ステップS910;Yes)、その旨を、マーカ端末211に通知する。   In other words, the notification reporting unit 237 of the imaging terminal 231 determines that when all the bit strings have been acquired for the graphic code string of c rows and c columns in Step S910 (Step S910; Yes), the marker terminal 211 is notified. Notice.

すると、マーカ端末211の通知受付部216は、この通知を受け付ける。   Then, the notification reception unit 216 of the marker terminal 211 receives this notification.

通知のやりとりは、たとえば、撮影端末231として、情報処理装置101においてヘッドホン109のかわりにスピーカやブザー(図示せず。)を接続したものを利用することとし、伝送された情報が復号できたことがステップS910において判明したら、その旨を表す通知音を発するものとする。   For the exchange of notifications, for example, the information processing apparatus 101 connected to a speaker or buzzer (not shown) instead of the headphones 109 was used as the photographing terminal 231 and the transmitted information could be decoded. If it is found in step S910, a notification sound indicating that is emitted.

一方、マーカ端末211として、情報処理装置101にマイク(図示せず。)を接続したものを利用することとして、マイクにより、上記の通知音を監視する。   On the other hand, as the marker terminal 211, the notification sound is monitored by the microphone by using the information processing apparatus 101 connected to the microphone (not shown).

マーカ端末211においては、上述のフローチャートのステップS612とステップS613の間で、一定時間の間だけ、マイクからの入力を監視すれば良い。この段階で上記の通知音が認識できた場合には、「撮影端末231に対しては、直前まで利用していた図形コード列の行数・列数であれば、情報が伝送できる」ことがわかる。   In the marker terminal 211, it is only necessary to monitor the input from the microphone between a step S612 and a step S613 in the flowchart described above for a certain period of time. If the above notification sound can be recognized at this stage, “the information can be transmitted to the photographing terminal 231 if the number of lines / columns of the graphic code string used until just before” can be transmitted. Recognize.

そこで、本実施形態では、「情報が伝送できると認定された行数・列数」がステップS603で選択される確率を上げるのである。このような処理を行うことで、繰返制御部215は、マーカ端末211からの通知に基づいて、複数の情報量のそれぞれを符号化部212に指定する頻度を変化させることになる。   Therefore, in the present embodiment, the probability that “the number of rows / columns authorized to transmit information” is selected in step S603 is increased. By performing such processing, the repetition control unit 215 changes the frequency of designating each of the plurality of information amounts to the encoding unit 212 based on the notification from the marker terminal 211.

たとえば、以下のような手法により、頻度を変更することが可能である。すなわち、ステップS601において、RAM 103内に配列aを用意し、それぞれの要素の値を、適当な正の定数に設定する。a[0]は、「4行4列」の頻度、a[1]は、「5行5列」の頻度、a[2]は、「6行6列」の頻度、a[3]は、「7行7列」の頻度に、それぞれ相当する。   For example, the frequency can be changed by the following method. That is, in step S601, an array a is prepared in the RAM 103, and the value of each element is set to an appropriate positive constant. a [0] is the frequency of “4 rows and 4 columns”, a [1] is the frequency of “5 rows and 5 columns”, a [2] is the frequency of “6 rows and 6 columns”, and a [3] is , “7 rows and 7 columns”, respectively.

そして、ステップS612とステップS613の間で、c行c列の図形コード列による情報伝送が成功したことが判明したら、配列の全要素に0以上1未満の正定数(典型的には0.8〜0.95程度。)を乗じ、さらに、要素a[c-4]に1を加算する。この後、全要素に所定の定数(典型的には、0.5〜1.0程度。)を加算することとしても良い。   Then, when it is found that the information transmission by the graphic code string of c rows and c columns is successful between step S612 and step S613, a positive constant (typically 0.8 to 0) is added to all elements of the array. ˜0.95.) And 1 is added to the element a [c-4]. Thereafter, a predetermined constant (typically about 0.5 to 1.0) may be added to all the elements.

一方、c行c列の図形コード列による情報伝送が失敗したことが判明したら、要素a[c-4]に0以上1未満の正定数(典型的には0.8〜0.95程度。)を乗じる。   On the other hand, if it is found that the information transmission by the graphic code string of c rows and c columns has failed, a positive constant of 0 or more and less than 1 is typically set in the element a [c-4] (typically about 0.8 to 0.95). ).

そして、ステップS603において、行数・列数を選択する際には、a[0]〜a[3]を確率密度分布(ヒストグラム)と考え、乱数を発生させて、「4行4列」「5行5列」「6行6列」「7行7列」のいずれかを選択するのである。   In step S603, when selecting the number of rows and columns, a [0] to a [3] are considered as probability density distributions (histograms), random numbers are generated, and “4 rows and 4 columns” “ One of “5 rows and 5 columns”, “6 rows and 6 columns”, and “7 rows and 7 columns” is selected.

本実施形態では、c行c列の図形コード列による情報伝送が成功すると、以降にc行c列が選択される確率が高くなる。また、それ以外の行数・列数がまったく選択されない、というわけではないので、環境が変化した場合にも、伝送に適した情報量を検索することが可能となる。このため、次第に、できるだけ多い行数・列数の図形コードが選択されるようになる。   In the present embodiment, if information transmission using the graphic code string of c rows and c columns is successful, the probability that c rows and c columns will be selected subsequently increases. In addition, since the number of other rows and columns is not selected at all, even when the environment changes, it is possible to search for an information amount suitable for transmission. For this reason, graphic codes having as many rows and columns as possible are gradually selected.

なお、上記の態様に限らず、c行c列の図形コード列による情報伝送が成功したことがc行c列が選択される可能性を高くするような手法であれば、選択の頻度を修正する手法として採用することができる。   Note that the frequency of selection is corrected if the method is not limited to the above, and if the information transmission by the graphic code sequence of c rows and c columns is a method that increases the possibility of selecting c rows and c columns. It can be adopted as a technique to do.

また、音声による通知ではなく、たとえば、無線LANインターフェース114を用いて、マーカ端末211と撮影端末231とをアドホック通信で接続し、無線通信を用いて通知を行うような態様を採用しても良い。   Instead of voice notification, for example, a mode in which the wireless LAN interface 114 is used to connect the marker terminal 211 and the photographing terminal 231 by ad hoc communication and notification is performed using wireless communication may be employed. .

本実施形態によれば、撮影端末231からマーカ端末211へ認識の可否を知らせることで、できるだけ高速な情報伝送が可能となる。   According to the present embodiment, information can be transmitted as fast as possible by notifying the marker terminal 211 from the imaging terminal 231 that recognition is possible.

以上説明したように、本発明によれば、拡張現実画像において、現実世界の様子を表す画像に合成されるオブジェクト画像を適切に変化させるのに好適な拡張現実システム、マーカ端末、撮影端末、拡張現実方法、ならびに、これらをコンピュータにて実現するプログラムを記録したコンピュータ読取可能な情報記録媒体を提供することができる。   As described above, according to the present invention, in an augmented reality image, an augmented reality system suitable for appropriately changing an object image combined with an image representing the state of the real world, a marker terminal, a photographing terminal, an augmented image It is possible to provide an actual method and a computer-readable information recording medium in which a program that realizes these in a computer is recorded.

101 情報処理装置
102 CPU
103 RAM
104 ROM
105 入力装置
106 画像処理部
107 液晶ディスプレイ
108 音声処理部
109 ヘッドホン
110 カセットリーダ
111 ROMカセット
112 外部メモリ
113 RTC
114 無線LANインターフェース
115 カメラ
201 拡張現実システム
211 マーカ端末
212 符号化部
213 マーカ生成部
214 マーカ表示部
215 繰返制御部
216 通知受付部
231 撮影端末
232 撮影部
233 マーカ認識部
234 復号部
235 画像生成部
236 距離推定部
237 通知報告部
301 コード画像
302 桝目
401 基準画像
402 正方形の辺
403 小さい正方形
501 マーカ画像
701 撮影画像
702 結果画像
751 復元画像
801 拡張現実画像
851 オブジェクト画像
852 半透明画像
101 Information processing apparatus 102 CPU
103 RAM
104 ROM
105 Input Device 106 Image Processing Unit 107 Liquid Crystal Display 108 Audio Processing Unit 109 Headphone 110 Cassette Reader 111 ROM Cassette 112 External Memory 113 RTC
114 Wireless LAN Interface 115 Camera 201 Augmented Reality System 211 Marker Terminal 212 Encoding Unit 213 Marker Generation Unit 214 Marker Display Unit 215 Repeat Control Unit 216 Notification Accepting Unit 231 Imaging Terminal 232 Imaging Unit 233 Marker Recognition Unit 234 Decoding Unit 235 Image Generation Unit 236 distance estimation unit 237 notification report unit 301 code image 302 cell 401 reference image 402 square side 403 small square 501 marker image 701 captured image 702 result image 751 restored image 801 augmented reality image 851 object image 852 translucent image

Claims (10)

1次元コードもしくは2次元コードからなる図形コードを用い、マーカ端末と撮影端末とを有する拡張現実システムであって、
(a)前記マーカ端末は、
1つの図形コードにより表現可能な情報量が指定されると、前記撮影端末に伝達すべき情報を、当該指定された情報量を表現可能な図形コードの列に符号化する符号化部、
前記符号化された列に含まれる図形コードのそれぞれを所定の大きさで描画したコード画像と、所定の基準画像と、を合成したマーカ画像を順に生成するマーカ生成部、
前記生成された複数のマーカ画像を、当該生成された順に画面に表示するマーカ表示部、
あらかじめ定めた複数の情報量のそれぞれについて、前記符号化部に当該情報量を指定して、前記マーカ表示部に複数のマーカ画像を順に表示させる処理を繰り返す繰返制御部
を備え、
(b)前記撮影端末は、
現実世界を順次撮影する撮影部、
前記順次撮影された画像のそれぞれから、前記マーカ端末の画面に表示されたマーカ画像を認識するマーカ認識部、
前記マーカ画像が順次認識されると、当該マーカ画像に含まれるコード画像を取得し、当該コード画像に含まれる図形コードが表現可能な情報量ごとに分類して、当該分類された図形コードの列ごとに、前記マーカ端末から伝達された情報を復号する復号部、
前記復号された情報に対応付けられるオブジェクト画像を生成して、前記撮影された画像を背景として当該オブジェクト画像を合成した拡張現実画像を生成する画像生成部
を備えることを特徴とする拡張現実システム。
An augmented reality system having a marker terminal and a photographing terminal using a graphic code consisting of a one-dimensional code or a two-dimensional code,
(A) The marker terminal is
When an information amount that can be expressed by one graphic code is specified, an encoding unit that encodes information to be transmitted to the photographing terminal into a sequence of graphic codes that can express the specified information amount,
A marker generation unit that sequentially generates a marker image obtained by combining a code image in which each graphic code included in the encoded sequence is drawn with a predetermined size and a predetermined reference image;
A marker display unit for displaying the generated plurality of marker images on the screen in the order of generation;
For each of a plurality of predetermined information amounts, a repetition control unit that repeats the process of designating the information amount in the encoding unit and sequentially displaying a plurality of marker images on the marker display unit,
(B) The photographing terminal
Shooting unit that sequentially captures the real world,
A marker recognition unit for recognizing a marker image displayed on the screen of the marker terminal from each of the sequentially photographed images;
When the marker images are sequentially recognized, a code image included in the marker image is acquired, and classified according to the amount of information that can be expressed by the graphic code included in the code image. A decoding unit for decoding information transmitted from the marker terminal,
An augmented reality system comprising: an image generation unit that generates an object image associated with the decoded information and generates an augmented reality image obtained by synthesizing the object image with the captured image as a background.
請求項1に記載の拡張現実システムであって、
前記撮影端末は、前記情報が復号できた図形コードの列のうち、当該図形コードが表現可能な情報量が最大のものを選択し、当該最大の情報量から、前記マーカ端末と、前記撮影端末と、の間の距離を推定する距離推定部をさらに備え、
前記撮影端末において、前記画像生成部は、前記オブジェクト画像を、前記復号された情報と、前記推定された距離と、に基づいて生成する
ことを特徴とする拡張現実システム。
The augmented reality system according to claim 1,
The imaging terminal selects a graphic code sequence in which the information can be decoded, and selects the largest information amount that can be expressed by the graphic code. From the maximum information amount, the marker terminal and the imaging terminal are selected. And a distance estimation unit for estimating a distance between
In the imaging terminal, the image generation unit generates the object image based on the decoded information and the estimated distance.
請求項1に記載の拡張現実システムであって、
前記撮影端末は、前記情報が復号できると、その旨を前記マーカ端末に通知し、
前記マーカ端末において、前記繰返制御部は、前記撮影端末からの通知に基づいて、前記複数の情報量のそれぞれを前記符号化部に指定する頻度を変化させる
ことを特徴とする拡張現実システム。
The augmented reality system according to claim 1,
When the information can be decoded, the imaging terminal notifies the marker terminal to that effect,
In the marker terminal, the repetition control unit changes the frequency of designating each of the plurality of information amounts to the encoding unit based on a notification from the photographing terminal .
請求項1から3のいずれか1項に記載の拡張現実システムであって、
前記基準画像は、前記図形コードを囲むように合成される
ことを特徴とする拡張現実システム。
The augmented reality system according to any one of claims 1 to 3,
The augmented reality system, wherein the reference image is synthesized so as to surround the graphic code.
請求項1から3のいずれか1項に記載の拡張現実システムであって、
前記基準画像は、前記図形コードに隣り合うように合成される
ことを特徴とする拡張現実システム。
The augmented reality system according to any one of claims 1 to 3,
The augmented reality system, wherein the reference image is synthesized so as to be adjacent to the graphic code.
請求項4または5に記載の拡張現実システムであって、
前記基準画像と、前記図形コードと、は、異なる色彩であり、
前記マーカ認識部は、前記順次撮影された画像のそれぞれに前記図形コードの色彩が打ち消され、もしくは、前記基準画像の色彩が強調されるフィルタを適用し、当該適用結果から前記基準画像が透視変換された結果を抽出することにより、当該適用前の画像において当該マーカ画像が配置されている領域を認識し、
前記復号部は、前記認識された領域の画像に前記透視変換の逆変換を施すことによりコード画像を復元して、当該復元されたコード画像から情報を復号する
ことを特徴とする拡張現実システム。
An augmented reality system according to claim 4 or 5,
The reference image and the graphic code are different colors,
The marker recognizing unit applies a filter that cancels the color of the graphic code or emphasizes the color of the reference image to each of the sequentially captured images, and the reference image is perspective-transformed from the application result. By extracting the result, the area where the marker image is arranged in the image before application is recognized,
The augmented reality system, wherein the decoding unit restores a code image by performing inverse transformation of the perspective transformation on the image of the recognized area, and decodes information from the restored code image.
請求項1から5のいずれか1項に記載の拡張現実システムにおけるマーカ端末。   The marker terminal in the augmented reality system according to any one of claims 1 to 5. 請求項1から5のいずれか1項に記載の拡張現実システムにおける撮影端末。   The imaging terminal in the augmented reality system according to any one of claims 1 to 5. 1次元コードもしくは2次元コードからなる図形コードを用い、マーカ端末と撮影端末とが実行する拡張現実方法であって、前記マーカ端末は、符号化部、マーカ生成部、マーカ表示部、繰返制御部を備え、前記撮影端末は、撮影部、マーカ認識部、復号部、画像生成部を備え、当該拡張現実方法は、
(a)前記マーカ端末において、
前記符号化部が、1つの図形コードにより表現可能な情報量が指定されると、前記撮影端末に伝達すべき情報を、当該指定された情報量を表現可能な図形コードの列に符号化する符号化工程、
前記マーカ生成部が、前記符号化された列に含まれる図形コードのそれぞれを所定の大きさで描画したコード画像と、所定の基準画像と、を合成したマーカ画像を順に生成するマーカ生成工程、
前記マーカ表示部が、前記生成された複数のマーカ画像を、当該生成された順に画面に表示するマーカ表示工程、
前記繰返制御部が、あらかじめ定めた複数の情報量のそれぞれについて、前記マーカ生成工程に対して、当該情報量を指定して、前記マーカ表示工程において、複数のマーカ画像を順に表示させる処理を繰り返す繰返制御工程
を備え、
(b)前記撮影端末において、
前記撮影部が、現実世界を順次撮影する撮影工程、
前記マーカ認識部が、前記順次撮影された画像のそれぞれから、前記マーカ端末の画面に表示されたマーカ画像を認識するマーカ認識工程、
前記復号部が、前記マーカ画像が順次認識されると、当該マーカ画像に含まれるコード画像を取得し、当該コード画像に含まれる図形コードが表現可能な情報量ごとに分類して、当該分類された図形コードの列ごとに、前記マーカ端末から伝達された情報を復号する復号工程、
前記画像生成部が、前記復号された情報に対応付けられるオブジェクト画像を生成して、前記撮影された画像を背景として当該オブジェクト画像を合成した拡張現実画像を生成する画像生成工程
を備えることを特徴とする拡張現実方法。
An augmented reality method executed by a marker terminal and a photographing terminal using a one-dimensional code or a graphic code composed of a two-dimensional code, wherein the marker terminal includes an encoding unit, a marker generation unit, a marker display unit, and repeat control The imaging terminal includes an imaging unit, a marker recognition unit, a decoding unit, and an image generation unit, and the augmented reality method includes:
(A) In the marker terminal,
When the information amount that can be expressed by one graphic code is designated, the encoding unit encodes information to be transmitted to the photographing terminal into a graphic code string that can express the designated information amount. Encoding process,
A marker generating step in which the marker generating unit sequentially generates a marker image obtained by combining a code image in which each graphic code included in the encoded sequence is drawn with a predetermined size and a predetermined reference image;
A marker display step in which the marker display unit displays the plurality of generated marker images on the screen in the order of generation;
A process in which the repetition control unit designates the information amount for each of a plurality of predetermined information amounts and sequentially displays a plurality of marker images in the marker display step. It has a repeat control process that repeats,
(B) In the photographing terminal,
A photographing process in which the photographing unit sequentially photographs the real world;
A marker recognition step in which the marker recognition unit recognizes a marker image displayed on the screen of the marker terminal from each of the sequentially captured images;
When the decoding unit sequentially recognizes the marker image, the decoding unit obtains a code image included in the marker image, classifies the graphic code included in the code image for each information amount that can be expressed, A decoding step of decoding information transmitted from the marker terminal for each row of graphic codes
The image generation unit includes an image generation step of generating an object image associated with the decoded information and generating an augmented reality image obtained by synthesizing the object image with the captured image as a background. Augmented reality method.
第1のコンピュータを、1次元コードもしくは2次元コードからなる図形コードを用いるマーカ端末として機能させるマーカ用プログラムと、第2のコンピュータを、当該マーカ端末に対する撮影端末として機能させる撮影用プログラムと、が記録されたコンピュータ読取可能な情報記録媒体であって、
(a)前記マーカ用プログラムは、前記第1のコンピュータを、
1つの図形コードにより表現可能な情報量が指定されると、前記撮影端末に伝達すべき情報を、当該指定された情報量を表現可能な図形コードの列に符号化する符号化部、
前記符号化された列に含まれる図形コードのそれぞれを所定の大きさで描画したコード画像と、所定の基準画像と、を合成したマーカ画像を順に生成するマーカ生成部、
前記生成された複数のマーカ画像を、当該生成された順に画面に表示するマーカ表示部、
あらかじめ定めた複数の情報量のそれぞれについて、前記符号化部に当該情報量を指定して、前記マーカ表示部に複数のマーカ画像を順に表示させる処理を繰り返す繰返制御部
として機能させ、
(b)前記撮影用プログラムは、前記第2のコンピュータを、
現実世界を順次撮影する撮影部、
前記順次撮影された画像のそれぞれから、前記マーカ端末の画面に表示されたマーカ画像を認識するマーカ認識部、
前記マーカ画像が順次認識されると、当該マーカ画像に含まれるコード画像を取得し、当該コード画像に含まれる図形コードが表現可能な情報量ごとに分類して、当該分類された図形コードの列ごとに、前記マーカ端末から伝達された情報を復号する復号部、
前記復号された情報に対応付けられるオブジェクト画像を生成して、前記撮影された画像を背景として当該オブジェクト画像を合成した拡張現実画像を生成する画像生成部
として機能させることを特徴とする情報記録媒体。
A marker program for causing the first computer to function as a marker terminal using a graphic code consisting of a one-dimensional code or a two-dimensional code, and an imaging program for causing the second computer to function as an imaging terminal for the marker terminal. A recorded computer-readable information recording medium,
(A) The marker program causes the first computer to
When an information amount that can be expressed by one graphic code is specified, an encoding unit that encodes information to be transmitted to the photographing terminal into a sequence of graphic codes that can express the specified information amount,
A marker generation unit that sequentially generates a marker image obtained by combining a code image in which each graphic code included in the encoded sequence is drawn with a predetermined size and a predetermined reference image;
A marker display unit for displaying the generated plurality of marker images on the screen in the order of generation;
For each of a plurality of predetermined information amounts, specify the information amount in the encoding unit, and function as a repetition control unit that repeats the process of displaying a plurality of marker images in order on the marker display unit,
(B) The photographing program causes the second computer to
Shooting unit that sequentially captures the real world,
A marker recognition unit for recognizing a marker image displayed on the screen of the marker terminal from each of the sequentially photographed images;
When the marker images are sequentially recognized, a code image included in the marker image is acquired, and classified according to the amount of information that can be expressed by the graphic code included in the code image. A decoding unit for decoding information transmitted from the marker terminal,
An information recording medium that generates an object image associated with the decoded information and functions as an image generation unit that generates an augmented reality image obtained by synthesizing the object image with the captured image as a background .
JP2010071267A 2010-03-26 2010-03-26 Augmented reality system, marker terminal, photographing terminal, augmented reality method, and information recording medium Active JP4995934B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010071267A JP4995934B2 (en) 2010-03-26 2010-03-26 Augmented reality system, marker terminal, photographing terminal, augmented reality method, and information recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010071267A JP4995934B2 (en) 2010-03-26 2010-03-26 Augmented reality system, marker terminal, photographing terminal, augmented reality method, and information recording medium

Publications (2)

Publication Number Publication Date
JP2011204047A JP2011204047A (en) 2011-10-13
JP4995934B2 true JP4995934B2 (en) 2012-08-08

Family

ID=44880617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010071267A Active JP4995934B2 (en) 2010-03-26 2010-03-26 Augmented reality system, marker terminal, photographing terminal, augmented reality method, and information recording medium

Country Status (1)

Country Link
JP (1) JP4995934B2 (en)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8682879B2 (en) 2010-04-16 2014-03-25 Bizmodeline Co., Ltd. Marker search system for augmented reality service
JP5821526B2 (en) 2011-10-27 2015-11-24 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5387668B2 (en) 2011-12-26 2014-01-15 ソニー株式会社 Information processing terminal, information processing method, and program
JP2013206365A (en) * 2012-03-29 2013-10-07 Casio Comput Co Ltd Image processor, image processing method and program
JP5563625B2 (en) * 2012-06-29 2014-07-30 株式会社ソニー・コンピュータエンタテインメント Image analysis apparatus, image analysis method, and image analysis system
JP6192264B2 (en) 2012-07-18 2017-09-06 株式会社バンダイ Portable terminal device, terminal program, augmented reality system, and clothing
JP5743994B2 (en) * 2012-10-26 2015-07-01 東京書籍株式会社 Printed matter displaying two-dimensional code
JP2014106490A (en) * 2012-11-29 2014-06-09 Buffalo Inc Code image processing system, code image display apparatus, image display apparatus, and program
JP6028555B2 (en) * 2012-12-12 2016-11-16 ソニー株式会社 Information processing apparatus, program, and information processing method
JP2015075459A (en) * 2013-10-11 2015-04-20 富士通株式会社 Position estimation device, position estimation method, and position estimation program
JP2017508200A (en) * 2014-01-24 2017-03-23 ピーシーエムエス ホールディングス インコーポレイテッド Methods, apparatus, systems, devices, and computer program products for extending reality associated with real-world locations
JP6278806B2 (en) * 2014-04-09 2018-02-14 株式会社Nttドコモ Imaging system and imaging method
US9547370B2 (en) * 2014-05-27 2017-01-17 Fuji Xerox Co., Ltd. Systems and methods for enabling fine-grained user interactions for projector-camera or display-camera systems
WO2015185110A1 (en) 2014-06-03 2015-12-10 Metaio Gmbh Method and system for presenting a digital information related to a real object
JP6172233B2 (en) * 2015-10-02 2017-08-02 ソニー株式会社 Image processing apparatus, image processing method, and program
JP6508730B2 (en) * 2016-12-16 2019-05-08 Necプラットフォームズ株式会社 Light emission marker device, marker detection device, transmission system, marker light emission method, marker detection method, and program
CN107590754A (en) * 2017-11-01 2018-01-16 首都师范大学 A kind of system and method based on augmented reality lifting national park Tourist Experience
CN110084078A (en) * 2018-12-31 2019-08-02 绍兴柯桥斯坦电子科技合伙企业(有限合伙) A kind of condition code identifying system and method for augmented reality

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000322602A (en) * 1999-05-12 2000-11-24 Sony Corp Device and method for processing image and medium
JP2005250950A (en) * 2004-03-05 2005-09-15 Nippon Telegr & Teleph Corp <Ntt> Marker presentation portable terminal, expanded sense of reality system, and its operation method
JP2006040045A (en) * 2004-07-28 2006-02-09 Sony Corp Information processor, cubic object, information processing system and information processing method
JP2007104281A (en) * 2005-10-04 2007-04-19 Nippon Telegr & Teleph Corp <Ntt> Data transmission/reception method, multimedia data processing system, terminal, and program

Also Published As

Publication number Publication date
JP2011204047A (en) 2011-10-13

Similar Documents

Publication Publication Date Title
JP4995934B2 (en) Augmented reality system, marker terminal, photographing terminal, augmented reality method, and information recording medium
US10277812B2 (en) Image processing to obtain high-quality loop moving image
JP4363151B2 (en) Imaging apparatus, image processing method thereof, and program
US7760962B2 (en) Image capture apparatus which synthesizes a plurality of images obtained by shooting a subject from different directions, to produce an image in which the influence of glare from a light is reduced
JP6316910B2 (en) Reference card for scene-based metadata capture
KR20190089091A (en) Automated three dimensional model generation
JP5071853B2 (en) Image processing apparatus, image processing method, program, and recording medium
KR102577966B1 (en) Photo-video based spatial-temporal volumetric capture system
KR20130016318A (en) A method of real-time cropping of a real entity recorded in a video sequence
JP2018061124A (en) Imaging apparatus, information processing system, information processor, and polarization image processing method
JP2011119974A (en) Panoramic image synthesizer, panoramic image synthesis method, and program
CN109151244A (en) Information processing unit, its control method and storage medium
JP2014029566A (en) Image processing apparatus, image processing method, and image processing program
CN111353965B (en) Image restoration method, device, terminal and storage medium
CN101141565A (en) Image processing apparatus and image processing method, computer program, and imaging apparatus
JP2020028096A (en) Image processing apparatus, control method of the same, and program
CN113938667A (en) Video data transmission method and device based on video stream data and storage medium
JP4966260B2 (en) Image processing method, image processing apparatus, program, and computer-readable storage medium
KR101632514B1 (en) Method and apparatus for upsampling depth image
TW202117626A (en) Information processing device, information processing system, information processing method, and program
CN113938666A (en) Video data transmission method and device based on key frame and storage medium
CN114549270A (en) Anti-shooting monitoring video watermarking method combining depth robust watermarking and template synchronization
JP4363153B2 (en) Imaging apparatus, image processing method thereof, and program
US20200396485A1 (en) Video encoding method and video decoding method
CN118247186B (en) Image distortion correction method, electronic device, storage medium and chip

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120510

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4995934

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250