Nothing Special   »   [go: up one dir, main page]

JP6150675B2 - Position information display system and method - Google Patents

Position information display system and method Download PDF

Info

Publication number
JP6150675B2
JP6150675B2 JP2013175949A JP2013175949A JP6150675B2 JP 6150675 B2 JP6150675 B2 JP 6150675B2 JP 2013175949 A JP2013175949 A JP 2013175949A JP 2013175949 A JP2013175949 A JP 2013175949A JP 6150675 B2 JP6150675 B2 JP 6150675B2
Authority
JP
Japan
Prior art keywords
information
identification code
positional relationship
article
articles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013175949A
Other languages
Japanese (ja)
Other versions
JP2015045952A (en
Inventor
香織 林
香織 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyodo Printing Co Ltd
Original Assignee
Kyodo Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyodo Printing Co Ltd filed Critical Kyodo Printing Co Ltd
Priority to JP2013175949A priority Critical patent/JP6150675B2/en
Publication of JP2015045952A publication Critical patent/JP2015045952A/en
Application granted granted Critical
Publication of JP6150675B2 publication Critical patent/JP6150675B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、位置情報表示システム及び方法に関する。   The present invention relates to a position information display system and method.

従来、画像として読取可能な一次元コード(例えば、バーコード)、二次元コード(例えば、QRコード(登録商標))等の識別コードを撮影し、撮影した画像中の識別コードに対応する情報(すなわち、オーバーレイ情報)を取得し、取得した情報(例えば、識別コードが付される物品名)を、撮影した画像に重畳して表示部の画面に表示する位置情報表示システムが提案されている(例えば、特許文献1〜3)。このように取得した情報を撮影した画像に重畳して表示部の画面に表示することができるので、撮影した画像中の識別コードが付された物品についての情報(例えば、物品名)を表示部の画面上で把握することができる。   Conventionally, an identification code such as a one-dimensional code (for example, a barcode) or a two-dimensional code (for example, a QR code (registered trademark)) that can be read as an image is photographed, and information corresponding to the identification code in the photographed image ( That is, a position information display system has been proposed in which overlay information is acquired and the acquired information (for example, an article name to which an identification code is attached) is superimposed on a captured image and displayed on the screen of the display unit ( For example, Patent Documents 1 to 3). Since the information acquired in this way can be superimposed on the captured image and displayed on the screen of the display unit, information about the article with the identification code in the captured image (for example, the article name) is displayed on the display unit. Can be grasped on the screen.

識別コードは、物品の格納位置を管理する物品管理システムでも用いられ(例えば、特許文献4〜7)、物品の格納位置を管理するためにRFIDタグを用いた管理システム(例えば、特許文献8〜10)及び物品を管理するためにカラービット(登録商標)を用いた管理システム(例えば、特許文献11)も提案されている。   The identification code is also used in an article management system that manages the storage position of the article (for example, Patent Documents 4 to 7), and a management system that uses an RFID tag to manage the storage position of the article (for example, Patent Documents 8 to 8). 10) and a management system using color bits (registered trademark) for managing articles (for example, Patent Document 11) have also been proposed.

特開2012−215989号公報JP 2012-215989 A 特開2012−181705号公報JP 2012-181705 A 特開2011−55250号公報JP 2011-55250 A 特開平10−35827号公報Japanese Patent Laid-Open No. 10-35827 特開2005−96956号公報JP 2005-96956 A 特開2000−259717号公報JP 2000-259717 A 特開2012−16883号公報JP 2012-16883 A 特開2004−186057号公報JP 2004-186057 A 特開2006−8301号公報JP 2006-8301 A 特開2011−37571号公報JP 2011-37571 A 特開2011−24663号公報JP 2011-24663 A

しかしながら、従来の位置情報表示システム及び物品管理システムでは、複数の物品の予め決定された基準位置関係と複数の物品の現在の位置関係とをディスプレイの画面上で把握することができない。例えば、複数の物品が本1、本2及び本3であり、本1、本2及び本3を左から順に本棚に配置すべき場合、本1、本2及び本3が左から順に本棚に正確に配置されているか否かを画面上で把握することができない。   However, in the conventional position information display system and the article management system, it is impossible to grasp the predetermined reference positional relationship between the plurality of articles and the current positional relationship between the plurality of articles on the display screen. For example, when a plurality of articles are book 1, book 2, and book 3, and book 1, book 2, and book 3 are to be placed on the bookshelf in order from the left, book 1, book 2, and book 3 are placed on the bookshelf in order from the left. It is impossible to grasp on the screen whether or not it is correctly arranged.

本発明の目的は、画像として読取可能な識別コードが付された複数の物品の位置関係を表示部の画面上で簡単に把握することができる位置情報表示システム及び方法を提供することである。   An object of the present invention is to provide a position information display system and method capable of easily grasping the positional relationship of a plurality of articles with identification codes readable as images on the screen of a display unit.

本発明による位置情報表示システムは、画像として読取可能な識別コードが付された複数の物品の予め決定された基準位置関係を示す基準位置関係情報を記憶するデータベースと、識別コードが付された複数の物品を撮影する撮影手段と、撮影した画像中の識別コードを認識する識別コード認識手段と、撮影した画像中の識別コードが付された複数の物品の位置関係を示す撮影物品位置関係情報を、識別コード認識手段が認識した識別コードを解析して得られた位置座標に基づいて生成する情報生成手段と、基準位置関係情報と撮影物品位置関係情報を照合し、照合結果を生成する照合手段と、照合結果を、撮影手段で撮影した画像に重畳して表示する表示手段と、を備える。   A position information display system according to the present invention includes a database that stores reference position relationship information indicating predetermined reference position relationships of a plurality of articles with identification codes readable as images, and a plurality of identification codes. Photographing article position relation information indicating the positional relation among a plurality of articles attached with the identification code in the photographed image, photographing means for photographing the article, identification code recognition means for recognizing the identification code in the photographed image , Information generating means for generating based on the position coordinates obtained by analyzing the identification code recognized by the identification code recognizing means, and verification means for verifying the reference positional relationship information and the photographed article positional relationship information and generating a verification result And display means for displaying the collation result superimposed on the image photographed by the photographing means.

識別コードを解析して得られた位置座標としては、識別コードの中心に位置する座標である識別コードの中心座標、識別コードに含まれる位置検出パターンの任意の位置(例えば、位置検出パターンのコーナー)の座標、識別コードから所定の距離離れた位置の座標等を用いることができる。識別コードを解析して得られた位置座標の数は単数でも複数でもよい。   The position coordinates obtained by analyzing the identification code include the center coordinates of the identification code, which is the coordinates located at the center of the identification code, and any position of the position detection pattern included in the identification code (for example, the corner of the position detection pattern). ), Coordinates at a position away from the identification code by a predetermined distance, and the like. The number of position coordinates obtained by analyzing the identification code may be singular or plural.

好適には、撮影物品位置関係情報は、識別コード認識手段が認識した識別コードを解析して得られた位置座標に基づいて決定される距離と角度のうちの少なくとも一方を有する。   Preferably, the photographing article positional relationship information includes at least one of a distance and an angle determined based on a position coordinate obtained by analyzing the identification code recognized by the identification code recognition means.

好適には、基準位置関係情報は、基準位置関係を示すリスト、又は、基準位置関係にある識別コードが付された複数の物品を撮影した画像に含まれる識別コードを解析して得られた位置座標に基づいて決定される距離と角度のうちの少なくとも一方を有する。   Preferably, the reference position relationship information is a position obtained by analyzing a list indicating the reference position relationship or an identification code included in an image obtained by photographing a plurality of articles with an identification code in the reference position relationship. At least one of a distance and an angle determined based on the coordinates.

好適には、照合手段は、撮影物品位置関係情報が基準位置関係情報に対応しない場合には、基準位置関係から複数の物品の位置関係への変化についての位置関係変化情報を含む照合結果を生成する。   Preferably, the collation means generates a collation result including positional relationship change information regarding a change from the reference positional relationship to the positional relationship of a plurality of articles when the photographed article positional relationship information does not correspond to the reference positional relationship information. To do.

好適には、撮影手段は、基準位置関係にある識別コードが付された複数の物品を撮影し、情報生成手段は、識別コード認識手段が認識した識別コードを解析して得られた位置座標に基づいて基準位置関係情報を生成し、情報生成手段が生成した基準位置関係情報をデータベースに登録する情報登録部を更に備える。   Preferably, the photographing unit photographs a plurality of articles with identification codes having a reference positional relationship, and the information generation unit uses the position coordinates obtained by analyzing the identification code recognized by the identification code recognition unit. An information registration unit is further provided for generating the reference positional relationship information based on the information and registering the reference positional relationship information generated by the information generation unit in the database.

本発明による位置情報表示方法は、画像として読取可能な識別コードが付された複数の物品を、カメラで撮影する撮影ステップと、撮影した画像中の識別コードを、コンピュータによって認識する識別コード認識ステップと、撮影した画像中の識別コードが付された複数の物品の位置関係を示す撮影物品位置関係情報を、識別コード認識ステップで認識した識別コードを解析して得られた位置座標に基づいて、コンピュータによって生成する情報生成ステップと、識別コードが付された複数の物品の予め決定された基準位置関係を示す基準位置関係情報をデータベースから読み出し、基準位置関係情報と撮影物品位置関係情報をコンピュータによって照合し、照合結果をコンピュータによって生成する照合ステップと、照合結果を、カメラで撮影した画像に重畳してディスプレイに表示する表示ステップと、を備える。   A position information display method according to the present invention includes a photographing step of photographing a plurality of articles with identification codes readable as images by a camera, and an identification code recognition step of recognizing the identification codes in the photographed images by a computer. And, based on the position coordinates obtained by analyzing the identification code recognized in the identification code recognition step, the photographed article positional relationship information indicating the positional relationship of a plurality of articles attached with the identification code in the photographed image, An information generation step generated by a computer, and reference position relationship information indicating a predetermined reference position relationship of a plurality of articles with identification codes are read from the database, and the reference position relationship information and the shooting article position relationship information are read by the computer. The collation step of collating and generating the collation result by a computer, and the collation result with the camera Superimposed on the shadow image comprises a display step of displaying on the display, the.

本発明によれば、識別コードが付された複数の物品の予め決定された基準位置関係と撮影した画像中の識別コードが付された複数の物品の撮影物品位置関係の両方を把握しているので、画像として読取可能な識別コードが付された複数の物品の位置関係を表示部の画面上で簡単に把握することができる。   According to the present invention, both a predetermined reference positional relationship of a plurality of articles with identification codes and a photographed article positional relationship of a plurality of articles with identification codes in a photographed image are grasped. Therefore, it is possible to easily grasp the positional relationship between a plurality of articles with identification codes that can be read as images on the screen of the display unit.

本発明による位置情報表示システムの実施の形態のブロック図である。It is a block diagram of an embodiment of a position information display system according to the present invention. 図1に示す識別コード読取システムで用いられる識別コードの一例を示す図である。It is a figure which shows an example of the identification code used with the identification code reading system shown in FIG. 図1の位置情報表示システムにおける基準位置関係情報の登録のフローチャートである。It is a flowchart of registration of the reference positional relationship information in the positional information display system of FIG. 基準位置関係情報を生成するために用いられる撮影画像の表示例を示す図である。It is a figure which shows the example of a display of the picked-up image used in order to produce | generate reference positional relationship information. 識別コードの中心座標の算出を説明するための図である。It is a figure for demonstrating calculation of the center coordinate of an identification code. 基準位置関係情報の一部の一例を示す図である。It is a figure which shows an example of a part of reference | standard positional relationship information. 基準位置関係にある物品の識別コードの中心座標に基づいて決定される距離を説明するための図である。It is a figure for demonstrating the distance determined based on the center coordinate of the identification code of the articles | goods in reference | standard positional relationship. 基準位置関係にある物品の識別コードの中心座標に基づいて決定される角度を説明するための図である。It is a figure for demonstrating the angle determined based on the center coordinate of the identification code of the articles | goods in reference | standard positional relationship. 図1の位置情報表示システムの動作のフローチャートである。It is a flowchart of operation | movement of the positional infomation display system of FIG. 図1の位置情報表示システムの動作のフローチャートである。It is a flowchart of operation | movement of the positional infomation display system of FIG. 撮影物品位置関係情報を生成するために用いられる撮影画像の表示例を示す図である。It is a figure which shows the example of a display of the picked-up image used in order to produce | generate imaging | photography article positional relationship information. 撮影物品位置関係情報の一部の一例を示す図である。It is a figure which shows an example of a part of imaging | photography article positional relationship information. 撮影物品位置関係にある物品の識別コードの中心座標に基づいて決定される距離を説明するための図である。It is a figure for demonstrating the distance determined based on the center coordinate of the identification code of the articles | goods in imaging | photography article positional relationship. 撮影物品位置関係にある物品の識別コードの中心座標に基づいて決定される角度を説明するための図である。It is a figure for demonstrating the angle determined based on the center coordinate of the identification code of the articles | goods in imaging | photography article positional relationship. 基準位置関係情報と撮影物品位置関係情報を照合後にオーバーレイ情報を重畳した撮影画像の表示例を示す図である。It is a figure which shows the example of a display of the picked-up image which superimposed overlay information after collating reference positional relationship information and imaging | photography article positional relationship information. 基準位置関係情報と撮影物品位置関係情報を照合後にオーバーレイ情報を重畳した撮影画像の他の表示例を示す図である。It is a figure which shows the other example of a display of the picked-up image on which overlay information was superimposed after collating reference positional relationship information and photographing article positional relationship information. 基準位置関係情報と撮影物品位置関係情報を照合後にオーバーレイ情報を重畳した撮影画像の他の表示例を示す図である。It is a figure which shows the other example of a display of the picked-up image on which overlay information was superimposed after collating reference positional relationship information and photographing article positional relationship information. リスト形式の基準位置関係情報の一例を示す図である。It is a figure which shows an example of the reference | standard positional relationship information of a list format. リスト形式の基準位置関係情報に関連して撮影物品位置関係情報を生成するために用いられる撮影画像の表示例を示す図である。It is a figure which shows the example of a display of the picked-up image used in order to produce | generate photographing article positional relationship information in relation to the reference | standard positional relationship information of a list format. リスト形式の基準位置関係情報と撮影物品位置関係情報を照合後にオーバーレイ情報を重畳した撮影画像の表示例を示す図である。It is a figure which shows the example of a display of the picked-up image which superimposed overlay information after collating the reference | standard positional relationship information of list format, and imaging | photography article positional relationship information. リスト形式の基準位置関係情報と撮影物品位置関係情報を照合後にオーバーレイ情報を重畳した撮影画像の他の表示例を示す図である。It is a figure which shows the other example of a display of the picked-up image which superimposed the overlay information after collating the reference | standard positional relationship information of a list format, and imaging | photography article positional relationship information. 基準位置関係情報を生成するために用いられる撮影画像の他の表示例を示す図である。It is a figure which shows the other example of a display of the picked-up image used in order to produce | generate reference positional relationship information. 図22に示す撮影画像を用いて生成した基準位置関係情報に関連して撮影物品位置関係情報を生成するために用いられる撮影画像の表示例を示す図である。It is a figure which shows the example of a display of the picked-up image used in order to produce | generate photographing article positional relationship information in relation to the reference | standard positional relationship information produced | generated using the picked-up image shown in FIG. 距離に基づく基準位置関係情報と撮影物品位置関係情報を照合後にオーバーレイ情報を重畳した撮影画像の表示例を示す図である。It is a figure which shows the example of a display of the picked-up image which superimposed overlay information after collating the reference positional relationship information based on distance, and imaging | photography article positional relationship information. 距離に基づく基準位置関係情報と撮影物品位置関係情報を照合後にオーバーレイ情報を重畳した撮影画像の他の表示例を示す図である。It is a figure which shows the other example of a display of the picked-up image which superimposed the overlay information after collating the reference positional relationship information based on distance, and imaging | photography article positional relationship information.

本発明による位置情報表示システム及び方法の実施の形態を、図面を参照しながら詳細に説明する。
図1は、本発明による位置情報表示システムの実施の形態のブロック図である。図1に示す位置情報表示システムは、位置検出パターンを有する二次元コードである識別コードを読み出すとともに当該識別コードの位置情報を表示するシステムであり、図書館の書籍管理、(病院、銀行等の書類が多い場面で有用な)文書フォルダ管理、薬品管理、工場の材料管理等に用いられる。このために、図1に示す位置情報表示システムは、端末1と、ネットワーク(通信経路)2と、サーバ3と、を備える。
Embodiments of a position information display system and method according to the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram of an embodiment of a position information display system according to the present invention. The position information display system shown in FIG. 1 is a system that reads an identification code that is a two-dimensional code having a position detection pattern and displays position information of the identification code. This is useful for document folder management, chemical management, factory material management, etc. For this purpose, the position information display system shown in FIG. 1 includes a terminal 1, a network (communication path) 2, and a server 3.

本実施の形態では、四つの位置検出パターンを有する二次元コードを識別コードとして用いる場合について説明する。位置検出パターンの座標は、例えば、撮影画像を解析することによって検出可能である。   In this embodiment, a case where a two-dimensional code having four position detection patterns is used as an identification code will be described. The coordinates of the position detection pattern can be detected, for example, by analyzing a captured image.

端末1は、カメラ機能付きスマートホン、カメラが接続されたパーソナルコンピュータ(PC)等として実現され、撮影手段としてのカメラ(撮影部)1Aと、識別コード認識手段としてのコンピュータ(識別コード認識部)1Bと、表示手段としてのディスプレイ1Cと、通信インタフェース1Dと、を有する。   The terminal 1 is realized as a smart phone with a camera function, a personal computer (PC) to which a camera is connected, and the like. A camera (photographing unit) 1A as a photographing unit and a computer (identification code recognizing unit) as an identification code recognizing unit. 1B, a display 1C as display means, and a communication interface 1D.

カメラ1Aは、画像として読取可能な識別コードが付された物品を撮影する。このために、カメラ1Aは、レンズ1aと、イメージセンサ1bと、アナログ・デジタル変換器(AD)1cと、を有し、撮影した識別コードのデジタル画像データをコンピュータ1Bに出力する。   The camera 1A takes an image of an article with an identification code that can be read as an image. For this purpose, the camera 1A includes a lens 1a, an image sensor 1b, and an analog / digital converter (AD) 1c, and outputs digital image data of a photographed identification code to the computer 1B.

コンピュータ1Bは、端末1の動作を制御する。本実施の形態では、コンピュータ1Bは、カメラ1Aが撮影した画像中の識別コードを認識し、認識した識別コードを識別コード情報に変換し、変換した識別コード情報を、通信インタフェース1D及びネットワーク2を介してサーバ3に送信する。   The computer 1B controls the operation of the terminal 1. In the present embodiment, the computer 1B recognizes the identification code in the image captured by the camera 1A, converts the recognized identification code into identification code information, and converts the converted identification code information to the communication interface 1D and the network 2. To the server 3.

ディスプレイ1Cは、後に説明するようにしてネットワーク2及び通信インタフェース1Dを介してサーバ3から提供された照合結果としてのオーバーレイ情報を、ディスプレイ1Cの表示画面に表示する。   As will be described later, the display 1C displays overlay information as a collation result provided from the server 3 via the network 2 and the communication interface 1D on the display screen of the display 1C.

サーバ3は、データベース3Aと、情報生成手段、照合手段及び情報登録手段としてのコンピュータ(情報生成部、照合部及び情報登録部)3Bと、通信インタフェース3Cと、を備える。データベース3Aは、画像として読取可能な識別コードが付された複数の物品の予め決定された基準位置関係を示す基準位置関係情報を記憶する。以下では、画像に含まれる識別コードが物品ごとに異なる場合について主に説明するが、画像に含まれる識別コードの一部が同一である場合にも本発明を適用することができる。   The server 3 includes a database 3A, a computer (information generation unit, verification unit, and information registration unit) 3B as an information generation unit, a verification unit, and an information registration unit, and a communication interface 3C. The database 3A stores reference positional relationship information indicating predetermined reference positional relationships of a plurality of articles with identification codes that can be read as images. Hereinafter, a case where the identification code included in the image is different for each article will be mainly described, but the present invention can also be applied to a case where a part of the identification code included in the image is the same.

コンピュータ3Bは、サーバ3の動作を制御する。本実施の形態では、コンピュータ3Bは、識別コード情報を、通信インタフェース1D、ネットワーク2及び通信インタフェース3Cを介してコンピュータ1Bから受信する。そして、コンピュータ3Bは、撮影した画像中の識別コードが付された複数の物品の位置関係を示す撮影物品位置関係情報を、コンピュータ1Bが認識した識別コードを解析して得られた位置座標としての識別コードの中心座標に基づいて生成する。   The computer 3B controls the operation of the server 3. In the present embodiment, the computer 3B receives the identification code information from the computer 1B via the communication interface 1D, the network 2, and the communication interface 3C. Then, the computer 3B uses the photographed article positional relationship information indicating the positional relation of the plurality of articles to which the identification code in the photographed image is attached as the position coordinates obtained by analyzing the identification code recognized by the computer 1B. Generated based on the center coordinates of the identification code.

本実施の形態では、コンピュータ1Bは、ディスプレイ1Cの画面内の撮影画像をラスター走査する際に撮影画像から抽出される識別コードの数を判断することによって、ディスプレイ1Cの画面内に存在する単数又は複数の識別コードを認識する。   In the present embodiment, the computer 1B determines the number of identification codes extracted from the photographed image when raster scanning the photographed image in the screen of the display 1C. Recognize multiple identification codes.

また、本実施の形態では、コンピュータ3Bは、基準位置関係情報と撮影物品位置関係情報を照合し、照合結果を表すオーバーレイ情報を生成する。更に詳しく説明すると、撮影物品位置関係情報が基準位置関係情報に対応する場合には、コンピュータ3Bは、照合結果として、コンピュータ1Bが抽出した複数の識別コードに対応する物品を表すオーバーレイ情報を生成する。そして、生成したオーバーレイ情報は、ディスプレイ1Cの画面内の複数の識別コードに対応付けて表示される。それに対し、撮影物品位置関係情報が基準位置関係情報に対応しない場合には、コンピュータ3Bは、照合結果として、コンピュータ1Bが抽出した複数の識別コードに対応する物品を表すオーバーレイ情報及び基準位置関係から撮影物品位置関係への変化についての位置関係変化情報としての他のオーバーレイ情報を生成する。生成したオーバーレイ情報は、ディスプレイ1Cの画面内の複数の識別コードに対応付けて表示され、生成された他のオーバーレイ情報は、ディスプレイ1Cの画面内の物品が表示されている範囲以外の部分に表示される。   In the present embodiment, the computer 3B collates the reference positional relationship information and the photographed article positional relationship information, and generates overlay information representing the collation result. More specifically, when the photographed article positional relationship information corresponds to the reference positional relationship information, the computer 3B generates overlay information representing articles corresponding to the plurality of identification codes extracted by the computer 1B as a comparison result. . The generated overlay information is displayed in association with a plurality of identification codes in the screen of the display 1C. On the other hand, when the photographed article position relation information does not correspond to the reference position relation information, the computer 3B uses the overlay information representing the articles corresponding to the plurality of identification codes extracted by the computer 1B and the reference position relation as the comparison result. Other overlay information is generated as positional relationship change information regarding the change to the photographing article positional relationship. The generated overlay information is displayed in association with a plurality of identification codes in the screen of the display 1C, and the other generated overlay information is displayed in a portion other than the range where the article is displayed in the screen of the display 1C. Is done.

さらに、本実施の形態では、カメラ1Aは、基準位置関係にある識別コードが付された複数の物品を撮影し、コンピュータ3Bは、コンピュータ1Bが認識した識別コードの中心座標に基づいて基準位置関係情報を生成し、生成した基準位置関係情報をデータベース3Aに登録する。   Furthermore, in the present embodiment, the camera 1A photographs a plurality of articles with identification codes that are in the reference position relationship, and the computer 3B is based on the center coordinates of the identification code recognized by the computer 1B. Information is generated, and the generated reference position relationship information is registered in the database 3A.

図2は、図1に示す位置情報表示システムで用いられる識別コードの一例を示す図である。図2に示す識別コード11は、35×35セルの大きさを有し、9×9のブロックに分割され、隣接するブロック間に1セルの明の分離スペース23を有する二次元コードである。したがって、分離スペースは、8×8列の1セル幅のブロック間隔の格子状パターンになる。右下の3×3ブロック及び3×3分離スペースの部分には第1位置検出パターン12Aが、左上の2×2ブロック及び2×2分離スペースの部分には第2位置検出パターン12Dが、右上の3(横)×2(縦)ブロック及び3×2分離スペースの部分には第3位置検出パターン12Bが、左下の2(横)×3(縦)ブロック及び2×3分離スペースの部分には第4位置検出パターン12Cが、それぞれ設けられている。したがって、識別コード11の第1から第4位置検出パターン以外のブロックに、第1から第4位置検出パターン以上のパターンが出現することはない。   FIG. 2 is a diagram showing an example of an identification code used in the position information display system shown in FIG. The identification code 11 shown in FIG. 2 is a two-dimensional code having a size of 35 × 35 cells, divided into 9 × 9 blocks, and having a bright separation space 23 of 1 cell between adjacent blocks. Therefore, the separation space is a lattice-like pattern with 8 × 8 columns and a cell interval of 1 cell width. The first position detection pattern 12A is in the lower right 3 × 3 block and the 3 × 3 separation space, and the second position detection pattern 12D is in the upper right 2 × 2 block and the 2 × 2 separation space. The third position detection pattern 12B is located in the 3 (horizontal) × 2 (vertical) block and the 3 × 2 separation space portion, and the lower left 2 (horizontal) × 3 (vertical) block and the 2 × 3 separation space portion. Are provided with fourth position detection patterns 12C, respectively. Therefore, a pattern larger than the first to fourth position detection patterns does not appear in blocks other than the first to fourth position detection patterns of the identification code 11.

識別コード11のコード部分の最小単位はセルである。識別コード11は、通常正方形又は長方形の形状をとる。他の形状も可能だが、二次元コードの多くは四角形であり、第1実施形態の二次元コードも正方形であるが、これに限定されるものではなく、長方形でも他の形状でもよい。   The minimum unit of the code portion of the identification code 11 is a cell. The identification code 11 usually takes a square or rectangular shape. Although other shapes are possible, most of the two-dimensional codes are quadrangular, and the two-dimensional code of the first embodiment is also square. However, the shape is not limited to this, and may be rectangular or other shapes.

一般に、二次元コードは明暗のセルでデータを表し、識別コード11もコード部は明暗のセルでデータを表す。さらに、識別コード11は、35×35セルの正方形であるが、これよりサイズの大きなコードや、長方形のような縦横の大きさを変えた形状にすることも可能である。35×35セルの正方形の二次元コードを、これをバージョン2×2と呼ぶ。ここで、最小のバージョンは1×1であり、この時のセルサイズは27×27となる。絵柄の埋込は、縦横のバージョンが共に2以上の場合に可能とする。バージョンが1×1の際に絵柄を埋め込まない理由は、データ量が少ないにも関わらず、絵柄を埋め込むと、さらにデータ量が少なくなり、認識してもほとんどデータが得られないことになるため、上記のような制限を加えた。識別コード11は、縦方向及び横方向にそれぞれ伸張できる。横バージョンが2、縦バージョンが3の場合、バージョン2×3と表記する。バージョンが1上がるごとに、セルサイズが8大きくなり、ブロック数が2大きくなる。よって、バージョン3×4では、セルサイズは43×51になる。バージョンは1から20まで選択可能であるが、これに限定されるものではない。   In general, the two-dimensional code represents data in light and dark cells, and the identification code 11 also represents data in light and dark cells. Furthermore, although the identification code 11 is a 35 × 35 cell square, it can be formed into a code having a larger size or a shape such as a rectangle whose vertical and horizontal sizes are changed. A square two-dimensional code of 35 × 35 cells is referred to as version 2 × 2. Here, the minimum version is 1 × 1, and the cell size at this time is 27 × 27. The embedding of the pattern is possible when both the vertical and horizontal versions are 2 or more. The reason for not embedding a picture when the version is 1 × 1 is that even though the amount of data is small, if the pattern is embedded, the amount of data is further reduced, and even if it is recognized, almost no data can be obtained. The above restrictions were added. The identification code 11 can be extended in the vertical direction and the horizontal direction, respectively. When the horizontal version is 2 and the vertical version is 3, it is written as version 2 × 3. As the version increases by 1, the cell size increases by 8 and the number of blocks increases by 2. Therefore, in version 3 × 4, the cell size is 43 × 51. The version can be selected from 1 to 20, but is not limited to this.

第1位置検出パターン12Aは、暗セルの部分が、8×8セルの1セル幅の正方形枠と、正方形枠の中心の2×2の正方形と、を有する。第2位置検出パターン12Dは、暗セルの部分が、4×4セルの1セル幅の正方形枠を有する。第3位置検出パターン12Bは、暗セルの部分が、8×4セルの1セル幅の長方形枠を有する、横長の長方形枠である。第4位置検出パターン12Cは、暗セルの部分が、4×8セルの1セル幅の長方形枠を有する、縦長の長方形枠である。   In the first position detection pattern 12A, the dark cell portion includes a square frame having a width of 1 cell of 8 × 8 cells and a 2 × 2 square at the center of the square frame. In the second position detection pattern 12D, the dark cell portion has a square frame of 1 × 4 cells of 4 × 4 cells. The third position detection pattern 12B is a horizontally long rectangular frame in which the dark cell portion has a rectangular cell with a width of 1 cell of 8 × 4 cells. The fourth position detection pattern 12C is a vertically long rectangular frame in which a dark cell portion has a rectangular cell with a width of 1 × 4 × 8 cells.

識別コード11では、正方形の二次元コードの4隅に4個の異なる位置検出パターンを配置する。なお、位置検出パターンが異なるというのは、形状、大きさ、二次元コード上での配置方向が異なる場合であり、線幅の比率が異なる場合も含まれる。ただし、撮影条件等の影響を受けるため、色の違いは対象とせず、明暗の二値画像を対象とする。   In the identification code 11, four different position detection patterns are arranged at the four corners of the square two-dimensional code. Note that the position detection patterns are different when the shape, the size, and the arrangement direction on the two-dimensional code are different, and also include the case where the line width ratios are different. However, since it is affected by shooting conditions and the like, the difference in color is not targeted, but a light and dark binary image is targeted.

識別コード11では、位置検出パターンは、正方形又は長方形の各頂点付近に配置する。これは、1箇所に配置する場合より、できるだけ離れて配置する方が汚れの影響を分散できるためである。ただし、位置検出パターンの配置位置は、4隅に限定されるものではない。識別コード11のように、位置検出パターンとして、正方形だけでなく、長方形のものを用いることで、形状・傾き・大きさの区別が容易にできるため、高速に認識できる。また中抜きした長方形は、他の写り込みと区別するのが容易であり、データの無駄が少ない。   In the identification code 11, the position detection pattern is arranged near each vertex of a square or a rectangle. This is because the influence of dirt can be dispersed by arranging them as far as possible rather than arranging them at one place. However, the position of the position detection pattern is not limited to the four corners. Like the identification code 11, not only a square but also a rectangular shape is used as a position detection pattern, so that the shape, the inclination, and the size can be easily distinguished, so that it can be recognized at high speed. In addition, the hollowed rectangle is easy to distinguish from other reflections, and there is little waste of data.

4個の位置検出パターンを配置する理由は、解析において精度高くデータの座標のマッピングを計算するのに用いる二次元の射影変換では、コードのセルと、そのセルに対応する撮影画像の座標を計算するために、4組の座標の組をパラメータとして与える必要があるからである。位置検出パターン数が2個又は3個しかない場合でも、座標を補間することで、4点を算出した上で射影変換を行うことは可能であるが、ななめからの撮影や、歪み、ぼけなどで正確な座標が得にくく、データ抽出の精度に大きく影響するため、識別コード11では4個の位置検出パターンを配置している。   The reason for arranging the four position detection patterns is that in the two-dimensional projective transformation used to calculate the mapping of the data coordinates with high accuracy in the analysis, the code cell and the coordinates of the captured image corresponding to the cell are calculated. This is because it is necessary to give four sets of coordinates as parameters. Even if there are only two or three position detection patterns, it is possible to perform projective transformation after calculating four points by interpolating the coordinates, but shooting from the lick, distortion, blurring, etc. In the identification code 11, four position detection patterns are arranged because it is difficult to obtain accurate coordinates and greatly affects the accuracy of data extraction.

また、位置検出パターンが異なる理由は、見つからない位置検出パターンがあった場合でも、見つからなかった位置検出パターンが確実に特定でき、見つからなかった位置検出パターンの座標の予測が可能になり、位置検出パターンの訂正が可能になる。すべて同じ位置検出パターンを用いた場合、見つからなかった位置検出パターンの特定は、すべて異なる位置検出パターンを用いた場合ほど容易ではなく、位置検出パターンの訂正が困難になる。   The reason why the position detection pattern is different is that even if there is a missing position detection pattern, the missing position detection pattern can be reliably identified, and the coordinates of the missing position detection pattern can be predicted. Pattern correction is possible. When all the same position detection patterns are used, it is not easy to identify the position detection patterns that have not been found as much as when different position detection patterns are used, and it is difficult to correct the position detection patterns.

識別コード11の4個の位置検出パターン以外の56ブロックは、データ部であり、実データブロック、誤り訂正符号ブロック、バージョン情報ブロック、フォーマット情報ブロック、及び絵柄埋込情報ブロックと、を含む。   56 blocks other than the four position detection patterns of the identification code 11 are data portions, and include an actual data block, an error correction code block, a version information block, a format information block, and a design embedding information block.

上記のように、データ部は3×3セルを1ブロックとし、ブロック単位でデータを埋め込む。データ部は、バージョン情報ブロック15及び16と、フォーマット情報ブロック17と、絵柄埋込情報ブロック18A、18B、19A及び19Bと、を有し、残りのブロックが実データブロック22である。識別コード11では、実データブロック22の一部を、誤り訂正符号と、位置補正パターンとして利用する。   As described above, the data portion includes 3 × 3 cells as one block and embeds data in units of blocks. The data section includes version information blocks 15 and 16, a format information block 17, and pattern embedding information blocks 18A, 18B, 19A and 19B, and the remaining blocks are actual data blocks 22. In the identification code 11, a part of the actual data block 22 is used as an error correction code and a position correction pattern.

したがって、位置検出パターン、バージョン情報ブロック、フォーマット情報ブロック、絵柄埋込情報ブロック、位置補正パターンを設けるブロック、さらに誤り訂正符号ブロックを除いた、残りのブロック22が、実データブロックである。もし、絵柄の埋め込みが行われる場合には、絵柄埋込情報ブロックが指示する絵柄埋め込みブロックも実データブロックから除く。実データは、実データブロックに属するブロックについて、左上から右に順にデータを敷き詰め、敷き詰め終わったら1ブロック下の左から敷き詰めるという具合に順に記録する。   Therefore, the remaining blocks 22 excluding the position detection pattern, version information block, format information block, picture embedding information block, block provided with the position correction pattern, and error correction code block are actual data blocks. If the pattern is embedded, the pattern embedded block indicated by the pattern embedded information block is also excluded from the actual data block. The actual data is recorded in order such that the blocks belonging to the actual data block are laid out in order from the upper left to the right, and laid from the left one block below when the laying is completed.

ブロックは、3×3セルを有し、各セルは明と暗の1ビットを表すので、1ブロックは最大9ビットの情報を持つ(9ビット表現)が、ここでは画像のぼけ・ぶれに対する耐性を高めるため、1ブロック当たりのデータ量を9ビットのデータ量より小さく設定できるようにしている。なお、識別コード11では、ブロックを3×3セルのサイズとしたが、ブロックサイズはこれに限定されるものではなく、最小である1×1セルのサイズや、縦と横のセルサイズが異なるなどのブロックサイズも可能である。   A block has 3 × 3 cells, and each cell represents one bit of light and dark, so one block has a maximum of 9-bit information (9-bit representation), but here is resistant to blurring and blurring of the image Therefore, the data amount per block can be set smaller than the 9-bit data amount. In the identification code 11, the block size is 3 × 3 cells, but the block size is not limited to this, and the minimum 1 × 1 cell size and the vertical and horizontal cell sizes are different. Block sizes such as are also possible.

バージョン情報ブロックは、識別コード11のサイズに関する情報を記録し、縦バージョン情報ブロック15と、横バージョン情報ブロック16の2種類存在し、それぞれ対応するバージョン情報が記録される。縦バージョン情報ブロック15及び横バージョン情報ブロック16は、それぞれ同じ情報を記憶した2個のブロックを離れた2箇所に配置することにより、汚れ等で欠損するリスクを分散させる。バージョン情報として、バージョン数(縦横各1から20)までの数値を表すブロックを配置する。   The version information block records information related to the size of the identification code 11, and there are two types of versions, the vertical version information block 15 and the horizontal version information block 16, and corresponding version information is recorded. The vertical version information block 15 and the horizontal version information block 16 disperse the risk of missing due to dirt or the like by disposing two blocks each storing the same information at two locations apart from each other. As version information, a block representing a numerical value of the version number (vertical and horizontal 1 to 20) is arranged.

フォーマット情報ブロック17は、絵柄埋込フラグ(1ビット)と、データブロック種別データ(2ビット)からなるフォーマット情報を記録し、同じ情報を記憶した3個のブロックを離れた3箇所に配置する。絵柄埋込フラグは、絵柄埋込の有無、すなわち絵柄埋込領域が設けられているか否かを示す。絵柄埋込が有の場合、絵柄埋込情報ブロックが設けられる。データブロック種別データは、データブロックの種別を示し、データブロックの種別とは、1ブロック当たりのデータ容量であり、6、7、9ビット/ブロックのいずれかを選択する。データ量は9ビット>7ビット>6ビット表現の順に少なくなるが、データの読み取りのしやすさは、6ビット>7ビット>9ビットの順であり、ぼけやぶれの発生具合と、データ量を勘案して、選択する。これについては後述する。   The format information block 17 records format information composed of a pattern embedding flag (1 bit) and data block type data (2 bits), and arranges three blocks storing the same information at three positions apart. The pattern embedding flag indicates whether or not a pattern is embedded, that is, whether or not a pattern embedding area is provided. When the pattern embedding is present, a pattern embedding information block is provided. The data block type data indicates the type of the data block. The data block type is the data capacity per block, and any of 6, 7, and 9 bits / block is selected. The amount of data decreases in the order of 9 bits> 7 bits> 6 bits, but the readability of the data is in the order of 6 bits> 7 bits> 9 bits. Take into account and choose. This will be described later.

埋め込まれる絵柄は、ブロック単位で埋め込まれ、隣接した複数のブロックが絵柄埋込領域である場合には、その間の分離スペースも絵柄埋込領域に含まれる。埋め込まれる絵柄の外形は四角形であり、絵柄の画像は、セル単位の2値画像に限定されず、どのようなものでもよい。また、絵柄を埋め込む四角形のブロックは、複数個あってもよい。例えば、絵柄は、セルより高分解能の多値画像でも、カラー画像でもよく、もちろんセル単位の2値画像でもよい。第1実施形態では、絵柄埋め込みの制限として、コード上側ブロック2行、左側ブロック2列、下側ブロック3行、右ブロック3列には絵柄を埋め込まないものとする。この範囲は二次元コードの仕様により、絵柄の埋め込み範囲外の部分に画像の情報を持つ絵柄埋込情報ブロックを配置する。   The design to be embedded is embedded in units of blocks, and when a plurality of adjacent blocks are design embedding regions, a separation space between them is also included in the design embedding region. The external shape of the pattern to be embedded is a rectangle, and the image of the pattern is not limited to a binary image in cell units, and any image may be used. Also, there may be a plurality of rectangular blocks in which the pattern is embedded. For example, the pattern may be a multi-value image having a higher resolution than the cell, a color image, or, of course, a binary image in units of cells. In the first embodiment, as a limitation of embedding the pattern, it is assumed that the pattern is not embedded in the upper code block 2 rows, the left block 2 columns, the lower block 3 rows, and the right block 3 columns. In this range, according to the specification of the two-dimensional code, a pattern embedding information block having image information is arranged in a portion outside the pattern embedding range.

絵柄埋込情報ブロックは、絵柄を埋め込む領域のサイズ及びブロック位置に関する情報を縦横それぞれで記録し、縦埋込情報ブロック18A及び18Bと、横埋込情報ブロック19A及び19Bの2種類存在し、それぞれ対応するバージョン情報が記録される。縦埋込情報ブロック18A及び18Bは、絵柄埋め込み高さ(3ビット又は6ビット)及び絵柄埋込オフセット高さ(3ビット又は6ビット)を記録する。横埋込情報ブロック19A及び19Bは、絵柄埋込幅(3ビット又は6ビット)及び絵柄埋込オフセット幅(3ビット又は6ビット)を指定する。なお、3ビット又は6ビットにするかは、後述するようにバージョン情報に関係し、バージョンが2〜4の場合には3ビット、バージョンが5〜20の場合には6ビット必要であり、バージョン2〜4の場合には、縦埋込情報ブロック18B及び横埋込情報ブロック19Bは不要である。   The pattern embedding information block records information on the size and block position of the area in which the pattern is embedded in the vertical and horizontal directions, and there are two types of vertical embedding information blocks 18A and 18B and horizontal embedding information blocks 19A and 19B. Corresponding version information is recorded. The vertical embedding information blocks 18A and 18B record the design embedding height (3 bits or 6 bits) and the design embedding offset height (3 bits or 6 bits). The horizontal embedding information blocks 19A and 19B designate a picture embedding width (3 bits or 6 bits) and a picture embedding offset width (3 bits or 6 bits). Whether to use 3 bits or 6 bits is related to version information as will be described later. If the version is 2 to 4, 3 bits are required, and if the version is 5 to 20, 6 bits are required. In the case of 2 to 4, the vertical embedding information block 18B and the horizontal embedding information block 19B are unnecessary.

絵柄埋込情報ブロックは、フォーマット情報ブロックで絵柄埋込フラグが立っていた場合のみ存在する。識別コード11は、埋込絵柄の個数が1つのみの場合を想定しており、複数の埋込絵柄を複数領域に埋め込むことを想定した場合には、フォーマット情報ブロックで絵柄埋込フラグのビット数を増加させて絵柄埋込領域数を示すようにすると共に、上記の絵柄埋込情報ブロックを絵柄枚数分設ける。絵柄のサイズと絵柄の埋込開始位置は、ブロック単位で指定する。ブロックの座標を左上隅のブロックを原点として(n,m)と表現し、横ブロック数をblW個、縦ブロック数をblH個とする。第1実施形態では、絵柄の埋め込み領域は、左上(2,2)、右下((blW−4,blH−4)からなる矩形の領域に限定される。絵柄の最大横ブロック数はblW−5個、最大縦ブロック数はblH−5個となる。   The pattern embedding information block exists only when the pattern embedding flag is set in the format information block. The identification code 11 assumes that the number of embedding patterns is only one, and if it is assumed that a plurality of embedding patterns are embedded in a plurality of areas, the bit of the pattern embedding flag in the format information block The number is increased to indicate the number of pattern embedding areas, and the above-mentioned pattern embedding information blocks are provided for the number of patterns. The design size and design embedding start position are specified in units of blocks. The block coordinates are expressed as (n, m) with the block at the upper left corner as the origin, the number of horizontal blocks is blW, and the number of vertical blocks is blH. In the first embodiment, the pattern embedding area is limited to a rectangular area consisting of upper left (2, 2) and lower right ((blW-4, blH-4). The maximum number of horizontal blocks of the pattern is blW-. Five and the maximum number of vertical blocks is blH-5.

絵柄の位置は、始点(左上)となるブロック座標と、ブロックサイズの情報を絵柄埋込情報ブロックとしてコード内に埋め込むことで、コード解析時にどの位置に絵柄が入っているかを認識できるようにする。バージョン情報ブロックと同様に、横と縦で別々に扱う。横はblW−5が8未満の時(横バージョン2〜4)と、それ以外の場合(横バージョン5〜20)でデータ量を分け、縦も同様にする。blWと、blHの値は、横と縦のバージョンを解析することで求められる。   The position of the picture is embedded in the code as block embedding information blocks with the block coordinates that are the starting point (upper left) and the block size so that the position of the picture can be recognized during code analysis. . Similar to the version information block, it is handled separately in the horizontal and vertical directions. In the horizontal direction, the amount of data is divided when blW-5 is less than 8 (horizontal version 2 to 4) and in other cases (horizontal version 5 to 20), and the vertical length is the same. The values of blW and blH can be obtained by analyzing the horizontal and vertical versions.

blWが13未満の時、横のブロックサイズは最小1、最大8ブロックであり、8通りは3ビットで表すことができ、同様に横のオフセットブロック数は2から8まで7通りあり、これも3ビットで表せるため、合計が6ビットとなる。そのため、ブロックを6ビット表現し、これらは1ブロックで表現可能である。縦も同様にする。blWが13以上の時、横のブロックサイズは6ビットで表し、同様に横のオフセットブロック数も6ビットで表す。よって、2ブロックを使って表現することになる。縦も同様にする。   When blW is less than 13, the horizontal block size is a minimum of 1 and a maximum of 8 blocks, 8 can be represented by 3 bits, and similarly there are 7 horizontal offset blocks, 2 to 8, Since it can be represented by 3 bits, the total is 6 bits. Therefore, a block is represented by 6 bits, and these can be represented by one block. The same applies to the vertical. When blW is 13 or more, the horizontal block size is represented by 6 bits, and similarly, the number of horizontal offset blocks is represented by 6 bits. Therefore, it is expressed using 2 blocks. The same applies to the vertical.

横埋込情報ブロック19A及び19Bは、左上及び右下の横バージョン情報ブロックの外側(上側及び下側)に、縦埋込情報ブロック18A及び18Bは、左下及び右下の縦バージョン情報ブロックの外側(左側及び右側)に配置する。   The horizontal embedding information blocks 19A and 19B are outside the upper left and lower right horizontal version information blocks (upper and lower sides), and the vertical embedding information blocks 18A and 18B are outside the lower left and lower right vertical version information blocks. (Left side and right side)

絵柄を埋め込まない場合、すなわちフォーマット情報ブロックの絵柄埋込フラグが「無し」を示す場合、絵柄埋込情報ブロック及び絵柄埋め込みの領域が不要になるため、コードが効率的になる。   When the pattern is not embedded, that is, when the pattern embedding flag of the format information block indicates “None”, the code embedding information block and the pattern embedding area become unnecessary, and the code becomes efficient.

位置補正パターンは、実データブロック、誤り訂正符号ブロック、絵柄が埋め込まれている場合には絵柄埋込情報ブロックの座標補正に用いる目的のパターンである。識別コード11における概ねの座標は位置検出パターンから取得できるが、紙のよれ、曲がり、レンズの歪み、位置検出パターン取得時のズレによりデータ部の座標に誤差がでるので、これを修正する目的で設ける。位置補正パターンは、位置検出パターンと異なり、他のノイズと区別する必要がなく、位置検出パターンが算出できれば位置補正パターンの位置は容易に判明する。したがって、位置補正パターンは細かな座標補正がしやすい形状が望ましい。   The position correction pattern is a target pattern used for the coordinate correction of the actual data block, the error correction code block, and the pattern embedding information block when the pattern is embedded. Although the approximate coordinates in the identification code 11 can be acquired from the position detection pattern, an error occurs in the coordinates of the data portion due to paper warping, bending, lens distortion, and displacement at the time of position detection pattern acquisition. Provide. Unlike the position detection pattern, the position correction pattern does not need to be distinguished from other noises. If the position detection pattern can be calculated, the position of the position correction pattern can be easily determined. Therefore, it is desirable that the position correction pattern has a shape that facilitates fine coordinate correction.

識別コード11では、位置補正パターンは、決められたセルの組合せからなるブロック(位置補正ブロック)を実データの代わりに等間隔に配置する。ブロックの中心1セルを暗、その周囲を明にしたブロックを、ブロック座標(7n,7m)(n,mは0以上の整数)がデータ部であれば配置する。ただし、その座標に、位置検出ブロック、バージョン情報ブロック、フォーマット情報ブロック、絵柄埋込情報ブロック及び絵柄が存在すべき時は、配置しない。ここでは、ブロック座標は、ブロックの左上の座標基準座標を(0,0)とし、右隣のブロックを(1,0)と表現している。なお、位置補正パターンを設けるブロックは、上記に限られない。   In the identification code 11, the position correction pattern arranges blocks (position correction blocks) composed of predetermined cell combinations at regular intervals instead of actual data. A block in which the center cell of the block is dark and the surrounding area is bright is arranged if the block coordinates (7n, 7m) (n and m are integers of 0 or more) are data portions. However, when the position detection block, the version information block, the format information block, the design embedding information block and the design should exist at the coordinates, they are not arranged. Here, with respect to the block coordinates, the upper left coordinate reference coordinate of the block is (0, 0), and the block on the right is expressed as (1, 0). The block for providing the position correction pattern is not limited to the above.

実データは、メッセージと、メッセージを修飾するヘッダー(メッセージ種類(メッセージのエンコード)・メッセージサイズ)を合わせたセグメントを、メッセージ数だけ並べる。また特殊なセグメントとして、メッセージを含まない、終端フラグだけが入ったセグメントを用意し、実データの容量が余った場合に終端フラグのセグメントを配置し、その後に埋め草を配置する。実データはデータブロック種別データが示す1ブロック当たりのデータ容量に従い、ブロック単位に分割する。同様に誤り訂正符号も、ブロック単位に分割する。   In the actual data, a message and a segment combining the header (message type (message encoding) and message size) that qualifies the message are arranged by the number of messages. As a special segment, a segment that does not include a message and contains only a termination flag is prepared. When the capacity of actual data is excessive, a segment of the termination flag is arranged, and then padding is arranged. The actual data is divided into blocks according to the data capacity per block indicated by the data block type data. Similarly, the error correction code is also divided into blocks.

誤り訂正符号にリードソロモン符号を使った場合、誤り訂正はワード単位で行われるため、1ワードを1ブロックとすることが望ましい。1ワードが複数のブロックにまたがる場合、1つのブロックに汚れが発生した場合でも、そのブロックが関係する全てのワードが誤り訂正の対象となり、訂正の効率が悪くなる。訂正原因となる汚れや、スポットライトによる色とびは、1箇所に集中することが多いが、ブロックにすることにより同時に訂正対象となるデータを1箇所にまとめる効果があり、効率的な訂正を可能にし、コードを認識させる可能性を高める。   When a Reed-Solomon code is used as the error correction code, error correction is performed in units of words, so it is desirable to make one word into one block. When one word spans a plurality of blocks, even when one block is contaminated, all words related to the block are subjected to error correction, and the correction efficiency is deteriorated. Dirt that causes corrections and color jumps due to spotlights are often concentrated in one place, but by making a block, the data to be corrected can be gathered in one place at the same time, enabling efficient correction. And increase the possibility of recognizing the code.

図3は、図1の位置情報表示システムにおける基準位置関係情報の登録のフローチャートである。ここでは、識別コードが付された複数の物品としての四つの収納箱A,B,C,Dにそれぞれ貼り付けられた四つの識別コードを撮影した撮影画像に基づいて生成した基準位置関係情報を登録する場合について説明する。   FIG. 3 is a flowchart of registration of reference position relationship information in the position information display system of FIG. Here, the reference positional relationship information generated based on the photographed images obtained by photographing the four identification codes attached to the four storage boxes A, B, C, and D as the plurality of articles with the identification codes attached thereto, respectively. The case of registration will be described.

先ず、カメラ1Aが物品を撮影する(ステップS1)。カメラ1Aが撮影した物品を含む画像を、ディスプレイ1Cの画面に表示することができる。図4は、基準位置関係情報を生成するために用いられる撮影画像の表示例を示す図である。図4において、画面30に表示される一つの撮影画像30’に含まれる物品31,32,33,34は、収納箱A,B,C,Dにそれぞれ対応し、印刷された識別コード31A,32A,33A,34Aが物品31,32,33,34にそれぞれ貼り付けられる。   First, the camera 1A photographs an article (step S1). An image including an article photographed by the camera 1A can be displayed on the screen of the display 1C. FIG. 4 is a diagram illustrating a display example of a captured image used for generating the reference positional relationship information. In FIG. 4, articles 31, 32, 33, and 34 included in one photographed image 30 ′ displayed on the screen 30 correspond to the storage boxes A, B, C, and D, respectively, and printed identification codes 31A and 31A, 32A, 33A, and 34A are attached to the articles 31, 32, 33, and 34, respectively.

識別コード31A,32A,33A,34Aはそれぞれ、収納箱A,B,C,Dのそれぞれの情報を画像としてコンピュータ1Bにより読取可能である。図4に示す例において画面30(撮影画像30’)の幅及び長さをそれぞれw,hとし、左上のコーナーの座標を原点O(すなわち、(0,0))とした場合、右上のコーナーAの座標、右下のコーナーBの座標及び左下のコーナーCの座標はそれぞれ、(w−1,0),(w−1,h−1)及び(0,h−1)で表される。   Each of the identification codes 31A, 32A, 33A, and 34A can be read by the computer 1B as information of each of the storage boxes A, B, C, and D as an image. In the example shown in FIG. 4, when the width and length of the screen 30 (the captured image 30 ′) are w and h, respectively, and the coordinates of the upper left corner are the origin O (that is, (0, 0)), the upper right corner. The coordinates of A, the coordinates of the lower right corner B, and the coordinates of the lower left corner C are represented by (w-1, 0), (w-1, h-1) and (0, h-1), respectively. .

次に、コンピュータ1Bは、カメラ1Aが撮影した画像中の識別コード31A,32A,33A,34Aを認識し、認識した識別コード31A,32A,33A,34Aをそれぞれ識別コード情報に変換する。そして、コンピュータ1Bは、変換した識別コード情報に基づいて、識別コード31A,32A,33A,34Aの中心座標CA1(cxa1,cya1),CB1(cxb1,cyb1),CC1(cxc1,cyc1),CD1(cxd1,cyd1)をそれぞれ計算する(ステップS2)。図5は、識別コードの中心座標の算出を説明するための図である。図5に示す識別コードXは、図2に示す識別コードと同一の形式を有し、識別コード31A,32A,33A,34Aにそれぞれ対応する。   Next, the computer 1B recognizes the identification codes 31A, 32A, 33A, and 34A in the image taken by the camera 1A, and converts the recognized identification codes 31A, 32A, 33A, and 34A into identification code information, respectively. Then, based on the converted identification code information, the computer 1B determines the center coordinates CA1 (cxa1, cya1), CB1 (cxb1, cyb1), CC1 (cxc1, cyc1), CD1 (the identification codes 31A, 32A, 33A, 34A) cxd1, cyd1) are respectively calculated (step S2). FIG. 5 is a diagram for explaining the calculation of the center coordinates of the identification code. The identification code X shown in FIG. 5 has the same format as the identification code shown in FIG. 2, and corresponds to the identification codes 31A, 32A, 33A, and 34A, respectively.

コンピュータ1Bは、撮影画像30’を解析することによって、識別コードXの位置検出パターンX0のコーナーP0の座標(px0,py0)、位置検出パターンXのコーナーP1の座標(px1,py1)、位置検出パターンX2のコーナーP2の座標(px2,py2)及び位置検出パターンX3のコーナーP3の座標(px3,py3)を取得することができる。   The computer 1B analyzes the captured image 30 ′ to detect the coordinates (px0, py0) of the corner P0 of the position detection pattern X0 of the identification code X, the coordinates (px1, py1) of the corner P1 of the position detection pattern X, and the position detection. The coordinates (px2, py2) of the corner P2 of the pattern X2 and the coordinates (px3, py3) of the corner P3 of the position detection pattern X3 can be acquired.

位置検出パターンXの中心座標C(cx,cy)を、コーナーP0,P1,P2,P3の座標、識別コードXの対角線上にあるコーナーP0,P2の座標、又は識別コードXの対角線上にあるコーナーP1,P3の座標から求めることができる。中心座標C(cx,cy)をコーナーP0,P1,P2,P3の座標から求める場合、中心座標Cのx座標cxは、(px0+px1+px2+px3)/4となり、中心座標Cのy座標cyは、(py0+py1+py2+py3)/4となる。また、中心座標C(cx,cy)を識別コードXの対角線上にあるコーナーP0,P2の座標から求める場合、中心座標Cのx座標cxは、(px0+px2)/2となり、中心座標Cのy座標cyは、(py0+py2)/2となる。   The center coordinates C (cx, cy) of the position detection pattern X are on the coordinates of the corners P0, P1, P2, P3, the coordinates of the corners P0, P2 on the diagonal line of the identification code X, or the diagonal line of the identification code X. It can be obtained from the coordinates of the corners P1 and P3. When the center coordinate C (cx, cy) is obtained from the coordinates of the corners P0, P1, P2, and P3, the x coordinate cx of the center coordinate C is (px0 + px1 + px2 + px3) / 4, and the y coordinate cy of the center coordinate C is (py0 + py1 + py2 + py3). ) / 4. When the center coordinate C (cx, cy) is obtained from the coordinates of the corners P0 and P2 on the diagonal line of the identification code X, the x coordinate cx of the center coordinate C is (px0 + px2) / 2, and y of the center coordinate C The coordinate cy is (py0 + py2) / 2.

次に、コンピュータ1Bは、識別コード31A,32A,33A,34Aの中心座標CA1(cxa1,cya1),CB1(cxb1,cyb1),CC1(cxc1,cyc1),CD1(cxd1,cyd1)をそれぞれ、識別コード情報と同一のフォーマットの位置座標情報に変換し、識別コード情報及び位置座標情報をサーバ3に送信する(ステップS3)。   Next, the computer 1B identifies the center coordinates CA1 (cxa1, cya1), CB1 (cxb1, cyb1), CC1 (cxc1, cyc1), and CD1 (cxd1, cyd1) of the identification codes 31A, 32A, 33A, 34A, respectively. The position information is converted into position coordinate information in the same format as the code information, and the identification code information and position coordinate information are transmitted to the server 3 (step S3).

次に、コンピュータ3Bは、識別コード情報及び位置座標情報をコンピュータ1Bから受信する(ステップS4)。次に、コンピュータ3Bは、識別コード31A,32A,33A,34Aの中心座標CA1(cxa1,cya1),CB1(cxb1,cyb1),CC1(cxc1,cyc1),CD1(cxd1,cyd1)に基づいて基準位置関係情報を生成し(ステップS5)、生成した基準位置関係情報をデータベース3Aに登録し(ステップS6)、処理フローを終了する。   Next, the computer 3B receives the identification code information and the position coordinate information from the computer 1B (step S4). Next, the computer 3B is based on the center coordinates CA1 (cxa1, cya1), CB1 (cxb1, cyb1), CC1 (cxc1, cyc1), CD1 (cxd1, cyd1) of the identification codes 31A, 32A, 33A, 34A. The positional relationship information is generated (step S5), the generated reference positional relationship information is registered in the database 3A (step S6), and the processing flow ends.

図6は、基準位置関係情報の一部の一例を示す図である。図6に示すように、基準位置関係情報は、識別コード、物品名及び中心座標との関係を表す表を有する。また、図6に示す表は、コンピュータ3Bにより識別コード情報及び位置座標情報に基づいて作成される。   FIG. 6 is a diagram illustrating an example of a part of the reference position relationship information. As shown in FIG. 6, the reference position relationship information includes a table that represents the relationship between the identification code, the article name, and the center coordinates. The table shown in FIG. 6 is created based on the identification code information and the position coordinate information by the computer 3B.

本実施の形態では、基準位置関係情報は、図6に示す表の他に、基準位置関係にある識別コード31A,32A,33A,34Aが付された複数の物品31,32,33,34を撮影した画像に含まれる識別コード31A,32A,33A,34Aの中心座標CA1(cxa1,cya1),CB1(cxb1,cyb1),CC1(cxc1,cyc1),CD1(cxd1,cyd1)に基づいて決定される距離及び角度を有する。   In the present embodiment, the reference positional relationship information includes, in addition to the table shown in FIG. 6, a plurality of articles 31, 32, 33, 34 to which identification codes 31A, 32A, 33A, 34A having a reference positional relationship are attached. It is determined based on the center coordinates CA1 (cxa1, cya1), CB1 (cxb1, cyb1), CC1 (cxc1, cyc1), CD1 (cxd1, cyd1) of the identification codes 31A, 32A, 33A, 34A included in the captured images. Distance and angle.

図7は、基準位置関係にある物品の識別コードの中心座標に基づいて決定される距離を説明するための図である。コンピュータ3Bは、識別コード31Aの中心座標CA1(cxa1,cya1)と識別コード32Aの中心座標CB1(cxb1,cyb1)との距離ABを、以下の式に基づいて計算する。
FIG. 7 is a diagram for explaining the distance determined based on the center coordinates of the identification codes of the articles in the reference position relationship. The computer 3B calculates a distance AB between the center coordinates CA1 (cxa1, cya1) of the identification code 31A and the center coordinates CB1 (cxb1, cyb1) of the identification code 32A based on the following expression.

また、コンピュータ3Bは、識別コード31Aの中心座標CA1(cxa1,cya1)と識別コード33Aの中心座標CC1(cxc1,cyc1)との距離ACを、以下の式に基づいて計算する。
Further, the computer 3B calculates a distance AC between the center coordinate CA1 (cxa1, cya1) of the identification code 31A and the center coordinate CC1 (cxc1, cyc1) of the identification code 33A based on the following expression.

さらに、コンピュータ3Bは、識別コード31Aの中心座標CA1(cxa1,cya1)と識別コード34Aの中心座標CD1(cxd1,cyd1)との距離ADを、以下の式に基づいて計算する。
Further, the computer 3B calculates a distance AD between the center coordinates CA1 (cxa1, cya1) of the identification code 31A and the center coordinates CD1 (cxd1, cyd1) of the identification code 34A based on the following expression.

図7に示す例において、距離AB、距離AC及び距離ADとの間には、AC<AB<ADの関係が成立する。   In the example shown in FIG. 7, a relationship of AC <AB <AD is established among the distance AB, the distance AC, and the distance AD.

図8は、基準位置関係にある物品の識別コードの中心座標に基づいて決定される角度を説明するための図である。コンピュータ3Bは、水平線Hと識別コード31Aの中心座標CA1(cxa1,cya1)及び識別コード32Aの中心座標CB1(cxb1,cyb1)を結ぶ直線とが成す角度θABを、以下の式に基づいて計算する。
FIG. 8 is a diagram for explaining angles determined based on the center coordinates of the identification codes of articles in a reference position relationship. The computer 3B calculates the angle θ AB formed by the horizontal line H and the straight line connecting the center coordinates CA1 (cxa1, cya1) of the identification code 31A and the center coordinates CB1 (cxb1, cyb1) of the identification code 32A based on the following formula. To do.

また、コンピュータ3Bは、水平線Hと識別コード31Aの中心座標CA1(cxa1,cya1)及び識別コード33Aの中心座標CC1(cxc1,cyc1)を結ぶ直線とが成す角度θACを、以下の式に基づいて計算する。
Further, the computer 3B determines the angle θ AC formed by the horizontal line H and the straight line connecting the center coordinates CA1 (cxa1, cya1) of the identification code 31A and the center coordinates CC1 (cxc1, cyc1) of the identification code 33A based on the following expression. To calculate.

さらに、水平線Hと識別コード31Aの中心座標CA1(cxa1,cya1)及び識別コード34Aの中心座標CD1(cxd1,cyd1)を結ぶ直線とが成す角度θADを、以下の式に基づいて計算する。
Further, an angle θ AD formed by the horizontal line H and the straight line connecting the center coordinates CA1 (cxa1, cya1) of the identification code 31A and the center coordinates CD1 (cxd1, cyd1) of the identification code 34A is calculated based on the following equation.

図8に示す例において、角度θAB、角度θAC及び角度θADとの間には、θAB<θAD<θACの関係が成立する。 In the example shown in FIG. 8, the relationship θ ABADAC is established among the angle θ AB , the angle θ AC, and the angle θ AD .

図9及び図10は、図1の位置情報表示システムの動作のフローチャートである。ここでは、識別コードが付された複数の物品としての四つの収納箱A,B,C,Dにそれぞれ貼り付けられた四つの識別コードを撮影した撮影画像に基づいて撮影物品位置関係情報を生成する場合について説明する。   9 and 10 are flowcharts of the operation of the position information display system of FIG. Here, the photographing article positional relationship information is generated based on the photographed images obtained by photographing the four identification codes attached to the four storage boxes A, B, C, and D as the plurality of articles to which the identification codes are attached. The case where it does is demonstrated.

先ず、カメラ1Aが物品を撮影する(ステップS11)。次に、カメラ1Aが撮影した物品を含む画像をディスプレイ1Cの画面に表示する(ステップS12)。図11は、撮影物品位置関係情報を生成するために用いられる撮影画像の表示例を示す図である。図11において、画面30に表示される一つの撮影画像30aには、印刷された識別コード31A,32A,33A,34Aがそれぞれ貼り付けられた物品31,32,33,34が含まれる。   First, the camera 1A photographs an article (step S11). Next, an image including an article photographed by the camera 1A is displayed on the screen of the display 1C (step S12). FIG. 11 is a diagram illustrating a display example of a photographed image used for generating photographed article positional relationship information. In FIG. 11, one photographed image 30 a displayed on the screen 30 includes articles 31, 32, 33, and 34 to which printed identification codes 31 </ b> A, 32 </ b> A, 33 </ b> A, and 34 </ b> A are respectively attached.

次に、コンピュータ1Bは、カメラ1Aが撮影した画像中の識別コード31A,32A,33A,34Aを認識し、認識した識別コード31A,32A,33A,34Aをそれぞれ識別コード情報に変換する。そして、コンピュータ1Bは、変換した識別コード情報に基づいて、識別コード31A,32A,33A,34Aの中心座標CA1’(cxa1’,cya1’),CB1’(cxb1’,cyb1’),CC1’(cxc1’,cyc1’),CD1’(cxd1’,cyd1’)をそれぞれ計算する(ステップS13)。   Next, the computer 1B recognizes the identification codes 31A, 32A, 33A, and 34A in the image taken by the camera 1A, and converts the recognized identification codes 31A, 32A, 33A, and 34A into identification code information, respectively. Then, based on the converted identification code information, the computer 1B determines the center coordinates CA1 ′ (cxa1 ′, cya1 ′), CB1 ′ (cxb1 ′, cyb1 ′), CC1 ′ () of the identification codes 31A, 32A, 33A, 34A. cxc1 ′, cyc1 ′) and CD1 ′ (cxd1 ′, cyd1 ′) are respectively calculated (step S13).

次に、コンピュータ1Bは、識別コード31A,32A,33A,34Aの中心座標CA1’(cxa1’,cya1’),CB1’(cxb1’,cyb1’),CC1’(cxc1’,cyc1’),CD1’(cxd1’,cyd1’)をそれぞれ、識別コード情報と同一のフォーマットの位置座標情報に変換し、識別コード情報及び位置座標情報をサーバ3に送信する(ステップS14)。   Next, the computer 1B receives the center coordinates CA1 ′ (cxa1 ′, cya1 ′), CB1 ′ (cxb1 ′, cyb1 ′), CC1 ′ (cxc1 ′, cyc1 ′), CD1 of the identification codes 31A, 32A, 33A, 34A. '(Cxd1', cyd1 ') is converted into position coordinate information in the same format as the identification code information, and the identification code information and the position coordinate information are transmitted to the server 3 (step S14).

次に、コンピュータ3Bは、識別コード情報及び位置座標情報をコンピュータ1Bから受信する(ステップS15)。次に、コンピュータ3Bは、識別コード31A,32A,33A,34Aの中心座標CA1’(cxa1’,cya1’),CB1’(cxb1’,cyb1’),CC1’(cxc1’,cyc1’),CD1’(cxd1’,cyd1’)に基づいて撮影物品位置関係情報を生成する(ステップS16)。   Next, the computer 3B receives the identification code information and the position coordinate information from the computer 1B (step S15). Next, the computer 3B determines the center coordinates CA1 ′ (cxa1 ′, cya1 ′), CB1 ′ (cxb1 ′, cyb1 ′), CC1 ′ (cxc1 ′, cyc1 ′), CD1 of the identification codes 31A, 32A, 33A, 34A. Based on '(cxd1', cyd1 '), the photographing article positional relationship information is generated (step S16).

図12は、撮影物品位置関係情報の一部の一例を示す図である。図12に示すように、撮影物品位置関係情報は、識別コード、物品名及び中心座標との関係を表す表を有する。また、図12に示す表は、コンピュータ3Bにより識別コード情報及び位置座標情報に基づいて作成される。   FIG. 12 is a diagram illustrating an example of a part of the photographing article position relationship information. As illustrated in FIG. 12, the photographed article position relationship information includes a table that represents the relationship between an identification code, an article name, and center coordinates. The table shown in FIG. 12 is created based on the identification code information and the position coordinate information by the computer 3B.

本実施の形態では、撮影物品位置関係情報は、図12に示す表の他に、撮影物品位置関係にある識別コード31A,32A,33A,34Aが付された複数の物品31,32,33,34を撮影した画像に含まれる識別コード31A,32A,33A,34Aの中心座標CA1’(cxa1’,cya1’),CB1’(cxb1’,cyb1’),CC1’(cxc1’,cyc1’),CD1’(cxd1’,cyd1’)に基づいて決定される距離及び角度を有する。   In the present embodiment, the photographed article position relationship information includes a plurality of articles 31, 32, 33, to which identification codes 31A, 32A, 33A, and 34A having a photographed article position relationship are attached in addition to the table shown in FIG. 34, center coordinates CA1 ′ (cxa1 ′, cya1 ′), CB1 ′ (cxb1 ′, cyb1 ′), CC1 ′ (cxc1 ′, cyc1 ′) of the identification codes 31A, 32A, 33A, 34A included in the image obtained by photographing 34 It has a distance and an angle determined based on CD1 ′ (cxd1 ′, cyd1 ′).

図13は、撮影物品位置関係にある物品の識別コードの中心座標に基づいて決定される距離を説明するための図である。コンピュータ3Bは、識別コード31Aの中心座標CA1’(cxa1’,cya1’)と識別コード32Aの中心座標CB1’(cxb1’,cyb1’)との距離AB’を、以下の式に基づいて計算する。
FIG. 13 is a diagram for explaining the distance determined based on the center coordinates of the identification codes of the articles in the photographing article position relationship. The computer 3B calculates a distance AB ′ between the center coordinates CA1 ′ (cxa1 ′, cya1 ′) of the identification code 31A and the center coordinates CB1 ′ (cxb1 ′, cyb1 ′) of the identification code 32A based on the following expression. .

また、コンピュータ3Bは、識別コード31Aの中心座標CA1’(cxa1’,cya1’)と識別コード33Aの中心座標CC1’(cxc1’,cyc1’)との距離AC’を、以下の式に基づいて計算する。
Further, the computer 3B determines the distance AC ′ between the center coordinates CA1 ′ (cxa1 ′, cya1 ′) of the identification code 31A and the center coordinates CC1 ′ (cxc1 ′, cyc1 ′) of the identification code 33A based on the following expression. calculate.

さらに、コンピュータ3Bは、識別コード31Aの中心座標CA1’(cxa1’,cya1’)と識別コード34Aの中心座標CD1’(cxd1’,cyd1’)と距離AD’を、以下の式に基づいて計算する。
Further, the computer 3B calculates the center coordinates CA1 ′ (cxa1 ′, cya1 ′) of the identification code 31A, the center coordinates CD1 ′ (cxd1 ′, cyd1 ′) of the identification code 34A, and the distance AD ′ based on the following equations. To do.

図13に示す例において、距離AB’、距離AC’及び距離ADとの間には、AC’<AB’<AD’の関係が成立する。   In the example illustrated in FIG. 13, a relationship of AC ′ <AB ′ <AD ′ is established among the distance AB ′, the distance AC ′, and the distance AD.

図14は、撮影物品位置関係にある物品の識別コードの中心座標に基づいて決定される角度を説明するための図である。コンピュータ3Bは、水平線Hと識別コード31Aの中心座標CA1’(cxa1’,cya1’)及び識別コード32Aの中心座標CB1’(cxb1’,cyb1’)を結ぶ直線とが成す角度θAB’を、以下の式に基づいて計算する。
FIG. 14 is a diagram for explaining an angle determined based on the center coordinates of the identification codes of the articles in the photographed article position relationship. The computer 3B determines the angle θ AB ′ formed by the horizontal line H and the straight line connecting the center coordinates CA1 ′ (cxa1 ′, cya1 ′) of the identification code 31A and the center coordinates CB1 ′ (cxb1 ′, cyb1 ′) of the identification code 32A. Calculation is based on the following formula.

また、コンピュータ3Bは、水平線Hと識別コード31Aの中心座標CA1’(cxa1’,cya1’)及び識別コード33Aの中心座標CC1’(cxc1’,cyc1’)を結ぶ直線とが成す角度θAC’を、以下の式に基づいて計算する。
Further, the computer 3B determines that the angle θ AC ′ formed by the horizontal line H and the straight line connecting the center coordinates CA1 ′ (cxa1 ′, cya1 ′) of the identification code 31A and the center coordinates CC1 ′ (cxc1 ′, cyc1 ′) of the identification code 33A. Is calculated based on the following equation.

さらに、水平線Hと識別コード31Aの中心座標CA1’(cxa1’,cya1’)及び識別コード34Aの中心座標CD1’(cxd1’,cyd1’)を結ぶ直線とが成す角度θAD’を、以下の式に基づいて計算する。
Further, an angle θ AD ′ formed by the horizontal line H and a straight line connecting the center coordinates CA1 ′ (cxa1 ′, cya1 ′) of the identification code 31A and the center coordinates CD1 ′ (cxd1 ′, cyd1 ′) of the identification code 34A is expressed as follows: Calculate based on the formula.

図14に示す例において、角度θAB’、角度θAC’及び角度θAD’との間には、θAB’<θAD’<θAC’の関係が成立する。 In the example shown in FIG. 14, the relationship θ AB ′ <θ AD ′ <θ AC ′ is established among the angle θ AB ′, the angle θ AC ′, and the angle θ AD ′.

次に、コンピュータ3Bは、基準位置関係情報に含まれる距離AB,AC,ADの関係及び角度θAB,θAC,θADの関係と撮影物品位置関係情報に含まれる距離AB’,AC’,AD’ の関係及び角度θAB’,θAC’,θAD’ の関係を照合し、照合結果を表すオーバーレイ情報を生成する(ステップS17)。更に詳しく説明すると、AC’<AB’<AD’の関係及びθAB’<θAD’<θAC’の関係が成立する場合には、コンピュータ3Bは、照合結果として、コンピュータ1Bが抽出した識別コード31A,32A,33A,34Aに対応する物品31,32,33,34がそれぞれ収納箱A、収納箱B、収納箱C及び収納箱Dを表すオーバーレイ情報を生成する。それに対し、AC’<AB’<AD’の関係又はθAB’<θAD’<θAC’の関係が成立しない場合には、コンピュータ1Bが抽出した識別コード31A,32A,33A,34Aに対応する物品31,32,33,34がそれぞれ収納箱A、収納箱B、収納箱C及び収納箱Dを表すオーバーレイ情報及び基準位置関係から撮影物品位置関係への変化を表すオーバーレイ情報を生成する。 Next, the computer 3B determines the distances AB ′, AC ′, and the distances AB ′, AC ′, and AD included in the reference position relationship information and the angles θ AB , θ AC , and θ AD and the distances AB ′, AC ′, The relation of AD ′ and the relation of angles θ AB ′, θ AC ′, and θ AD ′ are collated, and overlay information representing the collation result is generated (step S17). More specifically, when the relationship AC ′ <AB ′ <AD ′ and the relationship θ AB ′ <θ AD ′ <θ AC ′ are established, the computer 3B identifies the identification extracted by the computer 1B as a verification result. The articles 31, 32, 33, and 34 corresponding to the codes 31A, 32A, 33A, and 34A generate overlay information representing the storage box A, the storage box B, the storage box C, and the storage box D, respectively. On the other hand, when the relationship of AC ′ <AB ′ <AD ′ or the relationship of θ AB ′ <θ AD ′ <θ AC ”is not established, it corresponds to the identification codes 31A, 32A, 33A, 34A extracted by the computer 1B. The articles 31, 32, 33, and 34 to be generated generate overlay information representing the storage box A, the storage box B, the storage box C, and the storage box D, and overlay information that represents a change from the reference positional relationship to the photographing article positional relationship.

次に、コンピュータ3Bは、オーバーレイ情報をコンピュータ1Bに送信する(ステップS18)。次に、コンピュータ1Bは、物品のオーバーレイ情報をコンピュータ3Bから受信する(ステップS19)。コンピュータ1Bは、物品のオーバーレイ情報を撮影画像30aに重畳して表示し(ステップS20)、処理フローを終了する。   Next, the computer 3B transmits overlay information to the computer 1B (step S18). Next, the computer 1B receives the overlay information of the article from the computer 3B (step S19). The computer 1B superimposes and displays the overlay information of the article on the captured image 30a (step S20), and ends the processing flow.

図15は、基準位置関係情報と撮影物品位置関係情報を照合後にオーバーレイ情報を重畳した撮影画像の表示例を示す図である。図15に示す表示画面30には、物品31が収納箱Aであることを示すオーバーレイ情報31B、物品32が収納箱Bであることを示すオーバーレイ情報32B、物品33が収納箱Cであることを示すオーバーレイ情報33B及び物品34が収納箱Dであることを示すオーバーレイ情報34Bが、識別コード31A,32A,33A,34Aにそれぞれ対応付けて表示される。   FIG. 15 is a diagram illustrating a captured image display example in which overlay information is superimposed after reference positional relationship information and captured article positional relationship information are collated. In the display screen 30 shown in FIG. 15, overlay information 31B indicating that the article 31 is the storage box A, overlay information 32B indicating that the article 32 is the storage box B, and that the article 33 is the storage box C. The overlay information 33B and the overlay information 34B indicating that the article 34 is the storage box D are displayed in association with the identification codes 31A, 32A, 33A, and 34A, respectively.

図16は、基準位置関係情報と撮影物品位置関係情報を照合後にオーバーレイ情報を重畳した撮影画像の他の表示例を示す図である。図16に示す表示画面30に表示された撮影画像30bには、物品31,32,33,34が含まれ、撮影画像30bに含まれる物品31及び物品32の配置は、基準位置関係情報によって表される物品31及び物品32の配置とは異なる。   FIG. 16 is a diagram illustrating another display example of the captured image in which the overlay information is superimposed after the reference positional relationship information and the captured article positional relationship information are collated. The photographed image 30b displayed on the display screen 30 shown in FIG. 16 includes articles 31, 32, 33, and 34, and the arrangement of the article 31 and the article 32 included in the photographed image 30b is represented by the reference positional relationship information. The arrangement of the article 31 and the article 32 is different.

この場合、コンピュータ3Bは、AD’<AB’<AC’の関係及びθAB’<θAC’<θAD’の関係に基づいて、撮影画像30bに含まれる物品31及び物品32の配置が基準位置関係情報によって表される物品31及び物品32の配置とは異なると判断し、収納箱Aと収納箱Bの配置が違う旨の表示及び矢印からなるオーバーレイ情報35を生成し、生成したオーバーレイ情報35が、表示画面30に表示される。 In this case, the computer 3B uses the relationship of AD '<AB'<AC'and the relationship of θ AB '<θ AC '<θ AD ' based on the arrangement of the articles 31 and 32 included in the captured image 30b. It is determined that the arrangement of the article 31 and the article 32 represented by the positional relationship information is different, the overlay information 35 including an indication that the arrangement of the storage box A and the storage box B is different and an arrow is generated, and the generated overlay information 35 is displayed on the display screen 30.

図17は、基準位置関係情報と撮影物品位置関係情報を照合後にオーバーレイ情報を重畳した撮影画像の他の表示例を示す図である。図17に示す表示画面30に表示された撮影画像30cには、物品31,33,34が含まれる。   FIG. 17 is a diagram illustrating another display example of the captured image in which the overlay information is superimposed after the reference positional relationship information and the captured article positional relationship information are collated. The photographed image 30c displayed on the display screen 30 shown in FIG. 17 includes articles 31, 33, and 34.

この場合、コンピュータ3Bは、AD’<AC’の関係及びθAC’<θAD’の関係に基づいて、撮影画像30cに物品32が含まれないと判断し、収納箱Bが不足している旨の表示及び矢印からなるオーバーレイ情報36を生成し、生成したオーバーレイ情報36が、表示画面30に表示される。 In this case, the computer 3B determines that the article 32 is not included in the captured image 30c based on the relationship of AD ′ <AC ′ and the relationship of θ AC ′ <θ AD ′, and the storage box B is insufficient. Overlay information 36 composed of a display to the effect and an arrow is generated, and the generated overlay information 36 is displayed on the display screen 30.

図18は、リスト形式の基準位置関係情報の一例を示す図である。図18に示す基準位置関係情報は、基準位置関係を示すリストとしての一つの棚に書籍1、書籍2、書籍3、書籍4及び書籍5が並べられるリストであり、コンピュータ1Bによって作成され、作成されたリストは、データベース3Aに登録される。   FIG. 18 is a diagram illustrating an example of the reference position relationship information in a list format. The reference position relationship information shown in FIG. 18 is a list in which the book 1, the book 2, the book 3, the book 4, and the book 5 are arranged on one shelf as a list indicating the reference position relationship, and is created by the computer 1B. The list thus registered is registered in the database 3A.

図19は、リスト形式の基準位置関係情報に関連して撮影物品位置関係情報を生成するために用いられる撮影画像の表示例を示す図である。図19において、画面30に表示される一つの撮影画像30dには、印刷された識別コード41A,42A,43A,44A,45Aがそれぞれ貼り付けられた物品41,42,43,44,45が含まれ、物品41,42,43,44,45は、図18に示すリストの書籍1、書籍2、書籍3、書籍4及び書籍5にそれぞれ対応する。   FIG. 19 is a diagram illustrating a display example of a photographed image used for generating photographing article positional relationship information in association with the reference positional relationship information in a list format. In FIG. 19, one captured image 30d displayed on the screen 30 includes articles 41, 42, 43, 44, and 45 to which printed identification codes 41A, 42A, 43A, 44A, and 45A are respectively attached. Articles 41, 42, 43, 44, and 45 correspond to book 1, book 2, book 3, book 4, and book 5 in the list shown in FIG.

識別コード41A,42A,43A,44A,45Aの中心座標をそれぞれCA2’(cxa2’,cya2’),CB2’(cxb2’,cyb2’),CC2’(cxc2’,cyc2’),CD2’(cxd2’,cyd2’),CE2’(cxe2’,cye2’)とし、識別コード41Aの中心座標CA2’と識別コード42Aの中心座標CB2’との間の距離、識別コード41Aの中心座標CA2’と識別コード43Aの中心座標CC2’との間の距離、識別コード41Aの中心座標CA2’と識別コード44Aの中心座標CD2’との間の距離、及び識別コード41Aの中心座標CA2’と識別コード45Aの中心座標CE2’との間の距離をそれぞれA,B,C,Dとした場合、図19に示す撮影画像10dにおいては、図18に示す基準位置関係情報に対応するA<B<C<Dの関係が成立する。   The center coordinates of the identification codes 41A, 42A, 43A, 44A and 45A are respectively CA2 ′ (cxa2 ′, cya2 ′), CB2 ′ (cxb2 ′, cyb2 ′), CC2 ′ (cxc2 ′, cyc2 ′), CD2 ′ (cxd2) ', Cyd2'), CE2 '(cxe2', cye2 '), the distance between the center coordinate CA2' of the identification code 41A and the center coordinate CB2 'of the identification code 42A, and the center coordinate CA2' of the identification code 41A The distance between the center coordinate CC2 ′ of the code 43A, the distance between the center coordinate CA2 ′ of the identification code 41A and the center coordinate CD2 ′ of the identification code 44A, and the center coordinate CA2 ′ of the identification code 41A and the identification code 45A When the distances from the center coordinates CE2 ′ are A, B, C, and D, respectively, in the captured image 10d shown in FIG. Corresponding to the reference positional relationship information shown in 8 A <B <relation C <D is satisfied.

図20は、リスト形式の基準位置関係情報と撮影物品位置関係情報を照合後にオーバーレイ情報を重畳した撮影画像の表示例を示す図である。図20に示す表示画面30には、物品41が書籍1であることを示すオーバーレイ情報41B、物品42が書籍2であることを示すオーバーレイ情報42B、物品43が書籍3であることを示すオーバーレイ情報43B、物品44が書籍4であることを示すオーバーレイ情報44B及び物品45が書籍5であることを示すオーバーレイ情報45Bが、識別コード41A,42A,43A,44A,45Aにそれぞれ対応付けて表示される。   FIG. 20 is a diagram illustrating a display example of a captured image in which overlay information is superimposed after collating the reference positional relationship information in the list format and the captured article positional relationship information. On the display screen 30 shown in FIG. 20, overlay information 41 </ b> B indicating that the article 41 is the book 1, overlay information 42 </ b> B indicating that the article 42 is the book 2, and overlay information indicating that the article 43 is the book 3. 43B, overlay information 44B indicating that the article 44 is the book 4 and overlay information 45B indicating that the article 45 is the book 5 are displayed in association with the identification codes 41A, 42A, 43A, 44A, and 45A, respectively. .

図21は、リスト形式の基準位置関係情報と撮影物品位置関係情報を照合後にオーバーレイ情報を重畳した撮影画像の表示例を示す図である。図21に示す表示画面30に表示された撮影画像30eには、物品41,42,43,44,45が含まれ、撮影画像30bに含まれる物品44及び物品45の配置は、図18に示す基準位置関係情報によって表される物品44及び物品45の配置とは異なる。   FIG. 21 is a diagram illustrating a display example of a captured image in which overlay information is superimposed after collating the reference positional relationship information in the list format and the captured article positional relationship information. The photographed image 30e displayed on the display screen 30 shown in FIG. 21 includes articles 41, 42, 43, 44, and 45, and the arrangement of the articles 44 and articles 45 included in the photographed image 30b is shown in FIG. This is different from the arrangement of the article 44 and the article 45 represented by the reference positional relationship information.

この場合、コンピュータ3Bは、A<B<C<E<Dの関係に基づいて、撮影画像30eに含まれる物品44及び物品45の配置が図18に示す基準位置関係情報によって表される物品44及び物品45の配置とは異なると判断し、書籍4と書籍5の配置が違う旨の表示のオーバーレイ情報46A及び矢印からなるオーバーレイ情報46B,46Cを生成し、生成したオーバーレイ情報46A,46B,46Cが、表示画面10に表示される。   In this case, the computer 3B, based on the relationship of A <B <C <E <D, the article 44 in which the arrangement of the article 44 and the article 45 included in the captured image 30e is represented by the reference positional relationship information illustrated in FIG. The overlay information 46A, 46B, 46C is generated by generating overlay information 46B and 46C composed of arrows indicating that the placement of the book 4 and the book 5 is different, and determining that the placement of the article 45 is different. Is displayed on the display screen 10.

図22は、基準位置関係情報を生成するために用いられる撮影画像の他の表示例を示す図である。図22において、画面30に表示される一つの撮影画像30fに含まれる物品51,52,53は、歯車A、歯車B及び歯車Cにそれぞれ対応し、印刷された識別コード51A,52A,53Aが物品51,52,53にそれぞれ貼り付けられる。   FIG. 22 is a diagram illustrating another display example of the captured image used for generating the reference positional relationship information. In FIG. 22, articles 51, 52, and 53 included in one photographed image 30f displayed on the screen 30 correspond to gears A, B, and C, respectively, and printed identification codes 51A, 52A, and 53A are displayed. Attached to the articles 51, 52, and 53, respectively.

この場合、コンピュータ3Bは、撮影画像30fに含まれる識別コード51A,52A,53Aの中心座標CA3(cxa3,cya3),CB3(cxb3,cyb3),CC3(cxc3,cyc3)に基づいて、識別コード51Aの中心座標CA3と識別コード52Aの中心座標CB3との間の距離A’、識別コード52Aの中心座標CB3と識別コード53Aの中心座標CC3との間の距離B’及び識別コード53Aの中心座標CC3と識別コード51Aの中心座標CA3との間の距離C’を計算し、計算した距離A’,B’,C’を、基準位置関係情報に含ませる。ここで、距離A’,B’,C’は互いに異なる値を有するものとする。   In this case, the computer 3B, based on the center coordinates CA3 (cxa3, cya3), CB3 (cxb3, cyb3), CC3 (cxc3, cyc3) of the identification codes 51A, 52A, 53A included in the captured image 30f. Distance A ′ between the central coordinate CA3 of the identification code 52A and the central coordinate CB3 of the identification code 52A, the distance B ′ between the central coordinate CB3 of the identification code 52A and the central coordinate CC3 of the identification code 53A, and the central coordinate CC3 of the identification code 53A. And the distance C ′ between the center code CA3 of the identification code 51A and the calculated distances A ′, B ′, C ′ are included in the reference positional relationship information. Here, it is assumed that the distances A ′, B ′, and C ′ have different values.

図23は、図22に示す撮影画像を用いて生成した基準位置関係情報に関連して撮影物品位置関係情報を生成するために用いられる撮影画像の表示例を示す図である。図23において、画面30に表示される一つの撮影画像30gに含まれる物品51,52,53は、歯車A、歯車B及び歯車Cにそれぞれ対応し、印刷された識別コード51A,52A,53Aが物品51,52,53にそれぞれ貼り付けられる。   FIG. 23 is a diagram illustrating a display example of a photographed image used to generate photographing article positional relationship information related to the reference positional relationship information generated using the photographing image illustrated in FIG. In FIG. 23, articles 51, 52, and 53 included in one photographed image 30g displayed on the screen 30 correspond to the gear A, the gear B, and the gear C, respectively, and printed identification codes 51A, 52A, and 53A are provided. Attached to the articles 51, 52, and 53, respectively.

この場合、コンピュータ3Bは、撮影画像30gに含まれる識別コード51A,52A,53Aの中心座標CA3’(cxa3’,cya3’),CB3’(cxb3’,cyb3’),CC3’(cxc3’,cyc3’)に基づいて、識別コード51Aの中心座標CA3’と識別コード52Aの中心座標CB3’との間の距離A”、識別コード52Aの中心座標CB3’と識別コード53Aの中心座標CC3’との間の距離B”及び識別コード53Aの中心座標CA3’と識別コード51Aの中心座標CA3’との間の距離C”を計算し、計算した距離A”,B”,C”を、撮影物品位置関係情報に含ませる。   In this case, the computer 3B determines the center coordinates CA3 ′ (cxa3 ′, cya3 ′), CB3 ′ (cxb3 ′, cyb3 ′), CC3 ′ (cxc3 ′, cyc3) of the identification codes 51A, 52A, 53A included in the captured image 30g. )), The distance A ″ between the center coordinate CA3 ′ of the identification code 51A and the center coordinate CB3 ′ of the identification code 52A, the center coordinate CB3 ′ of the identification code 52A and the center coordinate CC3 ′ of the identification code 53A. And the distance C ″ between the center coordinate CA3 ′ of the identification code 53A and the center coordinate CA3 ′ of the identification code 51A is calculated, and the calculated distances A ″, B ″, C ″ are calculated as the photographing article position. Include in related information.

そして、コンピュータ3Bは、距離A’,B’,C’がそれぞれ距離A”,B”,C”と一致するか否か判断する。距離A’,B’,C’がそれぞれ距離A”,B”,C”と一致する場合、図24に示すように、表示画面30には、物品51が歯車Aであることを示すオーバーレイ情報51B、物品52が歯車Bであることを示すオーバーレイ情報52B及び物品53が歯車Cであることを示すオーバーレイ情報53Bが、識別コード51A,52A,53Aにそれぞれ対応付けて表示される。また、歯車A,B,Cが一致する旨を表すオーバーレイ情報54も表示画面30に表示される。   Then, the computer 3B determines whether or not the distances A ′, B ′, and C ′ match the distances A ″, B ″, and C ″. The distances A ′, B ′, and C ′ are the distances A ″, In the case of matching with B ″, C ″, as shown in FIG. 24, the display screen 30 has overlay information 51B indicating that the article 51 is the gear A and overlay information 52B indicating that the article 52 is the gear B. The overlay information 53B indicating that the article 53 is the gear C is displayed in association with the identification codes 51A, 52A, and 53A. In addition, overlay information 54 indicating that the gears A, B, and C match is also displayed on the display screen 30.

距離A’,B’,C’がそれぞれ距離A”,B”,C”と一致しない場合、例えば、距離A’,B’,C’がそれぞれ距離A”,C”,B”と一致する場合、図25に示すように、コンピュータ3Bは、撮影画像30hに含まれる物品51及び物品52の配置が基準位置関係情報によって表される物品51及び物品52の配置とは異なると判断し、歯車A,B,Cが一致しない旨を表すオーバーレイ情報54A、歯車Aと歯車Bの配置が違う旨を表すオーバーレイ情報54B及び矢印からなるオーバーレイ情報54Cを生成し、生成したオーバーレイ情報54A,54B,54Cが、表示画面30に表示される。   When the distances A ′, B ′, and C ′ do not match the distances A ″, B ″, and C ″, for example, the distances A ′, B ′, and C ′ respectively match the distances A ″, C ″, and B ″. In this case, as shown in FIG. 25, the computer 3B determines that the arrangement of the article 51 and the article 52 included in the captured image 30h is different from the arrangement of the article 51 and the article 52 represented by the reference positional relationship information. Overlay information 54A indicating that A, B, and C do not match, overlay information 54B indicating that the arrangement of gears A and B is different, and overlay information 54C including arrows are generated, and the generated overlay information 54A, 54B, 54C is generated. Is displayed on the display screen 30.

本実施の形態によれば、コンピュータ3Bは、識別コードが付された複数の物品の予め決定された基準位置関係と撮影した画像中の識別コードが付された複数の物品の撮影物品位置関係の両方を把握している。したがって、コンピュータ3Bは、画像として読取可能な識別コードが付された複数の物品の位置関係を表示部の画面上で簡単に把握することができる。   According to the present embodiment, the computer 3B determines the relationship between the predetermined reference position of the plurality of articles with the identification code and the shooting article position relationship of the plurality of articles with the identification code in the photographed image. I know both. Therefore, the computer 3B can easily grasp the positional relationship of a plurality of articles with identification codes that can be read as images on the screen of the display unit.

また、画像として読取可能な識別コードが付された複数の物品の予め決定された基準位置関係を示す基準位置関係情報に基づいて複数の物品の位置関係を管理することができるので、複数の物品を棚等の正確な位置に配置できなくても複数の物品を正確に管理することができる。   In addition, since the positional relationship of the plurality of articles can be managed based on the reference positional relationship information indicating the predetermined reference positional relationship of the plurality of articles with identification codes that can be read as images, the plurality of articles A plurality of articles can be managed accurately even if the item cannot be placed at an accurate position such as a shelf.

また、RFIDタグを用いた管理システムのようにRFIDタグ、アンテナ等を使う必要も大規模な設備を設ける必要がないので、位置情報表示システムを廉価に構成することができる。   In addition, since it is not necessary to use a large-scale facility to use an RFID tag, an antenna, or the like as in a management system using an RFID tag, a position information display system can be configured at low cost.

また、識別コードに含まれる情報と識別コードの位置情報からなる基準位置関係情報を一括して登録することができ、かつ、正しく配置されていない物品の正しい配置を表示することができる。   Further, the reference positional relationship information including the information included in the identification code and the positional information of the identification code can be registered at a time, and the correct arrangement of articles that are not correctly arranged can be displayed.

さらに、基準位置関係情報に含まれる距離と撮影物品位置関係情報に含まれる距離を照合した場合には、識別コードを付した物品が回転等しているときでも照合が可能になる。   Further, when the distance included in the reference positional relationship information and the distance included in the photographed article positional relationship information are collated, the collation can be performed even when the article with the identification code is rotated.

本発明は、上記実施の形態に限定されるものではなく、幾多の変更及び変形が可能である。例えば、データベースをサーバの代わりに端末に設けることもできる。また、基準位置関係情報を、2列以上のリスト又は撮影画像それ自体とすることもできる。   The present invention is not limited to the above-described embodiment, and many changes and modifications can be made. For example, the database can be provided in the terminal instead of the server. Further, the reference positional relationship information may be a list of two or more columns or the captured image itself.

また、照合の際には、識別コードを解析して得られた位置座標、当該位置座標に基づいて決定される距離及び当該位置情報に基づいて決定される角度のうちの少なくとも一方を用いればよい。照合の際に位置座標を用いる場合には、基準位置関係情報に含まれる所定の位置座標(例えば、一つの識別コードに含まれる位置検出パターンの四つのコーナーの座標)が撮影物品位置関係情報に含まれる対応する位置座標に完全に一致するように撮影物品位置関係情報に含まれる位置座標の座標変換を行う。この場合、基準位置関係情報に含まれる位置座標が撮影物品位置関係情報に含まれる対応する位置座標に完全に一致するときの他に、基準位置関係情報に含まれる位置座標に対する撮影物品位置関係情報に含まれる対応する位置座標の誤差が所定の値未満(例えば、5%未満)であるときには物品が正しい位置にあると判断してもよい。   Further, at the time of collation, at least one of a position coordinate obtained by analyzing the identification code, a distance determined based on the position coordinate, and an angle determined based on the position information may be used. . When position coordinates are used for collation, predetermined position coordinates (for example, coordinates of four corners of a position detection pattern included in one identification code) included in the reference position relationship information are used as the shooting article position relationship information. Coordinate conversion of the position coordinates included in the photographing article position relationship information is performed so as to completely match the corresponding position coordinates included. In this case, in addition to the case where the position coordinates included in the reference position relationship information completely match the corresponding position coordinates included in the shooting article position relationship information, the shooting article position relationship information with respect to the position coordinates included in the reference position relationship information It may be determined that the article is in the correct position when the error of the corresponding position coordinates included in the item is less than a predetermined value (for example, less than 5%).

また、照合の際に距離を用いる場合には、基準位置関係情報に含まれる距離が撮影物品位置関係情報に含まれる対応する距離に完全に一致するときの他に、基準位置関係情報に含まれる距離に対する撮影物品位置関係情報に含まれる対応する距離の誤差が所定の値未満(例えば、5%未満)であるときには物品が正しい位置にあると判断してもよい。   Further, in the case of using the distance in the collation, the distance included in the reference positional relationship information is included in the reference positional relationship information in addition to the case where the distance included in the photographing article positional relationship information completely matches the corresponding distance. It may be determined that the article is in the correct position when the corresponding distance error included in the photographed article position relation information with respect to the distance is less than a predetermined value (for example, less than 5%).

また、照合の際に角度を用いる場合には、基準位置関係情報に含まれる角度が撮影物品位置関係情報に含まれる対応する角度に完全に一致するときの他に、基準位置関係情報に含まれる角度に対する撮影物品位置関係情報に含まれる対応する角度の誤差が所定の値未満(例えば、5%未満)であるときには物品が正しい位置にあると判断してもよい。   In addition, in the case of using an angle for collation, the angle included in the reference position relationship information is included in the reference position relationship information in addition to the case where the angle included in the photographed article position relationship information completely matches the corresponding angle It may be determined that the article is in the correct position when the error of the corresponding angle included in the photographing article position relation information with respect to the angle is less than a predetermined value (for example, less than 5%).

識別コードを解析して得られた位置座標として、識別コードの中心座標の代わりに、識別コードに含まれる位置検出パターンの任意の位置(例えば、位置検出パターンのコーナー)の座標、識別コードの上端から所定の距離(例えば、10画素)離れた位置の座標等を用いることができる。識別コードを解析して得られた位置座標の数は単数でも複数でもよい。   As the position coordinates obtained by analyzing the identification code, instead of the center coordinates of the identification code, the coordinates of an arbitrary position (for example, the corner of the position detection pattern) of the position detection pattern included in the identification code, the upper end of the identification code The coordinates of a position that is a predetermined distance (for example, 10 pixels) away from can be used. The number of position coordinates obtained by analyzing the identification code may be singular or plural.

1 端末
1A カメラ(撮影部)
1a レンズ
1B コンピュータ(識別コード認識部)
1b イメージセンサ
1C ディスプレイ
1c アナログ・デジタル変換器(AD)
1D,3C 通信インタフェース
2 ネットワーク(通信経路)
3 サーバ
3A データベース
3B コンピュータ(情報生成部、照合部及び情報登録部)
11,31A,32A,33A,34A,41A,42A,43A,44A,45A,51A,52A,53A 識別コード
12A 第1位置検出パターン
12B 第3位置検出パターン
12C 第4位置検出パターン
12D 第2位置検出パターン
15 バージョン情報ブロック(縦)
16 バージョン情報ブロック(横)
17 フォーマット情報ブロック
18A,18B 絵柄埋込情報ブロック(縦)
19A,19B 絵柄埋込情報ブロック(横)
30 画面
30’,30a,30b,30c,30d,30e,30f,30g,30h 撮影画像
31,32,33,34,41,42,43,44,45,51,52,53 物品
31B,32B,33B,34B,35,36,46A,46B,46C,51B,52B,53B,54,54A,54B,54C オーバーレイ情報
1 Terminal 1A Camera (shooting unit)
1a lens 1B computer (identification code recognition part)
1b Image sensor 1C Display 1c Analog to digital converter (AD)
1D, 3C communication interface 2 network (communication path)
3 server 3A database 3B computer (information generation unit, verification unit and information registration unit)
11, 31A, 32A, 33A, 34A, 41A, 42A, 43A, 44A, 45A, 51A, 52A, 53A Identification code 12A First position detection pattern 12B Third position detection pattern 12C Fourth position detection pattern 12D Second position detection Pattern 15 Version information block (vertical)
16 Version information block (horizontal)
17 Format information block 18A, 18B Pattern embedding information block (vertical)
19A, 19B Pattern embedding information block (horizontal)
30 screens 30 ', 30a, 30b, 30c, 30d, 30e, 30f, 30g, 30h Captured images 31, 32, 33, 34, 41, 42, 43, 44, 45, 51, 52, 53 Articles 31B, 32B, 33B, 34B, 35, 36, 46A, 46B, 46C, 51B, 52B, 53B, 54, 54A, 54B, 54C Overlay information

Claims (6)

画像として読取可能な識別コードが付された複数の物品の予め決定された基準位置関係を示す基準位置関係情報を記憶するデータベースと、
前記識別コードが付された複数の物品を撮影する撮影手段と、
撮影した画像中の識別コードを認識する識別コード認識手段と、
撮影した画像中の前記識別コードが付された複数の物品の位置関係を示す撮影物品位置関係情報を、前記識別コード認識手段が認識した識別コードを解析して得られた位置座標に基づいて生成する情報生成手段と、
前記基準位置関係情報と前記撮影物品位置関係情報を照合し、照合結果を生成する照合手段と、
前記照合結果を、前記撮影手段で撮影した画像に重畳して表示する表示手段と、
を備える位置情報表示システム。
A database that stores reference positional relationship information indicating a predetermined reference positional relationship of a plurality of articles with identification codes that can be read as images;
Photographing means for photographing a plurality of articles with the identification code;
An identification code recognition means for recognizing an identification code in the photographed image;
Photographed article positional relationship information indicating the positional relation of a plurality of articles with the identification code in the photographed image is generated based on the position coordinates obtained by analyzing the identification code recognized by the identification code recognition means Information generating means for
Collating means for collating the reference positional relationship information and the photographing article positional relationship information and generating a collation result;
Display means for superimposing and displaying the collation result on an image photographed by the photographing means;
A position information display system comprising:
前記撮影物品位置関係情報は、前記識別コード認識手段が認識した識別コードを解析して得られた位置座標に基づいて決定される距離と角度のうちの少なくとも一方を有する請求項1に記載の位置情報表示システム。   The position according to claim 1, wherein the photographing article positional relationship information includes at least one of a distance and an angle determined based on a position coordinate obtained by analyzing the identification code recognized by the identification code recognition unit. Information display system. 前記基準位置関係情報は、前記基準位置関係を示すリスト、又は、前記基準位置関係にある前記識別コードが付された複数の物品を撮影した画像に含まれる識別コードを解析して得られた位置座標に基づいて決定される距離と角度のうちの少なくとも一方を有する請求項1又は2に記載の位置情報表示システム。   The reference positional relationship information is a list obtained by analyzing an identification code included in an image obtained by photographing a list indicating the reference positional relationship or a plurality of articles with the identification code having the reference positional relationship. The position information display system according to claim 1, comprising at least one of a distance and an angle determined based on the coordinates. 前記照合手段は、前記撮影物品位置関係情報が前記基準位置関係情報に対応しない場合には、前記基準位置関係から前記複数の物品の位置関係への変化についての位置関係変化情報を含む前記照合結果を生成する請求項1から3のうちのいずれか1項に記載の位置情報表示システム。   The collation means includes the collation result including positional relationship change information about a change from the reference positional relationship to the positional relationship of the plurality of articles when the photographing article positional relationship information does not correspond to the reference positional relationship information. The position information display system according to any one of claims 1 to 3, wherein: 前記撮影手段は、前記基準位置関係にある前記識別コードが付された複数の物品を撮影し、前記情報生成手段は、前記識別コード認識手段が認識した識別コードを解析して得られた位置座標に基づいて前記基準位置関係情報を生成し、前記情報生成手段が生成した前記基準位置関係情報を前記データベースに登録する情報登録部を更に備える請求項1から4のうちのいずれか1項に記載の位置情報表示システム。   The photographing means photographs a plurality of articles to which the identification code having the reference positional relationship is attached, and the information generating means is a position coordinate obtained by analyzing the identification code recognized by the identification code recognizing means. 5. The information processing unit according to claim 1, further comprising: an information registration unit configured to generate the reference positional relationship information based on the information and register the reference positional relationship information generated by the information generation unit in the database. Position information display system. 画像として読取可能な識別コードが付された複数の物品を、カメラで撮影する撮影ステップと、
撮影した画像中の識別コードを、コンピュータによって認識する識別コード認識ステップと、
撮影した画像中の前記識別コードが付された複数の物品の位置関係を示す撮影物品位置関係情報を、前記識別コード認識ステップで認識した識別コードを解析して得られた位置座標に基づいて、コンピュータによって生成する情報生成ステップと、
前記識別コードが付された複数の物品の予め決定された基準位置関係を示す基準位置関係情報をデータベースから読み出し、前記基準位置関係情報と前記撮影物品位置関係情報をコンピュータによって照合し、照合結果をコンピュータによって生成する照合ステップと、
前記照合結果を、カメラで撮影した画像に重畳してディスプレイに表示する表示ステップと、
を備える位置情報表示方法。
A shooting step of shooting a plurality of articles with identification codes readable as images with a camera;
An identification code recognition step for recognizing the identification code in the captured image by a computer;
Based on the position coordinates obtained by analyzing the identification code recognized in the identification code recognition step, the photographed article positional relationship information indicating the positional relationship of the plurality of articles with the identification code in the photographed image, An information generation step generated by a computer;
Reference position relation information indicating a predetermined reference position relation of a plurality of articles with the identification code is read from a database, the reference position relation information and the photographed article position relation information are collated by a computer, and a collation result is obtained. A computer-generated matching step;
A display step of displaying the matching result on a display superimposed on an image captured by a camera;
A position information display method comprising:
JP2013175949A 2013-08-27 2013-08-27 Position information display system and method Active JP6150675B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013175949A JP6150675B2 (en) 2013-08-27 2013-08-27 Position information display system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013175949A JP6150675B2 (en) 2013-08-27 2013-08-27 Position information display system and method

Publications (2)

Publication Number Publication Date
JP2015045952A JP2015045952A (en) 2015-03-12
JP6150675B2 true JP6150675B2 (en) 2017-06-21

Family

ID=52671423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013175949A Active JP6150675B2 (en) 2013-08-27 2013-08-27 Position information display system and method

Country Status (1)

Country Link
JP (1) JP6150675B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106462785B (en) * 2014-05-14 2018-09-14 共同印刷株式会社 The analysis system of Quick Response Code and Quick Response Code
US9747512B2 (en) * 2015-06-25 2017-08-29 Toshiba Tec Kabushiki Kaisha Article recognition apparatus and image processing method for article recognition apparatus
JP6853031B2 (en) * 2016-12-16 2021-03-31 日鉄テックスエンジ株式会社 Information processing equipment, information processing system, information processing method, and program
JP7163760B2 (en) * 2018-12-25 2022-11-01 株式会社デンソーウェーブ POSITIONAL RELATIONSHIP DETECTION DEVICE AND POSITIONAL RELATIONSHIP DETECTION SYSTEM
JP7213734B2 (en) * 2019-03-29 2023-01-27 日鉄テックスエンジ株式会社 Information processing device and program
CN112183679B (en) * 2019-07-01 2023-06-13 汉朔科技股份有限公司 Method, client, server and system for positioning electronic price tag

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005083984A (en) * 2003-09-10 2005-03-31 Neomax Co Ltd Article position checking system
JP4205036B2 (en) * 2004-10-04 2009-01-07 日本電信電話株式会社 Article management system, method and program
JP2012248096A (en) * 2011-05-30 2012-12-13 Brother Ind Ltd Program of terminal device, terminal device, and control method of terminal device

Also Published As

Publication number Publication date
JP2015045952A (en) 2015-03-12

Similar Documents

Publication Publication Date Title
JP6150675B2 (en) Position information display system and method
JP5783885B2 (en) Information presentation apparatus, method and program thereof
JP6230355B2 (en) Article management system and method
JP4868186B2 (en) Marker generation and marker detection system, method and program
JP5773436B2 (en) Information terminal equipment
TWI574209B (en) Two - dimensional code, two - dimensional code of the analytical system
JPWO2004084125A1 (en) Information input / output method using dot pattern
CN102739951A (en) Image processing apparatus, image processing method, and program
JP2011216067A (en) Marker processing method, marker processing device, marker, object having marker, and marker processing program
US9349064B2 (en) Machine-readable form configuration and system and method for interpreting at least one user mark
US20090167884A1 (en) Self-Similar Capture Systems
JP6722438B2 (en) Information processing apparatus, information processing method, and program
JP6471835B2 (en) Information processing apparatus, control method, and program
CN110114781A (en) Method for detecting and identifying long-range high density visual indicia
CN112184826A (en) Calibration plate and calibration method
JP6245914B2 (en) Identification code reading system and method
US20030197780A1 (en) Method of recording image conversion parameters in annular images, and annular image data recorded with image conversion parameters
JP5988368B2 (en) Image processing apparatus and method
JP6165579B2 (en) Identification code reading system and method
JP4314148B2 (en) Two-dimensional code reader
JP6253330B2 (en) Identification code reading system and method
JP4675055B2 (en) Marker processing method, marker processing apparatus, program, and recording medium
CN112444205B (en) Detection apparatus and detection method
JP4444684B2 (en) Processing method of captured image of object, image display system, program, and recording medium
JP4267965B2 (en) Bar code reader

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170523

R150 Certificate of patent or registration of utility model

Ref document number: 6150675

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250