Nothing Special   »   [go: up one dir, main page]

JP2010122770A - Method and device for reading optical automatic-recognition code - Google Patents

Method and device for reading optical automatic-recognition code Download PDF

Info

Publication number
JP2010122770A
JP2010122770A JP2008293946A JP2008293946A JP2010122770A JP 2010122770 A JP2010122770 A JP 2010122770A JP 2008293946 A JP2008293946 A JP 2008293946A JP 2008293946 A JP2008293946 A JP 2008293946A JP 2010122770 A JP2010122770 A JP 2010122770A
Authority
JP
Japan
Prior art keywords
code
automatic recognition
optical automatic
data
recognition code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008293946A
Other languages
Japanese (ja)
Inventor
Akiteru Kimura
昭輝 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
B Core Inc
Original Assignee
B Core Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by B Core Inc filed Critical B Core Inc
Priority to JP2008293946A priority Critical patent/JP2010122770A/en
Priority to PCT/JP2009/068817 priority patent/WO2010055795A1/en
Publication of JP2010122770A publication Critical patent/JP2010122770A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/0008General problems related to the reading of electronic memory record carriers, independent of its reading method, e.g. power transfer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • G06K7/1443Methods for optical code recognition including a method step for retrieval of the optical code locating of the code in an image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • G06K7/1456Methods for optical code recognition including a method step for retrieval of the optical code determining the orientation of the optical code with respect to the reader and correcting therefore

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Character Discrimination (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display method for displaying the result of reading/recognizing 1D color bit codes in an improved manner when the plurality of 1D color bit codes are read and recognized at a time. <P>SOLUTION: Image data are captured by picking up an image including one or more code symbols of an optical automatic-recognition code. The initial image data are set as a "reference capture screen", and in order to overwrite the decode result of each image data captured afterwards on the "reference capture screen", the position etc. of a frame is stored. In this case, correction coefficients are obtained and stored in the position on the reference capture screen. After a plurality of capturing operations, the position of the frame of a code symbol is corrected, and inserted and displayed on the reference capture image. It is therefore possible to improve operability by intuitively showing whether a code has been recognized or not to an operator. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は複数の光学式認識コード(自動認識コードタグとも呼ばれる)を光学的に読み込み、一括認識し、目的のコードシンボル(タグとも呼ばれる)を探し出し、操作者にわかりやすく表示する技術に関する。すなわち、本発明は光学的に光学式認識コードを読み取り、デコードする技術に関する。   The present invention relates to a technique for optically reading a plurality of optical recognition codes (also referred to as automatic recognition code tags), collectively recognizing them, searching for target code symbols (also referred to as tags), and displaying them in an easy-to-understand manner for an operator. That is, the present invention relates to a technique for optically reading and decoding an optical recognition code.

本願発明者は、先の特願2006−196705号において、色彩の遷移、変化によって情報を表す光学式認識コードを提案した。この光学式認識コードを「1Dカラービットコード」と呼ぶ。この1Dカラービットコードによれば、各色彩の占める領域の大きさや形の制限が緩和されているので、タグを自由な形状にすることが可能である。また、従来のバーコードでは不可能であった凹凸のある表面や、柔軟性のある素材上でもタグをマーキングすることが可能である。   The inventor of the present application has proposed an optical recognition code representing information by color transition and change in Japanese Patent Application No. 2006-196705. This optical recognition code is called a “1D color bit code”. According to this 1D color bit code, since the restrictions on the size and shape of the area occupied by each color are relaxed, the tag can be formed in a free shape. In addition, it is possible to mark a tag on an uneven surface or a flexible material, which is impossible with a conventional barcode.

また、本願発明者は、先の特願2007−130504号において、当該1Dカラービットコードの認識方法について提案している。すなわち、1Dカラービットコードの認識は、一定領域の画像を読み込み、画像処理を行うことによって行う。このため、コードの位置や向きに関わらず認識することができる。   The inventor of the present application has proposed a method for recognizing the 1D color bit code in Japanese Patent Application No. 2007-130504. That is, the recognition of the 1D color bit code is performed by reading an image of a certain area and performing image processing. Therefore, it can be recognized regardless of the position and orientation of the code.

このとき、その領域には複数の1Dカラービットコードが含まれる場合があるが、その場合は、その複数の1Dカラービットコードのそれぞれについて認識・デコードが行われる。したがって、1Dカラービットコードは複数のコードを容易に、かつ同時に認識できるという特徴を有する。   At this time, a plurality of 1D color bit codes may be included in the area. In this case, recognition / decoding is performed for each of the plurality of 1D color bit codes. Therefore, the 1D color bit code has a feature that a plurality of codes can be easily and simultaneously recognized.

また、複数の1Dカラービットコードを認識しようとした場合、認識できたものと、認識できなかったものとを区別して表示することが操作性の観点から非常に重要である。 この点、本願発明者は先の特願2007−142145により、認識できた1Dカラービットコードを画像上で枠線で囲む等により明示的に区別できる方法を提案している。   Also, when trying to recognize a plurality of 1D color bit codes, it is very important from the viewpoint of operability to distinguish and display what can be recognized and what cannot be recognized. In this regard, the inventor of the present application has proposed a method in which the recognized 1D color bit code can be clearly distinguished by surrounding it with a frame line on the image, according to Japanese Patent Application No. 2007-142145.

このように、本願発明者らが開発した1Dカラービットコードは、複数読み取り・認識を本質的に行いやすいコードである。   Thus, the 1D color bit code developed by the inventors of the present application is a code that is inherently easy to read and recognize a plurality.

従来の先行特許技術
例えば、下記特許文献1には、複数種類のバーコードをデコードする際に、順番を工夫することによって、デコード速度の向上を図る技術が開示されている。
Conventional prior arts, for example, Patent Document 1 below discloses a technique for improving the decoding speed by devising the order when decoding a plurality of types of barcodes.

また、下記特許文献2には、大量のワークに対して付与された識別コードを一括して読み取る識別コード一括読み取り装置が開示されている。   Patent Document 2 listed below discloses an identification code batch reading device that collectively reads identification codes assigned to a large amount of workpieces.

また、下記特許文献3には、文字や模様を含む画像データからバーコードを切り出す方法が開示されている。   Patent Document 3 below discloses a method of cutting out a barcode from image data including characters and patterns.

さらに、下記特許文献4には、複数のバーコードを読み取ることができるバーコード切り出し方法が開示されている。ここに開示されている技術によれば、レフトマージンやライトマージンが規格外でも連続して認識することができるので、複数のバーコードを切り出せると記述されている。   Furthermore, Patent Document 4 below discloses a barcode cutout method that can read a plurality of barcodes. According to the technique disclosed here, it is described that a plurality of barcodes can be cut out because the left margin and the right margin can be continuously recognized even outside the standard.

特開平11−316796号公報JP-A-11-316796 特開2005−157440号公報JP 2005-157440 A 特開2004−074516号公報JP 2004-0774516 A 特開平8−185463号公報JP-A-8-185463

このように、1Dカラービットコードは、1画面中に含まれる複数のタグを一度に認識することに適したものである。   Thus, the 1D color bit code is suitable for recognizing a plurality of tags included in one screen at a time.

1Dカラービットコードの認識に使用する画像は、CCDカメラ等から入力された静止画像である。通常、動画像キャプチャカメラからの入力画像を断続的にフレーム画像(静止画像)として捉え、各静止画像についてタグ(コードシンボル)の認識・デコード処理を行っている。なお、一般的な動画の30fps程度で連続的に取得する静止画像群は、文字通り「連続的」なフレーム画像であるが、それよりも広い時間間隔で撮像されていわば「断片的に」撮られた静止画像群(画像データ群)をしばしば「断続的」なフレーム画像と呼ぶ場合がある。自動認識コードの場合は、一般的な動画像のように文字通り連続的に画像を取得する必要はなく、操作者の指示に従って撮像が行われる場合が多い。   An image used for recognition of the 1D color bit code is a still image input from a CCD camera or the like. Usually, an input image from a moving image capture camera is intermittently regarded as a frame image (still image), and a tag (code symbol) is recognized and decoded for each still image. In addition, the still image group continuously acquired at about 30 fps of a general moving image is literally a “continuous” frame image, but if it is taken at a wider time interval, it is taken “in pieces”. The still image group (image data group) is often referred to as an “intermittent” frame image. In the case of an automatic recognition code, it is not necessary to acquire images literally continuously like a general moving image, and imaging is often performed in accordance with an operator's instruction.

さて例えば、読み取り対象タグが1つの場合に、1枚の静止画像のみで認識を行った場合は、撮像時の光源やブレなど撮像条件により目的のタグが認識できないことが生じ得る。そのため、複数の静止画像を用いて連続的に認識することにより、撮像条件が悪いケースにおいても認識操作の負担を軽減している。しかし、このように複数の静止画像を用いて認識する場合、撮像条件の違いにより静止画像毎の認識結果が異なる場合がある。そうすると、結局、目的のタグが認識できたか否かを直感的に判断することが難しい。   For example, when there is one tag to be read and recognition is performed using only one still image, the target tag may not be recognized due to imaging conditions such as a light source and blurring during imaging. Therefore, by continuously recognizing using a plurality of still images, the burden of the recognition operation is reduced even when the imaging conditions are bad. However, when recognizing using a plurality of still images in this way, the recognition result for each still image may differ depending on the imaging conditions. As a result, it is difficult to intuitively determine whether or not the target tag has been recognized.

また、複数のタグを認識する場合にも、同様に動画キャプチャカメラから断続的に静止画像を捉えて、認識処理を行う。しかし、1つのコードを認識する場合と同様に、撮像条件の違いにより、静止画像毎に認識できるコードが異なることが想定される。そうすると、結局、認識できたタグと認識できなかったタグとを区別するには、各静止画像毎の認識結果を見比べて確認するほかなく、操作性の点で問題が生じる。   Also, when recognizing a plurality of tags, similarly, a still image is intermittently captured from the moving image capture camera, and recognition processing is performed. However, as in the case of recognizing one code, it is assumed that the recognizable code is different for each still image due to a difference in imaging conditions. As a result, in order to distinguish between the recognized tag and the unrecognized tag, it is necessary to compare and confirm the recognition result for each still image, and there is a problem in terms of operability.

このように複数の静止画像を用いた認識を行う場合に、認識できたタグと認識できなかったタグとを直感的に区別しやすく明示する方法については未だ知られていない。   In this way, when performing recognition using a plurality of still images, a method for clearly and clearly distinguishing recognized tags and unrecognized tags has not been known yet.

本発明の目的
本発明は上記課題に鑑みなされたものであり、その目的は、複数の1Dカラービットコードを一括して読み込み・認識をする場合に、その結果の改良された表示方法について提案することである。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and its object is to propose an improved display method for reading and recognizing a plurality of 1D color bit codes collectively. That is.

本発明は、上記課題を解決するために、入力された静止画像の中から「基準キャプチャ画面」を設定し、静止画像毎のコード認識結果を「基準キャプチャ画面」に上書きするために、そのコードシンボルを明示する明示枠の位置等を記憶しておく。明示枠は、各キャプチャした画像データ上にそのキャプチャの度に表示していく。この際、基準キャプチャ画像上での位置等に変換するための補正係数も求めて同様に記憶しておく。キャプチャを所定回数繰り返した後、認識できたコードシンボルについて、その明示枠を基準キャプチャ画面上の位置に変換して基準キャプチャ画像に挿入して、利用者に表示する。この結果、認識できた全てのコードを明確にし、どのコードが認識できたのか(あるいは認識できなかったのか)を直感的に操作者に示すことで、操作性の向上を図るものである。   In order to solve the above problems, the present invention sets a “reference capture screen” from the input still images, and overwrites the code recognition result for each still image on the “reference capture screen”. Stores the position of the explicit frame that clearly indicates the symbol. The explicit frame is displayed on each captured image data for each capture. At this time, a correction coefficient for conversion to a position or the like on the reference capture image is also obtained and stored in the same manner. After the capture is repeated a predetermined number of times, the code frame that has been recognized is converted into a position on the reference capture screen after converting its explicit frame, inserted into the reference capture image, and displayed to the user. As a result, all the recognized codes are clarified, and the operability is improved by intuitively indicating to the operator which code has been recognized (or which has not been recognized).

また、最後にまとめて表示するのではなく、デコードが成功した場合はその画像データ上に明示枠を表示すると共に、基準キャプチャ画像上にもそのキャプチャする毎に追加挿入していくような構成を採用することも好適である。   Also, instead of displaying them together at the end, when decoding is successful, an explicit frame is displayed on the image data, and it is also inserted on the reference capture image every time it is captured. It is also suitable to adopt.

したがって、一旦認識できたタグについては、その後にキャプチャした画像データで認識できなくても、既に認識済みであることが明示され、それまでにデコードできた全てのコードを明確になり、どのコードが認識できたのか(あるいは認識できなかったのか)を直感的に操作者に示すことで、操作性の向上を図るものである。   Therefore, once a tag can be recognized, it will be clearly recognized that it has already been recognized even if it cannot be recognized by the captured image data, and all codes that have been decoded so far will be clarified. It is intended to improve operability by intuitively showing the operator whether it was recognized (or not recognized).

具体的には、以下のような手段を採用する。   Specifically, the following means are adopted.

(1)本発明は、上記課題を解決するために、光学的自動認識コードを読み込む方法において、前記光学的自動認識コードの1個以上のコードシンボルを含む画像データをキャプチャするキャプチャステップと、前記キャプチャした画像データから、前記コードシンボルが占める領域を切り出すステップと、前記切り出した領域のコードシンボルをデコード処理し、得られたデータを所定の記憶手段に記憶するデータ記憶ステップと、前記デコードが成功したコードシンボルの前記領域を示す明示枠の位置を算出し、所定の記憶手段に記憶する位置記憶ステップと、前記明示枠を、前記キャプチャした画像データの前記求めた位置に、重畳して挿入する第1挿入ステップと、前記キャプチャした画像データと、最初にキャプチャした画像データである基準キャプチャ画像と比較し、両者の位置関係を算出し、前記記憶手段に格納するステップと、前記明示枠が挿入された画像データを利用者に表示する第1表示ステップと、前記キャプチャステップから、前記表示ステップまでを1回以上繰り返す繰り返しステップと、前記繰り返しステップにおける繰り返し処理の後、前記記憶手段から前記明示枠の位置を取り出し、この位置を、前記位置関係に基づき補正し、前記基準キャプチャ画像上の位置に変換する位置変換ステップと、前記明示枠を、前記基準キャプチャ画像の前記変換後の位置に挿入する第2挿入ステップと、前記第2挿入ステップにおいて、デコードが成功したコードシンボルの前記明示枠が挿入された前記基準キャプチャ画像を表示する第2表示ステップと、を含み、前記繰り返し処理が終了した後で、前記基準キャプチャ画像に、それまでにデコードが成功したコードシンボルの明示枠が挿入されることを特徴とする光学的自動認識コード読み取り方法である。   (1) In order to solve the above-described problem, the present invention provides a method of reading an optical automatic recognition code, and a capture step of capturing image data including one or more code symbols of the optical automatic recognition code; A step of cutting out an area occupied by the code symbol from the captured image data, a data storing step of decoding the code symbol of the cut out area and storing the obtained data in a predetermined storage means, and the decoding succeeded The position of the explicit frame indicating the area of the code symbol is calculated and stored in a predetermined storage means, and the explicit frame is superimposed and inserted at the obtained position of the captured image data. A first insertion step, the captured image data, and the first captured image data; And a step of calculating the positional relationship between the two and storing them in the storage means, a first display step of displaying the image data in which the explicit frame is inserted to the user, and the capture step From the repetitive step of repeating the process up to the display step at least once, and after the repetitive processing in the repetitive step, the position of the explicit frame is extracted from the storage means, and the position is corrected based on the positional relationship, and the reference A position conversion step for converting to a position on the captured image; a second insertion step for inserting the explicit frame into the converted position of the reference capture image; and a code symbol that has been successfully decoded in the second insertion step A second display step for displaying the reference capture image in which the explicit frame is inserted. , After the repeating process is finished, the reference capture image, an optically automatic recognition code reading method, wherein a decoded until it is inserted explicit frame the code symbol success.

(2)また、本発明は、上記課題を解決するために、光学的自動認識コードを読み込む方法において、前記光学的自動認識コードの1個以上のコードシンボルを含む画像データをキャプチャするキャプチャステップと、前記キャプチャした画像データから、前記コードシンボルが占める領域を切り出すステップと、前記切り出した領域のコードシンボルをデコード処理し、得られたデータを所定の記憶手段に記憶するデータ記憶ステップと、前記デコードが成功したコードシンボルの前記領域を示す明示枠の位置を算出し、所定の記憶手段に記憶する位置記憶ステップと、前記明示枠を、前記キャプチャした画像データの前記求めた位置に、重畳して挿入する第1挿入ステップと、前記明示枠が挿入された画像データを利用者に表示する第1表示ステップと、前記キャプチャした画像データと、最初にキャプチャした画像データである基準キャプチャ画像と比較し、両者の位置関係を算出し、前記記憶手段に格納するステップと、前記記憶手段から前記明示枠の位置を取り出し、この位置を、前記位置関係に基づき補正し、前記基準キャプチャ画像上の位置に変換する位置変換ステップと、前記明示枠を、前記基準キャプチャ画像の前記変換後の位置に挿入する第2挿入ステップと、前記第2挿入ステップにおいて、デコードが成功したコードシンボルの前記明示枠が挿入された前記基準キャプチャ画像を表示する第2表示ステップと、前記キャプチャステップから、前記表示ステップまでを1回以上繰り返す繰り返しステップと、を含み、前記基準キャプチャ画像には、前記キャプチャステップにおけるキャプチャが行われる度に、デコードが成功したコードシンボルの明示枠が追加されることを特徴とする光学的自動認識コード読み取り方法である。   (2) Further, in order to solve the above-described problem, the present invention provides a capture step of capturing image data including one or more code symbols of the optical automatic recognition code in a method of reading an optical automatic recognition code. Cutting out the area occupied by the code symbol from the captured image data; decoding the code symbol in the cut out area; and storing the obtained data in a predetermined storage means; and the decoding Calculates a position of an explicit frame indicating the region of the code symbol that has succeeded, and stores the position in a predetermined storage unit, and the explicit frame is superimposed on the obtained position of the captured image data. A first insertion step of inserting, and a first of displaying image data in which the explicit frame is inserted to a user Comparing the captured image data with the reference captured image that is the first captured image data, calculating a positional relationship between the captured image data and storing it in the storage means; and from the storage means to the explicit frame The position is converted based on the positional relationship and converted into a position on the reference capture image, and the explicit frame is inserted at the converted position of the reference capture image. A second insertion step; a second display step for displaying the reference capture image in which the explicit frame of the code symbol that has been successfully decoded in the second insertion step is inserted; and from the capture step to the display step. A repetition step that is repeated one or more times, and the reference capture image includes Each time the capture of tea step is performed, an optical automatic recognition code reading method characterized by explicit frame of code symbol decoding is successful is added.

(3)また、本発明は、(1)記載の光学的自動認識コード読み取り方法において、前記基準キャプチャ画像は、前記繰り返しステップにおける繰り返し処理が開始されたときから、表示が開始されることを特徴とする光学的自動認識コード読み取り方法である。   (3) In the optical automatic recognition code reading method according to (1), the present invention is characterized in that the reference capture image starts to be displayed when the repetition process in the repetition step is started. This is an optical automatic recognition code reading method.

(4)また、本発明は、(1)記載の光学的自動認識コード読み取り方法において、前記基準キャプチャ画像は、前記繰り返しステップにおける繰り返し処理が終了した後で、初めて表示されることを特徴とする光学的自動認識コード読み取り方法である。   (4) In the optical automatic recognition code reading method according to (1), the present invention is characterized in that the reference capture image is displayed for the first time after the repetition process in the repetition step is completed. This is an optical automatic recognition code reading method.

(5)また、本発明は、(1)又は(2)に記載の光学的自動認識コード読み取り方法において、前記光学式自動認識コードは、色彩セルを配置して、その色彩セルの色彩の並び、色彩の遷移、色彩の組み合わせ、のいずれかによってデータを表す「色彩配列による自動認識コード」であることを特徴とする光学的自動認識コード読み取り方法である。   (5) Further, the present invention is the optical automatic recognition code reading method according to (1) or (2), wherein the optical automatic recognition code arranges color cells and arranges the colors of the color cells. An optical automatic recognition code reading method, which is an “automatic recognition code by color arrangement” that represents data by any one of color transition and color combination.

(6)また、本発明は、(1)〜(5)のうち、いずれか1項に記載の光学的自動認識コード読み取り方法において、前記明示枠の「位置」には、前記明示枠の座標、明示枠の大きさ、明示枠の向き、明示枠の縦と横の長さ、のいずれか1個以上のパラメータが含まれることを特徴とする光学的自動認識コード読み取り方法である。   (6) Further, in the optical automatic recognition code reading method according to any one of (1) to (5), the present invention provides the coordinates of the explicit frame in the “position” of the explicit frame. The optical automatic recognition code reading method includes one or more parameters of the size of the explicit frame, the orientation of the explicit frame, and the vertical and horizontal lengths of the explicit frame.

(7)また、本発明は、(1)〜(7)のうち、いずれか1項に記載の光学的自動認識コード読み取り方法において、前記画像間の「位置関係」には、平行移動量、回転方向と回転量、スケーリング(拡大・縮小)のうち、いずれか1個以上のパラメータが含まれていることを特徴とする光学的自動認識コード読み取り方法である。   (7) Further, in the optical automatic recognition code reading method according to any one of (1) to (7), the present invention provides a “positional relationship” between the images, the amount of translation, The optical automatic recognition code reading method includes one or more parameters of rotation direction, rotation amount, and scaling (enlargement / reduction).

(8)また、本発明は、(1)又は(2)に記載の光学的自動認識コード読み取り方法において、前記第2表示ステップは、さらに、デコードが成功したコードシンボルの前記データを前記記憶手段から読み出し、対応する前記コードシンボルの前記明示枠と関連付けて表示することを特徴とする光学的自動認識コード読み取り方法である。   (8) Further, in the optical automatic recognition code reading method according to (1) or (2), the second display step further includes the storage unit storing the data of the code symbol that has been successfully decoded. The optical automatic recognition code reading method is characterized in that it is displayed in association with the explicit frame of the corresponding code symbol.

(9)また、本発明は、(8)記載の光学的自動認識コード読み取り方法において、前記関連付けは、前記データを、このデータの対応する前記明示枠の近傍に表示することによって行われることを特徴とする光学的自動認識コード読み取り方法である。   (9) Further, the present invention is the optical automatic recognition code reading method according to (8), wherein the association is performed by displaying the data in the vicinity of the corresponding explicit frame of the data. This is an optical automatic recognition code reading method.

(10)また、本発明は、(8)記載の光学的自動認識コード読み取り方法において、 前記関連付けは、前記データと、このデータの対応する前記明示枠とを曲線で結んで表示することによって行われることを特徴とする光学的自動認識コード読み取り方法である。   (10) Further, the present invention provides the optical automatic recognition code reading method according to (8), wherein the association is performed by connecting the data and the explicit frame corresponding to the data with a curve. This is an optical automatic recognition code reading method.

(11)また、本発明は、(1)、(3)、(4)、(5)のいずれか1項に記載の光学的自動認識コード読み取り方法において、前記位置変換ステップにおいて、同一のコードシンボルに対応する前記明示枠が前記記憶手段に複数個格納されている場合は、その中の1個の明示枠に対してのみ位置を変換し、前記第2挿入ステップにおいては、前記変換した1個の明示枠を前記基準キャプチャ画像に挿入することを特徴とする光学的自動認識コード読み取り方法である。   (11) Further, in the optical automatic recognition code reading method according to any one of (1), (3), (4), and (5), the present invention provides the same code in the position conversion step. In the case where a plurality of the explicit frames corresponding to the symbols are stored in the storage means, the position is converted only for one of the explicit frames, and in the second insertion step, the converted 1 An optical automatic recognition code reading method, wherein an explicit frame is inserted into the reference capture image.

(12)また、本発明は、(1)〜(5)のいずれか1項に記載の光学式自動認識コード読み取り方法において、前記第1表示ステップにおいて、前記画像データを第1画面に表示し、前記第2表示ステップにおいては、前記基準キャプチャ画像を大画面とは異なる第2画面に表示し、前記第1画面と、前記第2画面とが、共に利用者に対して同時に表示が行われることを特徴とする光学式自動認識コード読み取り方法。   (12) Further, in the optical automatic recognition code reading method according to any one of (1) to (5), the present invention displays the image data on a first screen in the first display step. In the second display step, the reference capture image is displayed on a second screen different from the large screen, and both the first screen and the second screen are simultaneously displayed to the user. An optical automatic recognition code reading method.

(13)また、本発明は、(1)〜(5)のいずれか1項に記載の光学式自動認識コード読み取り方法において、前記キャプチャステップにおいては、キャプチャが行われた後、そのキャプチャした画像データを利用者に表示し、前記第1表示ステップにおいては、前記キャプチャステップにおいて表示された前記画像データに代えて、前記明示枠が挿入された画像データを利用者に表示することを特徴とする光学式自動認識コード読み取り方法である。   (13) Moreover, in the optical automatic recognition code reading method according to any one of (1) to (5), the present invention provides the captured image after the capture is performed in the capture step. Data is displayed to the user, and in the first display step, the image data in which the explicit frame is inserted is displayed to the user instead of the image data displayed in the capture step. This is an optical automatic recognition code reading method.

(14)また、本発明は、(1)〜(5)のいずれか1項に記載の光学的自動認識コード読み取り方法において、前記繰り返しステップは、予め定められた時間が経過するまで、前記繰り返し処理を繰り返し実行することを特徴とする光学的自動認識コード読み取り方法である。   (14) Moreover, the present invention provides the optical automatic recognition code reading method according to any one of (1) to (5), wherein the repetition step is repeated until a predetermined time elapses. An optical automatic recognition code reading method characterized in that the process is repeatedly executed.

(15)また、本発明は、(1)〜(5)のいずれか1項に記載の光学的自動認識コード読み取り方法において、前記繰り返しステップは、前記それまでにデコードできたコードシンボルの個数が、予め定められた数に到達するまで、前記繰り返し処理を繰り返し実行することを特徴とする光学的自動認識コード読み取り方法である。   (15) Further, the present invention provides the optical automatic recognition code reading method according to any one of (1) to (5), wherein the repetition step includes the number of code symbols that have been decoded so far. The optical automatic recognition code reading method is characterized in that the repetitive processing is repeatedly executed until a predetermined number is reached.

(16)また、本発明は、(1)〜(5)のいずれか1項に記載の光学的自動認識コード読み取り方法において、前記繰り返しステップは、読み取り対象であるコードシンボルのデコードが全て終了した場合に、前記繰り返し処理を終了することを特徴とする光学的自動認識コード読み取り方法である。   (16) Further, in the optical automatic recognition code reading method according to any one of (1) to (5), the present invention is such that in the repetition step, the decoding of all the code symbols to be read is completed. In this case, the optical automatic recognition code reading method is characterized in that the repetitive processing is terminated.

(17)また、本発明は、(1)〜(5)のいずれか1項に記載の光学的自動認識コード読み取り方法において、前記それまでにデコードできた個数のコードシンボルに基づき、読み取り対象である全てのコードシンボルをデコードできた場合と同様のデータが得られた場合には、前記繰り返し処理を終了数ことを特徴とする光学的自動認識コード読み取り方法。   (17) In the optical automatic recognition code reading method according to any one of (1) to (5), the present invention provides a reading target based on the number of code symbols decoded so far. An optical automatic recognition code reading method characterized in that when the same data as that obtained when all of the code symbols can be decoded is obtained, the number of the repetition processes is terminated.

(18)また、本発明は、(16)記載の光学式自動認識コード読み取り方法において、前記それまでにデコードできた個数のコードシンボルに基づき、読み取り対象である全てのコードシンボルをデコードできた場合と同様のデータが得られた場合には、前記それまでにデコードできた個数のコードシンボルに基づき、エラー訂正を実行し、まだデコードできていないコードシンボルのデータを補い、読み取り対象である全てのコードシンボルをデコードした場合と同様のデータが再現できた場合が含まれることを特徴とする光学式自動認識コード読み取り方法。   (18) In the optical automatic recognition code reading method according to (16), the present invention can decode all the code symbols to be read based on the number of code symbols that can be decoded so far. If the same data is obtained, error correction is performed based on the number of code symbols that have been decoded so far, the code symbol data that has not been decoded is compensated, and all the read target data are obtained. An optical automatic recognition code reading method, characterized in that the same data as when a code symbol is decoded can be reproduced.

(19)また、本発明は、(1)〜(5)のいずれか1項に記載の光学的自動認識コード読み取り方法において、前記繰り返しステップは、予め定められた終了コードを表すコードシンボルが読み取れた場合に、前記繰り返し処理を終了することを特徴とする光学的自動認識コード読み取り方法である。   (19) Further, in the optical automatic recognition code reading method according to any one of (1) to (5), the present invention can read a code symbol representing a predetermined end code. In this case, the optical automatic recognition code reading method is characterized in that the repetitive processing is terminated.

(20)また、本発明は、(1)〜(19)のいずれか1項に記載の光学的自動認識コード読み取り方法を実行する光学的自動認識コード読み取り装置である。   (20) Moreover, this invention is an optical automatic recognition code reader which performs the optical automatic recognition code reading method of any one of (1)-(19).

以上述べたように、本発明によれば、キャプチャした画像データ毎にコードシンボルのデコードを試み、デコードできたコードシンボルについて明示枠を求めて表示した。さらに、その明示枠の位置等を基準キャプチャ画面上にまとめて表示する。   As described above, according to the present invention, decoding of code symbols is attempted for each captured image data, and an explicit frame is obtained and displayed for the decoded code symbols. Further, the position of the explicit frame and the like are displayed together on the reference capture screen.

したがって、どのコードシンボルが読みとれたかを容易に知ることができ、利便性の高い光学式自動認識コード読み取り方法・装置が得られる。   Therefore, it is possible to easily know which code symbol has been read, and a highly convenient optical automatic recognition code reading method and apparatus can be obtained.

以下、本件発明の好適な実施の形態を図面に基づいて説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

第1 システムの構成
まず、本実施の形態で用いるコードシンボル読み取り結果多重表示装置10等のシステムと、本システムで読み取る色彩配列による自動認識コードの構成について、説明する。
Configuration of the First System First, the configuration of the code symbol reading result multiplex display device 10 and the like used in the present embodiment and the configuration of the automatic recognition code based on the color arrangement read by this system will be described.

(1)コードシンボル読み取り結果多重表示装置の構成
図1には、本件発明に係るコードシンボル読み取り結果多重表示装置10と、キャプチャ手段12と、物品14とが示されている。
(1) Configuration of Code Symbol Reading Result Multiple Display Device FIG. 1 shows a code symbol reading result multiple display device 10, a capture means 12, and an article 14 according to the present invention.

コードシンボル読み取り結果多重表示装置10は、図1に示されるように、コンピュータから構成されている。その詳細は後述する。   As shown in FIG. 1, the code symbol reading result multiple display device 10 is composed of a computer. Details thereof will be described later.

また、物品14の側面には、コードシンボル20が付されている。キャプチャ手段12は、CCDカメラであり、コードシンボル20を順次撮像する。このキャプチャ手段12は、コードシンボル読み取り結果多重表示装置10に接続され、コードシンボル20の画像データをコードシンボル読み取り結果多重表示装置10に送出する。   A code symbol 20 is attached to the side surface of the article 14. The capture unit 12 is a CCD camera and sequentially captures the code symbols 20. The capture unit 12 is connected to the code symbol reading result multiplex display device 10 and sends the image data of the code symbol 20 to the code symbol reading result multiplex display device 10.

用語について
ここで、コードシンボルとは、複数の色彩セルからななる。色彩セルとは一定の色彩が付されたものであり、色彩セルを並べることによって、それぞれのコードシンボルが構成されている。コードシンボルとは、あるコード体系によって所定のデータを表すために構築された1個1個のシンボルをいう。
Terminology Here, a code symbol is composed of a plurality of color cells. A color cell is given a certain color, and each code symbol is configured by arranging the color cells. A code symbol is an individual symbol constructed to represent predetermined data by a certain code system.

コードとは、種々の意味がある。一般には、コードの生成規則や、デコードの規則、用いる色彩とその色彩の許容範囲となる色彩空間等からなる「コード体系」を意味するが、このコード体系に基づき構築された1個のシンボル(コードシンボル)も、便宜的に○○コードと呼ぶこともある。   The code has various meanings. In general, this means a “code system” consisting of code generation rules, decoding rules, colors to be used and a color space that is an allowable range of the colors, etc., but one symbol ( The code symbol) may also be referred to as XX code for convenience.

コードシンボルは、複数の色彩セルをコード規則に基づき並べて構成されるが、この色彩セルは、本実施の形態では、ある色彩が付された2次元の所定の領域をいう。   The code symbol is configured by arranging a plurality of color cells based on a code rule. In the present embodiment, the color cell refers to a two-dimensional predetermined region to which a certain color is added.

より具体的には、色彩セルとは、本実施例においては、キャプチャした画像中の物品上の所定の色彩エリア(色彩領域)をいう。なお、コードシンボルを単にシンボルということもある。本実施例において、コードシンボルは色彩配列による自動認識コードとして機能し、数値などのデータを表す。 More specifically, the color cell means a predetermined color area (color area) on the article in the captured image in this embodiment. A code symbol is sometimes simply referred to as a symbol. In this embodiment, the code symbol functions as an automatic recognition code based on the color arrangement, and represents data such as numerical values.

このような構成によって、コードシンボル読み取り結果多重表示装置10は、物品14に付されたコードシンボル20を、色彩配列による自動認識コードとしてデコードを行い、得られたデータをそのディスプレイ(後述するように表示手段18に相当する)に表示する動作を行う。   With such a configuration, the code symbol reading result multiplex display device 10 decodes the code symbol 20 attached to the article 14 as an automatic recognition code based on the color arrangement, and displays the obtained data on the display (as will be described later). Display operation) (corresponding to the display means 18).

第2 コード及びコードシンボルの構成
本実施の形態で用いるコード及びコードシンボルは、以下のような構成を採用する。
Configuration of Second Code and Code Symbol The following configuration is adopted for the code and code symbol used in the present embodiment.

下記の構成は、コードシンボルの読み取り可能性を向上させることを念頭に置いて採用されている。   The following configuration is employed with the goal of improving the readability of code symbols.

一般的に、容量の大きなデータを表すためには、長大なコードシンボルが必要である。しかし、コードシンボルが長大であればあるほど、光学的影響や汚れなどの影響を受けて読みとれなくなる可能性が高くなる。   In general, a long code symbol is necessary to represent a large amount of data. However, the longer the code symbol is, the higher the possibility that it will become unreadable due to the influence of optical effects and dirt.

そこで、本来は1個のコードシンボルを複数個に分割し、分割されたものを個々に読み取って後で合成して原コードシンボルを再構成している。   Therefore, originally, one code symbol is divided into a plurality of pieces, and the divided code is read individually and synthesized later to reconstruct the original code symbol.

この複数個に分割された一群のコードシンボルを「シンボル群」といい、分割後の個々のコードシンボルを特に「分割コードシンボル」又は「分割シンボル」と呼ぶ。この分割シンボルについて個別に読み取りトライを行えば、たとえ光学的影響(照明やカメラ側の設定等)を受けても、長大なままのコードシンボルを読み取る場合に比べて、読み取れる可能性は格段に大きくなる。ここで、読み取りトライとは、分割シンボルの読み取りが失敗した場合に再試行を繰り返すことをいう。   A group of code symbols divided into a plurality of groups is referred to as a “symbol group”, and individual code symbols after the division are specifically referred to as “division code symbols” or “division symbols”. If this divided symbol is individually read-tried, the possibility of being read is much greater than if the code symbol remains long even if it is subjected to optical influences (such as lighting and camera settings). Become. Here, the reading try means repeating the retry when reading of the divided symbols fails.

2−1 誤り訂正
分割された分割コードシンボルに誤り訂正符号を適用し、誤り訂正をすることによって、一部分割コードシンボルの欠損を許容することができる。すなわち、一部の分割コードシンボルが汚れるなどして読み取りができない場合でも、同じシンボル群に属するの他の残りの分割コードシンボルから、原コードシンボルを再構成することができるものである。このような誤り訂正の技術は従来からよく知られているので、従来技術をそのまま使用すれば良い。
2-1 . By applying an error correction code to a divided code symbol that has been subjected to error correction division, and performing error correction, it is possible to allow a partial divided code symbol to be lost. That is, even if some of the divided code symbols are dirty and cannot be read, the original code symbols can be reconstructed from the remaining divided code symbols belonging to the same symbol group. Since such error correction techniques are well known in the art, the conventional techniques may be used as they are.

したがって、例えば、汚れやかすれ等で読み取れなかったコードシンボルが存在しても残りの分割コードシンボルに基づき原コードシンボルを再構成することができる。   Therefore, for example, even if there is a code symbol that could not be read due to dirt or fading, the original code symbol can be reconstructed based on the remaining divided code symbols.

2−2 コードシンボルの識別動作について
本節では、シンボル群及び個々のコードシンボルを識別する方法について、図2、図3に基づいて説明する。
2-2 Code Symbol Identification Operation In this section, a method for identifying a symbol group and individual code symbols will be described with reference to FIGS.

本実施例において、1個のシンボル群は、分割された4個の分割コードシンボルから構成される。上述したように、各分割コードシンボルはCRC等のエラー訂正コードを含んでおり、4個の分割コードシンボルの内、1個の分割コードシンボルが欠損しても残りの3個のコードシンボルから原コードシンボルを再構成することができる。   In the present embodiment, one symbol group is composed of four divided code symbols. As described above, each divided code symbol includes an error correction code such as CRC, and even if one divided code symbol is lost among the four divided code symbols, the original code is generated from the remaining three code symbols. Code symbols can be reconstructed.

本実施の形態では、1個のシンボル群は、1個の原コードシンボルを表し、当然ながらそれは1個のデータを表す。   In the present embodiment, one symbol group represents one original code symbol, which naturally represents one data.

図2中には、2つのシンボル群(合計8個のコードシンボル22a、22b、22c、22d、24a、24b、24c、24dを含む)によって、2つのデータを表す例が示されている。   FIG. 2 shows an example in which two data are represented by two symbol groups (including a total of eight code symbols 22a, 22b, 22c, 22d, 24a, 24b, 24c, and 24d).

ここで、図2に示したように、複数群のコードシンボルが混在している場合でも、これら複数群のシンボル群の中から読み取れた個々のコードシンボルを視覚的に把握できるようにすることは、操作を行う上で重要である。   Here, as shown in FIG. 2, even when a plurality of groups of code symbols are mixed, it is possible to visually grasp individual code symbols read from the plurality of groups of symbols. Is important in performing the operation.

まず、本実施例では、各コードシンボルが表すデータの最初の部分に、各シンボル群を識別するための2桁のシンボル群識別番号を付している。本実施の形態では、シンボル識別番号は、「01」と「02」を用いて2個のシンボル「群」を表している。   First, in this embodiment, a 2-digit symbol group identification number for identifying each symbol group is attached to the first part of the data represented by each code symbol. In the present embodiment, the symbol identification number uses “01” and “02” to represent two symbols “group”.

図3には、図2中の各コードシンボル22a、22b、22c、22d、24a、24b、24c、24dが表すデータを読み取った例が示されている。この図3に示されるように、各コードシンボル22a、22b、22c、22d、24a、24b、24c、24dのデータの最初の2桁は上述したように「01」又は「02」である。   FIG. 3 shows an example in which data represented by each code symbol 22a, 22b, 22c, 22d, 24a, 24b, 24c, and 24d in FIG. 2 is read. As shown in FIG. 3, the first two digits of the data of each code symbol 22a, 22b, 22c, 22d, 24a, 24b, 24c, 24d are “01” or “02” as described above.

また、このシンボル群識別番号の後には、「01」又は「02」、「03」、「04」のいずれかのシンボル内番号が付されている。これらシンボル内番号は、各コードシンボルをその群内における順番を表す。   The symbol group identification number is followed by an in-symbol number of “01” or “02”, “03”, or “04”. These intra-symbol numbers represent the order of each code symbol in the group.

第3 コードシンボル読み取り結果多重表示装置の動作の詳細
以下、2個のシンボル群の内、いずれか一方の群を読み取る場合の動作の例を説明する。
Details of Operation of Third Code Symbol Reading Result Multiple Display Device Hereinafter, an example of the operation when reading one of the two symbol groups will be described.

3−1 1回目のキャプチャ動作
図4に示したフローチャートに基づき、読み取り対象の群のコードシンボルを視覚的に把握できるような動作を具体的に説明する。例えば2個の群の内、「01」群のコードシンボルを読み取る場合の動作を説明する。
3-1 First Capture Operation An operation for visually grasping the code symbol of the group to be read will be specifically described based on the flowchart shown in FIG. For example, an operation in the case of reading a code symbol of “01” group out of two groups will be described.

なお、図4中において、表示を行う動作は点線で示されている。   In FIG. 4, the display operation is indicated by a dotted line.

まず、図4中のS4−1において、キャプチャ手段12が、物品14に付されたコードシンボル20を含む画像をキャプチャする。   First, in S4-1 in FIG. 4, the capture unit 12 captures an image including the code symbol 20 attached to the article 14.

次に、自動認識手段16が、その画像の信号を受信し、表示手段18に表示する。このS4−1でキャプチャした画像を、以下、画像1と呼ぶ。本実施例において、自動認識手段16は、表示手段18に画面Aと画面Bとの2つの画面を表示する。このS4−1では、画面A及びBのいずれにも画像1が表示される。   Next, the automatic recognition means 16 receives the image signal and displays it on the display means 18. The image captured in S4-1 is hereinafter referred to as image 1. In the present embodiment, the automatic recognition means 16 displays two screens of screen A and screen B on the display means 18. In S4-1, image 1 is displayed on both screens A and B.

つまり、このS4−1において、画面A及び画面Bに双方とも画像1を表示するのは、最初の1回目だけであり、2回目のキャプチャからは、そのキャプチャした画像データ画面Aに対してのみ表示される。   That is, in S4-1, the image 1 is displayed on both the screen A and the screen B only for the first time, and from the second capture, only the captured image data screen A is displayed. Is displayed.

このように画像データはそのキャプチャした直後に画面Aに表示されるが、これは後述するようにデコードが成功したコードシンボルを表す明示枠が表示された画像データと交換される。   As described above, the image data is displayed on the screen A immediately after the capture, and this is exchanged with image data on which an explicit frame representing a code symbol that has been successfully decoded is displayed, as will be described later.

また、後述するように、画面Aは、キャプチャする度にそのキャプチャした画像が示される画面であり、画面Bは、最初にキャプチャした画面が引き続き表示される。この「最初にキャプチャした画像」(つまり、上述した画像1)を基準キャプチャ画面と呼ぶ。   Further, as will be described later, the screen A is a screen on which the captured image is shown every time it is captured, and the screen B that is captured first is continuously displayed. This “first captured image” (that is, the image 1 described above) is referred to as a reference capture screen.

次に、図4中のS4−2において、自動認識手段16が、画像1を基準キャプチャ画像として所定の記憶手段に記憶する。   Next, in S4-2 in FIG. 4, the automatic recognition unit 16 stores the image 1 as a reference capture image in a predetermined storage unit.

本実施の形態において特徴的なことは、この基準キャプチャ画像が、後のS4−4以降の動作において、キャプチャした画像(1)中のコードシンボル20の座標位置の変化量を算出するための基準の画像として用いられることである。なお、この基準キャプチャ画像は、特許請求の範囲に記載の最初に取り込んだ画像データの好適な一例に相当する。   What is characteristic in the present embodiment is that this reference capture image is a reference for calculating the amount of change in the coordinate position of the code symbol 20 in the captured image (1) in the subsequent operations after S4-4. It is used as an image. Note that this reference capture image corresponds to a preferred example of the image data captured first, as described in the claims.

次に、図4中のS4−3において、自動認識手段16が、画像1中のコードシンボル20の切り出し動作を行う。この切り出しとは、コードシンボルとであると判断された領域を抽出することである。ここで領域とは、画像データである画像1中の2次元の領域である。   Next, in S <b> 4-3 in FIG. 4, the automatic recognition unit 16 performs a cut-out operation of the code symbol 20 in the image 1. This cutout is extraction of an area determined to be a code symbol. Here, the region is a two-dimensional region in the image 1 that is image data.

画像1を所定の色彩領域に分割し、色彩領域の並びを追跡することによって、コードシンボルであると判断される色彩領域の並びを検出する。すなわち、切り出しとは、この「複数の色彩領域の並び」を切り出すことを言う。そして、複数の色彩領域はコードシンボルの色彩セルと見なされて、デコードが行われる。   The image 1 is divided into predetermined color areas, and the arrangement of the color areas determined to be code symbols is detected by tracking the arrangement of the color areas. That is, the term “cutout” refers to cutting out this “sequence of a plurality of color areas”. The plurality of color areas are regarded as color cells of the code symbol and are decoded.

次に、図4中のS4−4において、自動認識手段16が、S4−3で切り出したコードシンボル20の位置を算出する。切り出したコードシンボルは画素の集合として表現されるが、その位置としては、種々のパラメータを用いることができる。典型的には、位置として、そのコードシンボル20の座標位置を利用することが一般的である。   Next, in S4-4 in FIG. 4, the automatic recognition means 16 calculates the position of the code symbol 20 cut out in S4-3. The cut code symbol is expressed as a set of pixels, and various parameters can be used as the position. Typically, it is common to use the coordinate position of the code symbol 20 as the position.

例えば、コードシンボル20が占める領域の重心位置を求めることによって算出される。なお、ここでは「位置」と表現しているが、この「位置」には、その領域を囲む矩形領域を含めておくことが好ましい。また、望ましくは、面積が最小となるような矩形領域を求めておくことも好適である。これらの矩形は、後述する明示枠を表示する位置・向き・大きさ等に利用することができる。ここでいうコードシンボルの位置とは、このようなデータ・情報をいう。   For example, it is calculated by obtaining the barycentric position of the area occupied by the code symbol 20. Here, although expressed as “position”, it is preferable that the “position” includes a rectangular area surrounding the area. Desirably, it is also preferable to obtain a rectangular region having a minimum area. These rectangles can be used for the position, orientation, size, etc., of displaying an explicit frame described later. The position of the code symbol here refers to such data / information.

さらに、自動認識手段16は、このコードシンボル20の「位置」の情報を記憶手段に記憶する。   Further, the automatic recognition means 16 stores the “position” information of the code symbol 20 in the storage means.

次に、図4中のS4−5において、自動認識手段16が、S4−1でキャプチャした画像と、S4−2で記憶した基準キャプチャ画像とを比較し、両者の位置関係を検出する。   Next, in S4-5 in FIG. 4, the automatic recognition means 16 compares the image captured in S4-1 with the reference capture image stored in S4-2, and detects the positional relationship between them.

ここで、1回目のキャプチャにおいては、両者は当然同じ画像であるから、位置関係は0である。   Here, in the first capture, both are naturally the same image, so the positional relationship is zero.

位置関係について
この位置関係とは、3次元座標上の移動量(x軸方向の移動量、y軸方向の移動量、z軸方向の移動量)、回転角度、拡大(縮小)を表す情報である。2個の画像を比較して両者の間の移動量、回転角度、スケール(拡大・縮小)を求める手法は従来から知られているので、従来の画像処理技術を用いればこれらのパラメータを求めることが可能である。
Regarding the positional relationship, this positional relationship is information representing a movement amount on the three-dimensional coordinate (movement amount in the x-axis direction, movement amount in the y-axis direction, movement amount in the z-axis direction), rotation angle, and enlargement (reduction). is there. Methods for comparing the two images to determine the amount of movement, rotation angle, and scale (enlargement / reduction) between the two have been known so far, and these parameters can be determined using conventional image processing techniques. Is possible.

例えば、米国特許US7006706号等にこれらの技術が開示されている。   For example, US Pat. No. 7006706 discloses these techniques.

さて、本実施の形態では、キャプチャ手段12を利用者が手で持って対象物に向けて撮像を行っている。そのため、2回目以降のキャプチャにおいては、基準キャプチャ画面と異なった画像が得られる。しかし、基本的には同じ対象物を撮影しているので、これらの画像間の差異は限られた差異であり、両者を比較することによって、両画像間の移動量、回転量、スケール(拡大・縮小)を求めることが可能である。これらを本実施の形態では「位置関係」と呼ぶことは上述したとおりである。   Now, in the present embodiment, the user holds the capture unit 12 by hand and performs imaging toward the object. Therefore, in the second and subsequent captures, an image different from the reference capture screen is obtained. However, since the same object is basically photographed, the difference between these images is limited. By comparing the two, the amount of movement, rotation, and scale (enlargement) between the two images are compared.・ Reduction is possible. In the present embodiment, these are referred to as “positional relationships” as described above.

したがって、後述するが、2回目のキャプチャにおいては0ではない位置関係が求められることになる。位置関係が0(拡大・縮小はないので、スケール(拡大縮小率)は「1」となる)となるのは、最初のキャプチャだけであり、2回目以降は、非零の位置関係が得られるであろう。   Therefore, as will be described later, a non-zero positional relationship is required in the second capture. The positional relationship is 0 (there is no enlargement / reduction, so the scale (enlargement / reduction ratio) is “1”) only in the first capture, and after the second time, a non-zero positional relationship is obtained. Will.

次に、こうして求められた位置関係に基づき、S4−4で算出したコードシンボル20の位置から基準キャプチャ画像中のコードシンボルの位置を求める。この位置を求めるためのいわば補正量は、上記画像間の「位置関係」と、コードシンボル20の「位置」とから求められる。   Next, based on the positional relationship thus determined, the position of the code symbol in the reference capture image is determined from the position of the code symbol 20 calculated in S4-4. The so-called correction amount for obtaining this position is obtained from the “positional relationship” between the images and the “position” of the code symbol 20.

単純に、x方向だけの移動だけを考えると、例えば、画像がx方向にx1だけ平行移動している場合は、補正量として−x1を用いることが好適である。コードシンボル20の位置(座標)のx座標に−x1を加えた座標が、基準キャプチャ画像上のコードシンボルの位置となる。   Simply considering only movement in the x direction, for example, when the image is translated by x1 in the x direction, it is preferable to use −x1 as the correction amount. A coordinate obtained by adding −x1 to the x coordinate of the position (coordinate) of the code symbol 20 becomes the position of the code symbol on the reference capture image.

ここでは、説明を単純にするために、x座標の移動のみを説明したが、もちろん、回転や拡大・縮小も同様にある。   Here, in order to simplify the explanation, only the movement of the x coordinate has been explained, but of course there are also rotation and enlargement / reduction.

なお、基準キャプチャ画像上のコードシンボルの位置を算出するためのいわば補正量を、本実施の形態では、「位置補正係数」と呼ぶ。上述したように、この位置補正係数は平行移動だけでなく、回転、拡大縮小の補正量も含むものである。   The so-called correction amount for calculating the position of the code symbol on the reference capture image is referred to as a “position correction coefficient” in the present embodiment. As described above, this position correction coefficient includes not only the parallel movement but also the rotation and enlargement / reduction correction amounts.

さて、S4−5においては、S4−4で検出したコードシンボル20と基準キャプチャ画像中のコードシンボル20は同一の位置にあるので、位置補正係数は0となる。もちろん、これは1回目のキャプチャだけであり、2回目以降は有意な(実際に位置補正を行う)位置補正係数となる。   In S4-5, since the code symbol 20 detected in S4-4 and the code symbol 20 in the reference capture image are at the same position, the position correction coefficient is zero. Of course, this is only the first capture, and the second and subsequent times are significant (actually position correction) position correction coefficients.

次に、図4中のS4−6において、自動認識手段16が、S4−3で切り出したコードシンボル20を、色彩配列による自動認識コードの規則に基づいてデコード処理し、シンボル群識別番号とシンボル内番号とデータとを読み取る。   Next, in S4-6 in FIG. 4, the automatic recognition means 16 decodes the code symbol 20 cut out in S4-3 based on the rule of the automatic recognition code based on the color arrangement, and the symbol group identification number and the symbol Read the internal number and data.

次に、図4中のS4−7において、自動認識手段16が、シンボル群識別番号及びシンボル内番号に基づき、S4−6で得たデータから、読み取り対象のシンボル群のコードシンボルのデータのみを抽出し、別途読み取り結果を格納する記憶手段に格納する。   Next, in S4-7 in FIG. 4, the automatic recognition means 16 obtains only the code symbol data of the symbol group to be read from the data obtained in S4-6 based on the symbol group identification number and the intra-symbol number. Extracted and stored separately in storage means for storing the read result.

本実施の形態では、読み取り対象が「01」群である場合を説明している。したがって、読み取ったコードシンボルのシンボル群識別番号が「01」の場合は、このように読み取り結果が別途、読み取り結果として、結果を格納する記憶手段に格納される。一方、読み取ったコードシンボルのシンボル群識別番号が「02」である場合は、読み取り対象の群ではないと判断され、結果を格納する記憶手段に格納されない。   In the present embodiment, the case where the reading target is the “01” group is described. Accordingly, when the symbol group identification number of the read code symbol is “01”, the read result is separately stored in the storage means for storing the result as the read result. On the other hand, when the symbol group identification number of the read code symbol is “02”, it is determined that the code symbol is not a group to be read and is not stored in the storage means for storing the result.

結果を格納した記憶手段中の読み取り結果は、最終的に、表示手段等を介して利用者に提示される。   The result of reading in the storage means storing the result is finally presented to the user via the display means or the like.

S4−7においては、さらに、自動認識手段16は、データを読み取れたコードシンボルの位置に基づき、コードシンボルを囲むような矩形図形(矩形枠)を算出する。この矩形枠は、「明示枠」と呼ばれ、コードシンボルを読み取ったことを表す。   In S4-7, the automatic recognition means 16 further calculates a rectangular figure (rectangular frame) surrounding the code symbol based on the position of the code symbol from which the data has been read. This rectangular frame is called an “explicit frame” and represents that a code symbol has been read.

この矩形の図形は、このコードシンボルを囲む矩形であって、最小のものを求めることが好適である。このような枠の表示技術については、本願発明者が別途特願2007−142145号にて出願している。 This rectangular figure is a rectangle surrounding the code symbol, and it is preferable to obtain the smallest one. The inventor of the present application has separately applied for Japanese Patent Application No. 2007-142145 regarding such a frame display technique.

簡易的には、コードシンボルの領域の短径、長径を求め、それら短径及び長径をそれぞれ縦及び横とする長方形を算出してもかまわない。   For simplicity, the minor axis and major axis of the code symbol area may be obtained, and a rectangle having the minor axis and the major axis in the vertical and horizontal directions may be calculated.

また、上述したように、コードシンボルの位置として重心だけでなく、それを中心としてコードシンボルを囲むような矩形を算出しても良く、この場合は、その「位置」たる矩形をそのままなぞって矩形を形成することも好適である。   Further, as described above, not only the center of gravity as the position of the code symbol, but also a rectangle surrounding the code symbol around the center may be calculated. In this case, the rectangle that is the “position” is traced as it is. It is also preferable to form

次に、自動認識手段16は、読み取り対象のコードシンボルに対応するこの矩形図形を画像1中に、その中心位置がコードシンボルの位置と重なるように配置・挿入する。この際、この明示枠(矩形の図形)は、画像中に表れない色彩で所定の太さの線を矩形状に描くことによって挿入することが好適である。この明示枠によって、コードシンボルが読み取れたことを操作者に明示的に示すことができる。   Next, the automatic recognition means 16 arranges and inserts this rectangular figure corresponding to the code symbol to be read in the image 1 so that the center position thereof overlaps the position of the code symbol. At this time, it is preferable to insert the explicit frame (rectangular figure) by drawing a line having a predetermined thickness in a color that does not appear in the image. This explicit frame can explicitly indicate to the operator that the code symbol has been read.

このようにして、そのコードシンボルを指し示すための明示枠が画像1中に挿入されることになる。   In this way, an explicit frame for pointing to the code symbol is inserted into the image 1.

次に、自動認識手段16は、この明示枠が挿入された画像1を表示手段18に送る。表示手段18は、明示枠がコードシンボルに付された画像1を画面A側に表示する。一方、画面B側には、引き続き初期キャプチャ画面が表示される。   Next, the automatic recognition means 16 sends the image 1 with the explicit frame inserted to the display means 18. The display means 18 displays the image 1 with the explicit frame attached to the code symbol on the screen A side. On the other hand, the initial capture screen is continuously displayed on the screen B side.

したがって、1回目のキャプチャにおいては、画面Aと画面Bとは同一のキャプチャ画像が表示される。但し、画面A側においては、読み取れたコードシンボルの周囲に明示枠が挿入されている点が画面B側と異なる。   Therefore, in the first capture, the same captured image is displayed on screen A and screen B. However, the screen A side is different from the screen B side in that an explicit frame is inserted around the read code symbol.

なお、当然のことながら、明示枠がコードシンボルに付された画像1は、それまで表示されていた明示枠が付されていない画像1に代えて表示される。   As a matter of course, the image 1 in which the explicit frame is attached to the code symbol is displayed instead of the image 1 to which the explicit frame that has been displayed is not attached.

後に説明する図6(2)及び図7(2)には、2つの明示枠40a、40cがコードシンボル38a、38cにそれぞれ付された画像の例が示されている。後述する図6(2)及び図7(2)には、2つの明示枠40a、40cがコードシンボル38a、38cを囲むように挿入されている。   FIGS. 6B and 7B described later show examples of images in which two explicit frames 40a and 40c are attached to the code symbols 38a and 38c, respectively. In FIG. 6B and FIG. 7B described later, two explicit frames 40a and 40c are inserted so as to surround the code symbols 38a and 38c.

この結果、本実施の形態によれば、明示枠がコードシンボルを囲むように画像中に挿入され、表示される。したがって、操作者は、どのコードシンボルが読み取れたのか容易に知ることができる。   As a result, according to the present embodiment, the explicit frame is inserted and displayed in the image so as to surround the code symbol. Therefore, the operator can easily know which code symbol has been read.

次に、図4中のS4−8において、自動認識手段16が、S4−7で抽出したデータと、S4−5で算出した位置補正係数とを記憶手段に記憶する。   Next, in S4-8 in FIG. 4, the automatic recognition unit 16 stores the data extracted in S4-7 and the position correction coefficient calculated in S4-5 in the storage unit.

このように、S4−1からS4−8までの動作は、主として画像1に関して行われる。   As described above, the operations from S4-1 to S4-8 are mainly performed on the image 1.

自動認識手段の構成
ここで、本実施の形態に係る自動認識手段16の構成について、図5に基づき説明する。自動認識手段16は、コンピュータから構成され、機能的には以下のような手段から構成される。
Configuration of Automatic Recognition Unit Here, the configuration of the automatic recognition unit 16 according to the present embodiment will be described with reference to FIG. The automatic recognition means 16 is composed of a computer and functionally composed of the following means.

図5に示されるように、自動認識手段16は、CPU26と、キャプチャ手段インターフェース28と、表示手段インターフェース30と、基準キャプチャ画像記憶手段32と、記憶手段34とを備える。   As shown in FIG. 5, the automatic recognition unit 16 includes a CPU 26, a capture unit interface 28, a display unit interface 30, a reference capture image storage unit 32, and a storage unit 34.

キャプチャ手段インターフェース28は、CPU26とキャプチャ手段12とを接続する。キャプチャ手段12がキャプチャした画像は、キャプチャ手段インターフェース28を介してCPU26に送られる。   The capture unit interface 28 connects the CPU 26 and the capture unit 12. The image captured by the capture unit 12 is sent to the CPU 26 via the capture unit interface 28.

表示手段インターフェース30は、CPU26と表示手段18とを接続する。CPU26が送信する信号は、CPU26が備えるバッファに蓄えられ、表示手段インターフェース30を介して、表示手段18の画面A又は画面Bに送信される。なお、CPU26が備えるバッファは、図5中には示されていない。   The display means interface 30 connects the CPU 26 and the display means 18. The signal transmitted by the CPU 26 is stored in a buffer provided in the CPU 26 and is transmitted to the screen A or the screen B of the display unit 18 through the display unit interface 30. Note that the buffer included in the CPU 26 is not shown in FIG.

表示手段18は例えば液晶ディスプレイ等であり、その表示画面中には、キャプチャ画像を示すためのウィンドウが設けられている。それぞれを画面A、画面Bと呼ぶことは上述したとおりである。画面Aは、キャプチャした画像をその都度表示していく画面であり、上述したように適宜明示枠が挿入されて表示される。一方、画面Bは、基準キャプチャ画面が表示されている。   The display means 18 is, for example, a liquid crystal display, and a window for displaying a captured image is provided in the display screen. As described above, the screen A and the screen B are called respectively. Screen A is a screen that displays captured images each time, and is displayed with appropriate explicit frames inserted as described above. On the other hand, the screen B displays the reference capture screen.

基準キャプチャ画像記憶手段32は、基準キャプチャ画像を記憶する機能を備える。上で述べたS4−2において、CPU26は、画像1を基準キャプチャ画像として、この基準キャプチャ画像記憶手段32に記憶する。また、記憶手段34は、その都度キャプチャしたキャプチャ画像と、位置補正係数と、データと、コードシンボルの位置と、明示枠の座標位置とを記憶する機能を備える。   The reference capture image storage unit 32 has a function of storing a reference capture image. In S4-2 described above, the CPU 26 stores the image 1 in the reference capture image storage unit 32 as a reference capture image. Further, the storage unit 34 has a function of storing the captured image, the position correction coefficient, the data, the position of the code symbol, and the coordinate position of the explicit frame each time.

図5に示されるように、記憶手段34内には、記憶領域がテーブルを形成している。CPU26は、このテーブルの記憶領域のうち1回目のキャプチャ動作に対応する、第1行目の記憶領域に、キャプチャ画像と、位置補正係数と、データと、コードシンボルの位置と、明示枠の座標位置とがそれぞれ格納される。   As shown in FIG. 5, the storage area forms a table in the storage unit 34. The CPU 26 stores the captured image, the position correction coefficient, the data, the position of the code symbol, and the coordinates of the explicit frame in the storage area of the first row corresponding to the first capture operation in the storage area of this table. Each position is stored.

なお、基準キャプチャ画像記憶手段32、記憶手段34は、別体であるように図では示されているが、1個の記憶手段の中に2個の記憶手段が設けられていても良い。   Although the reference capture image storage unit 32 and the storage unit 34 are shown in the figure as being separate, two storage units may be provided in one storage unit.

3−2 2回目以降のキャプチャ動作
続けて、自動認識手段は、以下に述べるS4−9からS4−15までの動作を繰り返し実行し、連続的にキャプチャ動作並びにそれに伴うデコード処理を実行する。
3-2 Following the second and subsequent capture operations , the automatic recognition means repeatedly executes the operations from S4-9 to S4-15 described below, and continuously executes the capture operation and the accompanying decoding process.

まず、図4中のS4−9において、キャプチャ手段12が、2回目のキャプチャ動作を行い、キャプチャした画像を自動認識手段16に送る。自動認識手段16は、受信した画像を表示手段18に送り、キャプチャした画像を画面Aに表示する。この2回目のキャプチャ動作で取得した画像を、以下、画像2と呼ぶ。なお、画面Bには、そのまま基準キャプチャ画像(画像1)が表示される。   First, in S <b> 4-9 in FIG. 4, the capture unit 12 performs a second capture operation and sends the captured image to the automatic recognition unit 16. The automatic recognition means 16 sends the received image to the display means 18 and displays the captured image on the screen A. Hereinafter, the image acquired by the second capture operation is referred to as an image 2. Note that the reference capture image (image 1) is displayed on the screen B as it is.

次に、図4中のS4−10において、自動認識手段16が、画像2中のコードシンボル20の切り出し動作を行う。   Next, in S4-10 in FIG. 4, the automatic recognition unit 16 performs a cut-out operation of the code symbol 20 in the image 2.

次に、図4中のS4−11において、自動認識手段16が、S4−10で切り出したコードシンボル20の位置を算出する。この位置は、上で述べたのと同様に、そのコードシンボル20の座標位置その他の情報である。例えば、コードシンボル20が占める領域の重心を求めることも好ましい。   Next, in S4-11 in FIG. 4, the automatic recognition means 16 calculates the position of the code symbol 20 cut out in S4-10. This position is the coordinate position of the code symbol 20 and other information as described above. For example, it is also preferable to obtain the center of gravity of the area occupied by the code symbol 20.

次に、自動認識手段16は、このコードシンボル20の位置の情報を、所定の記憶手段34の上から第2行目の記憶領域に記憶する(図5参照)。   Next, the automatic recognition unit 16 stores the information on the position of the code symbol 20 in the storage area of the second row from above the predetermined storage unit 34 (see FIG. 5).

次に、図4中のS4−12において、自動認識手段16は、今回キャプチャした画像2と、基準キャプチャ画像とを比較して、位置補正係数を算出する。   Next, in S4-12 in FIG. 4, the automatic recognition means 16 calculates the position correction coefficient by comparing the image 2 captured this time with the reference capture image.

この位置補正係数は、1回目のキャプチャ時から2回目のキャプチャ時までの間に、画像がどのように動いたかを示す係数であり、平行移動、回転、スケール(拡大・縮小)などのパラメータから構成されることは既に述べたとおりである。   This position correction coefficient is a coefficient indicating how the image has moved between the first capture time and the second capture time, and is based on parameters such as translation, rotation, and scale (enlargement / reduction). As described above, it is configured.

次に、図4中のS4−13において、自動認識手段16が、S4−10で切り出したコードシンボル20を、色彩配列による自動認識コードに基づいてデコード処理し、シンボル群識別番号とシンボル内番号とデータとを読み取る。   Next, in S4-13 in FIG. 4, the automatic recognition means 16 decodes the code symbol 20 cut out in S4-10 based on the automatic recognition code based on the color arrangement, and the symbol group identification number and the intra-symbol number And read data.

本実施の形態において特徴的なことは、読み取れたコードシンボルの明示枠を基準キャプチャ画像上における位置を算出したことである。この結果、デコードが成功したコードシンボルの明示枠を基準キャプチャ画像上で表示することが可能となる。   What is characteristic in this embodiment is that the position of the read code symbol on the reference capture image is calculated. As a result, it is possible to display the explicit frame of the code symbol that has been successfully decoded on the reference capture image.

この算出動作は、後述するように、所定回数のキャプチャが終了した後にまとめて行われるが、キャプチャの度に求めても良い。画像キャプチャの度に求める場合は、下記に示すような算出をその都度行い、記憶手段34に「補正後の明示枠の座標」なる新しい項目を付加して、そこに求めた新しい座標値等を格納することが好ましい。   As will be described later, this calculation operation is performed collectively after a predetermined number of captures have been completed, but may be obtained for each capture. When obtaining each time an image is captured, the following calculation is performed each time, and a new item “Coordinates of an explicit frame after correction” is added to the storage means 34, and the obtained new coordinate values and the like are added thereto. Preferably stored.

さて、自動認識手段16は、上述した位置補正係数に基づいて、2回目のキャプチャ動作時に読み取ったコードシンボルが、1回目のキャプチャ画像(基準キャプチャ画像)中のどの位置に相当するかを算出する。   The automatic recognition unit 16 calculates which position in the first captured image (reference capture image) the code symbol read during the second capture operation corresponds to based on the position correction coefficient described above. .

位置補正係数は、基本的には、画像間の位置関係を示すパラメータであるが、それを明示枠に適用して、基準キャプチャ画像上での明示枠の位置(向き・大きさ等)を算出する。ここで、明示枠の「位置」と呼んだが、この「位置」は、いわゆる座標(例えば中心点の座標、矩形の明示枠である場合はその四隅の点の座標、重心点の座標など)の値の他に、向き、大きさ、矩形の明示枠の縦辺と横辺の長さ、等を含めてもかまわない。   The position correction coefficient is basically a parameter that indicates the positional relationship between images, but it is applied to the explicit frame to calculate the position (direction, size, etc.) of the explicit frame on the reference capture image. To do. Here, the “position” of the explicit frame is called “position”. This “position” is a so-called coordinate (for example, the coordinates of the center point, the coordinates of the four corners in the case of a rectangular explicit frame, the coordinates of the barycentric point, etc.). In addition to the values, you may include the orientation, size, and lengths of the vertical and horizontal sides of the rectangular explicit frame.

例えば、中心座標と、四隅の座標とを「位置」として扱うのが典型的な好ましい例である。また、中心座標と、縦と横の長さと向き(方位)とを「位置」として扱うのも好適である。要するに、矩形枠を表示する位置と向き・大きさが明確にするようなパラメータであればどのようなものでも良い。   For example, it is a typical preferable example to treat the center coordinates and the coordinates of the four corners as “positions”. It is also preferable to treat the center coordinates, vertical and horizontal lengths, and orientations (azimuths) as “positions”. In short, any parameters may be used as long as the position, direction, and size of the rectangular frame are clarified.


ここでは、明示枠について算出したが、コードシンボルについて基準キャプチャ画像上の位置(向き、大きさ)等を求めて、新しく求めたコードシンボルについて明示枠を算出しても良い。例えば、コードシンボルの重心位置の縦軸方向及び横軸方向の移動量、回転角度、回転の中心点の座標、拡大倍率などのパラメータを、画像2上のコードシンボルの各画素に適用すれば、各画素の基準キャプチャ画像上における位置が求められる。それらの新しい画素の集合が、基準キャプチャ画像上で求めたコードシンボルである。

Although the explicit frame is calculated here, the explicit frame may be calculated for the newly obtained code symbol by obtaining the position (orientation and size) on the reference capture image for the code symbol. For example, if parameters such as the movement amount of the center of gravity of the code symbol in the vertical and horizontal directions, the rotation angle, the coordinates of the center point of rotation, and the magnification ratio are applied to each pixel of the code symbol on the image 2, The position of each pixel on the reference capture image is obtained. A set of these new pixels is a code symbol obtained on the reference capture image.

本実施の形態では、これら画像間の関係を示すパラメータをまとめて位置補正係数と総称している。   In the present embodiment, parameters indicating the relationship between these images are collectively referred to as a position correction coefficient.

画像間の位置関係パラメータとしては、上述したように、平行移動(x座標方向とy座標方向)、回転(中心座標と、回転の向きと回転量)、スケーリング(いわゆる倍率、縮尺であり、等倍すなわち大きさが変わらない場合は「1」であるが、大きくなる場合は1超の値であり、縮小の場合は1未満の値となる)等のパラメータが好適である。   As described above, the positional relationship parameters between images include parallel movement (x coordinate direction and y coordinate direction), rotation (center coordinate, rotation direction and rotation amount), scaling (so-called magnification, scale, etc.) A parameter such as “1” when the magnification, that is, the size does not change, is “1”, but when it becomes larger, it becomes less than 1 when it is reduced.

ここでは、画像が歪む場合(菱形のようにねじれて変形することなどを含む)は考慮していない。撮像で無視できない歪みが生じることは一般的には考えにくいからである。しかし、用途によっては、歪みをパラメータとして導入してもかまわない。   Here, no consideration is given to a case where the image is distorted (including a case where the image is twisted and deformed like a diamond). This is because it is generally difficult to imagine distortion that cannot be ignored in imaging. However, depending on the application, distortion may be introduced as a parameter.

また、スケーリング(拡大・縮小)の代わりに、これを奥行き方向の(いわゆるz方向の)平行移動と考えて、平行移動のパラメータの一種として取り扱ってもよい。用途によっては、x軸、y軸、z軸で考えた方がわかりやすい場合もあるからである。   Further, instead of scaling (enlargement / reduction), this may be regarded as a translation in the depth direction (so-called z direction) and handled as a kind of translation parameter. This is because, depending on the application, it may be easier to understand when considering the x-axis, y-axis, and z-axis.

その他、用途に応じて種々のパラメータを採用可能であり、画像間の関係を示すパラメータ、演算子であればどのようなパラメータでもかまわない。   In addition, various parameters can be adopted depending on the application, and any parameters and operators indicating the relationship between images may be used.

このように、本実施の形態では、キャプチャ毎に読み取れたコードシンボルの明示枠の位置を、基準キャプチャ画像上の位置に変換しているので、読み取れたコードシンボルを(その明示枠に基づいて)基準キャプチャ画像上で容易に視認・確認することが可能である。   In this way, in the present embodiment, the position of the explicit frame of the code symbol read for each capture is converted to the position on the reference capture image, so that the read code symbol (based on the explicit frame) is converted. It is possible to easily view and confirm on the reference capture image.

次に、図4中のS4−14において、自動認識手段16が、シンボル群識別番号及びシンボル内番号を読み取ると共に、S4−13で得たデータから読み取り対象のコードシンボルのデータを抽出する。   Next, in S4-14 in FIG. 4, the automatic recognition means 16 reads the symbol group identification number and the intra-symbol number, and extracts the data of the code symbol to be read from the data obtained in S4-13.

次に、自動認識手段16は、データを読み取れたコードシンボルに対して、上のS4−7で述べたのと同様に、矩形図形を重ねて配置し、この矩形図形を配置した画像を表示手段18に送る。したがって、表示手段18は、2回目のキャプチャ動作において読み取れたコードシンボルに明示枠が付された画像Aを表示することになる。   Next, the automatic recognizing means 16 arranges the rectangular figure on the code symbol from which the data has been read in the same manner as described in S4-7 above, and displays the image on which the rectangular figure is arranged as the display means. Send to 18. Therefore, the display means 18 displays the image A in which an explicit frame is added to the code symbol read in the second capture operation.

この結果、本実施の形態によれば、明示枠が、キャプチャ動作を行う毎に、読み取れたコードシンボルに付され、その画像が画面Aに表示されるので、操作者は、キャプチャ動作を行う毎に、どのコードシンボルが読み取れたのか容易に知ることができる。   As a result, according to the present embodiment, every time the capture operation is performed, the explicit frame is attached to the read code symbol, and the image is displayed on the screen A. Therefore, the operator performs the capture operation every time the capture operation is performed. In addition, it is easy to know which code symbol has been read.

次に、図4中のS4−15において、自動認識手段16は、S4−14で読み取ったデータと、S4−12で算出した位置補正係数とを記憶手段に記憶する。   Next, in S4-15 in FIG. 4, the automatic recognition unit 16 stores the data read in S4-14 and the position correction coefficient calculated in S4-12 in the storage unit.

以上述べたS4−9からS4−15までのステップが、2回目のキャプチャ動作に相当する。この2回目のキャプチャ動作を終えたとき、図5中の記憶領域34の上から2行目の5つの領域群には、画像2と、S4−12で算出した位置補正係数と、S4−14で抽出したデータと、S4−11で算出したコードシンボルの位置と、S4−14で算出した明示枠の座標位置とが新たに記憶される。   The steps from S4-9 to S4-15 described above correspond to the second capture operation. When the second capture operation is finished, the five regions in the second row from the top of the storage region 34 in FIG. 5 include the image 2, the position correction coefficient calculated in S4-12, and S4-14. In step S4-11, the data extracted in step S4-11, the code symbol position calculated in step S4-11, and the coordinate position of the explicit frame calculated in step S4-14 are newly stored.

なお、本実施例において、自動認識手段16は、明示枠の位置に関する情報として、明示枠の長辺及び短辺の長さ、明示枠の頂点の座標、明示枠の長辺の座標軸に対する角度などの情報を記憶する。なお、本実施の形態では、簡単のため、これらの情報をまとめて明示枠の座標位置と呼ぶ。   In this embodiment, the automatic recognition means 16 uses the explicit frame position information as long side and short side lengths, explicit frame vertex coordinates, explicit frame long side angle with respect to the coordinate axis, etc. The information is memorized. In the present embodiment, for simplicity, these pieces of information are collectively referred to as the coordinate position of the explicit frame.

また、3回目のキャプチャ動作として、上で述べたS4−9からS4−15までの動作が行われ、図5中の記憶手段34の上から3行目の5つの領域群に、画像3と、位置補正係数と、データと、コードシンボルの位置と、明示枠の位置が記憶され、以降、n(nは4以上の整数)回目のキャプチャ動作としても同様の動作が行われる。   Further, as the third capture operation, the above-described operations from S4-9 to S4-15 are performed, and the image 3 and the image 3 and the third region in the third row from the top of the storage unit 34 in FIG. The position correction coefficient, the data, the position of the code symbol, and the position of the explicit frame are stored, and thereafter the same operation is performed as the n-th (n is an integer of 4 or more) capture operation.

3−3 キャプチャ動作終了後の結果の表示
このように、本実施の形態においては、複数回のキャプチャを行い、その都度コードシンボルのデコードを行う。そして、所定の終了の条件が満たされた場合に、キャプチャを終了し、以下のような明示枠の位置の補正とその表示に関する処理を開始する。
3-3 Display of Result After End of Capture Operation As described above, in this embodiment, capture is performed a plurality of times, and the code symbol is decoded each time. Then, when a predetermined termination condition is satisfied, the capture is terminated, and the following processing regarding the correction of the position of the explicit frame and the display thereof is started.

上述したように、本実施の形態では原則としてこの補正を全てのキャプチャ動作終了後に行ったが、キャプチャ動作毎に実行しておきその結果を記憶しておくことも好適である。特にコードシンボルの数が多い場合は、キャプチャ毎に行った方が演算速度的に早い結果が得られる可能性もある。   As described above, in the present embodiment, in principle, this correction is performed after completion of all the capture operations. However, it is also preferable to execute the correction every capture operation and store the result. In particular, when the number of code symbols is large, there is a possibility that a result obtained by performing each capture is faster in terms of calculation speed.

まず、読み取り動作を終了する条件が成立した場合に、自動認識手段16は、以下に述べるS4−16からS4−18までの動作を行う。   First, when the condition for ending the reading operation is satisfied, the automatic recognition means 16 performs the operations from S4-16 to S4-18 described below.

まず、図4中のS4−16において、自動認識手段16が、1回目からm回目までのキャプチャ動作で記憶手段34に記憶した情報を読み出す。mはその時点までに行ったキャプチャの回数である。   First, in S4-16 in FIG. 4, the automatic recognition means 16 reads out the information stored in the storage means 34 by the first to m-th capture operations. m is the number of captures performed so far.

3−3−1 明示枠の補正と基準キャプチャ画像への挿入
この読み出し動作等について、図6に基づき、さらに詳しく説明する。
3-3-1 Correction of Explicit Frame and Insertion into Reference Capture Image This read operation and the like will be described in more detail with reference to FIG.

図6(1)には、自動認識手段16が、基準キャプチャ画像記憶手段32から読み出した基準キャプチャ画像36が示されている。この基準キャプチャ画像36には、図6(1)に示されるように、コードシンボル38a、38b、38c、38d、38e、38fが含まれている。   FIG. 6A shows a reference capture image 36 read by the automatic recognition unit 16 from the reference capture image storage unit 32. As shown in FIG. 6A, the reference capture image 36 includes code symbols 38a, 38b, 38c, 38d, 38e, and 38f.

次に、自動認識手段16は、図5中の記憶手段34の上から1行目に記憶された5つの情報(画像1、位置補正係数、データ、コードシンボルの位置、明示枠の座標位置)を読み出す。   Next, the automatic recognition means 16 has five pieces of information (image 1, position correction coefficient, data, code symbol position, and explicit frame coordinate position) stored in the first line from the top of the storage means 34 in FIG. Is read.

次に、自動認識手段16は、読み出した位置補正係数と明示枠の座標位置とに基づいて、明示枠の位置を補正し、明示枠を基準キャプチャ画像36に挿入する。   Next, the automatic recognition unit 16 corrects the position of the explicit frame based on the read position correction coefficient and the coordinate position of the explicit frame, and inserts the explicit frame into the reference capture image 36.

この補正・挿入については、上で詳述したとおりである。本実施の形態では、このように、明示枠を基準キャプチャ画像上に表示するために補正するが、その補正動作を、全てのキャプチャ動作を終了した後に行っている。もちろん、用途によっては、キャプチャする度にこの補正・挿入を行うことも好適である。   This correction / insertion is as described in detail above. In this embodiment, correction is performed in order to display the explicit frame on the reference capture image as described above, but the correction operation is performed after all the capture operations are completed. Of course, depending on the application, it is also preferable to perform this correction / insertion every time the image is captured.

図6(2)には、自動認識手段16が、基準キャプチャ画像36に明示枠40a、40cを挿入して作成した画像42が示されている。   6 (2) shows an image 42 created by the automatic recognition means 16 by inserting explicit frames 40a and 40c into the reference capture image 36. FIG.

続いて、自動認識手段16は、図5中の記憶手段34の上から2行目の領域群に記憶された情報群(画像2、位置補正係数、データ、コードシンボルの位置、明示枠の座標位置)を読み出す。   Subsequently, the automatic recognition means 16 stores information groups (image 2, position correction coefficient, data, code symbol position, explicit frame coordinates) stored in the area group in the second row from the top of the storage means 34 in FIG. Position).

そして、同様に、明示枠の位置(向き、大きさ等も含む)を補正して、基準キャプチャ画像上の位置に変換して、変換後の明示枠を基準キャプチャ画像に挿入する。このようにして、画像42に(補正後の)明示枠40b、40eを新たに挿入した画像44を作成する。   Similarly, the position (including direction, size, etc.) of the explicit frame is corrected and converted into a position on the reference capture image, and the converted explicit frame is inserted into the reference capture image. In this way, an image 44 in which the explicit frames (40b and 40e) (after correction) are newly inserted into the image 42 is created.

同様に、自動認識手段16は、図5中の記憶手段34の上から3行目までの領域群に記憶された情報群(画像、位置補正係数、データ、コードシンボルの位置、明示枠の座標位置)を読み出し、明示枠を修正し、画像44に明示枠を新たに挿入する。   Similarly, the automatic recognizing means 16 uses the information group (image, position correction coefficient, data, code symbol position, explicit frame coordinates) stored in the area group from the top to the third line of the storage means 34 in FIG. Position), the explicit frame is corrected, and an explicit frame is newly inserted into the image 44.

以下、同様に、3行〜m行目まで同様の処理を繰り返し、一度でも読み取れたコードシンボルに関してはその明示枠が基準キャプチャ画像に挿入されるのである。   Hereinafter, similarly, the same processing is repeated from the 3rd to m-th lines, and an explicit frame is inserted into the reference capture image for a code symbol that has been read even once.

このように、自動認識手段16が、図5の記憶手段34に記憶された情報に基づき、明示枠を補正して基準キャプチャ画像に挿入した。その結果、図6(4)に示されるように、読み取ったコードシンボルに明示枠40a、40b、40c、40d、40eが付された画像46が得られる。   In this way, the automatic recognition unit 16 corrects the explicit frame based on the information stored in the storage unit 34 of FIG. 5 and inserts it into the reference capture image. As a result, as shown in FIG. 6 (4), an image 46 in which the read code symbols are provided with explicit frames 40a, 40b, 40c, 40d, and 40e is obtained.

3−3−2 明示枠を挿入された基準キャプチャ画像の表示
次に、図4中のS4−17において、自動認識手段16が、画像46を表示手段18の画面Bに表示する。
3-3-2 Display of Reference Capture Image with Explicit Frame Inserted Next, in S4-17 in FIG. 4, the automatic recognition means 16 displays the image 46 on the screen B of the display means 18.

さらに、図4中のS4−18において、自動認識手段16は、S4−16で読み出した「データ」を、表示手段18に表示する。なお、データは、あるシンボル群中の各コードシンボルが表すデータを合成することによって得られる。例えば、
シンボル群「01」中の「01」コードシンボルのデータが「1234」で、
シンボル群「01」中の「02」コードシンボルのデータが「5678」で、
シンボル群「01」中の「03」コードシンボルのデータが「9012」で、
シンボル群「01」中の「04」コードシンボルのデータが「3456」である場合は、合成後の「データ」は「12134567890123456」となる。この最終的な合成後のデータが表示されるのである。
Furthermore, in S4-18 in FIG. 4, the automatic recognition means 16 displays the “data” read in S4-16 on the display means 18. The data is obtained by combining data represented by each code symbol in a certain symbol group. For example,
The data of the “01” code symbol in the symbol group “01” is “1234”.
The data of the “02” code symbol in the symbol group “01” is “5678”.
The data of the “03” code symbol in the symbol group “01” is “9012”.
When the data of the “04” code symbol in the symbol group “01” is “3456”, the “data” after synthesis is “1213567890123456”. The final synthesized data is displayed.

データを合成する手法は「分割」の手法と表裏一体であり実質的には同一の技術である。従来から知られている種々のデータ分割の手法を利用することがもちろん可能であり、その手法に応じて合成も行われる。例えば、エラー訂正技術が用いられてデータ分割されている場合には、分割コードシンボルが全て読み取れなくても、データを再現・合成することができる場合がある。   The method of synthesizing data is essentially the same technology as the “division” method. It is of course possible to use various conventionally known data division methods, and synthesis is also performed according to the method. For example, when data is divided using an error correction technique, there are cases where data can be reproduced and synthesized even if all the divided code symbols cannot be read.

また、データを表示する際に、そのデータは、基準キャプチャ画像36中の各明示枠と関連付けて表示することが好ましい。これによって、どのコードシンボルがどのデータとなったのかを操作者は容易に知ることができる。   Further, when displaying data, the data is preferably displayed in association with each explicit frame in the reference capture image 36. Thus, the operator can easily know which code symbol becomes which data.

なお、同一のコードシンボルに対して複数個の情報が存在する場合がある。すなわち、一個の(分割)コードシンボルに対して、記憶手段34中に複数の行が作成される場合が生じる。   There may be a plurality of pieces of information for the same code symbol. That is, a plurality of rows may be created in the storage unit 34 for one (divided) code symbol.

これは、当然、読みやすいデコードしやすい分割コードシンボルであれば、キャプチャ毎にデコードされ、そのたびに、記憶手段34中に行が作成されていくことから見ても一般的に生じる事項である。これらが同じコードシンボルから生成された情報であることは、(1)デコードされたデータが同一である、(2)(補正後の)明示枠の位置が同一・ほとんど同じである、等から比較的容易に判明する。   Naturally, this is a matter that generally occurs from the viewpoint that if a divided code symbol that is easy to read and easy to decode is decoded at each capture, a row is created in the storage means 34 each time. . The fact that these are information generated from the same code symbol is compared because (1) the decoded data is the same, (2) the position of the explicit frame (after correction) is the same or almost the same, etc. It turns out easily.

この場合は、それら複数の行の情報から、例えば、位置補正係数が最も小さい情報を選択する等の絞り込みを行っても良い。また、複数の行の情報に基づき、それぞれ明示枠を全て表示することも問題はあまりない。それら全ての明示枠は多くの場合、ほとんど同じ位置・向き・大きさとなるであろうから、全ての明示枠を表示してしまっても、視認性が悪くなるわけでもなく、特段の問題は生じないであろう。   In this case, narrowing down such as selecting information having the smallest position correction coefficient from the information of the plurality of rows may be performed. Moreover, there is not much problem in displaying all the explicit frames based on the information of a plurality of lines. All of these explicit frames will likely have almost the same position, orientation, and size, so even if all of the explicit frames are displayed, the visibility will not deteriorate and a special problem will arise. There will be no.

第4 読み取り動作を終了するタイミングについて
読み取り動作を終了するタイミング、すなわち、画像キャプチャを終了するタイミングの決定には、種々の手法がある。
Regarding the timing to end the fourth reading operation, there are various methods for determining the timing to end the reading operation, that is, the timing to end the image capture.

本実施の形態では、これまで説明してきたように、画像のキャプチャに始まり、明示枠が付された画像データの表示に至る一連の処理を繰り返し実行している。   In the present embodiment, as described above, a series of processes starting from image capture and displaying image data with an explicit frame are repeatedly executed.

この繰り返し処理は所定の条件が成立した場合に終了するが、その終了タイミングは、以下のようなタイミングが好ましい。このような条件が成立した場合には、画像データの表示処理が終了した後、新たな画像データのキャプチャは行われずに、上述した「3−3 キャプチャ動作終了後の結果の表示」の処理に進む。以下、繰り返し処理を終了する条件(タイミング)を種々説明する。   This repetitive process ends when a predetermined condition is satisfied, and the end timing is preferably as follows. When such a condition is satisfied, after the image data display process is completed, new image data is not captured, and the above-described process of “3-3 Displaying Results After End of Capture Operation” is performed. move on. Hereinafter, various conditions (timing) for ending the repetitive processing will be described.

4−1 手動による指示
第1に考えられるのは、操作者が指示することである。すなわち、画面A、画面Bを見ながら、所望のコードシンボルが全て読み取られたと判断した場合には、利用者が所定のボタンを押下する、又は画面の所定部位をクリックする等の何らかの操作によって、終了を指示できる用に構成することが好ましい。
4-1 Manual instruction The first possibility is that the operator gives an instruction. That is, when it is determined that all the desired code symbols have been read while viewing screen A and screen B, the user presses a predetermined button or clicks a predetermined part of the screen, It is preferable to be configured so that the end can be instructed.

典型的には、「キャンセル」等の名称のボタンを画面上に設けて、このボタンをクリックする等の操作が、一般的な「中断」「中止」の操作として知られているので、本実施の形態でもこのような操作で、読み取りの中止を利用者が指示できる用に構成することが好ましい。   Typically, a button with a name such as “Cancel” is provided on the screen, and an operation such as clicking this button is known as a general “Suspend” or “Cancel” operation. It is preferable that the configuration is configured so that the user can instruct to stop reading by such an operation.

4−2 予め定めた時間の経過
まず、読み取り動作の開始時を基準にして、終了するまでの時間を区切るという方法がある。具体的には、例えば、読み取り動作の開始時から1分間だけ読み取り動作を行い、1分経過したときに、読み取り動作を終了するのである。
4-2 Elapse of a Predetermined Time First, there is a method in which the time until completion is divided based on the start time of the reading operation. Specifically, for example, the reading operation is performed for one minute from the start of the reading operation, and the reading operation is ended when one minute has elapsed.

4−3 所望の群を全て読み取った時点
また、上で述べたシンボル群識別番号を用いて、読み取り動作を終了することもできる。例えば、図2中の2つのシンボル群を読み取る場合に、最初の2桁が「01」及び「02」であるデータを全て読み取ったときに読み取り動作を終了するのである。これによって「01」群と「02」群の双方の群のデータを確実に読み取ることができる。
4-3 When all desired groups have been read In addition, the reading operation can be terminated using the symbol group identification number described above. For example, when the two symbol groups in FIG. 2 are read, the reading operation ends when all the data whose first two digits are “01” and “02” are read. As a result, the data of both the “01” group and the “02” group can be reliably read.

また、上で述べたシンボル内番号を用いて、読み取り動作を終了することもできる。例えば、「01」群内のシンボル内番号が「01」「02」「03」「04」であるデータを全て読み取ったときに読み取り動作を終了するのである。これによって、「01」群内の全てのデータを確実に読み取ることができ、データを確実に得ることができる。   Further, the reading operation can be ended using the intra-symbol number described above. For example, the reading operation is terminated when all the data in the “01” group whose symbol numbers are “01”, “02”, “03”, and “04” are read. As a result, all the data in the “01” group can be reliably read, and the data can be reliably obtained.

4−4 データのデコードが成功した時点
また、このシンボル内番号と誤り訂正機能とを組み合わせて、読み取り動作を終了することもできる。例えば、「01」群の中のシンボル内番号が「01」「03」「04」であるデータのみを読み取れた場合には、その読み取れたデータから誤り訂正計算によってシンボル内番号が「02」であるデータを復元したときに読み取り動作を終了するのである。すなわち、「01」群の中の3個のコードシンボルを読み取れ、残りの1個のコードシンボルを読み取れなくてもデータを復元できるので、効率的な読み取り動作を実現できる。
4-4 When Decoding of Data is Successful Also, the reading operation can be completed by combining the in-symbol number and the error correction function. For example, when only the data with the in-symbol number “01”, “03”, “04” in the “01” group can be read, the in-symbol number is “02” by error correction calculation from the read data. The reading operation is terminated when certain data is restored. That is, three code symbols in the “01” group can be read and data can be restored without reading the remaining one code symbol, so that an efficient reading operation can be realized.

4−5 終了コードを表すコードシンボルが読み取れた時点
また、所定の終了コードを定めておくことも好ましい。あるコードシンボルを読み取り、そのデータが終了コードである場合には、繰り返し処理は終了し、新たなキャプチャを行わないのである。これは、データによって終了するタイミングを変えたい場合等、自動認識コード側から、終了をコントロールしたい場合に好適な手法である。
4-5 When a code symbol representing an end code is read It is also preferable to determine a predetermined end code. When a certain code symbol is read and the data is an end code, the repetitive processing is ended and no new capture is performed. This is a suitable method when it is desired to control the end from the automatic recognition code side, such as when the end timing is changed by data.

第5 表示画面の表示例
図7には、コードシンボルの読み取りを行う際の各動作ステップにおける表示画面が示されている。以下に述べるのは、上述した画面A、画面Bの表示の様子である。それぞれ、時系列で画面の様子を示している。画面Aは、時間の経過と共に画面A1、A2、A3、A4、A5と変化していき、画面Bは、時間の経過と共に、画面B1、B2、B3、B4、B5と変化していく。
Display Example of Fifth Display Screen FIG. 7 shows a display screen at each operation step when reading a code symbol. The following describes how the screen A and the screen B are displayed. Each shows the state of the screen in time series. Screen A changes to screens A1, A2, A3, A4, and A5 over time, and screen B changes to screens B1, B2, B3, B4, and B5 over time.

まず、図7(1)に示される画面A1及びB1は、デコード処理の開始時の画面である。これら画面A1及びB1は、上で述べたS4−1からS4−6までの動作を行う間に表示される画面である。図7(1)に示されるように、デコード処理の開始時には、画面A1及びB1のいずれにも、1回目のキャプチャ画像(基準キャプチャ画像)が表示される。   First, screens A1 and B1 shown in FIG. 7A are screens at the start of the decoding process. These screens A1 and B1 are screens displayed during the operations from S4-1 to S4-6 described above. As shown in FIG. 7A, at the start of the decoding process, the first captured image (reference capture image) is displayed on both screens A1 and B1.

次に、図7(2)に示される画面A2及びB2は、上で述べたS4−7からS4−8までの動作を行う間に表示される画面である。本実施の形態においては、撮影者がキャプチャ手段を手で持ってコードシンボルをキャプチャしているので、画面A2は、移動、回転、拡大(縮小)も起きている。これが画面A2に表れている。   Next, screens A2 and B2 shown in FIG. 7B are screens displayed during the operations from S4-7 to S4-8 described above. In the present embodiment, since the photographer captures the code symbol by holding the capture means by hand, the screen A2 is also moved, rotated, and enlarged (reduced). This appears on screen A2.

また、図7(2)に示されるように、画面A2中のコードシンボル38a、38cには、データが読み取れたことを示す明示枠40a、40cが付される。これは、画面A2中、デコードが成功したのがコードシンボル38a、38cであることを意味している。   As shown in FIG. 7B, the code symbols 38a and 38c in the screen A2 are provided with explicit frames 40a and 40c indicating that the data has been read. This means that the code symbols 38a and 38c are successfully decoded in the screen A2.

一方、画面B2は、基準キャプチャ画像(画面B1の画像)をそのまま示したものなので、画面B1とB2との間では、画像の移動、回転、拡大(縮小)などの変化はない。   On the other hand, since the screen B2 shows the reference capture image (the image of the screen B1) as it is, there is no change such as movement, rotation, enlargement (reduction), etc. between the screens B1 and B2.

次に、図7(3)に示される画面A3及びB3は、2回目のキャプチャ動作において、上で述べたS4−14で表示される画面である。図7(3)に示されるように、画面A3中のコードシンボル38b、38eには、データが読み取れたことを示す明示枠40b、40eが付されている。一般に、キャプチャ動作時の光照明等の影響によって、キャプチャ毎に読み取れるコードシンボルが異なる場合がある。   Next, screens A3 and B3 shown in FIG. 7 (3) are screens displayed in S4-14 described above in the second capture operation. As shown in FIG. 7 (3), the code symbols 38b and 38e in the screen A3 are provided with explicit frames 40b and 40e indicating that the data has been read. In general, the code symbol that can be read may be different for each capture due to the influence of light illumination or the like during the capture operation.

一方、画面B3は、基準キャプチャ画像(画面B1の画像)そのままであり、変化はない。   On the other hand, the screen B3 is the reference capture image (image of the screen B1) as it is, and there is no change.

同様に、図7(4)には、3回目のキャプチャ動作において、上で述べたS4−14で表示される画面A4及びB4が示されている。この図7中の画面A4においては、コードシンボル38a、38d、38eに、データが読み取れたことを示す明示枠40a、40d、40eが付されている。一方、画面B4は、B1〜B3と同様である。   Similarly, FIG. 7 (4) shows screens A4 and B4 displayed in S4-14 described above in the third capture operation. In the screen A4 in FIG. 7, explicit frames 40a, 40d, and 40e indicating that the data has been read are attached to the code symbols 38a, 38d, and 38e. On the other hand, the screen B4 is the same as B1 to B3.

図7(5)には、上で述べたS4−17で表示される画面A5及びB5が示されている。この図7(5)中の画面B5に示されるように、自動認識手段16は、上で述べたS4−17において、画面B5(基準キャプチャ画像)上に、1回目からm回目までのキャプチャ動作で読み取れたコードシンボル38a〜38e全てに明示枠を付して表示される。これをスタック表示と呼ぶ。   FIG. 7 (5) shows screens A5 and B5 displayed in S4-17 described above. As shown in the screen B5 in FIG. 7 (5), the automatic recognition means 16 performs the first to m-th capture operations on the screen B5 (reference capture image) in S4-17 described above. All the code symbols 38a to 38e read in are displayed with an explicit frame. This is called a stack display.

一方、自動認識手段16は、画面A5には、キャプチャした画像に、読み取れたことを示す明示枠40b、40dを挿入して表示する。   On the other hand, the automatic recognition means 16 inserts and displays explicit frames 40b and 40d indicating that the image has been read on the captured image on the screen A5.

このように、画面A1は、時間の経過と共に、画面A2、A3、A4、A5に連続的に変わっていく。   As described above, the screen A1 is continuously changed to the screens A2, A3, A4, and A5 as time passes.

上でも述べたように、本実施の形態では、撮影者がキャプチャ手段を手で持って各コードシンボルをキャプチャしたので、コードシンボルが移動、回転、拡大(縮小)していることを表すために画面A2、A3、A4、A5を示した。一方、各画面B2、B3、B4、B5は、「基準キャプチャ画像」(画面B1)をそのまま示したものである。したがって、各画面B1、B2、B3、B4、B5において、画像の移動、回転、拡大(縮小)などの変化は起きない。   As described above, in the present embodiment, the photographer captures each code symbol by holding the capture means by hand, so that the code symbol is moved, rotated, or enlarged (reduced). Screens A2, A3, A4, and A5 are shown. On the other hand, each of the screens B2, B3, B4, and B5 shows the “reference capture image” (screen B1) as it is. Accordingly, changes such as image movement, rotation, and enlargement (reduction) do not occur in each of the screens B1, B2, B3, B4, and B5.

各画面A1、A2、A3、A4、A5中には、読み取れたコードシンボルに明示枠が示されている。上でも述べたように、キャプチャするときの照明その他の状況によっては、コードシンボルをデコード処理できない場合がある。このようにデコード処理できなかった場合には、そのデコード処理できなかったコードシンボルには明示枠が付されない。   In each of the screens A1, A2, A3, A4, and A5, an explicit frame is shown for the read code symbol. As described above, the code symbol may not be decoded depending on the lighting and other conditions when capturing. When the decoding process cannot be performed in this way, an explicit frame is not added to the code symbol that cannot be decoded.

図8には、上で述べたS4−18の動作時に表示手段18に表示される読み取り結果多重表示画面48が示されている。この読み取り結果多重表示画面48の上側の画面50は、画面A5の一例に相当する。また、下側の画面52は、画面B5の一例に相当する。この図8中の画面52に示されるように、データを読み取れたコードシンボルに対しては明示枠が付される。   FIG. 8 shows a read result multiple display screen 48 displayed on the display unit 18 during the operation of S4-18 described above. The upper screen 50 of the read result multiple display screen 48 corresponds to an example of the screen A5. Further, the lower screen 52 corresponds to an example of the screen B5. As shown in the screen 52 in FIG. 8, an explicit frame is attached to the code symbol from which the data has been read.

また、この図8中の欄54には、読み取り対象のコードシンボルから読み取った4個のデータが示されている。この図8中の欄54には、読み取り対象の1個のシンボル群を構成する4個のコードシンボルから、「255」「3727」「8888888」「9999999」からなる数値を読み取ったことが示されている。この結果、読み取り対象の1個のシンボル群から、「255372788888889999999」からなるデータを読み取ることができる。なお、この読み取ったデータは、例えば、読み取り結果多重表示画面48の外に表示しても良い。   Further, the column 54 in FIG. 8 shows four data read from the code symbol to be read. In the column 54 in FIG. 8, it is shown that a numerical value composed of “255”, “3727”, “8888888”, and “9999999” is read from four code symbols constituting one symbol group to be read. ing. As a result, it is possible to read data consisting of “2553727888888899999999” from one symbol group to be read. The read data may be displayed outside the read result multiple display screen 48, for example.

関連付け
なお、4個のコードシンボルから読み出した、「255」「3727」「8888888」「9999999」は、対応するコードシンボルの明示枠と関連付けて表示することが好ましい。図8では、画面A、画面Bの外部に表示されているが、そのような場合でも、明示枠とデータ表示とを曲線で結ぶ等することによって、「関連付け」て表示を行うことが可能である。より簡単には、単にデータ表示をそれぞれの明示枠の近傍に表示することも好適である。
Association Note that “255”, “3727”, “8888888”, and “9999999” read from the four code symbols are preferably displayed in association with the corresponding code symbol explicit frames. In FIG. 8, it is displayed outside the screen A and the screen B, but even in such a case, it is possible to display by “associating” by connecting the explicit frame and the data display with a curve or the like. is there. More simply, it is also preferable to simply display the data display in the vicinity of each explicit frame.

第6 画面A群と画面B群との関係とその変形例・応用例について
次に、画面A群と、画面B群に表示された「基準キャプチャ画像」との関係について説明する。
6. Relationship between Screen A Group and Screen B Group and Modifications and Application Examples Next, the relationship between the screen A group and the “reference capture image” displayed on the screen B group will be described.

本実施例において、自動認識手段16は、各画面A1、A2、A3、A4、A5中の画像の移動を検出し、画面A1を基準として、各画面A2、A3、A4、A5の平行移動、回転、拡大縮小の大きさを常に把握している。   In the present embodiment, the automatic recognition means 16 detects the movement of the image in each screen A1, A2, A3, A4, A5, and the parallel movement of each screen A2, A3, A4, A5 with reference to the screen A1. Always know the size of rotation and scaling.

この結果、自動認識手段16は、画面A1、A2、A3、A4、A5中の明示枠の座標位置に基づいて、画面B群(基準キャプチャ画像)中の明示枠の座標位置を算出することができる。   As a result, the automatic recognition means 16 can calculate the coordinate position of the explicit frame in the screen B group (reference capture image) based on the coordinate position of the explicit frame in the screens A1, A2, A3, A4, and A5. it can.

6−1 変形例1
なお、本実施の形態では、全キャプチャが終了してから、デコードできたコードシンボルの明示枠を画面B上に一括して表示しているが(図7(5)のB5画面)、デコードできたコードシンボルの明示枠を逐次、基準キャプチャ画像上に挿入していく構成とすることも好適である。用途によっては、逐次明示枠が増えていく様子が示された方が便利な場合もある。
6-1 Modification 1
In the present embodiment, the code symbol explicit frame that can be decoded after all captures are completed is displayed on the screen B in a lump (B5 screen in FIG. 7 (5)), but can be decoded. It is also preferable that the code symbol explicit frames are sequentially inserted on the reference capture image. Depending on the application, it may be more convenient to show how the number of explicit frames increases.

このような構成を採用する場合は、自動認識手段16が、画面A群中の明示枠を位置補正係数に基づいて逐次補正して、画面B群中に挿入していくことになる。そして、明示枠が挿入された画面Bを作成し、その明示枠を含む画面Bを表示手段18に送ることになる。この場合は、基準キャプチャ画像記憶手段32内に記憶している基準キャプチャ画像は順次明示枠が挿入された画像に書き換えていくことが好適である。   When such a configuration is adopted, the automatic recognition means 16 sequentially corrects the explicit frame in the screen A group based on the position correction coefficient and inserts it into the screen B group. Then, the screen B in which the explicit frame is inserted is created, and the screen B including the explicit frame is sent to the display unit 18. In this case, it is preferable to rewrite the reference capture image stored in the reference capture image storage unit 32 to an image in which an explicit frame is inserted in order.

なお、「基準キャプチャ画像」に対するデコード画像(逐次キャプチャした画像、画像2,画像3・・・)の位置関係の検知と、その位置関係を数値化する手法については、例えばUS7006706に記載されているように実現可能な技術が既に開発されており、この技術を本実施例に適用することも可能である。   For example, US7006706 describes a method for detecting the positional relationship of a decoded image (sequentially captured image, image 2, image 3...) With respect to the “reference captured image” and a method for quantifying the positional relationship. Thus, a feasible technology has already been developed, and this technology can also be applied to this embodiment.

6−2 変形例2
また、キャプチャ手段が固定されている場合や、画角に対してキャプチャ手段の移動量が無視できるほど小さい場合には、上述した画像の移動検知による補正を行わずに、画面A群中に表示される明示枠を、補正せずにそのまま画面B群(基準キャプチャ画像)に重ねて表示することも可能である。
6-2 Modification 2
Further, when the capture unit is fixed or when the amount of movement of the capture unit is negligibly small with respect to the angle of view, the above-described correction based on the movement detection of the image is not performed and the display is performed on the screen A group. It is also possible to display the explicit frame superimposed on the screen B group (reference capture image) without correction.

6−3 変形例3
本実施例では、「基準キャプチャ画像」を2つの画面A、Bのうち一方の画面Bに常に表示する場合を説明したが、「基準キャプチャ画像」は必ずしも常に表示する必要はなく、読み取り動作中は基準キャプチャ画像を表示せずに、読み取り動作終了後に、基準キャプチャ画像と明示枠と読み取ったデータとを表示することも好ましい。
6-3 Modification 3
In the present embodiment, the case where the “reference capture image” is always displayed on one of the two screens A and B has been described. However, the “reference capture image” does not always need to be displayed and is being read. It is also preferable to display the reference capture image, the explicit frame, and the read data after the reading operation is completed without displaying the reference capture image.

6−4 変形例4
また、画面B側に常に「基準キャプチャ画像」を表示し、画面A側に、データの読み取りを完了したコードシンボルに順次明示枠を付して表示することも好ましい。これは上記変形例1の応用例と見ることができる。
6-4 Modification 4
It is also preferable that the “reference capture image” is always displayed on the screen B side, and the code symbols on which the data reading has been completed are sequentially displayed with an explicit frame on the screen A side. This can be regarded as an application example of the first modification.

つまり、上記変形例1は、明示枠が順次画像B側で増えていくが、この変形例4では、画面A側で増えていくことになる。この場合、操作者は、キャプチャしながら、特に明示枠が付されなかったコードシンボルを読み取るように対応できるので、読み取り効率が飛躍的に向上する。   That is, in the first modification, the explicit frames are sequentially increased on the image B side, but in the fourth modification, the explicit frame is increased on the screen A side. In this case, since the operator can cope with reading a code symbol that is not particularly provided with an explicit frame, the reading efficiency is greatly improved.

但し、この構成を採用する場合は、画像A2上の明示枠を画像A3上の明示枠に補正する必要がある。したがって、画像Ak上に明示枠を表示するために、その直前の画像Ak−1から、画像Akへの変換係数を求める必要がある。ここで、kは正の整数である。   However, when this configuration is adopted, it is necessary to correct the explicit frame on the image A2 to the explicit frame on the image A3. Therefore, in order to display an explicit frame on the image Ak, it is necessary to obtain a conversion coefficient from the immediately preceding image Ak-1 to the image Ak. Here, k is a positive integer.

変換係数を求める対象が異なるだけで、上述した実施の形態と同様に実施することが可能である。   The present embodiment can be implemented in the same manner as in the above-described embodiment, except that the conversion coefficient is obtained only in a different object.

6−5 変形例5
また、本実施例では使用する光学式自動認識コードとして「色彩配列による自動認識コード」を例にとって説明したが、いわゆる古典的なバーコードや、その他の光学的自動認識コードを利用してももちろん好適である。例えば、QRコード(登録商標)を利用して、本実施の形態と同様に、複数のコードシンボルを読み取る装置を構成することが好適である。
6-5 Modification 5
In this embodiment, the “automatic recognition code by color arrangement” is described as an example of the optical automatic recognition code to be used. However, of course, a so-called classic bar code or other optical automatic recognition code can be used. Is preferred. For example, it is preferable to configure a device that reads a plurality of code symbols using a QR code (registered trademark) as in the present embodiment.

このような方法・装置によれば、逐次デコードが進んでいく様子が利用者に表示できるので、使いやすいコード読み取り方法、コード読み取り装置を実現することが可能である。   According to such a method / apparatus, it is possible to display to the user a state in which the sequential decoding proceeds, so that it is possible to realize an easy-to-use code reading method and code reading apparatus.

コードシンボル読み取り結果多重表示装置の構成を示す図である。It is a figure which shows the structure of a code symbol reading result multiple display apparatus. 2つのデータを表す2つのシンボル群を示す図である。It is a figure which shows two symbol groups showing two data. 2つのシンボル群が表すデータを示した表である。It is the table | surface which showed the data which two symbol groups represent. コードシンボル読み取り結果多重表示装置の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of a code symbol reading result multiple display apparatus. 自動認識手段の構成を示す図である。It is a figure which shows the structure of an automatic recognition means. 情報の読み出し動作を説明する図である。It is a figure explaining the read-out operation | movement of information. コードシンボルの読み取り例を示す図である。It is a figure which shows the example of reading of a code symbol. 読み取り結果多重表示画面を示す図である。It is a figure which shows a reading result multiple display screen.

符号の説明Explanation of symbols

1、2 画像
10 コードシンボル読み取り結果多重表示装置
12 キャプチャ手段
14 物品
16 自動認識手段
18 表示手段
20 コードシンボル
22a〜22d、24a〜24d コードシンボル
26 CPU
28 キャプチャ手段インターフェース
30 表示手段インターフェース
32 基準キャプチャ画像記憶手段
34 記憶手段
36 基準キャプチャ画像
38a〜38f コードシンボル
40a〜40e 明示枠
42、44、46 画像
48 読み取り結果多重表示画面
50、52 画面
54 欄
A、B 画面
A1、A2、A3、A4、A5 画面
B1、B2、B3、B4、B5 画面
1 and 2 Images 10 Code symbol reading result multiple display device 12 Capture means 14 Article 16 Automatic recognition means 18 Display means 20 Code symbols 22a to 22d, 24a to 24d Code symbols 26 CPU
28 capture means interface 30 display means interface 32 reference capture image storage means 34 storage means 36 reference capture images 38a to 38f code symbols 40a to 40e explicit frames 42, 44, 46 images 48 read result multiple display screens 50, 52 screen 54 column A , B screen A1, A2, A3, A4, A5 screen B1, B2, B3, B4, B5 screen

Claims (20)

光学的自動認識コードを読み込む方法において、
前記光学的自動認識コードの1個以上のコードシンボルを含む画像データをキャプチャするキャプチャステップと、
前記キャプチャした画像データから、前記コードシンボルが占める領域を切り出すステップと、
前記切り出した領域のコードシンボルをデコード処理し、得られたデータを所定の記憶手段に記憶するデータ記憶ステップと、
前記デコードが成功したコードシンボルの前記領域を示す明示枠の位置を算出し、所定の記憶手段に記憶する位置記憶ステップと、
前記明示枠を、前記キャプチャした画像データの前記求めた位置に、重畳して挿入する第1挿入ステップと、
前記キャプチャした画像データと、最初にキャプチャした画像データである基準キャプチャ画像と比較し、両者の位置関係を算出し、前記記憶手段に格納するステップと、
前記明示枠が挿入された画像データを利用者に表示する第1表示ステップと、
前記キャプチャステップから、前記表示ステップまでを1回以上繰り返す繰り返しステップと、
前記繰り返しステップにおける繰り返し処理の後、前記記憶手段から前記明示枠の位置を取り出し、この位置を、前記位置関係に基づき補正し、前記基準キャプチャ画像上の位置に変換する位置変換ステップと、
前記明示枠を、前記基準キャプチャ画像の前記変換後の位置に挿入する第2挿入ステップと、
前記第2挿入ステップにおいて、デコードが成功したコードシンボルの前記明示枠が挿入された前記基準キャプチャ画像を表示する第2表示ステップと、
を含み、前記繰り返し処理が終了した後で、前記基準キャプチャ画像に、それまでにデコードが成功したコードシンボルの明示枠が挿入されることを特徴とする光学的自動認識コード読み取り方法。
In the method of reading the optical automatic recognition code,
A capture step of capturing image data including one or more code symbols of the optical automatic recognition code;
Cutting out the area occupied by the code symbol from the captured image data;
A data storage step of decoding the code symbol of the cut-out area and storing the obtained data in a predetermined storage means;
A position storage step of calculating a position of an explicit frame indicating the region of the code symbol that has been successfully decoded, and storing the position in a predetermined storage unit;
A first insertion step of superimposing and inserting the explicit frame at the obtained position of the captured image data;
Comparing the captured image data with a reference captured image that is the first captured image data, calculating a positional relationship between the two, and storing in the storage means;
A first display step of displaying image data with the explicit frame inserted to a user;
A repetition step of repeating the capture step to the display step one or more times;
After the repetitive processing in the repetitive step, a position conversion step of taking out the position of the explicit frame from the storage means, correcting the position based on the positional relationship, and converting it to a position on the reference capture image;
A second insertion step of inserting the explicit frame at the converted position of the reference capture image;
A second display step of displaying the reference capture image in which the explicit frame of the code symbol that has been successfully decoded is inserted in the second insertion step;
And an explicit frame of code symbols that have been successfully decoded so far is inserted into the reference capture image after completion of the repetitive processing.
光学的自動認識コードを読み込む方法において、
前記光学的自動認識コードの1個以上のコードシンボルを含む画像データをキャプチャするキャプチャステップと、
前記キャプチャした画像データから、前記コードシンボルが占める領域を切り出すステップと、
前記切り出した領域のコードシンボルをデコード処理し、得られたデータを所定の記憶手段に記憶するデータ記憶ステップと、
前記デコードが成功したコードシンボルの前記領域を示す明示枠の位置を算出し、所定の記憶手段に記憶する位置記憶ステップと、
前記明示枠を、前記キャプチャした画像データの前記求めた位置に、重畳して挿入する第1挿入ステップと、
前記明示枠が挿入された画像データを利用者に表示する第1表示ステップと、
前記キャプチャした画像データと、最初にキャプチャした画像データである基準キャプチャ画像と比較し、両者の位置関係を算出し、前記記憶手段に格納するステップと、
前記記憶手段から前記明示枠の位置を取り出し、この位置を、前記位置関係に基づき補正し、前記基準キャプチャ画像上の位置に変換する位置変換ステップと、
前記明示枠を、前記基準キャプチャ画像の前記変換後の位置に挿入する第2挿入ステップと、
前記第2挿入ステップにおいて、デコードが成功したコードシンボルの前記明示枠が挿入された前記基準キャプチャ画像を表示する第2表示ステップと、
前記キャプチャステップから、前記表示ステップまでを1回以上繰り返す繰り返しステップと、
を含み、前記基準キャプチャ画像には、前記キャプチャステップにおけるキャプチャが行われる度に、デコードが成功したコードシンボルの明示枠が追加されることを特徴とする光学的自動認識コード読み取り方法。
In the method of reading the optical automatic recognition code,
A capture step of capturing image data including one or more code symbols of the optical automatic recognition code;
Cutting out the area occupied by the code symbol from the captured image data;
A data storage step of decoding the code symbol of the cut-out area and storing the obtained data in a predetermined storage means;
A position storage step of calculating a position of an explicit frame indicating the region of the code symbol that has been successfully decoded, and storing the position in a predetermined storage unit;
A first insertion step of superimposing and inserting the explicit frame at the obtained position of the captured image data;
A first display step of displaying image data with the explicit frame inserted to a user;
Comparing the captured image data with a reference captured image that is the first captured image data, calculating a positional relationship between the two, and storing in the storage means;
A position conversion step of taking out the position of the explicit frame from the storage means, correcting the position based on the positional relationship, and converting the position into a position on the reference capture image;
A second insertion step of inserting the explicit frame at the converted position of the reference capture image;
A second display step of displaying the reference capture image in which the explicit frame of the code symbol that has been successfully decoded is inserted in the second insertion step;
A repetition step of repeating from the capture step to the display step one or more times;
And an explicit frame of a code symbol that has been successfully decoded is added to the reference capture image every time capture is performed in the capture step.
請求項1記載の光学的自動認識コード読み取り方法において、
前記基準キャプチャ画像は、前記繰り返しステップにおける繰り返し処理が開始されたときから、表示が開始されることを特徴とする光学的自動認識コード読み取り方法。
In the optical automatic recognition code reading method according to claim 1,
An optical automatic recognition code reading method, wherein display of the reference capture image is started when the repetition process in the repetition step is started.
請求項1記載の光学的自動認識コード読み取り方法において、
前記基準キャプチャ画像は、前記繰り返しステップにおける繰り返し処理が終了した後で、初めて表示されることを特徴とする光学的自動認識コード読み取り方法。
In the optical automatic recognition code reading method according to claim 1,
An optical automatic recognition code reading method, wherein the reference capture image is displayed for the first time after the repetition process in the repetition step is completed.
請求項1又は請求項2に記載の光学的自動認識コード読み取り方法において、
前記光学式自動認識コードは、色彩セルを配置して、その色彩セルの色彩の並び、色彩の遷移、色彩の組み合わせ、のいずれかによってデータを表す「色彩配列による自動認識コード」であることを特徴とする光学的自動認識コード読み取り方法。
In the optical automatic recognition code reading method according to claim 1 or 2,
The optical automatic recognition code is an "automatic recognition code based on color arrangement" in which color cells are arranged and data is represented by any of color arrangement, color transition, and color combination of the color cells. A method for reading an optical automatic recognition code.
請求項1〜請求項5のうち、いずれか1項に記載の光学的自動認識コード読み取り方法において、
前記明示枠の「位置」には、前記明示枠の座標、明示枠の大きさ、明示枠の向き、明示枠の縦と横の長さ、のいずれか1個以上のパラメータが含まれることを特徴とする光学的自動認識コード読み取り方法。
In the optical automatic recognition code reading method according to any one of claims 1 to 5,
The “position” of the explicit frame includes one or more parameters of the coordinates of the explicit frame, the size of the explicit frame, the orientation of the explicit frame, and the vertical and horizontal lengths of the explicit frame. A method for reading an optical automatic recognition code.
請求項1〜請求項6のうち、いずれか1項に記載の光学的自動認識コード読み取り方法において、
前記画像間の「位置関係」には、平行移動量、回転方向と回転量、スケーリング(拡大・縮小)のうち、いずれか1個以上のパラメータが含まれていることを特徴とする光学的自動認識コード読み取り方法。
In the optical automatic recognition code reading method according to any one of claims 1 to 6,
The “positional relationship” between the images includes any one or more parameters of a parallel movement amount, a rotation direction and a rotation amount, and scaling (enlargement / reduction). Recognition code reading method.
請求項1又は請求項2に記載の光学的自動認識コード読み取り方法において、
前記第2表示ステップは、さらに、
デコードが成功したコードシンボルの前記データを前記記憶手段から読み出し、対応する前記コードシンボルの前記明示枠と関連付けて表示することを特徴とする光学的自動認識コード読み取り方法。
In the optical automatic recognition code reading method according to claim 1 or 2,
The second display step further includes
An optical automatic recognition code reading method, wherein the data of a code symbol that has been successfully decoded is read from the storage means and displayed in association with the explicit frame of the corresponding code symbol.
請求項8記載の光学的自動認識コード読み取り方法において、
前記関連付けは、前記データを、このデータの対応する前記明示枠の近傍に表示することによって行われることを特徴とする光学的自動認識コード読み取り方法。
The optical automatic recognition code reading method according to claim 8,
The association is performed by displaying the data in the vicinity of the explicit frame corresponding to the data.
請求項8記載の光学的自動認識コード読み取り方法において、
前記関連付けは、前記データと、このデータの対応する前記明示枠とを曲線で結んで表示することによって行われることを特徴とする光学的自動認識コード読み取り方法。
The optical automatic recognition code reading method according to claim 8,
The association is performed by connecting the data and the explicit frame corresponding to the data by a curved line and displaying them.
請求項1、3、4、5のいずれか1項に記載の光学的自動認識コード読み取り方法において、
前記位置変換ステップにおいて、同一のコードシンボルに対応する前記明示枠が前記記憶手段に複数個格納されている場合は、その中の1個の明示枠に対してのみ位置を変換し、
前記第2挿入ステップにおいては、前記変換した1個の明示枠を前記基準キャプチャ画像に挿入することを特徴とする光学的自動認識コード読み取り方法。
In the optical automatic recognition code reading method according to any one of claims 1, 3, 4, and 5,
In the position conversion step, when a plurality of the explicit frames corresponding to the same code symbol are stored in the storage means, the position is converted with respect to only one of the explicit frames,
In the second inserting step, the converted one explicit frame is inserted into the reference capture image.
請求項1〜5のいずれか1項に記載の光学式自動認識コード読み取り方法において、
前記第1表示ステップにおいて、前記画像データを第1画面に表示し、
前記第2表示ステップにおいては、前記基準キャプチャ画像を大画面とは異なる第2画面に表示し、
前記第1画面と、前記第2画面とが、並列して表示が行われることを特徴とする光学式自動認識コード読み取り方法。
In the optical automatic recognition code reading method according to any one of claims 1 to 5,
In the first display step, the image data is displayed on a first screen,
In the second display step, the reference capture image is displayed on a second screen different from the large screen,
An optical automatic recognition code reading method, wherein the first screen and the second screen are displayed in parallel.
請求項1〜5のいずれか1項に記載の光学式自動認識コード読み取り方法において、
前記キャプチャステップにおいては、キャプチャが行われた後、そのキャプチャした画像データを利用者に表示し、
前記第1表示ステップにおいては、前記キャプチャステップにおいて表示された前記画像データに代えて、前記明示枠が挿入された画像データを利用者に表示することを特徴とする光学式自動認識コード読み取り方法。
In the optical automatic recognition code reading method according to any one of claims 1 to 5,
In the capture step, after the capture is performed, the captured image data is displayed to the user,
In the first display step, instead of the image data displayed in the capture step, the image data in which the explicit frame is inserted is displayed to the user.
請求項1〜5のいずれか1項に記載の光学的自動認識コード読み取り方法において、
前記繰り返しステップは、予め定められた時間が経過するまで、前記繰り返し処理を繰り返し実行することを特徴とする光学的自動認識コード読み取り方法。
In the optical automatic recognition code reading method according to any one of claims 1 to 5,
The optical repeater code reading method according to claim 1, wherein the repeat step repeatedly executes the repeat process until a predetermined time elapses.
請求項1〜5のいずれか1項に記載の光学的自動認識コード読み取り方法において、
前記繰り返しステップは、前記それまでにデコードできたコードシンボルの個数が、予め定められた数に到達するまで、前記繰り返し処理を繰り返し実行することを特徴とする光学的自動認識コード読み取り方法。
In the optical automatic recognition code reading method according to any one of claims 1 to 5,
The optical repeater code reading method according to claim 1, wherein the iterative step repeatedly executes the iterative process until the number of code symbols that have been decoded so far reaches a predetermined number.
請求項1〜5のいずれか1項に記載の光学的自動認識コード読み取り方法において、
前記繰り返しステップは、読み取り対象であるコードシンボルのデコードが全て終了した場合に、前記繰り返し処理を終了することを特徴とする光学的自動認識コード読み取り方法。
In the optical automatic recognition code reading method according to any one of claims 1 to 5,
In the repeating step, when the decoding of all the code symbols to be read is completed, the repetition process is ended.
請求項1〜5のいずれか1項に記載の光学的自動認識コード読み取り方法において、
前記それまでにデコードできた個数のコードシンボルに基づき、読み取り対象である全てのコードシンボルをデコードできた場合と同様のデータが得られた場合には、前記繰り返し処理を終了数ことを特徴とする光学的自動認識コード読み取り方法。
In the optical automatic recognition code reading method according to any one of claims 1 to 5,
Based on the number of code symbols that can be decoded so far, when the same data as when all the code symbols to be read can be decoded is obtained, the repetition process is terminated Optical automatic recognition code reading method.
請求項16記載の光学式自動認識コード読み取り方法において、
前記それまでにデコードできた個数のコードシンボルに基づき、読み取り対象である全てのコードシンボルをデコードできた場合と同様のデータが得られた場合には、
前記それまでにデコードできた個数のコードシンボルに基づき、エラー訂正を実行し、まだデコードしていないコードシンボルのデータを補い、読み取り対象である全てのコードシンボルをデコードした場合と同様のデータが再現できた場合が含まれることを特徴とする光学式自動認識コード読み取り方法。
The optical automatic recognition code reading method according to claim 16,
Based on the number of code symbols that have been decoded so far, if the same data as when all the code symbols to be read could be decoded,
Based on the number of code symbols that have been decoded so far, error correction is performed, the code symbol data that has not been decoded is compensated, and the same data as when all the code symbols to be read are decoded is reproduced. An optical automatic recognition code reading method characterized by including a case where it is made.
請求項1〜5のいずれか1項に記載の光学的自動認識コード読み取り方法において、
前記繰り返しステップは、予め定められた終了コードを表すコードシンボルが読み取れた場合に、前記繰り返し処理を終了することを特徴とする光学的自動認識コード読み取り方法。
In the optical automatic recognition code reading method according to any one of claims 1 to 5,
The method of reading an optical automatic recognition code, wherein the repetition step ends the repetition process when a code symbol representing a predetermined end code is read.
請求項1〜19のいずれか1項に記載の光学的自動認識コード読み取り方法を実行する光学的自動認識コード読み取り装置。   The optical automatic recognition code reader which performs the optical automatic recognition code reading method of any one of Claims 1-19.
JP2008293946A 2008-11-17 2008-11-17 Method and device for reading optical automatic-recognition code Pending JP2010122770A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008293946A JP2010122770A (en) 2008-11-17 2008-11-17 Method and device for reading optical automatic-recognition code
PCT/JP2009/068817 WO2010055795A1 (en) 2008-11-17 2009-11-04 Method and device for reading optical automatic-recognition code

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008293946A JP2010122770A (en) 2008-11-17 2008-11-17 Method and device for reading optical automatic-recognition code

Publications (1)

Publication Number Publication Date
JP2010122770A true JP2010122770A (en) 2010-06-03

Family

ID=42169930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008293946A Pending JP2010122770A (en) 2008-11-17 2008-11-17 Method and device for reading optical automatic-recognition code

Country Status (2)

Country Link
JP (1) JP2010122770A (en)
WO (1) WO2010055795A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014070958A1 (en) * 2012-10-30 2014-05-08 Certirx Corporation Product, image, or document authentication, verification, and item identification
US10755100B2 (en) 2016-12-26 2020-08-25 Ns Solutions Corporation Information processing device, system, information processing method, and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63228278A (en) * 1987-03-17 1988-09-22 Fujitsu Ltd Ocr device capable of reading optical mark
JP2001028033A (en) * 1999-07-14 2001-01-30 Oki Electric Ind Co Ltd Display method for bar code recognition result and bar code recognition device
JP2004110670A (en) * 2002-09-20 2004-04-08 Denso Wave Inc Information code reader
JP4755415B2 (en) * 2004-12-21 2011-08-24 株式会社アドイン研究所 Color two-dimensional code

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014070958A1 (en) * 2012-10-30 2014-05-08 Certirx Corporation Product, image, or document authentication, verification, and item identification
US9053364B2 (en) 2012-10-30 2015-06-09 Authentiform, LLC Product, image, or document authentication, verification, and item identification
US10755100B2 (en) 2016-12-26 2020-08-25 Ns Solutions Corporation Information processing device, system, information processing method, and storage medium

Also Published As

Publication number Publication date
WO2010055795A1 (en) 2010-05-20

Similar Documents

Publication Publication Date Title
US10474922B1 (en) System and method for capturing, organizing, and storing handwritten notes
KR100942122B1 (en) Local localization using fast image match
JP5414685B2 (en) System and method for reading a pattern using a plurality of image frames
JP2006004037A (en) Code reading device and program
KR101293703B1 (en) A system for decoding skewed data matrix barcode, and the method therefor
US20120298752A1 (en) Time-varying barcodes for information exchange
JP2007213359A (en) Two-dimensional code detection system and two-dimensional code detection program
EP1922693A2 (en) Image processing apparatus and image processing method
EP1844442A2 (en) Image processing apparatus and image processing method
EP0978991A3 (en) Appliance and method for capturing images
JP6090997B2 (en) Bar code symbol reading apparatus and bar code symbol reading method
JP6457971B2 (en) System and method for pattern stitching and decoding using multiple captured images
JP5808211B2 (en) Bar code symbol reading apparatus and bar code symbol reading method
KR101612060B1 (en) Image processing apparatus, image processing system, and recording medium
JP2005196543A (en) Optical information reader
JP4335229B2 (en) QR code recognition device, QR code recognition device control method, QR code recognition device control program, and computer-readable recording medium recording the same
JP6434118B2 (en) Optical information reading apparatus, optical information reading method and program
WO2016152891A1 (en) Image processing device, image processing method, and program
JP2006309405A (en) Meter recognition system, meter recognition method, and meter recognition program
CN110502948B (en) Restoration method and device for folding two-dimensional code image and code scanning equipment
WO2010055795A1 (en) Method and device for reading optical automatic-recognition code
JP3936436B2 (en) Table recognition method
JP2002204342A (en) Image input apparatus and recording medium, and image compositing method
JP4265526B2 (en) Optical information reader
JP2010176620A (en) Symbol reading device, symbol reading system, and program