Nothing Special   »   [go: up one dir, main page]

JP2005293291A - Image input/output device - Google Patents

Image input/output device Download PDF

Info

Publication number
JP2005293291A
JP2005293291A JP2004108149A JP2004108149A JP2005293291A JP 2005293291 A JP2005293291 A JP 2005293291A JP 2004108149 A JP2004108149 A JP 2004108149A JP 2004108149 A JP2004108149 A JP 2004108149A JP 2005293291 A JP2005293291 A JP 2005293291A
Authority
JP
Japan
Prior art keywords
image
information
projection
subject
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004108149A
Other languages
Japanese (ja)
Other versions
JP4552485B2 (en
Inventor
Takao Iwasaki
岳雄 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2004108149A priority Critical patent/JP4552485B2/en
Priority to PCT/JP2005/006089 priority patent/WO2005096126A1/en
Publication of JP2005293291A publication Critical patent/JP2005293291A/en
Priority to US11/536,600 priority patent/US7809193B2/en
Application granted granted Critical
Publication of JP4552485B2 publication Critical patent/JP4552485B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image input/output device for generating three-dimensional information of an object such as an object to be measured, and for executing predetermined measurement on the basis of the three-dimensional information, and for projecting operation instruction information corresponding to the measurement result to the object. <P>SOLUTION: Measurement is performed on the basis of the three-dimensional information acquired for the object, and an image corresponding to the measurement result is projected on the object or an image projection enabled face on the projecting direction. For example, information for operating the approximate volume division of the object on the basis of the three-dimensional information of the object can be projected on the object. On the other hand, the three-dimensional information of the object and the image pickup data of designated circumstances for the object are acquired, and measurement of the object is performed on the basis of the image pickup data and the three-dimensional information, and an image corresponding to the measurement result can be projected on the object or the image projection enabled face on the projecting direction. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、撮像及び投影可能な画像入出力装置に関し、特に、撮像により得られた被写体の撮像データとその被写体に関する参照情報とを比較して得られた比較結果を、被写体に投影することができる画像入出力装置に関する。   The present invention relates to an image input / output device capable of imaging and projecting, and in particular, can project a comparison result obtained by comparing imaging data of a subject obtained by imaging and reference information about the subject onto the subject. The present invention relates to a possible image input / output device.

従来より、被写体に光パターンを投影し、一方で、被写体に投影された光パターンを撮像し、その画像信号について所定の演算を行なうことによって、その被写体の三次元情報を得る三次元計測装置が知られている。例えば、特許文献1には、コード化マルチスリット光パターンを被測定物に投影し、被測定物に投影された該コード化マルチスリット光パターン撮像装置により撮像し、撮像により得られた画像信号に基づいて、被測定物の輪郭の三次元位置を算出する三次元計測装置が記載されている。
特公8−20232号公報
2. Description of the Related Art Conventionally, a three-dimensional measurement apparatus that projects a light pattern onto a subject, images the light pattern projected onto the subject, and performs predetermined computation on the image signal to obtain three-dimensional information about the subject. Are known. For example, in Patent Document 1, a coded multi-slit light pattern is projected onto a measurement object, and the coded multi-slit light pattern imaging device projected onto the measurement object is imaged, and an image signal obtained by the imaging is obtained. A three-dimensional measuring device that calculates the three-dimensional position of the contour of the object to be measured is described.
Japanese Patent Publication No. 8-20232

しかしながら、特許文献1に記載されるような三次元計測装置を始め、投影装置と撮像装置とを備えている一般的な画像入出力装置は、その被測定物の外観に関する情報を提供するのみであり、その用途に限界があるという問題点があった。   However, a general image input / output device including a three-dimensional measuring device as described in Patent Document 1 and a projection device and an imaging device only provides information on the appearance of the object to be measured. There was a problem that its use was limited.

本発明は、上述した問題点を解決するためになされたものであり、被測定物などの被写体の三次元情報を生成した上で、その三次元情報に基づいて所定の計測を行ない、その計測結果に応じた作業指示情報を被写体に投影することができる画像入出力装置を提供することを目的としている。   The present invention has been made to solve the above-described problems, and generates three-dimensional information of a subject such as an object to be measured, performs predetermined measurement based on the three-dimensional information, and performs the measurement. An object of the present invention is to provide an image input / output device capable of projecting work instruction information according to a result onto a subject.

この目的を達成するために請求項1記載の画像入出力装置は、光を出射する光源手段と、その光源手段から出射される光に空間変調を施して画像信号光を出力する空間変調手段と、その空間変調手段により出力される画像信号光を投影方向に向けて投影する投影手段と、前記投影方向に少なくとも一部が存在する被写体を撮像し、その撮像データを取得する撮像手段と、所定のパターン形状を有した画像信号光が前記投影手段により前記被写体上又は前記投影方向上の画像投影可能な面に投影された場合に、前記撮像手段により撮像された撮像データに基づいて、前記被写体又は前記投影方向上の画像投影可能な面の三次元情報を生成する三次元情報生成手段と、その三次元情報生成手段により生成された三次元情報と、前記被写体に対する指定状況を前記撮像手段により撮像した撮像データから生成される指定情報とに基づいて、前記被写体に対する計測を行う計測手段とを備え、その計測手段による計測により得られた計測情報に応じた画像信号光を、前記空間変調手段により出力し、その出力された画像信号光を前記投影手段により前記被写体又は又は前記投影方向上の画像投影可能な面に投影する。   In order to achieve this object, the image input / output device according to claim 1 includes: a light source unit that emits light; and a spatial modulator unit that performs spatial modulation on the light emitted from the light source unit and outputs image signal light. A projection unit that projects the image signal light output by the spatial modulation unit in a projection direction; an imaging unit that captures an image of a subject that is at least partially in the projection direction; When the image signal light having the pattern shape is projected on the subject or on a surface on which the image can be projected in the projection direction by the projection unit, the subject based on the imaging data captured by the imaging unit Or three-dimensional information generating means for generating three-dimensional information of a surface capable of projecting an image in the projection direction, the three-dimensional information generated by the three-dimensional information generating means, and the subject An image signal corresponding to the measurement information obtained by the measurement by the measurement means, the measurement means for measuring the subject based on the designation information generated from the imaging data captured by the imaging means The light is output by the spatial modulation unit, and the output image signal light is projected by the projection unit onto the subject or a surface on which the image can be projected in the projection direction.

この請求項1記載の画像入出力装置によれば、光源手段より出射された光に対して、空間変調手段により空間変調が施されて画像信号光として出力されると、その画像信号光が、投影手段により投影方向に向けて投影される。一方で、該投影方向に、その一部が少なくとも存在する被写体が、撮像手段により撮像されて、その撮像データが取得される。ここで、所定のパターン形状を有する画像信号光が該投影手段により該被写体又は前記投影方向上の画像投影可能な面に投影された場合に、該撮像手段により撮像された該画像信号光の撮像データに基づいて、三次元情報生成手段により、該被写体又は前記投影方向上の画像投影可能な面の三次元情報が生成される。そのように生成された三次元情報と、該被写体に対する指定状況を該撮像手段により撮像した撮像データから生成される指定情報とに基づいて、該被写体に対する計測が計測手段により行われる。計測手段により計測が行われると、その計測により得られた計測情報に応じた画像信号光が前記空間変調手段から出力され、その出力された画像信号光が、該投影手段により該被写体又は前記投影方向上の画像投影可能な面に投影される。それによって、該被写体又は該投影方向上の画像投影可能な面には、指定状況に応じた計測情報に対応する画像が投影される。   According to the image input / output device of claim 1, when the light emitted from the light source means is spatially modulated by the spatial modulation means and output as image signal light, the image signal light is Projection is performed in the projection direction by the projection means. On the other hand, a subject having at least a part in the projection direction is imaged by the imaging means, and the imaging data is acquired. Here, when the image signal light having a predetermined pattern shape is projected by the projection unit onto the subject or a surface on which the image can be projected in the projection direction, the image signal light captured by the imaging unit is captured. Based on the data, the three-dimensional information generating means generates three-dimensional information of the subject or the surface on which the image can be projected in the projection direction. The measurement unit measures the subject based on the three-dimensional information thus generated and the designation information generated from the imaging data obtained by imaging the designation state for the subject by the imaging unit. When measurement is performed by the measurement unit, image signal light corresponding to the measurement information obtained by the measurement is output from the spatial modulation unit, and the output image signal light is output from the subject or the projection by the projection unit. The image is projected onto a plane capable of projecting an image. As a result, an image corresponding to the measurement information corresponding to the designated situation is projected onto the subject or the surface on which the image can be projected in the projection direction.

請求項2記載の画像入出力装置は、請求項1記載の画像入出力装置において、前記被写体上における指定点を入力する指定点入力手段を備え、前記計測手段は、前記指定点入力手段により入力された少なくとも1つ以上の指定点により形成される点、線分又は領域について、前記被写体に対する計測を行うものである。   The image input / output device according to claim 2, further comprising a designated point input unit for inputting a designated point on the subject, wherein the measuring unit is input by the designated point input unit. The subject is measured for a point, line segment, or region formed by at least one designated point.

請求項3記載の画像入出力装置は、請求項2記載の画像入出力装置において、前記指定点入力手段は、前記被写体上における指定点を指し示す指示部材を、前記撮像手段により時間をずらして撮像し、その撮像データに基づいて該指定点を入力するものである。   The image input / output device according to claim 3 is the image input / output device according to claim 2, wherein the designated point input means captures the pointing member indicating the designated point on the subject by shifting the time by the imaging means. Then, the designated point is input based on the imaging data.

請求項4記載の画像入出力装置は、請求項1から3のいずれかに記載の画像入出力装置において、前記計測手段は、前記三次元情報生成手段により生成された三次元情報に基づいて、前記被写体の体積情報を計測するものであり、前記投影手段により前記被写体又は前記投影方向上の画像投影可能な面に投影される画像信号光が、前記体積情報に応じた指示情報である。   The image input / output device according to claim 4 is the image input / output device according to any one of claims 1 to 3, wherein the measurement unit is based on the three-dimensional information generated by the three-dimensional information generation unit. The volume information of the subject is measured, and image signal light projected onto the subject or a surface on which the image can be projected in the projection direction by the projection unit is instruction information corresponding to the volume information.

請求項5記載の画像入出力装置は、請求項1から4のいずれかに記載の画像入出力装置において、前記被写体の密度情報を取得する密度情報取得手段を備え、前記計測手段は、前記三次元情報生成手段により生成された三次元情報と前記密度情報取得手段により取得された密度情報とに基づいて、前記被写体の重量分布情報を計測するものであり、前記投影手段により前記被写体又は前記投影方向上の画像投影可能な面に投影される画像信号光が、前記重量分布情報に応じた指示情報である。   The image input / output device according to claim 5 is the image input / output device according to any one of claims 1 to 4, further comprising density information acquisition means for acquiring density information of the subject, wherein the measurement means includes the tertiary Based on the three-dimensional information generated by the original information generation means and the density information acquired by the density information acquisition means, the weight distribution information of the subject is measured, and the subject or the projection is measured by the projection means. The image signal light projected on the image projectable surface in the direction is instruction information corresponding to the weight distribution information.

請求項6記載の画像入出力装置は、光を出射する光源手段と、その光源手段から出射される光に空間変調を施して画像信号光を出力する空間変調手段と、その空間変調手段により出力される画像信号光を投影方向に向けて投影する投影手段と、前記投影方向に少なくとも一部が存在する被写体を撮像し、その撮像データを取得する撮像手段と、所定のパターン形状を有した画像信号光が前記投影手段により前記被写体又は前記投影方向上の画像投影可能な面に投影された場合に、前記撮像手段により撮像された撮像データに基づいて、前記被写体又は前記投影方向上の画像投影可能な面の三次元情報を生成する三次元情報生成手段と、その三次元情報生成手段により生成された三次元情報に基づいて、前記被写体に対する指示情報を生成する指示情報生成手段とを備え、その指示情報生成手段により生成された指示情報に基づく画像信号光を、前記空間変調手段により出力し、その出力された画像信号光を前記投影手段により前記被写体又は前記投影方向上の画像投影可能な面に投影する。   The image input / output device according to claim 6 is a light source means for emitting light, a spatial modulation means for spatially modulating light emitted from the light source means to output image signal light, and an output from the spatial modulation means. An image having a predetermined pattern shape, a projection unit that projects the image signal light to be projected in a projection direction, an imaging unit that captures an image of a subject that is at least partially in the projection direction, and acquires the imaging data When the signal light is projected onto the subject or the image-projectable surface in the projection direction by the projection unit, the image projection on the subject or the projection direction is performed based on the imaging data captured by the imaging unit. Three-dimensional information generating means for generating three-dimensional information of possible surfaces, and instruction information for the subject based on the three-dimensional information generated by the three-dimensional information generating means Display information generation means, image signal light based on the instruction information generated by the instruction information generation means is output by the spatial modulation means, and the output image signal light is output by the projection means to the subject or the object The image is projected onto a surface capable of projecting an image in the projection direction.

この請求項6記載の画像入出力装置によれば、光源手段より出射された光に対して、空間変調手段により空間変調が施されて画像信号光として出力されると、その画像信号光が、投影手段により投影方向に向けて投影される。一方で、該投影方向に、その一部が少なくとも存在する被写体が、撮像手段により撮像されて、その撮像データが取得される。ここで、所定のパターン形状を有する画像信号光が該投影手段により該被写体又は前記投影方向上の画像投影可能な面に投影された場合に、該撮像手段により撮像された該画像信号光の撮像データに基づいて、三次元情報生成手段により、該被写体又は前記投影方向上の画像投影可能な面の三次元情報が生成される。そのように生成された三次元情報に基づいて、該被写体に対する指示情報が指示情報生成手段により生成される。指示情報生成手段により指示情報が生成されると、その指示情報に応じた画像信号光が前記空間変調手段から出力され、その出力された画像信号光が、該投影手段により該被写体又は前記投影方向上の画像投影可能な面に投影される。それによって、該被写体又は該撮影方向に、その指示情報に対応する画像が投影される。   According to the image input / output device of claim 6, when the light emitted from the light source means is spatially modulated by the spatial modulation means and output as image signal light, the image signal light is Projection is performed in the projection direction by the projection means. On the other hand, a subject having at least a part in the projection direction is imaged by the imaging means, and the imaging data is acquired. Here, when the image signal light having a predetermined pattern shape is projected by the projection unit onto the subject or a surface on which the image can be projected in the projection direction, the image signal light captured by the imaging unit is captured. Based on the data, the three-dimensional information generating means generates three-dimensional information of the subject or the surface on which the image can be projected in the projection direction. Based on the three-dimensional information thus generated, instruction information for the subject is generated by the instruction information generating means. When the instruction information is generated by the instruction information generation unit, the image signal light corresponding to the instruction information is output from the spatial modulation unit, and the output image signal light is output from the subject or the projection direction by the projection unit. The image is projected onto the upper image projectable surface. Thereby, an image corresponding to the instruction information is projected onto the subject or the photographing direction.

請求項7記載の画像入出力装置は、請求項1から6のいずれかに記載の画像入出力装置において、前記投影手段により、前記被写体又は前記投影方向上の画像投影可能な面に対して無歪な画像信号光が投影されるように、前記空間変調手段を、前記三次元情報生成手段により生成された三次元情報に基づいて制御する空間光変調制御手段を備えている。   An image input / output device according to a seventh aspect is the image input / output device according to any one of the first to sixth aspects, wherein the projection unit has no effect on a surface on which the subject or the image can be projected in the projection direction. Spatial light modulation control means is provided for controlling the spatial modulation means based on the three-dimensional information generated by the three-dimensional information generation means so that distorted image signal light is projected.

請求項8記載の画像入出力装置は、請求項1から7のいずれかに記載の画像入出力装置において、前記投影手段により前記被写体又は前記投影方向上の画像投影可能な面に投影される画像信号光が、前記計測情報又は前記指示情報に関する文字情報である。   The image input / output device according to claim 8 is the image input / output device according to any one of claims 1 to 7, wherein the image is projected onto the subject or an image projectable surface in the projection direction by the projection unit. Signal light is character information relating to the measurement information or the instruction information.

請求項9記載の画像入出力装置は、請求項1から8のいずれかに記載の画像入出力装置において、前記投影手段により前記被写体又は前記投影方向上の画像投影可能な面に投影される画像信号光が、前記計測情報又は前記指示情報に基づく図形情報である。   The image input / output device according to claim 9 is the image input / output device according to any one of claims 1 to 8, wherein the projection unit projects an image onto a surface on which the subject or the image can be projected in the projection direction. Signal light is graphic information based on the measurement information or the instruction information.

請求項10記載の画像入出力装置は、請求項1から9のいずれかに記載の画像入出力装置において、前記投影手段により前記被写体又は前記投影方向上の画像投影可能な面に投影される画像信号光が、前記計測情報又は前記指示情報に基づく作業指示線である。   The image input / output device according to claim 10 is the image input / output device according to any one of claims 1 to 9, wherein the image is projected onto the subject or an image projectable surface in the projection direction by the projection unit. The signal light is a work instruction line based on the measurement information or the instruction information.

請求項11記載の画像入出力装置は、請求項1から10のいずれかに記載の画像入出力装置において、前記投影手段により前記被写体又は前記投影方向上の画像投影可能な面に投影される画像信号光が、前記計測手段により計測された前記被写体の前記体積情報又は重量分布情報に従って、前記被写体を略等体積又は略等重量に区分する作業指示情報、又は、前記指示情報生成手段により指示情報として生成される、前記被写体を略等体積又は略等重量に区分する作業指示情報である。   The image input / output device according to claim 11 is the image input / output device according to any one of claims 1 to 10, wherein the image is projected onto the subject or an image-projectable surface in the projection direction by the projection unit. Work instruction information for classifying the subject into substantially equal volumes or substantially equal weights according to the volume information or weight distribution information of the subject measured by the measuring means, or indication information by the instruction information generating means The work instruction information for classifying the subject into a substantially equal volume or a substantially equal weight.

請求項12記載の画像入出力装置は、請求項11記載の画像入出力装置において、前記作業指示情報は切断指示線である。   According to a twelfth aspect of the present invention, in the image input / output device according to the eleventh aspect, the work instruction information is a cutting instruction line.

請求項13記載の画像入出力装置は、請求項12記載の画像入出力装置において、前記切断指示線に従って、前記被写体を切断する切断手段を備えている。   An image input / output device according to a thirteenth aspect is the image input / output device according to the twelfth aspect, further comprising cutting means for cutting the subject in accordance with the cutting instruction line.

請求項14記載の画像入出力装置は、請求項1から13のいずれかに記載の画像入出力装置において、前記光源手段と前記空間変調手段と前記投影手段とを有する投影部と、前記撮像手段を有し、前記投影部と一体に設けられている撮像部と、前記被写体との互いの相対位置を移動可能とする可動手段を備えている。   The image input / output device according to claim 14 is the image input / output device according to any one of claims 1 to 13, wherein the projection unit includes the light source unit, the spatial modulation unit, and the projection unit, and the imaging unit. An imaging unit provided integrally with the projection unit, and a movable unit that can move relative positions of the subject.

請求項15記載の画像入出力装置は、請求項1から14のいずれかに記載の画像入出力装置において、前記投影手段は、前記所定のパターン形状を有した画像信号を消灯した後に、前記計測情報又は前記指示情報に基づく画像信号光を投影する。   15. The image input / output device according to claim 15, wherein the projection unit performs the measurement after turning off the image signal having the predetermined pattern shape. The image signal light based on the information or the instruction information is projected.

請求項16記載の画像入出力装置は、請求項1から15のいずれかに記載の画像入出力装置において、前記撮像手段は、前記計測情報又は前記指示情報に基づく画像信号光が前記投影手段により投影された前記被写体又は前記投影方向上の画像投影可能な面を撮像し、その撮像データを取得するものである。   The image input / output device according to claim 16 is the image input / output device according to any one of claims 1 to 15, wherein the image pickup means receives image signal light based on the measurement information or the instruction information by the projection means. An image of the projected subject or a surface on which the image in the projection direction can be projected is captured, and the captured image data is acquired.

請求項1記載の画像入出力装置によれば、被写体に対する三次元情報が取得される一方で、該被写体に対する指定状況の撮像データが取得され、その撮像データと該三次元情報とに基づいて、該被写体に対する計測が行われ、その計測結果である計測情報に応じた画像が該被写体又は投影方向上の画像投影可能な面に投影される。よって、例えば、指定状況が、使用者により指定される被写体における所定領域や所定線分を指定するものであり、その指定された領域や線分に対して該被写体の計測が行われる場合には、使用者の所望する領域や線分に応じた計測情報が該被写体や該被写体近傍に投影されるので、使用者に対して利便性を提供すると共に、その計測情報を使用者に対して容易に認識させ得るという効果がある。   According to the image input / output device according to claim 1, while the three-dimensional information for the subject is acquired, the imaging data of the specified situation for the subject is acquired, and based on the imaging data and the three-dimensional information, Measurement is performed on the subject, and an image corresponding to the measurement information, which is the measurement result, is projected onto the subject or an image-projectable surface in the projection direction. Thus, for example, when the specified situation specifies a predetermined area or a line segment in the subject specified by the user, and the subject is measured for the specified area or line segment. Measurement information according to the area or line segment desired by the user is projected on the subject or in the vicinity of the subject, providing convenience for the user and making the measurement information easy for the user. Has the effect of being able to be recognized.

請求項2記載の画像入出力装置によれば、請求項1記載の画像入出力装置の奏する効果に加えて、少なくとも1つ以上の指定点が入力されることにより、その指定点により形成される点、線分又は領域について、該被写体に対する計測を行い、その計測結果である計測情報に応じた画像が該被写体又は投影方向上の画像投影可能な面に投影される。よって、計測情報が必要とされる点、線分、領域を指定して入力するだけなので、容易に所望する計測情報を取得し得るという効果がある。   According to the image input / output device described in claim 2, in addition to the effect produced by the image input / output device according to claim 1, the image input / output device is formed by inputting at least one or more specified points. A point, a line segment, or a region is measured for the subject, and an image corresponding to the measurement information that is the measurement result is projected onto the subject or a plane on which an image can be projected in the projection direction. Therefore, since the point, line segment, and area where measurement information is required are only specified and input, there is an effect that desired measurement information can be easily acquired.

請求項3記載の画像入出力装置によれば、請求項2記載の画像入出力装置の奏する効果に加えて、指定点の入力は、該指定点を指し示す指示部材を時間をずらして撮像した撮像データに基づいて行われるので、例えば、使用者の指先の軌跡を経時的に撮像することによって指定点を入力することができる。よって、計測情報を所望する指定点の入力が容易であり、使用者に利便性を提供するという効果がある。   According to the image input / output device according to claim 3, in addition to the effect of the image input / output device according to claim 2, the input of the designated point is an imaging in which the indication member pointing to the designated point is imaged at different times. Since it is performed based on the data, for example, the designated point can be input by imaging the trajectory of the user's fingertip over time. Therefore, it is easy to input a designated point for which measurement information is desired, and there is an effect of providing convenience to the user.

請求項4記載の画像入出力装置によれば、請求項1から3のいずれかに記載の画像入出力装置の奏する効果に加えて、被写体の三次元情報に基づいて、該被写体の体積情報が計測され、その体積情報に応じた指示情報が該被写体上などに投影される。よって、例えば、該被写体を略等体積に分割する場合などにおいて、該被写体を略等体積に区分する線が指示情報として投影されたり、又は、該被写体の密度情報を参照した場合に、該被写体における所定体積の重量に応じた指示情報が投影されたりすることにより、その作業を効率化すると共に、作業労力を軽減し得るという効果がある。   According to the image input / output device of the fourth aspect, in addition to the effect produced by the image input / output device according to any one of the first to third aspects, the volume information of the subject is based on the three-dimensional information of the subject. Measurement is performed, and instruction information corresponding to the volume information is projected onto the subject. Therefore, for example, when the subject is divided into substantially equal volumes, a line that divides the subject into substantially equal volumes is projected as instruction information, or when the density information of the subject is referred to, the subject The instruction information corresponding to the weight of the predetermined volume is projected, so that the work can be made more efficient and the work labor can be reduced.

請求項5記載の画像入出力装置によれば、請求項1から4のいずれかに記載の画像入出力装置の奏する効果に加えて、被写体の三次元情報と該被写体の密度情報に基づいて、該被写体の重量分布情報が計測され、その重量分布情報に応じた指示情報が該被写体上などに投影される。よって、例えば、該被写体を略等重量に分割する場合などにおいて、該被写体を略等重量に区分する線が指示情報として投影されたり、又は、該被写体における所定領域の重量分布情報に応じた指示情報が投影されたりすることにより、その作業を効率化すると共に、作業労力を軽減し得るという効果がある。   According to the image input / output device according to claim 5, in addition to the effect produced by the image input / output device according to any one of claims 1 to 4, based on the three-dimensional information of the subject and the density information of the subject, Weight distribution information of the subject is measured, and instruction information corresponding to the weight distribution information is projected onto the subject. Therefore, for example, when the subject is divided into substantially equal weights, a line that divides the subject into substantially equal weights is projected as instruction information, or an instruction according to weight distribution information of a predetermined area in the subject By projecting information, it is possible to increase the efficiency of the work and reduce the work effort.

請求項6記載の画像入出力装置によれば、被写体に対して取得された三次元情報に基づいて指示情報が生成され、その指示情報に応じた画像が該被写体又は投影方向上の画像投影可能な面に投影される。よって、例えば、被写体の三次元情報に基づいて該被写体を略等体積分割するための切断情報が指示情報として被写体上などに投影されるので、使用者に対して利便性を提供すると共に、その指示情報を使用者に対して容易に認識させ得るという効果がある。   According to the image input / output device according to claim 6, the instruction information is generated based on the three-dimensional information acquired for the subject, and the image corresponding to the instruction information can be projected on the subject or the projection direction. Is projected onto a flat surface. Therefore, for example, cutting information for dividing the subject into substantially equal volumes based on the three-dimensional information of the subject is projected onto the subject as instruction information, so that it provides convenience to the user and There is an effect that the user can easily recognize the instruction information.

請求項7記載の画像入出力装置によれば、請求項1から6のいずれかに記載の画像入出力装置の奏する効果に加えて、得られた計測情報に対応する画像は、被写体及び投影方向上の画像投影可能な面の三次元形状に基づいて、該被写体又は該投影方向上の画像投影可能な面に対して無歪な画像として投影されるので、投影された画像が歪みにより、計測情報や指示情報に応じた画像を正確に投影し得るという効果がある。例えば、該被写体を略等体積に区切る線が正確な位置に投影されることによって、該被写体を略等体積に正確に分割することができる。   According to the image input / output device described in claim 7, in addition to the effect produced by the image input / output device according to any one of claims 1 to 6, the image corresponding to the obtained measurement information includes the subject and the projection direction. Based on the three-dimensional shape of the image-projectable surface, the image is projected as a distortion-free image on the subject or the image-projectable surface in the projection direction. Therefore, the projected image is measured by distortion. There is an effect that an image corresponding to information or instruction information can be accurately projected. For example, a line that divides the subject into substantially equal volumes is projected at an accurate position, so that the subject can be accurately divided into substantially equal volumes.

請求項8記載の画像入出力装置によれば、請求項1から7のいずれかに記載の画像入出力装置の奏する効果に加えて、計測情報又は指示情報に関する文字情報が該被写体又は投影方向上の画像投影可能な面に投影される。よって、例えば、所定線分の長さを計測する場合などにおいて、その計測値が文字情報として投影されることにより、その情報を容易に認識し得るという効果がある。   According to the image input / output device of the eighth aspect, in addition to the effect produced by the image input / output device according to any one of the first to seventh aspects, the character information related to the measurement information or the instruction information is displayed on the subject or the projection direction. The image is projected onto a plane where the image can be projected. Therefore, for example, when measuring the length of a predetermined line segment, the measurement value is projected as character information, so that the information can be easily recognized.

請求項9記載の画像入出力装置によれば、請求項1から8のいずれかに記載の画像入出力装置の奏する効果に加えて、計測情報又は指示情報に関する図形情報が該被写体又は投影方向上の画像投影可能な面に投影される。よって、例えば、被写体から所望する形状の立体図形を掘り出す場合などにおいて、その立体図形に関する図形情報が投影されることにより、その作業を効率化すると共に、作業労力を軽減し得るという効果がある。   According to the image input / output device of the ninth aspect, in addition to the effect produced by the image input / output device according to any one of the first to eighth aspects, the graphic information related to the measurement information or the instruction information is in the subject or the projection direction. The image is projected onto a plane where the image can be projected. Therefore, for example, when a three-dimensional figure having a desired shape is dug out from a subject, the graphic information relating to the three-dimensional figure is projected, thereby improving the efficiency of the work and reducing the work effort.

請求項10記載の画像入出力装置によれば、請求項1から9のいずれかに記載の画像入出力装置の奏する効果に加えて、計測情報又は指示情報に基づく作業指示線が該被写体上などに投影されるので、その作業を効率化すると共に、作業労力を軽減し得るという効果がある。   According to the image input / output device of the tenth aspect, in addition to the effect produced by the image input / output device according to any one of the first to ninth aspects, a work instruction line based on measurement information or instruction information is provided on the subject. Therefore, it is possible to increase the efficiency of the work and reduce the work effort.

請求項11記載の画像入出力装置によれば、請求項1から10のいずれかに記載の画像入出力装置の奏する効果に加えて、該被写体の体積情報又は重量分布情報に従って、該被写体を略等体積又は略等重量に区分する作業指示情報、又は、指示情報として生成される、該被写体を略等体積又は略等重量に区分する作業指示情報が投影されるので、例えば、被写体とされる1の物体を略等体積又は略等重量に区分する作業が必要とされる場合に、その作業を効率化すると共に、作業労力を軽減し得るという効果がある。   According to the image input / output device described in claim 11, in addition to the effect produced by the image input / output device according to any one of claims 1 to 10, the subject is substantially omitted according to the volume information or weight distribution information of the subject. The work instruction information for dividing the subject into equal volumes or substantially equal weights, or the work instruction information generated as instruction information for dividing the subject into substantially equal volumes or substantially equal weights is projected. When an operation for dividing one object into approximately equal volumes or approximately equal weights is required, there is an effect that the efficiency of the operation can be improved and the work labor can be reduced.

請求項12記載の画像入出力装置によれば、請求項11記載の画像入出力装置の奏する効果に加えて、作業指示情報として、該被写体を略等体積又は略等重量に区分する切断指示線が該被写体上に投影されるので、被写体とされる1の物体を略等体積又は略等重量の単位に切断して分割する作業が必要とされる場合に、その作業を効率化すると共に、作業労力を軽減し得るという効果がある。   According to the image input / output device according to claim 12, in addition to the effect achieved by the image input / output device according to claim 11, as the work instruction information, a cutting instruction line for dividing the subject into a substantially equal volume or a substantially equal weight. Is projected onto the subject, so that when it is necessary to cut and divide one object that is the subject into units of substantially equal volume or substantially equal weight, the work is made more efficient, There is an effect that work labor can be reduced.

請求項13記載の画像入出力装置によれば、請求項12記載の画像入出力装置の奏する効果に加えて、切断手段による投影された切断指示線に従う切断が実行されるので、作業を効率化すると共に、作業労力を軽減し得るという効果がある。   According to the image input / output device of the thirteenth aspect, in addition to the effect produced by the image input / output device according to the twelfth aspect, the cutting according to the cutting instruction line projected by the cutting means is executed, so that the work efficiency is improved. In addition, there is an effect that work labor can be reduced.

請求項14記載の画像入出力装置によれば、請求項1から13のいずれかに記載の画像入出力装置の奏する効果に加えて、光源手段と空間変調手段と投影手段とを有する投影部と、撮像手段を有し、該投影部と一体に設けられている撮像部とが、その位置を、該被写体に対して相対的に移動可能に構成されているので、例えば、被写体に対して作業を施す場合において、撮像方向及び投影方向がその作業により妨害されることを低減し得、それによって作業の効率化を図ることができるという効果がある。   According to the image input / output device according to claim 14, in addition to the effect produced by the image input / output device according to any one of claims 1 to 13, a projection unit including a light source unit, a spatial modulation unit, and a projection unit, The imaging unit having the imaging unit and provided integrally with the projection unit is configured to be movable relative to the subject. In the case of performing the above, there is an effect that the imaging direction and the projection direction can be reduced from being obstructed by the work, thereby improving the work efficiency.

請求項15記載の画像入出力装置によれば、請求項1から14のいずれかに記載の画像入出力装置の奏する効果に加えて、所定のパターン形状を有する画像を投影し、その画像を消灯した後に、計測情報又は指示情報に基づく画像を投影する。即ち、該所定のパターン形状を有する画像に基づいて三次元情報が得られ、次いで、その三次元情報に基づく計測情報又は指示情報が得られ、その計測情報又は指示情報が、該所定のパターン形状を有する画像の消灯後に投影される。よって、例えば、被写体の三次元形状の取得と計測とを連動して実行することなどが可能とされ、作業の効率化を図ることができるという効果がある。   According to the image input / output device described in claim 15, in addition to the effect produced by the image input / output device according to any one of claims 1 to 14, an image having a predetermined pattern shape is projected, and the image is turned off. After that, an image based on measurement information or instruction information is projected. That is, three-dimensional information is obtained based on the image having the predetermined pattern shape, and then measurement information or instruction information based on the three-dimensional information is obtained, and the measurement information or instruction information is the predetermined pattern shape. Is projected after the image having the light is turned off. Therefore, for example, the acquisition and measurement of the three-dimensional shape of the subject can be executed in conjunction with each other, and there is an effect that the work efficiency can be improved.

請求項16記載の画像入出力装置によれば、請求項1から15のいずれかに記載の画像入出力装置の奏する効果に加えて、該被写体又は投影方向上の画像投影可能な面に投影された計測情報又は指示情報を撮像し、その撮像データを取得するので、計測情報又は指示情報を記録として残すことができるという効果がある。   According to the image input / output device of the sixteenth aspect, in addition to the effect produced by the image input / output device according to any one of the first to fifteenth aspects, the image is projected onto the subject or a surface capable of projecting an image in the projection direction. Since the measurement information or instruction information is imaged and the image data is acquired, there is an effect that the measurement information or instruction information can be recorded.

以下、本発明の好ましい実施例について、添付図面を参照して説明する。図1は、本発明の画像入出力装置1の外観斜視図である。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is an external perspective view of an image input / output device 1 of the present invention.

画像入出力装置1は、デジタルカメラとして機能するデジカメモード、ウェブカメラとして機能するwebcamモード、3次元形状を検出して立体画像を取得するための立体画像モード、湾曲した原稿等を平面化した平面化画像を取得するための平面化画像モード、体積や重量を計測し、その結果を投影して表示する体積・重量計測モード、入力された指定点に基づく計測を行い、その結果を投影して表示する指定点計測モード等の種々のモードを備えた装置である。   The image input / output device 1 includes a digital camera mode that functions as a digital camera, a webcam mode that functions as a web camera, a stereoscopic image mode for detecting a three-dimensional shape and acquiring a stereoscopic image, and a planarized flat surface of a curved document. Planarized image mode for acquiring a digitized image, volume / weight measurement mode for measuring the volume and weight, projecting and displaying the result, measuring based on the specified specified point, and projecting the result It is an apparatus having various modes such as a designated point measurement mode to be displayed.

図1では、特に、立体画像モードや平面化画像モードにおいて、被写体としての原稿Pの3次元形状を検出するために、後述する画像投影部13から明暗を交互に並べてなる縞状のパターン光を投影している様子を図示している。   In FIG. 1, in order to detect the three-dimensional shape of the document P as a subject, particularly in the stereoscopic image mode and the planarized image mode, striped pattern light obtained by alternately arranging light and dark from the image projection unit 13 described later is used. A state of projection is illustrated.

画像入出力装置1は、略箱状に形成された撮像ヘッド2と、その撮像ヘッド2と一端が連結されたパイプ状のアーム部材3と、そのアーム部材3の他端と連結され、平面視略L型に形成されたベース4とを備えている。   The image input / output device 1 is connected to an imaging head 2 formed in a substantially box shape, a pipe-shaped arm member 3 having one end connected to the imaging head 2, and the other end of the arm member 3. And a base 4 formed in a substantially L shape.

撮像ヘッド2は、その内部に後述する画像投影部13や画像撮像部14を内包するケースである。撮像ヘッド2の正面には、その中央部に筒状の鏡筒5と、鏡筒5の斜め上方にファインダ6と、そのファインダ6の反対側にフラッシュ7とが配置されている。また、ファインダ6とフラッシュ7との間に、後述する画像撮像部14の一部である撮像光学系21のレンズの一部が外面に露出しており、この露出部分から被写体の画像が入力される。   The imaging head 2 is a case in which an image projection unit 13 and an image imaging unit 14 described later are included. On the front surface of the imaging head 2, a cylindrical barrel 5 is disposed at the center thereof, a finder 6 is disposed obliquely above the barrel 5, and a flash 7 is disposed on the opposite side of the finder 6. In addition, a part of the lens of the imaging optical system 21 which is a part of the image capturing unit 14 described later is exposed on the outer surface between the finder 6 and the flash 7, and an image of the subject is input from the exposed part. The

鏡筒5は、撮像ヘッド2の正面から突出し、その内部に画像投影部13の一部である投影光学系20を内包するカバーである。この鏡筒5によって、投影光学系20が保持され、全体を焦点調節のため移動可能とされ、且つ、傷つくのが防止されている。また、鏡筒5端面からは、画像投影部13の一部である投影光学系20のレンズの一部が外面に露出しており、この露出部分から投影面に向かって画像信号光が投影される。   The lens barrel 5 is a cover that protrudes from the front of the imaging head 2 and encloses the projection optical system 20 that is a part of the image projection unit 13 therein. The lens barrel 5 holds the projection optical system 20 so that the projection optical system 20 can be moved as a whole for focus adjustment and is prevented from being damaged. Further, from the end surface of the lens barrel 5, a part of the lens of the projection optical system 20 that is a part of the image projection unit 13 is exposed on the outer surface, and image signal light is projected from the exposed part toward the projection surface. The

ファインダ6は、撮像ヘッド2の背面から正面を通して配設される光学レンズで構成されている。撮像装置1の背面から使用者がのぞき込んだ時に、撮像光学系21がCCD22上に結像する範囲とほぼ一致する範囲が見えるようになっている。   The viewfinder 6 is composed of an optical lens that is disposed from the back of the imaging head 2 through the front. When the user looks in from the back of the image pickup apparatus 1, a range that substantially matches the range in which the image pickup optical system 21 forms an image on the CCD 22 can be seen.

フラッシュ7は、例えば、デジカメモードや指定点計測モードにおいて、必要な光量を補足するための光源であり、キセノンガスが充填された放電管で構成されている。よって、撮像ヘッド2に内蔵されているコンデンサ(図示せず)からの放電により繰り返し使用することができる。   The flash 7 is a light source for supplementing a necessary light amount in, for example, a digital camera mode or a designated point measurement mode, and is composed of a discharge tube filled with xenon gas. Therefore, it can be repeatedly used by discharging from a capacitor (not shown) built in the imaging head 2.

また、撮像ヘッド2の上面には、手前側にレリーズボタン8と、そのレリーズボタン8の奥方にモード切替スイッチ9と、モード切替スイッチ9の反対側にモニタLCD10とが配置されている。   On the upper surface of the imaging head 2, a release button 8 is disposed on the front side, a mode switch 9 is disposed behind the release button 8, and a monitor LCD 10 is disposed on the opposite side of the mode switch 9.

レリーズボタン8は、「半押し状態」と「全押し状態」との2種類の状態に設定可能な2段階の押しボタン式のスイッチで構成されている。レリーズボタン8の状態は後述するプロセッサ15に管理されており、「半押し状態」で周知のオートフォーカス(AF)および自動露出(AE)機能が起動し、ピント、絞り、シャッタスピードが調節され、「全押し状態」で撮像等が行われる。   The release button 8 is composed of a two-stage push button switch that can be set in two types of states, “half-pressed state” and “full-pressed state”. The state of the release button 8 is managed by a processor 15 which will be described later, and in the “half-pressed state”, the well-known autofocus (AF) and automatic exposure (AE) functions are activated, and the focus, aperture, and shutter speed are adjusted. Imaging or the like is performed in the “fully pressed state”.

モード切替スイッチ9は、デジカメモード、webcamモード、立体画像モード、平面化画像モード、体積・重量計測モード、指定点計測モード、オフモード等の種々のモードに設定可能なスイッチである。モード切替スイッチ9の状態はプロセッサ15に管理されており、モード切替スイッチ9の状態がプロセッサ15によって検出されることで各モードの処理が実行される。   The mode switch 9 is a switch that can be set in various modes such as a digital camera mode, a webcam mode, a stereoscopic image mode, a planarized image mode, a volume / weight measurement mode, a designated point measurement mode, and an off mode. The state of the mode changeover switch 9 is managed by the processor 15, and the processing of each mode is executed when the state of the mode changeover switch 9 is detected by the processor 15.

モニタLCD10は、液晶ディスプレイ(Liquid Crystal Display)で構成されており、プロセッサ15からの画像信号を受けて画像を使用者に表示する。例えば、モニタLCD10には、デジカメモードやwebcamモードや体積・重量計測モードにおける撮像画像や、立体画像モードや指定点計測モードにおける3次元形状検出結果画像、平面化画像モードにおける平面化画像等が表示される。   The monitor LCD 10 is composed of a liquid crystal display, and receives an image signal from the processor 15 and displays an image to the user. For example, the monitor LCD 10 displays a captured image in a digital camera mode, a webcam mode, a volume / weight measurement mode, a three-dimensional shape detection result image in a stereoscopic image mode or a specified point measurement mode, a planarized image in a planarized image mode, and the like. Is done.

更に、撮像ヘッド2の側面には、その上方にRF(無線)インターフェイスとしてのアンテナ11と、撮像ヘッド2とアーム部材3とを連結する連結部材12とが配置されている。   Furthermore, an antenna 11 as an RF (wireless) interface and a connecting member 12 that connects the imaging head 2 and the arm member 3 are disposed on the side surface of the imaging head 2.

アンテナ11は、後述するRFドライバ24を介してデジカメモードで取得した撮像画像データや立体画像モードで取得した立体画像データ等を外部インターフェイスに無線通信によって送信する一方で、体積・重量計測モードで使用する作業内容情報等を外部インターフェイスから無線通信によって受信し、後述するRFドライバ24に出力するものである。   The antenna 11 transmits the captured image data acquired in the digital camera mode or the stereoscopic image data acquired in the stereoscopic image mode via the RF driver 24 described later to the external interface by wireless communication, and is used in the volume / weight measurement mode. Work content information to be received is received from an external interface by wireless communication, and is output to an RF driver 24 described later.

連結部材12は、内周面に雌ねじが形成されたリング状に形成され、撮像ヘッド2の側面に回動可能に固定されている。また、アーム部材3の一端側には雄ねじが形成されている。この雌ねじと雄ねじとを嵌合させることで、撮像ヘッド2とアーム部材3とを着脱自在に連結することができると共に、撮像ヘッド2を任意の角度で固定することができるようになっている。従って、撮像ヘッド2を取り外し、通常のデジカメ(デジタルカメラ)として使用できる。   The connecting member 12 is formed in a ring shape in which an internal thread is formed on the inner peripheral surface, and is fixed to the side surface of the imaging head 2 so as to be rotatable. A male screw is formed on one end side of the arm member 3. By fitting the female screw and the male screw, the imaging head 2 and the arm member 3 can be detachably connected, and the imaging head 2 can be fixed at an arbitrary angle. Therefore, the imaging head 2 can be removed and used as a normal digital camera (digital camera).

アーム部材3は、撮像ヘッド2を所定の撮像位置に変化可能に保持するためのものであり、任意の形状に屈曲可能な蛇腹状のパイプで構成されている。よって撮像ヘッド2を任意の位置に向けることができる。   The arm member 3 is for holding the imaging head 2 in a predetermined imaging position so as to be changeable, and is composed of a bellows-like pipe that can be bent into an arbitrary shape. Therefore, the imaging head 2 can be directed to an arbitrary position.

ベース4は、机上等の載置台に載置され、撮像ヘッド2とアーム部材3とを支持するものである。平面視略L字型に形成されているので、安定して撮像ヘッド2等を支持することができる。また、ベース4とアーム部材3とは着脱自在に連結されているので、持ち運びに便利であり、省スペースで収納することもできる。   The base 4 is mounted on a mounting table such as a desk and supports the imaging head 2 and the arm member 3. Since it is formed in a substantially L shape in plan view, the imaging head 2 and the like can be stably supported. In addition, since the base 4 and the arm member 3 are detachably connected, it is convenient to carry and can be stored in a small space.

図2は、撮像ヘッド2の内部構成を模式的に示す図である。撮像ヘッド2の内部には、主に、画像投影部13と、画像撮像部14と、プロセッサ15とが内蔵されている。   FIG. 2 is a diagram schematically illustrating the internal configuration of the imaging head 2. The imaging head 2 mainly includes an image projection unit 13, an image imaging unit 14, and a processor 15.

画像投影部13は、投影面に任意の投影画像を投影するためのユニットであり、投影方向に沿って、基板16と、複数個のLED17(その総称として以下「LEDアレイ17A」という)と、光源レンズ18と、投影LCD19と、投影光学系20とを備えている。尚、この画像投影部13については、図3において詳細に説明する。   The image projection unit 13 is a unit for projecting an arbitrary projection image on a projection plane, and along the projection direction, a substrate 16 and a plurality of LEDs 17 (hereinafter collectively referred to as “LED array 17A”), A light source lens 18, a projection LCD 19, and a projection optical system 20 are provided. The image projection unit 13 will be described in detail with reference to FIG.

画像撮像部14は、被写体としての原稿Pを撮像するためのユニットであり、光の入力方向に沿って、撮像光学系21と、CCD22とを備えている。   The image capturing unit 14 is a unit for capturing an image of a document P as a subject, and includes an image capturing optical system 21 and a CCD 22 along the light input direction.

撮像光学系21は、複数枚のレンズで構成され、周知のオートフォーカス機能を有し、自動で焦点距離及び絞りを調整して外部からの光をCCD22上に結像する。   The imaging optical system 21 is composed of a plurality of lenses and has a known autofocus function, and automatically adjusts the focal length and aperture to form an image of light from the outside on the CCD 22.

CCD22は、CCD(Charge Coupled Device)素子などの光電変換素子をマトリクス状に配列して構成され、撮像光学系21を介して表面に結像される画像の光の色及び強さに応じた信号を生成し、これをデジタルデータに変換してプロセッサ15に出力する。   The CCD 22 is configured by arranging photoelectric conversion elements such as CCD (Charge Coupled Device) elements in a matrix, and a signal corresponding to the color and intensity of light of an image formed on the surface via the imaging optical system 21. Is converted into digital data and output to the processor 15.

プロセッサ15には、フラッシュ7、レリーズボタン8、モード切替スイッチ9、モニタLCDドライバ23を介してモニタLCD10、RFドライバ24を介してアンテナ11、電源インターフェイス25を介してバッテリ26、外部メモリ27、キャッシュメモリ28、光源ドライバ29を介してLEDアレイ17A、投影LCDドライバ30を介して投影LCD19、CCDインターフェイス31を介してCCD22の各々が電気的に接続され、プロセッサ15によって管理されている。   The processor 15 includes a flash 7, a release button 8, a mode switch 9, a monitor LCD driver 23 through a monitor LCD 10, an RF driver 24 through an antenna 11, a power supply interface 25 through a battery 26, an external memory 27, a cache The LED array 17A via the memory 28, the light source driver 29, the projection LCD 19 via the projection LCD driver 30, and the CCD 22 via the CCD interface 31 are electrically connected and managed by the processor 15.

外部メモリ27は、着脱自在なフラッシュROMであり、デジカメモードやwebcamモード、そして立体画像モード、指定点計測モードにおいて撮像した撮像画像や3次元情報を記憶する。具体的には、SDカード、コンパクトフラッシュ(登録商標)カード等を使用することができる。   The external memory 27 is a detachable flash ROM, and stores captured images and three-dimensional information captured in the digital camera mode, the webcam mode, the stereoscopic image mode, and the designated point measurement mode. Specifically, an SD card, a compact flash (registered trademark) card, or the like can be used.

キャッシュメモリ28は、高速な記憶装置である。例えば、デジカメモードや指定点計測モードにおいて撮像した撮像画像を高速でキャッシュメモリ28に転送し、プロセッサ15で画像処理を行ってから外部メモリ27に格納されるように使われる。具体的には、SDRAM、DDRRAM等を使用することができる。   The cache memory 28 is a high-speed storage device. For example, the captured image captured in the digital camera mode or the designated point measurement mode is transferred to the cache memory 28 at a high speed, and is processed in the processor 15 before being stored in the external memory 27. Specifically, SDRAM, DDRRAM, or the like can be used.

尚、電源インターフェイス25はバッテリ26を、光源ドライバ29はLEDアレイ17Aを、投影LCDドライバ30は投影LED19を、CCDインターフェイス31はCCD22を各々制御する各種のIC(Integrated Circuit:集積回路)によって構成されている。   The power interface 25 includes a battery 26, the light source driver 29 includes an LED array 17A, the projection LCD driver 30 includes a projection LED 19, and the CCD interface 31 includes various ICs (integrated circuits) that control the CCD 22. ing.

図3(a)は画像投影部13の拡大図であり、(b)は光源レンズ18の平面図であり、(c)は投影LCD19とCCD22との配置関係を示す図である。   3A is an enlarged view of the image projection unit 13, FIG. 3B is a plan view of the light source lens 18, and FIG. 3C is a diagram showing an arrangement relationship between the projection LCD 19 and the CCD 22.

上述した通り、画像投影部13は、投影方向に沿って、基板16と、LEDアレイ17Aと、光源レンズ18と、投影LCD19と、投影光学系20とを備えている。   As described above, the image projection unit 13 includes the substrate 16, the LED array 17A, the light source lens 18, the projection LCD 19, and the projection optical system 20 along the projection direction.

基板16は、LEDアレイ17Aを実装すると共に、LEDアレイ17Aとの電気的な配線をするためのものである。具体的には、アルミ製基板に絶縁樹脂を塗布してから無電解メッキにてパターンを形成したものやカラエポ基材をコアとする単層または多層構造の基板を使用することができる。   The substrate 16 is used to mount the LED array 17A and to perform electrical wiring with the LED array 17A. Specifically, it is possible to use a substrate having a single layer or a multilayer structure in which an insulating resin is applied to an aluminum substrate and then a pattern is formed by electroless plating, or a core of a color epoxy substrate.

LEDアレイ17Aは、投影LCD19に向けて放射状の光を発光する光源であり、基板16上に、複数個のLED17(発光ダイオード)が千鳥状に配列され、銀ペーストを介して接着されている。また、ボンディングワイヤを介して電気的に結線されている。   The LED array 17A is a light source that emits radial light toward the projection LCD 19, and a plurality of LEDs 17 (light emitting diodes) are arranged in a staggered pattern on the substrate 16 and bonded via a silver paste. Further, they are electrically connected via bonding wires.

このように光源として複数個のLED17を使用することで、光源として白熱電球、ハロゲンランプ等を使用する場合に比べて、電気を光に変換する効率(電気光変換効率)を高め、同時に赤外線や紫外線の発生を抑えることができる。よって、省電力で駆動でき、節電化、長寿命化を図ることができる。また、装置の温度上昇を低減させることができる。   By using a plurality of LEDs 17 as a light source in this way, the efficiency of converting electricity into light (electro-optical conversion efficiency) is improved compared with the case where an incandescent bulb, a halogen lamp, or the like is used as a light source. Generation of ultraviolet rays can be suppressed. Therefore, it is possible to drive with power saving, and to save power and extend the life. Moreover, the temperature rise of an apparatus can be reduced.

この様に、LED17はハロゲンランプ等に比べて熱線の発生が極めて低いので、後述する光源レンズ18や投影光学系20として、樹脂製のレンズを採用することができる。よって、ガラス製のレンズを採用する場合に比べて、各レンズ18,20を安価で軽量に構成することができる。   As described above, the LED 17 generates extremely low heat rays as compared with a halogen lamp or the like. Therefore, a resin lens can be used as the light source lens 18 and the projection optical system 20 described later. Therefore, compared with the case where a glass lens is employed, each of the lenses 18 and 20 can be configured at low cost and light weight.

また、LEDアレイ17Aを構成する各LED17は、各々同じ発光色を発光するもので、材料にAl、In、Ga、Pの4元素を用いたアンバー色を発光するもので構成されている。よって、複数色の発光色を発光させる場合に生ずる色収差の補正を考慮する必要はなく、色収差を補正するために投影光学系20として色消しレンズを採用する必要はないので、投影光学系20の設計の自由度を向上させることができる。   Each LED 17 constituting the LED array 17A emits the same emission color, and is configured to emit amber color using four elements of Al, In, Ga, and P as materials. Therefore, it is not necessary to consider correction of chromatic aberration that occurs when emitting a plurality of emission colors, and it is not necessary to employ an achromatic lens as the projection optical system 20 in order to correct chromatic aberration. The degree of freedom in design can be improved.

また、他の発光色に比べて電気光変換率が約80lumen/Wと高い4元素材料のアンバー色LEDを採用することで、一層、高輝度、節電、長寿命化を図ることができる。尚、各LED17を千鳥状に配置する事に関する効果については、図4を参照して説明する。   In addition, by using an amber LED of a four-element material having an electro-optical conversion rate as high as about 80 lumen / W compared to other luminescent colors, it is possible to achieve higher brightness, power saving, and longer life. The effect related to arranging the LEDs 17 in a staggered manner will be described with reference to FIG.

具体的には、LEDアレイ17Aは59個のLED17からなり、各LED17は50mW(20mA,2.5V)で駆動され、結局、全59個のLED17は略3Wの消費電力で駆動される。また、各LED17から発光される光が、光源レンズ18、投影LCD19を通過して投影光学系20から照射される場合の光束値としての明るさは、全面照射の場合であっても25ANSIルーメン程度に設定されている。   Specifically, the LED array 17A is composed of 59 LEDs 17, and each LED 17 is driven at 50 mW (20 mA, 2.5 V). Eventually, all 59 LEDs 17 are driven with power consumption of approximately 3 W. Further, the brightness as the luminous flux value when the light emitted from each LED 17 passes through the light source lens 18 and the projection LCD 19 and is irradiated from the projection optical system 20 is about 25 ANSI lumens even in the case of the entire surface irradiation. Is set to

この明るさを採用することで、例えば、立体画像モードにおいて、人や動物の顔面等の被写体の3次元形状を検出する場合に、人や動物に眩しさを与えず、人や動物が目をつぶっていない状態の3次元形状を検出することができる。   By adopting this brightness, for example, in the stereoscopic image mode, when detecting the three-dimensional shape of a subject such as the face of a person or animal, the person or animal does not give glare to the person or animal. It is possible to detect a three-dimensional shape that is not collapsed.

光源レンズ18は、LEDアレイ17Aから放射状に発光される光を集光するレンズであり、その材質はアクリルに代表される光学樹脂で構成されている。   The light source lens 18 is a lens that collects light emitted radially from the LED array 17A, and the material thereof is made of an optical resin typified by acrylic.

具体的には、光源レンズ18は、LEDアレイ17Aの各LED17に対向する位置に投影LED19側に向けて凸設された凸状のレンズ部18aと、そのレンズ部18aを支持するベース部18bと、そのベース部18bの内部空間であってLEDアレイ17Aを内包する開口に充填されるLED17の封止および基板16と光源レンズ18との接着を目的としたエポキシ封止材18cと、ベース部18bから基板16側に突設され、光源レンズ18と基板16とを接続する位置決めピン18dとを備えている。   Specifically, the light source lens 18 includes a convex lens portion 18a that protrudes toward the projection LED 19 at a position facing each LED 17 of the LED array 17A, and a base portion 18b that supports the lens portion 18a. An epoxy encapsulant 18c for sealing the LED 17 and filling the substrate 16 and the light source lens 18 in an internal space of the base portion 18b and filling an opening containing the LED array 17A, and the base portion 18b And a positioning pin 18d for connecting the light source lens 18 and the substrate 16 to each other.

光源レンズ18は、開口の内部にLEDアレイ17Aを内包させつつ、基板16に穿設されている長孔16に位置決めピン18dを差込み、基板16上に固定される。   The light source lens 18 is fixed on the substrate 16 by inserting positioning pins 18 d into the long holes 16 formed in the substrate 16 while enclosing the LED array 17 </ b> A inside the opening.

よって、省スペースで光源レンズ18を配置することができる。また、基板16にLEDアレイ17Aを実装するという機能の他に、光源レンズ18を支持するという機能を兼任させることで、光源レンズ18を支持する部品を別途必要とせず、部品の点数を削減することができる。   Therefore, the light source lens 18 can be disposed in a space-saving manner. In addition to the function of mounting the LED array 17A on the substrate 16, the function of supporting the light source lens 18 is also used, so that a part for supporting the light source lens 18 is not required and the number of parts is reduced. be able to.

また、各レンズ部18aは、LEDアレイ17Aの各LED17と1対1の関係で対向する位置に配置されている。   Each lens portion 18a is disposed at a position facing each LED 17 of the LED array 17A in a one-to-one relationship.

よって、各LED17から発光される放射状の光は、各LED17に対向する各レンズ部18によって効率良く集光され、図に示すような指向性の高い放射光として投影LED19に照射される。この様に指向性を高めたのは、投影LCD19に略垂直に光を入射することによって、面内の透過率ムラが抑制され得るためである。また同時に、投影光学系20は、テレセントリック特性を持ち、その入射NAが0.1程度であるため、垂直±5°以内の光のみが内部の絞りを通過できるように規制されているためである。従って、LED17からの光を出射角度を垂直に揃え、且つ、±5°にほどんどの光束を入れることが画質向上の要点となる。   Therefore, the radial light emitted from each LED 17 is efficiently condensed by each lens unit 18 facing each LED 17 and irradiated to the projection LED 19 as radiation having high directivity as shown in the figure. The reason why the directivity is improved in this way is that the uneven transmittance in the plane can be suppressed by making light incident on the projection LCD 19 substantially perpendicularly. At the same time, since the projection optical system 20 has telecentric characteristics and its incident NA is about 0.1, it is regulated so that only light within ± 5 ° vertical can pass through the internal diaphragm. . Therefore, it is important to improve the image quality to align the light emitted from the LED 17 with the vertical emission angle and to enter a light flux of about ± 5 °.

投影LCD19は、光源レンズ18を通過して集光された光に空間変調を施して、投影光学系20に向けて画像信号光を出力する空間変調素子であって、具体的には、縦横の比率の異なる板状の液晶ディスプレイ(Liquid Crystal Display)で構成されている。   The projection LCD 19 is a spatial modulation element that spatially modulates the light collected through the light source lens 18 and outputs image signal light to the projection optical system 20. It is composed of plate-like liquid crystal displays having different ratios.

また、(C)に示すように、この投影LCD19を構成する各画素は、その液晶ディスプレイの長手方向に沿って一直線状に並べられた1の画素列と、その1の画素列とは液晶ディスプレイの長手方向に所定間隔ずれた他の画素列とを交互に並列に並べて配置されている。   Further, as shown in (C), each pixel constituting the projection LCD 19 includes one pixel column arranged in a straight line along the longitudinal direction of the liquid crystal display, and the one pixel column is a liquid crystal display. Other pixel columns that are shifted by a predetermined distance in the longitudinal direction are alternately arranged in parallel.

尚、(C)は紙面手前側に撮像ヘッド2の正面を向け、紙面裏側から光が投影LCD19に向けて照射され、紙面手間側からCCD22に被写体像が結像される状態であるとする。   Note that (C) is a state in which the front surface of the imaging head 2 is directed to the front side of the paper, light is irradiated toward the projection LCD 19 from the back side of the paper, and a subject image is formed on the CCD 22 from the side of the paper.

このように、投影LCD19を構成する画素を長手方向に千鳥状に配置することで、長手方向と直交する方向(短手方向)において、投影LCD19によって空間変調が施される光を1/2ピッチで制御することができる。従って、細いピッチで投影パターンを制御でき、分解能を上げて高精度に3次元の形状を検出することができる。   In this way, by arranging the pixels constituting the projection LCD 19 in a staggered pattern in the longitudinal direction, the light subjected to spatial modulation by the projection LCD 19 in the direction orthogonal to the longitudinal direction (short direction) is ½ pitch. Can be controlled. Therefore, the projection pattern can be controlled with a fine pitch, and the three-dimensional shape can be detected with high accuracy by increasing the resolution.

特に、後述する立体画像モードや平面化画像モードや体積・重量計測モードや指定点計測モードにおいて、被写体の3次元形状を検出すべく、被写体に向けて明暗を交互に並べてなる縞状のパターン光を投光する場合に、その縞方向を投影LCD19の短手方向に一致させることで、明暗の境界を1/2ピッチで制御することができるので、同様に高精度に3次元の形状を検出することができる。   In particular, in a stereoscopic image mode, a planarized image mode, a volume / weight measurement mode, and a specified point measurement mode, which will be described later, a striped pattern light in which light and dark are alternately arranged toward the subject in order to detect the three-dimensional shape of the subject. By aligning the fringe direction with the short direction of the projection LCD 19, it is possible to control the light / dark boundary with a 1/2 pitch, and similarly detect a three-dimensional shape with high accuracy. can do.

また、撮像ヘッド2の内部において、投影LCD19とCCD22とは、(C)に示すような関係で配置される。具体的には、投影LCD19の幅広面とCCD22の幅広面とは略同一の方向に向いて配置されているので、投影LCD19から投影面に投影されている画像をCCD22に結像させる場合に、投影画像をハーフミラー等で屈曲させることなく、そのままの状態で投影画像を結像させることができる。   In the imaging head 2, the projection LCD 19 and the CCD 22 are arranged in a relationship as shown in (C). Specifically, since the wide surface of the projection LCD 19 and the wide surface of the CCD 22 are arranged in substantially the same direction, when an image projected on the projection surface from the projection LCD 19 is formed on the CCD 22, The projected image can be formed as it is without bending the projected image with a half mirror or the like.

また、CCD22は、投影LCD19の長手方向側(画素列が延びる方向側)に配置されている。よって、特に、立体画像モードや平面化画像モードや体積・重量計測モードや指定点計測モードにおいて、三角測量の原理を利用して被写体の3次元形状を検出する場合には、CCD22と被写体とのなす傾きを1/2ピッチで制御することができるので、同様に高精度に3次元の形状を検出することができる。   The CCD 22 is disposed on the longitudinal direction side (the direction side in which the pixel column extends) of the projection LCD 19. Therefore, in particular, in the case of detecting the three-dimensional shape of the subject using the principle of triangulation in the stereoscopic image mode, the planarized image mode, the volume / weight measurement mode, or the designated point measurement mode, the CCD 22 and the subject Since the formed inclination can be controlled at 1/2 pitch, a three-dimensional shape can be detected with high accuracy as well.

投影光学系20は、投影LED19を通過した画像信号光を投影面に向けて投影する複数のレンズであり、ガラス及び樹脂の組み合わせからなるテレセントリックレンズで構成されている。テレセントリックとは、投影光学系20を通過する主光線は、入射側の空間では光軸に平行になり、射出瞳の位置は無限になる構成をいう。このようにテレセントリックにすることで、前述のように投影LCD19を垂直±5°で通過する光のみを投影し得るので、画質を向上させることができる。   The projection optical system 20 is a plurality of lenses that project the image signal light that has passed through the projection LED 19 toward the projection surface, and is composed of a telecentric lens made of a combination of glass and resin. Telecentric means a configuration in which the principal ray passing through the projection optical system 20 is parallel to the optical axis in the incident side space and the position of the exit pupil is infinite. By using telecentricity in this way, only light passing through the projection LCD 19 at a vertical angle of ± 5 ° can be projected as described above, so that the image quality can be improved.

図4は、LEDアレイ17Aの配列に関する説明をするための図である。(a)は光源レンズ18を通過した光の照度分布を示す図であり、(b)はLEDアレイ17Aの配列状態を示す平面図であり、(c)は投影LCD19面における合成照度分布を示す図である。   FIG. 4 is a diagram for explaining the arrangement of the LED array 17A. (A) is a figure which shows the illumination intensity distribution of the light which passed the light source lens 18, (b) is a top view which shows the arrangement state of LED array 17A, (c) shows the synthetic | combination illumination intensity distribution in projection LCD19 surface. FIG.

(a)に示すように、光源レンズ18を通過した光は、半値拡がり半角θ(=略5°)で、(a)左側に図示するような照度分布を有する光として投影LCD19の表面に到達するように設計されている。   As shown in (a), the light that has passed through the light source lens 18 reaches the surface of the projection LCD 19 as light having an illuminance distribution as shown on the left side at a half-value spread half angle θ (= approximately 5 °). Designed to be.

また、(b)に示すように、複数のLED17は基板上16に千鳥状に配列されている。具体的には、複数個のLED17をdピッチで直列に並べたLED列を、√3/2dピッチで並列に並べ、更に、そのLED列を1列おきに同じ方向に1/2d移動させた状態になるように配置されている。   Further, as shown in (b), the plurality of LEDs 17 are arranged in a staggered pattern on the substrate 16. Specifically, an LED row in which a plurality of LEDs 17 are arranged in series at a d pitch is arranged in parallel at a √3 / 2d pitch, and the LED rows are moved 1 / 2d in the same direction every other row. It is arranged to be in a state.

換言すれば、1のLED17と、その1のLED17の周辺のLCD17との間隔はdになるように設定されている(三角格子配列)。   In other words, the distance between one LED 17 and the LCD 17 around the one LED 17 is set to be d (triangular lattice arrangement).

そして、このdの長さは、LED17の1つから出射された光によって投影LCD19において形成される照度分布の半値全幅(FWHM(Full Width Half Maximun))以下となる様に決定されている。   The length d is determined to be equal to or less than the full width at half maximum (FWHM (Full Width Half Maximun)) of the illuminance distribution formed in the projection LCD 19 by the light emitted from one of the LEDs 17.

よって、光源レンズ18を通過して投影LCD19の表面に到達する光の合成照度分布は、(c)に示すように小さなリップルを含んだ略直線状になり、投影LCD19の面に略均一に光を照射することができる。従って、投影LCD19における照度ムラを抑制することができ、結果的に、高品質な画像を投影することができる。   Accordingly, the combined illuminance distribution of the light passing through the light source lens 18 and reaching the surface of the projection LCD 19 is substantially linear including small ripples as shown in FIG. Can be irradiated. Therefore, the illuminance unevenness in the projection LCD 19 can be suppressed, and as a result, a high-quality image can be projected.

図5は、画像入出力装置1の電気的なブロック図である。尚、既に上述した構成ついては、その説明を省略する。プロセッサ15は、CPU35と、ROM36と、RAM37とを備えている。   FIG. 5 is an electrical block diagram of the image input / output device 1. Note that the description of the above-described configuration is omitted. The processor 15 includes a CPU 35, a ROM 36, and a RAM 37.

CPU35は、ROM36に記憶されたプログラムによる処理に応じて、RAM37を利用して、レリーズボタン8の押下げ操作の検知、CCD22から画像データの取り込み、その画像データの転送、格納、モード切替スイッチ9の状態の検出等の各種処理を行う。   The CPU 35 uses the RAM 37 in accordance with the processing by the program stored in the ROM 36 to detect the pressing operation of the release button 8, fetch the image data from the CCD 22, transfer and store the image data, and the mode switch 9. Various processes, such as detection of the state of, are performed.

ROM36には、カメラ制御プログラム36aと、パターン光撮影プログラム36bと、輝度画像生成プログラム36cと、コード画像生成プログラム36dと、コード境界抽出プログラム36eと、レンズ収差補正プログラム36fと、三角測量演算プログラム36gと、原稿姿勢演算プログラム36hと、平面変換プログラム36iとが格納されている。   The ROM 36 includes a camera control program 36a, a pattern light photographing program 36b, a luminance image generation program 36c, a code image generation program 36d, a code boundary extraction program 36e, a lens aberration correction program 36f, and a triangulation calculation program 36g. A document orientation calculation program 36h and a plane conversion program 36i are stored.

カメラ制御プログラム36aは、図6に示すメイン処理を含む撮像装置1全体の制御に関するプログラムである。   The camera control program 36a is a program related to the control of the entire imaging apparatus 1 including the main process shown in FIG.

パターン光撮影プログラム36bは、原稿Pの3次元形状を検出するために被写体にパターン光を投影した状態と、投影していない状態とを撮像するプログラムである。   The pattern light imaging program 36b is a program for imaging a state in which pattern light is projected onto a subject and a state in which the original is not projected in order to detect the three-dimensional shape of the document P.

輝度画像生成プログラム36cは、パターン光撮影プログラム36bによってパターン光を投影した状態を撮像したパターン光有画像と、パターン光を投影していない状態を撮像したパターン光無画像との差分をとり、投影されたパターン光の輝度画像を生成するプログラムである。   The luminance image generation program 36c takes the difference between the pattern light presence image obtained by imaging the pattern light projected by the pattern light imaging program 36b and the pattern light no image obtained by imaging the state where the pattern light is not projected. This is a program for generating a luminance image of the patterned light.

また、パターン光は複数種類のものが時系列に投影され各パターン光毎に撮像され、撮像された複数枚のパターン光有画像の各々とパターン光無画像との差分がとられ、複数種類の輝度画像が生成される。   In addition, a plurality of types of pattern light are projected in time series and imaged for each pattern light, and the difference between each of the plurality of captured pattern light images and the pattern light no image is obtained. A luminance image is generated.

コード画像生成プログラム36dは、輝度画像生成プログラム36cによって生成される複数枚の輝度画像を重ね合わせ、各画素毎に所定のコードを割り当てたコード画像を生成するプログラムである。   The code image generation program 36d is a program that generates a code image in which a plurality of luminance images generated by the luminance image generation program 36c are superimposed and a predetermined code is assigned to each pixel.

コード境界抽出プログラム36eは、コード画像生成プログラム36dによっって生成されるコード画像と、輝度画像生成プログラム36cによって生成される輝度画像とを利用して、コードの境界座標をサブピクセル精度で求めるプログラムである。   The code boundary extraction program 36e obtains code boundary coordinates with sub-pixel accuracy using the code image generated by the code image generation program 36d and the luminance image generated by the luminance image generation program 36c. It is a program.

レンズ収差補正プログラム36fは、コード境界抽出プログラム36eによってサブピクセル精度で求められているコードの境界座標に対して、撮像光学系20の収差補正を行うプログラムである。   The lens aberration correction program 36f is a program that corrects the aberration of the imaging optical system 20 with respect to the code boundary coordinates obtained with subpixel accuracy by the code boundary extraction program 36e.

三角測量演算プログラム36gは、レンズ収差補正プログラム36fによって収差補正がなされたコードの境界座標から、その境界座標に関する実空間の3次元座標を演算するプログラムである。   The triangulation calculation program 36g is a program for calculating the three-dimensional coordinates of the real space related to the boundary coordinates from the boundary coordinates of the code subjected to the aberration correction by the lens aberration correction program 36f.

原稿姿勢演算プログラム36hは、三角測量演算プログラム36gで演算された3次元座標から原稿Pの3次元形状を推定して求めるプログラムである。   The document orientation calculation program 36h is a program for estimating the three-dimensional shape of the document P from the three-dimensional coordinates calculated by the triangulation calculation program 36g.

平面変換プログラム36iは、原稿姿勢演算プログラム36hで演算される原稿Pの3次元形状に基づき、原稿Pの正面から撮像したような平面化画像を生成するプログラムである。   The plane conversion program 36i is a program that generates a planarized image that is captured from the front of the document P, based on the three-dimensional shape of the document P calculated by the document orientation calculation program 36h.

RAM37には、パターン光有画像格納部37aと、パターン光無画像格納部37bと、輝度画像格納部37cと、コード画像格納部37dと、コード境界座標格納部37eと、ID格納部37fと、収差補正座標格納部37gと、3次元座標格納部37hと、原稿姿勢演算結果格納部37iと、平面変換結果格納部37jと、投影画像格納部37kと、作業内容情報格納部37lと、3次元情報格納部37mと、指差座標入力部37nと、ワーキングエリア37oとが記憶領域として割り当てられている。   The RAM 37 includes a pattern light existence image storage unit 37a, a pattern light no image storage unit 37b, a luminance image storage unit 37c, a code image storage unit 37d, a code boundary coordinate storage unit 37e, an ID storage unit 37f, Aberration correction coordinate storage unit 37g, three-dimensional coordinate storage unit 37h, document orientation calculation result storage unit 37i, plane conversion result storage unit 37j, projection image storage unit 37k, work content information storage unit 37l, three-dimensional An information storage unit 37m, a pointing coordinate input unit 37n, and a working area 37o are allocated as storage areas.

パターン光有画像格納部37aは、パターン光撮影プログラム36bによって原稿Pにパターン光を投影した状態を撮像したパターン光有画像を格納する。パターン光無画像格納部37bは、パターン光撮影プログラム36bによって原稿Pにパターン光を投影していない状態を撮像したパターン光無画像を格納する。   The pattern light present image storage unit 37a stores a pattern light present image obtained by imaging the state in which the pattern light is projected onto the document P by the pattern light photographing program 36b. The pattern light no image storage unit 37b stores a pattern light no image obtained by imaging the state in which the pattern light is not projected onto the document P by the pattern light photographing program 36b.

輝度画像格納部37cは、輝度画像生成プログラム36cによって生成される輝度画像を格納する。コード画像格納部37dは、コード画像生成プログラム36dによって生成されるコード画像を格納する。コード境界座標格納部37eは、コード境界抽出プログラム36eによって、抽出されるサブピクセル精度で求められた各コードの境界座標を格納する。ID格納部37fは、境界を有する画素位置において明暗の変化を有する輝度画像に割り当てられるID等を格納する。収差補正座標格納部37gは、レンズ収差補正プログラム36fによって収差補正がなされたコードの境界座標を格納する。3次元形状座標格納部37hは、三角測量演算プログラム36gによって演算される実空間の3次元座標を格納する。   The luminance image storage unit 37c stores a luminance image generated by the luminance image generation program 36c. The code image storage unit 37d stores a code image generated by the code image generation program 36d. The code boundary coordinate storage unit 37e stores the boundary coordinates of each code obtained by the code boundary extraction program 36e with subpixel accuracy extracted. The ID storage unit 37f stores an ID assigned to a luminance image having a change in brightness at a pixel position having a boundary. The aberration correction coordinate storage unit 37g stores the boundary coordinates of the code subjected to the aberration correction by the lens aberration correction program 36f. The three-dimensional shape coordinate storage unit 37h stores the three-dimensional coordinates of the real space calculated by the triangulation calculation program 36g.

原稿姿勢演算結果格納部37iは、原稿姿勢演算プログラム36hによって演算される原稿Pの3次元形状に関するパラメータを格納する。平面変換結果格納部37jは、平面変換プログラム36iよって生成される平面変換結果を格納する。投影画像格納部37kは、画像投影部13から投影する画像情報を格納する。ワーキングエリア37oは、CPU15での演算のために一時的に使用するデータを格納する。   The document orientation calculation result storage unit 37i stores parameters related to the three-dimensional shape of the document P calculated by the document orientation calculation program 36h. The plane conversion result storage unit 37j stores the plane conversion result generated by the plane conversion program 36i. The projection image storage unit 37k stores image information to be projected from the image projection unit 13. The working area 37o stores data temporarily used for calculation by the CPU 15.

作業内容情報格納部37lは、体積・重量計測モードにおいて、作業の内容を示す情報である作業内容情報を格納する。3次元情報格納部37mは、体積・重量計測モードや指定点計測モードにおいて取得された3次元情報を格納する。指差座標格納部37nは、指定点計測モードにおいて、使用者による指差により指定された指定点を格納する。ワーキングエリア37oは、CPU15での演算のために一時的に使用するデータを格納する。   The work content information storage unit 37l stores work content information that is information indicating the work content in the volume / weight measurement mode. The three-dimensional information storage unit 37m stores the three-dimensional information acquired in the volume / weight measurement mode or the designated point measurement mode. The finger point coordinate storage unit 37n stores a designated point designated by a finger point by the user in the designated point measurement mode. The working area 37o stores data temporarily used for calculation by the CPU 15.

図6は、メイン処理のフローチャートである。尚、このメイン処理におけるデジカメ処理(S605)、webcam処理(S607)、立体画像処理(S609
)、平面化画像処理(S611)、体積・重量計測処理(S613)、指定点計測処理(S615)の各処理についての詳細は後述する。
FIG. 6 is a flowchart of the main process. Digital camera processing (S605), webcam processing (S607), and stereoscopic image processing (S609) in this main processing.
), Planarized image processing (S611), volume / weight measurement processing (S613), and designated point measurement processing (S615) will be described in detail later.

メイン処理では、まず、電源が起動されると(S601)、プロセッサ15やその他のインターフェイス等が初期化される(S602)。   In the main process, first, when the power supply is activated (S601), the processor 15 and other interfaces are initialized (S602).

そして、モード切替スイッチ9の状態を判別するキースキャンが行われ(S603)、モード切替スイッチ9の設定がデジカメモードか否かが判断され(S604)、デジカメモードであれば(S604:Yes)、後述するデジカメ処理に移行する(S605)。   Then, a key scan for determining the state of the mode switch 9 is performed (S603), it is determined whether or not the setting of the mode switch 9 is the digital camera mode (S604), and if it is the digital camera mode (S604: Yes), The process proceeds to a digital camera process to be described later (S605).

一方、デジカメモードでなければ(S604:No)、モード切替スイッチ9の設定がwebcamモードか否かが判断され(S606)、webcamモードであれば(S606:Yes)、後述するwebcam処理に移行する(S607)。   On the other hand, if it is not the digital camera mode (S604: No), it is determined whether or not the setting of the mode switch 9 is the webcam mode (S606). If it is the webcam mode (S606: Yes), the process proceeds to the webcam process described later. (S607).

一方、webcamモードでなければ(S605:No)、モード切替スイッチ9の設定が立体画像モードか否かが判断され(S608)、立体画像モードであれば(S608:Yes)、後述する立体画像処理に移行する(S609)。   On the other hand, if it is not the webcam mode (S605: No), it is determined whether the setting of the mode switch 9 is the stereoscopic image mode (S608). If it is the stereoscopic image mode (S608: Yes), the stereoscopic image processing described later is performed. (S609).

一方、立体画像モードでなければ(S608:No)、モード切替スイッチ9の設定が平面化画像モードか否かが判断され(S610)、平面化画像モードであれば(S610:Yes)、後述する平面化画像処理に移行する(S611)。   On the other hand, if it is not the stereoscopic image mode (S608: No), it is determined whether or not the setting of the mode switch 9 is the planar image mode (S610). If it is the planar image mode (S610: Yes), it will be described later. The process proceeds to planarized image processing (S611).

一方、平面化画像モードでなければ(S610:No)、モード切替スイッチ9の設定が体積・重量計測モードか否かが判断され(S612)、体積・重量計測モードであれば(S612:Yes)、後述する体積・重量計測処理に移行する(S613)。   On the other hand, if it is not the planar image mode (S610: No), it is determined whether the setting of the mode switch 9 is the volume / weight measurement mode (S612), and if it is the volume / weight measurement mode (S612: Yes). Then, the process proceeds to a volume / weight measurement process described later (S613).

一方、体積・重量計測モードでなければ(S612:No)、モード切替スイッチ9の設定が指定点計測モードか否かが判断され(S614)、指定点計測モードであれば(S614:Yes)、後述する指定点計測処理に移行する(S615)。   On the other hand, if it is not the volume / weight measurement mode (S612: No), it is determined whether the setting of the mode switch 9 is the designated point measurement mode (S614), and if it is the designated point measurement mode (S614: Yes), The process proceeds to a designated point measurement process to be described later (S615).

一方、指定点計測モードでなければ(S614:No)、モード切替スイッチ9の設定がオフモードか否かが判断され(S612)、オフモードでなければ(S612:No)、S603からの処理を繰り返し、オフモードであれば(S612:Yes)、当該処理を終了する。   On the other hand, if it is not the designated point measurement mode (S614: No), it is determined whether the setting of the mode switch 9 is in the off mode (S612). If it is not the off mode (S612: No), the processing from S603 is performed. If it is repeatedly in the off mode (S612: Yes), the process ends.

図7は、デジカメ処理(図6のS605)のフローチャートである。デジカメ処理は、画像撮像部14によって撮像した画像を取得する処理である。   FIG. 7 is a flowchart of the digital camera process (S605 in FIG. 6). The digital camera process is a process for acquiring an image captured by the image capturing unit 14.

この処理では、まず、CCD22に高解像度設定信号を送信する(S701)。これにより高品質の撮像画像を使用者に提供することができる。   In this process, first, a high resolution setting signal is transmitted to the CCD 22 (S701). Thereby, a high quality captured image can be provided to the user.

次に、モニタLCD10にファインダ画像(ファインダ6を介して見える範囲の画像)を表示する(S702)。よって、使用者は、ファインダ6を覗き込むことなく、モニタLCD10に表示された画像によって実際の撮像の前に、撮像画像(撮像範囲)を確認することができる。   Next, a finder image (an image in a range visible through the finder 6) is displayed on the monitor LCD 10 (S702). Therefore, the user can confirm the captured image (imaging range) before actual imaging with the image displayed on the monitor LCD 10 without looking into the finder 6.

次に、レリーズボタン8をスキャンし(S703a)、レリーズボタン8が半押しされたか否かを判断する(S703b)。半押しされていれば(S703b:Yes)、オートフォーカス(AF)および自動露出(AE)機能を起動し、ピント、絞り、シャッタスピードを調節する(S703c)。尚、半押しされていなければ(S703b:No)、S703aからの処理を繰り返す。   Next, the release button 8 is scanned (S703a), and it is determined whether the release button 8 is half-pressed (S703b). If half-pressed (S703b: Yes), the auto focus (AF) and automatic exposure (AE) functions are activated to adjust the focus, aperture, and shutter speed (S703c). If it is not half-pressed (S703b: No), the processing from S703a is repeated.

次に、再び、レリーズボタン8をスキャンし(S703d)、レリーズボタン8が全押しされたか否かを判断する(S703e)。全押しされていれば(S703e:Yes)、フラッシュモードか否かを判断する(S704)。   Next, the release button 8 is scanned again (S703d), and it is determined whether or not the release button 8 has been fully pressed (S703e). If it is fully pressed (S703e: Yes), it is determined whether or not the flash mode is set (S704).

その結果、フラッシュモードであれば(S704:Yes)、フラッシュ7を投光して(S705)、撮影し(S706)、フラッシュモードでなければ(S704:No)、フラッシュ7を投光することなく撮影する(S706)。尚、S703eの判断において、全押しされていなければ(S703e:No)、S703aからの処理を繰り返す。   As a result, if the flash mode is selected (S704: Yes), the flash 7 is projected (S705) and photographed (S706). If the flash mode is not selected (S704: No), the flash 7 is not projected. A picture is taken (S706). If it is determined in S703e that the button has not been fully pressed (S703e: No), the processing from S703a is repeated.

次に、撮影した撮像画像をCCD22からキャッシュメモリ28に転送し(S707)、キャッシュメモリ28に記憶された撮像画像をモニタLCD10に表示する(S708)。このように、撮像画像をキャッシュメモリ28に転送することでメインメモリに転送する場合に比較して、撮像画像を高速にモニタLCD10に表示させることができる。そして、その撮像画像を外部メモリ27に格納する(S709)。   Next, the captured image is transferred from the CCD 22 to the cache memory 28 (S707), and the captured image stored in the cache memory 28 is displayed on the monitor LCD 10 (S708). In this way, by transferring the captured image to the cache memory 28, the captured image can be displayed on the monitor LCD 10 at a higher speed than when transferring to the main memory. Then, the captured image is stored in the external memory 27 (S709).

最後に、モード切替スイッチ9に変化が無いか否かを判断し(S710)、そ変化が無ければ(S710:Yes)、S702からの処理を繰り返し、変化があれば(S710:No)、当該処理を終了する。   Finally, it is determined whether or not the mode change switch 9 has changed (S710). If there is no change (S710: Yes), the processing from S702 is repeated, and if there is a change (S710: No), The process ends.

図8は、webcam処理(図6のS607)のフローチャートである。webcam処理は、画像撮像部14で撮像した撮像画像(静止画および動画を含む)を外部ネットワークに送信する処理である。尚、本実施例では、撮像画像として動画を外部ネットワークに送信する場合を想定している。   FIG. 8 is a flowchart of the webcam process (S607 in FIG. 6). The webcam process is a process of transmitting a captured image (including a still image and a moving image) captured by the image capturing unit 14 to an external network. In this embodiment, it is assumed that a moving image is transmitted as an imaged image to an external network.

この処理では、ます、CCD22に低解像度設定信号を送信し(S801)、周知のオートフォーカス(AF)及び自動露出(AE)機能を起動して、ピント、絞り、シャッター速度を調節した後に(S802)、撮影を開始する(S803)。   In this process, a low resolution setting signal is first transmitted to the CCD 22 (S801), the well-known autofocus (AF) and automatic exposure (AE) functions are activated, and the focus, aperture, and shutter speed are adjusted (S802). ), Shooting is started (S803).

そして、撮影された撮像画像をモニタLCD10に表示し(S804)、ファインダ画像を投影画像格納部37kに格納し(S805)、後述する投影処理を行い(S806)、投影画像格納部37kに格納されている画像を投影面に投影する。   Then, the captured image is displayed on the monitor LCD 10 (S804), the finder image is stored in the projection image storage unit 37k (S805), the projection process described later is performed (S806), and stored in the projection image storage unit 37k. Project the projected image onto the projection plane.

また、撮像画像をCCD22からキャッシュメモリ28に転送し(S807)、キャッシュメモリ28に転送された撮像画像をRFインターフェイスであるRFドライバ24及びアンテナ11を介して外部ネットワークに送信する(S808)。   Further, the captured image is transferred from the CCD 22 to the cache memory 28 (S807), and the captured image transferred to the cache memory 28 is transmitted to the external network via the RF driver 24 and the antenna 11 which are RF interfaces (S808).

そして、最後に、モード切替スイッチ9に変化が無いか否かを判断し(S809)、変化が無ければ(S809:Yes)、S802からの処理を繰り返し、変化があれば(S809:No)、当該処理を終了する。   Finally, it is determined whether or not the mode change switch 9 has changed (S809). If there is no change (S809: Yes), the processing from S802 is repeated. If there is a change (S809: No), The process ends.

図9は、投影処理(図8のS806)のフローチャートである。この処理は、投画像投影部13から影画像格納部37kに格納されている画像を投影面に投影する処理である。この処理では、まず、投影画像格納部37kに画像が格納されているか否かを確認する(S901)。格納されていれば(S901:Yes)、投影画像格納部37kに格納されている画像を投影LCDドライバ30に転送し(S902)、投影LCDドライバ30から、その画像に応じた画像信号を投影LCD19に送り、投影LCD19に画像を表示する(S903)。   FIG. 9 is a flowchart of the projection process (S806 in FIG. 8). This process is a process of projecting the image stored in the shadow image storage unit 37k from the projected image projection unit 13 onto the projection plane. In this process, first, it is confirmed whether or not an image is stored in the projection image storage unit 37k (S901). If stored (S901: Yes), the image stored in the projection image storage unit 37k is transferred to the projection LCD driver 30 (S902), and the projection LCD driver 30 outputs an image signal corresponding to the image to the projection LCD 19. The image is displayed on the projection LCD 19 (S903).

次に、光源ドライバ29を駆動し(S904)、その光源ドライバ29からの電気信号によってLEDアレイ17Aを点灯し(S905)、当該処理を終了する。   Next, the light source driver 29 is driven (S904), the LED array 17A is turned on by an electrical signal from the light source driver 29 (S905), and the process is terminated.

こうして、LEDアレイ17Aが点灯すると、LEDアレイ17Aから発光する光は、光源レンズ18を介して投影LCD19に到達し、投影LCD19において、投影LCDドライバ30から送信される画像信号に応じた空間変調が施され、画像信号光として出力される。そして、その投影LCD19から出力される画像信号光は、投影光学系20を介して投影面に投影画像として投影される。   Thus, when the LED array 17A is turned on, the light emitted from the LED array 17A reaches the projection LCD 19 via the light source lens 18, and the projection LCD 19 performs spatial modulation according to the image signal transmitted from the projection LCD driver 30. And output as image signal light. The image signal light output from the projection LCD 19 is projected as a projection image on the projection surface via the projection optical system 20.

図10は、立体画像処理(図6のS609)のフローチャートである。立体画像処理は、被写体の3次元形状を検出し、その立体画像としての3次元形状検出結果画像を取得、表示、投影する処理である。   FIG. 10 is a flowchart of the stereoscopic image processing (S609 in FIG. 6). The stereoscopic image processing is processing for detecting a three-dimensional shape of a subject and acquiring, displaying, and projecting a three-dimensional shape detection result image as the stereoscopic image.

この処理では、まず、CCD22に高解像度設定信号を送信し(S1001)、モニタLCD10にファインダ画像を表示する(S1002)。   In this process, first, a high resolution setting signal is transmitted to the CCD 22 (S1001), and a finder image is displayed on the monitor LCD 10 (S1002).

次に、レリーズボタン8をスキャンし(S1003a)、レリーズボタン8が半押しされたか否かを判断する(S1003b)。半押しされていれば(S1003b:Yes)、オートフォーカス(AF)および自動露出(AE)機能を起動し、ピント、絞り、シャッタスピードを調節する(S1003c)。尚、半押しされていなければ(S1003b:No)、S1003aからの処理を繰り返す。   Next, the release button 8 is scanned (S1003a), and it is determined whether the release button 8 is half-pressed (S1003b). If half-pressed (S1003b: Yes), the auto focus (AF) and automatic exposure (AE) functions are activated to adjust the focus, aperture, and shutter speed (S1003c). If not half-pressed (S1003b: No), the processing from S1003a is repeated.

次に、再び、レリーズボタン8をスキャンし(S1003d)、レリーズボタン8が全押しされたか否かを判断する(S1003e)。全押しされていれば(S1003e:Yes)、フラッシュモードか否かを判断する(S1003f)。   Next, the release button 8 is scanned again (S1003d), and it is determined whether or not the release button 8 is fully pressed (S1003e). If it is fully pressed (S1003e: Yes), it is determined whether or not the flash mode is set (S1003f).

その結果、フラッシュモードであれば(S1003f:Yes)、フラッシュ7を投光して(S1003g)、撮影し(S1003h)、フラッシュモードでなければ(S1003f:No)、フラッシュ7を投光することなく撮影する(S1003h)。尚、S1003eの判断において、全押しされていなければ(S1003e:No)、S1003aからの処理を繰り返す。   As a result, if the flash mode is selected (S1003f: Yes), the flash 7 is projected (S1003g), photographed (S1003h), and if the flash mode is not selected (S1003f: No), the flash 7 is not projected. A picture is taken (S1003h). If it is determined in S1003e that the button has not been fully pressed (S1003e: No), the processing from S1003a is repeated.

次に、後述する3次元形状検出処理を行い、被写体の3次元形状を検出する(S1006)。   Next, a three-dimensional shape detection process described later is performed to detect the three-dimensional shape of the subject (S1006).

次に、3次元形状検出処理(S1006)における3次元形状検出結果を外部メモリ27に格納し(S1007)、3次元形状検出結果をモニタLCD10に表示する(S1008)。尚、この3次元形状検出結果とは、各計測頂点の実空間における3次元座標(X,Y,Z)の集合体として表示する。   Next, the three-dimensional shape detection result in the three-dimensional shape detection process (S1006) is stored in the external memory 27 (S1007), and the three-dimensional shape detection result is displayed on the monitor LCD 10 (S1008). The three-dimensional shape detection result is displayed as an aggregate of three-dimensional coordinates (X, Y, Z) in the real space of each measurement vertex.

次に、3次元形状検出結果としての計測頂点をポリゴンで結んでそのサーフェスを表示した立体画像(3DのCG画像)としての3次元形状検出結果画像を投影画像格納部37kに格納し(S1009)、図8のS806の投影処理と同様な投影処理を行う(S1010)。尚、この場合には、図18において説明する投影LCD19上の座標を3次元空間座標に変換する式の逆関数を利用して、求められた3次元座標に対する投影LCD19上の座標を求めることで、3次元形状結果座標を投影面に投影させることができる。   Next, a three-dimensional shape detection result image as a three-dimensional image (3D CG image) displaying the surface by connecting the measurement vertices as a three-dimensional shape detection result with a polygon is stored in the projection image storage unit 37k (S1009). A projection process similar to the projection process of S806 in FIG. 8 is performed (S1010). In this case, the coordinates on the projection LCD 19 with respect to the obtained three-dimensional coordinates are obtained by using the inverse function of the formula for converting the coordinates on the projection LCD 19 described in FIG. 18 into the three-dimensional space coordinates. The three-dimensional shape result coordinates can be projected on the projection plane.

そして、モード切替スイッチ9に変化が無いか否かを判断し(S1011)、変化が無ければ(S1011:Yes)、S702からの処理を繰り返し、変化があれば(S1011:No)、当該処理を終了する。   Then, it is determined whether or not the mode change switch 9 has changed (S1011). If there is no change (S1011: Yes), the processing from S702 is repeated. If there is a change (S1011: No), the processing is performed. finish.

図11(a)は、上述した3次元形状検出処理(図10のS1006)において、3次元形状を検出するために利用する空間コード法の原理を説明するための図であり、(b)は(a)とは異なるパターン光を示す図である。パターン光にはこれら(a)または(b)のいずれを用いても良く、更には、多階調コードであるグレイレベルコードを用いても良い。   FIG. 11A is a diagram for explaining the principle of the spatial code method used to detect a three-dimensional shape in the above-described three-dimensional shape detection process (S1006 in FIG. 10). It is a figure which shows the pattern light different from (a). Either (a) or (b) may be used for the pattern light, and further, a gray level code which is a multi-tone code may be used.

尚、この空間コード法につての詳細は、佐藤宏介、他1名、「空間コード化による距離画像入力」、電子通信学会論文誌、85/3Vol.J 68−D No3 p369〜375に詳細に開示されている。   Details of this spatial coding method are described by Kosuke Sato and one other, “Distance Image Input by Spatial Coding”, IEICE Transactions, 85/3 Vol. J 68-D No3 p369-375.

空間コード法は、投影光と観測画像間の三角測量に基づいて被写体の3次元形状を検出する方法の1種であり、(a)に示すように、投影光源Lと観測器Oとを距離Dだけ離して設置し、空間を細長い扇状領域に分割しコード化することを特徴とする。   The spatial code method is one type of method for detecting the three-dimensional shape of a subject based on triangulation between projected light and an observed image. As shown in (a), the distance between the projection light source L and the observation device O is determined. It is characterized in that it is set apart by D, and the space is divided into long and narrow fan-shaped regions and coded.

図中の3枚のマスクパターンA,B,CをMSBから順番に投影すると、各扇状領域はマスクによって明「1」と暗「0」とにコード化される。例えば、点Pを含む領域は、マスクA,Bでは光が当たらず、マスクCでは明になるので、001(A=0、B=0、C=1)とコード化される。   When the three mask patterns A, B, and C in the figure are projected in order from the MSB, each fan-shaped area is coded into bright “1” and dark “0” by the mask. For example, since the area including the point P is not exposed to light in the masks A and B and bright in the mask C, it is encoded as 001 (A = 0, B = 0, C = 1).

各扇状の領域には、その方向φに相当するコードが割り当てられ、それぞれを1本のスリット光線とみなすことができる。そこで各マスクごとに情景を観測機器としてのカメラで撮影し、明暗パターンを2値化してメモリの各ビットプレーンを構成していく。   Each fan-shaped region is assigned a code corresponding to the direction φ, and each can be regarded as one slit beam. Therefore, the scene is photographed for each mask with a camera as an observation device, and the bit plane of the memory is constructed by binarizing the light / dark pattern.

こうして、得られた多重ビットプレーン画像の横方向の位置(アドレス)は、観測方向θに相当し、このアドレスのメモリの内容は投影光コード、即ち、φを与える。このθとφとから注目点の座標を決定する。   Thus, the horizontal position (address) of the obtained multiple bit-plane image corresponds to the observation direction θ, and the contents of the memory at this address give the projected light code, that is, φ. The coordinates of the point of interest are determined from θ and φ.

また、この方法で使用するマスクパターンとしては、(a)ではマスクパターンA,B,Cのような純2進コードを用いる場合を図示しているが、マスクの位置ズレが起こると領域の境界で大きな誤差が生ずる危険性がある。   In addition, as a mask pattern used in this method, a case where a pure binary code such as mask patterns A, B, and C is used is illustrated in FIG. There is a risk that a large error will occur.

例えば、(a)の点Qは領域3(011)と領域4(100)の境界を示しているが、もしマスクAの1がずれ込むと領域7(111)のコードが生ずる可能性がある。換言すれば、隣接する領域間でハミング距離が2以上のところで、大きな誤差が発生する可能性がある。   For example, the point Q in (a) indicates the boundary between the region 3 (011) and the region 4 (100), but if 1 of the mask A is shifted, the code in the region 7 (111) may be generated. In other words, a large error may occur when the Hamming distance is 2 or more between adjacent regions.

そこで、この方法で使用するマスクパターンとしては、(b)に示すように、隣接する領域間でハミング距離が常に1であるコードを使うことで、上述したようなコード化誤差を避けることができるとされている。   Therefore, as the mask pattern used in this method, as shown in (b), by using a code whose hamming distance is always 1 between adjacent regions, the coding error as described above can be avoided. It is said that.

図12(a)は、3次元形状検出処理(図10のS1006)のフローチャートである。この処理では、まず、撮像処理を行う(S1210)。この撮像処理は、図11(a)に示す複数枚の純2進コードのマスクパターンを利用して画像投影部13から、明暗を交互に並べてなる縞状のパターン光(図1参照)を時系列的に被写体に投影し、各パターン光が投影されている状態を撮像したパターン光有画像と、パターン光が投影されていな状態を撮像したパターン光無画像とを取得する処理である。   FIG. 12A is a flowchart of the three-dimensional shape detection process (S1006 in FIG. 10). In this process, first, an imaging process is performed (S1210). This imaging process uses a plurality of pure binary code mask patterns shown in FIG. 11 (a) to emit striped pattern light (see FIG. 1) in which light and dark are alternately arranged from the image projection unit 13. This is a process of acquiring a pattern light existence image obtained by sequentially projecting on a subject and imaging a state in which each pattern light is projected, and a pattern light no image obtained by imaging a state in which the pattern light is not projected.

撮像処理を終了すると(S1210)、3次元計測処理を行う(S1220)。3次元計測処理は、撮像処理によって取得したパターン光有画像とパターン光無画像とを利用して、実際に被写体の3次元形状を計測する処理である。こうして、3次元計測処理を終了すると(S1220)、当該処理を終了する。   When the imaging process is completed (S1210), a three-dimensional measurement process is performed (S1220). The three-dimensional measurement process is a process of actually measuring the three-dimensional shape of the subject using the pattern light existence image and the pattern light no image acquired by the imaging process. Thus, when the three-dimensional measurement process ends (S1220), the process ends.

図12(b)は、撮像処理(図12(a)のS1210)のフローチャートである。この処理は、パターン光撮影プログラム36aに基づき実行され、まず、画像投影部13からパターン光を投影することなく、画像撮像部14によって被写体を撮像することで、パターン光無画像を取得する(S1211)。尚、取得したパターン光無画像はパターン光無画像格納部37bに格納される。   FIG. 12B is a flowchart of the imaging process (S1210 in FIG. 12A). This process is executed based on the pattern light imaging program 36a. First, the image imaging unit 14 images a subject without projecting pattern light from the image projection unit 13, thereby acquiring a pattern light no-image (S1211). ). The acquired pattern light no-image is stored in the pattern light no-image storage unit 37b.

次に、カウンタiを初期化し(S1212)、そのカウンタiの値が最大値imaxか否かを判断する(S1213)。尚、最大値imaxは使用するマスクパターンの数によって決定される。例えば、8種類のマスクパターンを使用する場合には、最大imax(=8)となる。   Next, the counter i is initialized (S1212), and it is determined whether or not the value of the counter i is the maximum value imax (S1213). The maximum value imax is determined by the number of mask patterns to be used. For example, when 8 types of mask patterns are used, the maximum is imax (= 8).

そして、判断の結果、カウンタiの値が最大値imaxより小さい場合には(S1213:Yes)、使用するマスクパターンの内、i番のマスクパターンを投影LCD19に表示し、そのi番のマスクパターンによって投影されるi番のパターン光を投影面に投影し(S1214)、そのパターン光が投影されている状態を画像撮像部14によって撮影する(S1215)。   If it is determined that the value of the counter i is smaller than the maximum value imax (S1213: Yes), the i-th mask pattern among the mask patterns to be used is displayed on the projection LCD 19, and the i-th mask pattern is displayed. The i-th pattern light projected by the above is projected onto the projection surface (S1214), and the state where the pattern light is projected is photographed by the image capturing unit 14 (S1215).

こうして、被写体にi番のパターン光が投影された状態を撮像したパターン光有画像を取得する。尚、取得したパターン光有画像は、パターン光有画像格納部37aに格納される。   In this way, a pattern light existence image obtained by imaging the state in which the i-th pattern light is projected onto the subject is acquired. The acquired pattern light existence image is stored in the pattern light existence image storage unit 37a.

撮影を終了すると、i番のパターン光の投影を終了し(S1216)、次のパターン光を投影すべく、カウンタiに「1」を加算して(S1217)、S1213からの処理を繰り返す。   When the photographing is finished, the projection of the i-th pattern light is finished (S1216), "1" is added to the counter i to project the next pattern light (S1217), and the processing from S1213 is repeated.

そして、カウンタiの値が最大値imaxより大きいと判断すると(S1213:No)、当該処理を終了する。即ち、この撮像処理においては、1枚のパターン光無画像と、最大値imax枚のパターン光有画像とを取得することになる。   If it is determined that the value of the counter i is greater than the maximum value imax (S1213: No), the process ends. That is, in this imaging process, one pattern light no image and the maximum value imax pattern light existence images are acquired.

図12(c)は、3次元計測処理(図12(a)のS1220)のフローチャートである。この処理は、輝度画像生成プログラム36cに基づき実行され、まず、輝度画像を生成する(S1221)。ここで、輝度は、YCbCr空間におけるY値であり、各画素のRGB値よりY=0.2989・R+0.5866・G+0.1145・Bから計算される値である。各画素についてY値を求めることにより、各パターン光有及び無し画像に関する輝度画像を生成する。生成した輝度画像は、輝度画像格納部37cに格納される。また、パターン光の番号に対応した番号を各輝度画像に割り付けておく。   FIG. 12C is a flowchart of the three-dimensional measurement process (S1220 in FIG. 12A). This process is executed based on the luminance image generation program 36c, and first generates a luminance image (S1221). Here, the luminance is a Y value in the YCbCr space, and is a value calculated from Y = 0.22989 · R + 0.5866 · G + 0.1145 · B from the RGB value of each pixel. By obtaining the Y value for each pixel, a luminance image relating to the image with and without pattern light is generated. The generated luminance image is stored in the luminance image storage unit 37c. A number corresponding to the pattern light number is assigned to each luminance image.

次に、コード画像生成プログラム36dにより、上述した空間コード法を利用して、生成した輝度画像を組み合わせることで、各画素毎にコード化されたコード画像を生成する(S1222)。   Next, the code image generation program 36d generates a code image coded for each pixel by combining the generated luminance images using the spatial code method described above (S1222).

このコード画像は、輝度画像格納部37cに格納したパターン光有り画像に関する輝度画像の各画素について、あらかじめ設定した輝度閾値と比較し、その結果を結合させることで生成することができる。生成されたコード画像はコード画像格納部37dに格納される。   The code image can be generated by comparing each pixel of the luminance image related to the image with pattern light stored in the luminance image storage unit 37c with a predetermined luminance threshold and combining the results. The generated code image is stored in the code image storage unit 37d.

次に、コード境界抽出プログラム36eにより、後述するコード境界座標検出処理を行い(S1223)、各画素毎に割り当てられたコードの境界座標をサブピクセル精度で検出する。   Next, a code boundary coordinate detection process described later is performed by the code boundary extraction program 36e (S1223), and the boundary coordinates of the code assigned to each pixel are detected with subpixel accuracy.

次に、レンズ収差補正プログラム36fにより、レンズ収差補正処理を行う(S1224)。この処理によって、撮像光学系21の歪みなどの影響で誤差を含んでいるS1223で検出されるコード境界座標の誤差を補正することができる。   Next, lens aberration correction processing is performed by the lens aberration correction program 36f (S1224). By this processing, it is possible to correct the error in the code boundary coordinates detected in S1223 that includes an error due to the influence of distortion or the like of the imaging optical system 21.

次に、三角測量演算プログラム36gにより、三角測量原理による実空間変換処理を行う(S1225)。この処理によって収差補正が施された後のCCD空間上のコード境界座標は、実空間における3次元座標に変換され、3次元形状検出結果としての3次元座標が求められる。   Next, real space conversion processing based on the triangulation principle is performed by the triangulation calculation program 36g (S1225). The code boundary coordinates on the CCD space after the aberration correction is performed by this processing are converted into the three-dimensional coordinates in the real space, and the three-dimensional coordinates as the three-dimensional shape detection result are obtained.

図13は、コード境界座標検出処理(図12のS1223)の概略を説明するための図である。上側の図は、CCD空間において実際のパターン光の明暗の境界を境界線Kで示し、そのパターン光を上述した空間コード法でコード化し、1のコードと他のコードとの境界を図中太線で示した図である。   FIG. 13 is a diagram for explaining the outline of the code boundary coordinate detection process (S1223 in FIG. 12). In the upper diagram, the bright and dark boundaries of the actual pattern light in the CCD space are indicated by the boundary line K. The pattern light is encoded by the spatial code method described above, and the boundary between one code and another code is indicated by a bold line in the figure. It is the figure shown by.

即ち、上述した空間コード法におけるコード化は、各画素単位で行われるため、実際のパターン光の境界線Kと、コード化された境界(図中太線)とではサブピクセル精度の誤差が生ずる。そこで、このコード境界座標検出処理は、コードの境界座標をサブピクセル精度で検出することを目的とする。   That is, since the coding in the spatial coding method described above is performed on a pixel-by-pixel basis, an error in sub-pixel accuracy occurs between the boundary line K of the actual pattern light and the coded boundary (thick line in the figure). Therefore, the purpose of this code boundary coordinate detection process is to detect code boundary coordinates with sub-pixel accuracy.

この処理では、まず、ある検出位置(以下「curCCDX」と称す)において、ある着目コード(以下「curCode」という)から他のコードに変化する第1画素Gを検出する(第1画素検出工程)。   In this process, first, at a certain detection position (hereinafter referred to as “curCDX”), a first pixel G that changes from a certain target code (hereinafter referred to as “curCode”) to another code is detected (first pixel detection step). .

例えば、curCCDXにおいて、上から順番に各画素を検出すると、境界(太線)まではcurCodeを有する画素であるが、境界の次の画素、即ち、第1画素Gにおいて、curCodeは変化しているので、これを第1画素Gとして検出する。   For example, in curCDXX, when each pixel is detected in order from the top, it is a pixel having curCode up to the boundary (thick line), but curCode changes in the pixel next to the boundary, that is, the first pixel G. This is detected as the first pixel G.

次に、その第1画素Gの画素位置において、図12のS1221において輝度画像格納部37cに格納された輝度画像の内から、明暗の変化を持つ輝度画像の全部を抽出する(輝度画像抽出工程)。   Next, at the pixel position of the first pixel G, all of the luminance images having a change in brightness are extracted from the luminance images stored in the luminance image storage unit 37c in S1221 of FIG. 12 (luminance image extraction step). ).

次に、近似に利用するための画素領域を特定するために検出位置を「2」左側に移動させ、検出位置curCCDX−2の位置において、コード画像を参照して、着目コード(curCode)から他のコードに変化する画素(境界画素(curCCDX−2の検出位置では画素H))を探し、その画素を中心に予め定めた範囲(本実施例の場合Y軸方向に−3画素と+2画素の範囲)の画素範囲を特定する(画素領域特定手段の一部)。   Next, in order to specify a pixel area to be used for approximation, the detection position is moved to the left by “2”, and the code image is referred to at the position of the detection position curCDXX-2 to change from the target code (curCode). Pixel (boundary pixel (pixel H at the detection position of cur CCDX-2)) is searched for, and a predetermined range centered on that pixel (in the present embodiment, -3 pixels and +2 pixels in the Y-axis direction) Range) is specified (part of the pixel area specifying means).

次に、その予め定めた範囲内において、図中の下側の左側のグラフに示すように、Y方向の画素位置と輝度とに関する近似式(図中実線で示す)を求め、その近似式における輝度閾値bThとの交点におけるY座標Y1を求める(境界座標検出工程の一部)。   Next, within the predetermined range, as shown in the lower left graph in the figure, an approximate expression (shown by a solid line) in the Y direction is obtained, and the approximate expression The Y coordinate Y1 at the intersection with the luminance threshold value bTh is obtained (part of the boundary coordinate detection step).

尚、輝度閾値bThは、予め定められた範囲内から算出(例えば、各画素の輝度の平均の2分の1)しても良く、予め与えられた固定値であっても良い。これにより、明と暗との境界をサブピクセル精度で検出することができる。   Note that the luminance threshold value bTh may be calculated from a predetermined range (for example, one half of the average luminance of each pixel) or may be a fixed value given in advance. As a result, the boundary between light and dark can be detected with sub-pixel accuracy.

次に、検出位置をcurCCDX−2から「1」右側に移動させ、curCCDX−1において上述したのと同様な処理を行い、curCCDX−1における代表値を求める(境界座標検出工程の一部)。   Next, the detection position is moved to the right side of “1” from curCCDX-2, and the same processing as described above is performed in curCCDX-1 to obtain a representative value in curCCDX-1 (part of the boundary coordinate detection step).

このように、境界画素を中心にY軸方向に予め定めた範囲と、X軸方向におけるcurCCDX−2からcurCCDX+2の範囲とで構成される画素領域(図中右下がり斜線部参照)において、各検出位置における代表値を求める。   In this manner, each detection is performed in a pixel area (see the lower right hatched portion in the figure) composed of a predetermined range in the Y-axis direction centering on the boundary pixel and a range of curCCDX-2 to curCCDX + 2 in the X-axis direction. The representative value at the position is obtained.

これまでの処理をcurCodeから他のコードへ変化する画素を持つ輝度画像の全てに行い、各輝度画像についての代表値の加重平均値を最終的にcurCodeにおける境界座標として採用する(境界座標検出工程の一部)。   The above processing is performed on all luminance images having pixels that change from curCode to another code, and a weighted average value of representative values for each luminance image is finally adopted as boundary coordinates in curCode (boundary coordinate detection step) Part of).

これにより、コードの境界座標を高精度にサブピクセル精度で検出することができ、この境界座標を利用して上述した三角測量原理による実空間変換処理(図12のS1225)を行うことで、高精度に被写体の3次元形状を検出することができる。   As a result, the boundary coordinates of the code can be detected with high accuracy with sub-pixel precision, and by performing the real space conversion process (S1225 in FIG. 12) based on the above-described triangulation principle using the boundary coordinates, The three-dimensional shape of the subject can be detected with high accuracy.

また、このように輝度画像に基づき算出される近似式を利用して境界座標をサブピクセル精度で検出することができるため、従来のように撮像枚数を増加させることもなく、また、純2進コードで明暗付けられたパターン光であっても良く、特殊なパターン光であるグレイコードを用いる必要はない。   In addition, since the boundary coordinates can be detected with sub-pixel accuracy by using the approximate expression calculated based on the luminance image in this way, the number of images to be captured is not increased as in the prior art, and pure binary. Pattern light brightened and darkened by a code may be used, and it is not necessary to use a gray code which is a special pattern light.

尚、本実施例では、各検出位置において境界画素を中心にY軸方向に「−3」から「+2」の範囲と、X軸方向における検出位置としてのcurCCDX−2からcurCCDX+2の範囲とで構成される領域を、近似を求めるための画素領域として説明したが、この画素領域のY軸、X軸の範囲はこれらに限定されるものではない。例えば、curCCDXの検出位置における境界画素を中心としたY軸方向への所定範囲だけを画素領域としても良い。   In this embodiment, each detection position is composed of a range from “−3” to “+2” in the Y-axis direction around the boundary pixel, and a range from curCCDX-2 to curCCDX + 2 as the detection position in the X-axis direction. Although the region to be processed has been described as a pixel region for obtaining approximation, the ranges of the Y axis and the X axis of the pixel region are not limited to these. For example, only a predetermined range in the Y-axis direction centering on the boundary pixel at the curCDX detection position may be set as the pixel region.

図14は、コード境界座標検出処理(図12のS1223)のフローチャートである。この処理は、コード境界抽出プログラム36eに基づき実行され、まず、CCD空間におけるコード境界座標列の各要素を初期化し(S1401)、curCCDXを開始座標に設定する(S1402)。   FIG. 14 is a flowchart of the code boundary coordinate detection process (S1223 in FIG. 12). This process is executed based on the code boundary extraction program 36e. First, each element of the code boundary coordinate sequence in the CCD space is initialized (S1401), and curCCDX is set as the start coordinate (S1402).

次に、curCCDXが終了座標以下か否かを判断し(S1403)、終了座標以下であれば(S1403:Yes)、curCodeを「0」に設定する(S1404)。即ち、curCodeは当初、最小値に設定される。   Next, it is determined whether curCCDX is equal to or less than the end coordinate (S1403). If it is equal to or less than the end coordinate (S1403: Yes), curCode is set to “0” (S1404). That is, curCode is initially set to a minimum value.

次に、curCodeが最大コードより小さいか否かを判断する(S1405)。curCodeが最大コードより小さければ(S1405:Yes)、curCCDXにおいてコード画像を参照して、curCodeの画素を探し(S1406)、curCodeの画素が存在するか否かを判断する(S1407)。   Next, it is determined whether curCode is smaller than the maximum code (S1405). If the curCode is smaller than the maximum code (S1405: Yes), the curCCDX refers to the code image to search for the curCode pixel (S1406), and determines whether the curCode pixel exists (S1407).

その結果、curCodeの画素が存在していれば(S1407:Yes)、curCCDXにおいて、そのcurCodeよりも大きなCodeの画素をコード画像を参照して探し(S1408)、そのcurCodeよりも大きなcurCodeの画素が存在するか否かを判断する(S1409)。   As a result, if a curCode pixel exists (S1407: Yes), the curCDXX searches for a code pixel larger than the curCode by referring to the code image (S1408), and a curCode pixel larger than the curCode is found. It is determined whether or not it exists (S1409).

その結果、curCodeよりも大きなCodeの画素が存在していれば(S1409:Yes)、後述する境界をサブピクセル精度で求める処理を行う(S1410)。そして、次のcurCodeについて境界座標を求めるべく、curCodeに「1」を加算して(S1411)、S1405からの処理を繰り返す。   As a result, if there is a pixel with a code larger than curCode (S1409: Yes), a process for obtaining a later-described boundary with subpixel accuracy is performed (S1410). Then, in order to obtain boundary coordinates for the next curCode, “1” is added to curCode (S1411), and the processing from S1405 is repeated.

即ち、境界は、curCodeを有する画素の画素位置またはcurCodeよりも大きなCodeの画素の画素位置に存在しているため、本実施例では、暫定的に境界は、curCodeより大きなcurCodeの画素の画素位置にあると仮定して処理を進めるものである。   That is, since the boundary exists at the pixel position of the pixel having the curCode or the pixel position of the pixel of the Code that is larger than the curCode, in the present embodiment, the boundary is temporarily the pixel position of the pixel of the CurCode that is larger than the curCode. It is assumed that the process is in progress.

また、curCodeが存在していない場合や(S1407:No)、curCodeよりも大きなCodeの画素が存在していない場合には(S1409:No)、次のcurCodeについて境界座標を求めるべく、curCodeに「1」を加算して(S1411)、S1405からの処理を繰り返す。   In addition, when curCode does not exist (S1407: No), or when a pixel with a code larger than curCode does not exist (S1409: No), in order to obtain boundary coordinates for the next curCode, “ 1 "is added (S1411), and the processing from S1405 is repeated.

こうして、0から最大コードまでのcurCodeについて、S1405からS1411までの処理を繰り返し、curCodeが最大コードより大きくなると(S1405:No)、検出位置を変更すべく、curCCDXに「dCCDX」を加算し(S1412)、新たな検出位置において、上述したのと同様にS1403からの処理を繰り返す。   Thus, for curCode from 0 to the maximum code, the processing from S1405 to S1411 is repeated, and when curCode becomes larger than the maximum code (S1405: No), “dCCDX” is added to curCCDX to change the detection position (S1412). ) The process from S1403 is repeated at the new detection position in the same manner as described above.

そして、curCCDXを変更してゆき、最終的にcurCCDXが終了座標より大きくなると(S1403)、即ち、開始座標から終了座標までの検出が終了すると、当該処理を終了する。   Then, curCDXX is changed, and finally when curCDX becomes larger than the end coordinate (S1403), that is, when the detection from the start coordinate to the end coordinate is completed, the process ends.

図15は、コード境界座標をサブピクセル精度で求める処理(図14のS1410)のフローチャートである。   FIG. 15 is a flowchart of processing (S1410 in FIG. 14) for obtaining code boundary coordinates with subpixel accuracy.

この処理では、まず、図12のS1221において輝度画像格納部37cに格納された輝度画像の内から、図14のS1409において検出されたcurCodeよりも大きなCodeを有する画素の画素位置において、明暗の変化を持つ輝度画像の全部を抽出する(S1501)。   In this process, first, a change in brightness at a pixel position of a pixel having a code larger than the curCode detected in S1409 of FIG. 14 from the luminance image stored in the luminance image storage unit 37c in S1221 of FIG. All the luminance images having are extracted (S1501).

そして、その抽出した輝度画像のマスクパターン番号を配列PatID[]へ格納し、その抽出した輝度画像の画像数をnoPatIDへ格納する(S1502)。尚、配列PatID[]とnoPatIDとはID格納部37fに格納される。   Then, the mask pattern number of the extracted luminance image is stored in the array PatID [], and the number of extracted luminance images is stored in noPatID (S1502). The arrays PatID [] and noPatID are stored in the ID storage unit 37f.

次に、カウンタiを初期化し(S1503)、カウンタiの値がnoPatIDより小さいか否かを判断する(S1504)。その結果、小さいと判断されれば(S1504:Yes)、カウンタiに対応するPatID[i]のマスクパターン番号を持つ輝度画像について、境界のCCDY値を求め、その値をfCCDY[i]へ格納する(S1505)。   Next, the counter i is initialized (S1503), and it is determined whether or not the value of the counter i is smaller than noPatID (S1504). As a result, if it is determined to be small (S1504: Yes), the CCDY value at the boundary is obtained for the luminance image having the mask pattern number of PatID [i] corresponding to the counter i, and the value is stored in fCDY [i]. (S1505).

このS1505の処理を終了すると、カウンタiに「1」を加算し(S1506)、S1504からの処理を繰り返す。そして、S1504において、カウンタiの値がnoPatIDより大きいと判断されると(S1504:No)、即ち、S1501で抽出された全部の輝度画像についてS1505の処理が終了すると、S1505の処理で求めたfCCDY[i]の加重平均値を計算し、その結果を境界値とする(S1507)。   When the processing of S1505 is completed, “1” is added to the counter i (S1506), and the processing from S1504 is repeated. If it is determined in S1504 that the value of the counter i is greater than noPatID (S1504: No), that is, when the processing of S1505 is completed for all the luminance images extracted in S1501, the fCCDY obtained in the processing of S1505 The weighted average value of [i] is calculated, and the result is set as a boundary value (S1507).

尚、加重平均値に代えて、S1505の処理で求めたfCCDY[i]の中央値を計算し、その結果を境界値としたり、統計的な計算により境界値を計算したりすることもできる。   In place of the weighted average value, the median value of fCCDY [i] obtained in the processing of S1505 can be calculated, and the result can be used as a boundary value, or the boundary value can be calculated by statistical calculation.

即ち、境界座標は、curCCDXの座標と、S1507で求められる加重平均値とで表現され、この境界座標をコード境界座標格納部37eに格納して、当該処理を終了する。   In other words, the boundary coordinates are expressed by the curCDXX coordinates and the weighted average value obtained in S1507. The boundary coordinates are stored in the code boundary coordinate storage unit 37e, and the process ends.

図16は、PatID[i]のマスクパターン番号を持つ輝度画像について、境界のCCDY値を求める処理(図15のS1505)のフローチャートである。   FIG. 16 is a flowchart of the process (S1505 in FIG. 15) for obtaining the CCDY value of the boundary for the luminance image having the mask pattern number of PatID [i].

この処理では、まず、「curCCDX−dx」と「0」との内、大きい値をccdxとして設定する「ccdx=MAX(curCCDX−dx,0)」で表される処理を行うと共に、カウンタjを初期化する(S1601)。   In this process, first, a process represented by “ccdx = MAX (curCCDX−dx, 0)” for setting a larger value of “curCDX−dx” and “0” as ccdx is performed, and a counter j is set. Initialization is performed (S1601).

具体的には、S1601でいう「0」はCCDX値の最小値を意味し、例えば、今、検出位置としてのcurCCDX値が「1」で、予め設定されているdx値が「2」であったとすると、「curCCDX−dx」は「−1」となり、CCDX値の最小値である「0」よりも小さくなるため、「−1」における以降の処理は、「ccdx=0」として設定する処理を行う。   Specifically, “0” in S1601 means the minimum value of the CCDX value. For example, the curCDX value as a detection position is “1” and the preset dx value is “2”. Assuming that “curCDXX-dx” is “−1”, which is smaller than “0” which is the minimum value of the CCDX value, the subsequent processing in “−1” is set as “ccdx = 0”. I do.

即ち、CCDX値の最小値よりも小さい位置については、以降の処理を除外する処理を行う。   That is, for a position smaller than the minimum value of the CCDX value, processing for excluding the subsequent processing is performed.

尚、この「dx」の値は、予め「0」を含む適当な整数に設定することができ、図13で説明した例では、この「dx」は「2」に設定されており、図13の例に従えば、このccdxは「curCCDX−2」に設定されることになる。   The value of “dx” can be set in advance to an appropriate integer including “0”. In the example described with reference to FIG. 13, this “dx” is set to “2”. According to the example, the ccdx is set to “curCDX-2”.

次に、ccdx<=MIN(curCCDX+dx,ccdW−1)であるか否かを判断する(S1602)。つまり、左辺の「MIN(curCCDX+dx,ccdW−1)」は、「curCCDX+dx」と、CCDX値の最大値「ccdW」から「1」を減算した「ccdW−1」との内、小さい値であることを意味しているので、その値と「ccdx」値との大小を比較する。   Next, it is determined whether or not ccdx <= MIN (curCCDX + dx, ccdW−1) (S1602). That is, “MIN (curCCDX + dx, ccdW−1)” on the left side is a smaller value among “curCDXX + dx” and “ccdW−1” obtained by subtracting “1” from the maximum CCDX value “ccdW”. Therefore, the value is compared with the “ccdx” value.

即ち、CCDX値の最大値よりも大きい位置については、以降の処理を除外する処理を行う。   That is, for a position larger than the maximum value of the CCDX value, processing for excluding the subsequent processing is performed.

そして、判断の結果、ccdxがMIN(curCCDX+dx,ccdW−1)よりも小さければ(S1602:Yes)、コード画像とPatID[i]が割り当てられた輝度画像とを参照して、境界の存在する画素の画素位置のeCCDY値を求める(S1603)。   If the result of determination is that ccdx is smaller than MIN (curCCDX + dx, ccdW−1) (S1602: Yes), the code image and the luminance image to which PatID [i] is assigned are referred to and the pixel having the boundary exists. The eCDY value of the pixel position is obtained (S1603).

例えば、検出位置を図13に示すcurCCDX−1であるとすると、画素Iを境界が存在する画素候補として検出し、画素Iの位置においてeCCDY値を求める。   For example, if the detection position is curCCDX-1 shown in FIG. 13, the pixel I is detected as a pixel candidate having a boundary, and the eCDY value is obtained at the position of the pixel I.

次に、PatID[i]のマスクパターン番号を持つ輝度画像から、MAX(eCCDY−dy,0)<=ccdy<=MIN(eCCDY+dy−1,ccdH−1)の範囲で、ccdy方向における輝度に関する近似多項式Bt=fb(ccdy)を求める(S1604)。   Next, from the luminance image having the mask pattern number of PatID [i], an approximation regarding the luminance in the ccdy direction within the range of MAX (eCDY-dy, 0) <= ccdy <= MIN (eCCY + dy-1, ccdH-1). A polynomial Bt = fb (ccdy) is obtained (S1604).

次に、その近似多項式Btと輝度閾値bThとの交差するccdy値を求め、その値をefCCDY[j]へ格納する(S1605)。このS1604とS1605とによって、サブピクセル精度の境界座標の検出をすることができる。   Next, the ccdy value at which the approximate polynomial Bt and the luminance threshold value bTh intersect is obtained, and the value is stored in efCCDY [j] (S1605). By these S1604 and S1605, the boundary coordinates with subpixel accuracy can be detected.

次に、ccdxとカウンタjとに各々「1」を加算し(S1605)、S1602からの処理を繰り返す。即ち、curCCDXを中心とした左右の所定範囲内における各検出位置において、サブピクセル精度の境界を検出するのである。   Next, “1” is added to each of ccdx and counter j (S1605), and the processing from S1602 is repeated. That is, the boundary of subpixel accuracy is detected at each detection position within a predetermined range on the left and right with the cur CCDX as the center.

そして、S1602において、「ccdx」が「MIN(curCCDX+dx,ccdW−1)」より大きいと判断されると(S1602:No)、curCCDX−dxからcurCCDX+dxの範囲で計算されたefCCDY[j]について、ccdy=fy(ccdx)の近似多項式を求める(S1606)。この処理によってS1605において検出された各値を用いるので、1つの検出位置において境界座標を検出しようとする場合に比べて、境界座標の検出精度を向上させることができる。   If it is determined in S1602 that “ccdx” is larger than “MIN (curCCDX + dx, ccdW−1)” (S1602: No), ccCDY [j] calculated in the range of curCCDX−dx to curCCDX + dx is ccdy. = Approximate polynomial of fy (ccdx) is obtained (S1606). Since each value detected in S1605 by this process is used, the detection accuracy of the boundary coordinates can be improved as compared with the case of detecting the boundary coordinates at one detection position.

こうして得られた近似多項式とcurCCDXとの交点を、PatID[i]のマスクパターン番号を持つ輝度画像についての境界のCCDY値として(S1607)、当該処理を終了する。ここまでの処理を図15のフローチャートに示すように、抽出した全部の輝度画像の1枚、1枚に実行し、求められた境界座標について加重平均値を計算して、その結果を最終的な境界座標としているので(S1507)、更に、境界座標の検出精度を向上させることができる。   The intersection of the approximate polynomial obtained in this way and curCCDX is set as the CCDY value of the boundary for the luminance image having the mask pattern number of PatID [i] (S1607), and the process ends. As shown in the flowchart of FIG. 15, the processing up to this point is executed for each of the extracted luminance images, and a weighted average value is calculated for the obtained boundary coordinates. Since the boundary coordinates are used (S1507), the detection accuracy of the boundary coordinates can be further improved.

図17は、レンズ収差補正処理(図12のS1224)を説明するための図である。レンズ収差補正処理は、図17(a)に示すように、撮像光学系21の収差により、入射した光束が理想レンズにより結像すべき位置からずれてしまうことに対して、撮像された画素の位置を本来結像すべき位置へ補正する処理である。   FIG. 17 is a diagram for explaining the lens aberration correction process (S1224 in FIG. 12). In the lens aberration correction processing, as shown in FIG. 17A, the incident light beam is deviated from the position to be imaged by the ideal lens due to the aberration of the imaging optical system 21. This is a process of correcting the position to the position where the image should be originally formed.

この収差補正は、例えば、図17(b)に示すように、撮像光学系21の撮像範囲において、入射光の角度である半画角hfaをパラメータとして光学系の収差を計算して求めたデータを基に補正する。   For example, as shown in FIG. 17B, this aberration correction is data obtained by calculating the aberration of the optical system in the imaging range of the imaging optical system 21 using the half field angle hfa that is the angle of incident light as a parameter. Correct based on.

この収差補正処理では、レンズ収差補正プログラム36fに基づき実行され、コード境界座標格納部37eに格納されているコード境界座標について行なわれ、収差補正処理がなされたデータは、収差補正座標格納部37gに格納される。   This aberration correction processing is executed based on the lens aberration correction program 36f and performed on the code boundary coordinates stored in the code boundary coordinate storage unit 37e, and the data subjected to the aberration correction processing is stored in the aberration correction coordinate storage unit 37g. Stored.

具体的には、実画像における任意点座標(ccdx、ccdy)を理想カメラ画像での座標(ccdcx、ccdcy)に変換する次の(1)から(3)のカメラキャリブレーション(近似式)を用いて補正する。   More specifically, the following camera calibration (approximate expression) (1) to (3) is used to convert arbitrary point coordinates (ccdx, ccdy) in the real image to coordinates (ccdcx, ccdcy) in the ideal camera image. To correct.

本実施例では、収差量dist(%)は、半画角hfa(deg)を用いてdist=f(hfa)と記述する。また、撮像光学系21の焦点距離をfocallength(mm)、ccd画素長pixellength(mm)、CCD22におけるレンズの中心座標を(Centx、Centy)とする。   In this embodiment, the aberration amount dist (%) is described as dist = f (hfa) using a half angle of view hfa (deg). In addition, the focal length of the imaging optical system 21 is focal length (mm), the ccd pixel length pixel length (mm), and the center coordinates of the lens in the CCD 22 are (Centx, Centy).

(1)ccdcx=(ccdx−Centx)/(1+dist/100)+Centx
(2)ccdcy=(ccdy−Centy)/(1+dist/100)+Centy
(3)hfa=arctan[(((ccdx−Centx)+(ccdy−Centy)0.5)×pixellength/focallength]
図18は、三角測量原理による実空間変換処理(図12のS1225)において、CCD空間における座標から、3次元空間における3次元座標を算出する方法を説明するための図である。
(1) ccdcx = (ccdx−Centx) / (1 + dist / 100) + Centx
(2) ccdcy = (ccdy−Centy) / (1 + dist / 100) + Centy
(3) hfa = arctan [(((ccdx-Centx) 2 + (ccdy-Centy) 2 ) 0.5 ) × pixellength / focallength]
FIG. 18 is a diagram for explaining a method of calculating the three-dimensional coordinates in the three-dimensional space from the coordinates in the CCD space in the real space conversion process (S1225 in FIG. 12) based on the triangulation principle.

三角測量原理による実空間変換処理では、三角測量演算プログラム36gによって、収差補正座標格納部37gに格納されている収差補正がなされたコード境界座標についての3次元空間における3次元座標が算出される。こうして算出される3次元座標は、3次元座標格納部37hに格納される。   In the real space conversion process based on the triangulation principle, the triangulation calculation program 36g calculates the three-dimensional coordinates in the three-dimensional space for the code boundary coordinates subjected to the aberration correction stored in the aberration correction coordinate storage unit 37g. The three-dimensional coordinates calculated in this way are stored in the three-dimensional coordinate storage unit 37h.

本実施例では、撮像される横方向に湾曲した原稿Pに対する画像入力出力装置1の座標系として、撮像光学系21の光軸方向をZ軸、そのZ軸に沿って撮像レ光学系21の主点位置からVPZ離れた地点を原点、画像入出力装置1に対して水平方向をX軸、垂直方向をY軸とする。   In this embodiment, as the coordinate system of the image input / output apparatus 1 for the document P that is curved in the lateral direction to be imaged, the optical axis direction of the imaging optical system 21 is the Z axis, and the imaging optical system 21 is along the Z axis. A point that is VPZ away from the principal point position is an origin, a horizontal direction with respect to the image input / output device 1 is an X axis, and a vertical direction is a Y axis.

また、3次元空間(X,Y,Z)への画像投影部13からの投影角度θp、撮像レンズ光学系20の光軸と画像投影部13の光軸との距離をD、撮像光学系21のY方向の視野をYftopからYfbottom、X方向の視野をXfstartからXfend、CCD22のY軸方向の長さ(高さ)をHc、X軸方向の長さ(幅)をWcとする。尚、投影角度θpは、各画素毎に割り当てられたコードに基づき与えられる。   Further, the projection angle θp from the image projection unit 13 to the three-dimensional space (X, Y, Z), D is the distance between the optical axis of the imaging lens optical system 20 and the optical axis of the image projection unit 13, and the imaging optical system 21. The field of view in the Y direction is Yftop to Yfbottom, the field of view in the X direction is from Xfstart to Xfend, the length (height) in the Y-axis direction of the CCD 22 is Hc, and the length (width) in the X-axis direction is Wc. The projection angle θp is given based on a code assigned to each pixel.

この場合、CCD22の任意座標(ccdx,ccdy)に対応する3次元空間位置(X,Y,Z)は、CCD22の結像面上の点と、パターン光の投影点と、X−Y平面に交差する点とで形成される三角形について5つの式を解くことで得ることができる。
(1)Y=−(tanθp)Z+PPZ+tanθp−D+cmp(Xtarget)
(2)Y=−(Ytarget/VPZ)Z+Ytarget
(3)X=−(Xtarget/VP)Z+Xtarget
(4)Ytarget=Yftop−(ccdcy/Hc)×(Yftop−Yfbottom)
(5)Xtarget=Xfstart+(ccdcx/Wc)×(Xfend−Xfstart)
尚、(1)におけるcmp(Xtarget)は、撮像光学系20と画像投影部13とのズレを補正する関数であり、ズレが無い理想的な場合にはcmp(Xtarget)=0とみなすことができる。
In this case, the three-dimensional space position (X, Y, Z) corresponding to the arbitrary coordinates (ccdx, ccdy) of the CCD 22 is on the point on the image plane of the CCD 22, the projection point of the pattern light, and the XY plane. It can be obtained by solving five equations for the triangle formed by the intersecting points.
(1) Y = − (tan θp) Z + PPZ + tan θp−D + cmp (Xtarget)
(2) Y = − (Ytarget / VPZ) Z + Ytarget
(3) X = − (Xtarget / VP) Z + Xtarget
(4) Ytarget = Yftop− (ccdcy / Hc) × (Yftop−Yfbottom)
(5) Xtarget = Xfstart + (ccdcx / Wc) × (Xfend−Xfstart)
Note that cmp (Xtarget) in (1) is a function for correcting the deviation between the imaging optical system 20 and the image projection unit 13, and in an ideal case where there is no deviation, it can be considered that cmp (Xtarget) = 0. it can.

一方、上述したのと同様に、画像投影部13に含まれる投影LCD19上の任意座標(lcdcx、lcdcy)と3次元空間中の3次元座標(X,Y,Z)との関係は次の(1)から(4)の式で表せる。   On the other hand, as described above, the relationship between the arbitrary coordinates (lcdcx, lcdccy) on the projection LCD 19 included in the image projection unit 13 and the three-dimensional coordinates (X, Y, Z) in the three-dimensional space is as follows: It can be expressed by the formulas (1) to (4).

尚、本実施例では、画像投影部13の主点位置(0,0,PPZ)、画像投影部13のY方向の視野をYpftopからYpfbottom、X方向の視野をXpfstartからXpfend、投影LED19のY軸方向の長さ(高さ)をHp、X軸方向の長さ(幅)Wpとする。
(1)Y=−(Yptarget/PPZ)Z+Yptarget
(2)X=−(Xptarget/PPZ)Z+Xptarget
(3)Yptarget=Ypftop−(lcdcy/Hp)×(Xpftop−Xpfbottom)
(4)Xptarget=Xpfstart+(lcdcx/Wp)×(Xpfend−Xpfstart)
この関係式を利用することで、3次元空間座標(X,Y,Z)を上記(1)から(4)の式に与えることで、LCD空間座標を(lcdcx,lcdcy)を算出することができる。よって、例えば、3次元空間に任意の形状、文字を投影するためのLCD素子パターンを算出することができる。
In this embodiment, the principal point position (0, 0, PPZ) of the image projection unit 13, the Y-direction field of the image projection unit 13 from Ypftop to Ypfbottom, the X-direction field of view from Xpfstart to Xpfend, and the Y of the projection LED 19 The length (height) in the axial direction is Hp, and the length (width) Wp in the X-axis direction.
(1) Y = − (Yptarget / PPZ) Z + Yptarget
(2) X = − (Xptarget / PPZ) Z + Xptarget
(3) Yptarget = Ypftop− (lcdcy / Hp) × (Xpftop−Xpfbottom)
(4) Xptarget = Xpfstart + (lcdcx / Wp) × (Xpfend−Xpfstart)
By using this relational expression, the LCD space coordinates (lcdcx, lcdcy) can be calculated by giving the three-dimensional space coordinates (X, Y, Z) to the above expressions (1) to (4). it can. Therefore, for example, an LCD element pattern for projecting an arbitrary shape and character in a three-dimensional space can be calculated.

図19は、平面化画像処理(図6のS611)のフローチャートである。平面化画像処理は、例えば、図1に示すような湾曲した状態の原稿Pを撮像した場合や矩形状の原稿を斜め方向から撮像した場合(撮像された画像は台形状になる)であっても、その原稿が湾曲していない状態やその面に対して垂直方向から撮像したような状態に補正された平面化画像を取得、表示する処理である。   FIG. 19 is a flowchart of planarized image processing (S611 in FIG. 6). Planarized image processing is, for example, when a document P in a curved state as shown in FIG. 1 is imaged or when a rectangular document is imaged from an oblique direction (the captured image has a trapezoidal shape). This is a process of acquiring and displaying a flattened image corrected to a state in which the document is not curved or a state in which an image is taken from a direction perpendicular to the surface.

この処理では、まず、CCD22に高解像度設定信号を送信し(S1901)、モニタLCD10にファインダ画像を表示する(S1902)。   In this process, first, a high resolution setting signal is transmitted to the CCD 22 (S1901), and a finder image is displayed on the monitor LCD 10 (S1902).

次に、レリーズボタン8をスキャンし(S1903a)、レリーズボタン8が半押しされたか否かを判断する(S1903b)。半押しされていれば(S1903b:Yes)、オートフォーカス(AF)および自動露出(AE)機能を起動し、ピント、絞り、シャッタスピードを調節する(S1903c)。尚、半押しされていなければ(S1903b:No)、S1903aからの処理を繰り返す。   Next, the release button 8 is scanned (S1903a), and it is determined whether the release button 8 is half-pressed (S1903b). If half-pressed (S1903b: Yes), the auto focus (AF) and automatic exposure (AE) functions are activated to adjust the focus, aperture, and shutter speed (S1903c). If not half-pressed (S1903b: No), the processing from S1903a is repeated.

次に、再び、レリーズボタン8をスキャンし(S1903d)、レリーズボタン8が全押しされたか否かを判断する(S1903e)。全押しされていれば(S1903e:Yes)、フラッシュモードか否かを判断する(S1903f)。   Next, the release button 8 is scanned again (S1903d), and it is determined whether the release button 8 has been fully pressed (S1903e). If it is fully pressed (S1903e: Yes), it is determined whether or not the flash mode is set (S1903f).

その結果、フラッシュモードであれば(S1903f:Yes)、フラッシュ7を投光して(S1903g)、撮影し(S1903h)、フラッシュモードでなければ(S1903f:No)、フラッシュ7を投光することなく撮影する(S1903h)。尚、S1903eの判断において、全押しされていなければ(S1903e:No)、S1903aからの処理を繰り返す。   As a result, if the flash mode is selected (S1903f: Yes), the flash 7 is projected (S1903g), photographed (S1903h), and if the flash mode is not selected (S1903f: No), the flash 7 is not projected. A picture is taken (S1903h). If it is determined in S1903e that the button has not been fully pressed (S1903e: No), the processing from S1903a is repeated.

次に、上述した3次元形状検出処理(図10のS1006)と同一の処理である3次元形状検出処理を行い、被写体の3次元形状を検出する(S1906)。   Next, a three-dimensional shape detection process that is the same as the above-described three-dimensional shape detection process (S1006 in FIG. 10) is performed to detect the three-dimensional shape of the subject (S1906).

次に、3次元形状検出処理(S1906)によって得られた3次元形状検出結果に基づき、原稿Pの姿勢を演算する原稿姿勢演算処理を行う(S1907)。この処理によって原稿Pの姿勢パラメータとして、原稿Pの画像入力装置1に対する位置Lや角度θ、湾曲φ(x)が演算される。   Next, based on the three-dimensional shape detection result obtained by the three-dimensional shape detection process (S1906), a document attitude calculation process for calculating the attitude of the document P is performed (S1907). With this process, the position L, the angle θ, and the curvature φ (x) of the document P with respect to the image input apparatus 1 are calculated as the posture parameters of the document P.

次に、その演算結果に基づき、後述する平面変換処理を行い(S1908)、たとえ、原稿Pが湾曲していたとしても湾曲していない状態に平面化された平面化画像を生成する。   Next, based on the calculation result, a plane conversion process to be described later is performed (S1908), and a flattened image flattened in a state where the original P is not curved even if it is curved is generated.

次に、平面変化処理(S1908)によって得られた平面化画像を外部メモリ27に格納し(S1909)、平面化画像をモニタLCD10に表示する(S1910)。   Next, the planarized image obtained by the planar change process (S1908) is stored in the external memory 27 (S1909), and the planarized image is displayed on the monitor LCD 10 (S1910).

そして、モード切替スイッチ9に変化が無いか否かを判断し(S1911)、その結果、変化が無ければ(S1911:Yes)、再び、S702からの処理を繰り返し、変化があれば(S1911:No)、当該処理を終了する。   Then, it is determined whether or not the mode change switch 9 has changed (S1911). If there is no change (S1911: Yes), the processing from S702 is repeated again, and if there is a change (S1911: No). ), The process ends.

図20は、原稿姿勢演算処理(図19のS1907)を説明するための図である。尚、本等の原稿の仮定条件として、原稿Pの湾曲はy方向に一様であるとする。この原稿姿勢演算処理では、まず、図20(a)に示すように、3次元座標格納部37hに格納されているコード境界に関する座標データから3次元空間位置において2列に並ぶ点を回帰曲線近似した2本の曲線を求める。   FIG. 20 is a diagram for explaining the document orientation calculation process (S1907 in FIG. 19). Note that, as an assumption condition for a document such as a book, it is assumed that the curvature of the document P is uniform in the y direction. In this document orientation calculation process, first, as shown in FIG. 20A, regression line approximation is performed on points arranged in two columns at a three-dimensional space position from the coordinate data related to the code boundary stored in the three-dimensional coordinate storage unit 37h. Obtain the two curves.

例えば、パターン光を投影した範囲の上下それぞれ4分の1の位置情報(コード63とコード64の境界と、コード191とコード192との境界とに関する境界)から求めることができる。   For example, it can be obtained from position information (a boundary relating to the boundary between the code 63 and the code 64 and the boundary between the code 191 and the code 192) of the upper and lower quarters of the projected range of the pattern light.

その2本の曲線のX軸方向の位置が「0」における点を結ぶ直線を想定し、この直線がZ軸と交わる点、つまり、光軸が原稿Pと交差する点を、原稿Pの3次元空間位置(0,0,L)とし、この直線がX−Y平面となす角を原稿PのX軸まわりの傾きθとする。   Assuming a straight line connecting points where the positions of the two curves in the X-axis direction are “0”, the point where the straight line intersects the Z-axis, that is, the point where the optical axis intersects the original P, is 3 A dimension space position (0, 0, L) is defined, and an angle formed by the straight line with the XY plane is defined as an inclination θ around the X axis of the document P.

次に、図20(b)に示すように、原稿Pを、先に求めたX軸まわりの傾きθ分だけ逆方向に回転変換し、つまり、原稿PをX−Y平面に対して平行にした状態を想定する。   Next, as shown in FIG. 20B, the document P is rotationally converted in the reverse direction by the inclination θ around the X axis obtained earlier, that is, the document P is parallel to the XY plane. Assuming that

そして、図20(c)に示すように、X−Z平面における原稿Pの断面について、Z軸方向の変位をXの関数として湾曲φ(X)で表すことができる。こうして、原稿姿勢パラメータとして、原稿Pの位置Lや角度θ、湾曲φ(x)が演算され、当該処理を終了する。   Then, as shown in FIG. 20C, the displacement in the Z-axis direction can be expressed as a curve φ (X) as a function of X for the cross section of the document P in the XZ plane. Thus, the position L, the angle θ, and the curvature φ (x) of the document P are calculated as the document orientation parameters, and the process ends.

図21は、平面変換処理(図19のS1908)のフローチャートである。この処理は、まず、RAM37のワーキングエリア37oに当該処理の処理領域を割り当て、当該処理に用いるカウンタbの変数を初期値(b=0)に設定する(S2101)。   FIG. 21 is a flowchart of the plane conversion process (S1908 in FIG. 19). In this process, first, the processing area of the process is assigned to the working area 37o of the RAM 37, and the variable of the counter b used for the process is set to an initial value (b = 0) (S2101).

次に、原稿姿勢演算プログラム36hでの演算結果による原稿Pの位置Lと、傾きθと、湾曲φ(x)とに基づき、パターン光無画像格納部37bに格納されたパターン光無画像の4隅の点を、それぞれ、Z方向に−L移動し、X軸方向に−θ回転し、更にφ(x)にする湾曲の逆変換(後述する「湾曲処理」と同等な処理)により求められる点で取成される矩形領域(つまり、原稿Pの文字等が書かれた面が略直交方向から観察されたような画像となる矩形領域)を設定すると共に、この矩形領域内に含まれる画素数aを求める(S2102)。   Next, based on the position L of the original P, the inclination θ, and the curvature φ (x) based on the calculation result in the original attitude calculation program 36h, the pattern light no-image 4 stored in the pattern light no-image storage unit 37b. Each corner point is obtained by inverse transformation of the curve (a process equivalent to a “curving process” described later) that moves −L in the Z direction, rotates −θ in the X-axis direction, and further changes to φ (x). A rectangular area formed by dots (that is, a rectangular area that is an image in which the surface of the original P on which characters or the like are written is observed from a substantially orthogonal direction) is set, and pixels included in the rectangular area The number a is obtained (S2102).

次に、設定された矩形領域を構成する各画素に対応するパターン光無画像上の座標を求めて、この座標周辺の画素情報から、平面化画像の各画素の画素情報を設定する。   Next, coordinates on the non-patterned light image corresponding to each pixel constituting the set rectangular area are obtained, and pixel information of each pixel of the planarized image is set from pixel information around this coordinate.

つまり、まず、カウンタbが画素数aに到達したか否かを判断する(S2103)。カウンタbが画素数aに到達していなけば(S2103:No)、矩形領域を構成する1つの画素について、Y軸を中心に湾曲φ(x)回転移動させる湾曲計算処理を行い(S2104)、X軸を中心に傾きθ回転移動させ(S2105)、Z軸方向に距離Lだけシフトさせる(S2106)。   That is, first, it is determined whether or not the counter b has reached the pixel number a (S2103). If the counter b has not reached the pixel number a (S2103: No), a curve calculation process is performed in which one pixel constituting the rectangular area is rotated and moved by a curve φ (x) around the Y axis (S2104). A tilt θ is rotated about the X axis (S2105), and is shifted by a distance L in the Z axis direction (S2106).

次に、求められた3次元空間位置を、先の3角測量の逆関数により理想カメラで写されたCCD画像上の座標(ccdcx,ccdcy)を求め(S2107)、使用している撮像光学系20の収差特性に従って、先のカメラキャリブレーションの逆関数により、実際のカメラで写されたCCD画像上の座標(ccdx,ccdy)を求め(S2108)、この位置に対応するパターン光無画像の画素の状態を求めて、RAM37のワーキングエリア37oに格納する(S2109)。   Next, the coordinates (ccdcx, ccdcy) on the CCD image obtained by imaging the ideal camera with the inverse function of the previous triangulation are obtained from the obtained three-dimensional space position (S2107), and the imaging optical system used According to the aberration characteristics of 20, the coordinates (ccdx, ccdy) on the CCD image captured by the actual camera are obtained by the inverse function of the previous camera calibration (S2108), and the pixel of the pattern light no image corresponding to this position Is stored in the working area 37o of the RAM 37 (S2109).

そして、次の画素について上述したS2103からS2109までの処理を実行すべく、カウンタbに「1」を加算する(S2110)。   Then, “1” is added to the counter b in order to execute the above-described processing from S2103 to S2109 for the next pixel (S2110).

こうして、S2104からS2110までの処理をカウンタbが画素数aになるまで繰り返すと(S2103:Yes)、S2101において、当該処理を実行するためにワーキングエリア37oに割り当てた処理領域を開放して(S2111)、当該処理を終了する。   In this way, when the processing from S2104 to S2110 is repeated until the counter b reaches the number of pixels a (S2103: Yes), in S2101, the processing area assigned to the working area 37o is released to execute the processing (S2111). ), The process ends.

図22(a)は、湾曲処理(図21のS2104)についての概略を説明するための図であり、(b)は平面変換処理(図19のS1908)によって平面化された原稿Pを示している。尚、この湾曲処理についての詳細については、電子情報通信学会論文誌DIIVol.J86−D2 No.3 p409「アイスキャナによる湾曲ドキュメント撮影」に詳細に開示されている。   FIG. 22A is a diagram for explaining the outline of the bending process (S2104 in FIG. 21), and FIG. 22B shows the document P flattened by the plane conversion process (S1908 in FIG. 19). Yes. The details of the curving process are disclosed in detail in the IEICE Transactions DIIVol. J86-D2 No. 3 p409 “Curved Document Shooting with an Eye Scanner”.

湾曲Z=φ(x)は、求められたコード境界座標列(実空間)で構成される3次元形状を、任意のY値におけるXZ平面に平行な平面切断された断面形状を、最小2乗法により多項式で近似した式で表現される。   The curve Z = φ (x) is obtained by converting a three-dimensional shape constituted by the obtained code boundary coordinate sequence (real space), a cross-sectional shape parallel to the XZ plane at an arbitrary Y value, and a least square method. Is expressed by an equation approximated by a polynomial.

湾曲する曲面を平面化する場合、(a)に示すように、Z=φ(x)上の点に対応する平面化された点は、Z=φ(0)からZ=φ(x)までの曲線の長さによって対応付けられることになる。   When flattening a curved curved surface, as shown in (a), the flattened points corresponding to the points on Z = φ (x) are from Z = φ (0) to Z = φ (x). Are associated with each other according to the length of the curve.

こうした湾曲処理を含む平面変換処理によって、例えば、図1のように湾曲している状態の原稿Pを撮像した場合であっても、図22(b)に示すように、平面化された平面画像を取得することができ、このように平面化された画像を用いればOCR処理の精度を高めることができるため、その画像によって、原稿に記載された文字や図形等を明確に認識することができる。   For example, even when the document P in a curved state as shown in FIG. 1 is imaged by such plane conversion processing including the bending processing, as shown in FIG. 22B, a planarized planar image is obtained. Since the accuracy of the OCR process can be improved by using the flattened image in this way, it is possible to clearly recognize characters, figures, and the like described in the original by the image. .

次に、図23〜図27を参照して、画像入出力装置1における動作モードの1つである体積・重量計測モードについて説明する。この体積・重量計測モードは、作業内容情報に従って、被写体の体積・重量の計測を行い、その結果として得られた計測情報を投影するモードである。   Next, a volume / weight measurement mode, which is one of the operation modes in the image input / output device 1, will be described with reference to FIGS. The volume / weight measurement mode is a mode for measuring the volume / weight of the subject according to the work content information and projecting the measurement information obtained as a result.

図23は、この体積・重量計測モードにおいて実行される体積・重量計測処理(図6のS613)のフローチャートである。この体積・重量計測処理は、被写体の3次元形状検出結果を用い、体積計測や重量計測などの各種作業内容に応じた計測を行い、その計測結果に基づく画像を投影する処理である。   FIG. 23 is a flowchart of the volume / weight measurement process (S613 in FIG. 6) executed in the volume / weight measurement mode. This volume / weight measurement process is a process of performing measurement according to various work contents such as volume measurement and weight measurement using the three-dimensional shape detection result of the subject and projecting an image based on the measurement result.

この処理では、まず、CCD22に高解像度設定信号を送信する(S2301)。これにより高品質の撮像画像を使用者に提供することができる。   In this process, first, a high resolution setting signal is transmitted to the CCD 22 (S2301). Thereby, a high quality captured image can be provided to the user.

次に、作業内容情報をアンテナ11を介して受信し(S2302)、受信した作業内容情報格納部37lに格納する(S2303)。なお、「作業内容情報」は、食肉塊を等体積又は等重量に分割する作業や、木片から所定形状を掘り出す作業など、使用者により指定される作業内容を示す情報である。なお、指定される作業内容が被写体の重量情報又は重量分布情報の取得を要する作業である場合には、その作業内容情報には、被写体の密度データが含まれる。   Next, work content information is received via the antenna 11 (S2302), and stored in the received work content information storage unit 37l (S2303). The “work content information” is information indicating the work content specified by the user, such as a work for dividing a meat chunk into equal volumes or equal weights, or a work for digging a predetermined shape from a piece of wood. When the designated work content is a work that requires acquisition of weight information or weight distribution information of the subject, the work content information includes the density data of the subject.

次に、モニタLCD10にファインダ画像(ファインダ6を介して見える範囲の画像)を表示する(S2304)。よって、使用者は、ファインダ6を覗き込むことなく、モニタLCD10に表示された画像によって実際の撮像の前に、撮像画像(撮像範囲)を確認することができる。   Next, a finder image (an image that can be seen through the finder 6) is displayed on the monitor LCD 10 (S2304). Therefore, the user can confirm the captured image (imaging range) before actual imaging with the image displayed on the monitor LCD 10 without looking into the finder 6.

次に、レリーズボタン8をスキャンし(S2305a)、レリーズボタン8が半押しされたか否かを判断する(S2305b)。半押しされていれば(S2305b:Yes)、オートフォーカス(AF)および自動露出(AE)機能を起動し、ピント、絞り、シャッタスピードを調節する(S2305c)。尚、半押しされていなければ(S2305b:No)、S2305aからの処理を繰り返す。   Next, the release button 8 is scanned (S2305a), and it is determined whether the release button 8 is half-pressed (S2305b). If half-pressed (S2305b: Yes), the auto focus (AF) and automatic exposure (AE) functions are activated to adjust the focus, aperture, and shutter speed (S2305c). If not half-pressed (S2305b: No), the processing from S2305a is repeated.

次に、再び、レリーズボタン8をスキャンし(S2305d)、レリーズボタン8が全押しされたか否かを判断する(S2305e)。全押しされていれば(S2305e:Yes)、フラッシュモードか否かを判断する(S2309)。   Next, the release button 8 is scanned again (S2305d), and it is determined whether or not the release button 8 is fully pressed (S2305e). If it is fully pressed (S2305e: Yes), it is determined whether or not the flash mode is set (S2309).

S2309の処理により判断した結果、フラッシュモードであれば(S2309:Yes)、フラッシュ7を投光して(S2310)、撮影する(S2311)。尚、S2305eの判断において、全押しされていなければ(S2305e:No)、S2305aからの処理を繰り返す。   If the result of determination in S2309 is flash mode (S2309: Yes), the flash 7 is projected (S2310) and photographed (S2311). If it is determined in S2305e that the button has not been fully pressed (S2305e: No), the processing from S2305a is repeated.

一方、フラッシュモードでなければ(S2309:No)、フラッシュ7を投光することなく撮影する(S2311)。尚、S2308の判断において、全押しされていなければ(S2308:No)、S2305からの処理を繰り返す。   On the other hand, if the flash mode is not set (S2309: No), the flash 7 is shot without projecting (S2311). If it is determined in S2308 that the button has not been fully pressed (S2308: No), the processing from S2305 is repeated.

次に、図10のS1006の3次元形状検出処理と同様な3次元形状検出処理を行い、被写体の3次元形状を検出する(S2312)。   Next, a three-dimensional shape detection process similar to the three-dimensional shape detection process of S1006 in FIG. 10 is performed to detect the three-dimensional shape of the subject (S2312).

次に、3次元形状検出処理(S2312)における3次元形状検出結果として、各計測頂点の実空間における3次元座標(X,Y,Z)を3次元情報格納部37mに格納する(S2313)。   Next, as a three-dimensional shape detection result in the three-dimensional shape detection process (S2312), the three-dimensional coordinates (X, Y, Z) in the real space of each measurement vertex are stored in the three-dimensional information storage unit 37m (S2313).

次に、3次元形状検出結果に基づいて、作業内容情報格納部37lに格納される作業内容情報に応じた計測を行い、その計測結果である計測情報を生成すると共に、その計測情報に基づく投影情報を生成する(S2314)。なお、「計測情報に基づく投影情報」とは、該計測情報に応じて、後述する無歪画像投影処理(S2316)により対象物又は投影方向に投影される情報である。この「計測情報に基づく投影情報」には、例えば、該計測情報に対応する文字情報又は図形情報や、該作業内容情報に応じた切断線や切削加工線や切削深度情報などの作業指示情報などが例示される。   Next, based on the three-dimensional shape detection result, measurement according to the work content information stored in the work content information storage unit 371 is performed, and measurement information which is the measurement result is generated, and projection based on the measurement information is performed. Information is generated (S2314). Note that “projection information based on measurement information” is information that is projected in an object or projection direction by a distortion-free image projection process (S2316) described later in accordance with the measurement information. The “projection information based on measurement information” includes, for example, character information or graphic information corresponding to the measurement information, work instruction information such as cutting lines, cutting lines, and cutting depth information according to the work content information. Is exemplified.

なお、S2314の処理において、作業内容情報が計測情報を不要とする作業情報である場合には、3次元形状検出結果に基づいて、作業内容情報格納部37lに格納される作業内容情報に応じた指示情報を生成し、その指示情報に基づく投影情報を生成するように構成してもよい。   In the process of S2314, when the work content information is work information that does not require measurement information, the work content information corresponding to the work content information stored in the work content information storage unit 37l is based on the three-dimensional shape detection result. Instruction information may be generated, and projection information based on the instruction information may be generated.

次に、計測情報に基づく投影情報に対応する計測結果画像を投影画像格納部37kに格納し(S2315)、その投影画像格納部37kに格納された計測結果画像を、被写体表面の歪曲や画像投影部13の投影方向に依存することなく無歪の画像として対象物又は投影方向に投影されるように、投影画像格納部37kに格納されている計測結果画像を補正する無歪投影用画像変換処理(S2316)を実行する。なお、この無歪投影用画像変換処理(S2316)については後述する。   Next, the measurement result image corresponding to the projection information based on the measurement information is stored in the projection image storage unit 37k (S2315), and the measurement result image stored in the projection image storage unit 37k is used for distortion of the subject surface or image projection. The distortion-free image conversion process for correcting the measurement result image stored in the projection image storage unit 37k so that the image is projected in the object or the projection direction as an undistorted image without depending on the projection direction of the unit 13. (S2316) is executed. The distortion-free projection image conversion process (S2316) will be described later.

次に、図8のS806の投影処理と同様な投影処理を行う(S2317)。よって、計測結果画像が無歪の画像として対象物又は投影方向に投影される。この投影処理(S2317)により、無歪な計測結果画像が対象物又は投影方向に投影されると、使用者は、この計測結果画像に従って作業を実行する。例えば、計測結果画像が被写体を略等体積に区分した切断線である場合には、その切断線に応じて切断を行なう。   Next, a projection process similar to the projection process of S806 in FIG. 8 is performed (S2317). Accordingly, the measurement result image is projected as an undistorted image in the object or the projection direction. When an undistorted measurement result image is projected in the object or the projection direction by the projection processing (S2317), the user performs an operation according to the measurement result image. For example, when the measurement result image is a cutting line that divides the subject into substantially equal volumes, cutting is performed according to the cutting line.

次に、その被写体に対する作業の終了が指示されたか否かを判断する(S2318)。なお、この作業の終了の認識は、画像入出力装置1に設けられた非図示の作業終了ボタンの操作、又は、アンテナ11を介して外部ネットワークから受信される作業終了信号の検出などにより認識される。   Next, it is determined whether or not the end of the work for the subject is instructed (S2318). Note that the completion of the work is recognized by operating a work end button (not shown) provided in the image input / output apparatus 1 or detecting a work end signal received from the external network via the antenna 11. The

S2316の処理により判断した結果、作業の終了が指示されていなければ(S2316:No)、S2316の処理を繰り返す。一方で、作業の終了が指示されると(S2316:Yes)、光源ドライバ29をオフ制御し(S2317)、その光源ドライバ29からの電気信号によってLEDアレイ17Aを消灯する(S2318)。よって、撮像領域100内に投影されていた画像などが非投影とされる。   If the end of the work is not instructed as a result of the determination in the process of S2316 (S2316: No), the process of S2316 is repeated. On the other hand, when the end of the work is instructed (S2316: Yes), the light source driver 29 is turned off (S2317), and the LED array 17A is turned off by an electric signal from the light source driver 29 (S2318). Therefore, the image projected in the imaging area 100 is not projected.

次に、モード切替スイッチ9に変化が無いか否かを判断し(S2319)、モード変化スイッチ9に変化が無ければ(S2319:Yes)、S2302からの処理を繰り返す。例えば、作業内容情報が食肉の加工ラインで、1つの食肉塊を略等体積に切断する作業であった場合には、個々の食肉塊毎に、S2302〜S2319の処理が繰り返し実行される。   Next, it is determined whether or not the mode change switch 9 has changed (S2319). If the mode change switch 9 has not changed (S2319: Yes), the processing from S2302 is repeated. For example, when the work content information is a work for cutting a single meat chunk into a substantially equal volume on a meat processing line, the processes of S2302 to S2319 are repeatedly executed for each meat chunk.

一方で、S2319の処理により判断した結果、モード切替スイッチ9に変化があれば(S2319:No)、当該処理を終了する。   On the other hand, as a result of the determination in the process of S2319, if there is a change in the mode switch 9 (S2319: No), the process is terminated.

図24は、上述した無歪投影用画像変換処理(図23のS2316)のフローチャートである。この無歪投影用画像変換処理(S2316)は、投影画像格納部37kに格納される計測結果情報などの画像情報に従って投影LCD19に表示される画像を、無歪な状態で被写体又は投影方向に投影可能な画像に変換する処理である。   FIG. 24 is a flowchart of the above-described image conversion process for distortion-free projection (S2316 in FIG. 23). This distortion-free projection image conversion process (S2316) projects an image displayed on the projection LCD 19 in a distortion-free state in the subject or in the projection direction in accordance with image information such as measurement result information stored in the projection image storage unit 37k. It is a process of converting into a possible image.

この処理では、まず、RAM37のワーキングエリア37oに当該処理の処理領域を割り当て、当該処理に用いるカウンタqの変数を初期値(q=0)に設定する(S2401)。   In this process, first, a processing area of the process is assigned to the working area 37o of the RAM 37, and a variable of the counter q used for the process is set to an initial value (q = 0) (S2401).

次に、無歪投影用画像(つまり、湾曲した被写体上において無歪である画像)に変換された後の画像となる矩形領域として、LCD空間座標(lcdcx,lcdcy)の空間を設定すると共に、この矩形領域内に含まれる画素数Qaを求める(S2402)。   Next, a space of LCD space coordinates (lcdcx, lcdcy) is set as a rectangular area that becomes an image after being transformed into an image for distortion-free projection (that is, an image that is undistorted on a curved subject) The number of pixels Qa included in this rectangular area is obtained (S2402).

次に、投影画像格納部37kに格納される計測結果情報などの画像情報を、理想カメラ画像上の座標(ccdcx,ccdcy)に配置する(S2403)。   Next, image information such as measurement result information stored in the projection image storage unit 37k is arranged at coordinates (ccdcx, cdccy) on the ideal camera image (S2403).

次に、設定された矩形領域を構成するLCD空間座標(lcdcx,lcdcy)上の各画素について、上述したS2311の処理により3次元形状座標格納部37hに格納された被写体の表面上の点である三次元座標(X,Y,Z)を用いることにより、無歪投影用画像の各画素の画素情報を設定する。   Next, for each pixel on the LCD space coordinates (lcdcx, lcdcy) constituting the set rectangular area, it is a point on the surface of the subject stored in the three-dimensional shape coordinate storage unit 37h by the processing of S2311 described above. By using the three-dimensional coordinates (X, Y, Z), pixel information of each pixel of the image for distortion-free projection is set.

つまり、まず、カウンタqが画素数Qaに到達したか否かを判断する(S2404)。カウンタqが画素数Qaに到達していなければ(S2404:No)、カウンタqの値に対応する画素のLCD空間座標(lcdcx,lcdcy)を、外部メモリ27に格納された被写体上の座標(X,Y,Z)に変換する(S2405)。   That is, first, it is determined whether or not the counter q has reached the number of pixels Qa (S2404). If the counter q has not reached the number of pixels Qa (S2404: No), the LCD space coordinates (lcdcx, lcdcy) of the pixel corresponding to the value of the counter q are obtained as coordinates on the subject stored in the external memory 27 (X , Y, Z) (S2405).

次に、S2405の処理により変換されて得られた被写体上の座標(X,Y,Z)を、理想カメラ画像上の座標(ccdcx,ccdcy)に変換する(S2406)。   Next, the coordinates (X, Y, Z) on the subject obtained by the conversion in S2405 are converted into coordinates (ccdcx, cdccy) on the ideal camera image (S2406).

次に、S2406の処理により変換されて得られた座標(ccdcx,ccdcy)に配置されている画素情報を取得し、その画素情報を、カウンタqの値に対応するLCD空間座標(lcdcx,lcdcy)に書き込む(S2407)。   Next, the pixel information arranged at the coordinates (ccdcx, ccdcy) obtained by the conversion in S2406 is acquired, and the pixel information is converted into the LCD space coordinates (lcdcx, lcdcy) corresponding to the value of the counter q. (S2407).

そして、次の画素について上述したS2404からS2407までの処理を実行すべく、カウンタqに「1」を加算する(S2408)。   Then, “1” is added to the counter q in order to execute the above-described processing from S2404 to S2407 for the next pixel (S2408).

こうして、S2404からS2408までの処理を、カウンタqが画素数Qaになるまで繰り返すと(S2404:Yes)、設定された矩形領域を構成するLCD空間座標(lcdcx,lcdcy)に対応付けられた画素情報を、投影画像格納部37kに格納する(S2409)。   Thus, when the processing from S2404 to S2408 is repeated until the counter q reaches the number of pixels Qa (S2404: Yes), the pixel information associated with the LCD space coordinates (lcdcx, lcdcy) constituting the set rectangular area Are stored in the projection image storage unit 37k (S2409).

最後に、S2401において、当該処理を実行するためにワーキングエリア37oに割り当てた処理領域を開放して(S2410)、当該処理を終了する。   Finally, in S2401, the processing area allocated to the working area 37o for executing the process is released (S2410), and the process is terminated.

S2409の処理により、LCD空間座標(lcdcx,lcdcy)上の画素情報が投影画像格納部37kに格納されることにより、この無歪投影用画像変換処理(S2316)に続く投影処理(S2317)において、投影LCD19には、歪曲面上において無歪に投影される投影画像が表示される。よって、被写体又は投影方向に無歪な画像が投影される。   In the projection process (S2317) following the distortion-free projection image conversion process (S2316), the pixel information on the LCD space coordinates (lcdcx, lcdcy) is stored in the projection image storage unit 37k by the process of S2409. On the projection LCD 19, a projection image projected without distortion on the distorted curved surface is displayed. Therefore, an undistorted image is projected on the subject or the projection direction.

従って、無歪投影用画像変換処理(S2316)を実行することにより、被写体が3次元形状を有し、そのためにその表面が湾曲している場合や、投影方向が斜めである場合において、無歪な計測結果画像を投影することができる。その結果として、例えば、被写体を略等体積に切断させる作業において、切断指示線を被写体上の正確な位置に投影させることができる。   Therefore, by executing the distortion-free image conversion process (S2316), the object has a three-dimensional shape, and therefore the surface is curved or the projection direction is oblique. A simple measurement result image can be projected. As a result, for example, in the operation of cutting the subject into substantially equal volumes, the cutting instruction line can be projected at an accurate position on the subject.

図25は、体積・重量計測処理モードにおける第1の例を説明するための図である。この体積・重量計測処理モードにおける第1の例では、食肉の加工ラインにおいて、コンベア200により搬送されるワークW1としての食肉塊を略等体積に切断する作業が実施される。   FIG. 25 is a diagram for explaining a first example in the volume / weight measurement processing mode. In the first example in the volume / weight measurement processing mode, an operation of cutting the meat chunk as the workpiece W1 conveyed by the conveyor 200 into a substantially equal volume is performed in the meat processing line.

図25には、食肉の加工ラインにおいて、コンベア200により搬送されるワークW1としての食肉塊を略等体積に切断するために、その3次元形状を検出するための明暗を交互に並べてなる縞状のパターン光が、画像入出力装置1の画像投影部13から、撮像領域100内に位置するワークW1に投影されている様子を図示している。尚、図25は、上述した3次元形状検出処理(S2310)において実行される処理の一部に対応する。   In FIG. 25, in the meat processing line, in order to cut the meat chunk as the work W1 conveyed by the conveyor 200 into a substantially equal volume, the stripes are formed by alternately arranging the light and dark for detecting the three-dimensional shape. The pattern light is projected from the image projection unit 13 of the image input / output device 1 onto the workpiece W1 located in the imaging region 100. FIG. 25 corresponds to part of the processing executed in the above-described three-dimensional shape detection processing (S2310).

尚、撮像領域100は、画像入出力装置1における画像投影部14による投影方向上の画像投影可能な面、即ち、画像投影面でもある。ここで、この撮像領域100の境界を示す枠を、投影LCD19から投影画像として投影するようにしてもよい。撮像領域100の境界を示すことによって、使用者は撮像可能な領域を明確に把握することができる。   The imaging region 100 is also a surface on which an image can be projected in the projection direction by the image projection unit 14 in the image input / output device 1, that is, an image projection surface. Here, a frame indicating the boundary of the imaging region 100 may be projected from the projection LCD 19 as a projected image. By indicating the boundary of the imaging region 100, the user can clearly grasp the region that can be imaged.

また、図25に示す体積・重量計測処理モード第1の例では、画像入出力装置1のベース4は、コンベア200の搬送を妨害しないように、一方が短く構成されている。   In the first example of the volume / weight measurement processing mode shown in FIG. 25, one of the bases 4 of the image input / output device 1 is configured to be short so as not to disturb the conveyance of the conveyor 200.

図26は、上述した体積・重量計測処理におけるS2315の処理の結果として計測結果画像が投影された状態を説明する図である。画像入出力装置1が、ワークW1を略等体積に4つに分割する作業に関する作業内容情報を受信した場合、S2310の処理により生成された3次元形状結果に基づいて、S2312の処理により計測情報として体積情報が取得され、その体積情報に基づく投影情報として、ワークW1を略等体積に4分割するための切断線の情報が生成される。その結果として、図26に示すように、生成された切断線の情報が、3本の線状の計測結果画像R1としてワークW1上に投影される。この計測結果画像R1に基づいて、使用者がワークW1を切断すると、ワークW1を略等体積に4分割することができる。   FIG. 26 is a diagram for explaining a state where a measurement result image is projected as a result of the processing of S2315 in the volume / weight measurement processing described above. When the image input / output device 1 receives the work content information related to the work of dividing the work W1 into four substantially equal volumes, the measurement information is obtained by the process of S2312 based on the three-dimensional shape result generated by the process of S2310. As the projection information based on the volume information, cutting line information for dividing the work W1 into substantially equal volumes is generated. As a result, as shown in FIG. 26, the generated cutting line information is projected onto the workpiece W1 as three linear measurement result images R1. When the user cuts the workpiece W1 based on the measurement result image R1, the workpiece W1 can be divided into four substantially equal volumes.

尚、ワークW1を計測結果画像R1に基づいて切断する場合、画像入出力装置1にカッタなどの切断手段を設け、自動的にワークW1を切断するように構成してもよい。また、その場合、計測結果画像R1を投影することなく、S2310の処理により生成された切断線の情報に基づいて切断手段によりワークW1を自動的に切断するように構成してもよい。これによって、ワークの切断作業を効率化することができる。   When cutting the workpiece W1 based on the measurement result image R1, the image input / output device 1 may be provided with a cutting means such as a cutter so that the workpiece W1 is automatically cut. In this case, the workpiece W1 may be automatically cut by the cutting unit based on the cutting line information generated by the processing of S2310 without projecting the measurement result image R1. As a result, the work cutting operation can be made more efficient.

この図26では、ワークW1を略等体積に4つに分割する作業について説明したが、画像入出力装置1が、ワークW1を複数の略等重量の塊に分割する作業に関する作業内容情報を受信した場合にはワークW1を略等重量に分割する計測結果画像R1がワークW1に投影される。このようなワークW1を複数の等重量の塊に分割する作業の場合には、作業内容情報には、ワークW1の密度情報又は密度分布情報が含まれる。この場合、S2312の処理において、S2310の処理により生成された3次元形状結果に基づいて体積情報が取得されると、その体積に密度情報又は密度分布情報が積算されて重量情報又は重量分布情報が計測情報として取得される。そして、その重量情報又は重量分布情報に基づく投影情報として、ワークW1を略等重量の複数の塊に分割するための切断線の情報が生成される。   In FIG. 26, the work of dividing the work W1 into four parts with substantially equal volumes has been described. However, the image input / output device 1 receives work content information related to the work of dividing the work W1 into a plurality of substantially equal weight blocks. In this case, a measurement result image R1 that divides the work W1 into substantially equal weights is projected onto the work W1. In the case of such work for dividing the work W1 into a plurality of equal weight blocks, the work content information includes density information or density distribution information of the work W1. In this case, in the process of S2312, when the volume information is acquired based on the three-dimensional shape result generated by the process of S2310, the density information or the density distribution information is integrated into the volume to obtain the weight information or the weight distribution information. Obtained as measurement information. Then, as projection information based on the weight information or the weight distribution information, cutting line information for dividing the workpiece W1 into a plurality of masses having substantially equal weights is generated.

また、画像入出力装置1が、ワークW1における所定重量又は所定体積の一部分を得ることを作業内容情報として受信した場合には、S2312の処理において、S2310の処理により生成された3次元形状結果に基づいてその作業に応じた計測情報が取得されるので、その計測情報に基づく計測結果画像R1をワークW1上に投影することができる。   When the image input / output device 1 receives as a work content information that a predetermined weight or a part of a predetermined volume in the workpiece W1 is obtained, in the processing of S2312, the three-dimensional shape result generated by the processing of S2310 is displayed. Since the measurement information corresponding to the work is acquired based on the measurement result, the measurement result image R1 based on the measurement information can be projected onto the work W1.

上述のように、その作業内容に応じて、ワークW1の3次元形状情報に基づいてワークW1に対する体積情報や重量情報などの計測情報を得、その計測情報に基づく計測結果画像として、切断線などの作業指示情報がワークW1に直接投影されるので、使用者は効率的にその作業を実行することができる。   As described above, measurement information such as volume information and weight information for the workpiece W1 is obtained based on the three-dimensional shape information of the workpiece W1 according to the work content, and a cutting line or the like is obtained as a measurement result image based on the measurement information. Since the work instruction information is directly projected onto the work W1, the user can efficiently perform the work.

図27は、上述した体積・重量計測モードにおける第2の例を説明する図である。この第2の例では、撮像領域100内に配置されたワークW2としての木片を所定形状に切削するという作業が実施される。   FIG. 27 is a diagram illustrating a second example in the volume / weight measurement mode described above. In the second example, an operation of cutting a piece of wood as a work W2 arranged in the imaging region 100 into a predetermined shape is performed.

図27には、上述した体積・重量計測処理におけるS2315の処理の結果として、計測結果画像として、切削深度情報画像R2a〜R2bと切削加工線画像R3とが投影された状態が示されている。画像入出力装置1が、ワークW2を所定形状に切削する作業に関する作業内容情報を受信した場合、S2310の処理により生成された3次元形状結果に基づいて、S2312の処理により計測情報として、目的とする形状を得るために必要な切削部分の情報が取得される。そして、その取得された計測情報に基づく投影情報として、ワークW2に対する切削時の切削深度を指示する切削深度情報や、所定の切削加工(例えば、角を丸くする)を指示する切削加工線の情報が生成される。その結果として、図27に示すように、生成された切削深度情報及び切削加工線の情報が、それぞれ、切削深度情報画像R2a〜R2c及び切削加工線画像R3としてワークW2上に投影される。   FIG. 27 shows a state where cutting depth information images R2a to R2b and a cutting line image R3 are projected as measurement result images as a result of the processing of S2315 in the volume / weight measurement processing described above. When the image input / output device 1 receives the work content information related to the work of cutting the workpiece W2 into a predetermined shape, based on the three-dimensional shape result generated by the process of S2310, the measurement information is obtained as the measurement information by the process of S2312. Information on a cutting part necessary for obtaining a shape to be obtained is acquired. Then, as projection information based on the acquired measurement information, cutting depth information for instructing a cutting depth at the time of cutting on the workpiece W2, and information on a cutting line for instructing a predetermined cutting process (for example, rounding a corner). Is generated. As a result, as shown in FIG. 27, the generated cutting depth information and cutting line information are projected on the workpiece W2 as cutting depth information images R2a to R2c and a cutting line image R3, respectively.

なお、切削深度情報画像R2a〜R2cは、その切削深度を十字印の大きさによって表している。例えば、図27では、最も小さい十字印である切削深度情報画像R2aが投影された部分を最も浅い深度で切削するよう指示するものである。その十字印は、切削深度情報画像R2bにおいてより大きくなり、切削深度情報画像R2cにおいてさらに大きく、この順でより深い切削深度で切削するよう指示するものである。   In addition, cutting depth information image R2a-R2c represents the cutting depth by the magnitude | size of the cross mark. For example, in FIG. 27, an instruction is given to cut the portion projected with the cutting depth information image R2a, which is the smallest cross mark, at the shallowest depth. The cross mark is larger in the cutting depth information image R2b and larger in the cutting depth information image R2c, and instructs to cut at a deeper cutting depth in this order.

また、切削加工情報画像R3は、S2312の処理の結果として生成された切削加工線の情報に対応する画像であり、所定の切削加工(例えば、角を丸くする)を指示するための画像である。   Further, the cutting information image R3 is an image corresponding to information on the cutting line generated as a result of the processing of S2312, and is an image for instructing predetermined cutting (for example, rounding a corner). .

使用者が、これらの切削深度情報画像R2a〜R2c及び切削加工指示線R3に応じた切削を実行することにより、ワークW2を目的の形状とすることができる。切削深度情報画像R2a〜R2c及び切削加工指示線R3がワークW2に直接投影されるので、効率的な作業を可能とする。   When the user performs cutting according to the cutting depth information images R2a to R2c and the cutting instruction line R3, the workpiece W2 can be formed into a target shape. Since the cutting depth information images R2a to R2c and the cutting instruction line R3 are directly projected onto the workpiece W2, efficient work can be performed.

以上説明したように、この体積・重量計測モードによれば、作業内容情報に応じて、3次元情報に基づく各種計測が実行され、その計測結果に応じた画像が、被写体としてのワークやその被写体の近傍に投影されるので、使用者が所望とする計測情報を容易に視認することができる。   As described above, according to the volume / weight measurement mode, various measurements based on the three-dimensional information are executed according to the work content information, and an image corresponding to the measurement result is a work as the subject or the subject. Therefore, measurement information desired by the user can be easily viewed.

また、3次元情報に基づく計測情報として、被写体であるワークの体積情報や重量分布情報や重量情報を得ることができる上に、それらの体積情報や重量分布情報や重量情報に基づいてワークを略等体積や略等重量などに区分するための作業指示線などをワーク上に投影することができるので、ワーク上に投影された作業指示線に基づいて作業をすればよく、作業を効率的に行うことができる。   Further, as measurement information based on the three-dimensional information, volume information, weight distribution information, and weight information of a work that is a subject can be obtained, and the work is abbreviated based on the volume information, weight distribution information, and weight information. Work instruction lines for dividing into equal volumes, approximately equal weights, etc. can be projected on the work, so work can be done efficiently based on the work instruction lines projected on the work. It can be carried out.

次に、図28〜図30を参照して、画像入出力装置1における動作モードの1つである指定点計測モードについて説明する。この指定点計測モードは、指や棒上のポインタにより指定された少なくとも1つの点により形成される点、線分、又は領域について計測を行うことのできるモードである。   Next, a designated point measurement mode that is one of the operation modes in the image input / output device 1 will be described with reference to FIGS. This designated point measurement mode is a mode in which measurement can be performed for a point, a line segment, or a region formed by at least one point designated by a finger or a pointer on a stick.

図28は、この指定点計測モードを説明する図である。図28には、指定点計測モードの一例として、撮像領域100内に配置されたワークW3としての部品に対し、「2点採寸」として、使用者により指差された2点間の距離の計測が実行された様子を示している。   FIG. 28 is a diagram for explaining the designated point measurement mode. In FIG. 28, as an example of the designated point measurement mode, measurement of the distance between two points pointed by the user as “two-point measurement” for a part as the workpiece W3 arranged in the imaging region 100 is performed. Is shown.

この指定点計測モードでは、図28に示すように、撮像領域100内の所定の位置(図28では撮像領域100の下方側)に計測指示ボタンB1〜B3と入力終了ボタンB4とが投影されている。計測指示ボタンB1〜B3は、各ボタンに対応付けられた計測の実行を指示するボタンであり、使用者により指差されることによって入力され、対応する計測が実行される。   In this designated point measurement mode, as shown in FIG. 28, measurement instruction buttons B1 to B3 and an input end button B4 are projected on a predetermined position in the imaging region 100 (on the lower side of the imaging region 100 in FIG. 28). Yes. The measurement instruction buttons B1 to B3 are buttons for instructing execution of the measurement associated with each button. The measurement instruction buttons B1 to B3 are input by being pointed by the user and corresponding measurement is executed.

計測指示ボタンB1は「3D入力」を指示するものであり、この計測指示ボタンB1が入力されると、後述する指定点計測処理により、3次元形状が計測され、その計測結果画像として、ワークW3の3次元立体画像が投影される。   The measurement instruction button B1 is used to instruct “3D input”. When this measurement instruction button B1 is input, a three-dimensional shape is measured by a specified point measurement process described later, and a workpiece W3 is obtained as the measurement result image. Are projected.

計測指示ボタンB2は「2点採寸」を指示するものであり、この計測指示ボタンB2が入力されると、指先などによる指差により指定された2点間の距離を、3次元形状検出結果に基づいて計測し、その計測結果画像がワークW3上又は撮像領域100に投影される。なお、図28には、選択ボタン画像B2に対応する「2点採寸」が選択された場合が図示されている。図28に示すように、右手300aにより指差されるワークW3上の点と、右手300aの位置から移動された右手300bにより指差されるワークW3上の点との2点間の距離が計測されて、その計測結果画像R4がワークW3上に投影されている状態が図示されている。   The measurement instruction button B2 is for instructing “two-point measurement”, and when this measurement instruction button B2 is input, the distance between the two points designated by the finger pointing with the fingertip or the like is used as the three-dimensional shape detection result. The measurement result image is projected on the workpiece W3 or the imaging region 100. FIG. 28 illustrates a case where “two-point measurement” corresponding to the selection button image B2 is selected. As shown in FIG. 28, the distance between two points between the point on the workpiece W3 pointed by the right hand 300a and the point on the workpiece W3 pointed by the right hand 300b moved from the position of the right hand 300a is measured. Then, a state in which the measurement result image R4 is projected onto the workpiece W3 is illustrated.

図28に示される計測結果画像R4は、2点間の距離を示す数値である。このように計測画像が文字情報として投影されることにより、使用者はその情報を容易に認識することができる。   The measurement result image R4 shown in FIG. 28 is a numerical value indicating the distance between two points. By projecting the measurement image as character information in this way, the user can easily recognize the information.

計測指示ボタンB3は「高さ測定」を指示するものであり、この計測指示ボタンB3が入力されると、指先などによる指差により指定された位置とワークW3の置かれている面との高さが計測され、その計測結果画像として、高さを数値で示す文字情報などがワークW3上又は撮像領域100に投影される。   The measurement instruction button B3 is for instructing “height measurement”. When the measurement instruction button B3 is input, the height between the position designated by the finger pointing by the fingertip or the like and the surface on which the workpiece W3 is placed is set. Is measured, and as the measurement result image, character information indicating the height by a numerical value is projected on the work W3 or the imaging region 100.

また、入力終了指示ボタンB4は、上述の「2点採寸」又は「高さ測定」を実行する際において、指先による指定点の入力を終了する場合に用いられるものであり、指先などによる指差によって入力される。   The input end instruction button B4 is used to end the input of the designated point by the fingertip when executing the above “two-point measurement” or “height measurement”. Is input by.

図29は、この指定点計測モードにおいて実行される指定点計測処理(図6のS615)のフローチャートである。この指定点計測処理は、被写体の3次元形状検出結果を用い、上述した選択ボタン画像B1〜B4により選択された計測を実行し、その計測結果に基づく画像を投影する処理である。   FIG. 29 is a flowchart of the designated point measurement process (S615 in FIG. 6) executed in this designated point measurement mode. This designated point measurement process is a process for executing the measurement selected by the above-described selection button images B1 to B4 using the 3D shape detection result of the subject and projecting an image based on the measurement result.

この処理では、まず、CCD22に低解像度動画設定信号を送信する(S2901)。よって、低解像度の動画データを用いるので、演算量が少なく、処理を高速に行い得る。   In this process, first, a low resolution moving image setting signal is transmitted to the CCD 22 (S2901). Therefore, since low-resolution moving image data is used, the amount of calculation is small and processing can be performed at high speed.

次に、指定点計測モード初期画面画像を投影画像格納部37kに格納する(S2902)。なお、この指定点計測モード初期画面画像の画像データは、ROM37の非図示の領域に予め格納されている。   Next, the designated point measurement mode initial screen image is stored in the projection image storage unit 37k (S2902). The image data of the designated point measurement mode initial screen image is stored in advance in a region not shown in the ROM 37.

次に、モニタLCD10にファインダ画像を表示し(S2902)、続いて、図8のS806の投影処理と同様な投影処理を行う(S2904)。S2904の処理の結果として、指定点計測モード初期画面画像が投影されると、撮像領域100内の所定の位置に選択ボタン画像B1〜B4が投影された状態となる(図28参照)。   Next, a finder image is displayed on the monitor LCD 10 (S2902), and then a projection process similar to the projection process of S806 of FIG. 8 is performed (S2904). As a result of the processing of S2904, when the designated point measurement mode initial screen image is projected, the selection button images B1 to B4 are projected at predetermined positions in the imaging region 100 (see FIG. 28).

次に、周知のオートフォーカス(AF)及び自動露出機能(AE)を起動して、ピント、絞り、シャッター速度を調節した後に(S2905)、所定間隔で撮像領域100内を撮影し、2つの連続する撮像画像データの各画素の差分をとることにより、生成されたイメージを検査し、指先により指差された座標である指差座標を取得する(S2906)。なお、指先などによる指差座標の決定には、例えば、特開平7−168949号公報に記載される方法などを用いることができる。   Next, after the well-known autofocus (AF) and automatic exposure function (AE) are activated and the focus, aperture, and shutter speed are adjusted (S2905), the inside of the imaging area 100 is photographed at a predetermined interval, and two consecutive images are taken. The generated image is inspected by taking the difference of each pixel of the captured image data to be obtained, and finger pointing coordinates, which are the coordinates pointed by the fingertip, are acquired (S2906). For example, a method described in Japanese Patent Laid-Open No. 7-168949 can be used to determine the finger difference coordinate by the fingertip or the like.

次に、S2906により取得された指差座標が、計測指示ボタンB1〜B3を指差するものであるか否かを判断し(S2907)、計測指示ボタンB1〜B3のいずれも指差されていなければ(S2907:No)、S2906〜S2907の処理を繰り返す。一方で、計測指示ボタンB1〜B3のいずれかが指差されていれば(S2907:Yes)、動画撮影を停止し(S2908)、計測情報を得るための計測情報生成処理(S2909)を実行する。なお、この計測情報生成処理(S2909)については後述する。   Next, it is determined whether or not the finger point coordinates acquired in S2906 point to the measurement instruction buttons B1 to B3 (S2907), and any of the measurement instruction buttons B1 to B3 must be pointed. If (S2907: No), the processing of S2906 to S2907 is repeated. On the other hand, if any of the measurement instruction buttons B1 to B3 is pointed (S2907: Yes), the video shooting is stopped (S2908), and the measurement information generation process (S2909) for obtaining the measurement information is executed. . The measurement information generation process (S2909) will be described later.

計測情報生成処理(S2909)の実行後、レリーズボタン8を再度スキャンし(S2910)、レリーズボタン8が全押しされたか否かを判断し(S2911)、全押しされていなければ(S2911:No)、S2911の処理を繰り返す。一方で、全押しされていれば(S2911:Yes)、フラッシュモードか否か判断し(S2912)、フラッシュモードであれば(S2912:Yes)、フラッシュ7をたいて(S2913)、撮像領域100内を撮影する(S2914)。一方、フラッシュモードでなければ(S2912:No)、フラッシュ7をたくことなく撮影する(S2914)。尚、S2911の処理において、レリーズボタン8が全押しされていると判断される前に、レリーズボタンの半押し状態が検出されて、オートフォーカス(AF)および自動露出(AE)機能の起動と、ピント、絞り、シャッタスピードの調節とがなされているものとする。   After the measurement information generation process (S2909) is executed, the release button 8 is scanned again (S2910), and it is determined whether the release button 8 is fully pressed (S2911). If the release button 8 is not fully pressed (S2911: No). , S2911 is repeated. On the other hand, if it is fully pressed (S2911: Yes), it is determined whether or not it is in the flash mode (S2912). If it is in the flash mode (S2912: Yes), the flash 7 is applied (S2913). Is photographed (S2914). On the other hand, if the flash mode is not set (S2912: No), the image is shot without hitting the flash 7 (S2914). In the process of S2911, before it is determined that the release button 8 is fully pressed, the half-pressed state of the release button is detected, and the auto focus (AF) and automatic exposure (AE) functions are activated, It is assumed that the focus, aperture, and shutter speed are adjusted.

詳細については後述するが、計測情報生成処理(S2909)の実行後には、使用者により選択された指示計測指示ボタンB1〜B3に応じて生成された計測情報に基づく画像が撮像領域100内に投影されているので、S2914の処理により、その計測情報に基づく画像が撮像される。従って、投影されている計測情報に基づく画像を撮像画像データとして記録しておくことができる。   Although details will be described later, an image based on the measurement information generated according to the instruction measurement instruction buttons B1 to B3 selected by the user is projected into the imaging region 100 after the execution of the measurement information generation process (S2909). Therefore, an image based on the measurement information is captured by the process of S2914. Accordingly, an image based on the projected measurement information can be recorded as captured image data.

次に、S2914の処理により撮像した撮像画像をCCD22からキャッシュメモリ28に転送し(S2915)、キャッシュメモリ28に転送された撮像画像を外部メモリ27に格納する(S2916)。よって、計測指示ボタンの種類に応じた計測による結果として得られた各種計測情報を画像として保存することができる。   Next, the captured image captured by the processing of S2914 is transferred from the CCD 22 to the cache memory 28 (S2915), and the captured image transferred to the cache memory 28 is stored in the external memory 27 (S2916). Therefore, various measurement information obtained as a result of measurement according to the type of measurement instruction button can be stored as an image.

次に、光源ドライバ29をオフ制御し(S2917)、その光源ドライバ29からの電気信号によってLEDアレイ17Aを消灯する(S2918)。よって、撮像領域100内に投影されていた画像などが非投影とされる。   Next, the light source driver 29 is turned off (S2917), and the LED array 17A is turned off by an electric signal from the light source driver 29 (S2918). Therefore, the image projected in the imaging area 100 is not projected.

次に、モード切替スイッチ9に変化が無いか否かを判断し(S2919)、モード変化スイッチ9に変化が無ければ(S2919:Yes)、S2901の処理に戻り、2901〜S2919の処理を繰り返す。一方で、S2919の処理により判断した結果、モード切替スイッチ9に変化があれば(S2919:No)、当該処理を終了する。   Next, it is determined whether or not the mode change switch 9 has changed (S2919). If there is no change in the mode change switch 9 (S2919: Yes), the processing returns to S2901, and the processing of 2901 to S2919 is repeated. On the other hand, if the result of the determination in S2919 is that there is a change in the mode switch 9 (S2919: No), the process ends.

図30は、上述した計測情報生成処理(図29のS2909)のフローチャートである。この計測情報生成処理(S2909)は、使用者により選択された指示計測指示ボタンB1〜B3に応じた計測情報を生成する処理である。   FIG. 30 is a flowchart of the above-described measurement information generation process (S2909 in FIG. 29). The measurement information generation process (S2909) is a process of generating measurement information according to the instruction measurement instruction buttons B1 to B3 selected by the user.

この処理では、まず、CCD22に高解像度設定信号を送信する(S3001)。   In this process, first, a high resolution setting signal is transmitted to the CCD 22 (S3001).

次に、レリーズボタン8をスキャンし(S3002a)、レリーズボタン8が半押しされたか否かを判断する(S3002b)。半押しされていれば(S3002b:Yes)、オートフォーカス(AF)および自動露出(AE)機能を起動し、ピント、絞り、シャッタスピードを調節する(S3002c)。尚、半押しされていなければ(S3002b:No)、S3002aからの処理を繰り返す。   Next, the release button 8 is scanned (S3002a), and it is determined whether or not the release button 8 is half-pressed (S3002b). If half-pressed (S3002b: Yes), the auto focus (AF) and automatic exposure (AE) functions are activated to adjust the focus, aperture, and shutter speed (S3002c). If not half-pressed (S3002b: No), the processing from S3002a is repeated.

次に、再び、レリーズボタン8をスキャンし(S3002d)、レリーズボタン8が全押しされたか否かを判断する(S3002e)。全押しされていれば(S3002e:Yes)、フラッシュモードか否かを判断する(S3006)。   Next, the release button 8 is scanned again (S3002d), and it is determined whether or not the release button 8 has been fully pressed (S3002e). If it is fully pressed (S3002e: Yes), it is determined whether or not the flash mode is set (S3006).

S3006の処理により判断した結果、フラッシュモードであれば(S3006:Yes)、フラッシュ7を投光して(S3007)、撮影する(S3008)。尚、S3002eの判断において、全押しされていなければ(S3002e:No)、S3002aからの処理を繰り返す。   If the result of determination in S3006 is flash mode (S3006: Yes), the flash 7 is projected (S3007) and photographed (S3008). If it is determined in S3002e that the button has not been fully pressed (S3002e: No), the processing from S3002a is repeated.

一方、フラッシュモードでなければ(S3006:No)、フラッシュ7を投光することなく撮影する(S3008)。尚、S3005の判断において、全押しされていなければ(S3005:No)、S3002からの処理を繰り返す。   On the other hand, if the flash mode is not set (S3006: No), the flash 7 is shot without projecting (S3008). If it is determined in S3005 that the button has not been fully pressed (S3005: No), the processing from S3002 is repeated.

次に、図10のS1006の3次元形状検出処理と同様な3次元形状検出処理を行い、被写体の3次元形状を検出する(S3009)。   Next, a three-dimensional shape detection process similar to the three-dimensional shape detection process of S1006 in FIG. 10 is performed to detect the three-dimensional shape of the subject (S3009).

次に、3次元形状検出処理(S3009)における3次元形状検出結果として、各計測頂点の実空間における3次元座標(X,Y,Z)を3次元情報格納部37mに格納する(S3010)。   Next, as a three-dimensional shape detection result in the three-dimensional shape detection process (S3009), the three-dimensional coordinates (X, Y, Z) in the real space of each measurement vertex are stored in the three-dimensional information storage unit 37m (S3010).

次に、図29のS2907の処理により入力が確認された計測指示ボタンB1〜B3が何かを判断し(S3011)、以降では、その計測指示ボタンB1〜B3の種類に応じた処理を行なう。   Next, it is determined what the measurement instruction buttons B1 to B3 whose inputs are confirmed by the process of S2907 in FIG. 29 are (S3011), and thereafter, the process according to the type of the measurement instruction buttons B1 to B3 is performed.

S3011の処理により判断した結果、計測指示ボタンB2又はB3の入力が確認された場合には(S3011:2点採寸、高さ測定)、後述する指差指示範囲計測処理(S3012)を実行することによって、計測指示ボタンの種類に応じた計測及びその計測結果の投影などを行う。この指差指示範囲計測処理(S3012)の実行後、当該処理を終了する。   If the input of the measurement instruction button B2 or B3 is confirmed as a result of the determination in S3011, (S3011: Two-point measurement, height measurement), a pointing instruction range measurement process (S3012) described later is executed. Thus, measurement according to the type of the measurement instruction button and projection of the measurement result are performed. After the execution of this pointing instruction range measurement process (S3012), the process ends.

一方、S3011の処理により判断した結果、計測指示ボタンB1の入力が確認された場合には(S3011:3D入力)、S3010の処理の結果として3次元情報格納部37mに格納されている3次元形状検出結果を外部メモリ27に格納し(S3013)、その3次元形状検出結果をモニタLCD10に表示する(S3014)。尚、この3次元形状検出結果とは、各計測頂点の実空間における3次元座標(X,Y,Z)の集合体として表示する。   On the other hand, when the input of the measurement instruction button B1 is confirmed as a result of the determination in the process of S3011, (S3011: 3D input), the 3D shape stored in the 3D information storage unit 37m as a result of the process of S3010 The detection result is stored in the external memory 27 (S3013), and the three-dimensional shape detection result is displayed on the monitor LCD 10 (S3014). The three-dimensional shape detection result is displayed as an aggregate of three-dimensional coordinates (X, Y, Z) in the real space of each measurement vertex.

次に、3次元形状検出結果としての計測頂点をポリゴンで結んでそのサーフェスを表示した立体画像(3DのCG画像)としての3次元形状検出結果画像を投影画像格納部37kに格納し(S3015)、図8のS806の投影処理と同様な投影処理を行う(S3016)。尚、この場合には、図18を参照して上述したように、投影LCD19上の座標を3次元空間座標に変換する式の逆関数を利用し、求められた3次元座標に対する投影LCD19上の座標を求めることによって、3次元形状結果座標を投影面に投影させることができる。そして、このS3016の処理後、当該処理を終了する。   Next, a 3D shape detection result image as a stereoscopic image (3D CG image) displaying the surface by connecting the measurement vertices as a 3D shape detection result with a polygon is stored in the projection image storage unit 37k (S3015). A projection process similar to the projection process of S806 in FIG. 8 is performed (S3016). In this case, as described above with reference to FIG. 18, the inverse function of the expression for converting the coordinates on the projection LCD 19 into the three-dimensional space coordinates is used, and the calculated three-dimensional coordinates on the projection LCD 19 are displayed. By obtaining the coordinates, the three-dimensional shape result coordinates can be projected onto the projection plane. Then, after the processing of S3016, the processing ends.

図31は、上述した指差指示範囲計測処理(図30のS3012)のフローチャートである。この指差指示範囲計測処理(S3012)は、指や棒上のポインタにより指定された少なくとも1つの点により形成される点、線分、又は領域について計測を行い、その計測画像を被写体又は投影方向に投影する処理である。   FIG. 31 is a flowchart of the above-described finger pointing instruction range measurement process (S3012 in FIG. 30). In this finger point indication range measurement process (S3012), a point, a line segment, or a region formed by at least one point designated by a finger or a pointer on a stick is measured, and the measured image is taken as a subject or a projection direction. Is a process of projecting to

この処理では、まず、CCD22に低解像度動画設定信号を送信する(S3101)。よって、低解像度の動画データを用いるので、演算量が少なく、処理を高速に行い得る。   In this process, first, a low-resolution moving image setting signal is transmitted to the CCD 22 (S3101). Therefore, since low-resolution moving image data is used, the amount of calculation is small and processing can be performed at high speed.

次に、周知のオートフォーカス(AF)及び自動露出(AE)機能を起動して、ピント、絞り、シャッター速度を調節した後に(S3102)、上述したS2906(図29)の処理と同様に、所定間隔で撮像領域100内を撮影し、2つの連続する撮像画像データの各画素の差分をとることにより、生成されたイメージを検査し、指先により指差された座標である指差座標を取得する(S3103)。   Next, after the well-known autofocus (AF) and automatic exposure (AE) functions are activated and the focus, aperture, and shutter speed are adjusted (S3102), a predetermined process is performed in the same manner as in the process of S2906 (FIG. 29) described above. The inside of the imaging area 100 is imaged at intervals, and the generated image is inspected by taking the difference between each pixel of two consecutive captured image data, and finger pointing coordinates, which are the coordinates pointed by the fingertip, are acquired. (S3103).

次に、S3103により取得された指差座標が、入力終了指示ボタンB4を指差するものであるか否かを判断し(S3104)、入力終了指示ボタンB4が指差されていなければ(S3104:No)、その指差座標を、指差座標格納部37nに格納し(S3105)、S3104の処理に戻る。一方で、入力終了指示ボタンB4が指差されていれば(S3104:Yes)、動画撮影を停止する(S3106)。   Next, it is determined whether or not the finger point coordinates acquired in S3103 point to the input end instruction button B4 (S3104). If the input end instruction button B4 is not pointed (S3104: No), the finger point coordinates are stored in the finger point coordinate storage unit 37n (S3105), and the process returns to S3104. On the other hand, if the input end instruction button B4 is pointed (S3104: Yes), the moving image shooting is stopped (S3106).

上述したS3013〜S3015の処理により、使用者の指などの指示部材の指し示す位置を時間をずらして経時的に撮像することにより、その指示部材の指し示す軌跡が取得されることになる。   By performing the above-described processing of S3013 to S3015, the locus pointed to by the pointing member such as the user's finger is imaged over time by shifting the time, whereby the locus pointed to by the pointing member is acquired.

次に、計測指示ボタンの種類と指差座標格納部37nに格納される指差座標に応じた計測情報を生成する(S3107)。S3107の処理では、例えば、計測指示ボタンB2に対応する「2点採寸」の場合には、指差座標格納部37nに格納される2点の指差座標と、3次元形状座標格納部37mに格納される3次元形状検出結果とに基づいて、該2点間の距離が計測される。   Next, measurement information corresponding to the type of the measurement instruction button and the finger point coordinates stored in the finger point coordinate storage unit 37n is generated (S3107). In the process of S3107, for example, in the case of “two-point measurement” corresponding to the measurement instruction button B2, the two-point finger coordinate stored in the finger coordinate storage unit 37n and the three-dimensional shape coordinate storage unit 37m The distance between the two points is measured based on the stored three-dimensional shape detection result.

次に、計測情報に基づく計測結果画像を投影画像格納部37kに格納し(S3108)、上述した図23のS2316と同様の無歪投影用画像変換処理を実行し(S3109)、次に、図8のS806の投影処理と同様な投影処理を行う(S3110)。これによって、投影画像格納部37kに格納された計測結果画像を、被写体表面の歪曲や画像投影部13の投影方向に依存することなく無歪の画像として対象物又は投影方向に投影される。そして、このS3110の処理後、当該処理を終了する。   Next, the measurement result image based on the measurement information is stored in the projection image storage unit 37k (S3108), and the distortion-free image conversion processing similar to S2316 in FIG. 23 described above is executed (S3109). The projection process similar to the projection process of S806 of S8 is performed (S3110). As a result, the measurement result image stored in the projection image storage unit 37k is projected on the object or the projection direction as an undistorted image without depending on the distortion of the subject surface or the projection direction of the image projection unit 13. Then, after the process of S3110, the process ends.

尚、上述したS3017の処理において、計測指示ボタンB3に対応する「高さ測定」の場合には、指差座標格納部37nに格納される1点の指差座標と、3次元形状座標格納部37mに格納される3次元形状検出結果とに基づいて、撮像領域100の面と指差された位置(即ち、指差座標格納部37nに格納される1点の指差座標)との高さが計測される。   In the above-described processing of S3017, in the case of “height measurement” corresponding to the measurement instruction button B3, one point finger coordinate stored in the finger coordinate storage unit 37n and the three-dimensional shape coordinate storage unit Based on the three-dimensional shape detection result stored in 37m, the height of the surface of the imaging region 100 and the position pointed to (that is, one point finger coordinate stored in the finger point coordinate storage unit 37n) Is measured.

また、本実施例では、指定点計測モードにおける次範囲計測処理(S3012)として、指差される2点間の距離を計測する「2点採寸」及び撮像領域100の面と指差された点の位置との高さを計測する「高さ測定」のみについて説明したが、使用者の指により指差される指の軌跡により囲まれる領域の面積や体積や重量などを計測情報として得るように構成してもよい。   In this embodiment, as the next range measurement process (S3012) in the designated point measurement mode, “two-point measurement” for measuring the distance between the two points to be pointed and the point pointed to the surface of the imaging region 100 Although only “height measurement” that measures the height of the finger is described, the area, volume, weight, etc. of the area surrounded by the finger trajectory pointed by the user's finger are obtained as measurement information It may be configured.

以上説明したように、この指定点計測処理モードによれば、使用者の指やペン類や指示棒などの指示部材の軌跡により指定される点や線分や領域について、3次元情報に基づく計測情報を得ることができ、その計測情報に基づく各種画像が被写体であるワークやそのワーク近傍に投影されるので、使用者は、所望する計測情報を容易に視認することができる。   As described above, according to the designated point measurement processing mode, the measurement based on the three-dimensional information is performed on points, line segments, and regions designated by the locus of the pointing member such as the user's finger, pen, or pointing rod. Information can be obtained, and various images based on the measurement information are projected on the work that is the subject and the vicinity of the work, so that the user can easily view the desired measurement information.

また、計測情報を所望する点、線分、領域は、使用者の指やペン類や指示棒などの指示部材の軌跡が経時的に撮像されることにより指定されるので、使用者の所望とする計測情報を容易に取得することができる上に、その指定点の入力を容易に行うことができる。   In addition, since the point, line segment, and area for which measurement information is desired are specified by imaging the trajectory of the pointing member such as the user's finger, pen, or pointing rod over time, Measurement information to be obtained can be easily acquired, and the designated point can be easily input.

尚、画像入出力装置1のアーム部材3は、上述したように任意の形状に屈曲可能であり、画像投影部13及び画像撮像部14を有する撮像ヘッド2を任意の位置に向けることができる。よって、上述した体積・重量計測モード及び指定点計測モードにおいて、撮像方向及び投影方向を作業の妨害にならない方向とすることによって、撮像方向及び投影方向がその作業により妨害されることを低減し得、それによって作業の効率化を図ることができる。例えば、使用者の利き腕が右腕である場合に、左前方からとすると、作業が妨害され難くなり都合がよい。   The arm member 3 of the image input / output device 1 can be bent into an arbitrary shape as described above, and the imaging head 2 having the image projection unit 13 and the image imaging unit 14 can be directed to an arbitrary position. Therefore, in the above-described volume / weight measurement mode and specified point measurement mode, the imaging direction and the projection direction can be reduced so that the imaging direction and the projection direction are not disturbed by the work by reducing the direction to the work. As a result, work efficiency can be improved. For example, when the user's dominant arm is the right arm, working from the left front is convenient because the work is hardly disturbed.

図32は、上述した第1実施例の光源レンズ18に関する第2実施例の光源レンズ60を説明するための図であり、(a)は第2実施例の光源レンズ60を示す側面図であり、(b)は第2実施例の光源レンズ60を示す平面図である。尚、上述したのと同一な部材には、同一の符号を付し、その説明は省略する。   FIG. 32 is a view for explaining the light source lens 60 of the second embodiment related to the light source lens 18 of the first embodiment described above, and (a) is a side view showing the light source lens 60 of the second embodiment. (B) is a top view which shows the light source lens 60 of 2nd Example. In addition, the same code | symbol is attached | subjected to the same member as mentioned above, and the description is abbreviate | omitted.

第1実施例における光源レンズ18は、各LED17に対応する凸状の非球面形状からレンズ部18aをベース18b上に一体的に並べて配置して構成されているのに対し、この第2実施例の光源レンズ50は、LED17の各々を内包する砲弾型に形成された樹脂製レンズを各々別体に構成したものである。   The light source lens 18 in the first embodiment is configured by integrally arranging the lens portions 18a on the base 18b from a convex aspherical shape corresponding to each LED 17, whereas in the second embodiment The light source lens 50 is configured by separately forming a resin lens formed in a bullet shape including each of the LEDs 17.

このように、各LED17を内包する光源レンズ50を各々別体に構成することで、各々のLED17とそれに対応する各々の光学レンズ50との位置が1対1で決められるので、相対的な位置精度を高めることができ、光の出射方向が揃うという効果がある。   In this way, by configuring the light source lenses 50 including the respective LEDs 17 separately, the positions of the respective LEDs 17 and the corresponding optical lenses 50 are determined on a one-to-one basis. The accuracy can be improved and the light emission direction is aligned.

これに対し、基板16上にレンズアレイをまとめて位置合わせをすると、各々のLED17がダイボンディングされる際の位置決め誤差やレンズアレイと基板の線膨張係数の違いから、光の出射方向がバラバラになってしまう恐れがある。   On the other hand, when the lens array is collectively aligned on the substrate 16, the light emission direction varies due to the positioning error when each LED 17 is die-bonded and the difference between the linear expansion coefficients of the lens array and the substrate. There is a risk of becoming.

従って、投影LCD19の面には、LED17からの光の入射方向が投影LCD19の面に垂直にそろった光が照射され、投影光学系20の絞りを均一に通過できる様になるため、投影画像の照度ムラを抑えることができ、結果的に高品質な画像を投影することができる。尚、光源レンズ50に内包されているLED17はリードおよびリフレクタからなる電極51を介して基板16に実装されている。   Therefore, the surface of the projection LCD 19 is irradiated with light whose light incident directions from the LEDs 17 are aligned perpendicularly to the surface of the projection LCD 19 so that it can pass through the aperture of the projection optical system 20 uniformly. Irradiance unevenness can be suppressed, and as a result, a high-quality image can be projected. The LED 17 included in the light source lens 50 is mounted on the substrate 16 via an electrode 51 composed of a lead and a reflector.

また、この第2実施例における1群の光源レンズ50の外周面には、各光源レンズ50を束ねて所定の方向に規制する枠状の弾性を有する固定部材52が配置されている。この固定部材52は、ゴム、プラスチック等の樹脂製材料で構成されている。   Further, on the outer peripheral surface of the group of light source lenses 50 in the second embodiment, a fixing member 52 having a frame-like elasticity that binds the light source lenses 50 and restricts them in a predetermined direction is disposed. The fixing member 52 is made of a resin material such as rubber or plastic.

第2実施例の光源レンズ50は各LED17に対して各々別体に構成されているので、各光源レンズ50の凸状の先端部が形成する光軸の角度を正しく揃えて投影LCD19と対向するように設置することが困難である。   Since the light source lens 50 of the second embodiment is configured separately from each LED 17, the angle of the optical axis formed by the convex tip of each light source lens 50 is correctly aligned and faces the projection LCD 19. It is difficult to install.

そこで、この固定部材52によって1群の光源レンズ50を取り囲み、各光源レンズ50の外周面同士を接触させ、各光源レンズ50の光軸が投影LCD19と正しい角度で対向するように各光源レンズ50の位置を規制することで、各光源レンズ50から投影LCD19に向けて光を略垂直に照射させることができる。よって、投影LCD19の面に垂直にそろった光が照射され、投影レンズの絞りを均一に通過できる様になるため、投影画像の照度ムラを抑えることができる。従って、一層、高品質な画像を投影することができる。   Therefore, the group of light source lenses 50 is surrounded by the fixing member 52, the outer peripheral surfaces of the light source lenses 50 are brought into contact with each other, and the light source lenses 50 are arranged so that the optical axis of each light source lens 50 faces the projection LCD 19 at a correct angle. By restricting the position, the light can be irradiated from each light source lens 50 toward the projection LCD 19 substantially vertically. Therefore, the light aligned in the direction perpendicular to the surface of the projection LCD 19 is irradiated so that it can pass through the aperture of the projection lens uniformly, so that unevenness in the illuminance of the projection image can be suppressed. Therefore, a higher quality image can be projected.

尚、この固定部材52は、予め所定の大きさに規定された剛性を有するものであっても良く、弾性力を有する材料で構成してその弾性力によって各光源レンズ50の位置を所定の位置に規制するようにしても良い。   The fixing member 52 may have a rigidity defined in advance to a predetermined size. The fixing member 52 is made of a material having an elastic force, and the position of each light source lens 50 is set to a predetermined position by the elastic force. You may make it regulate to.

図33は、図32で説明した光源レンズ50を所定位置に規制する固定部材52に関する第2実施例を説明するための図であり、(a)は光源レンズ50を固定した状態を示す斜視図であり、(b)はその部分的な断面図である。尚、上述したのと同一の部材には、同一の符号を付し、その説明は省略する。   FIG. 33 is a view for explaining a second embodiment relating to the fixing member 52 for restricting the light source lens 50 described in FIG. 32 to a predetermined position, and (a) is a perspective view showing a state in which the light source lens 50 is fixed. (B) is a partial sectional view thereof. In addition, the same code | symbol is attached | subjected to the same member as mentioned above, and the description is abbreviate | omitted.

この第2実施例の固定部材60は、各光源レンズ50の外周面に沿った断面を有する断面視円錐形状の貫通孔60aが穿設された板状に形成されている。各光源レンズ50は、この各貫通孔60aに差し込まれて固定される。   The fixing member 60 of the second embodiment is formed in a plate shape in which a through-hole 60a having a conical cross section having a cross section along the outer peripheral surface of each light source lens 50 is formed. Each light source lens 50 is inserted and fixed in each through hole 60a.

また、この固定部材60と基板16との間には弾性を有する付勢プレート61が介装されており、更に、この付勢プレート61と各光源レンズ50の下面との間には、電極51を囲むように弾性を有する環状のOリング62が配置されている。   Further, an urging plate 61 having elasticity is interposed between the fixing member 60 and the substrate 16, and an electrode 51 is provided between the urging plate 61 and the lower surface of each light source lens 50. An annular O-ring 62 having elasticity is arranged so as to surround the outer periphery.

尚、光源レンズ50に内包されるLED17は、付勢プレート61、基板16に穿設されたスルーホールを貫通する電極51を介して基板16に実装されている。   The LED 17 included in the light source lens 50 is mounted on the substrate 16 via an urging plate 61 and an electrode 51 that penetrates a through hole formed in the substrate 16.

上述した固定部材60によれば、各光源レンズ50を、その光源レンズの外周面に沿った断面を有する各貫通孔60aに各々貫通させて固定するので、上述した固定部材50よりも、一層確実に光源レンズ50の光軸を正しい角度で投影LCD19に向くように固定することができる。   According to the fixing member 60 described above, each light source lens 50 is fixed by being passed through each through hole 60a having a cross section along the outer peripheral surface of the light source lens. The optical axis of the light source lens 50 can be fixed so as to face the projection LCD 19 at a correct angle.

また、組立時に、Oリング62の付勢力によってLED17を正しい位置に付勢して固定することができる。   Further, at the time of assembly, the LED 17 can be urged and fixed to the correct position by the urging force of the O-ring 62.

また、本装置1を運搬する場合等に生ずる可能性のある衝撃力を、Oリング62の弾性力によって吸収することができ、その衝撃の影響で光源レンズ50の位置がずれてしまい、光源レンズ50から垂直に投影LCD19に向けて光を照射できないという不都合を防止することができる。   Further, an impact force that may occur when the apparatus 1 is transported can be absorbed by the elastic force of the O-ring 62, and the position of the light source lens 50 is shifted due to the impact, and the light source lens. The inconvenience that light cannot be irradiated from 50 to the projection LCD 19 vertically can be prevented.

なお、請求項1記載の三次元情報生成手段としては、図30の計測情報生成処理におけるS3009の処理が該当し、計測手段としては、図31の指差指示情報生成処理におけるS3107の処理が該当する。   Note that the three-dimensional information generation unit according to claim 1 corresponds to the process of S3009 in the measurement information generation process of FIG. 30, and the measurement unit corresponds to the process of S3107 in the pointing instruction information generation process of FIG. To do.

また、請求項2記載の指定点入力手段は、図31の指差指示情報生成処理におけるS3103〜S3105の処理が該当する。   The designated point input means according to claim 2 corresponds to the processing of S3103 to S3105 in the pointing instruction information generation processing of FIG.

また、請求項5記載の密度情報取得手段としては、図23の体積・重量計測処理におけるS2302の処理が該当する。   Further, the density information acquisition means according to claim 5 corresponds to the processing of S2302 in the volume / weight measurement processing of FIG.

また、請求項6記載の三次元情報生成手段としては、図23の体積・重量計測処理におけるS2312の処理が該当し、指示情報生成手段としては、図23の体積・重量計測処理におけるS2314の処理が該当する。   Further, the three-dimensional information generation means according to claim 6 corresponds to the processing of S2312 in the volume / weight measurement processing of FIG. 23, and the instruction information generation means includes the processing of S2314 in the volume / weight measurement processing of FIG. Is applicable.

また、請求項7記載の空間変調制御手段としては、図24の無歪投影用画像変換処理が該当する。   Further, the spatial modulation control means described in claim 7 corresponds to the distortion-free image conversion processing of FIG.

また、請求項13記載の切断手段としては、「計測結果画像に基づいて被写体であるワークを切断するカッタなどの切断手段」が該当する。   Further, the cutting means according to claim 13 corresponds to “a cutting means such as a cutter for cutting a work as a subject based on a measurement result image”.

以上実施例に基づき本発明を説明したが、本発明は上記実施例に何ら限定されるものでなく、本発明の主旨を逸脱しない範囲内で種々の改良変形が可能であることは容易に推察できるものである。   Although the present invention has been described based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications can be easily made without departing from the gist of the present invention. It can be done.

例えば、上記実施例では、平面化画像モードとして、平面化された画像を取得、表示する処理を説明したが、周知のOCR機能を搭載させ、平面化された平面画像をこのOCR機能によって読み取らせるように構成しても良い。かかる場合には、OCR機能によって湾曲した状態の原稿を読み取る場合に比べて高精度に原稿に記載された文章を読み取ることができる。   For example, in the above-described embodiment, the process of acquiring and displaying a planarized image has been described as the planarized image mode. However, a known OCR function is installed, and the planarized planar image is read by this OCR function. You may comprise as follows. In such a case, it is possible to read the text written on the document with higher accuracy than when reading a curved document by the OCR function.

また、上記実施例における図15のS1501においては、明暗の変化を持つ輝度画像の全部を抽出し、その全部について暫定的なCCDY値を求める場合について説明したが、抽出する輝度画像としては、全部である必要はなく、1枚以上であれば、その枚数に限定されることはない。抽出する枚数を減らすことで境界座標を高速に求めることができる。   Further, in S1501 of FIG. 15 in the above-described embodiment, a case has been described in which all luminance images having light and dark changes are extracted and provisional CCDY values are obtained for all of them. It is not necessary that the number of sheets is limited to one or more. The boundary coordinates can be obtained at high speed by reducing the number of extractions.

また、上記実施例における図15のS1507では、fCCDY[i]を加重平均し、図16のS1607ではefCCDY[j]を近似多項式として、各値を平均化する場合について説明したが、各値を平均化する方法としては、これらに限定されるものではなく、例えば、各値の単純平均値を採る方法、各値の中央値を採用する方法、各値の近似式を算出し、その近似式における検出位置を境界座標とする方法、統計的な演算により求める方法等であっても良い。   Further, in S1507 of FIG. 15 in the above embodiment, fCCDY [i] is weighted and averaged, and in S1607 of FIG. 16 efCCDY [j] is an approximate polynomial, each value is averaged. The averaging method is not limited to these. For example, a method of taking a simple average value of each value, a method of employing a median value of each value, calculating an approximate expression of each value, and calculating the approximate expression For example, a method of using the detection position in the boundary coordinates as a boundary coordinate, a method of obtaining by statistical calculation, or the like may be used.

また、例えば、上記実施例における平面化画像モードにおける3次元形状検出処理においては、原稿Pの3次元形状を検出するために、複数種類の明暗を交互に並べてなる縞状のパターン光を投影する場合について説明したが、3次元形状を検出するための光は、かかるパターン光に限定されるものではない。   Further, for example, in the three-dimensional shape detection process in the planar image mode in the above embodiment, in order to detect the three-dimensional shape of the document P, a striped pattern light in which a plurality of types of light and dark are alternately arranged is projected. Although the case has been described, the light for detecting the three-dimensional shape is not limited to such pattern light.

例えば、図34に示すように、湾曲原稿の3次元形状の検出を簡便に行う場合には、画像投影部13から2本の帯状のスリット光70,71を投影するようにしても良い。この場合には、8枚のパターン光を投影する場合にくらべ、僅か2枚の撮像画像から高速に3次元形状の検出をすることができる。   For example, as shown in FIG. 34, when the three-dimensional shape of a curved document is simply detected, two strip-shaped slit lights 70 and 71 may be projected from the image projection unit 13. In this case, a three-dimensional shape can be detected at high speed from only two captured images, as compared with the case of projecting eight pattern lights.

また、上記実施例における体積・重量計測処理(図23)において、S2314の処理により得られた計測情報を外部メモリ27に記憶するように構成してもよい。また、S2317の投影処理後、被写体であるワーク上に投影された画像を撮像するように構成してもよい。   Further, in the volume / weight measurement process (FIG. 23) in the above embodiment, the measurement information obtained by the process of S2314 may be stored in the external memory 27. In addition, after the projection processing in S2317, an image projected on a work that is a subject may be captured.

また、上記実施例における指差指示範囲計測処理(図31)におけるS3107の処理により得られた計測情報を外部メモリ27に記憶するように構成してもよい。これによって、計測情報を得られた計測情報を外部メモリ27から外部インターフェイスに無線通信によって送信し、外部機器において利用することが可能となる。   Further, the measurement information obtained by the process of S3107 in the finger pointing range measurement process (FIG. 31) in the above embodiment may be stored in the external memory 27. Thus, the measurement information obtained from the measurement information can be transmitted from the external memory 27 to the external interface by wireless communication and used in the external device.

画像入出力装置の外観斜視図である。1 is an external perspective view of an image input / output device. 撮像ヘッドの内部構成を示す図である。It is a figure which shows the internal structure of an imaging head. (a)は画像投影部の拡大図であり、(b)は光源レンズの平面図であり、(c)は投影LCD19の正面図である。(A) is an enlarged view of an image projection part, (b) is a top view of a light source lens, (c) is a front view of projection LCD19. LEDアレイの配列に関する説明をするための図である。It is a figure for demonstrating regarding the arrangement | sequence of a LED array. 画像入出力装置の電気的なブロック図である。It is an electrical block diagram of an image input / output device. メイン処理のフローチャートである。It is a flowchart of a main process. デジカメ処理のフローチャートである。It is a flowchart of a digital camera process. webcam処理のフローチャートである。It is a flowchart of a webcam process. 投影処理のフローチャートである。It is a flowchart of a projection process. 立体画像処理のフローチャートである。It is a flowchart of a three-dimensional image process. (a)は、空間コード法の原理を説明するための図であり、(b)は(a)とは異なるマスクパターン(グレイコード)を示す図である。(A) is a figure for demonstrating the principle of the space code method, (b) is a figure which shows the mask pattern (gray code) different from (a). (a)は3次元形状検出処理のフローチャートである。(b)は撮像処理のフローチャートである。(c)は3次元計測処理のフローチャートである。(A) is a flowchart of a three-dimensional shape detection process. (B) is a flowchart of an imaging process. (C) is a flowchart of a three-dimensional measurement process. コード境界座標検出処理の概略を説明するための図である。It is a figure for demonstrating the outline of a code boundary coordinate detection process. コード境界座標検出処理のフローチャートである。It is a flowchart of a code boundary coordinate detection process. コード境界座標をサブピクセル精度で求める処理のフローチャートである。It is a flowchart of the process which calculates | requires a code boundary coordinate with subpixel precision. PatID[i]のマスクパターン番号を持つ輝度画像について、境界のCCDY値を求める処理のフローチャートである。It is a flowchart of the process which calculates | requires the boundary CCDY value about the brightness | luminance image with the mask pattern number of PatID [i]. レンズ収差補正処理を説明するための図である。It is a figure for demonstrating a lens aberration correction process. CCD空間における座標から3次元空間における3次元座標を算出する方法を説明するための図である。It is a figure for demonstrating the method of calculating the three-dimensional coordinate in a three-dimensional space from the coordinate in CCD space. 平面化画像処理のフローチャートである。It is a flowchart of planarization image processing. 原稿姿勢演算処理を説明するための図である。FIG. 6 is a diagram for explaining document orientation calculation processing. 平面変換処理のフローチャートである。It is a flowchart of a plane conversion process. (a)は、湾曲計算処理についての大略を説明するための図であり、(b)は平面変換処理によって平面化された平面化画像を示す図である。(A) is a figure for demonstrating the outline about a curvature calculation process, (b) is a figure which shows the planarization image planarized by the plane conversion process. 体積・重量計測処理のフローチャートである。It is a flowchart of a volume and weight measurement process. 無歪投影用画像変換処理のフローチャートである。It is a flowchart of the image conversion process for distortion-free projection. 体積・重量計測処理モードにおける第1の例を説明するための図である。It is a figure for demonstrating the 1st example in the volume and weight measurement process mode. 体積・重量計測処理の結果として計測結果画像が投影された状態を説明する図である。It is a figure explaining the state by which the measurement result image was projected as a result of a volume and weight measurement process. 体積・重量計測モードにおける第2の例を説明する図である。It is a figure explaining the 2nd example in volume and weight measurement mode. 指定点計測モードを説明する図である。It is a figure explaining designated point measurement mode. 指定点計測処理のフローチャートである。It is a flowchart of a designated point measurement process. 計測情報生成処理のフローチャートである。It is a flowchart of a measurement information generation process. 指差指示範囲計測処理のフローチャートである。It is a flowchart of a finger pointing instruction range measurement process. (a)は第2実施例の光源レンズ60を示す側面図であり、(b)は第2実施例の光源レンズ60を示す平面図である。(A) is a side view which shows the light source lens 60 of 2nd Example, (b) is a top view which shows the light source lens 60 of 2nd Example. (a)は、光源レンズ50を固定した状態を示す斜視図であり、(b)はその部分的な断面図である。(A) is a perspective view which shows the state which fixed the light source lens 50, (b) is the fragmentary sectional drawing. 被写体に投影するパターン光としての他の例を示す図である。It is a figure which shows the other example as pattern light projected on a to-be-photographed object.

符号の説明Explanation of symbols

3 アーム部材(可動手段)
13 画像投影部(投影部)
14 画像撮像部(撮像部)
17 LED(光源手段)
19 投影LCD(空間変調手段)
20 投影光学系(投影手段)
21 撮像光学系(撮像手段の一部)
22 CCD(撮像手段の一部)
3 Arm member (movable means)
13 Image projection unit (projection unit)
14 Image capturing unit (imaging unit)
17 LED (light source means)
19 Projection LCD (spatial modulation means)
20 Projection optical system (projection means)
21. Imaging optical system (part of imaging means)
22 CCD (part of imaging means)

Claims (16)

光を出射する光源手段と、
その光源手段から出射される光に空間変調を施して画像信号光を出力する空間変調手段と、
その空間変調手段により出力される画像信号光を投影方向に向けて投影する投影手段と、
前記投影方向に少なくとも一部が存在する被写体を撮像し、その撮像データを取得する撮像手段と、
所定のパターン形状を有した画像信号光が前記投影手段により前記被写体上又は前記投影方向上の画像投影可能な面に投影された場合に、前記撮像手段により撮像された撮像データに基づいて、前記被写体又は前記投影方向上の画像投影可能な面の三次元情報を生成する三次元情報生成手段と、
その三次元情報生成手段により生成された三次元情報と、前記被写体に対する指定状況を前記撮像手段により撮像した撮像データから生成される指定情報とに基づいて、前記被写体に対する計測を行う計測手段とを備え、
その計測手段による計測により得られた計測情報に応じた画像信号光を、前記空間変調手段により出力し、その出力された画像信号光を前記投影手段により前記被写体又は又は前記投影方向上の画像投影可能な面に投影することを特徴とする画像入出力装置。
Light source means for emitting light;
Spatial modulation means for spatially modulating light emitted from the light source means to output image signal light; and
Projection means for projecting the image signal light output by the spatial modulation means in the projection direction;
Imaging means for imaging a subject having at least a part in the projection direction and acquiring the imaging data;
When image signal light having a predetermined pattern shape is projected on the subject or on a surface capable of projecting an image in the projection direction by the projection unit, based on imaging data captured by the imaging unit, 3D information generating means for generating 3D information of a subject or a surface capable of projecting an image in the projection direction;
Measuring means for measuring the subject based on the three-dimensional information generated by the three-dimensional information generating means and the designation information generated from the imaging data obtained by imaging the designation status for the subject by the imaging means; Prepared,
Image signal light corresponding to measurement information obtained by measurement by the measurement means is output by the spatial modulation means, and the output image signal light is projected onto the subject or the projection direction by the projection means. An image input / output device that projects onto a possible surface.
前記被写体上における指定点を入力する指定点入力手段を備え、
前記計測手段は、前記指定点入力手段により入力された少なくとも1つ以上の指定点により形成される点、線分又は領域について、前記被写体に対する計測を行うものであることを特徴とする請求項1記載の画像入出力装置。
Comprising designated point input means for inputting a designated point on the subject;
2. The measurement unit according to claim 1, wherein the object is measured with respect to a point, a line segment, or a region formed by at least one or more specified points input by the specified point input unit. The image input / output device described.
前記指定点入力手段は、前記被写体上における指定点を指し示す指示部材を、前記撮像手段により時間をずらして撮像し、その撮像データに基づいて該指定点を入力するものであることを特徴とする請求項2記載の画像入出力装置。   The designated point input unit is configured to capture an indication member indicating a designated point on the subject by shifting the time by the imaging unit, and to input the designated point based on the imaging data. The image input / output device according to claim 2. 前記計測手段は、前記三次元情報生成手段により生成された三次元情報に基づいて、前記被写体の体積情報を計測するものであり、
前記投影手段により前記被写体又は前記投影方向上の画像投影可能な面に投影される画像信号光が、前記体積情報に応じた指示情報であることを特徴とする請求項1から3のいずれかに記載の画像入出力装置。
The measuring means measures volume information of the subject based on the three-dimensional information generated by the three-dimensional information generating means;
4. The image signal light projected onto the subject or a surface on which the image can be projected in the projection direction by the projection unit is instruction information according to the volume information. The image input / output device described.
前記被写体の密度情報を取得する密度情報取得手段を備え、
前記計測手段は、前記三次元情報生成手段により生成された三次元情報と前記密度情報取得手段により取得された密度情報とに基づいて、前記被写体の重量分布情報を計測するものであり、
前記投影手段により前記被写体又は前記投影方向上の画像投影可能な面に投影される画像信号光が、前記重量分布情報に応じた指示情報であることを特徴とする請求項1から4のいずれかに記載の画像入出力装置。
Density information acquisition means for acquiring density information of the subject;
The measuring means measures the weight distribution information of the subject based on the three-dimensional information generated by the three-dimensional information generating means and the density information acquired by the density information acquiring means,
5. The image signal light projected onto the subject or the image-projectable surface in the projection direction by the projection unit is instruction information according to the weight distribution information. The image input / output device described in 1.
光を出射する光源手段と、
その光源手段から出射される光に空間変調を施して画像信号光を出力する空間変調手段と、
その空間変調手段により出力される画像信号光を投影方向に向けて投影する投影手段と、
前記投影方向に少なくとも一部が存在する被写体を撮像し、その撮像データを取得する撮像手段と、
所定のパターン形状を有した画像信号光が前記投影手段により前記被写体又は前記投影方向上の画像投影可能な面に投影された場合に、前記撮像手段により撮像された撮像データに基づいて、前記被写体又は前記投影方向上の画像投影可能な面の三次元情報を生成する三次元情報生成手段と、
その三次元情報生成手段により生成された三次元情報に基づいて、前記被写体に対する指示情報を生成する指示情報生成手段とを備え、
その指示情報生成手段により生成された指示情報に基づく画像信号光を、前記空間変調手段により出力し、その出力された画像信号光を前記投影手段により前記被写体又は前記投影方向上の画像投影可能な面に投影することを特徴とする画像入出力装置。
Light source means for emitting light;
Spatial modulation means for spatially modulating light emitted from the light source means to output image signal light; and
Projection means for projecting the image signal light output by the spatial modulation means in the projection direction;
Imaging means for imaging a subject having at least a part in the projection direction and acquiring the imaging data;
When image signal light having a predetermined pattern shape is projected onto the subject or a surface capable of projecting an image in the projection direction by the projection unit, the subject based on the image data captured by the imaging unit Or three-dimensional information generating means for generating three-dimensional information of a surface capable of projecting an image in the projection direction;
Instruction information generating means for generating instruction information for the subject based on the three-dimensional information generated by the three-dimensional information generating means,
Image signal light based on the instruction information generated by the instruction information generation means is output by the spatial modulation means, and the output image signal light can be projected on the subject or the projection direction by the projection means. An image input / output device that projects onto a surface.
前記投影手段により、前記被写体又は前記投影方向上の画像投影可能な面に対して無歪な画像信号光が投影されるように、前記空間変調手段を、前記三次元情報生成手段により生成された三次元情報に基づいて制御する空間光変調制御手段を備えていることを特徴とする請求項1から6のいずれかに記載の画像入出力装置。   The spatial modulation means is generated by the three-dimensional information generation means so that an undistorted image signal light is projected by the projection means on the subject or a surface capable of projecting an image in the projection direction. 7. The image input / output device according to claim 1, further comprising a spatial light modulation control unit that controls the three-dimensional information. 前記投影手段により前記被写体又は前記投影方向上の画像投影可能な面に投影される画像信号光が、前記計測情報又は前記指示情報に関する文字情報であることを特徴とする請求項1から7のいずれかに記載の画像入出力装置。   8. The image signal light projected onto the subject or the image projectable surface in the projection direction by the projection unit is character information related to the measurement information or the instruction information. An image input / output device according to claim 1. 前記投影手段により前記被写体又は前記投影方向上の画像投影可能な面に投影される画像信号光が、前記計測情報又は前記指示情報に基づく図形情報であることを特徴とする請求項1から8のいずれかに記載の画像入出力装置。   9. The image signal light projected onto the subject or a surface capable of projecting an image in the projection direction by the projection unit is graphic information based on the measurement information or the instruction information. The image input / output device according to any one of the above. 前記投影手段により前記被写体又は前記投影方向上の画像投影可能な面に投影される画像信号光が、前記計測情報又は前記指示情報に基づく作業指示線であることを特徴とする請求項1から9のいずれかに記載の画像入出力装置。   10. The image signal light projected onto the subject or the image projectable surface in the projection direction by the projection means is a work instruction line based on the measurement information or the instruction information. The image input / output device according to any one of the above. 前記投影手段により前記被写体又は前記投影方向上の画像投影可能な面に投影される画像信号光が、前記計測手段により計測された前記被写体の前記体積情報又は重量分布情報に従って、前記被写体を略等体積又は略等重量に区分する作業指示情報、又は、前記指示情報生成手段により指示情報として生成される、前記被写体を略等体積又は略等重量に区分する作業指示情報であることを特徴とする請求項1から10のいずれかに記載の画像入出力装置。   The image signal light projected onto the subject or a surface on which the image can be projected in the projection direction by the projection means is approximately equal to the subject according to the volume information or weight distribution information of the subject measured by the measurement means. Work instruction information for classifying into a volume or a substantially equal weight, or work instruction information for classifying the subject into a substantially equal volume or a substantially equal weight, which is generated as instruction information by the instruction information generating means. The image input / output device according to claim 1. 前記作業指示情報は切断指示線であることを特徴とする請求項11記載の画像入出力装置。   12. The image input / output apparatus according to claim 11, wherein the work instruction information is a cutting instruction line. 前記切断指示線に従って、前記被写体を切断する切断手段を備えていることを特徴とする請求項12記載の画像入出力装置。   13. The image input / output device according to claim 12, further comprising cutting means for cutting the subject in accordance with the cutting instruction line. 前記光源手段と前記空間変調手段と前記投影手段とを有する投影部と、前記撮像手段を有し、前記投影部と一体に設けられている撮像部と、前記被写体との互いの相対位置を移動可能とする可動手段を備えていることを特徴とする請求項1から13のいずれかに記載の画像入出力装置。   The projection unit having the light source unit, the spatial modulation unit, and the projection unit, the imaging unit having the imaging unit, and the relative position of the subject are moved relative to each other. The image input / output device according to claim 1, further comprising movable means that enables the image input / output device. 前記投影手段は、前記所定のパターン形状を有した画像信号を消灯した後に、前記計測情報又は前記指示情報に基づく画像信号光を投影することを特徴とする請求項1から14のいずれかに記載の画像入出力装置。   The projection unit projects an image signal light based on the measurement information or the instruction information after the image signal having the predetermined pattern shape is turned off. Image input / output device. 前記撮像手段は、前記計測情報又は前記指示情報に基づく画像信号光が前記投影手段により投影された前記被写体又は前記投影方向上の画像投影可能な面を撮像し、その撮像データを取得するものであることを特徴とする請求項1から15のいずれかに記載の画像入出力装置。   The imaging means captures the subject on which the image signal light based on the measurement information or the instruction information is projected by the projection means or a surface on which the image can be projected in the projection direction, and acquires the imaging data. The image input / output device according to claim 1, wherein the image input / output device is provided.
JP2004108149A 2004-03-31 2004-03-31 Image input / output device Expired - Fee Related JP4552485B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004108149A JP4552485B2 (en) 2004-03-31 2004-03-31 Image input / output device
PCT/JP2005/006089 WO2005096126A1 (en) 2004-03-31 2005-03-30 Image i/o device
US11/536,600 US7809193B2 (en) 2004-03-31 2006-09-28 Image input-and-output apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004108149A JP4552485B2 (en) 2004-03-31 2004-03-31 Image input / output device

Publications (2)

Publication Number Publication Date
JP2005293291A true JP2005293291A (en) 2005-10-20
JP4552485B2 JP4552485B2 (en) 2010-09-29

Family

ID=35326143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004108149A Expired - Fee Related JP4552485B2 (en) 2004-03-31 2004-03-31 Image input / output device

Country Status (1)

Country Link
JP (1) JP4552485B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011526706A (en) * 2008-04-21 2011-10-13 カール・ツアイス・インダストリーエレ・メステクニク・ゲーエムベーハー Display multiple results of a single measurement of a workpiece, depending on the detection result of the user's gesture
JP2012519277A (en) * 2009-02-27 2012-08-23 ボディー サーフェイス トランスレーションズ, インコーポレイテッド Physical parameter estimation using 3D display
JP2013539541A (en) * 2010-09-08 2013-10-24 ファロ テクノロジーズ インコーポレーテッド Laser scanner or laser tracking device having a projector
JP2014199257A (en) * 2010-01-20 2014-10-23 ファロ テクノロジーズ インコーポレーテッド Articulated arm coordinate measuring machine
JP2015052615A (en) * 2010-01-20 2015-03-19 ファロ テクノロジーズ インコーポレーテッド Multifunction coordinate measuring machine
JP2015523574A (en) * 2012-07-15 2015-08-13 エイト ツリー リミテッド ライアビリティー カンパニー8 tree LLC Portable 3D measurement with data displayed on the surface being measured
JP2016213663A (en) * 2015-05-08 2016-12-15 セイコーエプソン株式会社 Display device, control method for the same, and program
US9607239B2 (en) 2010-01-20 2017-03-28 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US9628775B2 (en) 2010-01-20 2017-04-18 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
CN106705837A (en) * 2015-11-17 2017-05-24 华为技术有限公司 Gesture-based object measurement method and device
US10281259B2 (en) 2010-01-20 2019-05-07 Faro Technologies, Inc. Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features
JP2020197435A (en) * 2019-05-31 2020-12-10 株式会社 ゼンショーホールディングス Cutting auxiliary device
JP2023001270A (en) * 2019-05-31 2023-01-04 株式会社 ゼンショーホールディングス Cutting auxiliary device
US12066284B2 (en) 2020-12-10 2024-08-20 Subaru Corporation Image projection measuring apparatus

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56130608A (en) * 1980-03-19 1981-10-13 Ricoh Co Ltd Range finding system
JPS6191521A (en) * 1984-10-12 1986-05-09 Ishida Scales Mfg Co Ltd Decision of weight
JPS62284479A (en) * 1986-06-02 1987-12-10 Hitachi Ltd Device for recognizing stereoscopic shape of object
JPH09319556A (en) * 1996-05-28 1997-12-12 Matsushita Electric Ind Co Ltd Information processor
JP2001004338A (en) * 1999-06-25 2001-01-12 Wakayama Univ Real time shape deformation measuring method
JP2001066158A (en) * 1999-08-30 2001-03-16 Wakayama Univ Measurement result or analysis result projecting device and method
JP2003148935A (en) * 2001-11-13 2003-05-21 Ricoh Co Ltd Shape measuring apparatus, document scanner and projector
JP2003281297A (en) * 2002-03-22 2003-10-03 National Institute Of Advanced Industrial & Technology Information presenting device and information presenting method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56130608A (en) * 1980-03-19 1981-10-13 Ricoh Co Ltd Range finding system
JPS6191521A (en) * 1984-10-12 1986-05-09 Ishida Scales Mfg Co Ltd Decision of weight
JPS62284479A (en) * 1986-06-02 1987-12-10 Hitachi Ltd Device for recognizing stereoscopic shape of object
JPH09319556A (en) * 1996-05-28 1997-12-12 Matsushita Electric Ind Co Ltd Information processor
JP2001004338A (en) * 1999-06-25 2001-01-12 Wakayama Univ Real time shape deformation measuring method
JP2001066158A (en) * 1999-08-30 2001-03-16 Wakayama Univ Measurement result or analysis result projecting device and method
JP2003148935A (en) * 2001-11-13 2003-05-21 Ricoh Co Ltd Shape measuring apparatus, document scanner and projector
JP2003281297A (en) * 2002-03-22 2003-10-03 National Institute Of Advanced Industrial & Technology Information presenting device and information presenting method

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011526706A (en) * 2008-04-21 2011-10-13 カール・ツアイス・インダストリーエレ・メステクニク・ゲーエムベーハー Display multiple results of a single measurement of a workpiece, depending on the detection result of the user's gesture
JP2012519277A (en) * 2009-02-27 2012-08-23 ボディー サーフェイス トランスレーションズ, インコーポレイテッド Physical parameter estimation using 3D display
US10060722B2 (en) 2010-01-20 2018-08-28 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
JP2014199257A (en) * 2010-01-20 2014-10-23 ファロ テクノロジーズ インコーポレーテッド Articulated arm coordinate measuring machine
JP2015052615A (en) * 2010-01-20 2015-03-19 ファロ テクノロジーズ インコーポレーテッド Multifunction coordinate measuring machine
US9607239B2 (en) 2010-01-20 2017-03-28 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US9628775B2 (en) 2010-01-20 2017-04-18 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US10281259B2 (en) 2010-01-20 2019-05-07 Faro Technologies, Inc. Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features
JP2013539541A (en) * 2010-09-08 2013-10-24 ファロ テクノロジーズ インコーポレーテッド Laser scanner or laser tracking device having a projector
JP2015523574A (en) * 2012-07-15 2015-08-13 エイト ツリー リミテッド ライアビリティー カンパニー8 tree LLC Portable 3D measurement with data displayed on the surface being measured
JP2016213663A (en) * 2015-05-08 2016-12-15 セイコーエプソン株式会社 Display device, control method for the same, and program
EP3176678A3 (en) * 2015-11-17 2017-08-16 Huawei Technologies Co., Ltd. Gesture-based object measurement method and apparatus
US10262197B2 (en) 2015-11-17 2019-04-16 Huawei Technologies Co., Ltd. Gesture-based object measurement method and apparatus
CN106705837A (en) * 2015-11-17 2017-05-24 华为技术有限公司 Gesture-based object measurement method and device
JP2020197435A (en) * 2019-05-31 2020-12-10 株式会社 ゼンショーホールディングス Cutting auxiliary device
JP2023001270A (en) * 2019-05-31 2023-01-04 株式会社 ゼンショーホールディングス Cutting auxiliary device
JP7236938B2 (en) 2019-05-31 2023-03-10 株式会社 ゼンショーホールディングス Cutting aid
JP7237230B2 (en) 2019-05-31 2023-03-10 株式会社 ゼンショーホールディングス Cutting aid
US12066284B2 (en) 2020-12-10 2024-08-20 Subaru Corporation Image projection measuring apparatus
JP7563963B2 (en) 2020-12-10 2024-10-08 株式会社Subaru Image projection type measuring device

Also Published As

Publication number Publication date
JP4552485B2 (en) 2010-09-29

Similar Documents

Publication Publication Date Title
JP2005293075A (en) 3-dimensional shape detection device, 3-dimensional shape detection method, 3-dimensional shape detection program
JP2005293075A5 (en)
US7845807B2 (en) Projection apparatus and three-dimensional-shape detection apparatus
US12025430B2 (en) Intraoral scanner
JP4552485B2 (en) Image input / output device
JP2006098252A (en) Three-dimensional information acquisition method
JP6550536B2 (en) Multi-line array laser light three-dimensional scanning system and multi-line array laser light three-dimensional scanning method
CN106127745B (en) The combined calibrating method and device of structure light 3 D vision system and line-scan digital camera
US7809193B2 (en) Image input-and-output apparatus
JP2007271395A (en) Three-dimensional color/shape measuring apparatus
US20080123109A1 (en) Projector and three-dimensional input apparatus using the same
JP6460938B2 (en) Measurement object measurement program, measurement object measurement method, and magnification observation apparatus
CN108718406B (en) Variable-focus 3D depth camera and imaging method thereof
JP2007271530A (en) Apparatus and method for detecting three-dimensional shape
JP2005291839A5 (en)
JP2007256116A (en) Three-dimensional shape detector
US11326874B2 (en) Structured light projection optical system for obtaining 3D data of object surface
JP2005352835A (en) Image i/o device
JP4552484B2 (en) Image input / output device
JP2005293290A5 (en)
JP2006031506A (en) Image input-output apparatus
KR101760284B1 (en) 3-dimensional shape measurement system using non-flat coaxial pattern mask
JP2005354306A (en) Image input output apparatus
JP2006267031A (en) Three-dimensional input apparatus and method
JP2006004010A (en) Image input/output device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070117

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20091105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100622

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100705

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees