Nothing Special   »   [go: up one dir, main page]

JP2018174506A - Reading device, image display device, processing method, and program - Google Patents

Reading device, image display device, processing method, and program Download PDF

Info

Publication number
JP2018174506A
JP2018174506A JP2017072985A JP2017072985A JP2018174506A JP 2018174506 A JP2018174506 A JP 2018174506A JP 2017072985 A JP2017072985 A JP 2017072985A JP 2017072985 A JP2017072985 A JP 2017072985A JP 2018174506 A JP2018174506 A JP 2018174506A
Authority
JP
Japan
Prior art keywords
unit
image
imaging
photographing
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017072985A
Other languages
Japanese (ja)
Other versions
JP6551451B2 (en
Inventor
哲 ▲瀬▼川
哲 ▲瀬▼川
Satoru Segawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2017072985A priority Critical patent/JP6551451B2/en
Publication of JP2018174506A publication Critical patent/JP2018174506A/en
Application granted granted Critical
Publication of JP6551451B2 publication Critical patent/JP6551451B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Image Input (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to improve conditions for photographing an object to be photographed.SOLUTION: The reading device includes: a projection unit for projecting an image onto a placement place where an object to be photographed is placed; a photographing unit for photographing the placement place to generate an image; and an area detection unit that detects a photographing target area in a photographing range of the photographing unit. The projection unit irradiates the photographing target area with illumination light for photographing.SELECTED DRAWING: Figure 1

Description

本発明は、読取装置、画像表示装置、処理方法及びプログラムに関する。   The present invention relates to a reading device, an image display device, a processing method, and a program.

画像の投影に関連して幾つかの技術が提案されている。
例えば、特許文献1には、投影画像を移動させる投影装置が記載されている。この投影装置は、画像投影中に投影方向を変更し、投影方向が変更されるにつれて、投影方向と被投影体との位置関係に基づいて、投影する画像の補正を行う。
Several techniques have been proposed in connection with image projection.
For example, Patent Document 1 describes a projection device that moves a projection image. This projection apparatus changes the projection direction during image projection, and corrects the image to be projected based on the positional relationship between the projection direction and the projection target as the projection direction is changed.

また、特許文献2には、スキャナ装置の撮像領域内に向けて情報を表示する画像処理装置が記載されている。この画像処理装置は、載置された読取対象の媒体を撮像領域内で撮像し、媒体を利用した作業を支援する作業支援情報を、撮像領域上の媒体の位置情報に基づいて撮像領域に向けて表示する。   Further, Patent Document 2 describes an image processing apparatus that displays information toward an imaging area of a scanner device. The image processing apparatus images a placed medium to be read in an imaging area, and directs work support information that supports work using the medium to the imaging area based on the position information of the medium on the imaging area. To display.

特開2015−119419号公報JP2015-119419A 特開2013−254437号公報JP 2013-254437 A

画像を投影する装置(プロジェクタ)が投影する画像の歪を低減させる観点から、平面に画像を投影することが好ましい。このような平面の候補としてスタンド型スキャナの載置台など、撮影対象物(スキャン対象物)の載置場所が考えられる。
画像を投影する装置が撮影対象物の載置場所に画像を投影する場合、単に画像を表示するだけでなく、撮影の条件を向上させることができればより好ましい。
From the viewpoint of reducing distortion of an image projected by an image projection apparatus (projector), it is preferable to project the image on a plane. As a candidate for such a plane, a place where an object to be imaged (scan object) is placed such as a stand for a stand type scanner can be considered.
When the image projecting device projects an image on the place where the object to be photographed is placed, it is more preferable if the photographing conditions can be improved in addition to simply displaying the image.

本発明は、上述の課題を解決することのできる読取装置、画像表示装置、処理方法及びプログラムを提供することを目的としている。   It is an object of the present invention to provide a reading device, an image display device, a processing method, and a program that can solve the above-described problems.

本発明の第1の態様によれば、読取装置は、撮影対象物を載置する場所である載置場所に画像を投影する投影部と、前記載置場所を撮影して画像を生成する撮影部と、前記載置場所に撮影対象物が載置された場合に、前記撮影部の撮影範囲における撮影対象領域を検出する領域検出部と、を備え、前記投影部は、前記撮影対象領域に撮影用の照明光を照射する。   According to the first aspect of the present invention, the reader is configured to project an image onto a placement place that is a place to place a subject to be photographed, and to photograph an image of the placement place described above to generate an image. And a region detecting unit that detects a photographing target region in a photographing range of the photographing unit when a photographing target is placed at the placement location, and the projecting unit is provided in the photographing target region. Irradiate illumination light for shooting.

本発明の第2の態様によれば、画像表示装置は、撮影対象物を載置する場所である載置場所に画像を投影する投影部と、前記載置場所を撮影して画像を生成する撮影部と、前記載置場所に撮影対象物が載置された場合に、前記撮影部の撮影範囲における撮影対象領域を検出する領域検出部と、を備え、前記投影部は、前記撮影対象領域に撮影用の光を照射する。   According to the second aspect of the present invention, the image display device generates an image by photographing the above-described placement location, and a projection unit that projects an image on the placement location that is the location on which the subject to be photographed is placed. An imaging unit; and an area detection unit that detects an imaging target area in an imaging range of the imaging unit when an imaging object is placed at the installation location, and the projection unit includes the imaging target area Irradiate light for photographing.

本発明の第3の態様によれば、処理方法は、撮影対象物を載置する場所である載置場所に画像を投影する投影部と、前記載置場所を撮影して画像を生成する撮影部と、を備える装置が、前記載置場所に撮影対象物が載置された場合に、前記撮影部の撮影範囲における撮影対象領域を検出し、前記撮影対象領域に撮影用の照明光を照射する、ことを含む。   According to the third aspect of the present invention, a processing method includes: a projection unit that projects an image on a placement location that is a location on which a subject to be photographed is placed; and photographing that captures the placement location and generates an image. When the object to be photographed is placed at the installation location, the apparatus includes a photographing object region in the photographing range of the photographing unit and irradiates the photographing target region with illumination light for photographing. Including.

本発明の第4の態様によれば、プログラムは、撮影対象物を載置する場所である載置場所に画像を投影する投影部と、前記載置場所を撮影して画像を生成する撮影部と、を備える装置を制御するコンピュータに、前記載置場所に撮影対象物が載置された場合に、前記撮影部の撮影範囲における撮影対象領域を検出させ、前記撮影対象領域に撮影用の照明光を照射するように前記投影部を制御させる、ためのプログラムである。   According to the fourth aspect of the present invention, the program includes a projecting unit that projects an image on a placement place that is a place on which a subject to be photographed is placed, and a photographing unit that photographs the placement place and generates an image. And a computer that controls the apparatus comprising: an imaging target area in the imaging range of the imaging unit is detected when an imaging object is placed at the installation location, and illumination for imaging is performed on the imaging target area A program for controlling the projection unit to irradiate light.

この発明によれば、撮影対象物を撮影する条件を向上させることができる。   According to the present invention, it is possible to improve the conditions for photographing an object to be photographed.

本発明の一実施形態に係る複合装置の構成例を示す図である。It is a figure which shows the structural example of the compound apparatus which concerns on one Embodiment of this invention. 同実施形態に係る原稿検出用センサの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the document detection sensor which concerns on the same embodiment. 同実施形態に係る原稿検出用センサによる原稿検出の例を示す図である。5 is a diagram illustrating an example of document detection by a document detection sensor according to the embodiment. FIG. 同実施形態に係る複合装置が原稿を検出して画像処理を行う処理手順の例を示す図である。FIG. 10 is a diagram illustrating an example of a processing procedure in which the multifunction apparatus according to the embodiment detects a document and performs image processing. 同実施形態に係る複合装置が原稿の画像を取得する処理手順の第一例を示すフローチャートである。5 is a flowchart illustrating a first example of a processing procedure for acquiring an image of a document by the multifunction apparatus according to the embodiment. 同実施形態に係る複合装置が原稿の画像を取得する処理手順の第二例を示すフローチャートである。12 is a flowchart illustrating a second example of a processing procedure for the composite apparatus according to the embodiment to acquire an image of a document. 本発明に係る読取装置の最小構成の例を示す図である。It is a figure which shows the example of the minimum structure of the reader concerning this invention. 本発明に係る画像表示装置の最小構成の例を示す図である。It is a figure which shows the example of the minimum structure of the image display apparatus which concerns on this invention.

以下、本発明の実施形態を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、本発明の一実施形態に係る複合装置の構成例を示す図である。図1(A)は、本発明の一実施形態に係る複合装置の概略外形の例を示す斜視図である。図1(A)に示すように、複合装置1は、制御ユニット100と、プロジェクタユニット200と、スキャナユニット300と、載置台400とを備える。プロジェクタユニット200は、プロジェクタユニット筐体210と、投影部220とを備える。スキャナユニット300は、スキャナユニット筐体310と、撮影部320と、昇降部330とを備える。
Hereinafter, although embodiment of this invention is described, the following embodiment does not limit the invention concerning a claim. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
FIG. 1 is a diagram illustrating a configuration example of a composite apparatus according to an embodiment of the present invention. FIG. 1A is a perspective view showing an example of a schematic outer shape of a composite apparatus according to an embodiment of the present invention. As shown in FIG. 1A, the composite apparatus 1 includes a control unit 100, a projector unit 200, a scanner unit 300, and a mounting table 400. The projector unit 200 includes a projector unit casing 210 and a projection unit 220. The scanner unit 300 includes a scanner unit housing 310, a photographing unit 320, and an elevating unit 330.

図1(A)では、制御ユニット100、プロジェクタユニット200及びスキャナユニット300が別々の筐体に収納されている場合の例を示しているが、複合装置1における装置構成はこれに限らない。例えば、制御ユニット100、プロジェクタユニット200及びスキャナユニット300のうちのいずれか2つ或いは3つ全部が、同一の筐体に収納されていてもよい。   Although FIG. 1A shows an example in which the control unit 100, the projector unit 200, and the scanner unit 300 are housed in separate housings, the apparatus configuration in the composite apparatus 1 is not limited to this. For example, any two or all three of the control unit 100, the projector unit 200, and the scanner unit 300 may be housed in the same casing.

複合装置1は、画像表示装置(プロジェクタ、Projector)及び読取装置(スキャナ、Scanner)として機能する。具体的には、複合装置1は、プロジェクタユニット200から載置台400へ画像を投影する。また、載置台400に載置された撮影対象物をスキャナユニット300で撮影し、撮影対象物の画像を生成する。
制御ユニット100は、プロジェクタユニット200及びスキャナユニット300を制御して画像表示装置及び読取装置として機能させる。スキャナユニット300が撮影を行う際、制御ユニット100は、プロジェクタユニット200を制御して照明装置として機能させる。
The composite device 1 functions as an image display device (projector) and a reading device (scanner). Specifically, the composite apparatus 1 projects an image from the projector unit 200 onto the mounting table 400. In addition, the object to be imaged placed on the mounting table 400 is imaged by the scanner unit 300 to generate an image of the object to be imaged.
The control unit 100 controls the projector unit 200 and the scanner unit 300 to function as an image display device and a reading device. When the scanner unit 300 performs shooting, the control unit 100 controls the projector unit 200 to function as an illumination device.

プロジェクタユニット200は、載置台400に画像を投影する。載置台400に撮影対象物が載置された場合、プロジェクタユニット200は、撮影対象物が載置された領域に対しては照明用の光を照射し、それ以外の領域に画像を投影する。
図1(A)は、撮影対象物の例として原稿900が載置台400に載置された場合を示している。図1(A)の例では、載置台400の上面全体の領域A11が、プロジェクタユニット200が光を照射可能な領域、かつ、スキャナユニット300が撮影可能な領域となっている。領域A11のうち、原稿が載置されている領域が領域A12であり、それ以外の領域が領域A13である。この例では、プロジェクタユニット200は、領域A12に照明光を照射し、領域A13に画像を投影している。領域A12は、撮影対象領域の例に該当する。ここでいう撮影対象領域とは、スキャナユニット300が撮影可能な領域のうち、撮影対象物を撮影する領域である。
The projector unit 200 projects an image on the mounting table 400. When the object to be photographed is placed on the mounting table 400, the projector unit 200 irradiates the illumination light to the area where the object to be photographed is placed, and projects an image on the other area.
FIG. 1A shows a case where a document 900 is placed on a placement table 400 as an example of a photographing object. In the example of FIG. 1A, an area A11 on the entire top surface of the mounting table 400 is an area where the projector unit 200 can irradiate light and an area where the scanner unit 300 can shoot. Of the area A11, the area where the document is placed is the area A12, and the other area is the area A13. In this example, the projector unit 200 irradiates the area A12 with illumination light and projects an image on the area A13. The area A12 corresponds to an example of a shooting target area. The imaging target area referred to here is an area where the imaging target object is imaged out of the areas that can be imaged by the scanner unit 300.

但し、載置台400の上面全体の領域と、プロジェクタユニット200が光を照射可能な領域と、スキャナユニット300が撮影可能な領域とは、必ずしも一致している必要はない。例えば、プロジェクタユニット200が光を照射可能な領域のうち一部のみが撮影対象物を載置可能な領域に設定され、スキャナユニット300が、撮影対象物を載置可能な領域のみを撮影可能に構成されていてもよい。   However, the area of the entire top surface of the mounting table 400, the area where the projector unit 200 can irradiate light, and the area where the scanner unit 300 can shoot are not necessarily coincident. For example, only a part of the region where the projector unit 200 can irradiate light is set as a region where the object to be photographed can be placed, and the scanner unit 300 can photograph only the region where the object to be photographed can be placed. It may be configured.

また、必ずしも撮影対象物が載置された領域全体が撮影対象領域となっている必要はない。例えば、原稿の周囲に一定幅で余白が設けられる規格となっている場合、原稿が載置された領域のうち、余白幅の部分を除いた部分が撮影対象領域となっていてもよい。この場合、スキャナユニット300が撮影対象領域のみを撮影するようにしてもよいし。制御ユニット100が、スキャナユニット300が撮影した画像データのうち撮影対象領域のみについて画像処理(例えば、文字認識又はバーコードの読取)を行うようにしてもよい。   Further, it is not always necessary that the entire area where the object to be imaged is placed be the area to be imaged. For example, when the standard is such that a margin with a constant width is provided around the document, a portion other than the margin width portion may be a shooting target region in the region where the document is placed. In this case, the scanner unit 300 may shoot only the shooting target area. The control unit 100 may perform image processing (for example, character recognition or barcode reading) only on the imaging target region in the image data captured by the scanner unit 300.

プロジェクタユニット筐体210は、プロジェクタユニット200の各部を収納する。また、プロジェクタユニット筐体210は、載置台400から離れた位置に投影部220を固定する(保持する)ことで、スタンドとして機能する。
投影部220は、載置台400の上面に向けて光を照射する。特に、投影部220は、載置台400の上面に画像を投影する。また、投影部220は、載置台400の上面に向けて照明光を照射する。上記のように、載置台400に撮影対象物が載置されている場合、投影部220は、撮影対象領域に照明光を照射し、撮影対象領域以外の領域に画像を投影する。
The projector unit housing 210 accommodates each part of the projector unit 200. In addition, the projector unit housing 210 functions as a stand by fixing (holding) the projection unit 220 at a position away from the mounting table 400.
The projection unit 220 irradiates light toward the upper surface of the mounting table 400. In particular, the projection unit 220 projects an image on the upper surface of the mounting table 400. In addition, the projection unit 220 irradiates illumination light toward the upper surface of the mounting table 400. As described above, when the imaging target is placed on the mounting table 400, the projection unit 220 irradiates the imaging target area with illumination light and projects an image on an area other than the imaging target area.

また、投影部220は、制御ユニット100が載置台400への撮影対象物の載置有りと判定した場合、投影可能範囲全体に撮影対象領域検出用の光を照射する。ここでいう投影可能範囲は、投影部220が光を照射可能な範囲である。
投影部220が投影する画像は、特定の画像に限定されない。例えば、複合装置1が店舗に設置されている場合、投影部220が、広告用の画像を投影するようにしてもよい。あるいは、投影部220が、複合装置1の操作を説明する画像を投影するようにしてもよい。
以下では、投影部220が投影する画像を提示用画像とも称する。
Further, when the control unit 100 determines that the imaging target is placed on the mounting table 400, the projection unit 220 irradiates the entire projection possible range with light for detecting the imaging target area. The projectable range here is a range in which the projection unit 220 can irradiate light.
The image projected by the projection unit 220 is not limited to a specific image. For example, when the composite apparatus 1 is installed in a store, the projection unit 220 may project an advertisement image. Alternatively, the projection unit 220 may project an image explaining the operation of the multifunction apparatus 1.
Hereinafter, the image projected by the projection unit 220 is also referred to as a presentation image.

スキャナユニット300は、スタンド型スキャナとして構成され、載置台400に載置された撮影対象物を撮影する。この撮影によりスキャナユニット300は、撮影対象物の画像を画像データにて生成する。
スキャナユニット筐体310は、スキャナユニット300の各部を収納する。
撮影部320は、載置台400の上面を撮影して画像を生成する。載置台400の上面に撮影対象物が載置されている場合、撮影部320は、撮影によって撮影対象物の画像を生成する。撮影部320は、生成した画像を画像データにて制御ユニット100へ出力する。
The scanner unit 300 is configured as a stand-type scanner, and shoots an object to be photographed placed on the placing table 400. With this shooting, the scanner unit 300 generates an image of the shooting target with image data.
The scanner unit housing 310 accommodates each part of the scanner unit 300.
The imaging unit 320 captures an upper surface of the mounting table 400 and generates an image. When the imaging target is placed on the top surface of the mounting table 400, the imaging unit 320 generates an image of the imaging target by imaging. The imaging unit 320 outputs the generated image to the control unit 100 as image data.

昇降部330は、撮影部320を昇降可能に保持する。昇降部330が撮影部320を昇降させることで、撮影部320と載置台400との距離が変化する。この距離の変化により、載置台400の上面のうち撮影部320の撮影範囲(画角)が変化する。
昇降部330は、撮影部320を載置台400から離れた位置に保持する点でスタンドとして機能する。
但し、昇降部330は、スキャナユニット300に必須ではない。例えば、スキャナユニット筐体310が、載置台400から離れた位置に撮影部320を固定する(保持する)ようにしてもよい。
The elevating unit 330 holds the photographing unit 320 so as to be able to be raised and lowered. As the elevating unit 330 moves the imaging unit 320 up and down, the distance between the imaging unit 320 and the mounting table 400 changes. With this change in distance, the shooting range (view angle) of the shooting unit 320 on the top surface of the mounting table 400 changes.
The elevating unit 330 functions as a stand in that the imaging unit 320 is held at a position away from the mounting table 400.
However, the elevating unit 330 is not essential for the scanner unit 300. For example, the scanner unit housing 310 may fix (hold) the imaging unit 320 at a position away from the mounting table 400.

載置台400は、撮影対象物を載置するために設けられた台である。載置台400の上面は、撮影対象物を載置する場所である載置場所の例に該当する。また、載置台400の上面は、プロジェクタユニット200が画像を投影する投影面(スクリーン)としても用いられる。
但し、載置台が複合装置1の一部として構成されていなくてもよい。例えば、制御ユニット100、プロジェクタユニット200及びスキャナユニット300の組み合わせが、机上に置いて用いられる複合装置として構成され、この複合装置が置かれた机が載置台として用いられていてもよい。
The mounting table 400 is a table provided for mounting an imaging object. The upper surface of the mounting table 400 corresponds to an example of a mounting location that is a location on which an object to be imaged is mounted. The top surface of the mounting table 400 is also used as a projection surface (screen) on which the projector unit 200 projects an image.
However, the mounting table may not be configured as a part of the composite apparatus 1. For example, a combination of the control unit 100, the projector unit 200, and the scanner unit 300 may be configured as a composite device that is used by being placed on a desk, and the desk on which the composite device is placed may be used as a mounting table.

図1(B)は、複合装置1の機能構成を示す概略ブロック図である。複合装置1は、図1(A)に示す各部に加えて、操作入力部130と、記憶部180と、制御部190とを備える。制御部190は、投影画像生成部191と、載置有無判定部192と、領域検出部193と、昇降制御部194と、撮影画像処理部195とを備える。
操作入力部130、記憶部180、制御部190の各々を構成するハードウェアは、例えば制御ユニット100に収納されている。
FIG. 1B is a schematic block diagram illustrating a functional configuration of the composite apparatus 1. The composite apparatus 1 includes an operation input unit 130, a storage unit 180, and a control unit 190 in addition to the units illustrated in FIG. The control unit 190 includes a projection image generation unit 191, a placement presence / absence determination unit 192, an area detection unit 193, an elevation control unit 194, and a captured image processing unit 195.
The hardware configuring each of the operation input unit 130, the storage unit 180, and the control unit 190 is accommodated in the control unit 100, for example.

操作入力部130は、例えば押ボタン等の入力デバイスを備え、ユーザ操作を受ける。
記憶部180は、各種データを記憶する。記憶部180は、複合装置1が備える記憶デバイスを用いて構成される。
制御部190は、複合装置1の各部を制御して各種処理を行う。制御部190は、複合装置1が備えるCPU(Central Processing Unit、中央処理装置)が記憶部180からプログラムを読み出して実行することで構成される。
The operation input unit 130 includes an input device such as a push button and receives a user operation.
The storage unit 180 stores various data. The storage unit 180 is configured using a storage device included in the composite apparatus 1.
The control unit 190 performs various processes by controlling each unit of the multifunction apparatus 1. The control unit 190 is configured by a CPU (Central Processing Unit) included in the composite apparatus 1 reading out and executing a program from the storage unit 180.

投影画像生成部191は、投影部220に投影させるための画像を画像データにて生成する。投影画像生成部191は、生成した画像データを投影部220に出力し、投影部220に画像を投影させる。
また、投影画像生成部191は、投影部220に出力する画像データにて照明光の照射を指示する。例えば、投影画像生成部191は、投影部220に照明光を照射させたい領域の画像データを白色の画像データとする。投影部220は、この画像データに基づいて指定された領域に白色光を照射する。
但し、投影部220が照射する照明光は白色光に限らない。例えば、投影画像生成部191は、投影部220に照明光を照射させたい領域の画像データを、青など白色以外の単色の画像データとするようにしてもよい。投影部220は、この画像データに基づいて指定された領域に、指定された単色光を照射する。
The projection image generation unit 191 generates an image to be projected on the projection unit 220 as image data. The projection image generation unit 191 outputs the generated image data to the projection unit 220 and causes the projection unit 220 to project an image.
In addition, the projection image generation unit 191 instructs illumination light irradiation with image data output to the projection unit 220. For example, the projection image generation unit 191 sets the image data of the area where the projection unit 220 is desired to be irradiated with illumination light as white image data. The projection unit 220 irradiates white light to a region designated based on the image data.
However, the illumination light emitted by the projection unit 220 is not limited to white light. For example, the projection image generation unit 191 may set the image data of a region where the projection unit 220 is to be irradiated with illumination light as single-color image data other than white such as blue. The projection unit 220 irradiates the designated area with the designated monochromatic light on the designated area based on the image data.

投影部220が照射する照明光は、均一光であることが好ましいが、これに限らない。ここでいう均一光は、載置台400に照射された場合に、照射されたどの位置でも照度が均一となる光である。投影部220から載置台400への照射角度等の影響により照度が不均一となって制御ユニット100の処理に支障が生じる場合、制御ユニット100が照度の不均一による画像の明るさのむらを補正する画像処理を行うようにしてもよい。   The illumination light emitted by the projection unit 220 is preferably uniform light, but is not limited thereto. The uniform light referred to here is light in which the illuminance is uniform at any irradiated position when the mounting table 400 is irradiated. When the illuminance is uneven due to the influence of the irradiation angle or the like from the projection unit 220 to the mounting table 400 and the processing of the control unit 100 is hindered, the control unit 100 corrects uneven brightness of the image due to the uneven illuminance. Image processing may be performed.

また、投影画像生成部191は、投影部220に出力する画像データにて撮影対象領域検出用の光の照射を指示する。例えば、投影画像生成部191は、投影部220の投影可能範囲全体に撮影対象領域検出用の光を照射するよう指示する。この照射を利用して、領域検出部193が撮影対象領域を検出する。   In addition, the projection image generation unit 191 instructs to irradiate light for detecting the imaging target region with the image data output to the projection unit 220. For example, the projection image generation unit 191 instructs to irradiate the entire projection possible range of the projection unit 220 with light for detecting the imaging target region. Using this irradiation, the region detection unit 193 detects the imaging target region.

載置有無判定部192は、載置台400への撮影対象物の載置の有無を判定する。載置有無判定部192は、投影画像生成部191が生成する投影用の画像データを取得することで、載置台400に物が載置されていない場合に撮影部320が撮影する画像を推定することができる。そこで、載置有無判定部192は、載置台400に物が載置されていない場合に撮影部320が撮影する画像と、実際に撮影部320が撮影した画像とを比較して、載置台400への撮影対象物の載置の有無を判定する。
例えば、撮影部320が一定周期毎に撮影を行う。そして、載置有無判定部192は、撮影部320が撮影を行う毎に載置台400への撮影対象物の載置の有無を判定する。
The mounting presence / absence determination unit 192 determines whether or not the imaging object is mounted on the mounting table 400. The mounting presence / absence determination unit 192 acquires the image data for projection generated by the projection image generation unit 191, thereby estimating an image captured by the imaging unit 320 when an object is not mounted on the mounting table 400. be able to. Therefore, the mounting presence / absence determination unit 192 compares the image captured by the imaging unit 320 with an image actually captured by the imaging unit 320 when no object is mounted on the mounting table 400, and places the mounting table 400. Whether or not the object to be photographed is placed on is determined.
For example, the imaging unit 320 performs imaging at regular intervals. The mounting presence / absence determination unit 192 determines whether or not the imaging target is placed on the mounting table 400 every time the imaging unit 320 performs imaging.

載置有無判定部192が、載置台400に物が載置されていない場合に撮影部320が撮影する画像と、実際に撮影部320が撮影した画像とを比較する方法は、特定の方法に限定されない。例えば、載置有無判定部192が、載置有無判定部192が、載置台400に物が載置されていない場合の画像全体の明るさを算出し、実際に撮影部320が撮影した画像全体の明るさと比較するようにしてもよい。あるいは、載置有無判定部192が、載置台400に物が載置されていない場合に撮影部320が撮影する画像と、実際に撮影部320が撮影した画像との差分の面積を算出して所定の閾値と比較するようにしてもよい。   A method in which the mounting presence / absence determination unit 192 compares an image captured by the imaging unit 320 when an object is not mounted on the mounting table 400 with an image actually captured by the imaging unit 320 is a specific method. It is not limited. For example, the mounting presence / absence determination unit 192 calculates the brightness of the entire image when the mounting presence / absence determination unit 192 does not place an object on the mounting table 400, and the entire image actually captured by the imaging unit 320. You may make it compare with the brightness of. Alternatively, the mounting presence / absence determination unit 192 calculates an area of a difference between an image captured by the imaging unit 320 and an image actually captured by the imaging unit 320 when an object is not mounted on the mounting table 400. You may make it compare with a predetermined threshold value.

載置有無判定部192が載置台400への撮影対象物の載置の有無を判定する際に必要な画像は、撮影対象部を撮影して画像処理可能なレベルの画像を取得する際の画像と比較して粗い画像でよい。このため、撮影部320が、撮影対象部を撮影して画像処理可能なレベルの画像を取得する際は、投影部220が照明光を照射するのに対し、撮影部320が、撮影対象物の載置の有無判定のための撮影を行う際は、投影部220は照射光の照射を行わない。従って、載置有無判定部192は、投影部220による画像の投影を中断することなく、載置台400への撮影対象物の載置の有無を判定することができる。   An image required when the mounting presence / absence determining unit 192 determines whether or not the imaging target is mounted on the mounting table 400 is an image when the imaging target unit is captured to obtain an image that can be processed. A rougher image may be used. For this reason, when the imaging unit 320 captures an imaging target part and acquires an image at a level that can be processed, the projection unit 220 emits illumination light, whereas the imaging unit 320 captures the object to be imaged. When performing imaging for determining whether or not there is mounting, the projection unit 220 does not perform irradiation light irradiation. Therefore, the mounting presence / absence determination unit 192 can determine whether or not the imaging object is mounted on the mounting table 400 without interrupting the projection of the image by the projection unit 220.

領域検出部193は、載置台400に撮影対象物が載置された場合に、撮影部320の撮影範囲における撮影対象領域を検出する。具体的には、領域検出部193は、載置有無判定部192が載置台400への撮影対象物の載置有りと判定した場合に、撮影対象領域を検出する。
領域検出部193は、投影部220が撮影対象領域検出用の光を照射している状態で撮影部320が撮影した画像に基づいて、撮影対象領域を検出する。
The area detection unit 193 detects an imaging target area in the imaging range of the imaging unit 320 when an imaging object is placed on the mounting table 400. Specifically, the area detection unit 193 detects the imaging target area when the mounting presence / absence determination unit 192 determines that the imaging target is placed on the mounting table 400.
The area detection unit 193 detects an imaging target area based on an image captured by the imaging unit 320 in a state where the projection unit 220 emits light for detecting the imaging target area.

投影部220が、撮影対象領域検出用の光として、白色光などの単色光を照射するようにしてもよい。この場合、領域検出部193が、載置台400に物が載置されていない場合に撮影部320が撮影する画像を推定し、実際に撮影部320が撮影した画像との差分の領域を撮影対象領域として検出するようにしてもよい。あるいは、撮影対象物が原稿である場合、領域検出部193が、撮影部320が撮影した画像から、色の境界、明るさの境界など画素値が異なる境界を検出し、境界が構成する矩形領域を撮影対象領域として検出するようにしてもよい。   The projection unit 220 may irradiate monochromatic light such as white light as the light for detecting the imaging target region. In this case, the area detection unit 193 estimates an image captured by the imaging unit 320 when an object is not placed on the mounting table 400, and determines an area that is different from the image actually captured by the imaging unit 320 as an imaging target. You may make it detect as an area | region. Alternatively, when the photographing object is a document, the area detection unit 193 detects a boundary having different pixel values such as a color boundary or a brightness boundary from the image captured by the imaging unit 320, and a rectangular region that the boundary constitutes May be detected as an imaging target region.

あるいは、投影部220が、撮影対象領域検出用の光として、格子状の光など立体形状を検出するための光を照射するようにしてもよい。この場合、領域検出部193は、載置台400に原稿が載置されることで生じる段差を検出するなど、撮影対象物を立体的に検出することで、撮影対象領域を検出する。   Or you may make it the projection part 220 irradiate the light for detecting solid shapes, such as grid | lattice-like light, as light for imaging | photography object area | region detection. In this case, the region detection unit 193 detects the photographing target region by detecting the photographing target in three dimensions, such as detecting a step generated by placing the document on the mounting table 400.

複合装置1が、載置台400への撮影対象物の載置の有無を判定する方法、及び、撮影対象領域を検出する方法は、撮影部320が撮影した画像を用いる方法に限定されない。例えば、撮影対象物が原稿である場合、載置台400が原稿検出用のセンサを備えるようにしてもよい。
図2は、原稿検出用センサの配置例を示す図である。図2の例で、載置台400の上面にガラス板が設けられ、ガラス板の下に原稿検出用センサ410が配置されている。
The method of determining whether or not the imaging target is placed on the mounting table 400 and the method of detecting the imaging target area by the multifunction apparatus 1 are not limited to the method using the image captured by the imaging unit 320. For example, when the photographing object is a document, the mounting table 400 may include a document detection sensor.
FIG. 2 is a diagram illustrating an arrangement example of the document detection sensors. In the example of FIG. 2, a glass plate is provided on the top surface of the mounting table 400, and a document detection sensor 410 is disposed under the glass plate.

図3は、原稿検出用センサ410による原稿検出の例を示す図である。
図3の例で、原稿検出用センサ410は、例えば弱いレーザ光などおよそ一方向に光を照射する光照射部411と、光を受講する受光部412とを備えている。受光部412は、載置台400に原稿900が載置された場合に、光照射部411が照射した光を原稿900が反射した反射光を受光する位置及び向きに設置されている。
FIG. 3 is a diagram illustrating an example of document detection by the document detection sensor 410.
In the example of FIG. 3, the document detection sensor 410 includes a light irradiation unit 411 that irradiates light in approximately one direction such as a weak laser beam, and a light receiving unit 412 that receives light. The light receiving unit 412 is installed at a position and an orientation for receiving the reflected light reflected by the document 900 when the document 900 is placed on the mounting table 400.

図3に示すように、原稿検出用センサ410は、載置台400に原稿が載置された場合に原稿の角が来る位置のやや内側(原稿がある側)に設置される。載置台400に載置される可能性のある原稿のサイズ又は向きが複数ある場合、原稿のサイズ毎、及び、原稿の向き毎に原稿検出用センサ410を設置しておく。
領域検出部193は、複数の原稿検出用センサ410のうち何れかが反射光を受光している場合に載置台400への原稿の載置ありと判定し、反射光を受光している原稿検出用センサ410の設置位置に基づいて撮影対象領域を検出する。
この場合、投影部220が撮影対象領域検出用の光を照射する必要はないので、その照射タイミングを決定するための載置有無判定部192は不要である。
As shown in FIG. 3, the document detection sensor 410 is installed slightly inside the position where the corner of the document comes when the document is placed on the mounting table 400 (the side where the document is present). In the case where there are a plurality of document sizes or orientations that may be placed on the table 400, document detection sensors 410 are installed for each document size and each document orientation.
The area detection unit 193 determines that the document is placed on the mounting table 400 when any of the plurality of document detection sensors 410 receives reflected light, and detects the document receiving the reflected light. An imaging target area is detected based on the installation position of the sensor 410 for use.
In this case, since the projection unit 220 does not have to irradiate the light for detecting the imaging target region, the mounting presence / absence determining unit 192 for determining the irradiation timing is unnecessary.

昇降制御部194は、昇降部330を制御して、撮影部320を昇降させる。
撮影画像処理部195は、撮影部320が撮影した撮影対象物の画像に対して画像処理を行う。撮影画像処理部195が行う画像処理は、特定の処理に限定されない。例えば、撮影対象物が原稿との書類である場合、撮影画像処理部195が、文字認識及びバーコードの読取を行うようにしてもよい。あるいは、複合装置1が撮影対象物の画像を画像のまま記憶する場合、撮影画像処理部195が画像の明るさ及びコントラストを調整するようにしてもよい。
The elevating control unit 194 controls the elevating unit 330 to elevate the imaging unit 320.
The photographed image processing unit 195 performs image processing on the image of the photographing object photographed by the photographing unit 320. Image processing performed by the captured image processing unit 195 is not limited to specific processing. For example, when the photographing object is a document with a document, the photographed image processing unit 195 may perform character recognition and barcode reading. Alternatively, when the composite apparatus 1 stores the image of the photographing object as an image, the photographed image processing unit 195 may adjust the brightness and contrast of the image.

次に、図4〜7を参照して複合装置1の動作について説明する。
図4は、複合装置1が原稿を検出して画像処理を行う処理手順の例を示す図である。
図4に示す処理の開始時には、載置台400には物が載置されていない。この状態では、プロジェクタユニット200の投影部220は、制御ユニット100の制御に従って載置台400の上面全体に提示用画像を投影する(シーケンスS111)。このように、投影部220は、載置台400への物の載置が検出されていない状態では、載置台400の上面全体に提示用画像を投影する。
Next, the operation of the composite apparatus 1 will be described with reference to FIGS.
FIG. 4 is a diagram illustrating an example of a processing procedure in which the multifunction apparatus 1 detects a document and performs image processing.
At the start of the process shown in FIG. 4, no object is placed on the mounting table 400. In this state, the projection unit 220 of the projector unit 200 projects the presentation image on the entire top surface of the mounting table 400 according to the control of the control unit 100 (sequence S111). As described above, the projection unit 220 projects the presentation image on the entire upper surface of the mounting table 400 in a state where the placement of the object on the mounting table 400 is not detected.

一方、スキャナユニット300の撮影部320は、載置台400を一定周期で撮影する(シーケンスS121)。制御ユニット100は、撮影部320が一定周期で撮影を行う毎に画像を取得し(シーケンスS122)、取得した画像に基づいて、載置有無判定部192が、載置台400への撮影対象物の載置の有無を判定する(シーケンスS123)。以下では、撮影対象物が原稿である場合を例に説明するが、撮影対象物は原稿に限らない。
載置台400への原稿の載置を検出していない状態では、複合装置1は、シーケンスS121〜S123の処理を一定周期で繰り返す。
On the other hand, the imaging unit 320 of the scanner unit 300 images the mounting table 400 at a constant cycle (sequence S121). The control unit 100 acquires an image every time the image capturing unit 320 performs image capturing at a constant period (sequence S122), and based on the acquired image, the mounting presence / absence determining unit 192 determines whether the object to be imaged on the mounting table 400 is captured. The presence or absence of placement is determined (sequence S123). Hereinafter, a case where the photographing target is a document will be described as an example, but the photographing target is not limited to a document.
In a state where the placement of the document on the placement table 400 is not detected, the composite apparatus 1 repeats the processes of sequences S121 to S123 at a constant cycle.

一方、載置有無判定部192が、載置台400への原稿の載置を検出した場合(シーケンスS124)、制御ユニット100は、プロジェクタユニット200に対して白色光の投影を要求する(シーケンスS125)。具体的には、投影画像生成部191が、画像全体を白とした画像データを生成し、プロジェクタユニット200へ出力する。
プロジェクタユニット200では、投影部220が、投影画像生成部191からの画像データに基づいて、白色光を投影可能範囲の全域に白色光を投影(照射)する(シーケンスS131)。
On the other hand, when the placement determination unit 192 detects placement of the document on the placement table 400 (sequence S124), the control unit 100 requests the projector unit 200 to project white light (sequence S125). . Specifically, the projection image generation unit 191 generates image data in which the entire image is white, and outputs the image data to the projector unit 200.
In the projector unit 200, the projection unit 220 projects (irradiates) white light over the entire range of possible projection of white light based on the image data from the projection image generation unit 191 (sequence S131).

スキャナユニット300では、投影部220がシーケンスS131での投影を行っている状態で、撮影部320が撮影を行う(シーケンスS141)。撮影部320は、得られた撮影で得られた画像データを制御ユニット100へ出力する。
制御ユニット100が画像データを取得すると(シーケンスS142)、領域検出部193が、画像データが示す画像のうち原稿領域(原稿が写っている領域)を、撮影対象領域として検出する(シーケンスS143)。制御ユニット100は、検知した領域を示す情報をプロジェクタユニット200へ通知する(シーケンスS144)。具体的には、投影画像生成部191が、領域検出部193が検出した撮影対象領域を白(白塗りの画像)とし、それ以外の領域に提示画像を含む画像データを生成し、プロジェクタユニット200へ出力する。
In the scanner unit 300, the photographing unit 320 performs photographing in a state where the projection unit 220 performs projection in the sequence S131 (sequence S141). The imaging unit 320 outputs image data obtained by the obtained imaging to the control unit 100.
When the control unit 100 acquires image data (sequence S142), the area detection unit 193 detects a document area (an area in which the document is shown) in the image indicated by the image data as a shooting target area (sequence S143). Control unit 100 notifies projector unit 200 of information indicating the detected area (sequence S144). Specifically, the projection image generation unit 191 generates white image (white-painted image) as the shooting target region detected by the region detection unit 193, and generates image data including the presentation image in the other region. Output to.

プロジェクタユニット200では、投影部220が、投影画像生成部191からの画像データに基づいて、原稿領域に白色光の照明光を投影(照射)し、原稿以外の領域に提示用画像を投影する(シーケンスS151)。
スキャナユニット300では、シーケンスS151で投影部220が原稿に照明光を照射している状態で、撮影部320が画像を撮影する(シーケンスS161)。特に、撮影部320は、照明光が照射されている原稿の画像を撮影する。原稿以外の領域については、鮮明な画像が得られなくても差し支えない。
In the projector unit 200, the projection unit 220 projects (irradiates) white illumination light onto the document area based on the image data from the projection image generation unit 191, and projects a presentation image onto an area other than the document ( Sequence S151).
In the scanner unit 300, the imaging unit 320 captures an image in a state where the projection unit 220 irradiates the original with illumination light in sequence S151 (sequence S161). In particular, the imaging unit 320 captures an image of a document that is irradiated with illumination light. For areas other than the original, a clear image may not be obtained.

制御ユニット100では、撮影画像処理部195が、撮影部320が撮影した原稿の画像を取得し、例えば文字認識又はバーコードの読取などの処理を行う(シーケンスS162)。
シーケンスS162の後、図4の処理を終了する。その後、複合装置1は、例えばシーケンスS121〜S123の処理を一定周期で繰り返し、原稿が載置台400から取り除かれたことを検出するまでは、シーケンスS151での画像の投影を維持する。原稿が載置台400から取り除かれたことを検出した場合、複合装置1は、図4を参照して説明したのと同様の処理を行う。
In the control unit 100, the photographed image processing unit 195 acquires an image of the document photographed by the photographing unit 320, and performs processing such as character recognition or barcode reading (sequence S162).
After the sequence S162, the process of FIG. After that, for example, the composite apparatus 1 repeats the processes of the sequences S121 to S123 at a constant cycle, and maintains the projection of the image in the sequence S151 until it is detected that the document is removed from the placing table 400. When it is detected that the document is removed from the placing table 400, the multifunction apparatus 1 performs the same process as described with reference to FIG.

図5は、複合装置1が原稿の画像を取得する処理手順の第一例を示すフローチャートである。図5では、昇降部330が、撮影部320の高さを固定している場合の処理手順の例を示している。例えば、撮影部320が図4のシーケンスS161で撮影する画像を利用して、撮影画像処理部195がシーケンスS162で図5の処理を行う。
図5の処理で、撮影画像処理部195は、撮影部320が原稿を撮影した画像を取得する(ステップS201)。図5の例では、昇降部330がかめらの高さを固定しているので、撮影部320が撮影した画像は、原稿の領域とそれ以外の領域とを含んでいる。
FIG. 5 is a flowchart illustrating a first example of a processing procedure in which the multifunction apparatus 1 acquires an image of a document. FIG. 5 shows an example of a processing procedure when the elevating unit 330 fixes the height of the photographing unit 320. For example, the captured image processing unit 195 performs the processing of FIG. 5 in sequence S162 using the image captured by the capturing unit 320 in sequence S161 of FIG.
In the process of FIG. 5, the captured image processing unit 195 acquires an image obtained by capturing the document by the capturing unit 320 (step S <b> 201). In the example of FIG. 5, since the elevating unit 330 fixes the height of the temple, the image captured by the imaging unit 320 includes a document area and other areas.

そこで、撮影画像処理部195は、ステップS201で得られた画像のうち、予め定められている固定の視野範囲を選択することで必要部分(原稿が写っている部分)を選択し、選択した部分を切り出す(ステップS202)。或いは、撮影画像処理部195が、原稿のうち必要部分(例えば余白を除いた部分)を切り出すようにしてもよい。
そして、撮影画像処理部195は、切り出した部分の画像を所定のサイズに拡大する(ステップS203)。画像を拡大する際、撮影画像処理部195は、必要に応じて画素の補間を行う。
これにより、撮影画像処理部195は、原稿の画像を取得し、図5の処理を終了する。
Therefore, the captured image processing unit 195 selects a necessary portion (portion where the document is shown) by selecting a predetermined fixed visual field range from the image obtained in step S201, and the selected portion. Is cut out (step S202). Alternatively, the photographed image processing unit 195 may cut out a necessary part (for example, a part excluding the margin) from the document.
Then, the captured image processing unit 195 enlarges the cut-out portion image to a predetermined size (step S203). When enlarging an image, the captured image processing unit 195 performs pixel interpolation as necessary.
As a result, the photographed image processing unit 195 obtains an image of the document and ends the process of FIG.

図6は、複合装置1が原稿の画像を取得する処理手順の第二例を示すフローチャートである。図6では、昇降部330が、撮影部320を昇降させる場合の処理手順の例を示している。例えば、複合装置1は、図4のシーケンスS141〜S162で図6の処理を行う。
図6の処理で、領域検出部193は、撮影部320が撮影した画像を取得し、原稿領域を検出する(ステップS301)。ここでは、昇降部330が撮影部320を昇降させる前の状態で撮影部320が撮影を行っているので、撮影部320が撮影した画像は、原稿の領域とそれ以外の領域とを含んでいる。領域検出部193は、撮影部320が撮影した画像のうち、原稿の領域を検出する。図4の例では、シーケンスS142の処理が図6のステップS301の処理の例に該当する。
FIG. 6 is a flowchart illustrating a second example of a processing procedure in which the multifunction apparatus 1 acquires a document image. In FIG. 6, the example of the process sequence in case the raising / lowering part 330 raises / lowers the imaging | photography part 320 is shown. For example, the multifunction apparatus 1 performs the process of FIG. 6 in the sequences S141 to S162 of FIG.
In the process of FIG. 6, the area detection unit 193 acquires an image captured by the imaging unit 320 and detects a document area (step S <b> 301). Here, since the image capturing unit 320 performs image capturing before the elevating unit 330 raises and lowers the image capturing unit 320, the image captured by the image capturing unit 320 includes a document area and other areas. . The area detection unit 193 detects an area of a document in the image captured by the imaging unit 320. In the example of FIG. 4, the process of sequence S142 corresponds to the example of the process of step S301 of FIG.

次に、昇降制御部194が、ステップS301での検出結果に基づいて撮影部320の昇降量を算出する(ステップS302)。例えば、記憶部180が、原稿領域のサイズと昇降量とを対応付けた対応表を予め記憶しておく。そして、昇降制御部194は、ステップS301で領域検出部193が検出した原稿領域のサイズに対応付けられている昇降量を記憶部180から読み出す。   Next, the elevation controller 194 calculates the elevation amount of the photographing unit 320 based on the detection result in step S301 (step S302). For example, the storage unit 180 stores in advance a correspondence table that associates the size of the document area with the amount of elevation. Then, the elevation control unit 194 reads from the storage unit 180 the elevation amount associated with the size of the document area detected by the area detection unit 193 in step S301.

昇降部330は、昇降制御部194が決定した昇降量に従って、撮影部320を昇降させる(ステップS303)。
昇降部330が撮影部320の昇降を完了すると、撮影部320が原稿の範囲の画像を撮影して画像データを生成し、撮影画像処理部195は、画像データを取得する(ステップS304)。図4の例の場合、シーケンスS161〜S162の処理が、図6のステップS304の処理の例に該当する。ここでは、昇降部330が撮影部320を昇降させたことで、撮影部320の画角が原稿の範囲になっている。これにより、撮影部320は、原稿の範囲のみを撮影する。従って、図6の場合と異なり、撮影画像処理部195は、撮影部320が撮影した画像から一部を切り出す必要がない。
ステップS304の後、図6の処理を終了する。
The elevating unit 330 moves the imaging unit 320 up and down according to the elevating amount determined by the elevating control unit 194 (step S303).
When the elevating unit 330 completes the raising / lowering of the imaging unit 320, the imaging unit 320 captures an image in the range of the document and generates image data, and the captured image processing unit 195 acquires the image data (step S304). In the case of the example of FIG. 4, the processes of sequences S161 to S162 correspond to the example of the process of step S304 of FIG. Here, the elevation unit 330 moves the imaging unit 320 up and down, so that the angle of view of the imaging unit 320 is within the range of the document. Thereby, the photographing unit 320 photographs only the range of the document. Therefore, unlike the case of FIG. 6, the captured image processing unit 195 does not need to cut out a part from the image captured by the capturing unit 320.
After step S304, the process of FIG. 6 ends.

以上のように、投影部220は、撮影対象物を載置する場所である載置場所(載置台400の上面)に画像を投影する。撮影部320は、載置場所を撮影して画像を生成する。領域検出部193は、載置場所に撮影対象物が載置された場合に、撮影部320の撮影範囲における撮影対象領域を検出する。そして、投影部220は、撮影対象領域に撮影用の照明光を照射する。
投影部220が、撮影対象領域に撮影用の照明光を照射することで、撮影部320は、画像処理に適した明るい画像を撮影することができる。この点で、複合装置1によれば、撮影対象物を撮影する条件を向上させることができる。
As described above, the projecting unit 220 projects an image on a placement place (an upper surface of the placement table 400) that is a place on which the object to be photographed is placed. The imaging unit 320 captures the placement location and generates an image. The area detection unit 193 detects an imaging target area in the imaging range of the imaging unit 320 when an imaging object is placed on the placement location. Then, the projection unit 220 irradiates the photographing target area with illumination light for photographing.
The projection unit 220 irradiates the imaging target region with illumination light for imaging, so that the imaging unit 320 can capture a bright image suitable for image processing. In this respect, according to the composite apparatus 1, it is possible to improve the conditions for photographing the photographing object.

また、投影部220は、載置場所のうち撮影対象領域以外の領域に画像を投影する。
これにより、複合装置1は、画像の投影を継続しながら撮影対象物を撮影することができる。
In addition, the projection unit 220 projects an image onto an area other than the imaging target area in the placement location.
As a result, the multifunction apparatus 1 can photograph the object to be photographed while continuing to project the image.

また、載置有無判定部192は、載置場所への撮影対象物の載置の有無を判定する。領域検出部193は、載置有無判定部192が載置場所への撮影対象物の載置有りと判定した場合に、撮影対象領域を検出する。
載置有無判定部192が行う載置場所への撮影対象物の載置の有無の判定は、領域検出部193が行う撮影対象領域の検出よりも軽い負荷で行うことができる。複合装置1が、載置場所への撮影対象物の載置の有無の判定と、撮影対象領域の検出との2段階で処理を行うことで、比較的重い撮影対象領域の検出の頻度を低減させることができ、この点で、複合装置1の負荷が軽くて済む。
Further, the placement presence / absence determination unit 192 determines whether or not the photographing object is placed on the placement location. The area detection unit 193 detects an imaging target area when the placement presence / absence determination unit 192 determines that the imaging target is placed on the placement location.
The determination of the presence / absence of placement of the photographing object on the placement place performed by the placement presence / absence determination unit 192 can be performed with a lighter load than the detection of the photographing target region performed by the region detection unit 193. The composite apparatus 1 performs processing in two stages, that is, whether or not the object to be photographed is placed on the placement place and the detection of the object region to be photographed, thereby reducing the frequency of detecting a relatively heavy object region to be photographed. In this respect, the load on the composite apparatus 1 can be light.

また、投影部220は、載置有無判定部192が載置場所への撮影対象物の載置有りと判定した場合、投影可能範囲全体に撮影対象領域検出用の光を照射する。領域検出部193は、投影部220が撮影対象領域検出用の光を照射している状態で撮影部320が撮影した画像に基づいて、撮影対象領域を検出する。
これにより、領域検出部193は、明るい画像を用いて撮影対象領域の検出を行うことができる。この点で、複合装置1によれば、領域検出部193が撮影対象領域を高精度に検出することができる。
Further, when the mounting presence / absence determining unit 192 determines that the imaging target is placed on the mounting location, the projecting unit 220 irradiates the entire projection possible range with light for detecting the imaging target region. The area detection unit 193 detects an imaging target area based on an image captured by the imaging unit 320 in a state where the projection unit 220 emits light for detecting the imaging target area.
Thereby, the area detection unit 193 can detect the shooting target area using a bright image. In this regard, according to the composite apparatus 1, the area detection unit 193 can detect the imaging target area with high accuracy.

次に、図7〜図8を参照して本発明の最小構成について説明する。
図7は、本発明に係る読取装置の最小構成の例を示す図である。図7に示す読取装置10は、投影部11と、撮影部12と、領域検出部13とを備える。
かかる構成にて、投影部11は、撮影対象物を載置する場所である載置場所に画像を投影する。撮影部12は、載置場所を撮影して画像を生成する。領域検出部13は、載置場所に撮影対象物が載置された場合に、撮影部12の撮影範囲における撮影対象領域を検出する。そして、投影部11は、撮影対象領域に撮影用の照明光を照射する。
投影部11が、撮影対象領域に撮影用の照明光を照射することで、撮影部12は、画像処理に適した明るい画像を撮影することができる。この点で、読取装置10によれば、撮影対象物を撮影する条件を向上させることができる。
Next, the minimum configuration of the present invention will be described with reference to FIGS.
FIG. 7 is a diagram showing an example of the minimum configuration of the reading apparatus according to the present invention. The reading apparatus 10 illustrated in FIG. 7 includes a projection unit 11, an imaging unit 12, and an area detection unit 13.
With such a configuration, the projection unit 11 projects an image on a placement place that is a place on which the object to be photographed is placed. The imaging unit 12 captures the placement location and generates an image. The area detection unit 13 detects an imaging target area in the imaging range of the imaging unit 12 when an imaging object is placed on the placement location. Then, the projection unit 11 irradiates the photographing target area with illumination light for photographing.
When the projection unit 11 irradiates the imaging target region with illumination light for imaging, the imaging unit 12 can capture a bright image suitable for image processing. In this regard, according to the reading device 10, it is possible to improve the conditions for photographing the photographing object.

図8は、本発明に係る画像表示装置の最小構成の例を示す図である。図8に示す画像表示装置20は、投影部21と、撮影部22と、領域検出部23とを備える。
かかる構成にて、投影部21は、撮影対象物を載置する場所である載置場所に画像を投影する。撮影部22は、載置場所を撮影して画像を生成する。領域検出部23は、載置場所に撮影対象物が載置された場合に、撮影部22の撮影範囲における撮影対象領域を検出する。そして、投影部21は、撮影対象領域に撮影用の照明光を照射する。
投影部21が、撮影対象領域に撮影用の照明光を照射することで、撮影部22は、画像処理に適した明るい画像を撮影することができる。この点で、画像表示装置20によれば、撮影対象物を撮影する条件を向上させることができる。
FIG. 8 is a diagram showing an example of the minimum configuration of the image display apparatus according to the present invention. An image display device 20 illustrated in FIG. 8 includes a projection unit 21, a photographing unit 22, and a region detection unit 23.
With such a configuration, the projection unit 21 projects an image on a placement place that is a place on which the photographing object is placed. The imaging unit 22 captures the placement location and generates an image. The area detection unit 23 detects an imaging target area in the imaging range of the imaging unit 22 when an imaging object is placed on the placement location. Then, the projection unit 21 irradiates the imaging target area with illumination light for imaging.
The projection unit 21 irradiates the photographing target area with illumination light for photographing, so that the photographing unit 22 can photograph a bright image suitable for image processing. In this respect, according to the image display device 20, it is possible to improve the conditions for photographing the photographing object.

なお、制御部190の機能の全部または一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することで各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
It should be noted that a program for realizing all or part of the functions of the control unit 190 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. You may perform the process of. Here, the “computer system” includes an OS and hardware such as peripheral devices.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

1 複合装置
100 制御ユニット
130 操作入力部
180 記憶部
190 制御部
191 投影画像生成部
192 載置有無判定部
193 領域検出部
194 昇降制御部
195 撮影画像処理部
200 プロジェクタユニット
210 プロジェクタユニット筐体
220 投影部
300 スキャナユニット
310 スキャナユニット筐体
320 撮影部
330 昇降部
400 載置台
DESCRIPTION OF SYMBOLS 1 Compound apparatus 100 Control unit 130 Operation input part 180 Storage part 190 Control part 191 Projection image generation part 192 Mounting presence determination part 193 Area | region detection part 194 Elevation control part 195 Captured image processing part 200 Projector unit 210 Projector unit housing | casing 220 Projection Unit 300 scanner unit 310 scanner unit housing 320 imaging unit 330 elevating unit 400 mounting table

Claims (7)

撮影対象物を載置する場所である載置場所に画像を投影する投影部と、
前記載置場所を撮影して画像を生成する撮影部と、
前記載置場所に撮影対象物が載置された場合に、前記撮影部の撮影範囲における撮影対象領域を検出する領域検出部と、
を備え、
前記投影部は、前記撮影対象領域に撮影用の照明光を照射する
読取装置。
A projection unit for projecting an image onto a placement place that is a place to place a photographing object;
A photographing unit for photographing the place described above and generating an image;
An area detection unit that detects an imaging target area in an imaging range of the imaging unit when an imaging object is placed at the placement location;
With
The projection unit irradiates the imaging target region with illumination light for imaging.
撮影対象物を載置する場所である載置場所に画像を投影する投影部と、
前記載置場所を撮影して画像を生成する撮影部と、
前記載置場所に撮影対象物が載置された場合に、前記撮影部の撮影範囲における撮影対象領域を検出する領域検出部と、
を備え、
前記投影部は、前記撮影対象領域に撮影用の光を照射する
画像表示装置。
A projection unit for projecting an image onto a placement place that is a place to place a photographing object;
A photographing unit for photographing the place described above and generating an image;
An area detection unit that detects an imaging target area in an imaging range of the imaging unit when an imaging object is placed at the placement location;
With
The projection unit is an image display device that irradiates the photographing target region with light for photographing.
前記投影部は、前記載置場所のうち前記撮影対象領域以外の領域に前記画像を投影する、
請求項2に記載の画像表示装置。
The projection unit projects the image onto an area other than the imaging target area in the installation place.
The image display device according to claim 2.
前記載置場所への撮影対象物の載置の有無を判定する載置有無判定部を備え、
前記領域検出部は、前記載置有無判定部が前記載置場所への前記撮影対象物の載置有りと判定した場合に、前記撮影対象領域を検出する、
請求項2又は請求項3に記載の画像表示装置。
A mounting presence / absence determining unit that determines whether or not the object to be photographed is placed at the placement location;
The area detection unit detects the imaging target area when the placement determination unit determines that the imaging target is placed on the placement place,
The image display device according to claim 2.
前記投影部は、前記載置有無判定部が前記載置場所への前記撮影対象物の載置有りと判定した場合、投影可能範囲全体に撮影対象領域検出用の光を照射し、
前記領域検出部は、前記投影部が前記撮影対象領域検出用の光を照射している状態で前記撮影部が撮影した画像に基づいて、前記撮影対象領域を検出する、
請求項4に記載の画像表示装置。
The projection unit irradiates the entire projection possible range with light for imaging target area detection when the above-described setting presence / absence determination unit determines that the imaging target is placed on the installation location,
The area detection unit detects the imaging target area based on an image captured by the imaging unit in a state where the projection unit irradiates light for detecting the imaging target area.
The image display device according to claim 4.
撮影対象物を載置する場所である載置場所に画像を投影する投影部と、前記載置場所を撮影して画像を生成する撮影部と、を備える装置が、
前記載置場所に撮影対象物が載置された場合に、前記撮影部の撮影範囲における撮影対象領域を検出し、
前記撮影対象領域に撮影用の照明光を照射する、
ことを含む、処理方法。
An apparatus comprising: a projection unit that projects an image on a placement place that is a place on which a subject to be photographed is placed; and a photographing unit that shoots the placement place and generates an image.
When a shooting object is placed at the above-mentioned installation location, a shooting target area in the shooting range of the shooting unit is detected,
Irradiating the imaging target area with illumination light for imaging,
A processing method.
撮影対象物を載置する場所である載置場所に画像を投影する投影部と、前記載置場所を撮影して画像を生成する撮影部と、を備える装置を制御するコンピュータに、
前記載置場所に撮影対象物が載置された場合に、前記撮影部の撮影範囲における撮影対象領域を検出させ、
前記撮影対象領域に撮影用の照明光を照射するように前記投影部を制御させる、
ためのプログラム。
A computer that controls an apparatus including: a projection unit that projects an image on a placement location that is a location on which a subject to be photographed is placed; and a photographing unit that captures the placement location and generates an image.
When a photographing object is placed at the above-described placement location, the photographing target area in the photographing range of the photographing unit is detected,
Controlling the projection unit to irradiate the illuminating light for photographing to the photographing target region,
Program for.
JP2017072985A 2017-03-31 2017-03-31 Reading device, image display device, processing method and program Active JP6551451B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017072985A JP6551451B2 (en) 2017-03-31 2017-03-31 Reading device, image display device, processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017072985A JP6551451B2 (en) 2017-03-31 2017-03-31 Reading device, image display device, processing method and program

Publications (2)

Publication Number Publication Date
JP2018174506A true JP2018174506A (en) 2018-11-08
JP6551451B2 JP6551451B2 (en) 2019-07-31

Family

ID=64108900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017072985A Active JP6551451B2 (en) 2017-03-31 2017-03-31 Reading device, image display device, processing method and program

Country Status (1)

Country Link
JP (1) JP6551451B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102084414B1 (en) * 2018-11-15 2020-03-04 주식회사 레이젠 3D scanner and method for scanning thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101025A (en) * 2004-09-28 2006-04-13 Casio Comput Co Ltd Photographic apparatus, and image processing method and program thereof
JP2006163821A (en) * 2004-12-07 2006-06-22 Casio Comput Co Ltd Photographing device, image processor, image processing method, and program
JP2016105544A (en) * 2014-12-01 2016-06-09 キヤノン株式会社 Image reader
JP2016111689A (en) * 2014-12-01 2016-06-20 キヤノン株式会社 Image reading apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101025A (en) * 2004-09-28 2006-04-13 Casio Comput Co Ltd Photographic apparatus, and image processing method and program thereof
JP2006163821A (en) * 2004-12-07 2006-06-22 Casio Comput Co Ltd Photographing device, image processor, image processing method, and program
JP2016105544A (en) * 2014-12-01 2016-06-09 キヤノン株式会社 Image reader
JP2016111689A (en) * 2014-12-01 2016-06-20 キヤノン株式会社 Image reading apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102084414B1 (en) * 2018-11-15 2020-03-04 주식회사 레이젠 3D scanner and method for scanning thereof

Also Published As

Publication number Publication date
JP6551451B2 (en) 2019-07-31

Similar Documents

Publication Publication Date Title
CN103327273B (en) The control method of image processing apparatus, projector and projector
JP4872035B2 (en) Imaging apparatus, captured image distance measuring method, captured image distance measuring program, and recording medium
JP6459194B2 (en) Projector and projected image control method
KR20140081678A (en) Projection-type image display device, image projection method, and computer program
JP5420365B2 (en) Projection device
JP5239611B2 (en) Projection display apparatus and image correction method
US9470966B2 (en) Image projection apparatus and presentation system
JP2012008522A (en) Control device and projection type image display device
JP2019158414A (en) Information processing device
JP2016085380A (en) Controller, control method, and program
JP2005151310A (en) Installation adjustment system of projection-type image display device
JP2011176629A (en) Controller and projection type video display device
JP5491354B2 (en) Scanner device and method for detecting location of photographing object in scanner device
JP6551451B2 (en) Reading device, image display device, processing method and program
JP2006211046A (en) Photographing apparatus, image processing method for photographing apparatus, and program
JP6390163B2 (en) Information processing apparatus, information processing method, and program
JP5740843B2 (en) Electronics
JP2019169915A (en) Projection control device, projection apparatus, projection method and program
JP2007082004A (en) Image input device and image input method
JP2019016843A (en) Document reading device, control method of document reading device, and program
JP2005159426A (en) Projector with automatic trapezoidal distortion correcting means
JP6402797B1 (en) Imaging apparatus, image acquisition method, and program
JP2008288630A (en) Image projector
JP2020014123A (en) Image processing apparatus and program
JP2005150818A (en) Projector system provided with computer including distortion correction means

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190617

R150 Certificate of patent or registration of utility model

Ref document number: 6551451

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150