Nothing Special   »   [go: up one dir, main page]

JP2023030420A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2023030420A
JP2023030420A JP2021135539A JP2021135539A JP2023030420A JP 2023030420 A JP2023030420 A JP 2023030420A JP 2021135539 A JP2021135539 A JP 2021135539A JP 2021135539 A JP2021135539 A JP 2021135539A JP 2023030420 A JP2023030420 A JP 2023030420A
Authority
JP
Japan
Prior art keywords
image
image data
specific object
position information
information group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021135539A
Other languages
Japanese (ja)
Inventor
裕行 馬場
Hiroyuki Baba
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2021135539A priority Critical patent/JP2023030420A/en
Publication of JP2023030420A publication Critical patent/JP2023030420A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

To improve processing efficiency in image processing till obtaining processed image data in accordance with a result of detecting a specific object image.SOLUTION: An image processing apparatus 70 which performs image processing on a region including a specific object image included in high-resolution image data includes: an image resizing unit 70a which reduces the high-resolution image data at a predetermined magnification to obtain low-resolution resized image data; a specific object image detection unit 70c which detects a first position information group related to the specific object image from the low-resolution resized image data obtained by the image resizing unit 70a; and an image processing unit 70g which converts, when the specific object image detection unit 70c detects the first position information group, the first position information group into a second position information group in accordance with an inverse number value of the predetermined magnification, and processes only an image of a region included in the second position information group in the high-resolution image data, to generate processed image data.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.

従来、画像形成装置には画像処理の機能が搭載されている。例えば、画像データから特定の物体画像を検出しておき、画像データに対して当該物体画像の領域に加工処理を施した後に加工画像データを得ることで、コピー出力に用いる画像データを得ていた。
従来、加工画像データを得るための画像処理では、
(1)高解像度の画像データから画素を間引いた低解像度の画像データを生成しておき、
(2)次に、低解像度の画像データから物体画像の位置を検出し、
(3)さらに、(2)で検出した物体画像の位置を用いて、高解像度の画像データを読み出して詳細な物体画像の位置検出を行い(形状や数字などを解析)、
(4)次に、検出した物体画像の位置に応じて高解像度の画像データを加工する、
という順序で画像処理を行っていた。
このように(1)~(4)の順に処理を行っていため、コピー出力に用いる画像データとなる加工画像データを得るには、画像処理における処理効率が低下するという問題があった。
2. Description of the Related Art Conventionally, an image forming apparatus has an image processing function. For example, image data used for copy output is obtained by detecting a specific object image from image data in advance and obtaining processed image data after performing processing on the area of the object image in the image data. .
Conventionally, in image processing for obtaining processed image data,
(1) generating low-resolution image data by thinning pixels from high-resolution image data;
(2) Next, detect the position of the object image from the low-resolution image data,
(3) Further, using the position of the object image detected in (2), high-resolution image data is read out to detect the detailed position of the object image (analyze shape, numbers, etc.),
(4) Next, process the high-resolution image data according to the position of the detected object image.
Image processing was performed in this order.
Since the processes (1) to (4) are performed in this order, there is a problem that the processing efficiency in the image processing is lowered in order to obtain the processed image data to be used for the copy output.

特許文献1に記載された発明は、高解像度カメラの画像をリアルタイム処理する画像センサのバス容量や性能をカメラに応じてアップさせずに従来のままで、一次判定用画像の認識精度アップを図ることを目的としていた。一次判定用画像データ(物体検知用)として、高解像度カメラの撮影画像(原画像データv)を一定比率で間引き処理した縮小画像データv1を用いる。検出処理部は、このv1に基づいて車の移動・変化などを検知した場合、フレームバッファ部の二次判定用の原画像データvの転送要求を転送制御部に送り、また、検知画素領域を示す検知位置アドレスを詳細解析部に送る。詳細解析部は、この転送要求に基づいて受信した原画像データvの検知位置アドレス部分の形状や数字などを解析する。(v-v1)をフレームバッファ部に保持する場合や、アドレス生成部が検知位置アドレスに基づいて解析対象範囲の原画像データのみを詳細解析部に転送する場合も開示している。
すなわち、特許文献1にあっては、物体画像の検出処理を行うことを目的として、低解像度の画像に対する処理と、高解像度の画像に対する処理とを行う構成が開示されている。しかし、コピー出力に用いる画像データを得るまでの画像処理における処理効率が低下するという問題は解消できていない。
The invention described in Patent Document 1 aims to improve the recognition accuracy of images for primary judgment without increasing the bus capacity and performance of an image sensor that processes high-resolution camera images in real time according to the camera. was intended to As image data for primary determination (for object detection), reduced image data v1 obtained by thinning an image captured by a high-resolution camera (original image data v) at a constant ratio is used. When the detection processing unit detects the movement or change of the car based on v1, the detection processing unit sends a transfer request for the original image data v for secondary judgment of the frame buffer unit to the transfer control unit, and also sets the detection pixel area to The indicated detection position address is sent to the detailed analysis unit. Based on this transfer request, the detailed analysis section analyzes the shape, number, etc. of the detection position address portion of the original image data v received. It also discloses a case where (v−v1) is held in the frame buffer unit, and a case where the address generation unit transfers only the original image data of the analysis target range to the detailed analysis unit based on the detection position address.
That is, Japanese Patent Application Laid-Open No. 2002-200002 discloses a configuration for performing processing on a low-resolution image and processing on a high-resolution image for the purpose of performing object image detection processing. However, the problem that the processing efficiency in the image processing until obtaining the image data to be used for copy output is lowered has not been solved.

本発明の一実施形態は、上記に鑑みてなされたもので、その目的は、特定の物体画像の検出結果に応じて加工画像データを得るまでの画像処理における処理効率を向上することにある。 An embodiment of the present invention has been made in view of the above, and its object is to improve processing efficiency in image processing up to obtaining processed image data according to the detection result of a specific object image.

上記課題を解決するために、請求項1記載の発明は、高解像度の画像データに含まれる特定の物体画像を含む領域に対して画像加工を実施する画像処理装置であって、前記高解像度の画像データを所定の変倍率で縮小して、低解像度の変倍画像データを得る画像サイズ変倍部と、前記画像サイズ変倍部により得られた低解像度の変倍画像データから前記特定の物体画像に係わる第1位置情報群を検出する特定物体画像検出部と、前記特定物体画像検出部が前記第1位置情報群を検出した場合に、前記所定の変倍率の逆数値に応じて当該第1位置情報群を第2位置情報群に変換し、前記高解像度の画像データ内の前記第2位置情報群に含まれる領域の画像のみを加工して、加工画像データを生成する画像加工部と、を備えることを特徴とする。 In order to solve the above-mentioned problems, the invention according to claim 1 is an image processing apparatus for performing image processing on a region including a specific object image included in high-resolution image data, wherein the high-resolution image data includes: an image size scaling unit that reduces image data by a predetermined scaling ratio to obtain low-resolution scaled image data; and the specific object from the low-resolution scaled image data obtained by the image size scaling unit. a specific object image detection unit for detecting a first position information group related to an image; an image processing unit that converts a first group of positional information into a second group of positional information and processes only an image of an area included in the second group of positional information in the high-resolution image data to generate processed image data; , is provided.

本発明によれば、特定の物体画像の検出結果に応じて、加工画像データを得るまでの画像処理における処理効率の低下を防止することができる。 According to the present invention, it is possible to prevent a decrease in processing efficiency in image processing until processed image data is obtained according to the detection result of a specific object image.

本発明の実施形態に係わる画像処理装置を含む画像形成装置のハードウェア構成を示すブロック図である。1 is a block diagram showing the hardware configuration of an image forming apparatus including an image processing apparatus according to an embodiment of the invention; FIG. 本発明の実施形態に係わる画像処理装置の機能ブロック図である。1 is a functional block diagram of an image processing device according to an embodiment of the present invention; FIG. 本発明の実施形態に係わる画像処理装置による画像処理の概要を表すフローチャートである。4 is a flow chart showing an outline of image processing by the image processing apparatus according to the embodiment of the present invention; (a)は画像データの読取に用いる前段画像処理部、(b)は画像データの書込に用いる後段画像処理部を示す図である。3A shows a front-stage image processing unit used for reading image data, and FIG. 3B shows a rear-stage image processing unit used for writing image data; FIG. 本発明の実施形態に係わる画像処理装置による物体画像の検出に用いる画像処理の動作を表すフローチャートである。4 is a flow chart showing operation of image processing used for object image detection by the image processing apparatus according to the embodiment of the present invention. 本発明の実施形態に係わる画像処理装置による検出結果に応じた画像処理の動作を表すフローチャートである。5 is a flow chart showing the operation of image processing according to detection results by the image processing apparatus according to the embodiment of the present invention; 本発明の実施形態に係わる画像処理装置による顔画像の検出結果に応じた画像処理の動作を表すフローチャートである。4 is a flow chart showing the operation of image processing according to the face image detection result by the image processing apparatus according to the embodiment of the present invention. 本発明の実施形態に係わる画像処理装置による検出結果に応じた画像処理の動作を表すフローチャートである。5 is a flow chart showing the operation of image processing according to detection results by the image processing apparatus according to the embodiment of the present invention; 本発明の実施形態に係わる画像処理装置による特定のm×nサイズの画像で物体画像の検出を行う画像処理の詳細を表すフローチャートである。4 is a flow chart showing details of image processing for detecting an object image in a specific m×n size image by the image processing apparatus according to the embodiment of the present invention. 本発明の実施形態に係わる画像処理装置による特定の物体画像とコピー出力に用いる画像を示す説明図である。FIG. 4 is an explanatory diagram showing a specific object image and an image used for copy output by the image processing apparatus according to the embodiment of the present invention;

以下、本発明を図面に示した実施の形態により詳細に説明する。
本発明は、特定の物体画像の検出結果に応じて加工画像データを得るまでの画像処理における処理効率を向上するために、以下の構成を有する。
すなわち、本発明の画像処理装置は、高解像度の画像データに含まれる特定の物体画像を含む領域に対して画像を加工する画像処理装置であって、高解像度の画像データを所定の変倍率で縮小して、低解像度の変倍画像データを得る画像サイズ変倍部と、画像サイズ変倍部により得られた低解像度の変倍画像データから特定の物体画像に係わる第1位置情報群を検出する特定物体画像検出部と、特定物体画像検出部が第1位置情報群を検出した場合に、所定の変倍率の逆数値に応じて当該第1位置情報群を第2位置情報群に変換し、高解像度の画像データ内の第2位置情報群に含まれる領域の画像のみを加工して、加工画像データを生成する画像加工部と、を備えることを特徴とする。
以上の構成を備えることにより、特定の物体画像の検出結果に応じて加工画像データを得るまでの画像処理における処理効率を向上することができる。
上記記載の本発明の特徴について、以下の図面を用いて詳細に解説する。但し、この実施形態に記載される構成要素、種類、組み合わせ、形状、その相対配置などは特定的な記載がない限り、この発明の範囲をそれのみに限定する主旨ではなく単なる説明例に過ぎない。
上記の本発明の特徴に関して、以下、図面を用いて詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will now be described in detail with reference to embodiments shown in the drawings.
The present invention has the following configuration in order to improve processing efficiency in image processing up to obtaining processed image data according to the detection result of a specific object image.
That is, the image processing apparatus of the present invention is an image processing apparatus that processes an image of a region containing a specific object image included in high-resolution image data, and processes high-resolution image data at a predetermined scaling factor. An image size scaling unit for reducing and obtaining low-resolution scaled image data, and detecting a first position information group related to a specific object image from the low-resolution scaled image data obtained by the image size scaling unit. and when the specific object image detection unit detects the first position information group, the first position information group is converted into the second position information group according to the reciprocal value of the predetermined scaling factor. and an image processing unit that processes only the image of the area included in the second position information group in the high-resolution image data to generate processed image data.
By providing the above configuration, it is possible to improve the processing efficiency in the image processing until the processed image data is obtained according to the detection result of the specific object image.
The features of the invention described above will be explained in detail with reference to the following drawings. However, unless there is a specific description, the components, types, combinations, shapes, relative arrangements, and the like described in this embodiment are merely illustrative examples and not intended to limit the scope of the present invention. .
The features of the present invention described above will be described in detail below with reference to the drawings.

<画像形成装置のハードウェア構成>
図1は、本発明の実施形態に係わる画像処理装置を含む画像形成装置のハードウェア構成を示すブロック図である。
図1は、画像形成装置の一例であるMFPのハードウェア構成図である。図1に示されているように、MFP(Multifunction Peripheral/Product/Printer)は、コントローラ20、近距離通信回路60、エンジン制御部30、操作装置40、ネットワークI/F50を備えている。
これらのうち、コントローラ20は、コンピュータの主要部であるCPU25a、システムメモリ(MEM-P)22、ノースブリッジ(NB)25b、サウスブリッジ(SB)24、ASIC(Application Specific Integrated Circuit)26、記憶部であるローカルメモリ(MEM-C)27、HDDコントローラ28、及び、記憶部であるHD29を有し、NB25bとASIC26との間をAGP(Accelerated Graphics Port)バス21で接続した構成となっている。
これらのうち、CPU25aは、MFP10の全体制御を行う制御部である。NB25bは、CPU25aと、MEM-P22、SB24、及びAGPバス21とを接続するためのブリッジであり、MEM-P22に対する読み書きなどを制御するメモリコントローラと、PCI(Peripheral Component Interconnect)マスタ及びAGPターゲットとを有する。
<Hardware Configuration of Image Forming Apparatus>
FIG. 1 is a block diagram showing the hardware configuration of an image forming apparatus including an image processing apparatus according to an embodiment of the invention.
FIG. 1 is a hardware configuration diagram of an MFP, which is an example of an image forming apparatus. As shown in FIG. 1, an MFP (Multifunction Peripheral/Product/Printer) includes a controller 20, a short-range communication circuit 60, an engine control section 30, an operating device 40, and a network I/F50.
Among them, the controller 20 includes a CPU 25a, a system memory (MEM-P) 22, a north bridge (NB) 25b, a south bridge (SB) 24, an ASIC (Application Specific Integrated Circuit) 26, a storage unit, which are the main parts of the computer. , a local memory (MEM-C) 27, an HDD controller 28, and an HD 29, which is a storage unit.
Among these, the CPU 25 a is a control unit that performs overall control of the MFP 10 . The NB 25b is a bridge for connecting the CPU 25a, the MEM-P 22, the SB 24, and the AGP bus 21. The NB 25b is a memory controller that controls reading and writing with respect to the MEM-P 22, a PCI (Peripheral Component Interconnect) master, and an AGP target. have

MEM-P22は、コントローラ20の各機能を実現させるプログラムやデータの格納用メモリであるROM22a、プログラムやデータの展開、及びメモリ印刷時の描画用メモリなどとして用いるRAM22bとからなる。なお、RAM22bに記憶されているプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、CD-R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。 The MEM-P 22 consists of a ROM 22a, which is a memory for storing programs and data for realizing each function of the controller 20, and a RAM 22b, which is used as a drawing memory for developing programs and data and for memory printing. The program stored in the RAM 22b is configured to be provided by being recorded in a computer-readable recording medium such as a CD-ROM, CD-R, DVD, etc. as a file in an installable format or an executable format. You may

SB24は、NB25bとPCIデバイス、周辺デバイスとを接続するためのブリッジである。ASIC26は、画像処理用のハードウェア要素を有する画像処理用途向けのIC(Integrated Circuit)であり、AGPバス21、PCIバス23、HDDコントローラ28およびMEM-C27をそれぞれ接続するブリッジの役割を有する。このASIC26は、PCIターゲットおよびAGPマスタ、ASIC26の中核をなすアービタ(ARB)、MEM-C27を制御するメモリコントローラ、ハードウェアロジックなどにより画像データの回転などを行う複数のDMAC(Direct Memory Access Controller)、並びに、スキャナ部31及びプリンタ部32との間でPCIバス23を介したデータ転送を行うPCIユニットとからなる。なお、ASIC26には、USB(Universal Serial Bus)のインターフェースや、IEEE1394(Institute of Electrical and Electronics Engineers 1394)のインターフェースを接続するようにしてもよい。 The SB 24 is a bridge for connecting the NB 25b with PCI devices and peripheral devices. The ASIC 26 is an image processing IC (Integrated Circuit) having hardware elements for image processing, and serves as a bridge connecting the AGP bus 21, PCI bus 23, HDD controller 28 and MEM-C 27, respectively. This ASIC 26 includes a PCI target and AGP master, an arbiter (ARB) that forms the core of the ASIC 26, a memory controller that controls the MEM-C 27, and multiple DMACs (Direct Memory Access Controllers) that rotate image data using hardware logic. , and a PCI unit for transferring data between the scanner section 31 and the printer section 32 via the PCI bus 23 . The ASIC 26 may be connected to a USB (Universal Serial Bus) interface or an IEEE 1394 (Institute of Electrical and Electronics Engineers 1394) interface.

MEM-C27は、コピー用画像バッファ及び符号バッファとして用いるローカルメモリである。HD29は、画像データの蓄積、印刷時に用いるフォントデータの蓄積、フォームの蓄積を行うためのストレージである。HD29は、CPU25aの制御にしたがってHD29に対するデータの読出又は書込を制御する。AGPバス21は、グラフィック処理を高速化するために提案されたグラフィックスアクセラレータカード用のバスインタフェースであり、MEM-P22に高スループットで直接アクセスすることにより、グラフィックスアクセラレータカードを高速にすることができる。
また、近距離通信回路60には、近距離通信回路60aが備わっている。近距離通信回路60は、NFC、Bluetooth等の通信回路である。
MEM-C27 is a local memory used as a copy image buffer and code buffer. The HD 29 is a storage for accumulating image data, accumulating font data used for printing, and accumulating forms. The HD 29 controls reading or writing of data to or from the HD 29 under the control of the CPU 25a. The AGP bus 21 is a bus interface for graphics accelerator cards proposed for speeding up graphics processing, and by directly accessing the MEM-P 22 with high throughput, the graphics accelerator card can be speeded up. .
The short-range communication circuit 60 also includes a short-range communication circuit 60a. The short-range communication circuit 60 is a communication circuit for NFC, Bluetooth, or the like.

更に、エンジン制御部30は、スキャナ部31及びプリンタ部32によって構成されている。また、操作装置40は、現在の設定値や選択画面等を表示させ、操作者からの入力を受け付けるタッチパネル等のパネル表示部40a、並びに、濃度の設定条件などの画像形成に関する条件の設定値を受け付けるテンキー及びコピー開始指示を受け付けるスタートキー等からなる操作パネル40bを備えている。コントローラ20は、MFP全体の制御を行い、例えば、描画、通信、操作装置40からの入力等を制御する。スキャナ部31又はプリンタ部32には、誤差拡散やガンマ変換などの画像処理部分が含まれている。 Further, the engine control section 30 is composed of a scanner section 31 and a printer section 32 . The operation device 40 also displays a current setting value, a selection screen, etc., and displays a panel display unit 40a such as a touch panel for receiving an input from an operator, and a setting value of conditions related to image formation such as a setting condition of density. An operation panel 40b is provided which includes a numeric keypad for accepting a copy start instruction, a start key for accepting a copy start instruction, and the like. The controller 20 controls the entire MFP, such as drawing, communication, and input from the operation device 40 . The scanner section 31 or the printer section 32 includes an image processing section such as error diffusion and gamma conversion.

なお、MFPは、操作装置40のアプリケーション切り替えキーにより、ドキュメントボックス機能、コピー機能、プリンタ機能、およびファクシミリ機能を順次に切り替えて選択することが可能となる。ドキュメントボックス機能の選択時にはドキュメントボックスモードとなり、コピー機能の選択時にはコピーモードとなり、プリンタ機能の選択時にはプリンタモードとなり、ファクシミリモードの選択時にはファクシミリモードとなる。 Note that the MFP can switch and select the document box function, the copy function, the printer function, and the facsimile function in sequence using the application switching key of the operation device 40 . The document box mode is set when the document box function is selected, the copy mode is set when the copy function is selected, the printer mode is set when the printer function is selected, and the facsimile mode is set when the facsimile mode is selected.

また、ネットワークI/F50は、通信ネットワークを利用してデータ通信をするためのインターフェースである。近距離通信回路60及びネットワークI/F50は、PCIバス23を介して、ASIC26に電気的に接続されている。
コントローラ20は、操作装置40を通して発行されるコマンド、或は外部機が発行するコマンドを受け付け、コマンドに指示されたジョブの処理を実行する。
この中でもエンジン制御部30からプリンタ部32に関わる箇所が本発明に係る部分であり、この点を中心に説明する。以下、エンジン制御部30の一部であるプロッタ制御部30pについて説明する。
A network I/F 50 is an interface for data communication using a communication network. The short-range communication circuit 60 and network I/F 50 are electrically connected to the ASIC 26 via the PCI bus 23 .
The controller 20 accepts a command issued through the operation device 40 or a command issued by an external device, and executes job processing instructed by the command.
Among these, the portion related to the printer portion 32 from the engine control portion 30 is the portion related to the present invention, and the description will focus on this point. The plotter control section 30p, which is a part of the engine control section 30, will be described below.

<機能ブロック図>
図2は、本発明の実施形態に係わる画像処理装置の機能ブロック図である。
図2に示す画像処理装置70は、高解像度の画像データに含まれる特定の物体画像の領域に対して画像を加工する。
画像処理装置70は、上述したプロッタ制御部30pを起動することにより機能する各部、すなわち、画像サイズ変倍部70a、特定物体画像検出部70c、判定部70f、画像加工部70gを備えている。
<Functional block diagram>
FIG. 2 is a functional block diagram of the image processing apparatus according to the embodiment of the invention.
The image processing device 70 shown in FIG. 2 processes an image of a specific object image area included in high-resolution image data.
The image processing apparatus 70 includes units that function by activating the plotter control unit 30p described above, that is, an image size scaling unit 70a, a specific object image detection unit 70c, a determination unit 70f, and an image processing unit 70g.

画像サイズ変倍部70aは、高解像度の画像データを所定の変倍率で縮小して、低解像度の変倍画像データを得る。
特定物体画像検出部70cは、位置検出部70dを備え、画像サイズ変倍部70aにより得られた低解像度の変倍画像データから特定の物体画像に係わる第1位置情報群を検出する。
画像加工部70gは、特定物体画像検出部70cが第1位置情報群を検出した場合に、所定の変倍率の逆数値に応じて当該第1位置情報群を第2位置情報群に変換し、高解像度の画像データ内の第2位置情報群に含まれる領域の画像のみを加工して、加工画像データを生成する。
The image size scaling unit 70a reduces the high resolution image data by a predetermined scaling factor to obtain low resolution scaled image data.
The specific object image detection unit 70c includes a position detection unit 70d, and detects a first position information group related to a specific object image from the low-resolution scaled image data obtained by the image size scaling unit 70a.
When the specific object image detection unit 70c detects the first position information group, the image processing unit 70g converts the first position information group into a second position information group according to the reciprocal value of a predetermined scaling factor, Only the image of the area included in the second position information group in the high-resolution image data is processed to generate processed image data.

特定物体画像検出部70cは、特定の物体画像が顔画像である場合に、顔画像に係わる第1位置情報群を検出し、画像加工部70gは、顔画像に係わる第1位置情報群を検出した場合に、位置検出部により検出された顔画像に係わる第2位置情報群に含まれる領域の画像を加工する。 When the specific object image is a face image, the specific object image detection unit 70c detects the first position information group related to the face image, and the image processing unit 70g detects the first position information group related to the face image. If so, the image of the area included in the second position information group related to the face image detected by the position detection unit is processed.

特定物体画像検出部70cは、QRコード(登録商標)検出部70eを備え、特定の物体画像がQRコード(登録商標)である場合に、QRコード(登録商標)が表すデータを抽出し、かつQRコード(登録商標)に係わる第1位置情報群を検出し、画像加工部70gは、QRコード(登録商標)が表すデータに複写禁止データが含まれている場合に、QRコード(登録商標)に係わる第2位置情報群に含まれる領域の画像を加工する。 The specific object image detection unit 70c includes a QR code (registered trademark) detection unit 70e, extracts data represented by the QR code (registered trademark) when the specific object image is a QR code (registered trademark), and Detecting the first position information group related to the QR code (registered trademark), the image processing unit 70g detects the copy prohibited data in the data represented by the QR code (registered trademark). The image of the area included in the second position information group related to is processed.

画像サイズ変倍部70aは、画像データのサイズをm×nの固定サイズに縮小する。 The image size scaling unit 70a reduces the size of image data to a fixed size of m×n.

画像サイズ変倍部70aは、変倍画像データから特定の物体画像を検出する際の推論処理に用いるニューラルネットワークを備え、固定サイズは、ニューラルネットワークにおいて処理可能なサイズである。 The image size scaling unit 70a has a neural network used for inference processing when detecting a specific object image from scaled image data, and the fixed size is a size that can be processed by the neural network.

上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiments described above may be implemented by one or more processing circuits. Here, the "processing circuit" in this specification means a processor programmed by software to perform each function, such as a processor implemented by an electronic circuit, or a processor designed to perform each function described above. ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), FPGAs (field programmable gate arrays) and devices such as conventional circuit modules.

<画像処理の概要>
図3は、本発明の実施形態に係わる画像処理装置による画像処理の概要を表すフローチャートである。図3を参照して、全体の処理の流れについて説明する。
ステップS10では、プロッタ制御部30pは、スキャナ部31に原稿をスキャンさせ、得た高解像度の画像データをRAM22bに展開する。プロッタ制御部30pは、RAM22bに展開した画像データに対して下記2つの並列処理を行う。
ステップS15では、プロッタ制御部30pは、コピー出力に用いる画像データのための画像処理を行い、コピー出力に用いる画像データは、プリンタ部32の出力解像度に合わせて出力する。
<Outline of image processing>
FIG. 3 is a flow chart showing an outline of image processing by the image processing apparatus according to the embodiment of the present invention. The overall processing flow will be described with reference to FIG.
In step S10, the plotter control section 30p causes the scanner section 31 to scan the document, and develops the obtained high-resolution image data in the RAM 22b. The plotter control unit 30p performs the following two parallel processes on the image data developed in the RAM 22b.
In step S15, the plotter control unit 30p performs image processing for the image data used for copy output, and outputs the image data used for copy output according to the output resolution of the printer unit 32. FIG.

ステップS20では、特定物体画像検出部70cは、物体画像を検出するための画像処理を行う。物体画像の検出処理では、高解像度のままの画像データでも検出処理を行える場合が多いが、画素数に比例して処理時間が増大する。
検出処理のアルゴリズムにも依存するが、検出精度は解像度を高くした方が検出精度を向上する効果がある。しかし、一定の解像度以上になると検出精度の向上する効果が大きく上がらなくなる。一方、処理時間は解像度が大きくなるほど大きくなる。
そこで、物体画像の検出に用いる画像処理は、目的によって、スキャンして得た画像データの中にある特定の物体画像の有無を検出したり、その物体画像の領域の位置を特定したりする。
In step S20, the specific object image detection unit 70c performs image processing for detecting an object image. In object image detection processing, it is often possible to perform detection processing even with high-resolution image data, but the processing time increases in proportion to the number of pixels.
Although it depends on the detection processing algorithm, the detection accuracy is more effective when the resolution is increased. However, when the resolution exceeds a certain level, the effect of improving the detection accuracy does not increase significantly. On the other hand, the processing time increases as the resolution increases.
Therefore, depending on the purpose, the image processing used for object image detection detects the presence or absence of a specific object image in the image data obtained by scanning, or specifies the position of the area of the object image.

ステップS25では、画像加工部70gは、図4(b)に示す後段画像処理部90bにおいて、検出結果に応じてコピー出力に用いる画像データの画像処理を行い、すなわち、コピー出力に用いる画像データに対して加工処理を行う。
一例として、特定のQRコード(登録商標)の情報が書かれた原稿はコピー禁止にしたい場合は、コピー出力に用いる画像データを特定の画像パターン、モザイク処理や黒塗り処理に置き換える。このような処理の説明図としては、図10(a)(b)を参照されたい。
また、個人情報保護の目的で顔写真にコピーさせたくない場合、例えば運転免許証画像の顔の領域にモザイク処理や黒塗り処理を行う。このような処理の説明図としては、図10(c)(d)を参照されたい。
ステップS30では、プロッタ制御部30pは、加工処理済みの画像データをプリンタ部32に送り、画像データを記録媒体に印刷して出力する。
In step S25, the image processing unit 70g performs image processing on the image data used for copy output according to the detection result in the post-stage image processing unit 90b shown in FIG. Processing is performed on the material.
As an example, if it is desired to prohibit copying of a document on which specific QR code (registered trademark) information is written, the image data used for copy output is replaced with a specific image pattern, mosaic processing, or black painting processing. See FIGS. 10A and 10B for explanatory diagrams of such processing.
In addition, if it is desired not to copy the face photograph for the purpose of personal information protection, for example, the face area of the driver's license image is subjected to mosaic processing or blackening processing. See FIGS. 10(c) and 10(d) for explanatory diagrams of such processing.
In step S30, the plotter control section 30p sends the processed image data to the printer section 32 and prints the image data on a recording medium.

<画像処理部の構成例>
図4は、本発明の実施形態に係わる画像処理装置に含まれる画像処理部の構成例を示す図であり、(a)は画像データの読取に用いる前段画像処理部、(b)は画像データの書込に用いる後段画像処理部を示す図である。
図4(a)に示す取に用いる前段画像処理部90aは、スキャナに備えられてもよく、読取時の画像処理だけを行う。
図4(b)に示す書込に用いる後段画像処理部90bでは、必ずしも記録媒体に印刷する場合だけでなく、モニタなどの表示装置に表示する場合でもよく、プリンタなどの書込装置は出力時の画像処理だけを行う。
<Configuration example of image processing unit>
FIG. 4 is a diagram showing a configuration example of an image processing unit included in the image processing apparatus according to the embodiment of the present invention, where (a) is a front-stage image processing unit used for reading image data, and (b) is an image data is a diagram showing a post-stage image processing unit used for writing of .
The pre-stage image processing unit 90a used for scanning shown in FIG. 4A may be provided in the scanner, and performs only image processing during reading.
In the post-stage image processing unit 90b used for writing shown in FIG. 4B, not only printing on a recording medium but also displaying on a display device such as a monitor may be performed. image processing only.

図1に示すMFPは、読取に用いる前段画像処理部90aと、書込に用いる後段画像処理部90bの両方を備えている。
また、MFPやスキャナのスキャン画像やプリンタのプリント画像は、画像データの再利用のために画像処理が終わると、一旦メモリまたは外部記憶装置に保持できるような構成になっている。
MFPの画像処理部は、図4(a)(b)に示すように、主に読取装置の画像データに対する処理を行なう前段画像処理部90aと、主に書込装置のための処理を行なう後段画像処理部90bを含む構成となっている。
The MFP shown in FIG. 1 includes both a front-stage image processing unit 90a used for reading and a rear-stage image processing unit 90b used for writing.
Scanned images of MFPs and scanners and printed images of printers are configured so that they can be temporarily stored in a memory or an external storage device after image processing is completed for reuse of the image data.
As shown in FIGS. 4A and 4B, the image processing section of the MFP includes a front-stage image processing section 90a that mainly processes image data of the reading device, and a rear-stage image processing section 90a that mainly performs processing for the writing device. The configuration includes an image processing unit 90b.

<読取装置用の画像処理>
図4(a)に示すように、前段画像処理部90aは、ライン間補正処理部91a、像域分離処理部91b、変倍処理部91c、γ変換処理部91d、フィルタ処理部91e、色変換処理部91fを含む構成となっている。
ライン間補正処理部91aは、カラーCCDの各RGBの取り付け位置の差によって生じるそれぞれRGB間のラインずれを補正する処理である。例えば、B(ブルー)のラインを基準とした場合、R(レッド)とB、G(グリーン)とBの間のラインずれ量を補正する処理を行う。
像域分離処理部91bでは、画像データの特徴から絵柄部、文字部、網点部などの像域分離情報Xを生成する。後段画像処理部90bのフィルタ処理やγ変換処理でこの分離情報を使ってそれぞれの領域に適した画像処理パラメータを設定して処理する。
<Image processing for reading device>
As shown in FIG. 4A, the front-stage image processing unit 90a includes a line-to-line correction processing unit 91a, an image area separation processing unit 91b, a scaling processing unit 91c, a γ conversion processing unit 91d, a filter processing unit 91e, a color conversion It has a configuration including a processing unit 91f.
The line-to-line correction processing unit 91a is a process for correcting a line shift between RGB caused by a difference in mounting position of each RGB of the color CCD. For example, when the B (blue) line is used as a reference, a process of correcting the amount of line deviation between R (red) and B and between G (green) and B is performed.
The image area separation processing unit 91b generates image area separation information X such as a pattern portion, a character portion, and a halftone dot portion from the features of the image data. This separation information is used in the filter processing and γ conversion processing of the post-stage image processing unit 90b to set image processing parameters suitable for each region.

変倍処理部91cでは、読取の解像度から所望の解像度に変換するための処理を行う。
γ変換処理部91dは、主に濃度調整を目的とした変換処理で、一般的にルックアップテーブル変換と呼ぶ方式を用いる。
フィルタ処理部91eでは、MTF補正、鮮鋭化、平滑化を目的としたフィルタ処理演算を行う。
色変換処理部91fでは、メモリコントローラ80に蓄積するための共通の色空間への変換処理を行なう。また自動カラー判定が選択されているときには、RGBデータからK(モノクロ)データを生成する。このモノクロデータを単純2値化し、8bitのデータに8画素のデータとしてパッキングする。メモリコントローラ80には、RGBKの4chの画像データを転送する。通常のカラーデータの読取ではRGBの3chの画像データを転送する。その他にPDFファイルなど、分離情報が必要とするアプリケーションがある場合は、RGBデータと像域分離情報の4chのデータをメモリコントローラ80に転送する。
The variable magnification processing unit 91c performs processing for converting the read resolution to a desired resolution.
The γ conversion processing unit 91d performs conversion processing mainly for density adjustment, and generally uses a method called lookup table conversion.
The filter processing unit 91e performs filter processing calculations for the purpose of MTF correction, sharpening, and smoothing.
The color conversion processing unit 91f performs conversion processing to a common color space for storage in the memory controller 80. FIG. Also, when automatic color determination is selected, K (monochrome) data is generated from RGB data. This monochrome data is simply binarized and packed into 8-bit data as 8-pixel data. RGBK 4ch image data is transferred to the memory controller 80 . In normal color data reading, RGB 3-channel image data is transferred. In addition, if there is an application that requires separation information, such as a PDF file, 4ch data of RGB data and image area separation information is transferred to the memory controller 80 .

<書込装置用の画像処理>
図4(b)に示すように、後段画像処理部90bは、色変換処理部92b、階調変換処理部92cを含む構成となっている。
色変換処理部92bでは、蓄積されたデータRGBを入力データとして、出力デバイスの色空間、例えば、CMYK色空間に変換するための処理を行う。なお、カラー出力の場合は、RGB各成分に対して上記の処理を行い、モノクロ出力の場合は、RGBからモノクロデータを生成する。
書込装置が1bitであり、2階調まで出力可能な場合の固定しきい値を用いて、2値化による階調変換について説明する。2値画像を所望する場合、図4(b)に示す階調変換処理部92cにより、8bit、256階調のCMYKそれぞれ画像を2階調の2値画像データに変換し、画像データbとして後段画像処理部90bに送る。
ここでは、説明を簡単にするため、固定しきい値処理の一例を挙げると、2値化しきい値が128である場合に、処理部の入力画像の画素データに対して、下記の条件によって2値化を行う。
0 ≦ 画素データ < 128が真ならば 0
128 ≦ 画素データ ≦ 255 が真ならば 1
<Image processing for writing device>
As shown in FIG. 4B, the post-stage image processing section 90b includes a color conversion processing section 92b and a gradation conversion processing section 92c.
The color conversion processing unit 92b performs processing for converting the accumulated data RGB as input data into the color space of the output device, for example, the CMYK color space. In the case of color output, the above processing is performed for each of the RGB components, and in the case of monochrome output, monochrome data is generated from RGB.
Gradation conversion by binarization will be described using a fixed threshold when the writing device is 1-bit and can output up to 2 gradations. When a binary image is desired, the gradation conversion processing unit 92c shown in FIG. It is sent to the image processing section 90b.
Here, to simplify the explanation, an example of fixed threshold processing will be given. value.
0 ≤ pixel data < 0 if 128 is true
1 if 128 ≤ pixel data ≤ 255 is true

次に、書込装置が2bit、4値まで出力可能な場合の固定しきい値4値化による階調変換について説明する。4値画像を所望する場合、階調変換処理部92cにより、CMYKそれぞれ8bit、256階調の画像を4階調の4値画像データに変換し、画像データbとして後段画像処理部90bに送る。
ここでは、説明を簡単にするため、固定しきい値処理の一例を挙げると、処理部の入力画像の画素データに対して、下記の言う条件によって4値化を行う。
0 ≦ 画素データ < 64が真ならば 0
64 ≦ 画素データ < 128が真ならば 1
128 ≦ 画素データ < 192が真ならば 2
192 ≦ 画素データ ≦ 255が真ならば 3
前述した単純2値化のほかに、ここでは説明しないが写真原稿などに適した階調性に優れた誤差拡散処理やディザ処理などの階調変換処理を行なう場合がある。
Next, gradation conversion by fixed threshold quaternary conversion when the writing device can output up to 2 bits and 4 levels will be described. When a 4-level image is desired, the gradation conversion processing unit 92c converts an image of 8 bits for each of CMYK and 256 gradations into 4-level image data of 4 gradations, and sends the data as image data b to the post-stage image processing unit 90b.
Here, to simplify the explanation, as an example of fixed threshold value processing, the pixel data of the input image of the processing section is quaternarized under the following conditions.
0 ≤ pixel data < 0 if 64 is true
1 if 64 ≤ pixel data < 128 is true
2 if 128 ≤ pixel data < 192 is true
3 if 192 ≤ pixel data ≤ 255 is true
In addition to the simple binarization described above, gradation conversion processing such as error diffusion processing and dither processing, which are suitable for photographic originals and have excellent gradation properties, may be performed, although they are not described here.

<物体画像の検出に用いる画像処理>
図5は、本発明の実施形態に係わる画像処理装置による物体画像の検出に用いる画像処理の動作を表すフローチャートである。
ステップS50では、画像サイズ変倍部70aは、変倍処理を行う。
例えば、スキャナの読取解像度が600dpi、プリンタの出力解像度が600dpiの場合、コピー用の画像処理は600dpiで処理を行うが、物体画像の検出は、検出精度が200dpi以上は大きくかわらないアルゴリズムを採用している場合、検出処理速度を高速化する必要がある。
このため、ステップS50では、画像サイズ変倍部70aは、高解像度の画像である600dpiのスキャン画像を変倍処理において変倍率(1/3)に応じて低解像度の画像である200dpiの画像に縮小する。
<Image processing used for object image detection>
FIG. 5 is a flow chart showing the operation of image processing used for object image detection by the image processing apparatus according to the embodiment of the present invention.
In step S50, the image size scaling unit 70a performs scaling processing.
For example, if the reading resolution of the scanner is 600 dpi and the output resolution of the printer is 600 dpi, image processing for copying is performed at 600 dpi. If so, it is necessary to speed up the detection processing speed.
Therefore, in step S50, the image size scaling unit 70a converts the 600 dpi scanned image, which is a high-resolution image, into a 200 dpi image, which is a low-resolution image, according to the scaling factor (1/3) in the scaling process. to shrink.

次に、ステップS55では、特定物体画像検出部70cは、この画像に対して特定の物体画像の検出処理を行う。
次に、単にスキャン画像に特定の物体画像が含まれるか否かで、後段画像処理部90bの処理を切り替える場合に、ステップS60では、特定物体画像検出部70cは、特定の物体画像の有無情報の検出結果を後段画像処理部90bに通知する。
特定の物体画像の領域に対して後段画像処理部90bの処理を切り替える場合は、物体の位置情報を検出結果として渡す。目的に応じて検出領域の画像も後段画像処理部90bに渡す(例えば、QRコード(登録商標)の検知の場合)。
この際、特定の物体画像の有無情報を位置情報として通知してもよい。
例えば、特定の物体画像を含む矩形領域の4点の位置情報がすべて(0,0)である場合は、物体画像が未検出状態にあるとし、一方、(0,0)を除く4点が位置情報として設定されている場合は、特定の物体画像が検出されたことと判断するような割り当にしてもよい。
Next, in step S55, the specific object image detection unit 70c performs specific object image detection processing on this image.
Next, when switching the processing of the post-stage image processing unit 90b simply based on whether or not the specific object image is included in the scanned image, in step S60, the specific object image detection unit 70c detects whether or not the specific object image exists. is notified to the post-stage image processing unit 90b.
When switching the processing of the post-stage image processing unit 90b for a specific object image region, position information of the object is passed as a detection result. Depending on the purpose, the image of the detection area is also transferred to the post-stage image processing unit 90b (for example, in the case of QR code (registered trademark) detection).
At this time, the presence/absence information of a specific object image may be notified as position information.
For example, if the position information of four points in a rectangular area containing a specific object image is all (0, 0), then the object image is in an undetected state. If it is set as position information, it may be assigned such that it is determined that a specific object image has been detected.

<検出結果に応じた画像処理>
図6は、本発明の実施形態に係わる画像処理装置による検出結果に応じた画像処理の動作を表すフローチャートである。
図5に示すステップS55において、特定物体画像検出部70cは、特定の物体画像として例えば特定のスタンプの画像が含まれるか否かの検出を行い、ステップS60において、原稿の画像データに特定のスタンプ画像があるという情報を通知した場合について説明する。
<Image processing according to detection results>
FIG. 6 is a flow chart showing the operation of image processing according to detection results by the image processing apparatus according to the embodiment of the present invention.
In step S55 shown in FIG. 5, the specific object image detection unit 70c detects whether or not an image of a specific stamp is included as the specific object image. A case in which information indicating that there is an image is notified will be described.

まず、図6において、ステップS105では、判定部70fは、特定の物体画像が検出されたか否かを判断する。
特定の物体画像が検出された場合に、ステップS110では、画像加工部70gは、コピー出力に用いる画像データのうち特定の物体画像の領域を特定のパターン画像に置き換えて、原稿の情報が読み取れないように加工する。
一方、特定の物体画像が未検出の場合は、ステップS115では、プロッタ制御部30pは、前段画像処理部90aのコピー出力に用いる画像データのまま後段画像処理部90bに渡す。
First, in FIG. 6, in step S105, the determination unit 70f determines whether or not a specific object image has been detected.
When a specific object image is detected, in step S110, the image processing unit 70g replaces the specific object image area in the image data used for copy output with a specific pattern image, and the document information cannot be read. processed as
On the other hand, if the specific object image is not detected, in step S115, the plotter control section 30p passes the image data used for the copy output of the preceding image processing section 90a to the succeeding image processing section 90b as it is.

<顔画像の検出結果に応じた画像処理>
図7は、本発明の実施形態に係わる画像処理装置による顔画像の検出結果に応じた画像処理の動作を表すフローチャートである。
図7を参照して、原稿内の顔画像を検出し、顔画像の領域にモザイク処理を行う場合について説明する。
なお、顔の輪郭検出処理としては、特許第6180906号に記載された「顔認識ゲートシステム」が報告されている。
顔の輪郭検出処理では、顔の特徴点をリストとして検出され、これらの点が顔の特徴形状を表すため、顔の基準パターンと比較して相関度が閾値以上に高い場合に、その箇所を顔輪郭として認識する。
<Image processing according to face image detection results>
FIG. 7 is a flow chart showing the operation of image processing according to the face image detection result by the image processing apparatus according to the embodiment of the present invention.
A case in which a face image is detected in a document and mosaic processing is performed on the area of the face image will be described with reference to FIG.
Incidentally, as a face outline detection process, a "face recognition gate system" described in Japanese Patent No. 6180906 has been reported.
In facial contour detection processing, facial feature points are detected as a list, and these points represent the feature shape of the face. Recognize as facial contours.

図6のステップS105において、判定部70fは、特定の物体画像の検出処理として、顔画像の検出処理を行う。
図7において、ステップS150では、特定物体画像検出部70cは、スキャナ部31が原稿画像をスキャンして読み取った画像データに顔画像の領域が含まれるか否かを判断する。ここで、顔画像を検出した場合(S150、Yes)に、ステップS155に進み、顔領域を囲む矩形領域の4点の位置情報(x1,y1)(x2,y2)(x3,y3)(x4,y4)の結果を位置情報群として取得する。
In step S105 in FIG. 6, the determination unit 70f performs face image detection processing as the specific object image detection processing.
In FIG. 7, in step S150, the specific object image detection unit 70c determines whether or not the image data obtained by scanning the document image by the scanner unit 31 includes a face image area. Here, when a face image is detected (S150, Yes), the process proceeds to step S155, and position information (x1, y1) (x2, y2) (x3, y3) (x4) of four points of a rectangular region surrounding the face region is detected. , y4) as a position information group.

これら4点の位置情報群は、低解像度の画像に対応しているので、ステップS160では、画像加工部70gは、これらを変倍率の逆数値に応じてコピー用出力画像(高解像度の画像)に対応した4点の位置情報群に変換する。
例えは、特定の物体画像を検出するために用いる低解像度の画像が300dpiであり、コピー用出力画像(高解像度の画像)の解像度が600dpiである場合、4点の位置情報群(x1,y1)(x2,y2)(x3,y3)(x4,y4)をそれぞれ2倍(変倍率)して変換し、コピー用出力画像(高解像度の画像)に対応した特定の物体画像の位置を表す4点の位置情報群(X1,Y1)(X2,Y2)(X3,Y3)(X4,Y4)を得る。
Since the position information group of these four points corresponds to the low-resolution image, in step S160, the image processing unit 70g converts them into a copy output image (high-resolution image) according to the reciprocal value of the scaling factor. is converted into a four-point position information group corresponding to .
For example, if a low-resolution image used to detect a specific object image has a resolution of 300 dpi and an output image for copying (high-resolution image) has a resolution of 600 dpi, then four points of position information group (x1, y1 ) (x2, y2) (x3, y3) (x4, y4) are respectively doubled (scaling ratio) to represent the position of the specific object image corresponding to the copy output image (high resolution image) A four-point position information group (X1, Y1) (X2, Y2) (X3, Y3) (X4, Y4) is obtained.

ステップS165では、画像加工部70gは、コピー用出力画像(高解像度の画像)における顔画像の領域((X1,Y1)(X2,Y2)(X3,Y3)(X4,Y4)で囲まれる領域)をパターン画像に置き換える。すなわち、算出された矩形領域に対しモザイク処理または塗りつぶし処理を行い、この加工処理された画像をコピー出力に用いる画像データとして後段画像処理部90bの処理に渡す。例えば、図10(b)を参照されたい。
一方、ステップS150において、プロッタ制御部30pは、スキャン画像に顔画像の領域が含まれていないと判断した場合(S150、No)に、ステップS170に進み、そのままの画像データを出力する。
In step S165, the image processing unit 70g processes the face image area (the area surrounded by (X1, Y1) (X2, Y2) (X3, Y3) (X4, Y4) in the copy output image (high-resolution image). ) with the pattern image. That is, the calculated rectangular area is subjected to mosaic processing or filling processing, and the processed image is passed to the post-stage image processing section 90b as image data to be used for copy output. For example, see FIG. 10(b).
On the other hand, if the plotter control unit 30p determines in step S150 that the scan image does not include the facial image area (S150, No), the process proceeds to step S170 and outputs the image data as it is.

<検出結果に応じた画像処理>
図8は、本発明の実施形態に係わる画像処理装置による検出結果に応じた画像処理の動作を表すフローチャートである。
図8を参照して特定の物体画像としてQRコード(登録商標)を検出した場合の画像処理について説明する。
図6のステップS105において、QRコード(登録商標)検出部70eは、特定の物体画像の検出処理を行う。
QRコード(登録商標)については、特許第2938338号に記載された「二次元コード」が報告されている。
QRコード(登録商標)を構成する最小の単位(白黒の正方形)をセルといい、セルの組み合わせでQRコード(登録商標)は表され、位置検出パターン(ファインダパターン)と、タイミングパターン、誤り訂正レベルやマスク番号などの情報を持ったフォーマット情報、データ及び誤り訂正符合(リードソロモン符号)から構成されている。
<Image processing according to detection results>
FIG. 8 is a flow chart showing the operation of image processing according to detection results by the image processing apparatus according to the embodiment of the present invention.
Image processing when a QR code (registered trademark) is detected as a specific object image will be described with reference to FIG.
In step S105 of FIG. 6, the QR code (registered trademark) detection unit 70e performs detection processing of a specific object image.
Regarding the QR code (registered trademark), a "two-dimensional code" described in Japanese Patent No. 2938338 has been reported.
The smallest unit (black and white square) that constitutes the QR Code (registered trademark) is called a cell, and the QR Code (registered trademark) is represented by a combination of cells, and includes a position detection pattern (finder pattern), timing pattern, error correction It consists of format information having information such as level and mask number, data, and error correction code (Reed-Solomon code).

また、QRコード(登録商標)の読み取りについては、特許第28679042号に記載された「2次元コード読取装置」が報告されている。
2次元コードの読み取りでは、例えばCCDで撮像した画像から2次元コードを抽出して、デコード処理を行う。このとき撮像した画像は、そのまま撮像した画像(グレー画像)からコードを抽出するための2値化画像に変換する処理を行う。QRコード(登録商標)から読み取ったコード情報には、コード情報と、コピー禁止を示すコードが含まれる場合もある。
Further, as for the reading of the QR code (registered trademark), a "two-dimensional code reader" described in Japanese Patent No. 28679042 has been reported.
In reading a two-dimensional code, for example, the two-dimensional code is extracted from an image captured by a CCD and decoded. The image picked up at this time is converted into a binary image for extracting the code from the image (gray image) picked up as it is. Code information read from a QR code (registered trademark) may include code information and a code indicating copy prohibition.

図8において、ステップS205では、QRコード(登録商標)検出部70eは、スキャンした画像データにQRコード(登録商標)が含まれているか否かを判断する。画像データにQRコード(登録商標)が含まれている場合(S205、Yes)は、ステップS210に進み、一方、画像データにQRコード(登録商標)が含まれていない場合(S205、No)は、ステップS225に進む。
画像データにQRコード(登録商標)が含まれている場合(S205、Yes)は、ステップS210に進み、QRコード(登録商標)検出部70eは、画像データからQRコード(登録商標)を含む画像領域を切り出した画像データも受け渡されるので、この領域の画像のQRコード(登録商標)のコード情報を読み取る。
In FIG. 8, in step S205, the QR code (registered trademark) detection unit 70e determines whether the scanned image data includes a QR code (registered trademark). If the image data contains a QR code (registered trademark) (S205, Yes), the process proceeds to step S210. , the process proceeds to step S225.
If the image data contains a QR code (registered trademark) (S205, Yes), the process proceeds to step S210, and the QR code (registered trademark) detector 70e extracts an image containing a QR code (registered trademark) from the image data. Since the image data obtained by cutting out the area is also transferred, the code information of the QR code (registered trademark) of the image of this area is read.

ステップS215では、判定部70fは、QRコード(登録商標)のコード情報がコピー禁止を示すコードであるか否かを判断する。
QRコード(登録商標)のコード情報がコピー禁止を示すコードである場合(S215、Yes)に、ステップS220に進み、画像加工部70gは、前段画像処理部90aのコピー出力に用いる画像データを特定のパターン画像に置き換えて後段画像処理部90bに渡す。この場合の印刷結果は、図10(b)を参照されたい。
一方、QRコード(登録商標)のコード情報がコピー禁止を示すコードではない場合(S215、No)に、ステップS225に進む。
画像データにQRコード(登録商標)が含まれていない場合や、QRコード(登録商標)の情報がコピー禁止ではない場合には、前段画像処理部90aのコピー出力に用いる画像データをそのままコピー出力に用いる画像データとして後段画像処理部90bに渡す。この場合の印刷結果は、図10(a)を参照されたい。
In step S215, the determination unit 70f determines whether or not the code information of the QR code (registered trademark) is a code indicating copy prohibition.
If the code information of the QR code (registered trademark) is a code indicating copy prohibition (S215, Yes), the process proceeds to step S220, and the image processing unit 70g specifies image data to be used for copy output by the preceding image processing unit 90a. is replaced with the pattern image of , and passed to the post-stage image processing unit 90b. Refer to FIG. 10B for the print result in this case.
On the other hand, if the code information of the QR code (registered trademark) is not a code indicating copy prohibition (S215, No), the process proceeds to step S225.
If the image data does not contain a QR code (registered trademark) or if the information of the QR code (registered trademark) is not copy-prohibited, the image data used for the copy output of the preceding image processing unit 90a is copied and output as it is. image data to be used in the subsequent image processing unit 90b. Refer to FIG. 10A for the print result in this case.

<m×nサイズの画像を用いて特定の物体画像の検出を行う画像処理>
図9は、本発明の実施形態に係わる画像処理装置による特定のm×nサイズの画像を用いて特定の物体画像の検出を行う画像処理の詳細を表すフローチャートである。
図9を参照して、物体画像の検出処理がディープラーニングのニューラルネットワーク(DNN)を用いる場合について説明する。
多くのニューラルネットワークを用いる特定の物体画像の検出処理では、特定の画像サイズを前提としている。ここでは、画像サイズが例えば256×256であるとする。スキャンした画像データのサイズは、実際の原稿サイズによりさまざまな画像サイズであるが、ニューラルネットワーク(DNN)に入力可能な画像サイズに縮小する必要がある。
<Image processing for detecting a specific object image using an m×n size image>
FIG. 9 is a flowchart showing details of image processing for detecting a specific object image using a specific m×n size image by the image processing apparatus according to the embodiment of the present invention.
A case where a deep learning neural network (DNN) is used for object image detection processing will be described with reference to FIG.
The process of detecting a particular object image using many neural networks assumes a particular image size. Assume here that the image size is, for example, 256×256. The size of the scanned image data varies depending on the actual document size, but it is necessary to reduce the image size to an image size that can be input to the neural network (DNN).

まず、ステップS255では、画像サイズ変倍部70aは、変倍率を算出する。
例えば、A4縦の原稿を600dpi出力でコピーする場合、スキャン画像のサイズは4960×7016となるので、これをDNNに入力可能な256×256の画像サイズに縮小する必要がある。この場合、主走査方向の変倍率が256/4960=5.14%、副走査方向の変倍率が256/7016=3.64%となる。
ステップS260では、画像サイズ変倍部70a、この変倍率を変倍処理部91cに設定して画像データのサイズを縮小する。
後段画像処理部90bの物体画像検出処理で使用する画像データのサイズは、採用するDNNの画像サイズによって異なる。例えば64×64や192×192などの異なるサイズである。複数の目的の機能をMFPに持たせる場合、物体画像の検出処理の目的に応じてニューラルネットワーク(DNN)を切り替えると同時に、検出画像のサイズも切り替える。
例えばQRコード(登録商標)の検出処理では64×64、顔検出処理では192×192というように切り替える。
ステップS265では、特定物体画像検出部70cは、特定の物体画像の検出処理を行う。すなわち、低解像度の変倍画像データから特定の物体画像に係わる第1位置情報群を検出する。
ステップS270では、画像加工部70gは、ステップS255において算出した変倍率の逆数値に応じて座標で表す位置情報の変換処理を行う。すなわち、変倍率の逆数値に応じて当該第1位置情報群を第2位置情報群に変換する。
First, in step S255, the image size scaling unit 70a calculates a scaling factor.
For example, when copying an A4 portrait document at 600 dpi output, the size of the scanned image is 4960×7016, so it is necessary to reduce this to an image size of 256×256 that can be input to the DNN. In this case, the scaling factor in the main scanning direction is 256/4960=5.14%, and the scaling factor in the subscanning direction is 256/7016=3.64%.
In step S260, the image size scaling unit 70a sets the scaling factor to the scaling processing unit 91c to reduce the size of the image data.
The size of the image data used in the object image detection processing of the post-stage image processing unit 90b varies depending on the image size of the adopted DNN. Different sizes, for example 64×64 and 192×192. When the MFP has functions for a plurality of purposes, the neural network (DNN) is switched according to the purpose of the object image detection processing, and at the same time, the size of the detected image is also switched.
For example, the size is switched to 64×64 for QR code (registered trademark) detection processing and 192×192 for face detection processing.
In step S265, the specific object image detection unit 70c performs detection processing of a specific object image. That is, the first position information group related to the specific object image is detected from the low-resolution magnified image data.
In step S270, the image processing unit 70g performs conversion processing of position information represented by coordinates according to the reciprocal value of the scaling factor calculated in step S255. That is, the first positional information group is converted into the second positional information group according to the reciprocal value of the scaling factor.

<特定の物体画像とコピー出力に用いる画像>
図10(a)~(d)は、本発明の実施形態に係わる画像処理装置による特定の物体画像とコピー出力に用いる画像を示す説明図である。
図10(a)は、特定の物体画像として顔写真101aが含まれる運転免許証画像101の処理前の画像である。図10(b)は、図10(a)の顔写真101aの領域の画像に加工処理を施した加工画像103aを含む運転免許証画像103の処理後のコピー出力に用いる画像である。
図10(c)は、特定の物体画像としてQRコード(登録商標)105aが含まれる交通安全協会の会員証裏面画像105の処理前の画像である。図10(d)は、図10(c)のQRコード(登録商標)105aの領域の画像に加工処理を施した加工画像107aを含む交通安全協会の会員証裏面画像107の処理後のコピー出力に用いる画像である。
<Specific object image and image used for copy output>
10A to 10D are explanatory diagrams showing specific object images and images used for copy output by the image processing apparatus according to the embodiment of the present invention.
FIG. 10(a) is an unprocessed image of a driver's license image 101 including a facial photograph 101a as a specific object image. FIG. 10(b) is an image used for copy output after processing of a driver's license image 103 including a processed image 103a obtained by processing the image of the facial photograph 101a area of FIG. 10(a).
FIG. 10(c) is an image before processing of the back side image 105 of the membership card of the Traffic Safety Association including the QR code (registered trademark) 105a as the specific object image. FIG. 10(d) is a copy output after processing of the back side image 107 of the membership card of the Traffic Safety Association including the processed image 107a obtained by processing the image of the area of the QR code (registered trademark) 105a in FIG. 10(c). It is an image used for

<本実施形態による効果>
本実施形態によれば、高解像度の画像データを所定の変倍率で縮小して、低解像度の変倍画像データを得ておき、得られた低解像度の変倍画像データから特定の物体画像に係わる第1位置情報群を検出し、第1位置情報群を検出した場合に、所定の変倍率の逆数値に応じて当該第1位置情報群を第2位置情報群に変換し、高解像度の画像データ内の第2位置情報群に含まれる領域の画像のみを加工して、加工画像データを生成する。
これにより、特定の物体画像の検出結果に応じて加工画像データを得るまでの画像処理における処理効率を向上することができる。
本実施形態によれば、ステップS15における高解像度の画像データに対する画像処理と、ステップS20における低解像度の画像データに対する特定の物体画像の検出処理を、並列して行うことができるので、高解像度の画像データをコピーする際の処理効率を向上することができる。
<Effects of this embodiment>
According to this embodiment, high-resolution image data is reduced by a predetermined scaling ratio to obtain low-resolution scaled image data, and a specific object image is obtained from the obtained low-resolution scaled image data. When the related first position information group is detected and the first position information group is detected, the first position information group is converted into the second position information group according to the reciprocal value of the predetermined scaling factor, and the high resolution Only the image of the area included in the second position information group in the image data is processed to generate processed image data.
As a result, it is possible to improve the processing efficiency in the image processing until the processed image data is obtained according to the detection result of the specific object image.
According to this embodiment, the image processing for high-resolution image data in step S15 and the specific object image detection processing for low-resolution image data in step S20 can be performed in parallel. It is possible to improve processing efficiency when copying image data.

<本実施形態の態様例の作用、効果のまとめ>
<第1態様>
本態様の画像処理装置70は、高解像度の画像データに含まれる特定の物体画像を含む領域に対して画像加工を実施する画像処理装置70であって、高解像度の画像データを所定の変倍率で縮小して、低解像度の変倍画像データを得る画像サイズ変倍部70aと、画像サイズ変倍部70aにより得られた低解像度の変倍画像データから特定の物体画像に係わる第1位置情報群を検出する特定物体画像検出部70cと、特定物体画像検出部70cが第1位置情報群を検出した場合に、所定の変倍率の逆数値に応じて当該第1位置情報群を第2位置情報群に変換し、高解像度の画像データ内の第2位置情報群に含まれる領域の画像のみを加工して、加工画像データを生成する画像加工部70gと、を備えることを特徴とする。
本態様によれば、高解像度の画像データを所定の変倍率で縮小して、低解像度の変倍画像データを得ておき、得られた低解像度の変倍画像データから特定の物体画像に係わる第1位置情報群を検出し、第1位置情報群を検出した場合に、所定の変倍率の逆数値に応じて当該第1位置情報群を第2位置情報群に変換し、高解像度の画像データ内の第2位置情報群に含まれる領域の画像のみを加工して、加工画像データを生成する。
これにより、特定の物体画像の検出結果に応じて加工画像データを得るまでの画像処理における処理効率を向上することができる。
<Summary of Actions and Effects of Mode Examples of the Present Embodiment>
<First aspect>
The image processing apparatus 70 of this aspect is an image processing apparatus 70 that performs image processing on a region including a specific object image included in high-resolution image data, and converts high-resolution image data to a predetermined scaling factor. and first positional information relating to a specific object image from the low-resolution scaled image data obtained by the image size scaling unit 70a. When the specific object image detection unit 70c detects the first position information group, the first position information group is transferred to the second position according to the reciprocal value of the predetermined scaling factor. and an image processing unit 70g that converts the data into information groups and processes only the image of the area included in the second position information group in the high-resolution image data to generate processed image data.
According to this aspect, high-resolution image data is reduced by a predetermined scaling ratio to obtain low-resolution scaled image data, and a specific object image is obtained from the obtained low-resolution scaled image data. Detecting a first group of position information, and when detecting the first group of position information, converting the first group of position information into a second group of position information according to the reciprocal value of a predetermined scaling factor, and obtaining a high-resolution image Processed image data is generated by processing only the image of the area included in the second position information group in the data.
As a result, it is possible to improve the processing efficiency in the image processing until the processed image data is obtained according to the detection result of the specific object image.

<第2態様>
本態様の画像処理装置70において、特定物体画像検出部70cは、特定の物体画像が顔画像である場合に、顔画像に係わる第1位置情報群を検出し、
画像加工部70gは、顔画像に係わる第1位置情報群を検出した場合に、位置検出部により検出された顔画像に係わる第2位置情報群に含まれる領域の画像を加工することを特徴とする。
本態様によれば、特定の物体画像が顔画像である場合に、顔画像に係わる第1位置情報群を検出し、顔画像に係わる第1位置情報群を検出した場合に、顔画像に係わる第2位置情報群に含まれる領域の画像を加工する。
これにより、顔画像の検出結果に応じて加工画像データを得るまでの画像処理における処理効率を向上することができる。
<Second aspect>
In the image processing device 70 of this aspect, when the specific object image is a face image, the specific object image detection unit 70c detects the first position information group related to the face image,
The image processing unit 70g is characterized in that when the first position information group related to the face image is detected, the image of the area included in the second position information group related to the face image detected by the position detection unit is processed. do.
According to this aspect, when the specific object image is a face image, the first position information group related to the face image is detected, and when the first position information group related to the face image is detected, the first position information group related to the face image is detected. The image of the area included in the second position information group is processed.
As a result, it is possible to improve the processing efficiency in the image processing until the processed image data is obtained according to the detection result of the face image.

<第3態様>
本態様の特定物体画像検出部70cは、特定の物体画像がQRコード(登録商標)である場合に、QRコード(登録商標)が表すデータを抽出し、かつQRコード(登録商標)に係わる第1位置情報群を検出し、画像加工部70gは、QRコード(登録商標)が表すデータに複写禁止データが含まれている場合に、QRコード(登録商標)に係わる第2位置情報群に含まれる領域の画像を加工することを特徴とする。
本態様によれば、特定の物体画像がQRコード(登録商標)である場合に、QRコード(登録商標)が表すデータを抽出し、かつQRコード(登録商標)に係わる第1位置情報群を検出し、QRコード(登録商標)が表すデータに複写禁止データが含まれている場合に、QRコード(登録商標)に係わる第2位置情報群に含まれる領域の画像を加工する。
これにより、QRコード(登録商標)の検出結果に応じて加工画像データを得るまでの画像処理における処理効率を向上することができる。
<Third aspect>
When the specific object image is a QR code (registered trademark), the specific object image detection unit 70c of this aspect extracts data represented by the QR code (registered trademark), 1 position information group is detected, and if the data represented by the QR code (registered trademark) contains copy prohibited data, the image processing unit 70g detects the data included in the second position information group related to the QR code (registered trademark). It is characterized by processing the image of the area where the
According to this aspect, when the specific object image is a QR code (registered trademark), the data represented by the QR code (registered trademark) is extracted, and the first position information group related to the QR code (registered trademark) is obtained. If the data represented by the QR code (registered trademark) contains copy prohibited data, the image of the area included in the second position information group related to the QR code (registered trademark) is processed.
As a result, it is possible to improve the processing efficiency in the image processing until the processed image data is obtained according to the detection result of the QR code (registered trademark).

<第4態様>
本態様の画像サイズ変倍部70aは、画像データのサイズをm×nの固定サイズに縮小することを特徴とする。
本態様によれば、画像データのサイズをm×nの固定サイズに縮小する。
これにより、低解像度の変倍画像データから特定の物体画像に係わる第1位置情報群を検出する際の処理効率を向上することができる。
<Fourth Aspect>
The image size scaling unit 70a of this aspect is characterized by reducing the size of image data to a fixed size of m×n.
According to this aspect, the size of the image data is reduced to a fixed size of m×n.
As a result, it is possible to improve the processing efficiency when detecting the first position information group related to a specific object image from low-resolution magnified image data.

<第5態様>
本態様の画像サイズ変倍部70aは、変倍画像データから特定の物体画像を検出する際の推論処理に用いるニューラルネットワークを備え、固定サイズは、ニューラルネットワークにおいて処理可能なサイズであることを特徴とする。
本態様によれば、変倍画像データから特定の物体画像を検出する際の推論処理に用いるニューラルネットワークを備え、固定サイズは、ニューラルネットワークにおいて処理可能なサイズであるので、低解像度の変倍画像データから特定の物体画像に係わる第1位置情報群を検出する際の処理効率を向上することができる。
<Fifth aspect>
The image size scaling unit 70a of this aspect includes a neural network used for inference processing when detecting a specific object image from scaled image data, and the fixed size is a size that can be processed by the neural network. and
According to this aspect, the neural network used for inference processing when detecting a specific object image from scaled image data is provided, and since the fixed size is a size that can be processed by the neural network, It is possible to improve processing efficiency when detecting the first position information group related to a specific object image from data.

<第6態様>
本態様の画像処理方法は、高解像度の画像データに含まれる特定の物体画像を含む領域に対して画像加工を実施する画像処理装置による画像処理方法であって、高解像度の画像データを所定の変倍率で縮小して、低解像度の変倍画像データを得る画像サイズ変倍ステップと、画像サイズ変倍ステップにより得られた低解像度の変倍画像データから特定の物体画像に係わる第1位置情報群を検出する特定物体画像検出ステップと、特定物体画像検出ステップが第1位置情報群を検出した場合に、所定の変倍率の逆数値に応じて当該第1位置情報群を第2位置情報群に変換し、高解像度の画像データ内の第2位置情報群に含まれる領域の画像のみを加工して、加工画像データを生成する画像加工ステップと、を備えることを特徴とする。
本態様によれば、高解像度の画像データを所定の変倍率で縮小して、低解像度の変倍画像データを得ておき、得られた低解像度の変倍画像データから特定の物体画像に係わる第1位置情報群を検出し、第1位置情報群を検出した場合に、所定の変倍率の逆数値に応じて当該第1位置情報群を第2位置情報群に変換し、高解像度の画像データ内の第2位置情報群に含まれる領域の画像のみを加工して、加工画像データを生成する。
これにより、特定の物体画像の検出結果に応じて加工画像データを得るまでの画像処理における処理効率を向上することができる。
<Sixth Aspect>
The image processing method of this aspect is an image processing method by an image processing device that performs image processing on a region including a specific object image included in high-resolution image data, and the high-resolution image data is processed by a predetermined image processing method. an image size scaling step of reducing by a scaling factor to obtain low-resolution scaled image data; and first position information relating to a specific object image from the low-resolution scaled image data obtained by the image size scaling step. a specific object image detecting step for detecting groups, and when the specific object image detecting step detects the first positional information group, the first positional information group is converted to the second positional information group according to the reciprocal value of a predetermined scaling factor. and processing only the image in the area included in the second position information group in the high-resolution image data to generate processed image data.
According to this aspect, high-resolution image data is reduced by a predetermined scaling ratio to obtain low-resolution scaled image data, and a specific object image is obtained from the obtained low-resolution scaled image data. Detecting a first group of position information, and when detecting the first group of position information, converting the first group of position information into a second group of position information according to the reciprocal value of a predetermined scaling factor, and obtaining a high-resolution image Processed image data is generated by processing only the image of the area included in the second position information group in the data.
As a result, it is possible to improve the processing efficiency in the image processing until the processed image data is obtained according to the detection result of the specific object image.

<第7態様>
本態様のプログラムは、プロセッサを、高解像度の画像データに含まれる特定の物体画像を含む領域に対して画像加工を実施する画像処理方法として機能させるためのプログラムであって、プロセッサを、高解像度の画像データを所定の変倍率で縮小して、低解像度の変倍画像データを得る画像サイズ変倍ステップと、画像サイズ変倍ステップにより得られた低解像度の変倍画像データから特定の物体画像に係わる第1位置情報群を検出する特定物体画像検出ステップと、特定物体画像検出ステップが第1位置情報群を検出した場合に、所定の変倍率の逆数値に応じて当該第1位置情報群を第2位置情報群に変換し、高解像度の画像データ内の第2位置情報群に含まれる領域の画像のみを加工して、加工画像データを生成する画像加工ステップと、として機能させるためのプログラムである。
本態様によれば、高解像度の画像データを所定の変倍率で縮小して、低解像度の変倍画像データを得ておき、得られた低解像度の変倍画像データから特定の物体画像に係わる第1位置情報群を検出し、第1位置情報群を検出した場合に、所定の変倍率の逆数値に応じて当該第1位置情報群を第2位置情報群に変換し、高解像度の画像データ内の第2位置情報群に含まれる領域の画像のみを加工して、加工画像データを生成する。
これにより、特定の物体画像の検出結果に応じて加工画像データを得るまでの画像処理における処理効率を向上することができる。
<Seventh Aspect>
A program of this aspect is a program for causing a processor to function as an image processing method for performing image processing on a region including a specific object image included in high-resolution image data, an image size scaling step for obtaining low-resolution scaled image data by reducing the image data by a predetermined scaling ratio; and a specific object image from the low-resolution scaled image data obtained by the image size scaling step. and when the specific object image detection step detects the first position information group, the first position information group according to the reciprocal value of a predetermined scaling factor into the second position information group, and processing only the image of the area included in the second position information group in the high-resolution image data to generate processed image data. It's a program.
According to this aspect, high-resolution image data is reduced by a predetermined scaling ratio to obtain low-resolution scaled image data, and a specific object image is obtained from the obtained low-resolution scaled image data. Detecting a first group of position information, and when detecting the first group of position information, converting the first group of position information into a second group of position information according to the reciprocal value of a predetermined scaling factor, and obtaining a high-resolution image Processed image data is generated by processing only the image of the area included in the second position information group in the data.
As a result, it is possible to improve the processing efficiency in the image processing until the processed image data is obtained according to the detection result of the specific object image.

10…画像形成装置、20…コントローラ、22a…ROM、22b…RAM、25a…CPU、28…HDDコントローラ、29…HD、30…エンジン制御部、30p…プロッタ制御部、31…スキャナ部、32…プリンタ部、40…操作装置、40a…パネル表示部、40b…操作パネル、60…近距離通信回路、60a…近距離通信回路、70…画像処理装置、70a…画像サイズ変倍部、70c…特定物体画像検出部、70d…位置検出部、70e…QRコード(登録商標)検出部、70f…判定部、70g…画像加工部、80…メモリコントローラ、90a…前段画像処理部、90b…後段画像処理部、91a…ライン間補正処理部、91b…像域分離処理部、91c…変倍処理部、91d…変換処理部、91e…フィルタ処理部、91f…色変換処理部、92b…色変換処理部、92c…階調変換処理部、101…運転免許証画像、101a…顔写真、103…運転免許証画像、103a…加工画像、105…会員証裏面画像、105a…QRコード(登録商標)、107…会員証裏面画像、107a…加工画像 Reference Signs List 10 Image forming apparatus 20 Controller 22a ROM 22b RAM 25a CPU 28 HDD controller 29 HD 30 Engine control unit 30p Plotter control unit 31 Scanner unit 32 Printer unit 40 Operation device 40a Panel display unit 40b Operation panel 60 Short-range communication circuit 60a Short-range communication circuit 70 Image processing device 70a Image size scaling unit 70c Specification Object image detection unit 70d Position detection unit 70e QR code (registered trademark) detection unit 70f Judgment unit 70g Image processing unit 80 Memory controller 90a Pre-stage image processing unit 90b Post-stage image processing Section 91a Inter-line correction processing unit 91b Image area separation processing unit 91c Variable magnification processing unit 91d Conversion processing unit 91e Filter processing unit 91f Color conversion processing unit 92b Color conversion processing unit , 92c... Gradation conversion processing unit 101... Driver's license image 101a... Face photograph 103... Driver's license image 103a... Processed image 105... Membership card reverse side image 105a... QR code (registered trademark) 107 ...Membership card reverse side image, 107a...Processed image

特開2006‐127195公報Japanese Patent Application Laid-Open No. 2006-127195

Claims (7)

高解像度の画像データに含まれる特定の物体画像を含む領域に対して画像加工を実施する画像処理装置であって、
前記高解像度の画像データを所定の変倍率で縮小して、低解像度の変倍画像データを得る画像サイズ変倍部と、
前記画像サイズ変倍部により得られた低解像度の変倍画像データから前記特定の物体画像に係わる第1位置情報群を検出する特定物体画像検出部と、
前記特定物体画像検出部が前記第1位置情報群を検出した場合に、前記所定の変倍率の逆数値に応じて当該第1位置情報群を第2位置情報群に変換し、前記高解像度の画像データ内の前記第2位置情報群に含まれる領域の画像のみを加工して、加工画像データを生成する画像加工部と、を備えることを特徴とする画像処理装置。
An image processing device that performs image processing on a region containing a specific object image included in high-resolution image data,
an image size scaling unit that reduces the high resolution image data by a predetermined scaling factor to obtain low resolution scaled image data;
a specific object image detection unit that detects a first position information group related to the specific object image from the low-resolution scaled image data obtained by the image size scaling unit;
When the specific object image detection unit detects the first positional information group, the first positional information group is converted into a second positional information group according to the reciprocal value of the predetermined scaling factor, and the high-resolution and an image processing unit that processes only an image of an area included in the second position information group in image data to generate processed image data.
前記特定物体画像検出部は、前記特定の物体画像が顔画像である場合に、前記顔画像に係わる第1位置情報群を検出し、
前記画像加工部は、前記顔画像に係わる第1位置情報群を検出した場合に、顔画像に係わる第2位置情報群に含まれる領域の画像を加工することを特徴とする請求書1に記載の画像処理装置。
the specific object image detection unit, when the specific object image is a face image, detects a first position information group related to the face image;
The image processing unit according to claim 1, wherein when the first position information group related to the face image is detected, the image processing unit processes the image of the area included in the second position information group related to the face image. image processing device.
前記特定物体画像検出部は、前記特定の物体画像がQRコード(登録商標)である場合に、前記QRコード(登録商標)が表すデータを抽出し、かつ前記QRコード(登録商標)に係わる第1位置情報群を検出し、
前記画像加工部は、前記QRコード(登録商標)が表すデータに複写禁止データが含まれている場合に、前記QRコード(登録商標)に係わる第2位置情報群に含まれる領域の画像を加工することを特徴とする請求書2に記載の画像処理装置。
The specific object image detection unit, when the specific object image is a QR code (registered trademark), extracts data represented by the QR code (registered trademark), 1 position information group is detected,
The image processing unit processes an image of an area included in a second position information group related to the QR code (registered trademark) when copy prohibited data is included in the data represented by the QR code (registered trademark). The image processing apparatus according to Claim 2, characterized by:
前記画像サイズ変倍部は、前記画像データのサイズをm×nの固定サイズに縮小することを特徴とする請求書1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein the image size scaling unit reduces the size of the image data to a fixed size of m*n. 前記画像サイズ変倍部は、前記変倍画像データから前記特定の物体画像を検出する際の推論処理に用いるニューラルネットワークを備え、
前記固定サイズは、ニューラルネットワークにおいて処理可能なサイズであることを特徴とする請求書4に記載の画像処理装置。
The image size scaling unit includes a neural network used for inference processing when detecting the specific object image from the scaled image data,
5. The image processing apparatus according to claim 4, wherein said fixed size is a size that can be processed in a neural network.
高解像度の画像データに含まれる特定の物体画像を含む領域に対して画像加工を実施する画像処理装置による画像処理方法であって、
前記高解像度の画像データを所定の変倍率で縮小して、低解像度の変倍画像データを得る画像サイズ変倍ステップと、
前記画像サイズ変倍ステップにより得られた低解像度の変倍画像データから前記特定の物体画像に係わる第1位置情報群を検出する特定物体画像検出ステップと、
前記特定物体画像検出ステップが前記第1位置情報群を検出した場合に、前記所定の変倍率の逆数値に応じて当該第1位置情報群を第2位置情報群に変換し、前記高解像度の画像データ内の前記第2位置情報群に含まれる領域の画像のみを加工して、加工画像データを生成する画像加工ステップと、を備えることを特徴とする画像処理方法。
An image processing method by an image processing device for performing image processing on a region including a specific object image included in high-resolution image data,
an image size scaling step of reducing the high-resolution image data by a predetermined scaling factor to obtain low-resolution scaled image data;
a specific object image detection step of detecting a first position information group related to the specific object image from the low-resolution scaled image data obtained by the image size scaling step;
When the specific object image detection step detects the first position information group, the first position information group is converted into a second position information group according to the reciprocal value of the predetermined scaling factor, and the high-resolution and an image processing step of processing only an image of an area included in the second position information group in image data to generate processed image data.
プロセッサを、高解像度の画像データに含まれる特定の物体画像を含む領域に対して画像加工を実施する画像処理方法として機能させるためのプログラムであって、
プロセッサを、
前記高解像度の画像データを所定の変倍率で縮小して、低解像度の変倍画像データを得る画像サイズ変倍ステップと、
前記画像サイズ変倍ステップにより得られた低解像度の変倍画像データから前記特定の物体画像に係わる第1位置情報群を検出する特定物体画像検出ステップと、
前記特定物体画像検出ステップが前記第1位置情報群を検出した場合に、前記所定の変倍率の逆数値に応じて当該第1位置情報群を第2位置情報群に変換し、前記高解像度の画像データ内の前記第2位置情報群に含まれる領域の画像のみを加工して、加工画像データを生成する画像加工ステップと、として機能させるためのプログラム。
A program for causing a processor to function as an image processing method for performing image processing on a region containing a specific object image included in high-resolution image data,
the processor,
an image size scaling step of reducing the high-resolution image data by a predetermined scaling factor to obtain low-resolution scaled image data;
a specific object image detection step of detecting a first position information group related to the specific object image from the low-resolution scaled image data obtained by the image size scaling step;
When the specific object image detection step detects the first position information group, the first position information group is converted into a second position information group according to the reciprocal value of the predetermined scaling factor, and the high-resolution and an image processing step of processing only the image of the area included in the second position information group in the image data to generate processed image data.
JP2021135539A 2021-08-23 2021-08-23 Image processing apparatus, image processing method, and program Pending JP2023030420A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021135539A JP2023030420A (en) 2021-08-23 2021-08-23 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021135539A JP2023030420A (en) 2021-08-23 2021-08-23 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2023030420A true JP2023030420A (en) 2023-03-08

Family

ID=85413829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021135539A Pending JP2023030420A (en) 2021-08-23 2021-08-23 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2023030420A (en)

Similar Documents

Publication Publication Date Title
US8280100B2 (en) Image processing apparatus, image processing method, and computer program product
JP4568748B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP5042917B2 (en) Image processing apparatus and program
US6775031B1 (en) Apparatus and method for processing images, image reading and image forming apparatuses equipped with the apparatus, and storage medium carrying programmed-data for processing images
JP2012003335A (en) Image inspection device, image inspection system, image inspection method, and image inspection program
EP0823811A2 (en) Image processing method and system
JP2022147074A (en) Image processing apparatus, image processing method, and program
JP4762327B2 (en) Image processing apparatus and image forming apparatus
JP2017130811A (en) Image processing apparatus, image processing method, image processing program, and recording medium
JP2015015599A (en) Image processing apparatus, image forming apparatus, image processing method, and program and recording medium of the same
JP6249240B2 (en) Image processing device
JP4208369B2 (en) Image processing apparatus, image processing method, storage medium, and image processing system
US7835045B2 (en) Image processing device and image processing method
JP2023030420A (en) Image processing apparatus, image processing method, and program
US8260057B2 (en) Image processing apparatus that obtains a ruled line from a multi-value image
JP2023092869A (en) Image formation device, method, and program
JP7022847B2 (en) Image processing device, control method and control program
JP4994326B2 (en) Image processing apparatus and image forming apparatus including the image processing apparatus
US20100188670A1 (en) Image processing apparatus, image processing method and program executing the image processing method
JP6025803B2 (en) Image processing device
JP2000253242A (en) Picture reading system
US10277781B2 (en) Image processing apparatus, image forming apparatus, and non-transitory computer readable medium
JP2008092323A (en) Image processing equipment, and image reading apparatus and image forming apparatus equipped with the same
JP2017147485A (en) Image processing device and region determination method
JP6732428B2 (en) Image processing device, halftone dot determination method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240624