JP6896413B2 - Image processing equipment, image processing methods, and programs - Google Patents
Image processing equipment, image processing methods, and programs Download PDFInfo
- Publication number
- JP6896413B2 JP6896413B2 JP2016244555A JP2016244555A JP6896413B2 JP 6896413 B2 JP6896413 B2 JP 6896413B2 JP 2016244555 A JP2016244555 A JP 2016244555A JP 2016244555 A JP2016244555 A JP 2016244555A JP 6896413 B2 JP6896413 B2 JP 6896413B2
- Authority
- JP
- Japan
- Prior art keywords
- color
- pixel
- image
- bit pattern
- bit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Record Information Processing For Printing (AREA)
- Color, Gradation (AREA)
Description
本発明は、プリンタ等における画像処理の技術に関する。 The present invention relates to an image processing technique in a printer or the like.
PDLデータに対するレンダリング処理によって得るビットマップ形式の画像データの情報を、該画像データよりデータ量が少ないデータを用いて効率的に保持する技術が求められている。このような技術として、例えば特許文献1は、階調性を重視する場合、中間言語データを多値データとしてメモリ上に展開する一方、解像度を重視する場合、中間言語データを2値データとして該メモリ上に展開する手法を開示する。
There is a demand for a technique for efficiently holding information on bitmap format image data obtained by rendering processing on PDL data using data having a smaller amount of data than the image data. As such a technique, for example, in
しかしながら、特許文献1には、解像度を重視する場合に画像データの色の情報を保持することが開示されていない。例えば、ビジネス文書において、図1に示すように文字の背景に薄い中間色の矩形を配置することで文字を強調する表現は一般的に用いられる。このような画像に特許文献1の手法を適用した場合、強調したい領域(図1において文字列「課題とする」が存在する領域)において、背景の矩形の欠落を招く結果、強調表現が失われてユーザの意図が反映されない文書が印刷されてしまう。
However,
そこで本発明は、上記の課題を鑑み、画像データを、色の情報を失うことなく、高解像度で再現する第1の像域に対するビットパターンと低解像度で再現する第2の像域に対するビットパターンとを含むビットパターンから成るデータに変換することを目的とする。 Therefore, in view of the above problems, the present invention has a bit pattern for a first image area that reproduces image data at high resolution and a bit pattern for a second image area that reproduces image data at low resolution without losing color information. The purpose is to convert to data consisting of bit patterns including and.
本発明は、ビットマップ形式の画像データを、第1のビットパターンと第2のビットパターンとを含むビットパターンから成るデータに変換する画像処理装置であって、第1の解像度で再現する第1の像域内の画素の画素値に基づき、前記第1の像域内のそれぞれの画素が前景画素と背景画素との何れであるかを示す形状情報を取得し、取得した前記形状情報に基づいて、前記前景画素の階調数が、前記背景画素の階調数よりも少なくなるように前記前景画素の色と前記背景画素の色との階調数を減らす減色処理によって、前記前景画素の色と前記背景画素の色とを示す色情報を導出する処理手段と、前記処理手段によって取得された前記形状情報と、導出された前記色情報とに基づき、前記第1の像域内のそれぞれの画素について前記第1の像域内のそれぞれの画素が前景画素と背景画素との何れに該当するかを示すビットと、前記前景画素の色を示すビットと前記背景画素の色を示すビットと、を含み、前記背景画素の色を示すビット数が前記前景画素の色を示すビット数よりも多い前記第1のビットパターンを作成する第1の作成手段と、前記第1の解像度より低い第2の解像度で再現する前記第1の像域と同じサイズの第2の像域内の画素の画素値に基づき、前記第1の像域の色情報より多いビット数で示される前記第2の像域の色情報が格納され、前記第1の作成手段で作成する前記第1のビットパターンと同じビット長の前記第2のビットパターンを作成する第2の作成手段とを有することを特徴とする画像処理装置である。
The present invention is an image processing device that converts image data in a bit map format into data composed of a bit pattern including a first bit pattern and a second bit pattern, and reproduces the image data at the first resolution. Based on the pixel values of the pixels in the image area of, shape information indicating whether each pixel in the first image area is a foreground pixel or a background pixel is acquired, and based on the acquired shape information, The color of the foreground pixel is combined with the color of the foreground pixel by a color reduction process that reduces the number of gradations of the color of the foreground pixel and the color of the background pixel so that the number of gradations of the foreground pixel is smaller than the number of gradations of the background pixel. With respect to each pixel in the first image region based on the processing means for deriving the color information indicating the color of the background pixel, the shape information acquired by the processing means, and the derived color information. A bit indicating whether each pixel in the first image area corresponds to a foreground pixel or a background pixel, a bit indicating the color of the foreground pixel, and a bit indicating the color of the background pixel are included. With a first creating means for creating the first bit pattern in which the number of bits indicating the color of the background pixel is larger than the number of bits indicating the color of the foreground pixel, and a second resolution lower than the first resolution. The color information of the second image area represented by a number of bits larger than the color information of the first image area based on the pixel values of the pixels in the second image area having the same size as the first image area to be reproduced. Is stored, and the image processing apparatus is characterized by having a second creating means for creating the second bit pattern having the same bit length as the first bit pattern created by the first creating means. is there.
本発明により、画像データを、色の情報を失うことなく、高解像度で再現する第1の像域に対するビットパターンと低解像度で再現する第2の像域に対するビットパターンとを含むビットパターンから成るデータに変換することが可能となる。 According to the present invention, the image data is composed of a bit pattern including a bit pattern for a first image area reproduced at a high resolution and a bit pattern for a second image area reproduced at a low resolution without losing color information. It becomes possible to convert it into data.
以下、図面を参照しながら、発明の好適な実施形態を例示的に説明する。ただし、以下に記載されている構成要素の内容、相対配置等は、特定的な記載がない限りは、発明の範囲をそれらのみに限定する趣旨のものではない。 Hereinafter, preferred embodiments of the invention will be exemplified with reference to the drawings. However, the contents, relative arrangements, etc. of the components described below are not intended to limit the scope of the invention to those alone unless otherwise specified.
[実施例1]
図2は、本実施例における画像形成装置200を含むシステムのブロック図である。このシステムでは、画像形成装置200とホスト210とが接続されている。
[Example 1]
FIG. 2 is a block diagram of a system including the
<画像形成装置について>
以下、図2に示す画像形成装置200の構成について説明する。CPU201は、RAM203をワークメモリとして、ROM202に格納されたプログラムを実行し、バス207を介して画像形成装置200の各構成要素を統括的に制御する。これにより、後述する様々な処理が実行される。ROM202には、印刷処理を行うためのプログラムやテーブル、組み込みオペレーティングシステム(OS)プログラム等が格納される。本実施例では、ROM202に格納されているプログラムは、ROM202に格納されている組み込みOSの管理下で、スケジューリングやタスクスイッチ等のソフトウエア制御を行う。また、図3等の本実施例におけるフローを実行するプログラムもROM202に格納される。RAM203は、SRAM(static RAM)等で構成され、プログラム実行時に作業領域が設けられる。
<About the image forming device>
Hereinafter, the configuration of the
ヘッド204は、記録媒体(用紙等)の搬送に同期して、色材を吐出して記録媒体上に画像を形成する。インターフェース(以下IF)205は、画像形成装置200と画像形成装置200の外部装置(本実施例ではホスト210)とを、有線又は無線で接続する。また、図示していないが、画像形成装置200は、ヘッド204を駆動するモータや、記録媒体を搬送するモータ等の機構を備える。更に、画像形成装置200は、特に画像処理等の高負荷な処理を行うためのハードウェア装置としてDSP(Digital Signal Processor)206を備えても良い。
The
これらの構成要素は、バス207を介して相互に電気的に接続されている。また、これらの構成要素の全部または一部が、単一のLSIとして実装され、ASICとして部品化されている場合もある。
These components are electrically connected to each other via
尚、以下では、画像形成装置200が1つのCPU、ROM、RAMを備えるインクジェットプリンタである場合について説明する。ただし、画像形成装置200は複数のCPU、ROM、RAMを備えていても良く、また、電子写真方式等の任意の方式のプリンタであっても良い。また、本実施例における画像形成装置とは、印刷機能に特化した専用機に限られず、印刷機能とその他の機能とを複合した複合機や、記録媒体上に画像やパターンを形成する製造装置等も含む。
In the following, a case where the
<ホストについて>
画像形成装置200は、I/F205を介してホスト210と接続される。ホストとは、処理能力を持つコンピュータのことであり、一般的なPCを始めとして、携帯電話、スマートフォン、タブレット、デジタルカメラ、並びにその他の携帯及び据置端末等が想定される。それぞれの装置の主目的によって、ホストが備える装置の内訳は変わるが、ホストは概ねCPU、ROM、RAM、IF、入力装置、出力装置を備える。
<About the host>
The
以下、図2に示すホスト210の構成について説明する。CPU211は、RAM213をワークメモリとして、ROM212に格納されたプログラムを実行し、バス217を介してホスト210の各構成要素を統括的に制御する。IF214は、ホスト210と画像形成装置200とを、有線又は無線で接続する。これらの構成要素は、バス217を介して相互に電気的に接続されている。また、ホスト210は、IF214を介して接続されている、ユーザがホストに指示を入力する入力装置215と、ユーザに情報を出力(提示)する出力装置216とを備える。
Hereinafter, the configuration of the
<ホストから画像形成装置へのデータ送信処理について>
以下、ホストから画像形成装置へのデータ送信処理について、スマートフォンからインクジェットプリンタを用いて文書を印刷する場合を例に挙げて説明する。
<About data transmission processing from the host to the image forming device>
Hereinafter, the data transmission process from the host to the image forming apparatus will be described by taking as an example a case where a document is printed from a smartphone using an inkjet printer.
スマートフォンで文書を閲覧しているユーザが、閲覧中の文書を印刷したい場合、スマートフォンを操作して印刷指示を入力する。印刷指示が入力されると、スマートフォン上のOSは、文書を何らかの形式の画像データに変換した後、印刷プロトコルに則って印刷ジョブを作成する(例えば、印刷対象の文書をPDFデータに変換し、PDFデータを含むXML形式の印刷ジョブを作成する)。スマートフォンは、作成した印刷ジョブをインクジェットプリンタに送信する。 When a user viewing a document on a smartphone wants to print the document being viewed, he / she operates the smartphone to input a print instruction. When a print instruction is input, the OS on the smartphone converts the document into image data in some format and then creates a print job according to the print protocol (for example, the document to be printed is converted into PDF data. Create an XML format print job that contains PDF data). The smartphone sends the created print job to the inkjet printer.
<インクジェットプリンタが実行する処理について>
以下、インクジェットプリンタが実行する処理について、図3を用いて説明する。
<About the processing executed by the inkjet printer>
Hereinafter, the processing executed by the inkjet printer will be described with reference to FIG.
ステップS300において、CPU201は、上述のスマートフォン等のホストから送信された印刷ジョブを解析し、印刷データを取得する。具体的には、CPU201は、XMLパーサを用いて印刷ジョブを解析し、使用する用紙や印刷品位等の情報を含む設定情報と、PDLで記述されたデータ(PDLデータ)とを取得し、該取得した設定情報及びPDLデータを、RAM203に格納する。
In step S300, the
ステップS310において、CPU201は、ステップS300で導出したPDLデータを解釈してディスプレイリストと呼ばれる中間ファイルを作成する。そして、ディスプレイリストに対するレンダリング処理を実行し、各画素が、R(レッド)、G(グリーン)、及びB(ブルー)の各チャンネルにつき16bitの値を持つ2400dpi×2400dpiのビットマップ画像を作成する。このビットマップ画像を「2400dpi×2400dpi,16bit,3chのビットマップ画像」と略記し、他のビットマップ画像についても同様に略記する。尚、本ステップで作成するビットマップ画像は、16bitのビットマップ画像に限定されず、プリンタの処理能力に応じたビットマップ画像(例えば、8bit,3chのような低ビットのビットマップ画像)を作成して良い。また、ディスプレイリストの作成や、ビットマップ画像の作成は、ページ全体に対し一括で実行しても良いし、RAM203の使用量を抑えるため、後続のステップS330からのリクエストに応じて、バンド単位で実行しても良い。さらに、本ステップは、CPU201の代わりにDSP206が実行しても良い。
In step S310, the
ステップS320において、CPU201は、ステップS310で導出したビットマップ画像に対するコンバート処理を実行する。コンバート処理では、2400dpi×2400dpiの画像における4×4画素の領域を1つのタイルとして扱い、タイル毎にエッジ領域とベタ領域との何れであるかが判定される。そして、各タイルが、この判定結果に応じた32bitのビットパターン(図6(a))で表現される。具体的には、エッジ領域と判定されたタイルは、図6(b)に示す32bitのビットパターンで表現される一方、ベタ領域と判定されたタイルは、図7(a)に示す32bitのビットパターンで表現される。このように本実施例では、エッジ領域、ベタ領域ともに、各像域内の全画素分の情報を、32bitのビットパターンで表現する。このビットパターンのデータ量(32bit)は、エッジ領域又はベタ領域を構成する全画素のデータ量(768bit)より少ない。ここでビットパターンの最上位ビットb31には、エッジ領域とベタ領域との何れであるかを示す識別フラグが格納され、エッジ領域の場合に0、ベタ領域の場合に1が格納される。一方、最上位ビットを除く下位ビットには、それぞれのタイルの情報に応じたデータが格納される。尚、本ステップにおけるコンバート処理については、図4を用いて後述する。
In step S320, the
ステップS330において、CPU201は、ステップS320のコンバート処理で導出したデータに基づく画像処理を実行する。本ステップにより、各画素がインク色の値を持つ画像データが導出され、RAM203上に展開される。この画像データは例えば、各画素がC(シアン)、M(マゼンダ)、Y(イエロー)、及びK(ブラック)の各チャンネルにつき1bitの値を持つ、1bit,4chの画像データである。尚、本ステップにおける画像処理については、図9を用いて後述する。
In step S330, the
ステップS340において、CPU201は、ステップS330で導出した画像データに基づき記録データを作成する。この記録データは例えば、各画素がインク色(CMYK等)の各チャンネルにつき0または1の値を持つ2値画像データである。本ステップで作成する記録データは、ヘッド204に送信されたときに用紙上に正しい方向に画像を形成するように、RAM203上に展開される。尚、本ステップにおける記録データ作成処理については、図10を用いて後述する。
In step S340, the
ステップS350において、CPU201は、ステップS340で導出した記録データをヘッド204に送信し、該送信した記録データに基づきヘッド204とフィーダとを駆動して、実際に用紙に画像を形成する画像形成処理を実行する。本ステップにおける画像形成処理については、図11を用いて後述する。
In step S350, the
<コンバート処理について>
以下、本実施例におけるコンバート処理(図3のステップS320)について、図4を用いて説明する。
<About conversion processing>
Hereinafter, the conversion process (step S320 in FIG. 3) in this embodiment will be described with reference to FIG.
ステップS400において、CPU201は、ステップS310で導出したビットマップ画像に対してエッジフィルタを適用する、エッジ検出処理を実行する。本実施例では、図5(a)に示す3×3のフィルタを用いた畳み込み演算を実行する。例えば、図5(b)に示す画像に図5(a)に示すフィルタを畳み込んだ場合、図5(c)に示すエッジ画像が導出される。
In step S400, the
ステップS410において、CPU201は、nを初期化、つまりnの値に1をセットする。ここでnは、処理対象の領域、即ち、画像データ内の所定サイズの領域(本実施例では2400dpi×2400dpiの画像における4×4画素の領域)である注目タイルを表すパラメータである。後続のステップS420〜ステップS460の処理は、タイル毎に順次実行されるので、本ステップで初期化を行う。
In step S410, the
ステップS420において、CPU201は、ステップS400で導出したエッジ画像における、注目タイルに対応する領域(注目領域)のエッジ量を導出する。ここでエッジ量とは、注目タイルがエッジ領域か(即ち、高解像度で再現すべき領域か)判定する際に指標として用いるパラメータであり、注目領域内の各画素の画素値の合計である。尚、本実施例では、任意の注目領域のエッジ量が所定の閾値Th1より大きい場合、該注目領域に対応する注目タイルはエッジ領域と判定されるものとする。
In step S420, the
ステップS430において、CPU201は、注目領域のエッジ量が閾値Th1より大きいか判定する。ステップS430の判定の結果が真の場合、注目タイルはエッジ領域と判定され、ステップS431に進む。一方、ステップS430の判定の結果が偽の場合、注目タイルはベタ領域と判定され、ステップS435に進む。尚、エッジ検出〜エッジ領域判定のアルゴリズムは前述の手法に限られず、他の手法を用いて良く、公知の技術を組み合わせて用いても良い。例えば、ステップS310で導出されるディスプレイリストに基づきオブジェクトがテキストであるか判定し、該判定の結果を用いてエッジ領域とベタ領域との何れであるか判定しても良い。
In step S430, the
以下、注目タイルがエッジ領域と判定された(ステップS430でYES)場合を説明する。この場合、ステップS431において、CPU201は、ステップS310で導出したフルカラー画像における注目タイルに対する量子化処理を実行し、前景色と背景色との2色のみで表現されたビットマップパターンを導出する。本ステップにおけるビットマップパターンの導出では、適応的な2値化処理等の任意の手法を用いて良い。ここで適応的な2値化処理の一例を、図16を用いて説明する。まず、同図の符号1601に示すような2次元XY平面において2次元画像を構成する各画素の画素値を、符号1602で示すようにRGB空間にプロットする。これに対してクラスタリング手法(例えばk−means法)を用いて、符号1603に示すように色を2群に分割し、分割された2群の一方を背景色(明るい色)、他方を前景色(暗い色)と決める。符号1603に示す結果を2次元XY平面にフィードバックすると、符号1604に示すように前景画素と背景画素との2種類の画素から成る2次元画像が得られる。尚、前景画素と背景画素とのそれぞれの画素値は、符号1605に示すように各群の色の平均値とする。本ステップにより、注目タイルを構成する4×4画素のうち、どの画素が前景画素に該当し、どの画素が背景画素に該当するかを示す形状情報(16bitデータ)が取得される。具体的には、注目画素が前景画素に該当する場合1の値を取る一方、注目画素が背景画素に該当する場合0の値を取る形状情報が、図6(b)に示す32bitのビットパターンのうち末尾の16bit領域「map_4×4」に格納される。このように本ステップでCPU201は、形状情報導出手段として機能する。
Hereinafter, the case where the tile of interest is determined to be the edge region (YES in step S430) will be described. In this case, in step S431, the
ステップS432において、CPU201は、ステップS431で導出したビットマップパターンで用いられる2色(それぞれ16bit,3ch)のそれぞれについて、階調数を減らす減色処理を実行する。具体的には、前景色については、RGB各チャンネルが1bitの値を持つ、1bit,3chの3bitデータで表現する一方、背景色については、RGB各チャンネルが4bitの値を持つ、4bit,3chの12bitデータで表現する。つまり前景色として、白、黒、赤、青、緑、シアン、マゼンタ、イエローの8種類の純色のうち何れか1色を指定可能である。減色処理後の前景色のRGB値は、図6(b)に示すビットパターンの3bit分の領域「fg_rgb」に格納され、減色処理後の背景色のRGB値は、12bit分の領域「bg_rgb」に格納される。このように本ステップでCPU201は、色情報導出手段として機能する。ここで色情報の導出手法を、図17を用いて具体的に説明する。本実施例では、図16を用いて説明した符号1701に示すような背景色平均値と前景色平均値との夫々に対して、符号1702に示すようなディザテーブルを用いた量子化処理を行う。ディザテーブルは4×4画素(=1タイル)を単位としてタイル毎の閾値を有する。この量子化処理は既に知られたアルゴリズムを用いて行って良い。例えば、背景色平均値が(0,10,230)、前景色平均値が(0,0,5)の場合に符号1702に示すディザテーブルを用いて量子化処理を行うと、背景色量子化値として(0,1,13)、前景色量子化値として(0,0,0)が得られる。量子化処理後、背景色と前景色との夫々について得られた量子化値をビットパターンの対応箇所に格納する。尚、それぞれのビットパターンを、ページ毎に辞書を持つパレットカラーとして用いても良い。前述のビットパターンをパレットカラーとして用いた場合、前景色として8色のうち何れか1色、背景色として2^12=4096色のうち何れか1色を指定可能となる。各ページのコンテンツに応じて用いるパレットを切り替えることで、各ページのコンテンツに応じた色表現が可能となる。
In step S432, the
次に、注目タイルがベタ領域と判定された(ステップS430でNO)場合を説明する。この場合、ステップS435において、CPU201は、ステップS310で導出したフルカラー画像における注目タイル内の各画素の画素値の和を取って、合計値を導出する。上述したように、本実施例では、注目タイルとは2400dpi×2400dpiの画像のうちの4×4画素の領域を指し、また、注目タイルを構成する各画素は、16bit,3chの情報を持つ。従って、本ステップで、元画像において1chあたり0〜65535の値域内の値を持つ画素の画素値を16画素分集計する結果、注目タイルは、1chあたり0〜1048560の値域内の値を持つこととなり、このような値は20bitで表現できる。
Next, a case where the tile of interest is determined to be a solid region (NO in step S430) will be described. In this case, in step S435, the
ステップS436において、CPU201は、ステップS435で導出したRGB値(それぞれ20bit)のそれぞれについて、階調数を減らす減色処理を実行し、それぞれ10bitのRGB値を導出する。本ステップで導出したR値は、図7(a)に示すビットパターンの10bit分の領域「r10」に格納され、同様に、G値は10bit分の領域「g10」に格納され、B値は10bit分の領域「b10」に格納される。ステップS435〜S436で導出した、10bit,3chの情報は、後続のステップで、600dpi×600dpiの画像における1画素の情報として取り扱われる。
In step S436, the
既に説明した通り、エッジ領域を表現するビットパターン(図6(b))とベタ領域を表現するビットパターン(図7(a))とのデータサイズ(ビット長)は共に32bitである。このように異なる像域のデータフォーマットを同一のデータサイズとすることで、アサインされたフォーマット単位で容易なランダムアクセスを可能とし、データ処理の効率を向上させることができる。 As described above, the data size (bit length) of the bit pattern (FIG. 6 (b)) representing the edge region and the bit pattern (FIG. 7 (a)) representing the solid region are both 32 bits. By setting the data formats of different image areas to the same data size in this way, it is possible to enable easy random access in the assigned format unit and improve the efficiency of data processing.
図4のフローの説明に戻る。ステップS440において、CPU201は、ビットパターンをメモリ上に配置する。図8は、画像データに対するコンバート処理完了後、画像の情報がメモリ上にどのように配置されるかを説明する図である。図8中の符号801は、エッジ領域とベタ領域という2種類の像域から成る画像データを示し、符号802は、コンバート処理完了後に画像の情報がメモリ上にどのように配置されるかを示す。尚、図8では、図6(b)に示すエッジ領域のビットパターンを図6(c)に示す略記形式で表現し、図7(a)に示すベタ領域のビットパターンを図7(b)に示す略記形式で表現している。
Returning to the explanation of the flow of FIG. In step S440, the
ステップS450において、CPU201は、nをインクリメントする。
In step S450, the
ステップS460において、CPU201は、nがタイルの総数より大きいか判定する。ステップS460の判定の結果が真の場合、一連の処理は終了する一方、該判定の結果が偽の場合、ステップS420に戻る。以上が、本実施例におけるコンバート処理の内容である。
In step S460, the
本実施例のコンバート処理では、エッジ領域について、前景色と背景色とを低ビットで(低階調で)表現することと引き換えに、形状を高解像で(2400dpi×2400dpiの画像における1画素単位で)表現する。一方、ベタ領域について、形状を低解像で(600dpi×600dpiの画像における1画素単位で)表現することと引き換えに、色を高ビットで(高階調で)表現する。 In the conversion process of this embodiment, in exchange for expressing the foreground color and the background color with low bits (low gradation) for the edge region, the shape is expressed with high resolution (1 pixel in an image of 2400 dpi × 2400 dpi). Express (in units). On the other hand, in the solid region, in exchange for expressing the shape with low resolution (in units of one pixel in an image of 600 dpi × 600 dpi), the color is expressed with high bits (with high gradation).
ここで画像における色再現能力は、画像中で同時に利用できる色の数(本実施例ではR,G,Bの3色)と各色で表現できる階調数とに基づいて定まる。一方、画像における形状再現能力は、各画素の信号値をどの程度細かい単位で(即ち、どの程度高い解像度で)表現できるかに依存する。つまり、本実施例では、エッジ領域においては色再現能力より形状再現能力を優先し、ベタ領域については形状再現能力より色再現能力を優先するとともに、エッジ領域とベタ領域とを同一のデータサイズのビットパターンで表現している。 Here, the color reproduction ability in an image is determined based on the number of colors that can be used simultaneously in the image (three colors of R, G, and B in this embodiment) and the number of gradations that can be expressed by each color. On the other hand, the shape reproduction ability in an image depends on how finely the signal value of each pixel can be expressed (that is, at what high resolution). That is, in this embodiment, the shape reproduction ability is prioritized over the color reproduction ability in the edge region, the color reproduction ability is prioritized over the shape reproduction ability in the solid region, and the edge region and the solid region have the same data size. It is expressed by a bit pattern.
<画像処理について>
以下、本実施例における画像処理(図3のステップS330)について、図9を用いて説明する。本画像処理は、図8のように配置されたメモリ上の全てのビットパターンに対して実行される。
<About image processing>
Hereinafter, the image processing (step S330 in FIG. 3) in this embodiment will be described with reference to FIG. This image processing is executed for all the bit patterns in the memory arranged as shown in FIG.
ステップS900において、CPU201は、mの値を初期化、つまりmの値に1をセットする。ここでmは、処理対象のビットパターン(以下、注目ビットパターン)を表すパラメータである。後続のステップS910〜ステップS960の処理は、図8に示すように配置されたメモリ上の、1タイルに相当する32bitのビットパターン毎に順次実行されるので、本ステップで初期化を行う。上述したように、1タイルのエッジ領域と1タイルのベタ領域とは共に、32bitのビットパターンで表現されているため、例えばDMAコントローラを用いたバースト転送等によって、ビットパターン毎の処理を、高速に順次実行することが可能である。
In step S900, the
ステップS910において、CPU201は、注目ビットパターンがエッジ領域とベタ領域との何れを表現しているか判定する。具体的には、注目ビットパターンの最上位bit(b31)が0であるか判定し、該判定の結果が真の場合、注目ビットパターンはエッジ領域を表現していると判定して、ステップS921に進む。一方、b31が0でないと判定した場合、注目ビットパターンはベタ領域を表現していると判定して、ステップS931に進む。
In step S910, the
以下、注目ビットパターンがエッジ領域を表現していると判定された(ステップS910でYES)場合を説明する。この場合、ステップS921において、CPU201は、注目ビットパターンで表現された前景色と背景色との夫々について、プリンタ内の画像処理装置の記録色空間内の色へと変換する色変換処理を実行する。記録色空間としては、プリンタの印刷表現可能な色域(ガマット)を表した色空間が用いられる。本ステップでの色変換処理により、プリンタの色域外の入力色は、プリンタの色域内の色に変換される(ガマット圧縮)。尚、ステップS432で、エッジ領域における前景色は3bit(8色)に減色され、背景色は12bit(4096色)に減色されているため、これらの色に直接対応する色変換LUTを予め用意することで、本ステップの色変換処理を簡便に実行できる。つまり、通常の色変換処理の際に発生する、LUT参照後の線形補間演算処理を省略できる。
Hereinafter, the case where it is determined that the bit pattern of interest represents the edge region (YES in step S910) will be described. In this case, in step S921, the
ステップS922において、CPU201は、ステップS921で導出した色の多値情報を、プリンタで用いられる色材の多値情報に変換する色分解処理を、前景色と背景色との夫々に対し実行する。例えば、C,M,Y,Kという4色のインクが用いられるインクジェットプリンタ(以下、CMYKインクジェットプリンタ)の場合、RGBの値がCMYKの値に変換される。例えば、黒色を示すRGB(0,0,0)はCMYK(0,0,0,255)に変換され、赤色を示すRGB(255,0,0)はCMYK(0,255,255,0)に変換される。
In step S922, the
ステップS923において、CPU201は、ステップS922で導出した色分解処理後の各インク色の信号値の階調を補正する階調補正処理を、前景色と背景色との夫々に対し実行する。本ステップで階調補正処理を実行する目的は、次の通りである。通常、インクジェットプリンタでは、単位面積当たりのインクの吐出量が多いほど、そのインクの色が強く紙面上に現れる。しかし、インクの吐出量と紙面上での発色性(分光反射率やLab値など)との間では非線形の関係が成り立つので、この発色性を補正するため、本ステップで階調補正処理を実行する。尚、インクの吐出量はヘッド204の製造交差により変わる虞があることから、この誤差を本ステップの階調補正処理で吸収しても良い。その場合、ヘッドの吐出量を推定する手法として、ユーザにテストパターンを印刷させる手法等の任意の公知の技術を用いることができる。
In step S923, the
ステップS924において、CPU201は、ステップS923で導出した各インク色の信号値を2値化する量子化処理を実行する。ここで、前段のステップS921〜ステップS923の処理は注目ビットパターン毎に実行するのに対し、本ステップの量子化処理は、注目ビットパターンに対応するタイル内の画素単位で、つまり2400dpi×2400dpiの解像度で実行する必要がある。具体的には、図6(b)に示すビットパターンの「map_4×4」に格納された形状情報に基づき、各画素が前景画素と背景画素との何れであるか判定する。そして、この判定の結果に応じて、各画素に、ステップS923で導出した各インク色(前景色又は背景色)の信号値を2値化した値を割り当てる。例えば、CMYKインクジェットプリンタの場合、本ステップにより、1bit,4chの値を持つ画素16個分(即ち1タイル分)に相当する合計64bitの出力結果が得られる。
In step S924, the
次に、注目ビットパターンがベタ領域を表現していると判定された(ステップS910でNO)場合を説明する。この場合、ステップS931において、CPU201は、注目ビットパターンにおけるr10,g10,b10の値(図7(a))で表現される色について、プリンタ内の画像処理装置の記録色空間内の色へと変換する色変換処理を実行する。
Next, a case where it is determined that the bit pattern of interest represents a solid region (NO in step S910) will be described. In this case, in step S931, the
ステップS932において、CPU201は、ステップS931で導出した色の多値情報を、プリンタの色材の多値情報に変換する色分解処理を実行する。
In step S932, the
ステップS933において、CPU201は、ステップS932で導出した色分解処理後の各インク色の信号値の階調を補正する階調補正処理を実行する。
In step S933, the
ステップS934において、CPU201は、ステップS933で導出した各インク色の信号値を、単位面積当たりのインクの吐出量を規定する吐出レベルに変換する量子化処理を実行する。ここで吐出レベルは、16段階の値(0〜15)を取る。尚、本ステップでは、吐出レベルのみが導出され、後続のインデクス展開処理(ステップS935)で、各ノズルに対する吐出の有無及び発数が求まる。本ステップの量子化処理により、600dpi×600dpiの画像における1画素毎の値(0〜15の何れか)が得られる。
In step S934, the
ステップS935において、CPU201は、ステップS934で導出した吐出レベルに基づくインデクス展開処理を実行する。インデクス展開処理とは、600dpi×600dpiの画像における1画素を、2400dpi×2400dpiの画像における4×4画素のビットマップパターンに展開する処理である。具体的には、600dpi×600dpiの画像における1画素が持つ各インク色の吐出レベルの値に基づき、2400dpi×2400dpiの画像における4×4画素の画素値を決定することでビットマップパターンを作成する。尚、インデクス展開処理は、周知の技術を用いて実行して良い。例えば、吐出レベルに応じたドット配置をテーブルとして予め記憶しておき、ステップS934で導出した吐出レベルに応じたテーブルを用いてドット配置を決定しても良い。本ステップのインデックス展開処理により、紙面上への最終的なドット配置先が決定する。例えば、ヘッド204が紙面上に2400dpi×2400dpiの解像度でドットを配置可能な場合、紙面を2400dpi×2400dpiの格子に区切った各座標に対し、ドットを配置するか否かが決定する。本ステップにより、1bit,4chの値を持つ画素16個分(即ち1タイル分)に相当する合計64bitの出力結果が得られる。
In step S935, the
ステップS940において、CPU201は、ステップS924又はステップS935で得た64bitの出力結果を、RAM203上のバッファに格納する。本ステップでバッファに格納された時点で、エッジ領域のデータとベタ領域のデータとはともに、2400dpiのヘッド204の各ノズルに対する、インクを吐出するか否か(On/Off)を制御する情報として同様の意味合いを持つようになる。従って、後続のステップS340における記録データ作成処理以降の処理については、従来のプリンタにおける処理と同様の処理を実行すれば良い。
In step S940, the
ステップS950において、CPU201は、mをインクリメントする。
In step S950, the
ステップS960において、CPU201は、mがビットパターンの総数より大きいか判定する。ステップS960の判定の結果が真の場合、一連の処理は終了する一方、該判定の結果が偽の場合、ステップS910に戻る。以上が、本実施例における画像処理の内容である。
In step S960, the
尚、ステップS923又はステップS933において、プリンタの機種に応じた補正量を用いて階調補正処理を実行することで、プリンタの全機種で同様の階調補正を実現しても良い。 In step S923 or step S933, the same gradation correction may be realized in all the printer models by executing the gradation correction processing using the correction amount according to the printer model.
また、上述の例では、注目タイル(注目ビットパターン)毎にエッジ領域とベタ領域との何れに対応するか判定し、該判定の結果に応じて異なる処理を実行した。しかし、全てのタイル(全てのビットパターン)に対して、エッジ領域に対して行う処理とベタ領域に対して行う処理とを別々に実行し、これらの処理の結果を、画像の像域判定(エッジ領域とベタ領域との何れであるかの判定)の結果に基づいて使い分けても良い。この場合、画像処理を選択的に実行する必要がなくなるためプリンタ回路の複雑化を防ぐことができ、また、像域判定の結果を待たずに画像処理を行うので処理時間を短縮することができる。 Further, in the above example, it is determined whether the edge region or the solid region corresponds to each tile of interest (bit pattern of interest), and different processes are executed according to the result of the determination. However, for all tiles (all bit patterns), the processing performed on the edge area and the processing performed on the solid area are separately executed, and the result of these processing is determined as the image area of the image (). It may be used properly based on the result of (determination of whether it is an edge region or a solid region). In this case, since it is not necessary to selectively execute the image processing, it is possible to prevent the printer circuit from becoming complicated, and since the image processing is performed without waiting for the result of the image area determination, the processing time can be shortened. ..
<記録データ作成処理について>
以下、本実施例における記録データ作成処理(図3のステップS340)について、図10を用いて説明する。
<About the recorded data creation process>
Hereinafter, the recorded data creation process (step S340 in FIG. 3) in this embodiment will be described with reference to FIG.
ステップ1000において、CPU201は、パス分解処理を実行する。シリアルヘッド方式のインクジェットプリンタでは、画像形成時のドットの着弾精度が低い場合、ドット着弾位置ずれに起因する色むらやスジが画質の低下を引き起こす。これを回避するためには、1回のヘッド走査で画像を形成する(シングルパス方式)のではなく、複数回のヘッド走査で画像を形成する(マルチパス方式)ことが有効である。従って、本ステップにおいて、マルチパス方式で印刷するための記録データを作成する。尚、パス分解の手法として、任意の公知の技術を用いて良い。
In step 1000, the
これまでの画像処理は、ラスター方向に画像を走査し、同方向に処理結果をRAM上に配置することで行っている。しかし、ヘッド204に記録データを送信する際には、ヘッド204が受け付ける方向(例えばカラム方向)に画像を再配置する必要がある。従って、ステップ1010において、CPU201は、ラスター方向に配置されている画像をカラム方向に配置された画像に変換するHV変換処理を実行する。尚、HV変換処理は、RAM203に対するメモリアクセスによって行っても良い。または、処理を高速化するために専用のハードウェアを介し、ラスター方向に配置された画像を直接バースト転送により入力し、ハードウェア上のSRAMにて再配置を行い、再配置結果をそのままヘッド204に直接転送するようにしても良い。以上が、本実施例における記録データ作成処理の内容である。
The image processing so far has been performed by scanning the image in the raster direction and arranging the processing result on the RAM in the same direction. However, when transmitting the recorded data to the
<画像を形成する処理について>
以下、本実施例における画像を形成する処理(図3のステップS350)について、図11を用いて説明する。図11は、一般的なシリアルヘッド方式のインクジェットプリンタにおける、用紙にインク滴を吐出して画像を形成する機構の概略図である。尚、図11中、x方向はキャリッジ1105の走査方向を表し、y方向は用紙1107の搬送方向を表す。
<About the process of forming an image>
Hereinafter, the process of forming an image (step S350 in FIG. 3) in this embodiment will be described with reference to FIG. FIG. 11 is a schematic view of a mechanism for forming an image by ejecting ink droplets onto paper in a general serial head type inkjet printer. In FIG. 11, the x direction represents the scanning direction of the
図示するように、インクジェットプリンタは、紙送りの機構として用紙を給紙する給紙シャフト1101と、用紙を排紙する排紙シャフト1102とを備え、これらのシャフトを回転させることで、用紙1107を一定の速度で搬送する。
As shown in the figure, the inkjet printer includes a
CMYK各色のインクを貯留するインクタンク1104はキャリッジ1105上に設置され、インクは、キャリッジ1105内の流路を通って吐出ヘッド1106に供給される。キャリッジ1105は搬送レール1103に装着されており、搬送レール1103に沿って移動可能である。吐出ヘッド1106は通信ケーブル(図示せず)を介してプリンタのバス207に接続されており、上述のHV変換によって導出された記録データと、インク吐出のタイミングを制御するヘッド吐出制御情報とを受け取る。記録データ及びヘッド吐出制御情報に基づきインクが吐出されることで、用紙上に画像が形成される。尚、吐出ヘッドが用紙にインク滴を吐出する方式として、サーマル方式とピエゾ方式との何れを採用しても良い。
An
ヘッド上には、例えば各インク色に対応する600dpi間隔で512個のノズルが一列ずつ並んでおり、インクジェットプリンタは、各ノズルに対する吐出のON/OFFを独立に制御可能である。 For example, 512 nozzles are arranged in a row on the head at intervals of 600 dpi corresponding to each ink color, and the inkjet printer can independently control ON / OFF of ejection for each nozzle.
シリアルヘッド方式のインクジェットプリンタは、キャリッジの移動と用紙の搬送との両方を制御することで、用紙上の任意の位置にヘッドを移動し、インクを吐出する。例えば、シングルパス方式でA4サイズ(横8.5インチ×縦11インチ)用紙に印刷する場合、キャリッジをx方向に移動しながらインクを吐出することで、1回のヘッド走査で横8.5インチ×縦0.85インチの領域に対する画像形成を行う。次いで、用紙をy方向に0.85インチ搬送してからヘッド走査を再び行うことで、次の横8.5インチ×縦0.85インチの領域に対する画像形成を行う。このようにヘッド走査と用紙搬送との繰り返しにより、シングルパス方式では13回のヘッド走査によって、A4サイズ用紙に対する画像形成処理は完了する。尚、マルチパス形式で印刷する場合、シングルパス形式での画像形成時よりも、ヘッド走査毎の用紙の搬送距離を短くして、ヘッド走査の回数を増加した画像形成が実行される。例えば4パスでA4サイズ用紙に印刷する場合、ヘッド走査毎の用紙の搬送距離を0.21インチに設定し、52回のヘッド走査によって画像形成処理は完了する。以上が、本実施例における画像を形成する処理の内容である。 The serial head type inkjet printer controls both the movement of the carriage and the transfer of the paper to move the head to an arbitrary position on the paper and eject the ink. For example, when printing on A4 size (8.5 inches wide x 11 inches long) paper using the single-pass method, ink is ejected while moving the carriage in the x direction, so that the width is 8.5 in one head scan. Image formation is performed on an area of inch × length 0.85 inch. Next, the paper is conveyed 0.85 inches in the y direction, and then the head scanning is performed again to form an image for the next region of 8.5 inches wide × 0.85 inches long. By repeating the head scanning and the paper transport in this way, the image forming process on the A4 size paper is completed by 13 head scannings in the single pass method. When printing in the multi-pass format, the image formation is performed by shortening the paper transport distance for each head scan and increasing the number of head scans as compared with the case of image formation in the single-pass format. For example, when printing on A4 size paper with 4 passes, the paper transport distance for each head scan is set to 0.21 inch, and the image formation process is completed by 52 head scans. The above is the content of the process for forming an image in this embodiment.
<本実施例の効果等について>
本実施例では、画像中のエッジ領域とベタ領域との両方について、多値の色情報を、所定のフォーマットのビットパターンで表現する(図6(b)、図7(a))。このビットパターンは、プリンタの特性(プリンタで使用されるインクの構成や、ヘッドの出力特性等)に依存しないので、ビットパターンを作成する際に、出力先のプリンタを考慮する必要がない点で有用である。特に商業印刷においては、複数台のプリンタエンジンをネットワーク経由で並列接続し、印刷ジョブを均等に割り振ることで装置の稼働率を常に高く保つ必要がある。そのためには、プリンタに依らず、レンダリング処理(ステップS310)及びコンバート処理(ステップS320)を実行できるかが重要になる。
<About the effect of this example>
In this embodiment, multi-valued color information is represented by a bit pattern in a predetermined format for both the edge region and the solid region in the image (FIGS. 6 (b) and 7 (a)). Since this bit pattern does not depend on the characteristics of the printer (the composition of the ink used in the printer, the output characteristics of the head, etc.), it is not necessary to consider the output destination printer when creating the bit pattern. It is useful. Especially in commercial printing, it is necessary to keep the operating rate of the equipment always high by connecting a plurality of printer engines in parallel via a network and allocating print jobs evenly. For that purpose, it is important whether the rendering process (step S310) and the conversion process (step S320) can be executed regardless of the printer.
また、PDLデータに基づくレンダリング処理によりラスター画像を作成するRIP処理は、専用のRIPサーバを用いて行うことが一般的である。RIPサーバは、特定のプリンタに紐づけず全プリンタに対して共通の資源として用いることで、個別のプリンタの稼働状況によらず常に最大のパフォーマンスで処理を実行することが可能となる。 Further, the RIP process for creating a raster image by the rendering process based on the PDL data is generally performed using a dedicated RIP server. By using the RIP server as a common resource for all printers without associating it with a specific printer, it is possible to always execute processing with maximum performance regardless of the operating status of individual printers.
さらに、出力先に指定されたプリンタが故障などにより使用できなくなった場合、ダウンタイムを最小限に抑えるためには、RIP処理後のデータを即座に他の使用可能なプリンタに送信することが求められる。そのような系においても、RIP処理後のデータフォーマットとして本実施例のフォーマットを採用することで、各プリンタでRIP処理後のデータを共通利用することが可能となり、生産性を高められる。 Furthermore, if the printer specified as the output destination becomes unusable due to a failure, etc., in order to minimize downtime, it is required to immediately send the data after RIP processing to another usable printer. Be done. Even in such a system, by adopting the format of this embodiment as the data format after the RIP processing, the data after the RIP processing can be commonly used by each printer, and the productivity can be improved.
尚、本実施例では、色再現能力より形状再現能力を優先する像域が、前景色と背景色とを指定するエッジ領域である場合を説明したが、このような像域に対応するビットパターンで指定する色の数は2に限らない。ビットパターンの形状情報で、各画素が3種類以上の画素の何れであるかを指定するような場合、該ビットパターンの色情報で指定する色の数は、3以上となる。つまり、ビットパターンでは形状情報で指定する画素の種類に応じた数の色が指定されるが、この数は、形状情報の単位である像域内の画素の総数より小さく且つ1より大きければ良い。 In this embodiment, the case where the image area in which the shape reproduction ability is prioritized over the color reproduction ability is the edge area for designating the foreground color and the background color has been described, but the bit pattern corresponding to such an image area has been described. The number of colors specified by is not limited to 2. When the shape information of the bit pattern specifies which of the three or more types of pixels each pixel is, the number of colors specified in the color information of the bit pattern is three or more. That is, in the bit pattern, a number of colors is specified according to the type of pixels specified in the shape information, and this number may be smaller than the total number of pixels in the image area, which is a unit of shape information, and larger than 1.
また、本実施例では、エッジ領域のビットパターンで指定する前景色と背景色との両方の階調数が、ベタ領域のビットパターンで指定する色の階調数より小さい場合を説明した。しかし、エッジ領域のビットパターンで指定する前景色と背景色との少なくとも一方の階調数が、ベタ領域のビットパターンで指定する色の階調数より小さければ良い。 Further, in this embodiment, the case where the number of gradations of both the foreground color and the background color specified by the bit pattern of the edge region is smaller than the number of gradations of the color specified by the bit pattern of the solid region has been described. However, it is sufficient that at least one gradation number of the foreground color and the background color specified by the bit pattern of the edge region is smaller than the gradation number of the color specified by the bit pattern of the solid region.
さらに、本実施例では、階調性より解像度を重視する像域がエッジ領域であり、解像度より階調性を重視する像域がベタ領域である場合を説明した。しかし、階調性より解像度を重視する像域と、解像度より階調性を重視する像域との組み合わせは、エッジ領域と、ベタ領域との組み合わせに限定されない。 Further, in this embodiment, the case where the image area in which the resolution is more important than the gradation is the edge region and the image area in which the gradation is more important than the resolution is the solid region has been described. However, the combination of the image area in which the resolution is more important than the gradation and the image area in which the gradation is more important than the resolution is not limited to the combination of the edge area and the solid area.
[実施例2]
実施例1におけるコンバート処理では、エッジ領域に対する減色処理(ステップS432)により、前景色は1bit,3chの3bitデータで表現され、背景色は4bit,3chの12bitデータで表現される(図6(b))。
[Example 2]
In the conversion process in the first embodiment, the foreground color is represented by 1 bit and 3
一方、本実施例では、処理対象とするタイルのサイズを拡大し、解像度2400dpi×2400dpiの画像における8×8画素の領域を1つのタイルとして扱うコンバート処理を実行する。本実施例のコンバート処理により、1タイルのエッジ領域と1タイルのベタ領域とは共に、128bitのビットパターンで表現される。これにより、エッジ領域の前景色及び背景色をフルカラー(30bit)で表現することが可能となる。尚、以下では実施例1との差分について主に説明し、実施例1と同様の構成及び同様の処理については説明を適宜省略する。 On the other hand, in this embodiment, the size of the tile to be processed is expanded, and the conversion process of treating the area of 8 × 8 pixels in the image having the resolution of 2400 dpi × 2400 dpi as one tile is executed. By the conversion process of this embodiment, both the edge area of one tile and the solid area of one tile are represented by a 128-bit bit pattern. This makes it possible to express the foreground color and background color of the edge region in full color (30 bits). In the following, the difference from the first embodiment will be mainly described, and the description of the same configuration and the same processing as that of the first embodiment will be omitted as appropriate.
<コンバート処理について>
以下、本実施例におけるコンバート処理について、図4を用いて説明する。
<About conversion processing>
Hereinafter, the conversion process in this embodiment will be described with reference to FIG.
ステップS400において、CPU201は、ステップS310で導出したビットマップ画像に対してエッジフィルタを適用する、エッジ検出処理を実行する。本実施例でも実施例1と同様に、図5(a)に示す3×3のフィルタを用いる。
In step S400, the
ステップS410において、CPU201は、nを初期化、つまりnの値に1をセットする。ここでnは、処理対象の領域(本実施例では2400dpi×2400dpiの画像における8×8画素の領域)である注目タイルを表すパラメータである。
In step S410, the
ステップS420において、CPU201は、ステップS400で導出したエッジ画像における注目領域のエッジ量を導出する。本実施例では、任意の注目領域のエッジ量が所定の閾値Th2より大きい場合、注目タイルはエッジ領域と判定されるものとする。
In step S420, the
ステップS430において、CPU201は、注目領域のエッジ量が閾値Th2より大きいか判定する。ステップS430の判定の結果が真の場合、注目タイルはエッジ領域と判定され、ステップS431に進む。一方、ステップS430の判定の結果が偽の場合、注目タイルはベタ領域と判定され、ステップS435に進む。
In step S430, the
以下、注目タイルがエッジ領域と判定された(ステップS430でYES)場合を説明する。ステップS431において、CPU201は、ステップS310で導出したフルカラー画像における注目タイルに対する量子化処理を実行し、前景色と背景色との2色のみで表現されたビットマップパターンを導出する。本ステップにおけるビットマップパターンの導出では、適応的な2値化処理等の任意の手法を用いて良い。本ステップにより、注目タイルを構成する8×8画素のうち、どの画素が前景画素に該当し、どの画素が背景画素に該当するかを示す形状情報(64bitデータ)が取得される。この形状情報は、図12に示す128bitのビットパターンのうち末尾の64bit領域「map_8×8」に格納される。
Hereinafter, the case where the tile of interest is determined to be the edge region (YES in step S430) will be described. In step S431, the
ステップS432において、CPU201は、ステップS431で導出したビットマップパターンで用いられる2色(それぞれ16bit,3ch)のそれぞれについて、階調数を減らす減色処理を実行する。具体的には、前景色と背景色との両方について、RGB各チャンネルが10bitの値を持つ、10bit,3chの30bitデータで表現する。減色処理後の前景色のRGB値は、図12に示すビットパターンの領域「fg_r10」、「fg_g10」、「fg_b10」に格納され、減色処理後の背景色のRGB値は、領域「bg_r10」、「bg_g10」、「bg_b10」に格納される。上述した通り、実施例1では、入力された16bit,3chの色情報に対する減色処理により、前景色は3bitデータで表現され、背景色は12bitデータで表現される。従って、実施例1では、背景色はフルカラーで表現することができるが、前景色をフルカラーで表現することができない。これに対し、本実施例では、減色処理後の前景色と背景色との両方をフルカラーで(30bitデータで)表現できる。
In step S432, the
次に、注目タイルがベタ領域と判定された(ステップS430でNO)場合を説明する。この場合、ステップS435において、CPU201は、ステップS310で導出したフルカラー画像における注目タイル(8×8画素の領域)を分割した4×4画素の領域(サブタイル)毎に、各画素の画素値の和を取って、サブタイル毎の合計値を導出する。元画像において1chあたり0〜65535の値域内の値を持つ画素の画素値を16画素分集計する結果、サブタイルは、1chあたり0〜1048560の値域内の値を持つこととなる。本ステップの結果、20bit,3chで表現可能なサブタイル1個辺りのデータが、サブタイル4個分取得される。これは、600dpi×600dpiの画像における2×2画素の領域の各画素に対応する画素値として、20bit,3chの値を取得することと同義である。
Next, a case where the tile of interest is determined to be a solid region (NO in step S430) will be described. In this case, in step S435, the
ステップS436において、CPU201は、ステップS435で導出したサブタイル毎のRGB値(それぞれ20bit)のそれぞれについて、階調数を減らす減色処理を実行し、それぞれ10bitのRGB値を導出する。本ステップで導出した4つのサブタイルのR値は夫々、図13に示すビットパターンの10bit分の領域「a11_r10」、「a10_r10」、「a01_r10」、「a00_r10」に格納される。同様に、4つのサブタイルのG値は夫々、図13に示すビットパターンの10bit分の領域「a11_g10」、「a10_g10」、「a01_g10」、「a00_g10」に格納される。同様に、4つのサブタイルのB値は夫々、図13に示すビットパターンの10bit分の領域「a11_b10」、「a10_b10」、「a01_b10」、「a00_b10」に格納される。ステップS435〜S436で導出した、4組の10bit,3chの情報は、後続のステップで、600dpi×600dpiの画像における2×2画素の情報として取り扱われる。以上が、本実施例におけるコンバート処理の内容である。
In step S436, the
既に説明した通り、エッジ領域を表現するビットパターン(図12)とベタ領域を表現するビットパターン(図13)とのデータサイズは共に128bitである。このように異なる情報を同一のデータサイズで持つことで、アサインされたフォーマット単位で容易なランダムアクセスを可能とし、データ処理の効率を向上させることができる。 As described above, the data sizes of the bit pattern representing the edge region (FIG. 12) and the bit pattern representing the solid region (FIG. 13) are both 128 bits. By having different information with the same data size in this way, it is possible to enable easy random access in the assigned format unit and improve the efficiency of data processing.
本実施例のコンバート処理では、エッジ領域について、形状を高解像で表現することと引き換えに、色を低解像で表現する。具体的には、300dpi×300dpiの画像における1画素単位で前景と背景との色情報を共有している。一方、ベタ領域について、形状を低解像で表現することと引き換えに、ベタの色をエッジ領域より高解像に(600×600dpiの画像における1画素単位で)表現可能である。つまり、本実施例でも実施例1と同様、エッジ領域においては色再現能力より形状再現能力を優先し、ベタ領域については形状再現能力より色再現能力を優先するとともに、エッジ領域とベタ領域とを同一のデータサイズのビットパターンで表現している。 In the conversion process of this embodiment, the color is expressed in low resolution in exchange for expressing the shape in high resolution in the edge region. Specifically, the color information between the foreground and the background is shared in units of one pixel in an image of 300 dpi × 300 dpi. On the other hand, in the solid region, in exchange for expressing the shape with a low resolution, the solid color can be expressed with a higher resolution than the edge region (in units of one pixel in an image of 600 × 600 dpi). That is, in this embodiment as in the first embodiment, the shape reproduction ability is prioritized over the color reproduction ability in the edge region, the color reproduction ability is prioritized over the shape reproduction ability in the solid region, and the edge region and the solid region are prioritized. It is represented by a bit pattern of the same data size.
尚、本実施例では、前景画素の色と背景画素の色との両方を30bitデータで表現する場合を説明したが、前景画素の色と背景画素の色とのそれぞれがフルカラーで表現されれば良く、用いるデータは30bitデータに限定されない。つまり、用いるビットパターンのビット長に応じて、前景画素の色と背景画素の色とに割り当てるビット領域のビット長を適宜変更して良い。 In this embodiment, the case where both the foreground pixel color and the background pixel color are expressed by 30-bit data has been described, but if each of the foreground pixel color and the background pixel color is expressed in full color, Well, the data used is not limited to 30-bit data. That is, the bit length of the bit region allocated to the color of the foreground pixel and the color of the background pixel may be appropriately changed according to the bit length of the bit pattern to be used.
[実施例3]
実施例1では、コンバート処理において、エッジ領域とベタ領域とを異なるフォーマットのビットパターンで表現する(図6(b)、図7(a))。これに対し、本実施例では、コンバート処理において、ベタ領域を、エッジ領域と同じビットパターン(図6(b))で表現する。即ち、画像データを、図7(a)に示すビットパターンを用いることなく、図6(b)に示すビットパターンのみで表現する。
[Example 3]
In the first embodiment, in the conversion process, the edge region and the solid region are represented by bit patterns in different formats (FIGS. 6 (b) and 7 (a)). On the other hand, in this embodiment, in the conversion process, the solid region is represented by the same bit pattern as the edge region (FIG. 6B). That is, the image data is represented only by the bit pattern shown in FIG. 6 (b) without using the bit pattern shown in FIG. 7 (a).
具体的には、2400dpi×2400dpiの画像における4×4画素の領域を1つのタイルとして扱う。そして、処理対象のタイル(注目タイル)がベタ領域と判定された場合、ベタの色を、実施例1では10bit,3chで表現したのに対し(図7(a))、本実施例では4bit,3chで表現する。これは、600dpi×600dpiの画像における1×1画素の領域において、ベタの色を4bit,3chで(RGB各chを16階調で)表現することと同義である。本実施例では、4bit,3chのベタの色を導出するための減色処理(16階調への減色処理)を、ディザ法を用いて実行することで階調性を担保する。尚、以下では実施例1との差分について主に説明し、実施例1と同様の構成及び同様の処理については説明を適宜省略する。 Specifically, the area of 4 × 4 pixels in the image of 2400 dpi × 2400 dpi is treated as one tile. When the tile to be processed (the tile of interest) is determined to be a solid region, the solid color is represented by 10 bits and 3 channels in the first embodiment (FIG. 7 (a)), whereas the solid color is 4 bits in the present embodiment. , Expressed in 3ch. This is synonymous with expressing a solid color with 4 bits and 3 channels (each RGB channel has 16 gradations) in a 1 × 1 pixel region in a 600 dpi × 600 dpi image. In this embodiment, the gradation property is ensured by executing the color reduction processing (color reduction processing to 16 gradations) for deriving the solid color of 4 bits and 3 channels by using the dither method. In the following, the difference from the first embodiment will be mainly described, and the description of the same configuration and the same processing as that of the first embodiment will be omitted as appropriate.
輝度の周期的な変化に対する人間の視覚特性(Visual Transfer Function)について、低周波な画像においてはわずかな輝度変化も識別できる一方、高周波な画像においては大きな輝度変化でないと識別できないことが知られている。 It is known that human visual characteristics (Visual Transfer Function) with respect to periodic changes in brightness can be identified only by large changes in brightness in high-frequency images, while even slight changes in brightness can be identified in low-frequency images. There is.
図14に、人間の階調変化の識別能である感度と周波数との関係(VTF曲線)を示す。画像における階調数がこのVTF曲線を上回っていれば十分な階調数であると言える。 FIG. 14 shows the relationship (VTF curve) between the sensitivity and the frequency, which is the discriminating ability of human gradation change. If the number of gradations in the image exceeds this VTF curve, it can be said that the number of gradations is sufficient.
以下、ディザにより600dpi×600dpiの画像データ(各画素が16階調で表現されている)を作成した場合を例に挙げて検討する。ここで、300dpi×300dpiの画像データにおける1画素は、600dpi×600dpiの画像データにおける2×2画素に相当する。また、150dpi×150dpiの画像データにおける1画素は、600dpi×600dpiの画像データにおける4×4画素に相当する。600dpi×600dpiの画像データにおける各画素は0〜15の16値を表せるので、300dpi×300dpiの画像データにおける1画素は、600dpi×600dpiの画像データにおける4画素を用いて0〜60(=15×4)の61値を表せる。同様に、150dpi×150dpiの画像データにおける1画素は、600dpi×600dpiの画像データにおける16画素を用いて0〜240(=15×16)の241値を表せる。前述の内容を一般化すると、600dpiを基準とした場合、Xdpiでは15×(600/X)^2+1階調を表現できる。つまり、面積階調では、解像度の低下と引き換えに、より細かな階調表現が可能となる。 Hereinafter, a case where image data of 600 dpi × 600 dpi (each pixel is represented by 16 gradations) is created by dither will be examined as an example. Here, one pixel in the image data of 300 dpi × 300 dpi corresponds to 2 × 2 pixels in the image data of 600 dpi × 600 dpi. Further, one pixel in the image data of 150 dpi × 150 dpi corresponds to 4 × 4 pixels in the image data of 600 dpi × 600 dpi. Since each pixel in the image data of 600 dpi × 600 dpi can represent 16 values of 0 to 15, one pixel in the image data of 300 dpi × 300 dpi uses 4 pixels in the image data of 600 dpi × 600 dpi and is 0 to 60 (= 15 ×). The 61 value of 4) can be expressed. Similarly, one pixel in the image data of 150 dpi × 150 dpi can represent a 241 value of 0 to 240 (= 15 × 16) by using 16 pixels in the image data of 600 dpi × 600 dpi. Generalizing the above contents, when 600 dpi is used as a reference, X dpi can express 15 × (600 / X) ^ 2 + 1 gradation. That is, in area gradation, finer gradation can be expressed in exchange for a decrease in resolution.
以上を踏まえ、ディザによる面積階調の値と周波数との関係を図14にプロットしたものが図15である。図15に示すように、ディザによる面積階調の値が、いずれの解像度においても、人間が識別可能な階調数(VTF曲線が示す階調数)を上回っており、ディザによる面積階調を用いることで十分な階調性を得られることが分かる。このことを利用して、本実施例では図6(b)に示すフォーマットのみを使用する。 Based on the above, FIG. 15 is a plot of the relationship between the area gradation value by dither and the frequency in FIG. As shown in FIG. 15, the value of the area gradation by dither exceeds the number of gradations that can be recognized by humans (the number of gradations indicated by the VTF curve) at any resolution, and the area gradation by dither is exceeded. It can be seen that sufficient gradation can be obtained by using it. Taking advantage of this, in this embodiment, only the format shown in FIG. 6B is used.
<コンバート処理について>
以下、本実施例におけるコンバート処理(図3のステップS320)について、図4を用いて説明する。本実施例では、ステップS436における減色処理のみが実施例1と異なる。
<About conversion processing>
Hereinafter, the conversion process (step S320 in FIG. 3) in this embodiment will be described with reference to FIG. In this embodiment, only the color reduction treatment in step S436 is different from that of the first embodiment.
ステップS436において、CPU201は、ステップS435で導出したRGB値(それぞれ20bit)のそれぞれについて、階調数を減らす減色処理を実行し、それぞれ4bitのRGB値を導出する。ここで本実施例では、減色処理を、ディザ法を用いて実行する。尚、ディザ法を用いて減色処理を実行する代わりに、誤差拡散法を用いて減色処理を実行しても良い。その理由は次の通りである。
In step S436, the
実施例1では、ベタ領域の色を、十分なビット数で(10bit,3chで)表現した(図7(a))。一方、本実施例では、ベタ領域の色を、4bit,3chで表現する(図6(b))。このベタ領域の色の情報を導出するための減色処理を、ディザ法を用いて実行した場合、弊害が発生する虞がある。例えば、後続のステップS924における量子化処理を、ディザ法を用いて実行するような場合、同一の領域に対して複数回のディザ処理が実行されることとなるので、ディザパターンの干渉により粒状感が悪化する。従って、誤差拡散法を用いて減色処理を実行することで、干渉の発生を回避できる。或いは、ディザ法を用いる際に予め、減色処理で用いるディザパターンと量子化処理で用いるディザパターンとが干渉しないようにパターンを設定しても良い。 In the first embodiment, the color of the solid region is expressed with a sufficient number of bits (10 bits, 3 channels) (FIG. 7 (a)). On the other hand, in this embodiment, the color of the solid region is represented by 4 bits and 3 channels (FIG. 6 (b)). When the color reduction process for deriving the color information of the solid region is executed by using the dither method, there is a possibility that an adverse effect may occur. For example, when the quantization process in the subsequent step S924 is executed by using the dither method, the dither process is executed a plurality of times for the same region, so that the dither pattern interferes with the graininess. Get worse. Therefore, it is possible to avoid the occurrence of interference by performing the color reduction processing using the error diffusion method. Alternatively, when using the dither method, a pattern may be set in advance so that the dither pattern used in the color reduction processing and the dither pattern used in the quantization processing do not interfere with each other.
減色処理で導出された4bit,3chの色情報は、図6(b)に示すビットパターンの12bit分の領域「bg_rgb」領域に格納される。また、領域「map_4×4」の全てのビットに対して、画素が背景画素であることを示す値として0が格納される。尚、領域「fg_rgb」は実施例1では前景の色情報が格納されたが、本実施例では参照されないため、不定値等の任意の値を格納して良い。 The color information of 4 bits and 3 channels derived by the color reduction processing is stored in the 12-bit area “bg_rgb” area of the bit pattern shown in FIG. 6 (b). Further, 0 is stored as a value indicating that the pixel is a background pixel for all the bits of the area “map_4 × 4”. Although the foreground color information is stored in the area "fg_rgb" in the first embodiment, it is not referred to in the present embodiment, so that an arbitrary value such as an indefinite value may be stored.
本実施例により、ベタ領域についてもエッジ領域と同様のビットパターンを作成することで、図9のステップS931〜ステップS935の処理を実行する必要がなくなるため、プリンタ内の画像処理装置の構成を簡便化できる。 According to this embodiment, by creating a bit pattern similar to the edge region for the solid region, it is not necessary to execute the processes of steps S931 to S935 in FIG. 9, so that the configuration of the image processing apparatus in the printer is simplified. Can be converted.
[その他の実施例]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Examples]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
200 画像形成装置
201 CPU
200
Claims (12)
第1の解像度で再現する第1の像域内の画素の画素値に基づき、前記第1の像域内のそれぞれの画素が前景画素と背景画素との何れであるかを示す形状情報を取得し、取得した前記形状情報に基づいて、前記前景画素の階調数が、前記背景画素の階調数よりも少なくなるように前記前景画素の色と前記背景画素の色との階調数を減らす減色処理によって、前記前景画素の色と前記背景画素の色とを示す色情報を導出する処理手段と、
前記処理手段によって取得された前記形状情報と、導出された前記色情報とに基づき、前記第1の像域内のそれぞれの画素について前記第1の像域内のそれぞれの画素が前景画素と背景画素との何れに該当するかを示すビットと、前記前景画素の色を示すビットと前記背景画素の色を示すビットと、を含み、前記背景画素の色を示すビット数が前記前景画素の色を示すビット数よりも多い前記第1のビットパターンを作成する第1の作成手段と、
前記第1の解像度より低い第2の解像度で再現する前記第1の像域と同じサイズの第2の像域内の画素の画素値に基づき、前記第1の像域の色情報より多いビット数で示される前記第2の像域の色情報が格納され、前記第1の作成手段で作成する前記第1のビットパターンと同じビット長の前記第2のビットパターンを作成する第2の作成手段と
を有することを特徴とする画像処理装置。 An image processing device that converts image data in a bitmap format into data consisting of a bit pattern including a first bit pattern and a second bit pattern.
Based on the pixel values of the pixels in the first image area reproduced at the first resolution, shape information indicating whether each pixel in the first image area is a foreground pixel or a background pixel is acquired, and shape information is acquired. Color reduction that reduces the number of gradations between the color of the foreground pixel and the color of the background pixel so that the number of gradations of the foreground pixel is smaller than the number of gradations of the background pixel based on the acquired shape information. A processing means for deriving color information indicating the color of the foreground pixel and the color of the background pixel by processing, and
Based on the shape information acquired by the processing means and the derived color information, for each pixel in the first image area, each pixel in the first image area is a foreground pixel and a background pixel. A bit indicating which of the above is applicable, a bit indicating the color of the foreground pixel, and a bit indicating the color of the background pixel are included, and the number of bits indicating the color of the background pixel indicates the color of the foreground pixel. A first creation means for creating the first bit pattern, which is larger than the number of bits, and
The number of bits larger than the color information of the first image area based on the pixel values of the pixels in the second image area of the same size as the first image area reproduced at the second resolution lower than the first resolution. A second creating means for creating the second bit pattern having the same bit length as the first bit pattern created by the first creating means, in which the color information of the second image region indicated by is stored. An image processing device characterized by having and.
前記第2の像域の色情報で、前記ベタ領域のベタの色が指定されることを特徴とする請求項3又は4に記載の画像処理装置。 Before Symbol color information of the first image area, the color of the background pixel and the color of the foreground pixel is specified,
The image processing apparatus according to claim 3 or 4 , wherein the solid color of the solid region is specified by the color information of the second image region.
前記ベタ領域の色情報を導出する第2の色情報導出手段と
を更に有することを特徴とする請求項6に記載の画像処理装置。 A first color information deriving means for deriving the color information of the edge region,
The image processing apparatus according to claim 6 , further comprising a second color information deriving means for deriving color information in the solid region.
前記第1の色情報導出手段は、色の階調数を減らす減色処理を実行することを特徴とする請求項7に記載の画像処理装置。 The quantization process is a binarization process, and is
The image processing apparatus according to claim 7, wherein the first color information deriving means executes a color reduction process for reducing the number of gradations of colors.
前記前景画素の色、及び、前記背景画素の色は、フルカラーで表現されることを特徴とする請求項5乃至8の何れか1項に記載の画像処理装置。 In the second bit pattern, a solid color for each image area obtained by dividing the second image area is specified.
The image processing apparatus according to any one of claims 5 to 8, wherein the color of the foreground pixel and the color of the background pixel are expressed in full color.
第1の解像度で再現する第1の像域内の画素の画素値に基づき、前記第1の像域内のそれぞれの画素が前景画素と背景画素との何れであるかを示す形状情報を取得し、取得した前記形状情報に基づいて、前記前景画素の階調数が、前記背景画素の階調数よりも少なくなるように前記前景画素の色と前記背景画素の色との階調数を減らす減色処理によって、前記前景画素の色と前記背景画素の色とを示す色情報を導出する処理ステップと、
前記処理ステップによって取得された前記形状情報と、導出された前記色情報とに基づき、前記第1の像域内のそれぞれの画素について前記第1の像域内のそれぞれの画素が前景画素と背景画素との何れに該当するかを示すビットと、前記前景画素の色を示すビットと前記背景画素の色を示すビットと、を含み、前記背景画素の色を示すビット数が前記前景画素の色を示すビット数よりも多い前記第1のビットパターンを作成する第1の作成ステップと、
前記第1の解像度より低い第2の解像度で再現する前記第1の像域と同じサイズの第2の像域内の画素の画素値に基づき、前記第1の像域の色情報より多いビット数で示される前記第2の像域の色情報が格納され、前記第1の作成ステップで作成する前記第1のビットパターンと同じビット長の前記第2のビットパターンを作成する第2の作成ステップと
を有することを特徴とする画像処理方法。 An image processing method for converting image data in a bitmap format into data consisting of a bit pattern including a first bit pattern and a second bit pattern.
Based on the pixel values of the pixels in the first image area reproduced at the first resolution, shape information indicating whether each pixel in the first image area is a foreground pixel or a background pixel is acquired, and shape information is acquired. Color reduction that reduces the number of gradations between the color of the foreground pixel and the color of the background pixel so that the number of gradations of the foreground pixel is smaller than the number of gradations of the background pixel based on the acquired shape information. A processing step of deriving color information indicating the color of the foreground pixel and the color of the background pixel by processing, and
Based on the shape information acquired by the processing step and the derived color information, for each pixel in the first image area, each pixel in the first image area is a foreground pixel and a background pixel. A bit indicating which of the above is applicable, a bit indicating the color of the foreground pixel, and a bit indicating the color of the background pixel are included, and the number of bits indicating the color of the background pixel indicates the color of the foreground pixel. The first creation step of creating the first bit pattern, which is larger than the number of bits, and
The number of bits larger than the color information of the first image area based on the pixel values of the pixels in the second image area of the same size as the first image area reproduced at the second resolution lower than the first resolution. A second creation step in which the color information of the second image area indicated by is stored and the second bit pattern having the same bit length as the first bit pattern created in the first creation step is created. An image processing method characterized by having and.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016244555A JP6896413B2 (en) | 2016-12-16 | 2016-12-16 | Image processing equipment, image processing methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016244555A JP6896413B2 (en) | 2016-12-16 | 2016-12-16 | Image processing equipment, image processing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018094879A JP2018094879A (en) | 2018-06-21 |
JP6896413B2 true JP6896413B2 (en) | 2021-06-30 |
Family
ID=62631671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016244555A Active JP6896413B2 (en) | 2016-12-16 | 2016-12-16 | Image processing equipment, image processing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6896413B2 (en) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08317220A (en) * | 1995-03-16 | 1996-11-29 | Toshiba Corp | Encoding and decoding device and method for mixed image of different value bit maps |
JPH11103388A (en) * | 1997-09-26 | 1999-04-13 | Ricoh Co Ltd | Image output device |
JP2002190956A (en) * | 2000-12-22 | 2002-07-05 | Fuji Xerox Co Ltd | Image encoding equipment and image decoding equipment |
WO2005046213A1 (en) * | 2003-11-06 | 2005-05-19 | National University Of Singapore | Document image encoding/decoding |
JP2010028796A (en) * | 2008-07-22 | 2010-02-04 | Toshiba Corp | Image forming apparatus, image converting device, and image forming method |
JP5312166B2 (en) * | 2009-04-13 | 2013-10-09 | キヤノン株式会社 | Image processing apparatus, control method, and program |
JP5524584B2 (en) * | 2009-11-20 | 2014-06-18 | キヤノン株式会社 | Image processing apparatus and control method thereof |
-
2016
- 2016-12-16 JP JP2016244555A patent/JP6896413B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018094879A (en) | 2018-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200349405A1 (en) | Image processing apparatus, image processing method and storage medium | |
US9317788B2 (en) | Image processing apparatus for performing image processing for recording text and images, and image processing method for performing image processing for recording text and images | |
US20110001993A1 (en) | Image processing method and image processing apparatus | |
US9596384B2 (en) | Signal conversion method and apparatus, program, and print system | |
JP2007053749A (en) | Conversion method for converting digital image acquired by scanner, device, and computer program | |
US9135540B2 (en) | Image processing apparatus, image processing method, and program for processing black characters at high resolution | |
JP6821418B2 (en) | Image processing equipment, image processing methods, and programs | |
US11479051B2 (en) | Image processing apparatus controlling printing according to unidirectional printing method or bidirectional printing method | |
JP6506577B2 (en) | Image processing apparatus and method, and image recording apparatus | |
JP2011025658A (en) | Image forming apparatus and method | |
US11010648B2 (en) | Image processing apparatus converting target partial image data to partial print data using first profile or second profile | |
US9716809B2 (en) | Image processing method and image processing apparatus | |
US20120236337A1 (en) | Image processing apparatus | |
US11416723B2 (en) | Image processing apparatus, and non-transitory computer-readable recording medium therefor | |
US10974520B2 (en) | Image processing device generating print data using profile corresponding to printing direction | |
US9789684B2 (en) | Control device for controlling printer having print head | |
JP6896413B2 (en) | Image processing equipment, image processing methods, and programs | |
JP2019171647A (en) | Printer and printing method | |
JP6015048B2 (en) | Image processing device | |
JP2020028988A (en) | Image processing device and computer program | |
JP2008283269A (en) | Image processing device and image processing method | |
JP5732864B2 (en) | Information processing apparatus, program, and printing method | |
JP2022091000A (en) | Image processing device and control method of the same | |
JP2010247395A (en) | Image forming apparatus and image forming method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200915 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210511 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210609 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6896413 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |