Nothing Special   »   [go: up one dir, main page]

JP2001222704A - Method and device for image processing - Google Patents

Method and device for image processing

Info

Publication number
JP2001222704A
JP2001222704A JP2000031811A JP2000031811A JP2001222704A JP 2001222704 A JP2001222704 A JP 2001222704A JP 2000031811 A JP2000031811 A JP 2000031811A JP 2000031811 A JP2000031811 A JP 2000031811A JP 2001222704 A JP2001222704 A JP 2001222704A
Authority
JP
Japan
Prior art keywords
image processing
subject
image
radiation
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000031811A
Other languages
Japanese (ja)
Other versions
JP2001222704A5 (en
Inventor
Satoshi Kasai
聡 笠井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2000031811A priority Critical patent/JP2001222704A/en
Publication of JP2001222704A publication Critical patent/JP2001222704A/en
Publication of JP2001222704A5 publication Critical patent/JP2001222704A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Conversion Of X-Rays Into Visible Images (AREA)
  • Radiography Using Non-Light Waves (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the recognition accuracy of an interest area, to perform stable image processing and also to easily and accurately distinguish the inside of a subject from the outside of the subject according to the position recognition of the subject. SOLUTION: A subject position where the subject appears is recognized, and an interest area is decided at a desired position in a radiation image on the basis of the recognition results of the subject position, an image processing condition is decided on the basis of image information in the interest area, and image processing is performed by using the image processing condition. The subject position where the subject exists is also inputted, an interest position is decided on the basis of the inputted subject position, an image processing condition is decided on the basis of image information in the interest area, and image processing is performed by using the image processing condition. The subject position where the subject exists is also inputted, the inputted subject position is recognized, whether the recognized subject position exists at a correct position is discriminated, and an image processing condition is decided on the basis of the inputted subject position when the subject position is decided to be wrong.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、画像上の被写体
位置を認識し、その情報に基づいて関心領域を決定する
ことにより安定した画像処理条件を得る画像処理方法及
び画像処理装置に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image processing method and an image processing apparatus for recognizing a position of a subject on an image and determining a region of interest based on the information to obtain stable image processing conditions.

【0002】[0002]

【従来の技術】近年、放射線画像を直接デジタル画像と
して撮影できる装置が開発されている。例えば、被写体
に照射された放射線量を検出し、その検出量に対応して
形成される放射線画像を電気信号として得る装置として
は、輝尽性蛍光体を用いたディテクタを用いる方法が特
開昭55−12429号公報、特開昭63−18985
3号公報など、多数開示されている。このような装置で
は、シート状の基板に輝尽性蛍光体を塗布、あるいは蒸
着等によって固着したディテクタに、一旦被写体を透過
した放射線を照射して輝尽性蛍光体に放射線を吸収させ
る。その後、この輝尽性蛍光体を光または熱エネルギー
で励起することにより、この輝尽性蛍光体が吸収によっ
て蓄積している放射線エネルギーを蛍光として放射さ
せ、この蛍光を光電変換して画像信号を得るようにして
いる。
2. Description of the Related Art In recent years, devices capable of directly taking a radiation image as a digital image have been developed. For example, as a device that detects the amount of radiation applied to a subject and obtains a radiation image formed in accordance with the detected amount as an electric signal, a method using a detector using a stimulable phosphor is disclosed in Japanese Patent Application Laid-Open No. H10-163,873. No. 55-12429, JP-A-63-18985
Many publications such as Japanese Patent Publication No. 3 are disclosed. In such an apparatus, a stimulable phosphor is applied to a sheet-like substrate, or a detector fixed by vapor deposition or the like is once irradiated with radiation that has passed through a subject, so that the stimulable phosphor absorbs the radiation. Then, by exciting the stimulable phosphor with light or heat energy, the radiation energy accumulated by absorption by the stimulable phosphor is emitted as fluorescence, and the fluorescence is photoelectrically converted to form an image signal. I'm trying to get.

【0003】一方、照射された放射線の強度に応じた電
荷を光導電層に生成し、生成された電荷を二次元的に配
列された複数のコンデンサに蓄積し、それら蓄積された
電荷を取り出すことにより得られる放射線画像検出装置
が提案されている。このような放射線画像検出装置で
は、フラットパネルディテクタ(FPD)と呼ばれるも
のを使用している。この種のFPDは、特開平9−90
048号公報に記載されているように、蛍光をフォトダ
イオードで検知したり、CCDやC−MOSセンサで検
出することができる。また、特開平6−342098号
公報にも同様なFPDが記載されている。
On the other hand, an electric charge corresponding to the intensity of the irradiated radiation is generated in a photoconductive layer, the generated electric charge is stored in a plurality of two-dimensionally arranged capacitors, and the stored electric charge is taken out. Has been proposed. Such a radiation image detecting apparatus uses what is called a flat panel detector (FPD). This type of FPD is disclosed in JP-A-9-90.
As described in Japanese Patent Application Publication No. 048, fluorescence can be detected by a photodiode or a CCD or C-MOS sensor. A similar FPD is described in Japanese Patent Application Laid-Open No. 6-342098.

【0004】これらの装置では、被写体を通過した放射
線に基づいて生成された放射線画像から被写体領域を得
る処理で、例えば特開昭61−170178号公報及び
特開昭63−29621号公報に記載されているよう
に、照射野内を閥値処理して、背景部と被写体部に分
け、また特開平04−8351号公報に記載されるよう
に、被写体部の略半円形の辺縁における画像信号の変化
を捉えることによる被写体認識や、特微量を計算し、そ
の情報から被写体位置を認識するものがある。
In these apparatuses, a process for obtaining a subject area from a radiation image generated based on radiation passing through the subject is described in, for example, JP-A-61-170178 and JP-A-63-29621. As described above, the inside of the irradiation field is subjected to threshold value processing to divide it into a background portion and a subject portion, and as described in Japanese Patent Application Laid-Open No. 04-8351, an image signal at a substantially semicircular edge of the subject portion is obtained. There is a method of recognizing a subject by capturing a change or calculating a very small amount and recognizing a position of the subject from the information.

【0005】[0005]

【発明が解決しようとする課題】ところで、通常、放射
線撮影での人体への不要な被曝を避けるために、照射野
絞りと呼ばれる放射線遮蔽物を用いて、放射線が照射さ
れる領域を限定して撮影することが一般的であり、被写
体領域内の大きさや、放射線遮蔽部が画像中に含まれる
割合や、マーカー等が挿入されている位置によって、被
写体位置を誤認識する可能性が高い。
By the way, usually, in order to avoid unnecessary exposure to the human body during radiography, a radiation shielding area called an irradiation field aperture is used to limit an area irradiated with radiation. Photographing is generally performed, and the possibility of erroneously recognizing the subject position is high depending on the size of the subject area, the ratio of the radiation shielding portion included in the image, and the position where a marker or the like is inserted.

【0006】例えば、特に放射線遮蔽部の近くにマーカ
ーが入っている場合や、放射線遮蔽部の濃度が比較的高
い場合などに被写体位置を誤認識する可能性が高い。
[0006] For example, there is a high possibility that the position of the subject is erroneously recognized, particularly when a marker is placed near the radiation shielding portion or when the density of the radiation shielding portion is relatively high.

【0007】この発明は、かかる実情に鑑みてなされた
もので、関心領域認識精度が向上し安定した画像処理を
施すことが可能であり、また被写体の位置認識により被
写体内と被写体外の区別を容易にかつ正確に行うことが
できるようにすることを目的としている。
The present invention has been made in view of such circumstances, and it is possible to improve the accuracy of recognition of a region of interest and perform stable image processing. In addition, it is possible to distinguish the inside and outside of a subject by recognizing the position of the subject. It is intended to be able to perform easily and accurately.

【0008】[0008]

【課題を解決するための手段】前記課題を解決し、かつ
目的を達成するために、この発明は、以下のように構成
した。
Means for Solving the Problems In order to solve the above problems and achieve the object, the present invention has the following constitution.

【0009】請求項1に記載の発明は、『被写体を通過
した放射線に基づいて生成された放射線画像を得る画像
処理方法であって、被写体が写っている被写体位置を認
識し、この被写体位置の認識結果に基づいて放射線画像
中の所望の位置に関心領域を決定し、この関心領域内の
画像情報に基づいて画像処理条件を決定し、この画像処
理条件を用いて画像処理を行うことを特徴とする画像処
理方法。』である。
The first aspect of the present invention is an image processing method for obtaining a radiation image generated based on radiation passing through an object, the method comprising recognizing a position of an object in which the object appears, and A region of interest is determined at a desired position in the radiation image based on the recognition result, an image processing condition is determined based on image information in the region of interest, and image processing is performed using the image processing condition. Image processing method. ].

【0010】この請求項1に記載の発明によれば、被写
体位置を認識することにより関心領域認識精度を向上さ
せ、この関心領域内の画像情報に基づいて画像処理条件
を決定することで、安定した画像処理を施すことが可能
となる。
According to the first aspect of the present invention, the recognition accuracy of the region of interest is improved by recognizing the position of the subject, and the image processing conditions are determined based on the image information in the region of interest, thereby achieving a stable operation. Image processing can be performed.

【0011】請求項2に記載の発明は、『被写体を通過
した放射線に基づいて生成された放射線画像を得る画像
処理方法であって、被写体が存在している被写体位置を
入力し、入力された被写体位置に基づいて関心領域を決
定し、関心領域内の画像情報に基づいて画像処理条件を
決定し、この画像処理条件を用いて画像処理を行うこと
を特徴とする画像処理装置。』である。
According to a second aspect of the present invention, there is provided an image processing method for obtaining a radiation image generated based on radiation passing through a subject, wherein the position of the subject where the subject is present is input, and An image processing apparatus comprising: determining a region of interest based on a position of a subject; determining image processing conditions based on image information in the region of interest; and performing image processing using the image processing conditions. ].

【0012】この請求項2に記載の発明によれば、手動
で被写体の位置を入力することによって、正確に所望の
位置に関心領域を設定することができ、この関心領域内
の画像情報に基づいて画像処理条件を決定することで、
より安定した画像処理を施すことが可能となる。
According to the second aspect of the present invention, the region of interest can be accurately set at a desired position by manually inputting the position of the subject, and based on image information in the region of interest. By determining the image processing conditions,
More stable image processing can be performed.

【0013】請求項3に記載の発明は、『被写体を通過
した放射線に基づいて生成された放射線画像を得る画像
処理方法であって、被写体位置を認識し、この認識され
た被写体位置が正しい位置であるかを判別し、被写体位
置が誤りであると判断された場合は被写体が存在してい
る被写体位置を入力し、入力された被写体位置に基づい
て画像処理条件を決定することを特徴とする画像処理方
法。』である。
According to a third aspect of the present invention, there is provided an image processing method for obtaining a radiation image generated based on radiation passing through a subject, wherein the subject position is recognized, and the recognized subject position is a correct position. Is determined, and when it is determined that the subject position is incorrect, the subject position where the subject exists is input, and the image processing condition is determined based on the input subject position. Image processing method. ].

【0014】この請求項3に記載の発明によれば、認識
した被写体領域の正誤判定を行うことによって、正確に
被写体領域を認識することができ、また、認識した被写
体領域が間違いであった場合、被写体領域を決定するこ
とができ、より正確に、所望の位置に関心領域を設定す
ることができ、この関心領域内の画像情報に基づいて画
像処理条件を決定することで、より安定した画像処理を
施すことが可能となる。
According to the third aspect of the present invention, the correctness of the recognized subject area is determined, whereby the subject area can be accurately recognized, and when the recognized subject area is incorrect. The object region can be determined, the region of interest can be set more accurately at a desired position, and the image processing condition is determined based on the image information in the region of interest, so that a more stable image can be obtained. Processing can be performed.

【0015】請求項4に記載の発明は、『被写体位置に
応じて画像を回転することを特徴とする請求項1乃至請
求項3のいずれか1項に記載の画像処理方法。』であ
る。
According to a fourth aspect of the present invention, there is provided the image processing method according to any one of the first to third aspects, wherein the image is rotated according to the position of the subject. ].

【0016】この請求項4に記載の発明によれば、認識
した被写体位置によって画像の向きを回転することによ
り、例えば、同一撮影方向の乳房を向かい合った向き
に、モニタに表示したり、1枚もしくは、複数枚のフィ
ルムに出力したりすることによって、比較読影等を容易
に行なうことができる。
According to the fourth aspect of the present invention, by rotating the direction of the image according to the recognized subject position, for example, the breasts in the same photographing direction are displayed on the monitor in a facing direction, or one breast is displayed. Alternatively, comparative reading and the like can be easily performed by outputting to a plurality of films.

【0017】請求項5に記載の発明は、『前記被写体位
置認識が、前記放射線画像の所定の位置における画素の
並びを組み替えることによって得られる行列を作成し、
この行列作成により得られた情報から被写体位置を認識
することを特徴とする請求項1乃至請求項4のいずれか
1項に記載の画像処理方法。』である。
According to a fifth aspect of the present invention, there is provided a method as described above, wherein "the subject position recognition is performed by creating a matrix obtained by rearranging the arrangement of pixels at a predetermined position of the radiation image;
The image processing method according to any one of claims 1 to 4, wherein the position of the subject is recognized from the information obtained by creating the matrix. ].

【0018】この請求項5に記載の発明によれば、所定
の位置の画素を並び替え、局所的な画像の特徴をよく表
す行列に変換することによって、原画像よりも高い精度
で被写体位置を認識することができる。
According to the fifth aspect of the present invention, by rearranging the pixels at the predetermined positions and converting the pixels into a matrix representing the characteristics of the local image, the position of the subject can be determined with higher accuracy than the original image. Can be recognized.

【0019】請求項6に記載の発明は、『前記行列作成
によって作成されるものは、濃度共起行列であることを
特徴とする請求項5に記載の画像処理方法。』である。
According to a sixth aspect of the present invention, there is provided the image processing method according to the fifth aspect, wherein the one created by the matrix creation is a density co-occurrence matrix. ].

【0020】この請求項6に記載の発明によれば、濃度
共起行列を作成することによって、局所的な画像の特徴
をよく表すことができ、原画像よりも高い精度で被写体
位置を認識することができる。
According to the sixth aspect of the present invention, by creating the density co-occurrence matrix, the characteristics of the local image can be well represented, and the position of the subject can be recognized with higher accuracy than the original image. be able to.

【0021】請求項7に記載の発明は、『前記画像処理
が階調処理であることを特徴とする請求項1乃至請求項
6のいずれか1項に記載の画像処理装置。』である。
According to a seventh aspect of the present invention, there is provided an image processing apparatus according to any one of the first to sixth aspects, wherein the image processing is a gradation processing. ].

【0022】この請求項7に記載の発明によれば、階調
処理により画像データレベルの分布が変動しても、診断
等に適した濃度及びコントラストの放射線画像を得るこ
とができる。
According to the present invention, even if the distribution of the image data level fluctuates due to the gradation processing, it is possible to obtain a radiation image having a density and contrast suitable for diagnosis and the like.

【0023】請求項8に記載の発明は、『前記画像処理
がダイナミックレンジ圧縮処理であることを特徴とする
請求項1乃至請求項7のいずれか1項に記載の画像処理
方法。』である。
[0023] The invention according to an eighth aspect is the image processing method according to any one of the first to seventh aspects, wherein the image processing is a dynamic range compression processing. ].

【0024】この請求項8に記載の発明によれば、ダイ
ナミックレンジ圧縮処理によりダイナミックレンジの広
い放射線画像の全体を、被写体の細かい構造部分のコン
トラストを低下させることなく見やすい濃度範囲内に収
めることができる。
According to the eighth aspect of the present invention, the entire radiographic image having a wide dynamic range can be kept within the easily viewable density range without deteriorating the contrast of the fine structure portion of the subject by the dynamic range compression processing. it can.

【0025】請求項9に記載の発明は、『前記画像処理
が周波数処理であることを特徴とする請求項1乃至請求
項7のいずれか1項に記載の画像処理方法。』である。
According to a ninth aspect of the present invention, there is provided the image processing method according to any one of the first to seventh aspects, wherein the image processing is frequency processing. ].

【0026】この請求項9に記載の発明によれば、周波
数処理により放射線画像の鮮鋭度を制御することができ
る。
According to the ninth aspect, the sharpness of the radiation image can be controlled by the frequency processing.

【0027】請求項10に記載の発明は、『被写体を通
過した放射線に基づいて生成された放射線画像を得る画
像処理装置であって、被写体が写っている位置を認識す
る被写体位置認識手段と、前記被写体位置認識手段によ
り得られた認識結果に基づいて放射線画像中の所望の位
置に関心領域を決定する関心領域決定手段と、前記関心
領域内の画像情報に基づいて画像処理条件を決定する画
像処理条件決定手段を有し、前記画像処理条件を用いて
画像処理を行うことを特徴とする画像処理装置。』であ
る。
According to a tenth aspect of the present invention, there is provided an image processing apparatus for obtaining a radiation image generated based on radiation passing through a subject, wherein a subject position recognizing means for recognizing a position where the subject is shown; A region-of-interest determining unit that determines a region of interest at a desired position in a radiation image based on the recognition result obtained by the object position recognition unit; and an image that determines image processing conditions based on image information in the region of interest. An image processing apparatus comprising processing condition determination means, and performing image processing using the image processing conditions. ].

【0028】この請求項10に記載の発明によれば、被
写体位置認識手段により被写体位置を認識することによ
り関心領域認識精度を向上させ、画像処理条件決定手段
により関心領域内の画像情報に基づいて画像処理条件を
決定することで、安定した画像処理を施すことが可能と
なる。
According to the tenth aspect of the invention, the accuracy of the region of interest recognition is improved by recognizing the position of the object by the object position recognizing means, and the image processing condition determining means determines the accuracy based on the image information in the region of interest. By determining the image processing conditions, stable image processing can be performed.

【0029】請求項11に記載の発明は、『被写体を通
過した放射線に基づいて生成された放射線画像を得る画
像処理装置であって、被写体が存在している位置を入力
する被写体位置入力手段と、入力された被写体位置に基
づいて関心領域を決定する関心領城決定手段と、前記関
心領域内の画像情報に基づいて画像処理条件を決定する
画像処理条件決定手段を有し、前記画像処理条件を用い
て画像処理を行うことを特徴とする画像処理装置。』で
ある。
An invention according to claim 11 is an image processing apparatus for obtaining a radiation image generated based on radiation passing through a subject, wherein a subject position input means for inputting a position where the subject exists. A region-of-interest determination unit that determines a region of interest based on the input subject position; and an image processing condition determination unit that determines image processing conditions based on image information in the region of interest. An image processing apparatus, wherein image processing is performed by using an image processing apparatus. ].

【0030】この請求項11に記載の発明によれば、被
写体位置入力手段により手動で被写体の位置を入力する
ことによって、正確に所望の位置に関心領域を設定する
ことができ、この関心領域内の画像情報に基づいて画像
処理条件決定手段により画像処理条件を決定すること
で、より安定した画像処理を施すことが可能となる。
According to the eleventh aspect, by manually inputting the position of the subject using the subject position input means, the region of interest can be accurately set at a desired position. By determining the image processing conditions by the image processing condition determining means based on the image information, more stable image processing can be performed.

【0031】請求項12に記載の発明は、『被写体を通
過した放射線に基づいて生成された放射線画像を得る画
像処理装置であって、被写体が存在している位置を入力
する被写体位置入力手段と、被写体が写っている位置を
認識する被写体位置認識手段と、前記被写体位置認識手
段により認識された被写体位置が正しい位置であるかを
判別する被写体位置判別手段を有し、前記被写体位置判
別手段により、被写体位置が誤りであると判断された場
合は前記被写体位置入力手段により入力された被写体位
置に基づいて画像処理条件を決定することを特徴とする
画像処理装置。』である。
According to a twelfth aspect of the present invention, there is provided an image processing apparatus for obtaining a radiation image generated based on radiation passing through a subject, the subject position input means for inputting a position where the subject exists. Subject position recognizing means for recognizing the position where the subject is captured, and subject position determining means for determining whether the subject position recognized by the subject position recognizing means is a correct position. An image processing apparatus for determining an image processing condition based on the subject position input by the subject position input means when it is determined that the subject position is incorrect. ].

【0032】この請求項12に記載の発明によれば、被
写体位置判別手段により、被写体位置認識手段で認識し
た被写体領域の正誤判定を行うことによって、正確に被
写体領域を認識することができ、また、認識した被写体
領域が間違いであった場合、被写体位置入力手段により
被写体領域を決定することで、より正確に、所望の位置
に関心領域を設定することができる。
According to the twelfth aspect of the present invention, the subject area can be accurately recognized by the subject position determining means determining whether the subject area recognized by the subject position recognizing means is correct or not. If the recognized subject area is incorrect, the subject area is determined by the subject position input means, so that the region of interest can be set more accurately at a desired position.

【0033】請求項13に記載の発明は、『被写体位置
に応じて画像を回転する画像回転手段を有することを特
徴とする請求項10乃至請求項12のいずれか1項に記
載の画像処理装置。』である。
According to a thirteenth aspect of the present invention, there is provided an image processing apparatus as set forth in any one of the tenth to twelfth aspects, further comprising: an image rotating means for rotating an image according to a position of a subject. . ].

【0034】この請求項13に記載の発明によれば、認
識した被写体位置によって画像の向きを回転することに
より、例えば、同一撮影方向の乳房を向かい合った向き
に、モニタに表示したり、1枚もしくは、複数枚のフィ
ルムに出力したりすることによって、比較読影等を容易
に行なうことができる。
According to the thirteenth aspect of the present invention, by rotating the direction of the image according to the recognized position of the subject, for example, the breasts in the same photographing direction can be displayed on the monitor in a facing direction, or one breast can be displayed. Alternatively, comparative reading and the like can be easily performed by outputting to a plurality of films.

【0035】請求項14に記載の発明は、『前記被写体
位置認識手段が、前記放射線画像の所定の位置における
画素の並びを組み替えることによって得られる行列を作
成する行列作成手段を有し、前記行列作成手段により得
られた情報から被写体位置を認識することを特徴とする
請求項10乃至請求項12のいずれか1項に記載の画像
処理装置。』である。
According to a fourteenth aspect of the present invention, there is provided the image processing apparatus, wherein the object position recognizing means has a matrix creating means for creating a matrix obtained by rearranging the arrangement of pixels at a predetermined position in the radiation image. 13. The image processing apparatus according to claim 10, wherein a position of a subject is recognized from information obtained by the creating unit. ].

【0036】この請求項14に記載の発明によれば、所
定の位置の画素を並び替え、局所的な画像の特徴をよく
表す行列に変換することによって、原画像よりも高い精
度で被写体位置を認識することができる。
According to the fourteenth aspect of the present invention, by rearranging pixels at predetermined positions and converting them into a matrix that well represents the characteristics of a local image, the position of the subject can be determined with higher accuracy than the original image. Can be recognized.

【0037】請求項15に記載の発明は、『前記行列作
成手段によって作成されるものは、濃度共起行列である
ことを特徴とする請求項14に記載の画像処理装置。』
である。
According to a fifteenth aspect of the present invention, the image processing apparatus according to the fourteenth aspect is characterized in that "the one created by the matrix creating means is a density co-occurrence matrix. 』
It is.

【0038】この請求項15に記載の発明によれば、濃
度共起行列を作成することによって、局所的な画像の特
徴をよく表すことができ、原画像よりも高い精度で被写
体位置を認識することができる。
According to the fifteenth aspect of the present invention, by forming the density co-occurrence matrix, the characteristics of the local image can be well represented, and the position of the subject can be recognized with higher accuracy than the original image. be able to.

【0039】請求項16に記載の発明は、『前記画像処
理が階調処理であることを特徴とする請求項10乃至請
求項15のいずれか1項に記載の画像処理装置。』であ
る。
According to a sixteenth aspect of the present invention, there is provided an image processing apparatus according to any one of the tenth to fifteenth aspects, wherein the image processing is gradation processing. ].

【0040】この請求項16に記載の発明によれば、階
調処理により画像データレベルの分布が変動しても、診
断等に適した濃度及びコントラストの放射線画像を得る
ことができる。
According to the sixteenth aspect, even if the distribution of image data levels fluctuates due to gradation processing, a radiation image having a density and contrast suitable for diagnosis or the like can be obtained.

【0041】請求項17に記載の発明は、『前記画像処
理がダイナミックレンジ圧縮処理であることを特徴とす
る請求項10乃至請求項15のいずれか1項に記載の画
像処理装置。』である。
According to a seventeenth aspect of the present invention, the image processing apparatus according to any one of the tenth to fifteenth aspects, wherein the image processing is a dynamic range compression processing. ].

【0042】この請求項17に記載の発明によれば、ダ
イナミックレンジ圧縮処理によりダイナミックレンジの
広い放射線画像の全体を、被写体の細かい構造部分のコ
ントラストを低下させることなく見やすい濃度範囲内に
収めることができる。
According to the seventeenth aspect of the present invention, the entire radiographic image having a wide dynamic range can be kept within the easy-to-see density range without deteriorating the contrast of the fine structure of the subject by the dynamic range compression processing. it can.

【0043】請求項18に記載の発明は、『前記画像処
理が周波数処理であることを特徴とする請求項10乃至
請求項15のいずれか1項に記載の画像処理装置。』で
ある。
An image processing apparatus according to any one of claims 10 to 15, wherein the image processing is frequency processing. ].

【0044】この請求項17に記載の発明によれば、周
波数処理により放射線画像の鮮鋭度を制御することがで
きる。
According to the seventeenth aspect, the sharpness of a radiation image can be controlled by frequency processing.

【0045】[0045]

【発明の実施の形態】次に、この発明の実施の形態につ
いて図を用いて詳細に説明するが、この発明はこの実施
の形態の説明及び図面に限定されない。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, embodiments of the present invention will be described in detail with reference to the drawings, but the present invention is not limited to the description of the embodiments and the drawings.

【0046】図1は画像処理装置の構成を示す図であ
る。放射線発生器30はコントローラ10によって制御
され、放射線発生器30から放射された放射線は、被写
体5を通して放射線画像読取器40の前面に装着されて
いる撮像パネルに照射される。
FIG. 1 is a diagram showing the configuration of the image processing apparatus. The radiation generator 30 is controlled by the controller 10, and the radiation emitted from the radiation generator 30 is applied to the imaging panel mounted on the front of the radiation image reader 40 through the subject 5.

【0047】図2は撮像パネルの構成を示している。撮
像パネル41は所定の剛性を得られるだけの厚みを有す
る基板を有しており、この基板上には照射された放射線
の線量に応じて電気信号を出力する検出素子412
-(1,1)〜412-(m,n)が2次元配置されている。また、
走査線415-1〜415-mと信号線416-1〜416-n
が例えば直交するように配設される。
FIG. 2 shows the structure of the image pickup panel. The imaging panel 41 has a substrate having a thickness enough to obtain a predetermined rigidity, and a detection element 412 that outputs an electric signal in accordance with the dose of the irradiated radiation is provided on the substrate.
-(1,1) to 412- (m, n) are two-dimensionally arranged. Also,
Scan lines 415 -1 to 415 -m and signal lines 416 -1 to 416 -n
Are arranged, for example, orthogonally.

【0048】撮像パネル41の走査線415-1〜415
-mは、走査駆動部44と接続されている。走査駆動部4
4から走査線415-1〜415-mのうちの1つ走査線4
15 -p(pは1〜mのいずれかの値)に読み取り信号R
Sが供給されると、この走査線415-pに接続された検
出素子から照射された放射線の線量に応じた電気信号S
-1〜SV-nが検出され、信号線416-1〜416-n
介して画像データ生成部46に供給される。
The scanning line 415 of the imaging panel 41-1~ 415
-mAre connected to the scanning drive unit 44. Scan driver 4
4 to scanning line 415-1~ 415-mOne of the scan lines 4
Fifteen -p(P is any value from 1 to m)
When S is supplied, this scanning line 415-pThe test connected to
Electrical signal S corresponding to the dose of radiation emitted from the output element
V-1~ SV-nIs detected, and the signal line 416 is detected.-1~ 416-nTo
The image data is supplied to the image data generation unit 46 via the image data generation unit 46.

【0049】この検出素子412は照射された放射線の
線量に応じた電気信号を出力するものであればよい。例
えば放射線が照射された時に電子−正孔対が生成されて
抵抗値が変化する光導電層を用いて検出素子が形成され
ている場合、この光導電層で生成された放射線量に応じ
た量の電荷が電荷蓄積コンデンサに蓄えられて、この電
荷蓄積コンデンサに蓄えられた電荷データが電気信号と
して画像データ生成部46に供給される。なお、光導電
層としては暗抵抗値が高いものが望ましく、アモルファ
スセレン、酸化鉛、硫化カドミウム、ヨウ化第2水銀、
または光導電性を示す有機材料(X線吸収コンパウンド
が添加された光伝導性ポリマを含む)などが用いられ、
特にアモルファスセレンが望ましい。
The detecting element 412 may be any element that outputs an electric signal corresponding to the dose of the irradiated radiation. For example, when a detection element is formed using a photoconductive layer in which an electron-hole pair is generated upon irradiation with radiation and the resistance value changes, an amount corresponding to the amount of radiation generated in the photoconductive layer is used. Is stored in the charge storage capacitor, and the charge data stored in the charge storage capacitor is supplied to the image data generator 46 as an electric signal. The photoconductive layer desirably has a high dark resistance value, and is preferably amorphous selenium, lead oxide, cadmium sulfide, mercuric iodide,
Or, a photoconductive organic material (including a photoconductive polymer to which an X-ray absorbing compound is added) is used,
Particularly, amorphous selenium is desirable.

【0050】また、検出素子412が、例えば放射線が
照射されることにより蛍光を生ずるシンチレータ等を用
いて形成されている場合、フォトダイオードでこのシン
チレータで生じた蛍光強度に基づく電気信号を生成して
画像データ生成部46に供給するものとしてもよい。画
像データ生成部46では、読取制御部48からの出力制
御信号SCに基づいて供給された電気信号SVを順次選
択して、ディジタルの画像データDTに変換する。この
画像データDTは読取制御部48に供給される。
When the detecting element 412 is formed using, for example, a scintillator or the like that generates fluorescence when irradiated with radiation, a photodiode generates an electric signal based on the intensity of the fluorescence generated by the scintillator. The information may be supplied to the image data generator 46. The image data generation unit 46 sequentially selects the supplied electric signals SV based on the output control signal SC from the reading control unit 48 and converts them into digital image data DT. The image data DT is supplied to the reading control unit 48.

【0051】読取制御部48はコントローラ10と接続
されており、読取制御部48では、コントローラ10か
ら供給された制御信号CTDに基づいて走査制御信号R
Cや出力制御信号SCを生成する。この走査制御信号C
TDに基づいて走査駆動部44に供給されて、走査制御
信号RCに基づき走査線415-1〜415-mに対しての
読取信号RSの供給が行われる。また、出力制御信号S
Cは画像データ生成部46に供給される。この読取制御
部48からの走査制御信号RCや出力制御信号SCによ
って、例えば撮像パネル41が上述のように(m×n)
この検出素子412で構成されている場合には、検出素
子412-(1,1)〜412-(m,n)からの電気信号SVに基
づくデータをデータDP(1,1)〜DP8m,n)とすると、デ
ータDP (1,1)、DP(1,2)、・・・・・DP(1,n)、D
(2,1)、・・・・・、DP(m,n)の順として画像データ
DTが生成されて、この画像データが生成されて、この
画像データDTが画像データ生成部46から読取制御部
48に供給される。また、読取制御部48では、この画
像データDTをコントローラ10に送出する処理も行
う。
The reading control unit 48 is connected to the controller 10.
In the reading control unit 48, the controller 10
Scanning control signal R based on the control signal CTD supplied from
C and an output control signal SC are generated. This scanning control signal C
The scan control signal is supplied to the scan drive unit 44 based on the TD to control the scan.
Scan line 415 based on signal RC-1~ 415-mAgainst
The supply of the read signal RS is performed. Further, the output control signal S
C is supplied to the image data generator 46. This reading control
The scanning control signal RC and the output control signal SC from the section 48
Therefore, for example, the imaging panel 41 is (m × n) as described above.
When the detection element 412 is used, the detection element
Child 412-(1,1)~ 412-(m, n)Based on the electric signal SV from
Data DP(1,1)~ DP8m, n)Then
Data DP (1,1), DP(1,2), ... DP(1, n), D
P(2,1), ..., DP(m, n)Image data as order
DT is generated, the image data is generated, and
The image data DT is transferred from the image data generation unit 46 to the reading control unit.
48. Also, the reading control unit 48
Processing for transmitting image data DT to the controller 10 is also performed.
U.

【0052】放射線画像読取器40で得られた画像デー
タDTは、読取制御部48を介したコントローラ10に
供給される。なお、放射線画像読取器40で得られた画
像データをコントローラ10に供給する際に対数変換処
理を行った画像データを供給すれば、コントローラ10
における画像データの処理を簡単とすることができる。
The image data DT obtained by the radiation image reader 40 is supplied to the controller 10 via the reading controller 48. When the image data obtained by the radiation image reader 40 is supplied to the controller 10 and the log-converted image data is supplied, the controller 10
Can simplify the processing of the image data.

【0053】また、放射線画像読取器40はFPDを用
いたのものに限られるものではなく、輝尽性蛍光体を用
いたのもであっても良い。
The radiation image reader 40 is not limited to the one using the FPD, but may use a stimulable phosphor.

【0054】図3は輝尽性蛍光体を用いた放射線画像読
取器60を用いた場合の構成を示しており、放射線が照
射される変換パネル61では、支持体上に輝尽性蛍光体
層が輝尽性蛍光体の気相堆積あるいは輝尽性蛍光体塗料
によって設けられる。この輝尽性蛍光体層は環境による
悪影響及び損傷を遮断するために、保護部材によって遮
蔽若しくは被覆されている。
FIG. 3 shows a configuration in which a radiation image reader 60 using a stimulable phosphor is used. In a conversion panel 61 irradiated with radiation, a stimulable phosphor layer is provided on a support. Is provided by a vapor phase deposition of a stimulable phosphor or a stimulable phosphor paint. This stimulable phosphor layer is shielded or covered by a protective member in order to block adverse effects and damage due to the environment.

【0055】光ビーム発生部(ガスレーザ、固体レー
ザ、半導体レーザ等)62は、出射強度が制御された光
ビームを発生する。この光ビームは種々の光学系を経由
して走査部63に到達し、走査部63で偏向を受け、更
に反射鏡64で光路を偏向させて、変換パネル61に輝
尽励起走査光として導かれる。
The light beam generator (gas laser, solid laser, semiconductor laser, etc.) 62 generates a light beam whose emission intensity is controlled. This light beam reaches the scanning unit 63 via various optical systems, is deflected by the scanning unit 63, is further deflected by the reflecting mirror 64, and is guided to the conversion panel 61 as stimulating excitation scanning light. .

【0056】集光体65の光ファイバー又はシート状光
ガイド部材からなる集光端は、輝尽光励起光が走査光と
して導かれる。集光体65の光ファイバー又はシート状
光ガイド部材からなる集光端は、輝尽励起光が走査され
る変換パネル61に近接して配設されて、光ビーム発生
部62からの光ビームの走査によって変換パネル61で
生じた潜像エネルギーに比例した発光強度の輝尽発光を
受光する。
At the light-collecting end of the light-collecting body 65 formed of an optical fiber or a sheet-like light guide member, stimulating light is guided as scanning light. The light-collecting end of the light-collecting body 65 formed of an optical fiber or a sheet-shaped light guide member is disposed close to the conversion panel 61 on which the stimulating light is scanned, and scans the light beam from the light beam generator 62. As a result, stimulated emission having an emission intensity proportional to the latent image energy generated in the conversion panel 61 is received.

【0057】フィルタ66は集光体65より導入された
光から輝尽発光波長領域の光のみを通過させるものであ
り、このフィルタ66を通過した光は、フォトマルチブ
ライヤ67に入射される。フォトマルチブライヤ67で
は、光電変換によって入射光に対応した電流信号を生成
する。この電流信号は、電流/電圧変換部70に供給さ
れて電圧信号に変換される。さらに、電圧信号は増幅部
71で増幅された後、A/D変換部72でディジタルの
画像データDTに変換される。ここで、増幅部71とし
て対数変換増幅部(logアンプ)を用いる。画像デー
タDTは、画像処理装置80において順次画像処理され
て、画像処理後の画像データDTCがインターフェース
82を介してプリンタ83に伝送される。
The filter 66 passes only light in the stimulating emission wavelength region from the light introduced from the light collector 65, and the light passing through the filter 66 is incident on the photomultiplier 67. The photomultiplier 67 generates a current signal corresponding to incident light by photoelectric conversion. This current signal is supplied to the current / voltage converter 70 and converted into a voltage signal. Further, after the voltage signal is amplified by the amplifier 71, the voltage signal is converted into digital image data DT by the A / D converter 72. Here, a logarithmic conversion amplifier (log amplifier) is used as the amplifier 71. The image data DT is sequentially image-processed in the image processing device 80, and the image data DTC after the image processing is transmitted to the printer 83 via the interface 82.

【0058】CPU(Central Process
ing Unit)81は、画像処理装置80における
画像処理を制御するためのものであり、画像処理装置8
0では、画像データDTに対して種々の画像処理(例え
ば空間周波数処理、ダイナミックレンジの圧縮、階調処
理、拡大/縮小、移動、回転、統計処理等)を行い、診
断に適した形の画像データDTCを生成する。この画像
データDTCがプリンタ83に供給されて、プリンタ8
3から人体各部の放射線画像のハードコピーを得ること
ができる。なお、インターフェース82にCRT等のモ
ニタを接続するものとしても良く、更に複数の放射線画
像の画像データを記憶できる記憶(ファイリングシステ
ム)できる記憶装置(ファイリングシステム)を接続す
るものとしても良い。
CPU (Central Process)
ing Unit) 81 is for controlling image processing in the image processing device 80,
In the case of 0, various image processings (for example, spatial frequency processing, dynamic range compression, gradation processing, enlargement / reduction, movement, rotation, statistical processing, etc.) are performed on the image data DT, and an image in a form suitable for diagnosis is performed. Generate data DTC. This image data DTC is supplied to the printer 83 and
From 3, a hard copy of the radiation image of each part of the human body can be obtained. Note that a monitor such as a CRT may be connected to the interface 82, and a storage device (filing system) capable of storing image data of a plurality of radiation images (filing system) may be connected.

【0059】また、読取制御部75では、光ビーム発生
部62の光ビーム強度調整、フォトマルチプライヤ用高
圧電源76の電源電圧調整によるフォトマルチプライヤ
67のゲイン調整、電流/電圧変換部70と増幅部71
のゲイン調整、及びA/D変換部72の入力ダイナミッ
クレンジの調整が行われ、読取ゲインが総合的に調整さ
れる。A/D変換部72から得られた画像データDT
は、コントローラ10に供給されると共に、コントロー
ラ10からの制御信号CTDによって読取制御部75の
動作の制御を行う。
The reading controller 75 adjusts the light beam intensity of the light beam generator 62, adjusts the gain of the photomultiplier 67 by adjusting the power supply voltage of the high-voltage power supply 76 for the photomultiplier, and amplifies the current / voltage converter 70. Part 71
Is adjusted, and the input dynamic range of the A / D converter 72 is adjusted, so that the reading gain is comprehensively adjusted. Image data DT obtained from the A / D converter 72
Is supplied to the controller 10 and controls the operation of the reading control unit 75 according to the control signal CTD from the controller 10.

【0060】なお、放射線画像読取器は、放射線画像を
記録した銀塩フィルムにレーザ、蛍光灯等の光源からの
光を照射し、この銀塩フィルムの透過光を光電変換して
画像データを生成してもよい。また、放射線量子計数型
検出器を用いて放射線エネルギーを直接電気信号に変換
して画像データを生成する構成であってもよい。
The radiation image reader irradiates a silver halide film on which a radiation image is recorded with light from a light source such as a laser or a fluorescent lamp, and photoelectrically converts the transmitted light of the silver halide film to generate image data. May be. Further, a configuration may be employed in which radiation energy is directly converted into an electric signal using a radiation quantum counting type detector to generate image data.

【0061】次に、コントローラ10の構成を図4に示
す。コントローラ10の動作を制御するためのCPU
(Central Processing Unit)
11にはシステムバス12と画像バス13が接続される
と共に、入力インターフェース17が接続される。この
コントローラ10の動作を制御するためのCPU11
は、メモリ14に記憶された制御プログラムに基づいて
動作が制御される。システムパルス12と画像バス13
には、表示制御部15、フレームメモリ制御部16、出
力インタフェース18、撮影制御部19、ディスク制御
部20等が接続されており、システムバス12を利用し
CPU11によって各部の動作が生業されると共に、画
像バス13を介して各部間での画像データの転送等が行
われる。
Next, the configuration of the controller 10 is shown in FIG. CPU for controlling operation of controller 10
(Central Processing Unit)
11 is connected to a system bus 12 and an image bus 13, and an input interface 17. CPU 11 for controlling the operation of this controller 10
The operation of is controlled based on a control program stored in the memory 14. System pulse 12 and image bus 13
Are connected to a display control unit 15, a frame memory control unit 16, an output interface 18, a shooting control unit 19, a disk control unit 20, and the like. The transfer of image data between the units via the image bus 13 is performed.

【0062】フレームメモリ制御部16には、フレーム
メモリ21が接続されており、放射線画像読取器40で
得られた画像データが撮影制御部19やフレームメモリ
制御部16を介して記憶される。フレームメモリ21に
記憶された画像データは読み出されて表示制御部15や
ディスク制御部20に供給される。また、フレームメモ
リ21には、放射線画像読取器40から供給された画像
データをCPU11で処理してから記憶するものとして
もよい。
A frame memory 21 is connected to the frame memory control unit 16, and image data obtained by the radiation image reader 40 is stored via the imaging control unit 19 and the frame memory control unit 16. The image data stored in the frame memory 21 is read and supplied to the display control unit 15 and the disk control unit 20. The frame memory 21 may store the image data supplied from the radiation image reader 40 after the CPU 11 processes the image data.

【0063】表示制御部15には、画像表示装置22が
接続されており、画像表示装置22の画面上に表示制御
部15に供給された画像データに基づく放射線撮影画像
が表示される。ここで、放射線画像読取器40の画素数
よりも画像表示装置22の表示画素数が少ない場合に
は、画像データを間引きして読み出すことにより、画面
上に撮影画像全体を表示させることができる。また、画
像表示装置22の表示画素数分に相当する領域の画像デ
ータを読み出すものとすれば、所望の位置の撮影画像を
詳細に表示させることができる。
An image display device 22 is connected to the display control unit 15, and a radiographic image based on the image data supplied to the display control unit 15 is displayed on the screen of the image display device 22. Here, when the number of display pixels of the image display device 22 is smaller than the number of pixels of the radiation image reader 40, the entire captured image can be displayed on the screen by thinning out and reading out the image data. In addition, if the image data of the area corresponding to the number of display pixels of the image display device 22 is read out, the captured image at the desired position can be displayed in detail.

【0064】フレームメモリ21からディスク制御部2
0に画像データが供給される際には、例えば連続して画
像データが読み出されてディスク制御部20内のFIF
Oメモリに書き込まれ、その後順次ディスク装置23に
記録される。さらに、フレームメモリ21から読み出さ
れた画像データやディスク装置23から読み出された画
像データを出力インターフェース18を介して外部機器
90に供給することもできる。
From the frame memory 21 to the disk controller 2
When the image data is supplied to the disk controller 20, for example, the image data is read continuously and
The data is written to the O memory, and then sequentially recorded on the disk device 23. Further, image data read from the frame memory 21 and image data read from the disk device 23 can be supplied to the external device 90 via the output interface 18.

【0065】画像処置部26では、放射線画像読取器4
0から撮影制御部19を介して供給された画像データD
Tの照射野認識処理、関心領域設定、正規化処理及び階
調処理などが行われる。また、周波数強調処理やダイナ
ミックレンジ圧縮処理等を行うものとしてもよい。な
お、画像処理部26をCPU11が兼ねる構成として、
画像処理等を行うこともできる。
In the image processing section 26, the radiation image reader 4
0 to the image data D supplied via the photographing control unit 19
T irradiation field recognition processing, region of interest setting, normalization processing, gradation processing, and the like are performed. Further, frequency emphasis processing, dynamic range compression processing, and the like may be performed. In addition, as a configuration in which the CPU 11 also serves as the image processing unit 26,
Image processing and the like can also be performed.

【0066】入力インターフェース17にはキーボード
等の入力装置27が接続される。この入力装置27を操
作することで、撮影によって得られた画像データを識別
するための情報や撮影に関する情報等の管理情報の入力
が行われる。出力インターフェース18に接続される外
部機器90としては、レーザーイメージャとも呼ばれる
走査型レーザ露光装置が用いられる。この走査型レーザ
露光装置では、画像データによりレーザビーム強度を変
調し、従来のハロゲン化銀写真感光材料や熱現象ハロゲ
ン化銀写真感光材に露光した後適切な現像処理を行うこ
とによって放射線画像のハードコピーが得られるもので
ある。
The input interface 17 is connected to an input device 27 such as a keyboard. By operating the input device 27, management information such as information for identifying image data obtained by shooting and information on shooting is input. As the external device 90 connected to the output interface 18, a scanning laser exposure device also called a laser imager is used. In this scanning laser exposure apparatus, the intensity of a laser beam is modulated by image data, exposed to a conventional silver halide photographic material or a thermal phenomenon silver halide photographic material, and then subjected to an appropriate development process to thereby produce a radiation image. A hard copy is obtained.

【0067】なお、フレームメモリ21には、放射線画
像読取器40から供給された画像データを記憶するもの
としたが、供給された画像データをCPU11で処理し
てから記憶するものとしてもよい。また、ディスク装置
23には、フレームメモリ21に記憶されている画像デ
ータ、すなわち放射線画像読取器40から供給された画
像データやその画像データをCPU11で処理した画像
データを、管理情報等と共に保存することができる。
Although the frame memory 21 stores the image data supplied from the radiation image reader 40, the image data supplied may be processed by the CPU 11 and then stored. Further, the disk device 23 stores image data stored in the frame memory 21, that is, image data supplied from the radiation image reader 40 and image data obtained by processing the image data by the CPU 11 together with management information and the like. be able to.

【0068】次に、動作について説明する。被写体5の
放射線画像を得る際には、放射線発生器30と放射線画
像読取器40の撮像パネル41の間に被写体5が位置す
るものとされて、放射線発生器30から放射された放射
線が被写体5に照射されると共に、被写体5を透過した
放射線画撮像パネル41に入射される。なお、放射線画
像読取器40に替えて放射線画像読取器40を用いるも
のとして、放射線画像読取器60を用いた場合の説明は
省略する。
Next, the operation will be described. When obtaining a radiation image of the subject 5, it is assumed that the subject 5 is located between the radiation generator 30 and the imaging panel 41 of the radiation image reader 40, and the radiation emitted from the radiation generator 30 is And is incident on the radiation image capturing panel 41 transmitted through the subject 5. In addition, since the radiation image reader 40 is used instead of the radiation image reader 40, the description of the case where the radiation image reader 60 is used is omitted.

【0069】コントローラ10には、撮影が行われる被
写体5の識別や撮影に関する情報を示す管理情報が入力
装置27を用いて入力される。この入力装置27を用い
て管理情報の入力は、キーボードを操作したり、磁気カ
ード、バーコード、HIS(病院内情報システム:ネッ
トワークによる情報管理)等を利用して行われる。
Using the input device 27, management information indicating the identification of the subject 5 to be photographed and information relating to the photographing is input to the controller 10. The input of the management information using the input device 27 is performed by operating a keyboard, using a magnetic card, a bar code, an HIS (In-Hospital Information System: information management by network), and the like.

【0070】この管理情報は、例えばID番号、氏名、
生年月日、性別、撮影日時、撮影部位及び撮影体位(例
えば、放射線を人体のどの部分にどの方向から照射した
か)、撮影方法(単純撮影、造影撮影、断層撮影、拡大
撮影等)、撮影条件(管電圧、管電流、照射時間、散乱
線除去グリッドの使用の有無等)等の情報から構成され
る。
The management information includes, for example, an ID number, a name,
Date of birth, gender, date and time of imaging, location and position of imaging (for example, which part of the human body was irradiated with radiation from which direction), imaging method (simple imaging, contrast imaging, tomography, magnified imaging, etc.), imaging It consists of information such as conditions (tube voltage, tube current, irradiation time, use of scattered radiation removal grid, etc.).

【0071】また撮影日時は、CPU11に内蔵されて
いる時計機能を利用して、CPU11からカレンダーや
時刻の情報を自動的に得ることもできる。なお、入力さ
れる管理情報は、その時点で撮影される被写体に関する
ものだけでも良く、一連の管理情報を予め入力しておい
て、入力順に被写体を撮影したり、必要に応じて入力さ
れた管理情報を読み出して用いるものとしてもよい。
The date and time of photographing can be obtained automatically from the CPU 11 by using the clock function built in the CPU 11. The management information to be input may be only information relating to the subject to be photographed at that time. A series of management information may be input in advance, and the subject may be photographed in the input order, or the management information may be input as needed. The information may be read and used.

【0072】放射線画像読取器40の電源スイッチがオ
ン状態とされると、コントローラ10からの制御信号C
TDに基づき、放射線画像読取器40の読取制御部48
や走査駆動部44によって撮像パネル41の初期化が行
われる。この初期化は、撮像パネル41から照射された
放射線量に応じた正しい電気信号を得るためのものであ
る。
When the power switch of the radiation image reader 40 is turned on, the control signal C
Based on the TD, the reading control unit 48 of the radiation image reader 40
The scanning panel 44 initializes the imaging panel 41. This initialization is for obtaining a correct electric signal corresponding to the radiation dose emitted from the imaging panel 41.

【0073】放射線画像読取器40で撮像パネル41の
初期化が完了すると、放射線発生器30からの放射線の
照射が可能とされる。ここで放射線を照射するためのス
イッチが放射線発生器30に設けられている場合、この
スイッチが走査されると放射線発生器30から被写体5
に向けて放射線が所定時間だけ照射されると共に、放射
線の照射開始を示す信号DFSや照射終了を示すDFE
がコントローラ10に供給される。
When the initialization of the imaging panel 41 is completed in the radiation image reader 40, irradiation of radiation from the radiation generator 30 is enabled. Here, when a switch for irradiating radiation is provided in the radiation generator 30, when the switch is scanned, the radiation
Radiation is irradiated for a predetermined time, and a signal DFS indicating the start of irradiation and a DFE indicating the end of irradiation
Is supplied to the controller 10.

【0074】このとき、放射線画像読取器40の撮像パ
ネル41に照射される放射線の放射線量は、被写体5に
よる放射線吸収の度合いが異なるため、被写体5によっ
て変調される。撮像パネル41の検出素子412-(1,1)
〜412-(m,n)では、被写体5によって変調された放射
線に基づく電気信号が生成される。
At this time, the radiation dose of the radiation applied to the imaging panel 41 of the radiation image reader 40 is modulated by the subject 5 because the degree of absorption of the radiation by the subject 5 differs. Detection element 412 of imaging panel 41- (1,1)
In 4 412- (m, n) , an electric signal based on the radiation modulated by the subject 5 is generated.

【0075】次にコントローラ10では、信号DFSが
供給されてから所定時間後、例えば放射線の照射時間が
0.1秒程度である時には、この照射時間よりも長い時
間(例えば約1秒)経過後、または信号DFEが供給さ
れてから直ちに、放射線画像読取器40で画像データD
Tの生成を開始するために制御信号CTDが放射線画像
読取器40の読取制御部48に供給される。
Next, in the controller 10, after a predetermined time has elapsed since the signal DFS was supplied, for example, when the irradiation time of the radiation is about 0.1 second, a time longer than the irradiation time (for example, about 1 second) elapses. Or immediately after the signal DFE is supplied, the radiation image reader 40 outputs the image data D
The control signal CTD is supplied to the reading control unit 48 of the radiation image reader 40 to start generation of T.

【0076】一方、放射線を照射するためのスイッチが
コントローラ10に設けられている場合、このスイッチ
が操作されると、放射線の照射を開始させるための照射
開始信号CSTが撮影制御部19を介して放射線発生器
30に供給されて、放射線発生器30から被写体5に向
けて放射線が所定時間だけ照射される。この照射時間
は、例えば管理情報に基づいて設定される。
On the other hand, when a switch for irradiating radiation is provided in the controller 10, when this switch is operated, an irradiation start signal CST for starting irradiation of radiation is transmitted via the imaging control unit 19. The radiation is supplied to the radiation generator 30, and the radiation is emitted from the radiation generator 30 toward the subject 5 for a predetermined time. The irradiation time is set based on, for example, management information.

【0077】次に、コントローラ10では、照射開始信
号CSTを出力してから所定時間後、放射線画像読取器
40で画像データの生成を開始するための制御信号CT
Dを放射線画像読取器40の読取制御部48に供給す
る。なお、コントローラ10では放射線発生器30での
放射線の照射終了を検出してから、放射線画像読取器4
0で画像データの生成を開始するための制御信号CTD
を放射線画像読取器40に供給するものとしてもよい。
この場合には、放射線の照射中に画像データが生成され
てしまうことを防止できる。
Next, the controller 10 outputs a control signal CT for starting the generation of image data by the radiation image reader 40 a predetermined time after outputting the irradiation start signal CST.
D is supplied to the reading control unit 48 of the radiation image reader 40. Note that the controller 10 detects the end of radiation irradiation by the radiation generator 30 and then sets the radiation image reader 4
Control signal CTD for starting generation of image data at 0
May be supplied to the radiation image reader 40.
In this case, generation of image data during irradiation of radiation can be prevented.

【0078】放射線画像読取器40の読取制御部48で
は、コントローラ10から供給された画像データの生成
を開始するための制御信号CTDに基づいて走査制御信
号RCや出力制御信号SCが生成される。この走査制御
信号RCが走査駆動部44に供給されると共に出力制御
信号SCが画像データDTが読取制御部48に供給され
る。この画像データDTは、読取制御部48によってコ
ントローラ10に送出される。
The reading control section 48 of the radiation image reader 40 generates a scanning control signal RC and an output control signal SC based on a control signal CTD for starting generation of image data supplied from the controller 10. The scanning control signal RC is supplied to the scanning driving unit 44, and the output control signal SC is supplied to the reading control unit 48 with the image data DT. This image data DT is sent to the controller 10 by the reading control unit 48.

【0079】コントローラ10に供給された画像データ
DTは、撮影制御部19やフレームメモリ制御部16等
を介してフレームメモリ21に記憶される。このフレー
ムメモリ21に記憶された画像データを用いて、画像表
示装置22に放射線画像を表示させることができる。ま
た、フレームメモリ21に記憶された画像データを表示
制御部15に供給することにより、輝度やコントラスト
あるいは鮮鋭度等が調整されて、診断等に適した放射線
画像を表示することもできる。また、画像処理が行われ
た画像データをレーザフィルムプリンタ等の外部機器9
0に供給することで、診断等に適した放射線画像のハー
ドコピーを得ることができる。また、CRT、液晶ディ
スプレイ、プラズマディスプレイなどの画像表示機器に
出力して、ソフトコピーを得る構成としてもよい。
The image data DT supplied to the controller 10 is stored in the frame memory 21 via the photographing control unit 19, the frame memory control unit 16 and the like. Using the image data stored in the frame memory 21, a radiographic image can be displayed on the image display device 22. Further, by supplying the image data stored in the frame memory 21 to the display control unit 15, the brightness, contrast, sharpness, and the like are adjusted, and a radiation image suitable for diagnosis or the like can be displayed. Further, the image data subjected to the image processing is transferred to an external device 9 such as a laser film printer.
By supplying 0, a hard copy of a radiation image suitable for diagnosis or the like can be obtained. Further, a soft copy may be obtained by outputting to an image display device such as a CRT, a liquid crystal display, and a plasma display.

【0080】画像処理部26は、図6乃至図8に示すよ
うに構成される。
The image processing section 26 is configured as shown in FIGS.

【0081】ところで、放射線画像の撮影に際しては、
例えば診断に必要とされない部分に放射線が照射されな
いようにするため、あるいは診断に必要とされない部分
に放射線が照射されて、この部分で散乱された放射線が
診断に必要とされる部分に入射されて分解能が低下する
ことを防止するため、被写体5の一部や放射線発生器3
0に鉛板等の放射線非透過物質を設置して、被写体5に
対する放射線の照射野を制限する照射野絞りが行われ
る。
By the way, when taking a radiographic image,
For example, to prevent radiation from being irradiated to a part not required for diagnosis, or to irradiate radiation to a part not required for diagnosis, radiation scattered in this part is incident on a part required for diagnosis. To prevent the resolution from deteriorating, a part of the subject 5 and the radiation generator 3
A radiation non-transmissive substance such as a lead plate is placed at 0, and an irradiation field stop for limiting an irradiation field of the radiation to the subject 5 is performed.

【0082】この照射野絞りが行われた場合、照射野内
領域と照射野外領域の画像データを用いてレベルの変換
処理やその後の階調処理を行うものとすると、照射野外
領域の画像データによって、照射野内の診断に必要とさ
れる部分の画像処理が適正に行われなくなってしまう。
When the irradiation field aperture is performed, if level conversion processing and subsequent gradation processing are performed using the image data of the irradiation field inside area and the irradiation field outside area, the image data of the irradiation field outside area will be used. Image processing of a portion required for diagnosis in the irradiation field is not properly performed.

【0083】即ち、図5に示すように、放射線画像領域
A1と放射線遮蔽部、もしくは患者情報領域A2を有
し、放射線画像領域外を含む画像を読み取り出力する。
通常、放射線撮影での人体への不要な被爆を避けるため
に、照射野絞りと呼ばれる放射線遮蔽物を用いて、放射
線が照射される領域を限定して撮影し、あるいは患者情
報も一緒に撮影することが一般的であり、被写体領域B
内の大きさや、放射線遮蔽部が画像中に含まれる割合
や、マーカー領域C等が挿入されている位置によって
は、被写体位置を誤認識する可能性が高い。
That is, as shown in FIG. 5, an image including the radiation image area A1 and the radiation shielding section or the patient information area A2 and including and outside the radiation image area is read and output.
Usually, in order to avoid unnecessary exposure to the human body during radiography, use a radiation shield called an irradiation field stop to limit the area where radiation is irradiated, or to capture patient information together In general, the subject area B
There is a high possibility that the position of the subject is erroneously recognized depending on the size of the inside, the ratio of the radiation shielding portion included in the image, and the position where the marker area C or the like is inserted.

【0084】例えば、特に放射線遮蔽部、もしくは患者
情報領域A2の近くにマーカー領域Cが入っている場合
や、放射線遮蔽部、もしくは患者情報領域A2の濃度が
比較的高い場合などに被写体位置を誤認識する可能性が
高い。
For example, particularly when the marker area C is located near the radiation shielding section or the patient information area A2, or when the density of the radiation shielding section or the patient information area A2 is relatively high, the position of the subject may be incorrect. Highly likely to recognize.

【0085】このため、この発明の画像処理装置は、画
像処理部26が図6乃至図8に示すように構成される。
For this reason, in the image processing apparatus of the present invention, the image processing section 26 is configured as shown in FIGS.

【0086】図6に示す実施の形態の画像処理部26
は、被写体が写っている位置を認識する被写体位置認識
手段100と、被写体位置認識手段100により得られ
た認識結果に基づいて放射線画像中の所望の位置に関心
領域を決定する関心領域決定手段101と、関心領域内
の画像情報に基づいて画像処理条件を決定する画像処理
条件決定手段102を有し、画像処理条件を用いて画像
処理手段103により画像処理を行う。
The image processing unit 26 of the embodiment shown in FIG.
Is a subject position recognizing means 100 for recognizing a position where a subject is captured, and a region of interest determining means 101 for determining a region of interest at a desired position in a radiographic image based on the recognition result obtained by the subject position recognizing means 100. And an image processing condition determining unit 102 for determining an image processing condition based on image information in the region of interest. The image processing unit 103 performs image processing using the image processing condition.

【0087】このように被写体位置認識手段100によ
り被写体位置を認識することにより関心領域決定手段1
01による関心領域認識精度を向上させ、画像処理条件
決定手段101により関心領域内の画像情報に基づいて
画像処理条件を決定することで、画像処理手段103に
より安定した画像処理を施すことができる。
As described above, by recognizing the object position by the object position recognizing means 100, the region of interest determining means 1
By improving the region-of-interest recognition accuracy by the image processing unit 01 and determining the image processing conditions based on the image information in the region of interest by the image processing condition determining unit 101, stable image processing can be performed by the image processing unit 103.

【0088】出力するルックアップテーブルの選択と階
調曲線の回転および平行移動は、撮影体位、撮影条件、
撮影方法等に基づいて選択変更するようにしてもよい。
これらの情報が入力装置27を用いて管理情報として入
力されている場合には、この管理情報を利用すること
で、容易に基本階調曲線を選択することができると共に
基本階調曲線の回転方向および平行移動の移動量を決定
することができる。
The selection of the look-up table to be output and the rotation and translation of the gradation curve depend on the photographing position, photographing conditions,
The selection may be changed based on a shooting method or the like.
When such information is input as management information using the input device 27, by using this management information, the basic gradation curve can be easily selected and the rotation direction of the basic gradation curve can be selected. And the amount of translation can be determined.

【0089】また、図7に示す実施の形態の画像処理部
26は、被写体が存在している位置を入力する被写体位
置入力手段110と、入力された被写体位置に基づいて
関心領域を決定する関心領城決定手段101と、関心領
域内の画像情報に基づいて画像処理条件を決定する画像
処理条件決定手段102を有し、画像処理条件を用いて
画像処理手段103により画像処理を行う。
The image processing section 26 of the embodiment shown in FIG. 7 includes a subject position input means 110 for inputting a position where a subject is present, and an interest for determining a region of interest based on the input subject position. The apparatus includes a territory determining means 101 and an image processing condition determining means 102 for determining image processing conditions based on image information in a region of interest, and performs image processing by the image processing means 103 using the image processing conditions.

【0090】このように被写体位置入力手段110によ
り手動で被写体の位置を入力することによって、関心領
城決定手段101により正確に所望の位置に関心領域を
設定することができ、この関心領域内の画像情報に基づ
いて画像処理条件決定手段102により画像処理条件を
決定することで、画像処理手段103によりより安定し
た画像処理を施すことができる。
As described above, by manually inputting the position of the subject by the subject position input unit 110, the region of interest can be accurately set at a desired position by the region-of-interest determination unit 101. By determining the image processing conditions by the image processing condition determining means 102 based on the image information, more stable image processing can be performed by the image processing means 103.

【0091】また、図8に示す実施の形態の画像処理部
26は、被写体が存在している位置を入力する被写体位
置入力手段110と、被写体が写っている位置を認識す
る被写体位置認識手段100と、被写体位置認識手段1
00により認識された被写体位置が正しい位置であるか
を判別する被写体位置判別手段120を有し、被写体位
置判別手段120により、被写体位置が誤りであると判
断された場合は被写体位置入力手段110により入力さ
れた被写体位置に基づいて画像処理条件決定手段102
により画像処理条件を決定し、画像処理条件を用いて画
像処理手段103により画像処理を行う。
The image processing section 26 of the embodiment shown in FIG. 8 includes a subject position input means 110 for inputting a position where a subject is present, and a subject position recognition means 100 for recognizing a position where the subject is captured. And subject position recognition means 1
00 has a subject position discriminating means 120 for discriminating whether or not the subject position recognized is correct, and when the subject position discriminating means 120 determines that the subject position is incorrect, the subject position input means 110 Image processing condition determining means 102 based on the input subject position
, Image processing conditions are determined by the above, and image processing is performed by the image processing means 103 using the image processing conditions.

【0092】このように被写体位置判別手段120によ
り、被写体位置認識手段100により認識した被写体領
域の正誤判定を行うことによって、正確に被写体領域を
認識することができる。また、認識した被写体領域が間
違いであった場合、被写体位置入力手段110により被
写体領域を決定することで、より正確に、所望の位置に
関心領域を設定することができる。
As described above, the subject position judging means 120 makes a correct / wrong judgment of the subject area recognized by the subject position recognizing means 100, whereby the subject area can be accurately recognized. If the recognized subject area is incorrect, the subject area is determined by the subject position input unit 110, so that the region of interest can be set more accurately at a desired position.

【0093】図6乃至図8に示す実施の形態の画像処理
装置は、被写体位置に応じて画像を回転する画像回転手
段130を有し、認識した被写体位置によって画像の向
きを回転することにより、例えば、図9の胸筋領域に示
すように、同一撮影方向の乳房を向かい合った向きに、
モニタに表示したり、1枚もしくは複数枚のフィルムに
出力したりすることによって、比較読影等を容易に行な
うことができる。図9(a)は、左右の胸筋領域のML
O方向(乳房を斜めに挟んで撮影する方向)の撮影によ
って写るものであり、図9(b)は、左右の胸筋領域の
CC方向(乳房を上下に挟んで撮影する方向)の撮影に
よって写るものである。
The image processing apparatus according to the embodiment shown in FIGS. 6 to 8 has an image rotating means 130 for rotating an image in accordance with the position of a subject. For example, as shown in the pectoral region of FIG. 9, the breasts in the same imaging direction face each other,
By displaying on a monitor or outputting to one or a plurality of films, comparative reading and the like can be easily performed. FIG. 9A shows MLs of the left and right pectoral muscle regions.
FIG. 9B shows a photograph taken in the CC direction of the left and right pectoral muscle regions (the direction in which the breast is sandwiched vertically) by photographing in the O direction (direction in which the breast is sandwiched diagonally). It is a thing to be reflected.

【0094】この実施の形態の被写体位置入力手段11
0としては、オペレータがキーボード等からの座標入力
による方法、またオペレータがディスプレイ上で被写体
位置を指定するタッチパネル方法等を用いることができ
る。
Object position input means 11 of this embodiment
As 0, a method in which the operator inputs coordinates from a keyboard or the like, a touch panel method in which the operator specifies a subject position on a display, or the like can be used.

【0095】また、被写体位置認識手段100として
は、被写体位置を自動認識して画像中の特定領域を決定
することができ、例えば、図10において領域D1,D
2を自動的に決定してもよいが、これに限定されるもの
ではない。
The subject position recognizing means 100 can automatically recognize the subject position and determine a specific area in the image. For example, in FIG.
2 may be automatically determined, but is not limited to this.

【0096】また、被写体位置認識手段100が、行列
作成手段100aを有する。この行列作成手段100a
は、図10の放射線画像の領域D1,D2の所定の位置
における画素の並びを組み替えることによって得られる
行列を作成し、行列作成手段100aにより得られた情
報から被写体位置を認識する。所定の位置の画素を並び
替え、局所的な画像の特徴をよく表す行列に変換するこ
とによって、原画像よりも高い精度で被写体位置を認識
することができる。
The object position recognizing means 100 has a matrix creating means 100a. This matrix creation means 100a
Creates a matrix obtained by rearranging the arrangement of pixels at predetermined positions in the regions D1 and D2 of the radiographic image in FIG. 10, and recognizes the subject position from the information obtained by the matrix creating unit 100a. By rearranging the pixels at the predetermined positions and converting the pixels into a matrix that well represents the characteristics of the local image, the object position can be recognized with higher accuracy than the original image.

【0097】また、行列作成手段100aによって作成
されるものは、濃度共起行列であり、濃度共起行列を作
成することによって、局所的な画像の特徴をよく表すこ
とができ、原画像よりも高い精度で被写体位置を認識す
ることができる。
What is created by the matrix creating means 100a is a density co-occurrence matrix. By creating a density co-occurrence matrix, the characteristics of a local image can be better expressed, and The position of the subject can be recognized with high accuracy.

【0098】濃度共起行列とは、画像の濃度iの点から
一定の変位δ=(γ,θ)だけ離れた点の濃度がjであ
る確率Pδ(i,j),(i,j=0,1,・・・,n
−1)を要素とする行列を求め、その行列から特徴量を
計算し、それらの値によってテクスチャを特徴づける。
テクスチャは、細かな模様パターンが一様に分布した状
態であり、テクスチャの違いによって画像における領域
を区別することができる。γは、2.8mm〜8.4m
m、θ=0°が望ましいが、それに限定されるものでは
ない。
The density co-occurrence matrix is the probability Pδ (i, j), (i, j = p) that the density of a point separated by a constant displacement δ = (γ, θ) from the point of the density i of the image is j. 0, 1, ..., n
A matrix having -1) as an element is obtained, a feature amount is calculated from the matrix, and the texture is characterized by those values.
The texture is a state in which fine pattern patterns are uniformly distributed, and regions in an image can be distinguished by a difference in texture. γ is 2.8 mm to 8.4 m
m and θ = 0 ° are desirable, but not limited thereto.

【0099】即ち、図10に示すように、領域D1,D
2の濃度共起行列を作成し、領域D1が被写体内の場
合、被写体の構造によって、比較的、行列の中央付近に
大きな頻度が現われる。
That is, as shown in FIG.
When the density co-occurrence matrix of No. 2 is created and the region D1 is inside the subject, a large frequency appears relatively near the center of the matrix depending on the structure of the subject.

【0100】一方、領域D2が被写体外に適用した場
合、被写体外が直接X線照射した放射線画像領域A1で
ある第1の場合、また、鉛などによってX線が遮断され
た放射線遮蔽部、もしくは患者情報領域A2である第2
の場合、これらの領域が境界をなしている第3の場合、
これらのいずれの場合に対しても、行列は、周辺付近に
大きな頻度を示す。
On the other hand, when the area D2 is applied to the outside of the subject, in the first case where the outside of the subject is the radiation image area A1 directly irradiated with X-rays, or in a radiation shielding section in which X-rays are blocked by lead or the like, or The second, which is the patient information area A2
In the third case where these regions are bounded,
In each of these cases, the matrix shows a large frequency near the periphery.

【0101】被写体内と被写体外の特徴量を計算する場
合では、前記の第1〜第3の3つの場合を認識するため
には、複雑なアルゴリズムが必要であるが、本手法を利
用した場合、簡単かつ正確に被写体内と被写体外を認識
することができる。
In calculating the feature values inside and outside the subject, a complicated algorithm is necessary to recognize the first to third cases. It is possible to easily and accurately recognize the inside and outside of the subject.

【0102】ここで、濃度共起行列を作成する位置は、
画像中の特定の位置、例えば、画像左右端付近の領域、
上下端付近の領域等を比較することによって、より被写
体領域内らしい位置をおおまかに被写体領域内と決定し
ても良いし、画像上のすべての領域を含むように、複数
個の局所領域を設定してそれらの領域の中から、一定の
条件に合うものを被写体領域としても良い。
Here, the position where the density co-occurrence matrix is created is
A specific position in the image, for example, an area near the left and right edges of the image,
By comparing areas near the upper and lower ends, a position more likely to be within the subject area may be roughly determined to be within the subject area, or a plurality of local areas may be set to include all areas on the image. Then, of those areas, those meeting certain conditions may be used as the subject area.

【0103】作成される行列は、濃度共起行列のほか
に、差分統計量でもよいし、ランレングス行列でもよ
い。
The created matrix may be a difference statistic or a run-length matrix in addition to the density co-occurrence matrix.

【0104】差分統計量は、画像内で、一定の変位δ=
(γ,θ)だけ離れた2点の濃度の差がkである確率P
δ(k),(k=0,1,・・・,n−1)を求め、そ
の行列から特徴量を計算し、それらの値によってテクス
チャを特徴づける。例えば、領域が乳房領域内のとき、
kは0〜n−1の中心付近に大きな値を示すが、乳房領
域外のとき、kの0付近と、もしくはn−1付近が大き
な値を示す。
The difference statistic is a constant displacement δ =
The probability P that the difference between the densities of two points separated by (γ, θ) is k
.delta. (k), (k = 0, 1,..., n-1) are obtained, feature amounts are calculated from the matrix, and the texture is characterized by those values. For example, when the region is within the breast region,
k shows a large value near the center of 0 to n-1, but outside the breast region, k shows a large value near 0 or near n-1.

【0105】ランレングス行列は、画像内で、θの方向
の濃度iの点がj個続く頻度Pθ(i,j),(i=
0,1,・・・,n−1,j=1,2,・・・,l)を
要素とするランレングス行列を求め、その行列から特徴
量を計算し、それらの値によってテクスチャを特徴づけ
る。例えば、乳房領域内のとき、ランレングスが小さな
値となるが、乳房領域外のとき、濃度が小さいところ
と、もしくは大きなところにランレングスが大きな値と
なる。
The run-length matrix is a frequency Pθ (i, j), (i = j) in which j points of density i in the direction of θ continue in the image.
0, 1,..., N−1, j = 1, 2,..., L) are obtained, a feature amount is calculated from the matrix, and the texture is characterized by those values. Attach. For example, the run length has a small value in the breast region, but the run length has a large value in a region where the density is small or large when the region is outside the breast region.

【0106】これらの行列については、高木幹雄,下
田陽久監修:画像解析ハンドブック.東京大学出版会、
森俊二,坂倉栂子:画像認識の基礎[II].オーム
社、画像処理標準テキストブック編集委員会:イメー
ジプロセッシング〈画像処理標準テキストブック〉.財
団法人画像情報教育振興協会に記載される。
For these matrices, see Mikio Takagi and Hirohisa Shimoda, Image Analysis Handbook. University of Tokyo Press,
Shunji Mori, Tsugako Sakakura: Basics of Image Recognition [II]. Ohmsha, Image Processing Standard Textbook Editing Committee: Image Processing <Image Processing Standard Textbook>. Listed in the Image Information Education Promotion Association.

【0107】そして、ここで得られた情報をもとに、関
心領城決定手段101により基準信号値を決定する関心
領域を設定することによって、より安定して好ましい画
像に出力することができる。
Then, by setting the region of interest for determining the reference signal value by the region-of-interest determination means 101 based on the information obtained here, it is possible to more stably output a desirable image.

【0108】関心領城決定手段101としては、関心領
域を撮影された画像に自動設定し、またマニュアル設定
することができる。マニュアルでの設定位置は、オペレ
ータがCRT画面を見ながら例えば肺野全体を囲むよう
な矩形関心領城を設定することにより求めることができ
る。
The region-of-interest determination means 101 can automatically set a region of interest in a photographed image or can manually set the region of interest. The manual setting position can be obtained by the operator setting a rectangular region of interest, for example, surrounding the entire lung field while watching the CRT screen.

【0109】自動設定として、例えば胸隔への関心領域
の設定について図11に基づいて説明すると、まず以下
のステップ1〜3によって左右のラインを決定する。
As an automatic setting, for example, setting of a region of interest in the thoracic septum will be described with reference to FIG. 11. First, the left and right lines are determined by the following steps 1 to 3.

【0110】ステップ1:画像データのうち全体に対し
て影響が低い画像上下部及び照射野部を省いた部分の縦
方向のプロジェクション(データの一方向の累積値)を
求める(図11(b))。
Step 1: Obtain a vertical projection (one-way cumulative value of data) of a portion of the image data excluding the upper and lower portions of the image and the irradiation field portion, which have less influence on the whole (FIG. 11B). ).

【0111】ステップ2:求められた縦方向のプロジェ
クションから、中央部分の1/3の範囲(図11中1/
3*x〜2/3*x)で信号値が最小値(Pcとする)
を持つ点を正中線のコラム(Xc)とする。
Step 2: From the obtained vertical projection, a range of 1/3 of the central portion (1/3 in FIG. 11)
3 * x to 2/3 * x) and the signal value is the minimum value (Pc)
Is defined as a midline column (Xc).

【0112】ステップ3:左右それぞれ画像全体の1/
3コラム(図11中2/3*x、1/3*x)から画像
の外側(左右方向)に向って、求められた縦方向のプロ
ジェクション値がしきい値(Tl、Tr)以下の点を探
し、最初の点を肺野の左・右端(Xl、Xr)とする。
しきい値としては、前記Pcと画像全体の1/3のコラ
ムからプロジェクション値の最大値(Plx、Prx)
を画像の外側(左右方向)に向って更新し、 Tl=((k1−1)*Plx+Pc)/k1 Tr=((k2−1)*Prx+Pc)/k2 (ただし、k1、k2:定数)とする。
Step 3: Left and right of the entire image, 1 /
From the three columns (2/3 * x, 1/3 * x in FIG. 11) to the outside (left / right direction) of the image, the point where the calculated vertical projection value is equal to or less than the threshold value (Tl, Tr). And the first point is defined as the left / right end (X1, Xr) of the lung field.
As the threshold value, the maximum value (Plx, Prx) of the projection value from the column of Pc and 1/3 of the entire image
Is updated toward the outside (left-right direction) of the image, and Tl = ((k1-1) * Plx + Pc) / k1 Tr = ((k2-1) * Prx + Pc) / k2 (where k1, k2 are constants) I do.

【0113】次に、以下のステップ4、5によって上下
のラインを決定する。
Next, upper and lower lines are determined in steps 4 and 5 described below.

【0114】ステップ4:上のステップで決定した区間
での横方向のプロジェクションをとる(図11
(c))。
Step 4: A horizontal projection is performed in the section determined in the above step (FIG. 11).
(C)).

【0115】ステップ5:上下それぞれ画像全体の1/
4、1/2のライン(1/4*y、1/2*y)から画
像の外側(上下方向)に向って、求められた横方向のプ
ロジェクション値がしきい値以下の点を探し、最初の点
を右肺野の上・下端(Yt、Yb)とする。しきい値と
してはそれぞれ画像全体の1/4*y〜1/2*y、1
/2*y〜4/*yの範囲のプロジェクション値の最大
値(Ptx、Pbx)とその最大値のラインから画像の
外側(上下方向)の範囲のプロジェクション値の最小値
(Ptn、Pbn)を用いて Tt=((k3−1)*Ptx+Ptn)/k3) Tb=((k4−1)*Pbx+Pbn)/k4) (ただし、k3、k4:定数)とする。
Step 5: Upper and lower parts of 1/1 of the whole image
From the 4, 1/2 line (1/4 * y, 1/2 * y) to the outside of the image (vertical direction), find a point where the obtained horizontal projection value is equal to or less than the threshold value, The first point is the upper and lower ends (Yt, Yb) of the right lung field. The threshold values are 1 / * y to ** y of the entire image and 1
The maximum value (Ptx, Pbx) of the projection value in the range of / 2 * y to 4 / * y and the minimum value (Ptn, Pbn) of the projection value in the range outside (up and down) of the image from the line of the maximum value Tt = ((k3-1) * Ptx + Ptn) / k3) Tb = ((k4-1) * Pbx + Pbn) / k4) (where k3 and k4 are constants).

【0116】また、以上の式でしきい値を求めるのに用
いたパラメータk1〜k4は経験的に求められる。
The parameters k1 to k4 used for obtaining the threshold value by the above equations can be empirically obtained.

【0117】この関心領域の設定では、診断を行いたい
部分が高濃度領域の多い部分や低濃度領域の多い部分ま
で広範囲に渡る場合、例えば肋骨部分のように高濃度領
域の多い肺野部から低濃度領域の多い腹部までを撮影し
て診断を行う場合、照射野内の観察を行いたい領域を全
て含むように設定される。
In the setting of the region of interest, when the portion to be diagnosed is wide ranging from a portion having a high density region to a portion having a high density region, for example, from a lung field portion having a high density region such as a rib portion. When the diagnosis is performed by photographing the abdomen including many low-density regions, the setting is made so as to include all regions in the irradiation field where observation is desired.

【0118】また、診断上の読影ポイントの内最も高濃
度な領域と、最も低濃度な領域に2つの関心領域(別々
の領域)を決定して、それぞれの領域を所定濃度で出力
するようにしてもよい。
Further, two regions of interest (separate regions) are determined for the highest density region and the lowest density region among the diagnostic reading points, and each region is output at a predetermined density. You may.

【0119】画像処理では、放射線量が異なることによ
り、撮像パネル41から出力された画像データのレベル
の分布が変動した場合であっても、常に安定した放射線
画像が得られるように画像データDTの正規化処理が行
われる。また、画像データレベルの分布が変動しても、
診断等の適した濃度及びコントラストの放射線画像を得
るために正規化処理後の画像データである正規化画像デ
ータDTregに対して階調処理が行われる。さらに画
像処理では、正規化画像データDTregに対して正規
化放射線画像の鮮鋭度を制御する周波数強調処理や、ダ
イナミックレンジの広い放射線画像の全体を、被写体の
細かい構造部分のコントラストを低下させることなく見
やすい濃度範囲内に収めるためのダイナミックレンジ圧
縮処理を行うものとしてもよい。
In the image processing, even when the level distribution of the image data output from the imaging panel 41 fluctuates due to the difference in the radiation dose, the image data DT is always obtained so that a stable radiation image can be obtained. Normalization processing is performed. Also, even if the distribution of the image data level fluctuates,
To obtain a radiation image having a suitable density and contrast for diagnosis or the like, gradation processing is performed on normalized image data DTreg which is image data after normalization processing. Further, in the image processing, the frequency enhancement processing for controlling the sharpness of the normalized radiation image with respect to the normalized image data DTreg, and the entire radiation image having a wide dynamic range can be performed without lowering the contrast of the fine structure portion of the subject. A dynamic range compression process for keeping the density within the easy-to-see density range may be performed.

【0120】画像データDTの正規化処理は、累積ヒス
トグラムが所定の割合m1、m2となる画像データのレ
ベルである代表値D1、D2が設定されると、予め設け
られた正規化処理ルックアップテーブルを参照して、図
12に示すように代表値D1、D2を所望の基準値S
1,S2にレベル変換する正規化処理が行われる。ここ
で、特性曲線CCは、撮像パネル41に照射された放射
線の放射線量に応じて出力される信号のレベルを示して
いる。また、正規化処理ルックアップテーブルは、撮像
パネル41の特性曲線CCを示す関数の逆関数を用いた
演算によって生成されるものである。なお、正規化処理
ルックアップテーブルを用いることなく演算処理によっ
て正規化処理を行うものとしても良いことは勿諭であ
る。
In the normalization processing of the image data DT, when representative values D1 and D2, which are levels of the image data at which the cumulative histogram has the predetermined ratios m1 and m2, are set, a normalization processing lookup table provided in advance is set. Referring to FIG. 12, the representative values D1 and D2 are changed to a desired reference value S as shown in FIG.
Normalization processing for level conversion to 1 and S2 is performed. Here, the characteristic curve CC indicates the level of a signal output according to the radiation dose of the radiation applied to the imaging panel 41. Further, the normalization processing look-up table is generated by an operation using an inverse function of the function indicating the characteristic curve CC of the imaging panel 41. It is needless to say that the normalization processing may be performed by arithmetic processing without using the normalization processing lookup table.

【0121】この正規化処理によって、図13に示すよ
うに、放射線が所望の基準値S1〜S2の画像データを
得ることができる線量R1〜R2よりも低い放射線量R
a〜Rbであっても、所望の基準値S1〜S2の画像デ
ータを得ることができるので、被写体の被曝量を軽減さ
せることができ、同時に被写体の体型の差による信号分
布のばらつきも補正することができる。
As a result of this normalization processing, as shown in FIG. 13, the radiation dose R is lower than the doses R1 and R2 at which the radiation can obtain image data of the desired reference values S1 and S2.
Since the image data of the desired reference values S1 and S2 can be obtained even with a to Rb, the exposure of the subject can be reduced, and at the same time, the variation in the signal distribution due to the difference in the body type of the subject is corrected. be able to.

【0122】次に、正規化処理によって得られた正規化
画像データDTregを用いて階調処理が行われる。階
調処理では、例えば図14に示すような階調変換曲線が
用いられて、正規化画像データDTregの基準値S
1、S2をパラメータ値をレベルS1’、S2’として
正規化画像データDTregが出力画像データDTou
tに変換される。このレベルS1’、S2’は、出力画
像における所定の輝度または写真濃度と対応するもので
ある。
Next, gradation processing is performed using the normalized image data DTreg obtained by the normalization processing. In the gradation processing, for example, a gradation conversion curve as shown in FIG. 14 is used, and the reference value S of the normalized image data DTreg is used.
1 and S2 are parameter values of levels S1 ′ and S2 ′, and the normalized image data DTreg is output image data DTou.
is converted to t. The levels S1 'and S2' correspond to predetermined luminance or photographic density in the output image.

【0123】階調変換曲線は、正規化画像データDTr
egの全信号領域にわたって連続な関数であることが好
ましく、またその微分関数も連続であることが好まし
い。また、全信号領域にわたって、その微分係数の符号
が一定であることが好ましい。
The gradation conversion curve is represented by the normalized image data DTr.
It is preferable that the function is continuous over the entire signal region of eg, and that its differential function is also continuous. Further, it is preferable that the sign of the differential coefficient is constant over the entire signal region.

【0124】また、撮影部位や撮影体位、撮影条件、撮
影方法等によって好ましい階調変換曲線の形状やレベル
S1’、S2’が異なることから、階調変換曲線は画像
毎にその都度作成してもよく、また例えば特公平5−2
6138号で示されているように、予め複数の基本階調
変換曲線を記憶しておくものとし、いずれかの基本階調
変換曲線を読み出して回転および平行移動することによ
り所望の階調変換曲線を容易に得ることができる。な
お、画像処理部26では、複数の基本諧調曲線に対応す
る階調処理ルックアップテーブルが設けられており、正
規化画像データDTregに基づいて階調処理ルックア
ップテーブルを参照して得られた画像データを、基本階
調変換曲線の回転および平行移動に応じて補正すること
で階調変換が行われた出力画像データDToutを得る
ことができる。なお、階調変換処理では、2つの基準値
S1、S2を用いるだけでなく、1つの基準値や3つ以
上の基準値を用いるものとしてもよい。
Further, since the preferred shape of the gradation conversion curve and the levels S1 'and S2' are different depending on the photographing part, photographing position, photographing condition, photographing method and the like, the gradation conversion curve is created for each image. Also, for example, Japanese Patent Publication 5-2
As shown in No. 6138, a plurality of basic tone conversion curves are stored in advance, and one of the basic tone conversion curves is read out and rotated and translated to obtain a desired tone conversion curve. Can be easily obtained. The image processing unit 26 is provided with a gradation processing lookup table corresponding to a plurality of basic gradation curves, and an image obtained by referring to the gradation processing lookup table based on the normalized image data DTreg. By correcting the data according to the rotation and parallel movement of the basic gradation conversion curve, it is possible to obtain output image data DTout that has been subjected to gradation conversion. In the gradation conversion processing, not only two reference values S1 and S2 but also one reference value or three or more reference values may be used.

【0125】ここで、基本階調曲線の選択や基本階調曲
線の回転および平行移動は、撮影部位や撮影体位、撮影
条件、撮影方法等に基づいて行われる。これらの情報が
入力装置27を用いて管理情報として入力されている場
合には、この管理情報を利用することで、容易に基本階
調曲線を選択することができると共に基本階調曲線の回
転方向および平行移動の移動量を決定することができ
る。また、撮影部位や撮影体位、撮影条件、撮影方法に
基づいて基準値S1、S2のレベルを変更するものとし
てもよい。
Here, the selection of the basic gradation curve and the rotation and translation of the basic gradation curve are performed based on the photographing part, photographing position, photographing conditions, photographing method and the like. When such information is input as management information using the input device 27, by using this management information, the basic gradation curve can be easily selected and the rotation direction of the basic gradation curve can be selected. And the amount of translation can be determined. Further, the levels of the reference values S1 and S2 may be changed based on an imaging part, an imaging position, imaging conditions, and an imaging method.

【0126】さらに、基本階調曲線の選択や基本階調曲
線の回転あるいは平行移動は、画像表示装置の種類や画
像出力のための外部機器の種類に関する情報に基づいて
行うものとしてもよい。これは、画像の出力方式に依存
して、好ましい階調が異なる場合があるためである。
Further, the selection of the basic gradation curve and the rotation or translation of the basic gradation curve may be performed based on the information on the type of the image display device and the type of the external device for outputting the image. This is because the preferable gradation may differ depending on the image output method.

【0127】次に、周波数強調処理およびダイナミック
レンジ圧縮処理について説明する。周波数強調処理で
は、例えば式(1)に示す非鮮鋭マスク処理によって鮮
鋭度を制御するために、関数Fが特公昭62−6237
3号や特公昭62−62376号で示される方法によっ
て定められる。
Next, the frequency emphasis processing and the dynamic range compression processing will be described. In the frequency emphasizing process, for example, in order to control the sharpness by the non-sharp mask process shown in Expression (1), the function F is calculated as follows.
3 and JP-B-62-62376.

【0128】 Soua=Sorg+F(Sorg−Sus)・・・(1) なお、Souaは処理後の画像データ、Sorgは周波
数強調処理前の画像データであり、Susは周波数強調
処理前の画像データを平均化処理等によって求められた
非鮮鋭データである。
Soua = Sorg + F (Sorg−Sus) (1) Here, Soua is the image data after the processing, Sorg is the image data before the frequency enhancement processing, and Sus is the average of the image data before the frequency enhancement processing. This is unsharp data obtained by a conversion process or the like.

【0129】この周波数強調処理では、例えばF(So
rg−Sus)がβ×(Sorg−Sus)とされて、
β(強調係数)が図15に示すように基準値T1、T2
間でほぼ線形に変化される。
In this frequency emphasizing process, for example, F (So
rg-Sus) is β × (Sorg-Sus),
When β (emphasis coefficient) is equal to the reference values T1 and T2 as shown in FIG.
Varies approximately linearly between

【0130】また、図16の実線で示すように、値
「A」、「B」を設定して、低輝度を強調する場合には
基準値T1〜値「A」までのβが最大とされて、値
「B」−基準値T2まで最小とされる。また値「A」−
値「B」までは、βがほぼ線形に変化される。高輝度を
強調する場合には破線で示すように、基準値T1〜値
「A」までのβが最小とされて、値「B」−基準値T2
まで最大とされる。また値「A」〜値「B」までは、β
がほぼ線形に変化される。なお、図示せずも中輝度を強
調する場合には値「A」〜値「B」のβが最大とされ
る。このように周波数強調処理では、関数Fによって任
意の輝度部分の鮮鋭度を制御することができる。
As shown by the solid line in FIG. 16, when values "A" and "B" are set to emphasize low luminance, β from the reference value T1 to the value "A" is maximized. Therefore, the value is minimized up to the value “B” −the reference value T2. The value "A"-
Up to the value “B”, β changes almost linearly. When emphasizing high luminance, as shown by the broken line, β from the reference value T1 to the value “A” is minimized, and the value “B” −the reference value T2
Up to the maximum. Further, from the value “A” to the value “B”, β
Is changed almost linearly. It should be noted that although not shown, β of the value “A” to the value “B” is maximized when the medium luminance is emphasized. Thus, in the frequency emphasis processing, the sharpness of an arbitrary luminance portion can be controlled by the function F.

【0131】また、周波数強調処理の方法は、上記非鮮
鋭マスク処理に限られるものではなく、特開平9−44
645号で示される多重解像度法などの手法を用いても
よい。なお、周波数強調処理では、強調する周波数帯域
や強調の程度は、階調処理での基本階調曲線の選択等と
同様に撮影部位や撮影体位、撮影条件、撮影方法等に基
づいて設定される。
Further, the method of frequency emphasis processing is not limited to the non-sharp mask processing described above.
For example, a technique such as the multi-resolution method disclosed in Japanese Patent No. 645 may be used. In the frequency emphasizing process, the frequency band to be emphasized and the degree of emphasis are set based on the photographing site, photographing position, photographing condition, photographing method, and the like, similarly to the selection of the basic gradation curve in the gradation process. .

【0132】ダイナミックレンジ圧縮処理では、式
(2)に示す圧縮処理によって見やすい濃度範囲に収め
る制御を行うため、関数Gが特許公報266318号で
示される方法によって定められる。
In the dynamic range compression processing, a function G is determined by a method disclosed in Japanese Patent Publication No. 266318 in order to perform control so that the density is within a legible range by the compression processing shown in Expression (2).

【0133】 Stb=Sorg+G(Sus)・・・(2) なお、Stbは処理後の画像データ、Sorgはダイナ
ミックレンジ圧縮処理前の画像データ、Susはダイナ
ミックレンジ圧縮処理前の画像データを平均化処理等に
よって求められた非鮮鋭データである。
Stb = Sorg + G (Sus) (2) Note that Stb is image data after processing, Sorg is image data before dynamic range compression processing, and Sus is image data before dynamic range compression processing. This is the unsharp data obtained by the above method.

【0134】ここで、G(Sus)は図17(a)に示
すように、非鮮鋭データSusがレベル「La」よりも
小さくなるとG(Sus)が増加するような特性を有す
る場含、低濃度領域の濃度が高いものとされて、図17
(b)に示す画像データSorgは図17(c)に示す
ように低濃度側のダイナミックレンジが圧縮された画像
データStbとされる。また、G(Sus)は図17
(d)に示すように、非鮮鋭データSusがレベル「L
b」よりも小さくなるとG(Sus)が減少するような
特性を有する場合には、高濃度領域の濃度が高いものと
されて、図17(b)に示す画像データSorgは図1
7(e)に示すように高濃度側のダイナミックレンジが
圧縮される。なお、ダイナミックレンジ圧縮処理も、撮
影部位や撮形体位、撮影条件、撮影方法等に基づいて補
正周波数帯域や補正の程度が設定される。
Here, as shown in FIG. 17 (a), G (Sus) is low, including the case where the non-sharp data Sus has a characteristic that G (Sus) increases when the level becomes lower than the level “La”. It is assumed that the density of the density region is high, and FIG.
The image data Sorg shown in (b) is image data Stb in which the dynamic range on the low density side is compressed as shown in FIG. Also, G (Sus) is shown in FIG.
As shown in (d), the unsharp data Sus has the level “L”.
In the case where G (Sus) is smaller than “b”, the density of the high-density area is determined to be high, and the image data Sorg shown in FIG.
As shown in FIG. 7E, the dynamic range on the high density side is compressed. In the dynamic range compression process as well, the correction frequency band and the degree of correction are set based on the imaging site, imaging body position, imaging conditions, imaging method, and the like.

【0135】ここで、周波数強調処理やダイナミックレ
ンジ圧縮処理での処理条件である基準値T1、T2およ
び値「A」、「B」あるいはレベル「La」、「Lb」
は、代表値D1、D2の決定方法と同様な方法で求めら
れる。
Here, reference values T1 and T2 and values "A" and "B" or levels "La" and "Lb" which are processing conditions in the frequency emphasizing process and the dynamic range compressing process.
Is determined by a method similar to the method of determining the representative values D1 and D2.

【0136】このように上述の実施の形態によれば、高
濃度領域と低濃度領域の割合が大きく変化するような場
合においても、画像データの分布に依存することなく安
定した階調処理を行うことができるので、診断等に適し
た濃度およびコントラストの放射線画像を常に安定して
得ることができる。
As described above, according to the above-described embodiment, even when the ratio between the high-density area and the low-density area greatly changes, stable gradation processing is performed without depending on the distribution of image data. Therefore, a radiation image having a density and contrast suitable for diagnosis or the like can always be obtained stably.

【0137】なお、処理条件を決定するために用いる画
像データは、例えば間引き処理した画像データを用いる
ものとしてもよい。この場合にはデータ量が少なくなる
ので処理速度の向上およびメモリ容量等の節減を図るこ
とができる。この場合、間引きによる縮小画像の実効画
素サイズが0.4mm〜10.0mm、好ましくは1.
0mm〜6.0mmとなるように間引きされた画像デー
タを用いることが好ましい。
The image data used to determine the processing conditions may be, for example, image data that has been subjected to thinning processing. In this case, since the data amount is reduced, the processing speed can be improved and the memory capacity and the like can be reduced. In this case, the effective pixel size of the reduced image obtained by thinning is 0.4 mm to 10.0 mm, preferably 1.
It is preferable to use image data thinned to be 0 mm to 6.0 mm.

【0138】[0138]

【発明の効果】前記したように、請求項1乃至請求項1
8に記載の発明によれば、関心領域認識精度が向上し安
定した画像処理を施すことが可能であり、また被写体の
位置認識により被写体内と被写体外の区別を容易にかつ
正確に行うことができる。
As described above, claims 1 to 1 are as described above.
According to the invention described in Item 8, it is possible to improve the accuracy of region of interest recognition and perform stable image processing, and to easily and accurately distinguish between inside and outside of a subject by recognizing the position of the subject. it can.

【図面の簡単な説明】[Brief description of the drawings]

【図1】画像処理装置の構成を示す図である。FIG. 1 is a diagram illustrating a configuration of an image processing apparatus.

【図2】撮像パネルの構成を示す図である。FIG. 2 is a diagram illustrating a configuration of an imaging panel.

【図3】輝尽性蛍光体を用いた放射線画像読取器を用い
た場合の構成を示す図である。
FIG. 3 is a diagram showing a configuration when a radiation image reader using a stimulable phosphor is used.

【図4】コントローラの構成を示す図である。FIG. 4 is a diagram showing a configuration of a controller.

【図5】放射線画像領域外を含む画像例を示す図であ
る。
FIG. 5 is a diagram illustrating an example of an image including an area outside a radiation image area.

【図6】画像処理装置の構成を示す図である。FIG. 6 is a diagram illustrating a configuration of an image processing apparatus.

【図7】他の画像処理装置の構成を示す図である。FIG. 7 is a diagram illustrating a configuration of another image processing apparatus.

【図8】他の画像処理装置の構成を示す図である。FIG. 8 is a diagram illustrating a configuration of another image processing apparatus.

【図9】典型的なマンモグラム撮影方向のイメージ図で
ある。
FIG. 9 is an image diagram of a typical mammogram photographing direction.

【図10】濃度共起行列を作成する領域を示す図であ
る。
FIG. 10 is a diagram showing an area where a density co-occurrence matrix is created.

【図11】関心領域を撮影された画像に自動設定する例
を示す図である。
FIG. 11 is a diagram illustrating an example in which a region of interest is automatically set to a captured image.

【図12】レベル変換を示す図である。FIG. 12 is a diagram showing level conversion.

【図13】正規化処理を示す図である。FIG. 13 is a diagram showing a normalization process.

【図14】階調変換特性を示す図である。FIG. 14 is a diagram showing gradation conversion characteristics.

【図15】強調係数と画像データの関係を示す図であ
る。
FIG. 15 is a diagram illustrating a relationship between an enhancement coefficient and image data.

【図16】強調係数と画像データの関係を示す図であ
る。
FIG. 16 is a diagram illustrating a relationship between an enhancement coefficient and image data.

【図17】ダイナミックレンジ圧縮処理を示す図であ
る。
FIG. 17 is a diagram illustrating a dynamic range compression process.

【符号の説明】[Explanation of symbols]

26 画像処理部 100 被写体位置認識手段 101 関心領域決定手段 102 画像処理条件決定手段 103 画像処理手段 110 被写体位置入力手段 120 被写体位置判別手段 26 image processing unit 100 subject position recognition means 101 region of interest determination means 102 image processing condition determination means 103 image processing means 110 subject position input means 120 subject position determination means

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2G083 AA03 AA04 BB05 EE10 2H013 AC06 5B057 AA08 BA24 CA08 CA12 CA16 CD03 CE11 DA07 DB02 DB09 DC19 DC22 5L096 AA03 AA06 BA06 DA02 EA12 FA14 FA38 FA69 9A001 HH23 HH24 HH25 HH28 JJ09 KZ25  ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) 2G083 AA03 AA04 BB05 EE10 2H013 AC06 5B057 AA08 BA24 CA08 CA12 CA16 CD03 CE11 DA07 DB02 DB09 DC19 DC22 5L096 AA03 AA06 BA06 DA02 EA12 FA14 FA38 FA69 9A001 HH23 HH24H25H25H25HJH

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】被写体を通過した放射線に基づいて生成さ
れた放射線画像を得る画像処理方法であって、 被写体が写っている被写体位置を認識し、この被写体位
置の認識結果に基づいて放射線画像中の所望の位置に関
心領域を決定し、この関心領域内の画像情報に基づいて
画像処理条件を決定し、この画像処理条件を用いて画像
処理を行うことを特徴とする画像処理方法。
An image processing method for obtaining a radiation image generated based on radiation that has passed through a subject, comprising: recognizing a position of a subject in which the subject is shown; Determining an area of interest at a desired position, determining image processing conditions based on image information in the area of interest, and performing image processing using the image processing conditions.
【請求項2】被写体を通過した放射線に基づいて生成さ
れた放射線画像を得る画像処理方法であって、 被写体が存在している被写体位置を入力し、入力された
被写体位置に基づいて関心領域を決定し、関心領域内の
画像情報に基づいて画像処理条件を決定し、この画像処
理条件を用いて画像処理を行うことを特徴とする画像処
理装置。
2. An image processing method for obtaining a radiation image generated based on radiation passing through a subject, comprising: inputting a position of a subject where the subject is present; and setting a region of interest based on the input subject position. An image processing apparatus comprising: determining an image processing condition based on image information in a region of interest; and performing image processing using the image processing condition.
【請求項3】被写体を通過した放射線に基づいて生成さ
れた放射線画像を得る画像処理方法であって、 被写体位置を認識し、この認識された被写体位置が正し
い位置であるかを判別し、被写体位置が誤りであると判
断された場合は被写体が存在している被写体位置を入力
し、入力された被写体位置に基づいて画像処理条件を決
定することを特徴とする画像処理方法。
3. An image processing method for obtaining a radiation image generated based on radiation passing through a subject, comprising: recognizing a subject position; determining whether the recognized subject position is a correct position; An image processing method characterized by inputting a subject position where a subject exists when it is determined that the position is incorrect, and determining an image processing condition based on the inputted subject position.
【請求項4】被写体位置に応じて画像を回転することを
特徴とする請求項1乃至請求項3のいずれか1項に記載
の画像処理方法。
4. The image processing method according to claim 1, wherein the image is rotated according to the position of the subject.
【請求項5】前記被写体位置認識が、前記放射線画像の
所定の位置における画素の並びを組み替えることによっ
て得られる行列を作成し、この行列作成により得られた
情報から被写体位置を認識することを特徴とする請求項
1乃至請求項4のいずれか1項に記載の画像処理方法。
5. A method according to claim 1, wherein said subject position recognition comprises creating a matrix obtained by rearranging the arrangement of pixels at a predetermined position in said radiation image, and recognizing the subject position from information obtained by said matrix creation. The image processing method according to any one of claims 1 to 4, wherein
【請求項6】前記行列作成によって作成されるものは、
濃度共起行列であることを特徴とする請求項5に記載の
画像処理方法。
6. What is created by said matrix creation is:
6. The image processing method according to claim 5, wherein the image processing method is a density co-occurrence matrix.
【請求項7】前記画像処理が階調処理であることを特徴
とする請求項1乃至請求項6のいずれか1項に記載の画
像処理装置。
7. The image processing apparatus according to claim 1, wherein said image processing is gradation processing.
【請求項8】前記画像処理がダイナミックレンジ圧縮処
理であることを特徴とする請求項1乃至請求項7のいず
れか1項に記載の画像処理方法。
8. The image processing method according to claim 1, wherein said image processing is a dynamic range compression processing.
【請求項9】前記画像処理が周波数処理であることを特
徴とする請求項1乃至請求項7のいずれか1項に記載の
画像処理方法。
9. The image processing method according to claim 1, wherein said image processing is frequency processing.
【請求項10】被写体を通過した放射線に基づいて生成
された放射線画像を得る画像処理装置であって、 被写体が写っている位置を認識する被写体位置認識手段
と、 前記被写体位置認識手段により得られた認識結果に基づ
いて放射線画像中の所望の位置に関心領域を決定する関
心領域決定手段と、 前記関心領域内の画像情報に基づいて画像処理条件を決
定する画像処理条件決定手段を有し、 前記画像処理条件を用いて画像処理を行うことを特徴と
する画像処理装置。
10. An image processing apparatus for obtaining a radiation image generated based on radiation that has passed through a subject, comprising: a subject position recognizing unit that recognizes a position where the subject is captured; Region-of-interest determining means for determining a region of interest at a desired position in the radiation image based on the recognition result, and image processing condition determining means for determining an image processing condition based on image information in the region of interest, An image processing apparatus for performing image processing using the image processing conditions.
【請求項11】被写体を通過した放射線に基づいて生成
された放射線画像を得る画像処理装置であって、 被写体が存在している位置を入力する被写体位置入力手
段と、 入力された被写体位置に基づいて関心領域を決定する関
心領城決定手段と、 前記関心領域内の画像情報に基づいて画像処理条件を決
定する画像処理条件決定手段を有し、 前記画像処理条件を用いて画像処理を行うことを特徴と
する画像処理装置。
11. An image processing apparatus for obtaining a radiation image generated based on radiation that has passed through a subject, comprising: subject position input means for inputting a position where the subject exists; A region-of-interest determination unit that determines a region of interest by using the image processing condition, and an image processing condition determination unit that determines an image processing condition based on image information in the region of interest. An image processing apparatus characterized by the above-mentioned.
【請求項12】被写体を通過した放射線に基づいて生成
された放射線画像を得る画像処理装置であって、 被写体が存在している位置を入力する被写体位置入力手
段と、 被写体が写っている位置を認識する被写体位置認識手段
と、 前記被写体位置認識手段により認識された被写体位置が
正しい位置であるかを判別する被写体位置判別手段を有
し、 前記被写体位置判別手段により、被写体位置が誤りであ
ると判断された場合は前記被写体位置入力手段により入
力された被写体位置に基づいて画像処理条件を決定する
ことを特徴とする画像処理装置。
12. An image processing apparatus for obtaining a radiation image generated based on radiation that has passed through a subject, comprising: subject position input means for inputting a position where the subject exists; A subject position recognizing means for recognizing; and a subject position determining means for determining whether the subject position recognized by the subject position recognizing means is a correct position. If the subject position determining means determines that the subject position is incorrect, An image processing apparatus comprising: determining an image processing condition based on a subject position input by the subject position input means when the determination is made.
【請求項13】被写体位置に応じて画像を回転する画像
回転手段を有することを特徴とする請求項10乃至請求
項12のいずれか1項に記載の画像処理装置。
13. An image processing apparatus according to claim 10, further comprising an image rotating means for rotating an image according to a position of a subject.
【請求項14】前記被写体位置認識手段が、前記放射線
画像の所定の位置における画素の並びを組み替えること
によって得られる行列を作成する行列作成手段を有し、
前記行列作成手段により得られた情報から被写体位置を
認識することを特徴とする請求項10乃至請求項12の
いずれか1項に記載の画像処理装置。
14. The object position recognizing means has a matrix creating means for creating a matrix obtained by rearranging the arrangement of pixels at predetermined positions of the radiation image,
13. The image processing apparatus according to claim 10, wherein a position of a subject is recognized from information obtained by the matrix creating unit.
【請求項15】前記行列作成手段によって作成されるも
のは、濃度共起行列であることを特徴とする請求項14
に記載の画像処理装置。
15. The matrix created by the matrix creating means is a density co-occurrence matrix.
An image processing apparatus according to claim 1.
【請求項16】前記画像処理が階調処理であることを特
徴とする請求項10乃至請求項15のいずれか1項に記
載の画像処理装置。
16. The image processing apparatus according to claim 10, wherein said image processing is gradation processing.
【請求項17】前記画像処理がダイナミックレンジ圧縮
処理であることを特徴とする請求項10乃至請求項15
のいずれか1項に記載の画像処理装置。
17. The image processing apparatus according to claim 10, wherein said image processing is a dynamic range compression processing.
The image processing device according to any one of claims 1 to 4.
【請求項18】前記画像処理が周波数処理であることを
特徴とする請求項10乃至請求項15のいずれか1項に
記載の画像処理装置。
18. The image processing apparatus according to claim 10, wherein the image processing is frequency processing.
JP2000031811A 2000-02-09 2000-02-09 Method and device for image processing Pending JP2001222704A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000031811A JP2001222704A (en) 2000-02-09 2000-02-09 Method and device for image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000031811A JP2001222704A (en) 2000-02-09 2000-02-09 Method and device for image processing

Publications (2)

Publication Number Publication Date
JP2001222704A true JP2001222704A (en) 2001-08-17
JP2001222704A5 JP2001222704A5 (en) 2005-04-07

Family

ID=18556508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000031811A Pending JP2001222704A (en) 2000-02-09 2000-02-09 Method and device for image processing

Country Status (1)

Country Link
JP (1) JP2001222704A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006084433A (en) * 2004-09-17 2006-03-30 Shimadzu Corp Cone beam ct device
JP2008508018A (en) * 2004-07-27 2008-03-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Automatic determination of imaging geometry parameters
JP2008142178A (en) * 2006-12-07 2008-06-26 Canon Inc Radiological image processing apparatus
US8103079B2 (en) 2008-02-29 2012-01-24 Fujifilm Corporation Chest image rotation apparatus, method and recording-medium stored therein program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008508018A (en) * 2004-07-27 2008-03-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Automatic determination of imaging geometry parameters
JP4754565B2 (en) * 2004-07-27 2011-08-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Automatic determination of imaging geometry parameters
JP2006084433A (en) * 2004-09-17 2006-03-30 Shimadzu Corp Cone beam ct device
JP2008142178A (en) * 2006-12-07 2008-06-26 Canon Inc Radiological image processing apparatus
US8103079B2 (en) 2008-02-29 2012-01-24 Fujifilm Corporation Chest image rotation apparatus, method and recording-medium stored therein program

Similar Documents

Publication Publication Date Title
US6415049B1 (en) Apparatus for detecting and processing a radiation image
JP2000033082A (en) Picture processor of radiation picture
JPH05342349A (en) Method for processing digital image and manufacturing histogram by statistic picture element sampling
JP4497615B2 (en) Image processing apparatus, correction method, and recording medium
JP2001238868A (en) Method of image processing and its apparatus
JP2005028037A (en) Medical image processing device and medical image processing method
JP2000079110A (en) Picture processor
US7248729B2 (en) Image processing apparatus and image processing method
JP2509503B2 (en) Image processing method and apparatus
JP3800892B2 (en) Radiation image processing device
JP3814864B2 (en) Radiographic image processing condition determining apparatus, image processing apparatus, radiographic image processing condition determining method, and image processing method
JPH06292008A (en) Dynamic range compression processing unit for radiation picture
JP2867055B2 (en) Edge determination method and apparatus
JP2000030046A (en) Radiation image detecting and processing apparatus
JPH08146540A (en) Image processing device and image data originating device
JP2000023950A (en) Image processing device for radiation image
JP2001222704A (en) Method and device for image processing
JP2000157519A (en) Image processor
JP2000245721A (en) Radiographic image pickup device
JP2001029335A (en) Radiation image processor
JP2001245140A (en) Image processing apparatus and image processing method
JP2000157518A (en) Radiation image processor
JP4258092B2 (en) Image processing apparatus and image processing method
JP3945976B2 (en) Image display method and apparatus
JP2001149359A (en) Imaging device, image processing device, image processing system, image processing method and storage medium

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040428

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070703