以下に、本発明にかかる画像処理装置、画像処理プログラムおよび画像処理方法の実施の形態を図面に基づいて詳細に説明する。なお、以下では、時系列に沿って撮像された時系列画像群の一例として被検体内部のカプセル内視鏡が時系列順に撮像した体内画像群を例示し、この体内画像群の中から観察すべき注目領域を含む体内画像を代表画像として出力する画像処理装置、画像処理プログラムおよび画像処理方法を説明するが、本実施の形態によって本発明が限定されるものではない。
(実施の形態1)
図1は、本発明の実施の形態1にかかる画像処理装置を備えた画像表示システムの一構成例を模式的に示すブロック図である。図1に示すように、本実施の形態1にかかる画像表示システム100は、被検体の体内画像群を入力する画像入力装置1と、画像入力装置1によって入力された体内画像群の中から注目領域を含む1フレーム以上の体内画像を出力するための各種画像処理を行う画像処理装置2と、画像処理装置2によって出力された1フレーム以上の体内画像を表示する表示装置3とを備える。
画像入力装置1は、被検体の体内画像群を画像処理装置2に入力するための装置である。具体的には、画像入力装置1は、例えば可搬型の記録媒体を着脱可能なデータ入力インターフェースである。画像入力装置1は、カプセル内視鏡等によって撮像された被検体の体内画像群を保存した記録媒体を着脱可能に挿着され、この記録媒体から取り込んだ体内画像群を画像処理装置2に入力する。
画像処理装置2は、画像入力装置1によって入力された体内画像群の中から注目領域を含む体内画像を抽出するための各種画像処理を行う。具体的には、画像処理装置2は、画像入力装置1から被検体の体内画像群を取得し、この取得した体内画像群に含まれる各体内画像に対して画像処理を行って、この体内画像群の中から注目領域を含む体内画像を1フレーム以上抽出する。画像処理装置2は、この体内画像群内の各体内画像を代表する代表画像として、注目領域を含む体内画像を表示装置3に1フレーム以上出力する。なお、画像処理装置2の詳細な構成については、後述する。
ここで、本実施の形態1において、被検体の体内画像群に含まれる注目領域は、医師または看護師等の観察者が観察すべき注目の体内領域(体内部位)であり、例えば、消化管内部の病変領域、粘膜領域、医療処置後の生体組織領域等である。
表示装置3は、体内画像群のうちの注目領域を含む体内画像を1フレーム以上表示出力するユーザインターフェースとして機能する。具体的には、表示装置3は、CRTディスプレイまたは液晶ディスプレイ等の所望のディスプレイを用いて実現される。表示装置3は、画像処理装置2が体内画像群の中から抽出した1フレーム以上の代表画像を取得し、この取得した1フレーム以上の代表画像を表示する。
なお、表示装置3が表示する代表画像は、被検体内部の病変領域等の注目領域が撮像された体内画像であり、観察者は、表示された代表画像を観察することによって、被検体の消化管内部を検査することができる。
つぎに、本発明の実施の形態1にかかる画像処理装置2の構成について詳細に説明する。図1に示すように、本実施の形態1にかかる画像処理装置2は、体内画像群内の各体内画像に対して演算処理等を行う演算部10と、画像処理に必要な設定情報等の各種情報を入力する入力部20と、体内画像等の各種データを記憶する記憶部30と、画像処理装置2の各構成部を制御する制御部40とを備える。
演算部10は、画像入力装置1によって入力された体内画像群内の各体内画像に対して各種演算処理を行う。具体的には、演算部10は、体内画像群に含まれる注目領域を検出する注目領域検出部11と、注目領域検出部11が検出した注目領域の特徴量を算出する特徴量算出部12と、特徴量算出部12が算出した特徴量と、注目領域を含む体内画像の時系列位置とに基づいて注目領域を分類する領域分類部13とを備える。また、演算部10は、領域分類部13によって分類された注目領域が属する領域グループの特徴量(以下、グループ特徴量という)を算出するグループ特徴量算出部14と、領域グループに属する注目領域を代表する1以上の代表領域を選出する領域選出部15と、領域選出部15が選出した代表領域を含む1以上の代表画像を出力する代表画像出力部16とを備える。
注目領域検出部11は、体内画像群に含まれる注目領域を検出する。具体的には、注目領域検出部11は、総数N枚の体内画像群PGを画像入力装置1から取得し、この取得した体内画像群PGの各体内画像P(j)に対して時系列順にフレーム番号j(1≦j≦N)を付与する。注目領域検出部11は、各体内画像P(j)の色情報等の特徴量をもとに、各体内画像P(j)から病変領域等の注目領域A(j,t)を検出する。注目領域検出部11は、注目領域A(j、t)の検出結果および体内画像群PGを特徴量算出部12に送信する。なお、tは、1フレームの体内画像P(j)に含まれる1以上の注目領域A(j,t)を識別するインデクス(識別子)である。
特徴量算出部12は、注目領域検出部11が各体内画像P(j)から検出した注目領域A(j,t)の特徴を示す特徴量を算出する算出処理部として機能する。具体的には、特徴量算出部12は、各注目領域A(j,t)に属する画素の画素値を所望の色空間の値に変換する画素値変換部12aと、画素値変換部12aによって変換された各注目領域A(j,t)の画素値の平均値を算出する平均値算出部12bとを備える。
画素値変換部12aは、体内画像群PGの中から注目領域検出部11が検出した注目領域毎に、注目領域A(j,t)に属する画素の値、例えば赤緑青(RGB)の色空間の値をL*a*b*空間の値に変換する。平均値算出部12bは、画素値変換部12aが変換出力したL*a*b*空間の値の平均値を、注目領域A(j,t)の特徴量、例えば色特徴量として算出する。このように算出された注目領域A(j,t)の特徴量は、体内画像群PGとともに領域分類部13に送信される。
領域分類部13は、特徴量算出部12が算出した注目領域A(j,t)の特徴量と、注目領域検出部11が検出した注目領域A(j,t)を含む体内画像P(j)の時系列位置とに基づいて、注目領域A(j,t)をいずれかの領域グループに分類する。具体的には、領域分類部13は、各注目領域A(j,t)の時系列的な隣接状況を判定する隣接状況判定部13aと、注目領域A(j、t)同士の特徴量の類似性を示す類似度を判定する類似度判定部13bとを備える。
隣接状況判定部13aは、体内画像群PGの中から注目領域検出部11が検出した複数の注目領域A(j,t)が時系列的に隣接するか否かを判定する。なお、隣接状況判定部13aが判定した注目領域A(j,t)の時系列的な隣接状況は、注目領域A(j,t)の特徴量の座標軸および時系列の座標軸によって形成される特徴空間における注目領域A(j,t)の時系列的な分布状態を示す。
類似度判定部13bは、特徴量算出部12が算出した複数の注目領域A(j,t)同士の特徴量(例えば色特徴量)の類似性を示す類似度を判定する。なお、類似度判定部13bが判定した注目領域A(j,t)同士の類似度は、上述した特徴空間における注目領域A(j,t)の特徴量の分布状態を示す。
ここで、領域分類部13は、上述した注目領域A(j,t)の時系列的な隣接状況判定結果をもとに、特徴空間における注目領域A(j,t)の時系列的な分布状態を把握する。また、領域分類部13は、上述した注目領域A(j,t)同士の類似度判定結果をもとに、特徴空間における注目領域A(j,t)の特徴量の分布状態を把握する。領域分類部13は、把握した注目領域A(j,t)の特徴量の分布状態と時系列的な分布状態とに基づいて、注目領域A(j,t)をいずれかの領域グループに分類する。このようにして、領域分類部13は、特徴空間における特徴量の分布が所定の閾値範囲内に収まり且つ時系列的に隣接または同一の状態になる注目領域A(j,t)同士を同一の領域グループに分類する。領域分類部13は、注目領域A(j,t)のグループ分類結果および体内画像群PGをグループ特徴量算出部14に送信する。
グループ特徴量算出部14は、領域分類部13が分類した注目領域A(j,t)の領域グループ毎の特徴を示すグループ特徴量を算出する。具体的には、グループ特徴量算出部14は、領域分類部13から体内画像群PGを取得し、この取得した体内画像群PG内の注目領域A(j,t)が属する領域グループ毎に、各領域グループに属する注目領域A(j,t)の特徴空間における特徴量の分散を算出する。次いで、グループ特徴量算出部14は、算出した領域グループ毎の特徴量の分散算出結果をもとに、各領域グループのグループ特徴量を算出する。
ここで、注目領域A(j,t)の特徴空間における特徴量の分散は、平均値算出部12bによって算出された注目領域A(j,t)の色特徴量、すなわち注目領域A(j,t)に属するL*a*b*空間の値の平均値に基づく分散である。グループ特徴量算出部14は、上述した注目領域A(j,t)の特徴量の分散を領域グループ毎に合計することによって、領域グループ毎のグループ特徴量を算出する。グループ特徴量算出部14は、グループ特徴量の算出結果および体内画像群PGを領域選出部15に送信する。
領域選出部15は、グループ特徴量算出部14が算出したグループ特徴量をもとに、領域グループの中から注目領域A(j,t)を代表する1以上の代表領域を選出する。具体的には、領域選出部15は、領域グループ毎の代表領域の選出数を決定する選出数決定部15aと、領域グループに含まれる複数の注目領域A(j,t)を選出数と同数の類似グループに細分類する細分類処理部15bと、細分類後の類似グループ毎に重心を算出する重心算出部15cと、類似グループ毎に重心に最近の注目領域を選出する最近領域選出部15dとを備える。
選出数決定部15aは、関数部15eを備える。関数部15eは、代表領域の選出数とグループ特徴量との関係を示す関数を予め保持し、グループ特徴量が入力された場合、入力されたグループ特徴量と予め保持した関数とをもとに、領域グループ毎に要約率を算出する。ここで、関数部15eが算出した要約率は、1つの領域グループに属する注目領域A(j,t)の何%を選出するかを決定する値である。なお、関数部15eが保持する関数は、予め関数部15eに設定したものであってもよいし、入力部20から入力された関数情報に基づいて制御部40が関数部15eに設定したものであってもよい。
具体的には、選出数決定部15aは、領域グループ毎に関数部15eが算出した要約率と領域グループ内の注目領域A(j,t)の総数とを乗算し、この乗算結果の小数点以下を四捨五入することによって、領域グループ毎の代表領域の選出数を決定する。
細分類処理部15bは、体内画像群PGにおける領域グループ毎に、領域グループ内の複数の注目領域A(j,t)を一層特徴が類似した類似グループに細分類する。具体的には、細分類処理部15bは、この体内画像群PGにおける各領域グループに含まれる複数の注目領域A(j,t)の特徴の類似度に基づいて、選出数決定部15aによる選出数と同数の類似グループに領域グループ毎の注目領域A(j,t)を細分類する。
ここで、注目領域A(j,t)の特徴の類似度として、例えば、上述した平均値算出部12bが算出した各注目領域A(j,t)の色特徴量の類似度が挙げられる。注目領域A(j,t)の特徴の類似度が色特徴量の類似度である場合、細分類処理部15bが細分類した各類似グループ内の注目領域A(j,t)同士は、細分類処理前の領域グループ内の注目領域A(j,t)同士に比して一層色特徴量が類似した注目領域同士になる。
重心算出部15cは、細分類処理部15bによって細分類された類似グループに含まれる複数の注目領域A(j,t)の特徴量の重心を類似グループ毎に算出する。ここで、類似グループ内の注目領域A(j,t)の特徴量の重心は、同一類似グループに含まれる複数の注目領域A(j,t)の特徴量の平均値と時系列位置とに基づいた特徴空間内の座標点である。なお、注目領域A(j,t)の特徴量の平均値として、例えば、平均値算出部12bが算出した色特徴量の平均値が挙げられる。
最近領域選出部15dは、上述した類似グループに含まれる複数の注目領域A(j,t)の中から、重心算出部15cが算出した特徴量の重心に最も近い注目領域を選出する。具体的には、最近領域選出部15dは、類似グループ毎に、特徴空間内における特徴量の重心からのユークリッド距離が最小になる特徴量の注目領域A(j,t)を選出する。すなわち、最近領域選出部15dは、上述した特徴量の重心に最も近い特徴空間内座標点に対応する注目領域A(j,t)を類似グループ毎に選出する。
上述したような構成を有する領域選出部15は、細分類処理部15bが細分類した類似グループ毎に最近領域選出部15dが選出した注目領域A(j,t)を代表領域とすることによって、体内画像群PG内の中から、選出数決定部15aが決定した選出数と同数の代表領域を領域グループ毎に選出する。領域選出部15は、領域グループ毎の代表領域の選出結果および体内画像群PGを代表画像出力部16に送信する。なお、領域選出部15は、選出数が1未満の値になった領域グループに対し、この選出数を「1」にすることによって、少なくとも1つの注目領域A(j,t)をこの領域グループから選出する。
代表画像出力部16は、体内画像群PGのうちの代表領域を含む1以上の代表画像を出力する。具体的には、代表画像出力部16は、上述した代表領域の選出処理が行われた体内画像群PGを取得し、この取得した代表画像群PGの中から、領域選出部15によって選出された代表領域を含む体内画像を抽出する。代表画像出力部16は、抽出した代表領域を含む体内画像を、出力対象(例えば表示対象)の代表画像として表示装置3に1フレーム以上出力する。
なお、代表画像出力部16は、体内画像群PGに複数の代表領域が含まれる場合、これら複数の代表領域の各々を含む複数の体内画像群である代表画像群を表示装置3に出力する。代表画像出力部16によって出力された1フレーム以上の代表画像は、上述したように、観察対象の体内画像として表示装置3に表示される。
入力部20は、例えばキーボードおよびマウスに例示される入力デバイス等を用いて実現される。入力部20は、医師または看護師等の観察者(ユーザ)による入力操作に対応して画像処理装置2の制御部40に各種情報を入力する。なお、入力部20によって制御部40に入力される各種情報として、例えば、画像処理装置2の動作開始または動作終了等を制御部40に対して指示する指示情報、上述した関数部15eに設定する関数情報、画像処理装置2による画像処理に必要な各種パラメータ等が挙げられる。
記憶部30は、RAM、EEPROM、フラッシュメモリ、またはハードディスク等の書き換え可能に情報を保存する各種記憶メディアを用いて実現される。記憶部30は、制御部40が記憶指示した各種情報を記憶し、記憶した各種情報の中から制御部40が読み出し指示した情報を制御部40に送信する。なお、記憶部30が記憶する各種情報として、例えば、入力部20によって入力された入力情報、画像入力装置1によって入力された体内画像群PG、画像処理装置2の各構成部の処理結果等が挙げられる。
制御部40は、画像処理装置2の構成部である演算部10、入力部20および記憶部30の各動作を制御し、且つ、これら各構成部間における信号の入出力を制御する。特に演算部10の制御において、制御部40は、この演算部10の構成部である注目領域検出部11、特徴量算出部12、領域分類部13、グループ特徴量算出部14、領域選出部15および代表画像出力部16の各動作を制御し、且つ、これら各構成部間における信号の入出力を制御する。
具体的には、制御部40は、処理プログラムを記憶する記憶部とこの記憶部内の処理プログラムを実行するコンピュータとを用いて実現される。制御部40は、入力部20によって入力された指示情報に基づいて、記憶部30の動作を制御し、あるいは、演算部10の各構成部の処理および動作タイミング等を制御する。また、制御部40は、画像入力装置1によって入力された体内画像群PGを処理してこの体内画像群PGのうちの1フレーム以上の代表画像を表示装置3に出力するように演算部10を制御し、且つ、体内画像群PGを記憶するように記憶部30を制御する。制御部40は、入力部20によって入力された指示情報等に基づいて、記憶部30内の体内画像群PGの各体内画像P(j)を適宜読み出し、読み出した体内画像P(j)を演算部10に送信する。
つぎに、本発明の実施の形態1にかかる画像処理装置2の動作について説明する。図2は、本発明の実施の形態1にかかる画像処理装置の処理手順を例示するフローチャートである。この実施の形態1にかかる画像処理装置2は、図2に示される処理手順を実行して、画像入力装置1から取得した被検体の体内画像群PGに含まれる1フレーム以上の代表画像(以下、代表体内画像という)を表示装置3に出力する。
すなわち、図2に示すように、画像処理装置2は、まず、画像入力装置1から被検体の体内画像群PGを取得する(ステップS101)。このステップS101において、制御部40は、画像入力装置1によって入力された体内画像群PGの取得処理を実行するように演算部10の注目領域検出部11を制御する。注目領域検出部11は、制御部40の制御に基づいて、画像入力装置1から被検体の体内画像群PGを取得し、この取得した体内画像群PG(総数N枚)の各体内画像P(j)に対して時系列順にフレーム番号j(1≦j≦N)を付与する。なお、体内画像群PGに含まれる各体内画像P(j)は、各画素においてR(赤)G(緑)B(青)の各々に対応した画素値を有するカラー画像である。
つぎに、画像処理装置2は、体内画像群PGに含まれる注目領域A(j,t)を検出する(ステップS102)。このステップS102において、制御部40は、上述したステップS101の処理手順によって取得した体内画像群PG内の注目領域A(j,t)の検出処理を実行するように注目領域検出部11を制御する。注目領域検出部11は、制御部40の制御に基づいて、体内画像群PG内の各体内画像P(j)の色情報等をもとに病変領域等の注目領域A(j,t)を検出する。
具体的には、注目領域検出部11は、まず、体内画像群PG内の各体内画像P(j)を各々所定数の画素領域に領域分割して各画素領域の色等の特徴量を算出する。次いで、注目領域検出部11は、色等の特徴量を座標軸とする特徴空間における各画素領域のデータ点をクラスタリングする。その後、注目領域検出部11は、特徴空間における各データ点のクラスタの重心位置等の情報をもとに、体内画像P(j)内の注目領域の各画素のデータ点によって構成されたクラスタを識別し、識別したクラスタに対応する画素領域を体内画像P(j)内の注目領域A(j,t)としている。
ここで、クラスタリングとは、特徴空間におけるデータ分布を、特徴量の類似性に基づいてクラスタと呼ばれる集合に分類する処理である。なお、注目領域検出部11は、例えばk−means法(CG−ARTS協会「ディジタル画像処理」p.231参照)等の公知のクラスタリングを行って、体内画像群PG内に含まれる病変領域等の注目領域A(j,t)を検出する。
なお、本実施の形態1において、注目領域検出部11は、特徴空間における特徴量の分布状態に基づいて病変領域等の注目領域A(j,t)を検出しているが、注目領域検出部11による注目領域A(j,t)の検出手法は、検出対象の注目領域A(j,t)によって異なる。このため、注目領域検出部11は、体内画像群PGの中から注目領域A(j,t)を検出できる手法であれば、上述したクラスタリング以外の手法を用いて体内画像群PG内の注目領域A(j,t)を検出してもよい。
その後、画像処理装置2は、体内画像群PGに含まれる各注目領域A(j,t)の特徴量を算出する(ステップS103)。このステップS103において、制御部40は、上述したステップS102の処理手順によって検出された各注目領域A(j,t)の特徴量の算出処理を実行するように特徴量算出部12を制御する。特徴量算出部12は、制御部40の制御に基づいて、体内画像群PG内の各注目領域A(j,t)の特徴量の一例である色特徴量を算出する。
具体的には、画素値変換部12aは、体内画像群PGの中から注目領域検出部11が検出した注目領域A(j,t)毎に、注目領域A(j,t)に属するRGB色空間の値をL*a*b*空間の値、すなわち明度指数Lおよび知覚色度a,bの各値に変換する。次いで、平均値算出部12bは、画素値変換部12aが注目領域A(j,t)毎に変換出力した明度指数Lおよび知覚色度a,bの各値の平均値、すなわち平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)を各注目領域A(j,t)の色特徴量として算出する。
特徴量算出部12は、上述したようにして、明度指数Lおよび知覚色度a,b等の3つの色特徴量と時系列とを座標軸とする4軸の特徴空間(以下、Lab−時系列特徴空間という)における注目領域A(j,t)の色特徴量を算出する。ここで、特徴量算出部12が算出した注目領域A(j,t)の色特徴量は、Lab−時系列特徴空間の色特徴量軸の座標成分である。
なお、上述した平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)におけるjは、上述したように、体内画像群PG内の各体内画像P(j)に付与されたフレーム番号jである。一方、tは、体内画像群PG内の1フレームの体内画像P(j)に含まれる1以上の注目領域A(j,t)を識別するインデクスである。
つぎに、画像処理装置2は、体内画像群PG内の各注目領域A(j,t)を分類する(ステップS104)。このステップS104において、制御部40は、上述したステップS102の処理手順によって検出された各注目領域A(j,t)の分類処理を実行するように領域分類部13を制御する。領域分類部13は、制御部40の制御に基づいて、上述したステップS103の処理手順によって算出された各注目領域A(j,t)の色特徴量と、注目領域A(j,t)を含む各体内画像P(j)の時系列位置とをもとに、体内画像群PG内の各注目領域A(j,t)をいずれかの領域グループに分類する。
具体的には、隣接状況判定部13aは、体内画像群PGに含まれる注目領域A(j,t)の時系列的な隣接状況を判定する。すなわち、隣接状況判定部13aは、Lab−時系列特徴空間内の各特徴点に対応する注目領域A(j,t)毎に、各特徴点が時系列的に隣接するか否かを判定する。一方、類似度判定部13bは、ステップS103において平均値算出部12bが算出した複数の注目領域A(j,t)同士の色特徴量の類似度を判定する。すなわち、類似度判定部13bは、Lab−時系列特徴空間における各特徴点同士の平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)の類似度を判定する。
領域分類部13は、上述したように隣接状況判定部13aが判定した注目領域A(j,t)の時系列的な隣接状況と類似度判定部13bが判定した注目領域A(j,t)同士の色特徴量の類似度とをもとに、体内画像群PG内の注目領域A(j,t)を1以上の領域グループに分類する。これによって、領域分類部13は、Lab−時系列特徴空間内に分布する特徴点を1以上の特徴点クラスタに分類する。
なお、Lab−時系列特徴空間内の特徴点は、注目領域A(j,t)の色特徴量および時系列位置とによって決定される座標点である。一方、特徴点クラスタは、Lab−時系列特徴空間内に分布する特徴点のグループであり、1以上の特徴点を含む。ステップS104において、領域分類部13は、Lab−時系列特徴空間における複数の特徴点を含むグループを特徴点クラスタと看做すことは勿論、Lab−時系列特徴空間における単一の特徴点も1つの特徴点が属する特徴点クラスタと看做す。
続いて、画像処理装置2は、この体内画像群PG内の各注目領域グループのグループ特徴量を算出する(ステップS105)。このステップS105において、制御部40は、上述したステップS104の処理手順によって分類された注目領域A(j,t)の領域グループ毎にグループ特徴量の算出処理を実行するようにグループ特徴量算出部14を制御する。
具体的には、グループ特徴量算出部14は、制御部40の制御に基づいて、注目領域A(j,t)の領域グループ毎に、領域グループの特徴を示すグループ特徴量を算出する。すなわち、グループ特徴量算出部14は、まず、体内画像群PG内に含まれる注目領域A(j,t)毎に、注目領域A(j,t)の色特徴量の分散を算出する。次いで、グループ特徴量算出部14は、領域グループに属する各注目領域A(j,t)の色特徴量を領域グループ毎に合計し、これによって、体内画像群PG内の各領域グループのグループ特徴量を算出する。
より具体的には、グループ特徴量算出部14は、Lab−時系列特徴空間内の各特徴点の平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)の分散を算出し、算出した平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)の分散を特徴点クラスタ毎に合計する。これによって、グループ特徴量算出部14は、体内画像群PG内の特徴点クラスタ毎のグループ特徴量、すなわち各領域グループのグループ特徴量を算出する。
つぎに、画像処理装置2は、体内画像群PG内の各注目領域グループの代表領域を選出する(ステップS106)。このステップS106において、制御部40は、上述したステップS104の処理手順によって分類された注目領域A(j,t)の領域グループ毎に代表領域の選出処理を実行するように領域選出部15を制御する。
具体的には、領域選出部15は、制御部40の制御に基づいて、上述したグループ特徴量算出部14が算出した各領域グループのグループ特徴量をもとに、領域グループに属する注目領域A(j,t)の中から1以上の代表領域を領域グループ毎に選出する。
その後、画像処理装置2は、体内画像群PGのうちの代表領域を含む代表体内画像を表示装置3に1フレーム以上出力し(ステップS107)、本処理を終了する。このステップS107において、制御部40は、上述したステップS106の処理手順によって選出された代表領域を含む代表体内画像の出力処理を実行するように代表画像出力部16を制御する。
具体的には、代表画像出力部16は、制御部40の制御に基づいて、体内画像群PGの中から、上述したステップS106において領域選出部15が選出した代表領域を含む代表体内画像を1フレーム以上抽出し、抽出した1フレーム以上の代表体内画像を表示装置3に出力する。すなわち、代表画像出力部16は、体内画像群PG内に含まれる代表体内画像が1フレームのみである場合、この1フレームの代表体内画像を表示装置3に出力し、体内画像群PG内に代表体内画像が複数フレーム含まれる場合、これら複数フレームの代表体内画像を表示装置3に出力する。なお、代表画像出力部16が表示装置3に出力する代表体内画像は、単一の注目領域A(j,1)を含むものであってもよいし、複数の注目領域A(j,t)(t≧2)を含むものであってもよい。
つぎに、上述したステップS104における各注目領域の分類処理について詳細に説明する。図3は、体内画像群に含まれる各注目領域の分類処理の処理手順を例示するフローチャートである。図4は、体内画像群内に含まれる注目領域の特徴点の特徴空間における分布状態の一具体例を示す模式図である。図5は、特徴空間内の各特徴点を特徴点クラスタに分類した状態を示す模式図である。図6は、時系列的に隣接または同一の特徴点が属する複数の特徴点クラスタを同一クラスタに統合する状態を示す模式図である。
なお、図4〜6に示す特徴空間は、Lab−時系列特徴空間である。図4〜6では、本発明の説明を簡単にするために、注目領域A(j,t)が有する平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)を色特徴量として一軸に纏めて表している。
画像処理装置2の領域分類部13は、上述したように、制御部40の制御に基づいてステップS104における各注目領域A(j,t)の分類処理を実行する。具体的には、図3に示すように、領域分類部13は、まず、体内画像群PGに含まれる各注目領域A(j,t)の特徴点の初期設定処理を行う(ステップS201)。
このステップS201において、領域分類部13は、上述した特徴量算出部12が算出した各注目領域A(j,t)の色特徴量と、注目領域A(j,t)を含む各体内画像P(j)の時系列位置とに基づいて、体内画像群PG内の各注目領域A(j,t)の特徴に対応する各特徴点をLab−時系列特徴空間内に作成(プロット)する。
具体的には、領域分類部13は、体内画像群PG内の体内画像P(j)に総数Tmの注目領域A(j,t)が含まれる場合、注目領域A(j,t)の時系列情報と色特徴量とに基づいて、注目領域A(j,t)の特徴点C(m)をLab−時系列特徴空間にプロットする。なお、特徴点C(m)におけるmは、Lab−時系列特徴空間内にプロットされる特徴点を識別するインデクスである。すなわち、総数Tmの注目領域A(j,t)において、インデクスmは1以上、Tm以下である。一方、注目領域A(j,t)の時系列情報は、体内画像群PGにおける体内画像P(j)の時系列位置を示す情報であり、体内画像P(j)のフレーム番号jに対応する。また、注目領域A(j,t)の色特徴量は、平均値算出部12bが算出した平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)である。
ここで、領域分類部13は、まず、インデクスmを「1」に設定し、特徴点C(1)の色特徴量と時系列情報とをもとに特徴点C(1)の座標を設定して、Lab−時系列特徴空間に特徴点C(1)を作成する。それ以降、残りの特徴点C(2)〜C(Tm)についても特徴点C(1)の場合と同様に色特徴量と時系列情報とをもとに座標を順次設定して、Lab−時系列特徴空間に特徴点C(2)〜C(Tm)を作成する。この時点において、領域分類部13は、Lab−時系列特徴空間に分布している各特徴点C(1)〜C(Tm)を各々1つの特徴点クラスタと看做すことによって、検出された注目領域A(j,t)と同数の特徴点クラスタ群を作成する。
つぎに、領域分類部13は、作成した特徴点クラスタ群の総数をTkと設定し、この特徴点クラスタ群内の各特徴点クラスタCG(k)を識別するインデクスk(1≦k≦Tk)を「1」に設定する。次いで、領域分類部13は、特徴点クラスタCG(k)を構成する注目領域A(j,t)の色特徴量、すなわち平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)を特徴点クラスタCG(k)の平均明度指数L(k)および平均知覚色度a(k),b(k)に代入する(色特徴量の代入処理)。
ここで、平均明度指数L(k)および平均知覚色度a(k),b(k)は、特徴点クラスタCG(k)に属する全ての注目領域A(j,t)の色特徴量の平均値である。しかし、この段階において、各特徴点クラスタCG(k)には1つの注目領域A(j,t)、すなわち1つの特徴点C(m)のみ含まれる。このため、各特徴点クラスタCG(k)に属する注目領域A(j,t)の明度指数L(j,t)および知覚色度a(j,t),b(j,t)を平均明度指数L(k)および平均知覚色度a(k),b(k)に代入している。
その後、領域分類部13は、インデクスkをインクリメント処理し、インデクスkが総数Tk以下であるか否かを判定する。領域分類部13は、インデクスkが総数Tk以下であると判定した場合、上述した色特徴量の代入処理以降の処理手順を繰り返し行い、インデクスkが総数Tk以下ではないと判定した場合、ステップS201の処理手順を終了する。
以下、図4を参照して、ステップS201の処理手順をより具体的に説明する。図4に示すように、体内画像群PGのうちの体内画像P(1),P(2),P(3),P(4),P(6),P(7)に注目領域A(1,1),A(2,1),A(3,1),A(4,1),A(6,1),A(7,1)が各々含まれる場合、領域分類部13は、Lab−時系列特徴空間に、まず、体内画像P(1)内の注目領域A(1,1)の時系列情報と色特徴量とに基づく座標を有する特徴点C(1)を作成する。次いで、領域分類部13は、Lab−時系列特徴空間に、体内画像P(2)内の注目領域A(2,1)の時系列情報と色特徴量とに基づく座標を有する特徴点C(2)から、体内画像P(7)内の注目領域A(7,1)の時系列情報と色特徴量とに基づく座標を有する特徴点C(6)までを順次作成する。この結果、図4に示すLab−時系列特徴空間には、注目領域の総数Tm(=6)と同数である6つの特徴点C(1)〜C(6)がプロットされる。
つぎに、領域分類部13は、これら6つの特徴点C(1)〜C(6)の各々を特徴点クラスタとして看做し、各特徴点C(1)〜C(6)の各色特徴量を各特徴点クラスタの色特徴量、すなわち平均明度指数L(k)および平均知覚色度a(k),b(k)に代入する。
なお、体内画像群PG内の体内画像P(5)は、注目領域を含んでいないため、Lab−時系列特徴空間には、体内画像P(5)に対応する特徴点はプロットされない。このことは、残りの体内画像P(8)〜P(N)についても同様である。
一方、上述したステップS201を実行後、領域分類部13は、Lab−時系列特徴空間内の特徴点クラスタの総数が1以下であるか否かを判定する(ステップS202)。このステップS202において、領域分類部13は、Lab−時系列特徴空間内に存在する特徴点クラスタの数を集計し、この集計した特徴点クラスタの総数が1以下であるか否かを判定する。
このステップS202における判定処理の結果、領域分類部13は、特徴点クラスタの総数が1以下である場合(ステップS202,Yes)、本処理を終了して図2に示したステップS104の処理手順にリターンする。一方、ステップS202の判定処理の結果、特徴点クラスタの総数が1以下ではない場合(ステップS202,No)、領域分類部13は、Lab−時系列特徴空間内に存在する複数の特徴点クラスタにおいて最小色差になる特徴点クラスタの組み合わせを選出する(ステップS203)。
ステップS203において、領域分類部13は、上述したステップS201の処理手順のようにLab−時系列特徴空間内に設定された複数の特徴点クラスタCG(k)の中から異なるインデクスk1,k2(1≦k1<k2≦Tk)の特徴点クラスタCG(k1),CG(k2)を順次抽出し、抽出した2つの特徴点クラスタCG(k1),CG(k2)の色特徴量の差である色差△Eを次式(1)に基づいて順次算出する。
ここで、この式(1)において、平均明度指数L(k1)および平均知覚色度a(k1),b(k1)は、特徴点クラスタCG(k1)の色特徴量であり、平均明度指数L(k2)および平均知覚色度a(k2),b(k2)は、特徴点クラスタCG(k2)の色特徴量である。
具体的には、領域分類部13は、まず、インデクスk1の初期値を「1」に設定し且つインデクスk2の初期値を「2」に設定し、式(1)に基づいて、特徴点クラスタCG(k1),CG(k2)の色差△Eを算出する。つぎに、領域分類部13は、インデクスk2が特徴点クラスタの総数Tk未満であるか否かを判定し、総数Tk未満である場合、上述した色差△Eの算出処理およびインデクスk2のインクリメント処理を順次繰り返す。
その後、領域分類部13は、インデクスk2が特徴点クラスタの総数Tk以上である場合、インデクスk1が特徴点クラスタの総数Tkから「1」減算した減算値(Tk−1)未満であるか否かを判定する。領域分類部13は、インデクスk1が減算値(Tk−1)未満である場合、インデクスk1をインクリメント処理し、インデクスk2をインデクスk1に「1」加算した値(k1+1)に設定して、上述した色差△Eの算出処理を繰り返す。
一方、領域分類部13は、インデクスk1が減算値(Tk−1)以上である場合、このステップS203において算出した全ての色差△Eをソート処理する。領域分類部13は、このソート処理結果に基づいて、これら全ての色差△Eのうちの最小色差△Eminを有する特徴点クラスタCG(k1),CG(k2)の組み合わせを選出する。
なお、色差△Eは、注目領域A(j,t)同士の色特徴量の類似度に相当するものであり、注目領域A(j,t)同士の色特徴量の類似度の増加に伴って減少し、注目領域A(j,t)同士の色特徴量の類似度の減少に伴って増加する。
以下、図4を参照して、ステップS202の処理手順をより具体的に説明する。図4に示すように1つの特徴点クラスタに1つの特徴点のみが属する初期状態の場合、領域分類部13は、まず、特徴点クラスタCG(k1)のインデクスk1を特徴点C(1)のインデクス(=1)に設定し、特徴点クラスタCG(k2)のインデックスk2を特徴点C(2)のインデクス(=2)に設定する。
つぎに、領域分類部13は、特徴点クラスタCG(k1)に属する特徴点C(1)と特徴点クラスタCG(k2)に属する特徴点C(2)との色差△Eを算出する。続いて、領域分類部13は、インデクスk2が特徴点クラスタの総数Tk以下であるか否かを判定し、総数Tk以下である場合、インデクスk2をインクリメント処理して、特徴点C(1)と特徴点クラスタCG(k2)に属する特徴点C(3)との色差△Eを算出する。その後、領域分類部13は、このインデクスk2が総数Tkに到達するまでインデクスk2のインクリメント処理および色差△Eの算出処理を順次繰り返す。
一方、領域分類部13は、インデクスk2が総数Tkを超過した場合、インデクスk1をインクリメント処理し、且つインデクスk2をk1+1の値に置き換える。そして、領域分類部13は、このインクリメント処理後の特徴点クラスタCG(k1)に属する特徴点C(2)と特徴点クラスタCG(k2)に属する特徴点C(3)との色差△Eを算出する。その後、領域分類部13は、インデクスk1が総数Tkから「1」減算した値に到達するまでインデクスk1,k2のインクリメント処理および色差△Eの算出処理を順次繰り返す。
その後、領域分類部13は、Lab−時系列特徴空間内から抽出可能な2つの特徴点クラスタCG(k1),CG(k2)の全組み合わせについて、上述したような処理を実行して、2つの特徴点クラスタCG(k1),CG(k2)の全組み合わせの各色差△Eを算出する。
以上のようにして、領域分類部13は、図4に示すLab−時系列特徴空間内の6つの特徴点クラスタである特徴点C(1)〜C(6)について、特徴点C(1),C(2)の色差△E1、特徴点C(1),C(3)の色差△E2、特徴点C(1),C(4)の色差△E3、特徴点C(1),C(5)の色差△E4、特徴点C(1),C(6)の色差△E5を順次算出する。次いで、領域分類部13は、特徴点C(2),C(3)の色差△E6、特徴点C(2),C(4)の色差△E7、特徴点C(2),C(5)の色差△E8、特徴点C(2),C(6)の色差△E9を順次算出する。また、領域分類部13は、特徴点C(3),C(4)の色差△E10、特徴点C(3),C(5)の色差△E11、特徴点C(3),C(6)の色差△E12を順次算出する。さらに、領域分類部13は、特徴点C(4),C(5)の色差△E13、特徴点C(4),C(6)の色差△E14を順次算出し、その後、特徴点C(5),C(6)の色差△E15を算出する。
上述したように特徴点クラスタCG(k1),CG(k2)の全組み合わせの色差△Eを算出完了後、領域分類部13は、算出した全ての色差△E同士を比較処理し、これら全ての色差△Eをソート処理する。次いで、領域分類部13は、このソート処理結果に基づいて、これら全ての色差△Eの中から最小色差△Eminを求める。そして、領域分類部13は、Lab−時系列特徴空間内の全ての特徴点クラスタの組み合わせの中から、この最小色差△Eminに対応する特徴点クラスタCG(k1),CG(k2)の組み合わせを選出する。
具体的には、図4に示すように特徴点C(1),C(4)の色差△E3が最小値である場合、領域分類部13は、算出した全ての色差△E1〜△E15の中から色差△E3を最小色差△Eminに決定し、特徴点クラスタとしての特徴点C(1)〜C(6)の全組み合わせの中から、この色差△E3に対応する特徴点クラスタの組み合わせ、すなわち特徴点C(1),C(4)を選出する。
一方、上述したステップS203を実行後、領域分類部13は、選出した特徴点クラスタCG(k1),CG(k2)の組み合わせの色差△Eが所定の閾値以下であるか否かを判定する(ステップS204)。
ステップS204において、領域分類部13は、上述したステップS203の直後であれば、Lab−時系列特徴空間における色特徴量に関する閾値と1つの特徴点のみが属する特徴点クラスタの組み合わせの最小色差△Eminとを比較処理し、後述するステップS209の直後であれば、ステップS209の処理手順で選出した特徴点クラスタの組み合わせの最小色差△Eminとこの閾値とを比較処理する。領域分類部13は、この最小色差△Eminが閾値以下ではない場合(ステップS204,No)、本処理を終了して図2に示したステップS104の処理手順にリターンする。
なお、上述した色差△Eminの閾値は、色差△Eの単位系、例えば、人間の感じる色差と対応する値の範囲が定められるNBS(National Bureau of Standards)単位系に基づいて設定され、具体的には、人間が見て目立つ色差を感じられる程度の値(=3.0)に設定されることが望ましい。この閾値は、予め領域分類部13に保持させた値であってもよいし、入力部20からの入力情報に基づいて制御部40によって更新可能に設定された値であってもよい。
一方、領域分類部13は、ステップS204において特徴点クラスタの組み合わせの色差すなわち最小色差△Eminが閾値以下である場合(ステップS204,Yes)、この特徴点クラスタの組み合わせの中から、Lab−時系列特徴空間において互いに異なる特徴点クラスタに属して時系列的に最も近くなる特徴点の組み合わせを選出する(ステップS205)。
ステップS205において、領域分類部13は、まず、ステップS204の処理手順によって閾値以下と判定した最小色差△Eminの特徴点クラスタの組み合わせの中から、一方の特徴点クラスタに属する特徴点C(t1)と他方の特徴点クラスタに属する特徴点C(t2)とを設定する。
ここで、t1は、一方の特徴点クラスタに属する特徴点を識別するインデクスであるとともに、この一方の特徴点クラスタに対応する領域グループ内の注目領域を識別するインデクスでもある。同様に、t2は、他方の特徴点クラスタに属する特徴点を識別するインデクスであるとともに、この他方の特徴点クラスタに対応する領域グループ内の注目領域を識別するインデクスでもある。
領域分類部13は、一方の特徴点クラスタに属する特徴点のインデクスt1の数値範囲(1≦t1≦Q1)と、他方の特徴点クラスタに属する特徴点のインデクスt2の数値範囲(1≦t2≦Q2)とを設定する。なお、Q1は、インデクスt1の最大値であり、この一方の特徴点クラスタに対応する注目領域の総数を示す。一方、Q2は、インデクスt2の最大値であり、この他方の特徴点クラスタに対応する注目領域の総数を示す。
ここで、領域分類部13は、Lab−時系列特徴空間における複数の特徴点を含むグループを特徴点クラスタと看做すことは勿論、Lab−時系列特徴空間における単一の特徴点も1つの特徴点が属する特徴点クラスタと看做す。
なお、上述した特徴点に対応する注目領域は、図2に示したステップS102において注目領域検出部11が検出した病変領域等の注目領域A(j,t)であり、図4においては、注目領域A(1,1),A(2,1),A(3,1),A(4,1),A(6,1),A(7,1)が該当する。
続いて、領域分類部13は、インデクスt1によって識別される注目領域とインデクスt2によって識別される注目領域との時系列方向の距離Dを算出する。具体的には、領域分類部13は、まず、インデクスt1,t2を共に「1」と設定し、インデクスt1=1の注目領域に対応する一方の特徴点クラスタ内の特徴点C(t1)とインデクスt2=1の注目領域に対応する他方の特徴点クラスタ内の特徴点C(t2)との時系列方向のユークリッド距離を距離Dとして算出する。
つぎに、領域分類部13は、インデクスt1が総数Q1未満であるか否かを判定し、総数Q1未満である場合、インデクスt1をインクリメント処理して、インクリメント処理後のインデクスt1によって識別される注目領域とインデクスt2によって識別される注目領域との時系列方向の距離Dを算出する。その後、領域分類部13は、インデクスt1が総数Q1に到達するまでインデクスt1のインクリメント処理および距離Dの算出処理を順次繰り返す。
一方、領域分類部13は、インデクスt1が総数Q1以上である場合、他方の特徴点クラスタに属する特徴点のインデクスt2が総数Q2未満であるか否かを判定する。領域分類部13は、インデクスt2が総数Q2未満である場合、インデクスt1を初期値(=1)に設定するとともに、このインデクスt2をインクリメント処理して、インクリメント処理後のインデクスt2によって識別される注目領域とインデクスt1によって識別される注目領域との時系列方向の距離Dを算出する。その後、領域分類部13は、このインデクスt2が総数Q2に到達するまでインデクスt2のインクリメント処理および距離Dの算出処理を順次繰り返す。
上述したようにインデクスt1,t2のインクリメント処理および距離Dの算出処理を繰り返し行うことによって、領域分類部13は、一方の特徴点クラスタに属する特徴点C(t1)と他方の特徴点クラスタに属する特徴点C(t2)との時系列方向の距離、すなわち両特徴点クラスタにおける各注目領域間の時系列方向の距離Dを算出完了する。その後、領域分類部13は、算出した全ての距離Dをソート処理し、このソート処理結果に基づいて、これら全ての距離Dのうちの最小値である距離Dminを求める。
ここで、距離Dminに対応する特徴点の組み合わせが、Lab−時系列特徴空間において時系列的に最も近くなる特徴点の組み合わせとなる。すなわち、領域分類部13は、Lab−時系列特徴空間において互いに異なる特徴点クラスタに属して時系列的に最も近くなる特徴点の組み合わせとして、距離Dminに対応する特徴点の組み合わせを選出する。領域分類部13は、このような特徴点の組み合わせ選出処理によって、互いに異なる特徴点クラスタに属して時系列的に最も近くなる注目領域の組み合わせを選出する。
一方、上述したステップS205を実行後、領域分類部13は、ステップS205の処理手順によって選出した特徴点の組み合わせ内の各特徴点が時系列的に隣接または同一であるか否かを判定する(ステップS206)。
ステップS206において、隣接状況判定部13aは、ステップS205の処理手順によって選出された特徴点の組み合わせの時系列的な距離Dをもとに、この選出された組み合わせ内の各特徴点に対応する各注目領域の時系列的な隣接状況を判定する。すなわち、隣接状況判定部13aは、時系列的な距離Dをもとに、この選出された組み合わせ内の各特徴点が時系列的に隣接状態または同一状態であるか否かを判定する。
隣接状況判定部13aがステップS206において組み合わせ内の特徴点が時系列的に隣接状態または同一状態であると判定した場合(ステップS206,Yes)、領域分類部13は、時系列的に隣接状態または同一状態である各特徴点が属する特徴点クラスタの組み合わせを同一のクラスタに統合する(ステップS207)。
具体的には、ステップS207において、領域分類部13は、まず、時系列的に隣接状態または同一状態の組み合わせである2つの特徴点が各々属する2つの特徴点クラスタCG(k1),CG(k2)のインデクスk1,k2のうち、小さい方を最小のインデクスkaとし、大きい方を最大のインデクスkbとする。
つぎに、領域分類部13は、最小のインデクスkaを新規に統合処理後の特徴点クラスタを識別するインデクスに設定して、時系列的に隣接状態または同一状態である2つの特徴点が各々属する2つの特徴点クラスタ内の全特徴点を統合した新規の特徴点クラスタCG(ka)を作成する。
その後、領域分類部13は、特徴点クラスタCG(ka)に属する各特徴点の色特徴量をもとに、特徴点クラスタCG(ka)の色特徴量である平均明度指数L(ka)および平均知覚色度a(ka),b(ka)を算出する。詳細には、領域分類部13は、特徴点クラスタCG(ka)内の各特徴点の平均明度指数の平均値を平均明度指数L(ka)として算出し、各特徴点の平均知覚色度の平均値を平均明度指数a(ka),b(ka)として算出する。
この時点において、最大のインデクスkbによって識別される特徴点クラスタは、この新規の特徴点クラスタCG(ka)に統合されてLab−時系列特徴空間内に存在しない。この状態において、領域分類部13は、Lab−時系列特徴空間内に存在する全特徴点クラスタのうち、最大のインデクスkb以上のインデクスによって識別される残りの特徴点クラスタの各インデクスkをデクリメント処理する。
具体的には、領域分類部13は、まず、仮のインデクスkiに最大のインデクスkbを割り当てる。次いで、領域分類部13は、この割り当て処理後のインデクスki(=kb)が特徴点クラスタの総数Tk未満であるか否かを判定し、インデクスkiが総数Tk未満であれば、このインデクスkiをインクリメント処理する。つぎに、領域分類部13は、インクリメント処理後のインデクスki(=kb+1)によって示される特徴点クラスタCG(k)のインデクスをデクリメント処理(k−1に変更)する。その後、領域分類部13は、インデクスkiが総数Tk以上になるまで、このようなインデクスkiのインクリメント処理およびインデクスkのデクリメント処理を繰り返す。一方、領域分類部13は、インデクスkiが総数Tk未満ではない場合、上述したインデクスkiに対するインクリメント処理およびインデクスkに対するデクリメント処理を終了する。
ここで、Lab−時系列特徴空間内における現時点の特徴点クラスタの総数Tkは、上述した特徴点クラスタの統合処理によって1つ減っている。このため、領域分類部13は、インデクスkiが総数Tk未満ではない場合、特徴点クラスタの統合処理前の総数Tkから「1」を減算し、この減算処理後の総数TkをLab−時系列特徴空間内における現時点の特徴点クラスタの総数に更新する。
ステップS207の処理手順が終了後、領域分類部13は、上述したステップS202に戻り、このステップS202以降の処理手順を繰り返す。一方、領域分類部13は、上述したステップS206における隣接状況判定部13aの処理によって特徴点の組み合わせの時系列的な状況を隣接状態および同一状態のいずれでもないと判定した場合(ステップS206,No)、Lab−時系列特徴空間内の全ての特徴点クラスタの組み合わせについて時系列的な状況の判定処理が完了したか否かを判定する(ステップS208)。
ステップS208において、領域分類部13は、ステップS206における時系列的な状況の判定処理済みの特徴点クラスタのインデクス等に基づいて、全特徴点クラスタの組み合わせに対する時系列的な状況の判定処理が完了したか否かを判定する。領域分類部13は、全特徴点クラスタの組み合わせに対する時系列的な状況の判定処理が完了したと判定した場合(ステップS208,Yes)、本処理を終了して図2に示したステップS104の処理手順にリターンする。
一方、領域分類部13は、ステップS208において全特徴点クラスタの組み合わせに対する時系列的な状況の判定処理が完了していないと判定した場合(ステップS208,No)、上述したステップS205において選出した現在の特徴点クラスタの組み合わせの次に色差△Eが小さい特徴点クラスタの組み合わせを選出する(ステップS209)。その後、領域分類部13は、上述したステップS204に戻り、このステップS204以降の処理手順を繰り返す。
ステップS209において、領域分類部13は、上述したステップS203の処理手順によって算出した全ての色差△Eの中から、現在の特徴点クラスタの組み合わせの色差△E(現在の最小色差△Emin)の次に小さい値の色差△Eを最小色差△Eminとして選択する。次いで、領域分類部13は、Lab−時系列特徴空間内の全特徴点クラスタの中から、この選択した最小色差△Eminを有する特徴点クラスタの組み合わせを選出する。
ここで、領域分類部13は、上述したステップS201〜S209の処理手順を適宜繰り返し実行することによって、Lab−時系列特徴空間における全特徴点を時系列および色特徴量の各情報に基づく特徴点クラスタに分類する。これによって、領域分類部13は、注目領域検出部11が体内画像群PGから検出した全ての注目領域A(j,t)を、特徴点クラスタに対応するいずれかの領域グループに分類する。すなわち、領域分類部13は、特徴量算出部12が算出した注目領域A(j,t)の色特徴量と、注目領域A(j,t)を含む体内画像P(j)の時系列位置とに基づいたいずれかの領域グループに注目領域A(j,t)を分類する。
一方、領域分類部13が上述したステップS201〜S209の処理手順を適宜繰り返し実行した後、グループ特徴量算出部14は、図2に示したステップS105において、上述したように、注目領域A(j,t)の領域グループ毎にグループ特徴量を算出する。
具体的には、グループ特徴量算出部14は、Lab−時系列特徴空間における特徴点クラスタ毎に、特徴点クラスタの重心L(k),a(k),b(k)を算出する。次いで、グループ特徴量算出部14は、算出した特徴点クラスタ毎の重心L(k),a(k),b(k)を用いて、同一特徴点クラスタに属する注目領域A(j,t)の色特徴量である平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)の分散を特徴点クラスタ毎に算出する。グループ特徴量算出部14は、特徴点クラスタ毎に、同一特徴点クラスタにおける平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)の分散の合計値Sum(k)を次式(2)に基づいて算出する。このようにグループ特徴量算出部14が算出した合計値Sum(k)は、注目領域A(j,t)の領域グループ毎のグループ特徴量である。
なお、式(2)において、Num(k)は、特徴点クラスタCG(k)に属する特徴点すなわち注目領域A(j,t)の総数である。j(k)maxは、特徴点クラスタCG(k)に属する注目領域A(j,t)のインデクスjの最大値であり、j(k)minは、特徴点クラスタCG(k)に属する注目領域A(j,t)のインデクスjの最小値である。Num(t)は、体内画像群PG内の体内画像P(j)から検出された注目領域A(j,t)のうち、特徴点クラスタCG(k)に属する注目領域の数である。
一方、重心L(k),a(k),b(k)は、同一特徴点クラスタにおける時系列の平均値と色特徴量の平均値とを座標成分とするLab−時系列特徴空間内の座標点である。このうち、重心L(k)は、注目領域A(j,t)の色特徴量のうちの平均明度指数L(j,t)に対応し、重心a(k)は、注目領域A(j,t)の色特徴量のうちの平均知覚色度a(j,t)に対応し、重心b(k)は、注目領域A(j,t)の色特徴量のうちの平均知覚色度b(j,t)に対応する。
ここで、図5,6を参照して、領域分類部13が実行するステップS202〜S209の処理手順を具体的に説明する。図5に示すように、Lab−時系列特徴空間内に総数Tm=6の特徴点C(1)〜C(6)が存在する場合、領域分類部13は、これら6つの特徴点C(1)〜C(6)を各々特徴点クラスタ(CG(1))〜(CG(6))と看做して上述したステップS202、S203の各処理手順を順次行い、6つの特徴点クラスタ(CG(1))〜(CG(6))から選出可能な2つの特徴点クラスタの全組み合わせの各色差△E1〜△E15を順次算出する。
次いで、領域分類部13は、算出した各色差△E1〜△E15を比較処理し、この比較処理の結果に基づいて、全ての色差△E1〜△E15のうちの最小値である色差△E3を最小色差△Eminに決定する。図5においては、領域分類部13は、特徴点クラスタの全組み合わせの中から、この色差△E3に対応する特徴点クラスタ(CG(1)),(CG(4))の組み合わせを選出する。
つぎに、領域分類部13は、上述したステップS204,S205を順次行って、所定の閾値以下の色差△E3に対応する特徴点クラスタ(CG(1)),(CG(4))の組み合わせを選出する。次いで、領域分類部13は、上述したステップS206の処理手順を行って、この選出した組み合わせ内の特徴点C(1)と特徴点C(4)とが時系列的に隣接または同一であるか否かを判定する。
ここで、特徴点C(1)および特徴点C(4)は、図5に示すように時系列的に隣接せず且つ同一でもない。このため、領域分類部13は、上述したステップ208の処理手順を実行し、特徴点クラスタに対する時系列的な状況の判定処理が未完であるため、上述したステップS209を実行する。図5においては、領域分類部13は、現在の特徴点クラスタ(CG(1)),(CG(4))の組み合わせの色差△E3の次に小さい色差となる特徴点クラスタの組み合わせ、例えば特徴点クラスタ(CG(1)),(CG(2))を選出する。
続いて、領域分類部13は、上述したステップS204,S205を再度行って、互いに異なる特徴点クラスタに属して時系列的に最も近くなる特徴点C(1),C(2)を選出する。次いで、領域分類部13は、上述したステップS206を再度行って、この選出した特徴点C(1)と特徴点C(2)とが時系列的に隣接または同一であるか否かを判定する。
ここで、特徴点C(1)および特徴点C(2)は、図5に示すように時系列的に隣接する。このため、領域分類部13は、上述したステップS207を行って、時系列的に隣接する特徴点C(1),C(2)が各々属する特徴点クラスタ(CG(1)),(CG(2))の組み合わせを同一クラスタに統合する。
具体的には、領域分類部13は、まず、特徴点クラスタ(CG(1)),(CG(2))のうちの最小のインデクスka(=1)をインデクスとする新規の特徴点クラスタCG(1)を作成する。この特徴点クラスタCG(1)には、図5に示すように、特徴点C(1),C(2)が属する。
次いで、領域分類部13は、上述した特徴点クラスタの統合処理後に残存する残りの特徴点クラスタ(CG(3))〜(CG(6))の各インデクスをデクリメント処理するとともに、特徴点クラスタの総数Tkの減算処理を行う。この結果、元来の特徴点クラスタ(CG(3))〜(CG(6))は、特徴点クラスタ(CG(2))〜(CG(5))に更新され、特徴点クラスタの総数Tk=6は、総数Tk=5に更新される。
その後、領域分類部13は、上述したステップS202〜S209の処理手順を適宜繰り返し実行して、図5に示すように、元来6つ存在した特徴点を3つの特徴点クラスタCG(1)〜CG(3)に分類する。具体的には図5に示すように、特徴点クラスタCG(1)には、元来の特徴点クラスタ(C(1)),(C(2))が属し、特徴点クラスタCG(2)には元来の特徴点クラスタ(C(3)),(C(4))が属し、特徴点クラスタCG(3)には元来の特徴点クラスタ(C(5)),(C(6))が属する。
さらに、領域分類部13は、上述したステップS202〜S209を適宜繰り返し行って、図5に示すように、閾値以下の色差になる特徴点クラスタCG(1),CG(2)の組み合わせを選出し、この選出した特徴点クラスタCG(1),CG(2)の組み合わせの中から、互いに異なる特徴点クラスタに属して時系列的に最も近い特徴点になる特徴点C(2),C(3)の組み合わせを選出する。
ここで、図5に示すように、特徴点C(2),C(3)の組み合わせが時系列的に隣接するので、領域分類部13は、上述したステップS207の処理手順を行って、特徴点クラスタCG(1)と特徴点クラスタCG(2)とを同一クラスタに統合する。一方、領域分類部13は、特徴点クラスタCG(2),CG(3)の組み合わせの中から互いに異なる特徴点クラスタに属して時系列的に最も近い特徴点になる特徴点C(4),C(5)の組み合わせを選出した場合、特徴点C(4),C(5)の組み合わせが時系列的に隣接せず且つ同一ではないので、特徴点クラスタCG(2)と特徴点クラスタCG(3)とを統合しない。
その後、領域分類部13は、Lab−時系列特徴空間内の全特徴点クラスタについて判定処理が完了した場合、上述したステップS201〜S209の処理手順による各注目領域の分類処理を終了する。この結果、領域分類部13は、図6に示すように、元来の特徴点クラスタ(CG(1))〜(CG(4))を同一の特徴点クラスタCG(1)に統合し、元来の特徴点クラスタ(CG(5)),(CG(6))を同一の特徴点クラスタCG(2)に統合する。
ここで、領域分類部13は、図6に示した特徴点クラスタの統合処理結果に基づいて、体内画像群PG内の全注目領域A(1,1),A(2,1),A(3,1),A(4,1),A(6,1),A(7,1)のうち、特徴点クラスタCG(1)に対応する領域グループに注目領域A(1,1),A(2,1),A(3,1),A(4,1)を分類し、特徴点クラスタCG(2)に対応する領域グループに注目領域A(6,1),A(7,1)を分類する。
なお、同一の特徴点クラスタに属する複数の注目領域、すなわち同一の領域グループに分類された複数の注目領域は、色特徴量等の特徴が類似し且つ時系列的に近傍の注目領域同士である。一方、特徴点クラスタは単一の特徴点によって構成される場合もあり、特徴点クラスタに属する単一の特徴点に対応する注目領域は、体内画像群PG内に含まれる他の注目領域に比して、色特徴量等の特徴が類似せず且つ時系列的に離間した注目領域である。
つぎに、上述したステップS106における各注目領域グループの代表領域の選出処理について詳細に説明する。図7は、各注目領域グループの代表領域の選出処理の処理手順を例示するフローチャートである。図8は、注目領域グループからの代表領域の選出数と注目領域グループのグループ特徴量との関係を示す関数の一具体例を示す模式図である。図9は、グループ特徴量に応じた選出数の代表領域を注目領域グループから選出する状態を説明する模式図である。画像処理装置2の領域選出部15は、上述したように、制御部40の制御に基づいてステップS106における各注目領域グループの代表領域の選出処理を実行する。
すなわち、図7に示すように、領域選出部15は、まず、Lab−時系列特徴空間内に存在する各特徴点クラスタの選出数決定処理を実行する(ステップS301)。このステップS301において、選出数決定部15aは、体内画像群PG内の注目領域A(j,t)の領域グループ毎に、グループ特徴量算出部14が算出したグループ特徴量に応じた代表領域の選出数を決定する。
具体的には、関数部15eは、例えば図8に示すようなグループ特徴量と要約率との関係を示す関数を予め保持する。ここで、この関数における要約率(図8に示す縦軸)は、上述したように、1つの領域グループに属する注目領域A(j,t)の何%を選出するかを決定する値であり、同一の特徴点クラスタから選出する特徴点選出数、すなわち、同一の領域グループからの代表領域の選出数に対応する。関数部15eは、注目領域A(j,t)の領域グループ毎に、グループ特徴量に応じた要約率を算出する。
つぎに、選出数決定部15aは、関数部15eが領域グループ毎に算出した要約率に基づいて、領域グループ毎の注目領域A(j,t)を代表する代表領域の選出数を決定する。すなわち、選出数決定部15aは、特徴点クラスタ毎に算出された要約率に基づいて、特徴点クラスタ毎の代表的な特徴点の選出数を決定する。
ステップS301を実行後、領域選出部15は、グループ特徴量に基づいた特徴点クラスタの細分類処理を実行する(ステップS302)。このステップS302において、細分類処理部15bは、領域分類部13によって分類された領域グループ毎の各注目領域A(j,t)の平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)に基づいて、選出数決定部15aによって決定した選出数と同数の類似グループに領域グループ毎の注目領域を細分類する。
具体的には、細分類処理部15bは、Lab−時系列特徴空間内に存在する特徴点クラスタ毎に、特徴点クラスタに属する特徴点C(m)の注目領域A(j,t)の平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)を用いてk−means法等の公知のクラスタリングを行うことによって、上述した選出数と同数の特徴点クラスタに特徴点C(m)を細分類する。
ここで、細分類処理部15bが細分類した特徴点クラスタは、上述した類似グループに対応するグループである。すなわち、細分類処理後の特徴点クラスタには、色特徴量が一層類似した注目領域A(j,t)同士(例えば同一の注目領域同士)の各特徴点が属する。なお、類似グループに対応する特徴点クラスタ内の特徴点は、他の特徴点クラスタ内の特徴点に比して平均明度指数L(k)および平均知覚色度a(k),b(k)が類似している。
一方、ステップS302を実行後、領域選出部15は、Lab−時系列特徴空間内の各特徴点クラスタの重心算出処理を実行する(ステップS303)。このステップS303において、重心算出部15cは、細分類処理部15bが細分類した類似グループ毎に、類似グループに属する複数の注目領域A(j,t)の特徴量の重心を算出する。
具体的には、重心算出部15cは、細分類処理部15bが細分類した特徴点クラスタ毎に、細分類後の同一特徴点クラスタに属する全ての特徴点の色特徴量軸座標成分の平均値と時系列軸座標成分の平均値とを算出する。なお、Lab−時系列特徴空間における特徴点の色特徴量軸座標成分の平均値は、注目領域A(j,t)の平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)の各平均値である。
次いで、重心算出部15cは、細分類処理後の特徴点クラスタ毎に、算出した時系列軸座標成分の平均値を時系列軸方向の座標成分とし、且つ、算出した色特徴量軸座標成分の平均値を色特徴量軸方向の座標成分とする重心を算出する。ここで、細分類処理後の特徴点クラスタ毎の重心は、色特徴量軸方向の座標成分として、細分類後の同一特徴点クラスタの平均明度指数および平均知覚色度を有する。
なお、ステップS303において、重心算出部15cは、Lab−時系列特徴空間内の全特徴点クラスタのうち、細分類処理部15bが細分類していない残りの特徴点クラスタについても、細分類処理後の特徴点クラスタの場合と同様に特徴点クラスタの重心を算出する。例えば、このような細分類されていない残りの特徴点クラスタとして、類似性の高い2つの特徴点のみが属する特徴点クラスタ等が挙げられる。
ステップS303を実行後、領域選出部15は、特徴点クラスタの重心に最近の特徴点に基づいた注目領域の選出処理を実行する(ステップS304)。その後、領域選出部15は、本処理を終了して図2に示したステップS106の処理手順にリターンする。
ステップS304において、最近領域選出部15dは、上述した類似グループ毎に、同一類似グループに含まれる複数の注目領域A(j,t)の中から、重心算出部15cが算出した特徴量の重心に対し、他の注目領域に比して最も近い注目領域を選出する。
具体的には、最近領域選出部15dは、まず、細分類処理部15bが細分類した特徴点クラスタ毎に、細分類後の同一特徴点クラスタに属する複数の特徴点と重心との各離間距離を算出する。ここで、最近領域選出部15dが算出する離間距離は、Lab−時系列特徴空間における同一の特徴点クラスタ内の特徴点と重心算出部15cによる重心との間のユークリッド距離である。
次いで、最近領域選出部15dは、細分類処理後の特徴点クラスタ毎に、各特徴点と重心との各離間距離を比較処理して、重心に最も近い特徴点を選出する。この結果、最近領域選出部15dは、Lab−時系列特徴空間内の特徴点クラスタ毎に、選出数決定部15aが決定した選出数と同数の特徴点を選出する。
その後、最近領域選出部15dは、上述したように選出した特徴点に対応する注目領域A(j,t)を類似グループ毎に選出し、この結果、体内画像群PGにおける各類似グループの中から類似グループ毎の選出数と同数の注目領域A(j,t)を選出する。
なお、ステップS304において、最近領域選出部15dは、類似グループに分類されていない残りの領域グループについても、上述した類似グループの場合と同様に、同一領域グループに含まれる複数の注目領域A(j,t)の中から、重心算出部15cが算出した特徴量の重心に対し、他の注目領域に比して最も近い注目領域を選出する。
具体的には、最近領域選出部15dは、まず、細分類処理部15bが細分類していない残りの特徴点クラスタ毎に、同一特徴点クラスタに属する複数の特徴点と重心との各離間距離を算出する。つぎに、最近領域選出部15dは、残りの特徴点クラスタ毎に、各特徴点と重心との各離間距離を比較処理して、重心に最も近い特徴点を選出する。この結果、最近領域選出部15dは、残りの特徴点クラスタ毎に、上述した選出数と同数の特徴点を選出する。
その後、最近領域選出部15dは、上述したように選出した特徴点に対応する注目領域A(j,t)を領域グループ毎に選出し、この結果、体内画像群PGにおける各領域グループの中から領域グループ毎の選出数と同数の注目領域A(j,t)を選出する。
以上のようにして、領域選出部15は、最近領域選出部15dが選出した注目領域A(j,t)を、各領域グループまたは各類似グループの代表領域とし、この代表領域の選出処理結果を代表画像出力部16に送信する。
ここで、図9を参照して、領域選出部15が実行するステップS301〜S304の処理手順を具体的に説明する。図9に示すように、Lab−時系列特徴空間内に、特徴点C(1)〜C(4)を含む特徴点クラスタCG(1)と特徴点C(5),C(6)を含む特徴点クラスタCG(2)とが存在する場合、領域選出部15は、ステップS301の処理手順を行って、これら2つの特徴点クラスタCG(1),CG(2)の各々について選出数Vを決定する。
具体的には、選出数決定部15aは、関数部15eが算出した要約率(図8参照)に基づいて、特徴点クラスタCG(1)のグループ特徴量に応じた特徴点クラスタCG(1)の選出数V(=2)と、特徴点クラスタCG(2)のグループ特徴量に応じた特徴点クラスタCG(2)の選出数V(=1)とを決定する。
つぎに、領域選出部15は、ステップS302の処理手順を行って、特徴点クラスタCG(1),CG(2)を細分類する。具体的には、細分類処理部15bは、ステップS301において選出数決定部15aが決定した特徴点クラスタCG(1)の選出数Vが「2」であるため、特徴点クラスタCG(1)に属する特徴点C(1)〜C(4)の各色特徴量に基づいて、図9に示すように、特徴点C(1)〜C(4)を選出数V(=2)と同数である2つの特徴点クラスタCG(11),CG(12)に細分類する。この結果、特徴点クラスタCG(1)内の全特徴点C(1)〜C(4)のうち、色特徴量の類似性が他の特徴点C(3),C(4)に比して高い2つの特徴点C(1),C(2)が同一の特徴点クラスタCG(11)に細分類され、色特徴量の類似性が他の特徴点C(1),C(2)に比して高い2つの特徴点C(3),C(4)が同一の特徴点クラスタCG(12)に細分類される。
一方、細分類処理部15bは、ステップS301において選出数決定部15aが決定した特徴点クラスタCG(2)の選出数Vが「1」であるため、特徴点クラスタCG(2)を1つの特徴点クラスタに細分類する。すなわち、細分類処理部15bは、図9に示すように、特徴点クラスタCG(2)に属する特徴点C(5),C(6)をこれ以上細分類せず、このグループ状態を維持する。
続いて、領域選出部15は、ステップS303の処理手順を行って、Lab−時系列特徴空間内の各特徴点クラスタの重心を算出する。具体的には、重心算出部15cは、図9に示す特徴点クラスタCG(11),CG(12),CG(2)の各重心D1,D2,D3を算出する。
詳細には、重心算出部15cは、特徴点クラスタCG(11)に属する2つの特徴点C(1),C(2)の時系列軸座標成分の平均値と色特徴量軸座標成分の平均値とを算出する。同様に、重心算出部15cは、特徴点クラスタCG(12)に属する2つの特徴点C(3),C(4)の時系列軸座標成分の平均値と色特徴量軸座標成分の平均値とを算出する。また、重心算出部15cは、特徴点クラスタCG(2)に属する2つの特徴点C(5),C(6)の時系列軸座標成分の平均値と色特徴量軸座標成分の平均値とを算出する。なお、重心算出部15cが算出した時系列軸座標成分の各平均値が重心D1〜D3の時系列軸方向の座標成分であり、色特徴量軸座標成分の平均値が重心D1〜D3の色特徴量軸方向の座標成分である。
その後、領域選出部15は、ステップS304の処理手順を行って、Lab−時系列特徴空間内の各特徴点クラスタの重心に最近の特徴点に基づいて、代表的な注目領域を選出する。具体的には、最近領域選出部15dは、図9に示す特徴点クラスタCG(11),CG(12),CG(2)に対応する注目領域の類似グループまたは領域グループ毎に、重心算出部15cが算出した特徴量の重心に対し、他の注目領域に比して最も近い注目領域を選出する。
すなわち、最近領域選出部15dは、まず、特徴点クラスタCG(1)に属する一方の特徴点クラスタCG(11)における特徴点C(1)と重心D1との離間距離L1と特徴点C(2)と重心D1との離間距離L2とを算出する。次いで、最近領域選出部15dは、算出した各離間距離L1,L2(L1<L2)を比較処理して、重心D1に最も近い特徴点、すなわち、離間距離が一層小さい特徴点C(1)を選出する。つぎに、最近領域選出部15dは、特徴点クラスタCG(1)に属する他方の特徴点クラスタCG(12)における特徴点C(3)と重心D2との離間距離L3と特徴点C(4)と重心D2との離間距離L4とを算出する。次いで、最近領域選出部15dは、算出した各離間距離L3,L4(L3>L4)を比較処理して、重心D2に最も近い特徴点、すなわち、離間距離が一層小さい特徴点C(4)を選出する。この結果、最近領域選出部15dは、特徴点クラスタCG(1)から、特徴点クラスタCG(1)における選出数V(=2)と同数である2つの特徴点C(1),C(4)を選出する。
つぎに、最近領域選出部15dは、特徴点クラスタCG(11)に対応する注目領域の類似グループの中から、特徴点C(1)に対応する注目領域A(1,1)を選出し、特徴点クラスタCG(12)に対応する注目領域の類似グループの中から、特徴点C(4)に対応する注目領域A(4,1)を選出する。すなわち、最近領域選出部15dは、体内画像群PGの中から、特徴点クラスタCG(1)における選出数V(=2)と同数である2つの注目領域A(1,1),A(4,1)を選出する。
続いて、最近領域選出部15dは、残りの特徴点クラスタCG(2)における特徴点C(5)と重心D3との離間距離L5と特徴点C(6)と重心D3との離間距離L6とを算出する。次いで、最近領域選出部15dは、この算出した各離間距離L5,L6(L5<L6)を比較処理して、重心D3に最も近い特徴点、すなわち、離間距離が一層小さい特徴点C(5)を選出する。この結果、最近領域選出部15dは、特徴点クラスタCG(2)から、特徴点クラスタCG(2)における選出数V(=1)と同数である1つの特徴点C(5)を選出する。つぎに、最近領域選出部15dは、特徴点クラスタCG(2)に対応する注目領域の領域グループの中から、特徴点C(5)に対応する注目領域A(6,1)を選出する。すなわち、最近領域選出部15dは、体内画像群PGの中から、特徴点クラスタCG(1)における選出数V(=1)と同数である1つの注目領域A(6,1)を選出する。
なお、図9に示すように、特徴点クラスタCG(11)に対応する注目領域の類似グループには、体内画像群PG内の注目領域A(1,1),A(2,1)が属し、特徴点クラスタCG(12)に対応する注目領域の類似グループには、体内画像群PG内の注目領域A(3,1),A(4,1)が属する。また、特徴点クラスタCG(2)に対応する注目領域の領域グループには、この体内画像群PG内の注目領域A(6,1),A(7,1)が属する。
その後、領域選出部15は、最近領域選出部15dが選出した注目領域A(1,1),A(4,1),A(6,1)を、体内画像群PG内の各領域グループまたは各類似グループを代表する代表領域として選出し、代表領域の選出処理結果を代表画像出力部16に送信する。
なお、代表画像出力部16は、領域選出部15から取得した代表領域の選出処理結果に基づいて、体内画像群PGの中から、代表領域である注目領域A(1,1)を含む体内画像P(1)と、注目領域A(4,1)を含む体内画像P(4)と、注目領域A(6,1)を含む体内画像P(6)とを表示対象の代表体内画像群として表示装置3に出力する。
以上、説明したように、本発明の実施の形態1では、注目領域の特徴量と、注目領域を含む体内画像の時系列位置とに基づいて、注目領域をいずれかの領域グループに分類し、その分類された領域グループに属する注目領域の中から代表となる代表領域を選出して、その代表領域を含む代表画像を出力するように構成した。
このため、注目領域の特徴量と、注目領域を含む体内画像の時系列位置とを考慮した分類によって、例えば、特徴量が互いに似通って、且つ時間的にも近い注目領域どうし(例えば、所定の時間内に検出された同一の病変領域どうし)を一つの領域グループにまとめることができる。そして、その領域グループ内の、例えば、互いに似通った注目領域の中から選出した代表領域を含む代表画像を出力することによって、互いに似通った注目領域を含む体内画像が何回も繰り返し出力されるという無駄を排除できる。その結果、観察者による観察の負担を軽減できる。
さらに、本発明の実施の形態1では、出力対象である代表画像の代表領域を、少なくとも観察の必要性の高い注目領域の中から選出するため、観察の必要性の低い非注目領域を含む画像が代表画像となる可能性を排除でき、その結果、非注目領域を含む画像を出力対象から外すことができる。その結果、観察の必要性の低い非注目領域を含む画像を観察するという無駄を排除でき、観察者による観察の負担を軽減できる。
(実施の形態2)
つぎに、本発明の実施の形態2について説明する。上述した実施の形態1では、注目領域の領域グループ毎のグループ特徴量に応じて選出数を決定し、この決定した選出数と同数のグループに注目領域の領域グループを細分類し、この細分類した注目領域のグループ毎に代表的な注目領域を選出して、この選出数と同数の代表領域を選出していたが、本実施の形態2では、上述した選出数に応じて時系列方向に特徴点クラスタを等間隔に分割する時系列座標を算出し、得られた時系列座標に最近の特徴点に対応する注目領域を選出することによって、この選出数と同数の代表領域を選出している。
図10は、本発明の実施の形態2にかかる画像処理装置を備えた画像表示システムの一構成例を模式的に示すブロック図である。図10に示すように、本実施の形態2にかかる画像表示システム200は、上述した実施の形態1にかかる画像表示システム100の画像処理装置2に代えて画像処理装置202を備える。画像処理装置202は、実施の形態1にかかる画像処理装置2の演算部10に代えて演算部210を備える。演算部210は、実施の形態1における演算部10の領域選出部15に代えて領域選出部215を備える。その他の構成は実施の形態1と同じであり、同一構成部分には同一符号を付している。
画像処理装置202は、上述したように、実施の形態1にかかる画像処理装置2の演算部10に代えて演算部210を備える。また、演算部210は、実施の形態1における演算部10の領域選出部15に代えて領域選出部215を備える。なお、画像処理装置202は、演算部210の機能以外、上述した実施の形態1にかかる画像処理装置2と同様の機能を有する。また、演算部210は、領域選出部215の機能以外、上述した実施の形態1における演算部10と同様の機能を有する。
領域選出部215は、図10に示すように、上述した実施の形態1における領域選出部15と同様の選出数決定部15aを備える。一方、領域選出部215は、上述した実施の形態1における細分類処理部15b、重心算出部15c、および最近領域選出部15dを備えていない。すなわち、領域選出部215は、実施の形態1における領域選出部15と同様の選出数決定処理機能を有し、選出数決定部15aが注目領域の領域グループ毎に決定した選出数に応じた各注目領域グループの代表領域選出処理機能のみ異なる。このような領域選出部215は、実施の形態1における領域選出部15と異なる処理手順によって、選出数決定部15aによる選出数と同数の代表領域を各領域グループの中から各々選出する。
具体的には、領域選出部215は、選出数決定部15aによる選出数に対応して、体内画像群PG内の複数の注目領域A(j,t)の特徴量の分布を時系列方向に等間隔に分割する時系列座標を算出し、これら複数の注目領域A(j,t)を代表する代表領域として、この時系列座標に最近の注目領域をこの選出数と同数選出する。
つぎに、本発明の実施の形態2にかかる画像処理装置202の動作について説明する。なお、画像処理装置202は、上述したように、演算部210内の領域選出部215の動作以外、実施の形態1にかかる画像処理装置2と同様に動作する。すなわち、画像処理装置202は、図2に示したステップS101〜S107と略同様の処理手順を行って、表示装置3に1以上の代表体内画像を出力する。具体的には、画像処理装置202は、ステップS106の処理手順のみ、実施の形態1にかかる画像処理装置2と異なる。以下に、本実施の形態2にかかる画像処理装置202が実行するステップS106の処理手順を詳細に説明する。
図11は、実施の形態2における各注目領域グループの代表領域の選出処理の処理手順を例示するフローチャートである。図12は、実施の形態2における代表領域の選出処理を具体的に説明するための模式図である。
なお、図12に示す特徴空間は、Lab−時系列特徴空間である。図12では、本発明の説明を簡単にするために、注目領域A(j,t)が有する平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)を色特徴量として一軸に纏めて表している。
画像処理装置202の領域選出部215は、制御部40の制御に基づいて図11に示すステップS401〜S403の処理手順を順次実行して、図2に示したステップS106における各注目領域グループの代表領域の選出処理を達成する。
具体的には、図11に示すように、領域選出部215は、まず、実施の形態1の場合と同様に、Lab−時系列特徴空間内に存在する各特徴点クラスタの選出数決定処理を実行する(ステップS401)。このステップS401において、選出数決定部15aは、図7に示したステップS301と同様に、体内画像群PG内の注目領域A(j,t)の領域グループ毎に、グループ特徴量算出部14が算出したグループ特徴量に応じた代表領域の選出数Vを決定する。
ステップS401を実行後、領域選出部215は、選出数決定部15aが決定した選出数Vに応じて時系列方向に特徴点クラスタを等間隔に分割する時系列座標の算出処理を実行する(ステップS402)。
ステップS402において、領域選出部215は、まず、Lab−時系列特徴空間内の特徴点クラスタCG(k)のインデクスkを初期値(=1)に設定し、特徴点クラスタCG(1)に属する全ての特徴点の時系列方向の座標成分(すなわち時系列座標)の最小値Tminおよび最大値Tmaxを求める。
次いで、領域選出部215は、時系列座標の最大値Tmaxと最小値Tminとの差(Tmax−Tmin)を、選出数決定部15aによる特徴点クラスタCG(1)の選出数Vに「1」を加算した値(V+1)によって除算する。ここで、領域選出部215は、この除算処理によって得られた値を時系列方向の刻み幅Wとする。
その後、領域選出部215は、特徴点クラスタCG(1)を分割する時系列座標T(1,i)のインデクスiを初期値(=1)に設定し、インデクスiを特徴点クラスタCG(1)の選出数Vと同値になるまで順次インクリメント処理しつつ、次式(3)に基づいて、特徴点クラスタCG(1)における時系列座標T(1,i)(k=1,1≦i≦V)を順次算出する。
T(k,i)=Tmin+W×i (1≦k≦Tk、1≦i≦V) ・・・(3)
特徴点クラスタCG(1)における時系列座標T(1,i)を算出後、領域選出部215は、特徴点クラスタCG(k)のインデクスkを特徴点クラスタの総数Tkまで順次インクリメント処理しつつ、式(3)に基づいて、上述した演算処理を繰り返し実行する。この結果、領域選出部215は、Lab−時系列特徴空間内に存在する特徴点クラスタCG(k)毎に、選出数決定部15aによる選出数Vと同数の時系列座標T(k,i)を算出する。
ここで、特徴点クラスタCG(k)毎の時系列座標T(k,i)は、特徴点クラスタCG(k)に属する特徴点の分布を時系列方向に等間隔に分割する。すなわち、特徴点クラスタCG(k)毎の時系列座標T(k,i)は、特徴点クラスタCG(k)に対応する複数の注目領域の特徴量の分布を時系列方向に等間隔に分割する。
ステップS402を実行後、領域選出部215は、Lab−時系列特徴空間内の特徴点クラスタCG(k)毎に、時系列座標T(k,i)に最近の特徴点に基づいた注目領域の選出処理を実行する(ステップS403)。その後、領域選出部215は、本処理を終了して図2に示したステップS106にリターンする。
ステップS403において、領域選出部215は、まず、Lab−時系列特徴空間内における特徴点クラスタCG(k)毎に、特徴点クラスタCG(k)に属する各特徴点と時系列座標T(k,i)との各離間距離を算出する。つぎに、領域選出部215は、特徴点クラスタCG(k)毎に、算出した各離間距離を所定の順序で順次(例えば時系列順に順次)比較処理し、最小の離隔距離になる特徴点、すなわち時系列座標T(k,i)に最も近い特徴点を特徴点クラスタCG(k)の選出数Vと同数選出する。次いで、領域選出部215は、選出した特徴点に対応する注目領域を体内画像群PGの中から選出する。この結果、領域選出部215は、体内画像群PGにおける注目領域の領域グループ毎に、各領域グループの代表領域として選出数Vと同数の注目領域A(j,t)を選出する。領域選出部215は、この代表領域の選出処理結果を代表画像出力部16に送信する。
ここで、図12を参照して、領域選出部215が実行するステップS401〜S403の処理手順を具体的に説明する。図12に示すように、Lab−時系列特徴空間内に、特徴点C(1)〜C(4)を含む特徴点クラスタCG(1)と特徴点C(5),C(6)を含む特徴点クラスタCG(2)とが存在する場合、領域選出部215は、ステップS401の処理手順を行って、これら2つの特徴点クラスタCG(1),CG(2)の各々について選出数Vを決定する。
具体的には、選出数決定部15aは、まず、上述した実施の形態1の場合と同様に、関数部15eが算出した要約率に基づいて、特徴点クラスタCG(1)のグループ特徴量に応じた特徴点クラスタCG(1)の選出数V(=2)と、特徴点クラスタCG(2)のグループ特徴量に応じた特徴点クラスタCG(2)の選出数V(=1)とを決定する。
つぎに、領域選出部215は、ステップS402の処理手順を行って、Lab−時系列特徴空間内の特徴点クラスタCG(1)および特徴点クラスタCG(2)の各時系列座標を算出する。具体的には、領域選出部215は、まず、特徴点クラスタCG(1)に属する特徴点C(1)〜C(4)の各時系列座標のうちの最小値Tminおよび最大値Tmaxを求める。ここで、最小値Tminは、特徴点クラスタCG(1)において最もインデクスが小さい特徴点C(1)の時系列軸の座標成分であり、最大値Tmaxは、特徴点クラスタCG(1)において最もインデクスが大きい特徴点C(4)の時系列軸の座標成分である。
次いで、領域選出部215は、時系列座標の最大値Tmaxと最小値Tminとの差(Tmax−Tmin)を、特徴点クラスタCG(1)における選出数V(=2)に「1」を加算した値(=3)によって除算し、これによって、特徴点クラスタCG(1)における時系列方向の刻み幅Wを算出する。領域選出数215は、特徴点クラスタCG(1)の選出数V(=2)、時系列座標の最小値Tminおよび刻み幅W等のパラメータを用い、上述した式(3)に基づいて、特徴点クラスタCG(1)の選出数V(=2)と同数である2つの時系列座標T(1,1),T(1,2)を算出する。
ここで、時系列座標T(1,1),T(1,2)は、図12に示すように、特徴点クラスタCG(1)における特徴点C(1)〜C(4)の分布を時系列軸の方向に等間隔に分割する。すなわち、時系列座標T(1,1),T(1,2)は、これら4つの特徴点C(1)〜C(4)に対応する体内画像群PG内の4つの注目領域A(1,1)〜A(4,1)の特徴量の分布を時系列方向に等間隔に分割する。
続いて、領域選出部215は、残りの特徴点クラスタCG(2)に属する2つの特徴点C(5),C(6)の各時系列座標のうちの最小値Tminおよび最大値Tmaxを求める。ここで、最小値Tminは、特徴点クラスタCG(2)において最もインデクスが小さい特徴点C(5)の時系列軸の座標成分であり、最大値Tmaxは、特徴点クラスタCG(2)において最もインデクスが大きい特徴点C(6)の時系列軸の座標成分である。
つぎに、領域選出部215は、時系列座標の最大値Tmaxと最小値Tminとの差(Tmax−Tmin)を、特徴点クラスタCG(2)の選出数V(=1)に「1」を加算した値(=2)によって除算し、これによって、特徴点クラスタCG(2)における時系列方向の刻み幅Wを算出する。領域選出数215は、特徴点クラスタCG(2)の選出数V(=1)、時系列座標の最小値Tminおよび刻み幅W等のパラメータを用い、式(3)に基づいて、特徴点クラスタCG(2)の選出数V(=1)と同数である1つの時系列座標T(2,1)を算出する。
ここで、時系列座標T(2,1)は、図12に示すように、特徴点クラスタCG(2)における2つの特徴点C(5),C(6)の分布を時系列軸の方向に等間隔に分割する。すなわち、時系列座標T(2,1)は、これら2つの特徴点C(5),C(6)に対応する体内画像群PG内の2つの注目領域A(6,1),A(7,1)の特徴量の分布を時系列方向に等間隔に分割する。
その後、領域選出部215は、ステップS403の処理手順を行って、特徴点クラスタCG(1)における2つの時系列座標T(1,1),T(1,2)に各々最近の各特徴点に基づいて注目領域を選出し、且つ、特徴点クラスタCG(2)における1つの時系列座標T(2,1)に最近の特徴点に基づいて注目領域を選出する。
具体的には、領域選出部215は、まず、よりインデクスの小さい特徴点クラスタCG(1)に属する4つの特徴点C(1)〜C(4)と2つの時系列座標T(1,1),T(1,2)のうちの一方の時系列座標T(1,1)との各離間距離を算出する。つぎに、領域選出部215は、算出した各離間距離を所定の順序(例えば時系列順)で順次比較処理し、時系列座標T(1,1)との離間距離が最小になる特徴点、すなわち、時系列座標T(1,1)に最も近い特徴点C(2)を特徴点クラスタCG(1)の中から選出する。
つぎに、領域選出部215は、特徴点クラスタCG(1)に属する4つの特徴点C(1)〜C(4)と2つの時系列座標T(1,1),T(1,2)のうちの他方の時系列座標T(1,2)との各離間距離を算出する。次いで、領域選出部215は、算出した各離間距離を所定の順序(例えば時系列順)で順次比較処理し、時系列座標T(1,2)との離間距離が最小になる特徴点、すなわち、時系列座標T(1,2)に最も近い特徴点C(3)を特徴点クラスタCG(1)の中から選出する。
以上のようにして、領域選出部215は、特徴点クラスタCG(1)の中から、特徴点クラスタCG(1)における選出数V(=2)と同数である2つの特徴点C(2),C(3)を選出する。続いて、領域選出部215は、選出した2つの特徴点C(2),C(3)に各々対応する2つの注目領域A(2,1),A(3,1)を体内画像群PGの中から選出する。
つぎに、領域選出部215は、処理済みの特徴点クラスタCG(1)の次にインデクスの小さい特徴点クラスタCG(2)に属する2つの特徴点C(5),C(6)と1つの時系列座標T(2,1)との各離間距離を算出する。続いて、領域選出部215は、算出した各離間距離を所定の順序(例えば時系列順)で順次比較処理し、時系列座標T(2,1)との離間距離が最小になる特徴点、すなわち、時系列座標T(2,1)に最も近い特徴点C(5)を特徴点クラスタCG(2)の中から選出する。
以上のようにして、領域選出部215は、特徴点クラスタCG(2)の中から、特徴点クラスタCG(2)の選出数V(=1)と同数である1つの特徴点C(5)を選出する。続いて、領域選出部215は、選出した1つの特徴点C(5)に対応する1つの注目領域A(6,1)を体内画像群PGの中から選出する。
ここで、領域選出部215は、上述したようにLab−時系列特徴空間内の全特徴点クラスタCG(1),CG(2)について注目領域の選出処理を実行することによって、体内画像群PGにおける領域グループ毎に選出数Vと同数の注目領域A(j,t)を選出する。
具体的には、領域選出部215は、注目領域の各領域グループの代表領域として、選出数V=2と同数の注目領域A(2,1),A(3,1)、および選出数V=1と同数の注目領域A(6,1)の合計3つの注目領域を選出する。領域選出部215は、この代表領域の選出処理結果を代表画像出力部16に送信する。
一方、代表画像出力部16は、領域選出部215から取得した代表領域の選出処理結果に基づいて、体内画像群PGの中から、代表領域である注目領域A(2,1)を含む体内画像P(2)と、注目領域A(3,1)を含む体内画像P(3)と、注目領域A(6,1)を含む体内画像P(6)とを表示対象の代表体内画像群として表示装置3に出力する。
なお、領域選出部215は、同一の特徴点クラスタCG(k)内に、時系列座標T(k,i)に対して最小の離間距離になる特徴点が複数存在する場合、所定の手法に従って、これら複数の特徴点のうちのいずれか一つを選出すればよい。例えば、領域選出部215は、時系列座標T(k,i)に対して最小の離間距離になる複数の特徴点のうち、時系列順に最も過去(すなわちインデクスが最小)の特徴点を選出してもよいし、時系列順に最新(すなわちインデクスが最大)の特徴点を選出してもよい。いずれの場合であっても、領域選出部215は、時系列座標T(k,i)毎に1つの特徴点を選出すればよい。
以上、説明したように、本発明の実施の形態2では、体内画像群に含まれる注目領域の領域グループのグループ特徴量に応じて決定した選出数と同数であって、Lab−時系列特徴空間における特徴点クラスタに対応する領域グループ内の注目領域の特徴量の分布を時系列方向に等間隔に分割する時系列座標を算出し、この体内画像群内の各注目領域を代表する代表領域として、この選出数と同数の時系列座標毎に体内画像群内の注目領域を選出するようにし、その他を実施の形態1と同様に構成した。
このため、上述した実施の形態1の場合と同様の作用効果を享受するとともに、Lab−時系列特徴空間内の特徴点クラスタを再度細分類処理することなく、上述した選出数と同数の注目領域を代表領域として選出しているため、実施の形態1の場合に比して短時間に、体内画像群の中から注目領域を選出することができ、この結果、観察すべき注目領域を含む体内画像を出力するまでに必要な処理時間の短時間化を一層促進できる画像処理装置、画像処理プログラムおよび画像処理方法を実現することができる。
なお、上述した実施の形態1,2では、単一の体内画像に単一の注目領域が被写体として含まれる場合を例示したが、これに限らず、単一の体内画像に複数の注目領域が被写体と含まれていてもよい。例えば、上述した体内画像群PG内の体内画像P(j)に複数の注目領域A(j,t)(t≧2)が被写体として含まれる場合、これら複数の注目領域A(j,t)は2以上のインデクスtによって識別される。具体的には、この体内画像P(j)に含まれる注目領域数が2つである場合、これらは、注目領域A(j,1),A(j,2)のように注目領域数と同数のインデクスtによって識別される。なお、同一の体内画像に含まれる複数の注目領域の時系列座標は互いに同値である。
また、上述した実施の形態1,2では、画素値変換部12aは処理対象の体内画像におけるRGBの色空間の値をL*a*b*空間の値に変換していたが、これに限らず、画素値変換部12aは処理対象の体内画像におけるRGBの色空間の値をL*a*b*空間以外の色空間の値、例えば、Yuv色空間の値に変換してもよいし、HSI色空間の値に変換してもよい。
さらに、上述した実施の形態1,2では、病変領域等の注目領域の特徴量の一例として色特徴量を例示したが、これに限らず、上述した注目領域の特徴量は、注目領域の円形度等の形状特徴量であってもよいし、周囲長等の構造特徴量であってもよいし、体内画像における注目領域の位置情報等の位置特徴量であってもよいし、これらのうちの少なくとも2つを組み合わせたものであってもよい。
また、上述した実施の形態1,2では、注目領域(または特徴点)の色特徴量である平均明度指数および平均知覚色度の各分散の合計値Sum(k)を注目領域の領域グループのグループ特徴量としていたが、これに限らず、上述したグループ特徴量算出部14は、注目領域の色特徴量の各分散の平均値をグループ特徴量として算出してもよいし、注目領域の色特徴量の各標準偏差の合計値または平均値をグループ特徴量として算出してもよい。あるいは、グループ特徴量算出部14は、上述した注目領域の色特徴量に基づいた分散または標準偏差等の値に、注目領域の時系列方向の分散を加味(例えば加算)した値をグループ特徴量として算出してもよい。
さらに、上述した実施の形態1,2では、病変領域等の注目領域が属する領域グループのグループ特徴量に応じて代表的な注目領域(すなわち代表領域)の選出数を決定していたが、これに限らず、Lab−時系列特徴空間における特徴点または特徴点クラスタ毎に属する注目領域の特徴量(例えば色特徴量)のばらつきに応じて代表領域の選出数を決定してもよい。なお、被検体内部のカプセル内視鏡が動きの無い状態で時系列順に順次撮像した体内画像群においては、撮像された注目領域の色、形状等の特徴量変化が画像間で少ない。一方、被検体内部のカプセル内視鏡が動きの有る状態で時系列順に順次撮像した体内画像群においては、撮像された注目領域の色、形状等の特徴量変化が画像間で多少ある。すなわち、動きの有るカプセル内視鏡によって撮像された体内画像群の方が病変領域等の注目領域の見え方に変化があり、観察すべき注目情報をより多く有している。このため、動きの有るカプセル内視鏡によって撮像された体内画像群を処理する場合は、Lab−時系列特徴空間における特徴点または特徴点クラスタ毎に属する注目領域の特徴量のばらつきに応じて代表領域の選出数を変化させることが望ましい。
また、上述した実施の形態2では、上述した式(3)に基づいて時系列座標を算出していたが、これに限らず、上述した時系列座標は、時系列順に撮像された体内画像群内の各体内画像のフレーム番号(画像番号)であってもよい。なお、同一のフレーム番号の体内画像内に特徴が類似する複数の注目領域が被写体として含まれる場合、代表領域として選出される注目領域は、これら複数の注目領域のいずれであってもよい。
さらに、上述した実施の形態1,2では、注目領域の特徴点は、注目領域の色特徴量(例えばL*a*b*空間の平均明度指数および平均知覚色度等)の座標軸と時系列の座標軸とによって形成される特徴空間に分布していたが、これに限らず、本発明における注目領域の特徴点は、注目領域の色特徴量、注目領域の円形度等の形状特徴量、注目領域の周囲長等の構造特徴量、注目領域の位置情報等の位置特徴量、および時系列のうちのいずれか2つの座標軸によって形成される特徴空間に分布してもよい。例えば、注目領域の特徴点は、色特徴量および形状特徴量の各座標軸によって形成される特徴空間に分布してもよいし、形状特徴量および時系列の各座標軸によって形成される特徴空間に分布してもよい。
また、上述した実施の形態1,2では、処理対象の時系列画像群の一例として被検体の体内画像群を例示したが、これに限らず、本発明における処理対象の時系列画像群は、時系列に沿って順次撮像された画像群であれば、被検体の消化管内部等の体内が時系列順に撮像された体内画像群でなくてもよく、その被写体は消化管内部等の被検体内部以外の所望のものであってもよい。すなわち、時系列画像群に含まれる注目領域は、被検体の体内領域に限らず、観察者が観察する所望の領域であってもよい。また、上述した画像入力装置1は、カプセル内視鏡等によって撮像された体内画像群を画像処理装置に入力するものに限らず、所望の被写体を撮像した時系列画像群を記憶して画像処理装置にこの時系列画像群を入力する装置であってもよいし、自らが時系列画像群を撮像し、得られた時系列画像群を画像表示装置に入力するデジタルカメラ等の電子撮像装置であってもよい。
さらに、上述した実施の形態1,2では、時系列画像群のうちの注目領域を含む代表画像を表示対象の時系列画像として表示装置3に出力していたが、これに限らず、本発明にかかる画像処理装置、画像処理プログラムおよび画像処理方法は、時系列画像群のうちの注目領域を含む代表画像を記憶対象の時系列画像として記憶装置に出力するものであってもよいし、時系列画像群のうちの注目領域を含む代表画像を印刷対象の時系列画像としてプリンタに出力するものであってもよい。すなわち、本発明にかかる画像処理装置から注目領域を含む代表画像を受信する装置は、上述した表示装置3に限らず、ハードディスク等の記憶装置であってもよいし、プリンタであってもよい。
また、上述した実施の形態1,2では、処理プログラムを実行する制御部の動作に基づいたソフトウェアによる画像処理装置の処理手順を説明したが、これに限らず、本発明にかかる画像処理装置は、ハードウェアによる処理手順を実行してもよい。
また、上述した実施の形態1,2では、観察の必要性が高い注目領域として粘膜領域または病変領域等の体内領域を例示したが、これに限らず、被検体内部の観察内容によっては、泡または便等の体内領域が注目領域であってもよく、また、粘膜領域または病変領域等の体内領域(実施の形態1,2における注目領域)が非注目領域であってもよい。