JP2006085375A - 画像処理方法、画像処理装置 - Google Patents
画像処理方法、画像処理装置 Download PDFInfo
- Publication number
- JP2006085375A JP2006085375A JP2004268706A JP2004268706A JP2006085375A JP 2006085375 A JP2006085375 A JP 2006085375A JP 2004268706 A JP2004268706 A JP 2004268706A JP 2004268706 A JP2004268706 A JP 2004268706A JP 2006085375 A JP2006085375 A JP 2006085375A
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- image
- orientation
- virtual
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】 現実空間に仮想空間の映像を重畳させてユーザに提供する場合に、現実物体に対する測定を簡便に行うための技術を提供すること。
【解決手段】 観察者の視点の位置姿勢から見える定規仮想物体510の映像を生成し(2040)、現実空間の映像上に重畳し(4010)、表示装置に出力する(4020)。
【選択図】 図4
【解決手段】 観察者の視点の位置姿勢から見える定規仮想物体510の映像を生成し(2040)、現実空間の映像上に重畳し(4010)、表示装置に出力する(4020)。
【選択図】 図4
Description
本発明は、現実空間に仮想空間の映像を重畳させて観察者に提示する為の技術に関するものである。
テーマパークなどの娯楽施設で、体験者の視点位置姿勢における現実空間映像と、仮想空間映像とを合成して体験者に提供する複合現実感システムが一般的なものになりつつある。複合現実感システムでは、現実空間中に仮想物体が実在しているかのような感覚を観察者に提示することが可能であり、従来の仮想現実感システムに比べてより実在感があり、実寸感覚を伴った観察が可能である。
一方、従来、設計・製造分野において3次元CADを使った設計(形状、デザイン)が主流になってきている。3次元CADで設計された物体を評価する方法としては、3次元CADで作成されたデータ(ソリッド形式)を3次元コンピュータグラフィックス(3D−CG)として計算機の画面上に表示して視覚的に評価する方法や、ラピット・プロトタイピン装置などで簡易試作物を作成し、視覚に加えて触覚的に評価する方法などが主流である。
本出願人は両手法を組み合わせ、視覚的な評価と触覚的な評価を同時に実現し、より完成品に近い状態での評価を可能とするシステムを特願2003−341628号にて提案している。このようなシステムでは、3次元CADのデータよりラピット・プロトタイピング装置で作成した簡易試作物に、同じ3次元CADのデータを変換して作成した3D−CGデータを、共有されている座標系における位置、姿勢を一致させて重畳表示することで、視覚的な評価と触覚的な評価を同時に実現し、より完成品に近い状態での評価を可能とするものである。
さらに、このシステムでは、現実空間を映像データとしてシステムに取り込むので、現実空間の映像を仮想空間の映像(CG)を合成するのに適した映像に変換処理することが可能であり、観察者にとってより自然な複合現実感感映像を生成するものである。
このシステムでは、簡易試作物に重畳された3D−CGの寸法を測定する有効な手段が提供されていなかった。
一方、現実映像中の被写体の寸法を、被写体となる現実物体の表面にCGのスケール画像を重畳することで、ユーザに評価する手段を提供する技術が提案されている。(特許文献1参照)
特開2001−209827号公報
しかしながら、前述のシステムにおいて、現実の測定器具を利用して測定を行うと、簡易試作物上に重畳表示された3D−CGによって測定器具が覆い隠されてしまい、測定ができない場合があった。これを回避するために、現実映像における現実の測定器具が3D−CGで覆い隠されないよう画像処理を行うことで現実の測定器具が表示されるようにする方法も考えられるが、現実映像の撮像装置や合成映像の表示装置の品質によっては現実の測定器具の目盛や値が可読性をもって表示されなかったりする場合があった。
また、特許文献1に記載されている技術は、仮想的な測定器具を利用して測定を行うことで、前述の課題を一部解決するものであるが、評価可能な寸法は物体表面に限定されており物体上の任意の二点間距離を評価することはできなかった。
本発明は以上の問題に鑑みてなされたものであり、現実空間と仮想空間で共有している座標系における位置および姿勢を現実物体と一致させた仮想物体(3D−CGデータ)を現実物体に重畳表示した状態で、寸法の評価および被写体表面の任意の二点間距離の評価を提供することを目的とする。
また、本発明の別の目的としては、仮想的な測定器具の目盛を読み取ることで被写体表面の任意の二点間距離を評価する手段をユーザに提供することにある。
本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。
即ち、現実空間に仮想物体の画像を合成して観察者に提示する画像処理方法であって、
観察者視点からの現実画像を入力する現実画像入力工程と、
前記観察者視点の位置姿勢、前記現実画像に含まれる第1の現実物体の位置姿勢および前記現実画像に含まれる第2の現実物体の位置姿勢を取得する取得工程と、
前記第1の現実物体に対応する第1の仮想物体の画像を前記観察者視点の位置姿勢と前記第1の現実物体の位置姿勢に基づいて生成するとともに、仮想空間内で前記第1の仮想物体を計測するための第2の仮想物体の画像を前記観察者視点の位置姿勢と前記第2の現実物体の位置姿勢に基づいて生成する画像生成工程と、
前記現実画像、前記第1の仮想物体画像および前記第2の仮想物体画像とを合成して出力する出力工程と
を備えることを特徴とする。
観察者視点からの現実画像を入力する現実画像入力工程と、
前記観察者視点の位置姿勢、前記現実画像に含まれる第1の現実物体の位置姿勢および前記現実画像に含まれる第2の現実物体の位置姿勢を取得する取得工程と、
前記第1の現実物体に対応する第1の仮想物体の画像を前記観察者視点の位置姿勢と前記第1の現実物体の位置姿勢に基づいて生成するとともに、仮想空間内で前記第1の仮想物体を計測するための第2の仮想物体の画像を前記観察者視点の位置姿勢と前記第2の現実物体の位置姿勢に基づいて生成する画像生成工程と、
前記現実画像、前記第1の仮想物体画像および前記第2の仮想物体画像とを合成して出力する出力工程と
を備えることを特徴とする。
本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。
即ち、現実空間に仮想物体の画像を合成して観察者に提示する画像処理装置であって、
観察者視点からの現実画像を入力する現実画像入力手段と、
前記観察者視点の位置姿勢、前記現実画像に含まれる第1の現実物体の位置姿勢および前記現実画像に含まれる第2の現実物体の位置姿勢を取得する取得手段と、
前記第1の現実物体に対応する第1の仮想物体の画像を前記観察者視点の位置姿勢と前記第1の現実物体の位置姿勢に基づいて生成するとともに、仮想空間内で前記第1の仮想物体を計測するための第2の仮想物体の画像を前記観察者視点の位置姿勢と前記第2の現実物体の位置姿勢に基づいて生成する画像生成手段と、
前記現実画像、前記第1の仮想物体画像および前記第2の仮想物体画像とを合成して出力する出力手段と
を備えることを特徴とする。
観察者視点からの現実画像を入力する現実画像入力手段と、
前記観察者視点の位置姿勢、前記現実画像に含まれる第1の現実物体の位置姿勢および前記現実画像に含まれる第2の現実物体の位置姿勢を取得する取得手段と、
前記第1の現実物体に対応する第1の仮想物体の画像を前記観察者視点の位置姿勢と前記第1の現実物体の位置姿勢に基づいて生成するとともに、仮想空間内で前記第1の仮想物体を計測するための第2の仮想物体の画像を前記観察者視点の位置姿勢と前記第2の現実物体の位置姿勢に基づいて生成する画像生成手段と、
前記現実画像、前記第1の仮想物体画像および前記第2の仮想物体画像とを合成して出力する出力手段と
を備えることを特徴とする。
本発明の構成により、現実空間と仮想空間で共有している座標系における位置および姿勢を現実物体と一致させた仮想物体(3D−CGデータ)を現実物体に重畳表示した状態で、寸法の評価および被写体表面の任意の二点間距離の評価を提供することができる。また、仮想的な測定器具の目盛を読み取ることで被写体表面の任意の二点間距離を評価する手段をユーザに提供することができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
図1は、現実空間に仮想空間を重畳させた複合現実空間を観察者(ユーザ)に提供すると共に、現実空間中の物体(現実物体)に対する測定を可能にさせるためのシステムの外観を示す図である。
図1は、現実空間に仮想空間を重畳させた複合現実空間を観察者(ユーザ)に提供すると共に、現実空間中の物体(現実物体)に対する測定を可能にさせるためのシステムの外観を示す図である。
同図において200はトランスミッタで、磁場を発生させる。100は観察者の頭部に装着し、現実空間と仮想空間とを合成した画像を観察者の眼前に提供する為の頭部装着型表示装置(以下、HMD:Head Mounted Displayと呼称する)で、カメラ102a、102b、表示装置101a、101b、磁気レシーバ201により構成されている。
カメラ102a、102bはそれぞれHMD100を頭部に装着した観察者の右目、左目の位置から見える現実空間を連続して撮像するものであり、撮像した各フレームの画像は後段のコンピュータ400に出力される。
表示装置101a、101bはそれぞれ、観察者がHMD100を頭部に装着したときに右目、左目の眼前に位置するようにHMD100に装着されたものであり、後段のコンピュータ400から出力された画像信号に基づいた画像を表示する。従って観察者の右目、左目の眼前にはコンピュータ400が生成した画像が提供されることになる。
磁気レシーバ201は、上記トランスミッタ200が発する磁場の変化を検知し、検知した結果の信号を後段の位置姿勢計測装置205に出力するものである。検知した結果の信号は、トランスミッタ200の位置を原点とし、この原点の位置で互いに直交する3軸をx、y、z軸とする座標系(以下、センサ座標系と呼称する)において、磁気レシーバ201の位置姿勢に応じて検知される磁場の変化を示す信号である。
位置姿勢計測装置205は、この信号に基づいて、センサ座標系における磁気レシーバ201の位置姿勢を求め、求めた位置姿勢を示すデータは後段のコンピュータ400に出力される。
図2は、HMD100の具体的な構成を示す図である。
101は映像表示装置で、0.5〜数インチ程度の小型の液晶表示デバイス等で構成されるものである。103は、映像表示装置101の映像を拡大するレンズの役目を果たす自由曲面プリズムである。このような構成により、映像表示装置101に表示された映像は、観察者にとってはたとえば2m先に90インチ相当の映像として提示される。
102は映像入力装置であり、CCDカメラ、CMOSカメラなどの撮像デバイスで構成されるものである。104は現実空間の光を映像入力装置102に収束させるためのレンズの役目をはたす撮像系プリズムである。撮像系プリズム104は自由曲面プリズム103の外側に、光軸を一致させるように配置することで、映像入力装置102で入力した映像と、映像表示装置101に表示した映像の視差をなくし、現実空間の映像を違和感なく再現することが可能である。
図1に戻って、300は測定対象となる現実物体(以下、簡易試作物と呼称する)である。同図ではこの簡易試作物300をカメラとするが、これに限定するものではない。この簡易試作物300には磁気レシーバ202が備わっており、この磁気レシーバ202は磁気レシーバ201と同様に、センサ座標系における自身の位置姿勢に応じて検知される磁場の変化を示す信号(換言すれば、センサ座標系における磁気レシーバ自身202の位置姿勢を示す信号)を位置姿勢計測装置205に出力する。従って位置姿勢計測装置205は、この信号に基づいて、センサ座標系における磁気レシーバ202の位置姿勢を求めることができ、求めた位置姿勢を示すデータは後段のコンピュータ400に出力される。よって、観察者が簡易試作物300を手に持ってその位置や姿勢を変化させても、簡易試作物300の位置姿勢は常に磁気レシーバ202によって計測され、その計測された位置姿勢データはコンピュータ400に入力される。
302は定規の仮想物体(以下、定規仮想物体)を操作するための器具で、この定規は上記簡易試作物300のサイズを測定するためのものである。この器具302には磁気レシーバ203が備わっており、この器具302に備わっている磁気レシーバ203は磁気レシーバ201と同様に、センサ座標系における自身の位置姿勢に応じて検知される磁場の変化を示す信号を位置姿勢計測装置205に出力する。従って位置姿勢計測装置205は、この信号に基づいて、センサ座標系における磁気レシーバ203の位置姿勢を求めることができ、求めた位置姿勢を示すデータは後段のコンピュータ400に出力される。よって、観察者が器具302を手に持ってその位置や姿勢を変化させても、器具302の位置姿勢は常に磁気レシーバ203によって計測され、その計測された位置姿勢データはコンピュータ400に入力される。
301は簡易試作物300の観察時に置き場として利用される置き台であり、簡易試作物300の現実映像の背景としても使われる。
400はコンピュータで、HMD100の表示装置101a、101bに出力すべき画像信号を生成したり、位置姿勢計測装置205からのデータを受け、これを管理したり等の処理を行う。このコンピュータは一般的には例えばPC(パーソナルコンピュータ)やWS(ワークステーション)等により構成される。図22は、コンピュータ400の基本構成を示す図である。
2201はCPUで、RAM2202やROM2203に格納されているプログラムやデータを用いてコンピュータ400全体の制御を行うと共に、I/F2207に接続される外部装置とのデータ通信の制御を行う。また、コンピュータ400が行うべき処理として後述する各処理を行う。
2202はRAMで、外部記憶装置2205からロードされたプログラムやデータを一時的に記憶するためのエリアを備えると共に、CPU2201が各種の処理を実行する際に必要なワークエリアも備える。
2203はROMで、ブートプログラムやコンピュータ400の設定データなどを格納する。
2204は操作部で、キーボードやマウス、ジョイスティックなどにより構成されており、各種の指示をCPU2201に対して入力することができる。
2205は外部記憶装置で、ハードディスクドライブ装置などの大容量情報記憶装置として機能するものであり、ここにOS(オペレーティングシステム)やCPU2201に、後述する各処理を実行させるためのプログラムやデータ等が保存されており、これらの一部、もしくは全部は、CPU2201の制御により、RAM2202にロードされる。また、後述の説明で、既知のデータ(情報)として説明するもの(もしくは以下説明する処理で必要となるべきデータ)もまたこの外部記憶装置2205に保存されており、必要に応じてCPU2201の制御により、RAM2202にロードされる。
2206は表示部で、CRTや液晶画面等により構成されており、画像や文字による各種の情報を表示することができる。
2207はI/Fで、ここに上記位置姿勢計測装置205、HMD100等が接続されており、このI/F2207を介して、コンピュータ400は位置姿勢計測装置205、HMD100等とのデータ通信を行うことができる。
2208は上述の各部を繋ぐバスである。
以上の構成を備えるコンピュータ400は、カメラ102a、102bそれぞれから得られる現実空間の画像を取り込むとと共に、磁気レシーバ201、202、203から得られる位置姿勢に基づいてカメラ102a、102bから見える仮想物体の画像を生成する。そして、生成した画像を、先に取り込んだ現実空間の画像上に重畳させ、重畳させた画像を表示装置101a、101bに出力する。これにより、HMD100を頭部に装着した観察者の右目、左目の眼前には、それぞれの目の位置姿勢に対応した複合現実空間画像が表示されることになる。
図3は、このコンピュータ400の機能構成を示す図である。本実施形態では、同図に示した各部はソフトウェアでもって構成されたものとして説明するが、各部の一部、もしくは全部をハードウェアでもって構成するようにしても良い。
401R、401Lは映像キャプチャ部であり、それぞれカメラ102a、102bより入力した画像をディジタル信号として取り込む。
404は位置姿勢情報入力部であり、位置姿勢計測装置205から出力されたデータを取り込む。このデータには、磁気レシーバ201、202、203のセンサ座標系における位置姿勢を示すデータが含まれる。
406は、3DCG描画データで、仮想空間を構成する仮想物体の画像を生成するためのデータである。3DCG描画データには、以下説明する各仮想物体の幾何学形状や色を示すデータ、テクスチャデータなどが含まれる。
405は位置姿勢算出部であり、位置姿勢情報入力部404から入力される磁気レシーバ201のセンサ座標系における位置姿勢を示すデータ,磁気レシーバ202のセンサ座標系における位置姿勢を示すデータ、磁気レシーバ203のセンサ座標系における位置姿勢を示すデータを用いて、磁気レシーバ201の位置姿勢に対する磁気レシーバ202,203の相対位置姿勢を求める。
407はCGレンダリング部で、カメラ102a、102bの位置姿勢(磁気レシーバ201とカメラ102a、102bとの位置姿勢関係を予めバイアスとして求めておけば、磁気レシーバ201により計測した位置姿勢にこのバイアスを加えることで、カメラ102a、102bの位置姿勢は求めることができる)に応じて見える仮想物体の画像を生成する。なお、ここでの仮想物体とは、定規仮想物体、及び現実物体300に重畳させる仮想物体である。従って、この2つの仮想物体の画像はそれぞれ、磁気レシーバ203、202の位置姿勢でもって仮想空間内に配置され、これを位置姿勢算出部405が算出したカメラ102a、102bの位置姿勢に応じて見える画像となる。なお、所定の位置姿勢を有する視点から見える仮想物体の画像を生成する処理については周知の技術であるので、これに関する詳細な説明は省略する。また、以下では、カメラ102a、102bを総称して「視点」と呼称する場合がある。
402R、402Lはそれぞれ、映像キャプチャ部401R、401Lから入力した現実空間の画像上に、CGレンダリング部407が生成したカメラ102aの位置姿勢に応じて見える仮想物体の画像、カメラ102bの位置姿勢に応じて見える仮想物体の画像を重畳させ、それぞれ、映像生成部403R、403Lに出力する。これにより、カメラ102aの位置姿勢に応じて見える複合現実空間の画像、カメラ102bの位置姿勢に応じて見える複合現実空間の画像を生成することができる。
映像生成部403R、403Lはそれぞれ、映像合成部402R、402Lから出力された複合現実空間の画像をアナログデータに変換し、それぞれ表示装置101a、101bに映像信号として出力する。これにより、HMD100を頭部に装着した観察者の右目、左目の眼前には、それぞれの目に対応した複合現実空間の画像が表示される。
以上説明した、観察者の右目、左目に対して、それぞれの位置姿勢に応じて見える複合現実空間の画像を提示する為の処理について、同処理の手順を示す図4を参照して説明する。
先ず、3DCADデータから、簡易試作物300、3DCG描画データを生成するための処理手順について、同図の左側を参照して説明する。
通常、3次元CADシステムを使って形状やデザインなどの設計業務を行う(1010)場合には、3DCADのデータは、それぞれの3次元CADシステム固有のソリッドデータとして保存されるのが一般的である。簡易試作物300は、このソリッドデータより、光造形などのラピッド・プロトタイピング装置を使って作成する(1110)。
一方、3Dソリッドデータは、各設計部品の幾何学的なパラメータの集合で表現されており、そのままではCGとして描画することはできない。そこで、3Dソリッドデータを3DCGの描画に適したデータ形式(たとえばVRMLなど)に変換する(1210)。本複合現実感システムでは、このように変換された3DCG描画用データ406を使って仮想空間を生成する。生成された3DCG描画データ406は、コンピュータ400の外部記憶装置2205に保存しておき、必要に応じてRAM202にロードする。
次に、複合現実感システムが行う、この3DCG描画データ406を用いて仮想空間の画像(仮想物体の画像)を生成し、現実空間の画像に重畳させて観察者に提示する処理について、同図右側を参照して説明する。
簡易試作物300に備わっている磁気レシーバ202は上述の通り磁気トランスミッタ200が発生する磁界の変化を計測し(2010)、その計測結果を信号として位置姿勢計測装置205に出力するので、位置姿勢計測装置205は、受けた信号に基づいて、センサ座標系における磁気レシーバ202の位置姿勢(簡易試作物300の位置姿勢)を示すデータをコンピュータ400に出力する(2030)。
同様に、磁気レシーバ201は上述の通り磁気トランスミッタ200が発生する磁界の変化を計測し(2020)、その計測結果を信号として位置姿勢計測装置205に出力するので、位置姿勢計測装置205は、受けた信号に基づいて、センサ座標系における磁気レシーバ201の位置姿勢(上述の通り、バイアスを加算すれば、カメラ102a、102bの位置姿勢)を示すデータをコンピュータ400に出力する(2030)。
同様に、磁気レシーバ203は上述の通り磁気トランスミッタ200が発生する磁界の変化を計測し(2025)、その計測結果を信号として位置姿勢計測装置205に出力するので、位置姿勢計測装置205は、受けた信号に基づいて、センサ座標系における磁気レシーバ203の位置姿勢(器具302の位置姿勢)を示すデータをコンピュータ400に出力する(2030)。
そして位置姿勢算出部405、CGレンダリング部407により、カメラ102a、102bのそれぞれから見える、「定規仮想物体」、「簡易試作物300に重畳表示すべき仮想物体」の画像を生成する(2040)。
「定規仮想物体」の画像の生成について説明すると、先ず、位置姿勢算出部405は、処理2030でRAM203に記録した「磁気レシーバ201の位置姿勢を示すデータ」に上記バイアスを加算して、センサ座標系におけるカメラ102a、102bの位置姿勢を求める。
そして更に位置姿勢算出部405は、センサ座標系における「磁気レシーバ203の位置姿勢」に定規仮想物体を配置する。この定規仮想物体については詳しくは後述するが、本実施形態では定規仮想物体の配置位置に関しては、磁気レシーバ203の位置から所定距離だけ離間した位置とするが、磁気レシーバ203と定規仮想物体との位置姿勢関係については特に限定するものではない。
そしてCGレンダリング部407は、位置姿勢算出部405が求めた「センサ座標系におけるカメラ102a、102bの位置姿勢を示すデータ」、及び「磁気レシーバ203の位置姿勢を示すデータ」を用いて、カメラ102a、102bの位置姿勢から見える定規仮想物体の画像を生成する。このように、所定の位置姿勢を有する視点から見える仮想物体の画像を生成する処理については周知の技術であるので、これに関する詳細な説明は省略する。
一方、「簡易試作物300に重畳表示すべき仮想物体」の画像の生成について説明すると、先ず位置姿勢算出部405は、センサ座標系における「磁気レシーバ202の位置姿勢」に「簡易試作物300に重畳表示すべき仮想物体」を配置する。そしてCGレンダリング部407は、位置姿勢算出部405が求めた「センサ座標系におけるカメラ102a、102bの位置姿勢を示すデータ」、及び「磁気レシーバ202の位置姿勢を示すデータ」を用いて、CGレンダリング部407がカメラ102a、102bの位置姿勢から見える「簡易試作物300に重畳表示すべき仮想物体」の画像を生成する。
このようにして、カメラ102a、102bの位置姿勢に応じて見える「定規仮想物体」、「簡易試作物300に重畳表示すべき仮想物体」の画像(カメラ102aの位置姿勢に応じて見える画像は右目用の画像、カメラ102bの位置姿勢に応じて見える画像は左目用の画像である)を生成することができる。なお、生成した画像のデータはRAM2202中の所定のエリアに一時的に記憶される。また、仮想物体の画像を生成するためには外部記憶装置2205に保存されている3DCG描画データをRAM2202に読み出して用いるものとする。
一方、上記2010,2020,2025,2030,2040における処理と並行して、カメラ102a、102bより撮像された現実空間の画像は映像キャプチャ部401R、410Lによりコンピュータ400に入力され(3010)、RAM2202上に描画される(3020)。
そして、映像合成部402Rは、映像キャプチャ部401Rにより入力された右目用の現実空間の画像上に、CGレンダリング部407によりレンダリングされた右目用の画像(仮想物体の画像)を重畳させ、重畳後の画像(複合現実空間の画像)を後段の映像生成部403Rに出力する(4010)。
一方、映像合成部402Lは、映像キャプチャ部401Lにより入力された左目用の現実空間の画像上に、CGレンダリング部407によりレンダリングされた左目用の画像(仮想物体の画像)を重畳させ、重畳後の画像(複合現実空間の画像)を後段の映像生成部403Lに出力する(4010)。
即ち、現実空間の画像上への仮想物体の画像の重畳では、カメラ102aからの現実空間の画像上に、カメラ102aの位置姿勢から見える仮想物体の画像を重畳すると共に、カメラ102bからの現実空間の画像上に、カメラ102bの位置姿勢から見える仮想物体の画像を重畳する処理を行う。その結果、観察者の右目から見える複合現実空間の画像、左目から見える複合現実空間の画像を生成する。
映像生成部403R、403Lはそれぞれ、受けた複合現実空間の画像をアナログ信号としてのビデオ信号に変換し、I/F2207を介して表示装置101aに出力する(4020)。
そして上記処理2010〜処理4020までの各処理を、表示装置(101a、101b)における映像更新間隔、あるいは処理204の実行時間で繰り返し行うことで、リアルタイムに情報提示を行う。
ここで、上記処理を行うことで、表示装置(101a、101b)に表示される複合現実空間の画像について説明する。図5(a)は、カメラ(102a、102b)から得られる現実空間の画像の表示例を示す図である。同図に示す如く、カメラにより撮像された簡易試作物300、器具302、磁気レシーバ203が現実空間の画像に含められている。
一方、図5(b)は図4に示した各処理を実行することで、表示装置の表示画面上に表示される表示例を示す図である。同図において510は定規仮想物体で、直線のモデル519上に目盛り512のモデルが配列されているモデルである。
同図では、磁気レシーバ203の位置から所定の距離だけ離間した位置に目盛り512の「0」が位置するように、且つ器具302の長手方向に目盛りが配列されるように(直線のモデル519が器具302の長手方向に平行に位置するように)、定規仮想物体510を配置する。上述の通り、この器具302は操作者が手に持ってその位置や姿勢を変化させることができ、磁気レシーバ203はこの変化を計測し、そして定規仮想物体510は、この計測結果に基づいて配置されるので、その結果として観察者は、定規仮想物体510の位置や姿勢を器具302でもって操作することができる。
一方、500は簡易試作物300に重畳させる仮想物体で、この仮想物体500の位置姿勢は簡易試作物300に備わっている磁気レシーバ202が計測した位置姿勢である。
よって、操作者は簡易試作物300、器具302のそれぞれを手に持ち、仮想物体500の任意の部分を見たければ、簡易試作物300を回転/移動させてその部分をカメラ側に向ければよいし、任意の部分の距離や寸法を測定したい場合には、その部分に器具302を近づければ、観察者には、測定対象部分の近傍に定規の仮想物体が見えることになり、その結果、測定対象部分の距離や寸法を測定する事ができる。なお、測定するのが距離や寸法ではなく、角度である場合もある。その場合には、定規の仮想物体ではなく、分度器の仮想物体を用いれば良い。このように、測定器具は何であっても、表示すべき仮想物体のモデルが異なるのみで、コンピュータ400が行うべき処理は変わらない。また、コンピュータ400に備わっている操作部2204等を用いて、測定器具の仮想物体を切り替えるようにしても良い。
また、測定対象の仮想物体の数を複数にしても、それぞれの測定対象の仮想物体に対応する簡易試作物を用意し、それぞれの簡易試作物に磁気レシーバを装着し、コンピュータ400がそれぞれの磁気レシーバが計測した結果を得れば、後は、それぞれの簡易試作物について上記「簡易試作物300に重畳表示すべき仮想物体の生成、表示処理」と同様の処理を行えばよい。
このように、測定器具を仮想物体とするが故に、この測定器具が現実物体によって覆い隠されることがなくなる。これは、仮想物体の画像が、現実空間の画像上に重畳されることに起因する。
なお、本実施形態では、センサとして磁気センサを用いたが、超音波センサなど、他のタイプのセンサを用いても良いことはいうまでもない。
[第2の実施形態]
第1の実施形態では、観察者は一方の手で簡易試作物300を持ち、他方の手で器具302を持っていたが、観察者のシステムに対する熟練度によっては、仮想物体の所望の測定部位に定規を正確に一致させることが困難な場合が発生する。
第1の実施形態では、観察者は一方の手で簡易試作物300を持ち、他方の手で器具302を持っていたが、観察者のシステムに対する熟練度によっては、仮想物体の所望の測定部位に定規を正確に一致させることが困難な場合が発生する。
そこで本実施形態では、仮想空間における定規の位置を固定する。換言すれば、センサ座標系における定規の位置を固定する。
図18は、本実施形態に係るシステムの外観を示す図である。図1と同じ部分については同じ番号を付けており、その説明は省略する。本実施形態に係るシステムの構成は、第1の実施形態に係るシステムにおいて器具302、磁気レシーバ203の代わりに、スタイラス303を用いた点が、第1の実施形態とは異なる。スタイラス303には、磁気レシーバ203と同様の機能を有する磁気レシーバと、ボタンが備わっており、この磁気レシーバによる計測結果(スタイラス303のセンサ座標系における位置姿勢を示す信号)、ボタンの押下を示す信号はそれぞれ位置姿勢計測装置205を介してコンピュータ400に入力される。
このスタイラス303は、第1の実施形態における器具302と同様の目的、即ち、定規仮想物体の位置や姿勢を操作するために操作者が操作するものであり、その位置や姿勢を変更すると、その変化はこのスタイラス303に備わっている磁気レシーバによって計測され、第1の実施形態における磁気レシーバと同様に、コンピュータ400に送信される。
定規仮想物体の仮想空間における配置位置は第1の実施形態と同様に、スタイラス303の位置(スタイラス303に備わっている磁気レシーバの位置)から所定の距離だけ離間した位置に配置するようにしても良いし、これに限定するものではない。
また、スタイラス303に備わっているボタンは、後述するモードの切り替えに使用するものであり、押下する毎にモードが切り替わる。
図6は、本実施形態に係るコンピュータ400の機能構成を示す図である。本実施形態では、同図に示した各部はソフトウェアでもって構成されたものとして説明するが、各部の一部、もしくは全部をハードウェアでもって構成するようにしても良い。また、同図において図3と同じ部分については同じ番号を付けており、その説明は省略する。本実施形態に係るコンピュータ400の機能構成は、第1の実施形態の構成にモード選択部410が加わった構成となる。
このモード選択部410は、スタイラス303に備わっているボタンの押下を検知する毎に、モードを切り替える処理を行う。切り替えるモードは本実施形態では「通常モード」と「固定モード」の2つとする。
次に、本実施形態に係る、観察者の右目、左目に対して、それぞれの位置姿勢に応じて見える複合現実空間の画像を提示する為の処理について、同処理の手順を示す図7を参照して説明する。なお、図7において、図4に示した処理と同じ部分については同じ番号を付けており、その説明は省略する。ただし本実施形態では、処理2025の代わりに処理2026を行い、処理2026では、スタイラス303に備わっている磁気レシーバにより、自身のセンサ座標系における位置姿勢を計測し、処理2030で、位置姿勢計測装置205は、センサ座標系におけるこの磁気レシーバの位置姿勢(スタイラス303の位置姿勢)を示すデータをコンピュータ400に出力する。
ここで、位置姿勢入力部404は、通常モードで位置姿勢計測装置205から最後に受信した計測値をRAM2202に保持させる処理を行い、モード選択部404でもって設定した現在のモードに応じて、スタイラス303の位置姿勢として位置姿勢算出部405に出力するべきデータを切り替える(2050)。
現在のモードが通常モードである場合には、位置姿勢入力部404は、第1の実施形態と同様に、位置姿勢計測装置205から受けた「スタイラス303の位置姿勢」をそのまま位置姿勢算出部405に送出する。
一方、現在のモードが固定モードである場合には、位置姿勢入力部404は、RAM2202に保持させた「通常モードで位置姿勢計測装置205から最後に受信したスタイラス303の位置姿勢」を読み出し、位置姿勢算出部405に送出する。
よって、観察者は測定対象の物体の任意の部分の測定を行いたい場合には、先ずスタイラス303に備わっているボタンを押下して通常モードを指示し、定規仮想物体の目盛りの面が観察者に見えるように、スタイラス303の位置姿勢を操作する。そしてその状態で、今度はスタイラス303に備わっているボタンを押下して固定モードを指示すると、今度はスタイラス303を動かしても定規仮想物体の位置姿勢は変化しないので、このスタイラス303をどこかにおいても良い。即ち観察者の片手は空くことになる。
そこで、観察者は測定対象の物体における任意の部分を定規仮想物体に近づけ、この部分の測定を行う。この近づける動作は両手を用いて行うことができるので、より正確に測定対象の物体を近づける動作を行うことができる。
なお、本実施形態ではモードの切り替えによって定規仮想物体の位置姿勢を移動させたり固定させたりしているが、予め定規仮想物体を所定の位置姿勢に固定するようにしても良い。その場合には、スタイラス303、モード選択部410は必要がない。
ここで、上記処理を行うことで、表示装置(101a、101b)に表示される複合現実空間の画像について説明する。図8(a)は、カメラ(102a、102b)から得られる現実空間の画像の表示例を示す図である。同図に示す如く、カメラにより撮像された簡易試作物300、スタイラス303が現実空間の画像に含められている。以下、図8(a)、(b)、(c)において図5と同じ部分については同じ番号を付けており、その説明を省略する。
一方、図8(b)は図4に示した各処理を通常モードで実行することで、表示装置の表示画面上に表示される表示例を示す図である。定規仮想物体510は、第1の実施形態と同様に、スタイラス303に備わっている磁気レシーバの位置から所定の距離だけ離間した位置に目盛り512の「0」が位置するように、且つスタイラス303の長手方向に目盛りが配列されるように、定規仮想物体510を配置する。上述の通り、このスタイラス303は操作者が手に持ってその位置や姿勢を変化させることができ、スタイラス303に備わっている磁気レシーバはこの変化を計測し、そして定規仮想物体510は、この計測結果に基づいて配置されるので、その結果として観察者は、定規仮想物体510の位置や姿勢をスタイラス303でもって操作することができる。
また、図8(c)は図4に示した各処理を固定モードで実行することで、表示装置の表示画面上に表示される表示例を示す図である。同図に示す如く、定規仮想物体510の位置、姿勢は、通常モードにおける最後の定規仮想物体510の位置姿勢で固定される。
また、本実施形態においても、測定するのが距離や寸法ではなく、角度である場合、定規の仮想物体ではなく、分度器の仮想物体を用いれば良いし、コンピュータ400が行うべき処理は変わらない。また、コンピュータ400に備わっている操作部2204等を用いて、測定器具の仮想物体を切り替えるようにしても良い。
また、本実施形態においても第1の実施形態と同様に、測定対象の仮想物体の数を複数にしても良いことはいうまでもない。
なお、本実施形態においてもセンサとして磁気センサを用いたが、超音波センサなど、他のタイプのセンサを用いても良いことはいうまでもない。
以上説明したように、本実施形態では、定規仮想物体を空間中の任意の位置、姿勢に固定設置することで、ユーザが定規仮想物体の位置姿勢を保持することを不要にし、測定対象の2点に定規仮想物体を合わせることを容易にする効果が得られる。
なお、本実施形態ではモードの切り替えをスタイラス303に備わっているボタンでもって行ったが、これに限定するものではなく、例えば操作部2204に含まれるキーボードの所定のボタンの押下、マウスのボタンのクリックなどによりモードを切り替えるようにしても良い。その場合には、この操作部2204からの押下信号はモード選択部410に入力されることになる。
また、以上の説明では、定規仮想物体と仮想物体500との衝突判定については考慮していないが、仮想物体500を優先的に表示する(常に仮想物体500を手前に表示する)ようにすれば、現実世界ではノギスを使わなくては測定不可能であった物体の表裏にまたがった2点間の距離を測定することが可能である。これは第1の実施形態についても同様である。
[第3の実施形態]
上記第1,2の実施形態では、現実世界ではノギスを使わなくては測定不可能であった物体の表裏の2点間を測定することが可能な例を示した。しかしこのような場合、定規仮想物体510、簡易試作物300(仮想物体500)、視点、のそれぞれの位置姿勢関係によっては、定規仮想物体510と簡易試作物300(仮想物体500)との交点(即ち、直線のモデル519と簡易試作物300との交点)における仮想定規目盛512を読み取ることに困難な場合が発生する。
上記第1,2の実施形態では、現実世界ではノギスを使わなくては測定不可能であった物体の表裏の2点間を測定することが可能な例を示した。しかしこのような場合、定規仮想物体510、簡易試作物300(仮想物体500)、視点、のそれぞれの位置姿勢関係によっては、定規仮想物体510と簡易試作物300(仮想物体500)との交点(即ち、直線のモデル519と簡易試作物300との交点)における仮想定規目盛512を読み取ることに困難な場合が発生する。
本実施形態では、定規仮想物体510と簡易試作物300との交点に仮想定規目盛512の値を表示することで、測定のための読み取りを容易にする。
本実施形態に係るシステムの外観については第1,2の実施形態の何れと同じでも良いが、以下の説明では第2の実施形態と同じであるとする。即ち、以下の説明の本質は、定規仮想物体510の位置姿勢を操作する手段が器具302であっても、スタイラス303であっても同じであるので、本実施形態に係るシステムの外観については第1,2の実施形態の何れと同じでも良い。
図9は、本実施形態に係るコンピュータ400の機能構成を示す図である。本実施形態では、同図に示した各部はソフトウェアでもって構成されたものとして説明するが、各部の一部、もしくは全部をハードウェアでもって構成するようにしても良い。また、同図において図6と同じ部分については同じ番号を付けており、その説明は省略する。本実施形態に係るコンピュータ400の機能構成は、第2の実施形態の構成に交点算出部420が加わった構成となる。
しかし上述の通り、以下の説明の本質は、定規仮想物体510の位置姿勢を操作する手段が器具302であっても、スタイラス303であっても同じであるので、コンピュータ400の機能構成についても第1の実施形態におけるコンピュータ400の機能構成に交点算出部420を加えるようにしても良い。
この交点算出部420は、定規仮想物体510を構成する直線のモデル519と仮想物体500との交点を求める処理を行う。この交点を求める方法としては、例えば、仮想物体500がポリゴンモデルである場合には、各ポリゴンとモデル519が示す直線との交点判定処理を行う。ポリゴンと直線との交点を求める方法については周知の技術であるので、これについての詳細な説明は省略する。
そして直線のモデル519上の交点の位置が分かれば、その交点の位置に対応する目盛り(測定値)を決定する処理を行う。これは例えば直線のモデル519の一端(「0」の目盛りを示すモデル)の座標位置をP0,他端(定規仮想物体510の目盛りが「30」まで付けられている場合には「30」の目盛りを示すモデル)の座標位置をP30、求めた交点をPcとすると、求めるべき目盛りの値mは、以下の式に従って求めることができる。
よって、交点算出部420は、目盛りの値mを示すデータと、交点Pcのデータとを後段のCGレンダリング部407に出力する。CGレンダリング部407は、上記実施形態と同様にして仮想物体の画像を生成すると共に、交点Pcの位置近傍に、目盛りの値mを観察者に報知するための仮想物体(交点報知仮想物体)を配置し、この交点報知仮想物体を観察者の視点から見た場合の画像を生成する。
即ち、本実施形態では、CGレンダリング部407は観察者の視点から見た定規仮想物体510、仮想物体500、交点報知仮想物体の画像を生成することになる。
即ち、本実施形態では、CGレンダリング部407は観察者の視点から見た定規仮想物体510、仮想物体500、交点報知仮想物体の画像を生成することになる。
次に、本実施形態に係る、観察者の右目、左目に対して、それぞれの位置姿勢に応じて見える複合現実空間の画像を提示する為の処理について、同処理の手順を示す図10を参照して説明する。なお、図10において、図7に示した処理と同じ部分については同じ番号を付けており、その説明は省略する。
本実施形態では、第2の実施形態における処理に加えて、交点算出部420による上記交点を求める処理、求めた交点に対応する目盛りを求める処理を行う(2035)。そして処理2040では、第2の実施形態と同様に、定規仮想物体510、仮想物体500のレンダリング処理を行うと共に、交点報知仮想物体のレンダリング処理を行う。
ここで、上記処理を行うことで、表示装置(101a、101b)に表示される複合現実空間の画像について説明する。図11(a)は、交点報知仮想物体を表示せずに、定規仮想物体510と仮想物体500との表示例を示す図である。同図に示す如く、表示装置の表示画面上には上記処理で生成した仮想物体500の映像、及び定規仮想物体510の映像が表示されている。以下、図11(a)、(b)において図8と同じ部分については同じ番号を付けており、その説明を省略する。
一方、図11(b)は、図11(a)に示した表示に加えて、交点位置近傍に交点報知仮想物体を配置した場合の表示例を示す図である。同図では交点601,602の位置近傍に交点報知仮想物体701,702が配置されている。なお、同図では、交点601の位置に基づく目盛りの値mは1.4で、交点602の位置に基づく目盛りの値mは4.2である。
ここで、交点位置の目盛りの値を報知する以外に、目盛り間の距離、即ち、寸法を報知しても良い。その場合には、求めた目盛り間の差分を計算し、それを報知するための報知仮想物体を仮想物体500近傍位置に配置するようにすれば良い。その場合、目盛り間の距離の計算は交点算出部420が行い、その計算結果をCGレンダリング部407に通知する。CGレンダリング部407は通知された距離を示す報知仮想物体を生成し、仮想物体500近傍位置に配置する。これ以降の処理は上記処理と同じであるので説明は省略する。
図12は、図11(a)に示した表示に加えて、目盛り間(交点601の位置の目盛りと交点602の位置の目盛りとの間)の距離を報知する報知仮想物体を交点602の位置に配置した場合の表示例を示す図である。同図の場合、交点算出部420は、交点601の位置の目盛り「1.4」と交点602の位置の目盛り「4.2」との間の距離「2.8」を求め、これをCGレンダリング部407に通知する。CGレンダリング部407はこの「4.2」の数値データを受け、例えば一枚ポリゴンに「4.2」の数字が記載されたテクスチャを張り付けることで報知仮想物体を生成し、交点602の位置にこの報知仮想物体1201を配置する。そして以降の処理は上記実施形態と同様に行うことで、表示装置の表示画面上には、同図に示す如く表示画面が表示される。
また、交点の位置を強調表示するようにしても良い。図13は、その強調表示の例を示す図で、図13(a)は交点位置に球体1301を配置することで交点位置を強調した表示例を示す図で、図13(b)は交点位置に線分1302を通過させるように配置したことにより交点位置を強調した表示例を示す図である。このようにすることで、交点位置を強調することができる。なお、交点位置の強調方法はこれに限定するものではなく、様々な形態が考えられる。例えば、球体1301の色を仮想物体500の色の補色となるような色にするようにしても良いし、時間軸方向にその色を変化させるようにしても良い。これは線分1302についても同様である。
また、定規仮想物体510と仮想物体500との交点が求まったか否かに応じて、定規仮想物体510の色を変化させるようにしても良い。
図14は、その色の変化について説明する図で、図14(a)は、交点が求まっていない(即ち交点が存在しない)場合の、表示装置の表示画面上における表示例を示す図で、同図に示す如く、この表示画面には定規仮想物体510と仮想物体500とが表示されており、且つ定規仮想物体510については上記実施形態と同様に表示している。図14(b)は、交点が求まった(即ち交点が存在する)場合の、表示装置の表示画面上における表示例を示す図で、同図に示す如く、この表示画面には定規仮想物体510と仮想物体500とが表示されており、且つ定規仮想物体510については透明色で表示している。即ち、定規仮想物体510を構成する目盛りのモデル512、直線のモデル519を透明色に表示している。モデルを透明色に表示する為には、例えばこれらのモデルがポリゴンモデルである場合には、ポリゴン色に対するα値を下げれば良く、その方法については特に限定するものではない。また同図では球体1301の表示により交点位置を強調しているが、これに限定するものではない。このように、交点が存在する場合に、定規仮想物体510を透明色にすることで、交点位置が見やすくなる。
また、定規仮想物体510と仮想物体500との交点が求まったか否かに応じて変化させる定規仮想物体510の色については上記説明のように限定するものではない。
このように、定規仮想物体510と仮想物体500との交点が求まったか否かに応じて定規仮想物体510の色を変化させることで、観察者は交点が存在するか否かを認識しやすくなる。
また、本実施形態で説明した各種の技術を適宜組み合わせるようにしても良い。
以上説明したように、本実施形態では、仮想物体と簡易試作物との交点位置における目盛の値を画面中に表示することで、ユーザが計測時に値を読み取ることを容易にしている。また交点の表示を特別なものにすることで、測定対象の2点が正しく指定されているのか一目でわかるようにする効果が得られる。
[第4の実施形態]
第1乃至3の実施形態では、定規仮想物体510の目盛の間隔は一定であったため、ユーザの視点位置と定規仮想物体510との距離が遠くなったり、定規仮想物体510の長手方向とユーザの視線との成す角度が平行に近くなったりすると、表示装置の表示画面上において目盛同士の間隔が無くなりつぶれて表示されることが発生する。
第1乃至3の実施形態では、定規仮想物体510の目盛の間隔は一定であったため、ユーザの視点位置と定規仮想物体510との距離が遠くなったり、定規仮想物体510の長手方向とユーザの視線との成す角度が平行に近くなったりすると、表示装置の表示画面上において目盛同士の間隔が無くなりつぶれて表示されることが発生する。
よって本実施形態ではこのような問題に鑑み、視点と定規仮想物体510との位置姿勢関係に応じて、定規仮想物体510の目盛りの間隔や単位系を適宜変更する。
本実施形態に係るシステムの外観については第1乃至3の実施形態の何れと同じでも良いが、以下の説明では第3の実施形態と同じであるとする。即ち、以下の説明の本質は、定規仮想物体510の位置姿勢を操作する手段が器具302であっても、スタイラス303であっても同じであるので、本実施形態に係るシステムの外観については第1乃至3の実施形態の何れと同じでも良い。
図15は、本実施形態に係るコンピュータ400の機能構成を示す図である。本実施形態では、同図に示した各部はソフトウェアでもって構成されたものとして説明するが、各部の一部、もしくは全部をハードウェアでもって構成するようにしても良い。また、同図において図9と同じ部分については同じ番号を付けており、その説明は省略する。本実施形態に係るコンピュータ400の機能構成は、第3の実施形態の構成に目盛り制御部450が加わった構成となる。
しかし上述の通り、以下の説明の本質は、定規仮想物体510の位置姿勢を操作する手段が器具302であっても、スタイラス303であっても同じであるので、コンピュータ400の機能構成についても第1の実施形態におけるコンピュータ400の機能構成や第2の実施形態におけるコンピュータ400の機能構成に交点算出部420を加えるようにしても良い。
目盛り制御部450は、位置姿勢算出部405により得られる、視点の位置姿勢と、定規仮想物体510の位置姿勢の関係によって、定規仮想物体510を構成する目盛りのモデル512の間隔、及び目盛りの単位系の計算を行う。その計算結果はCGレンダリング部407に出力される。
本実施形態に係る、観察者の右目、左目に対して、それぞれの位置姿勢に応じて見える複合現実空間の画像を提示する為の処理について、同処理の手順を示す図16を参照して説明する。なお、図16において、図10に示した処理と同じ部分については同じ番号を付けており、その説明は省略する。
本実施形態では、第3の実施形態における処理に加えて、目盛り制御部450による目盛り制御処理を行う(2037)。より具体的には、表示装置の表示画面上における定規仮想物体510の長さを計算し、この長さにおいて目盛りがつぶれて見えないように目盛単位系、目盛数、目盛間隔を計算する。例えば、画面上で最低限必要な目盛間隔のピクセル数を予め求めておき、定規仮想物体510の長さのピクセル数を最低限必要な目盛間隔のピクセル数で除算して目盛数を決定したり、目盛数が予め所定数(予め求めておく数)以上の場合には、1つ大きな単位系(たとえばmmをcm)にして目盛数を再計算したりすればよい。
また、その他の方法としては、予め視点と定規仮想物体510との距離を10段階に分け、各段階における目盛り間隔を決めておく。そして実際に位置姿勢算出部405により得られる視点と定規仮想物体510との距離が上記10段階の何れの段階であるのかを特定し、特定した段階に応じた目盛り間隔で目盛りのモデル512を直線のモデル519上に配置する。当然、間隔が大きいと、配列する目盛りのモデル512の数も少なくなる。そして、その間隔に目盛りを取った場合の各目盛りの値を第3の実施形態で説明したようにして求める。
また、予め視点と定規仮想物体510との姿勢の差を10段階に分け、各段階における目盛り間隔を決めておく。そして実際に位置姿勢算出部405により得られる視点と定規仮想物体510との姿勢差が上記10段階の何れの段階であるのかを特定し、特定した段階に応じた目盛り間隔で目盛りのモデル512を直線のモデル519上に配置する。当然、間隔が大きいと、配列する目盛りのモデル512の数も少なくなる。そして、その間隔に目盛りを取った場合の各目盛りの値を第3の実施形態で説明したようにして求める。
そして目盛り制御部450は、このようにして決定した間隔を示すデータをCGレンダリング部407に送出する。CGレンダリング部407は目盛り制御部450から受けた間隔を示すデータを用いて、その間隔で直線のモデル519上に目盛りのモデル512を配列し、定規仮想物体510を生成する。
このように、視点と定規仮想物体510との位置姿勢関係に応じて目盛りの間隔を変更することで、常に目盛りが見やすい定規仮想物体510を生成することができる。
そして処理2040では、第3の実施形態と同様に、定規仮想物体510、仮想物体500のレンダリング処理を行うと共に、交点報知仮想物体のレンダリング処理を行う。
ここで、上記処理を行うことで、表示装置(101a、101b)に表示される複合現実空間の画像について説明する。図17(a)は、視点の位置が定規仮想物体510の位置に比較的近い位置にある場合に表示装置の表示画面上に表示される表示例を示す図である。同図に示す如く、「0」、「1」、「2」、「3」、、、の各目盛りのモデル512が直線のモデル519上に配列されている。即ち、目盛り間の間隔が「1」である。
図17(b)は、視点の位置と定規仮想物体510の位置との間の距離がより遠くなった場合に表示装置の表示画面上に表示される表示例を示す図である。同図に示す如く、「0」、「2」、「4」、、の各目盛りのモデル512が直線のモデル519上に配列されている。即ち、目盛り間の間隔が「2」である。
図17(c)は、視点の姿勢(即ち視線方向)と定規仮想物体510の姿勢とが、互いに平行に近い場合に表示装置の表示画面上に表示される表示例を示す図である。
以上説明したように、本実施形態では定規仮想物体510と視点との位置姿勢関係を考慮して目盛の数、間隔、単位系を調整することによって、定規仮想物体510の目盛りのつぶれの防止する効果が得られる。
[第5の実施形態]
本実施形態では、定規仮想物体510でもって仮想物体500を測定する別の方法について説明する。
本実施形態では、定規仮想物体510でもって仮想物体500を測定する別の方法について説明する。
尚、本実施形態に係るシステムの外観については第2の実施形態と同じ、即ち、図18に示した外観を備える。
図19は、本実施形態に係るコンピュータ400の機能構成を示すブロック図である。本実施形態に係るコンピュータ400の機能構成については、第4の実施形態に係るものと基本的には同じであるが、モード選択部における動作が異なると共に、位置姿勢算出部405による定規仮想物体510の位置姿勢の取り扱いが異なる。
先ず、このモード選択部1901について説明する。モード選択部1901は、スタイラス303に備わっているボタンの押下を検知すると、検知する毎にモードを切り替える。本実施形態ではこのモードには3種類あり、通常モード、位置固定モード、位置姿勢固定モードである。位置固定モードと位置姿勢固定モードは定規仮想物体510と仮想物体500との交点が存在する場合のみ利用可能なモードで、交点が存在しない場合はこれらのモードへの切り替えは行われない。
次に、各モードについて説明する。
通常モードは第2の実施形態と同様なものであり、このモードの場合、位置姿勢入力部404は、第1の実施形態と同様に、位置姿勢計測装置205から受けた「スタイラス303の位置姿勢」をそのまま位置姿勢算出部405に送出する。
位置固定モードは定規仮想物体510と仮想物体500との交点のうち1つの交点で定規仮想物体510の位置を固定するモードである。このモードでは、定規仮想物体510はこの交点において仮想物体500に拘束され、仮想物体500に対する姿勢のみをスタイラス303で操作することができる。具体的な操作としては、定規仮想物体510の自由端の空間中における位置をスタイラス330で制御することで実現される。
位置姿勢固定モードは定規仮想物体510と仮想物体500との2つの交点で定規仮想物体510の位置姿勢を固定するモードである。このモードでは定規仮想物体510を単独で操作することはできない。
モード選択部1901は、このような3つのモードのうち現在選択されているモードを示すデータを位置姿勢算出部405に出力する。位置姿勢算出部405は、モード選択部1901から受けたモードデータに基づいて、定規仮想物体510の位置姿勢を制御する。
次に、本実施形態に係る、観察者の右目、左目に対して、それぞれの位置姿勢に応じて見える複合現実空間の画像を提示する為の処理について、同処理の手順を示す図20を参照して説明する。なお、図20において、図16に示した処理と同じ部分については同じ番号を付けており、その説明は省略する。
同図に示した処理の手順は、図16に示した処理手順において処理2030を処理2900とした点、そしてモード設定の結果は処理2026ではなく、処理2900で参酌する点が異なる。なお処理2900では処理2030に加えて、上記モードに応じて定規仮想物体510の位置姿勢を制御する処理を行う。以下、処理2900について説明する。
処理2900では、先ず、位置姿勢算出部405は上記モードを示すデータを受け、このデータを参照して現在のモードが通常モード、位置固定モード、位置姿勢固定モードの何れであるのかを判断する。
そして通常モードである場合、位置姿勢計算部405は、位置姿勢情報入力部404から入力したスタイラス303の位置姿勢をそのままCGレンダリング部407に送出する。即ち、通常モードである場合には第3の実施形態と同じである。またこのとき交点算出部420は動作しない。
一方、位置固定モードである場合、位置姿勢算出部405は、位置姿勢情報入力部404から入力したスタイラス303の位置姿勢を交点算出部420に出力する。交点算出部420は上述の通り、定規仮想物体510と仮想物体500との交点を求める処理を行う。そして、求めた交点のうち、視点の位置に最も距離的に近い交点(固定点1)の位置を特定する。
また、このときの定規仮想物体510の姿勢に関しては、定規仮想物体510の長手方向がこの固定点1とスタイラス303の位置とを結ぶ線分と平行になるような姿勢である。このような姿勢は、交点算出部420によって求める。
よって、定規仮想物体510は、固定点1の位置を軸に、この固定点1とスタイラス303の位置とを結ぶ線分と平行になるような姿勢(指示姿勢)に変更した状態で配置することになる。
よって交点算出部420は、固定点1の位置データ、及び指示姿勢のデータを、位置姿勢算出部405に出力する。位置姿勢算出部405は、このような位置データ、指示姿勢のデータを受け、固定点1の位置を軸に指示姿勢になるように定規仮想物体510を回転させる。これにより、定規仮想物体510の位置姿勢が決定する。即ち、スタイラス303の位置と固定点1とを結ぶ線分上には定規仮想物体510が位置することになる。
よって観察者は、スタイラス303でもって定規仮想物体510の姿勢を操作することができる。その場合、定規仮想物体510の姿勢は固定点1を軸にして変化することになる。また、位置姿勢算出部405は、現在の仮想物体500の位置姿勢データ、定規仮想物体510の位置姿勢データをRAM2202に記録する処理を行う。
また、位置姿勢固定モードである場合、位置姿勢算出部405は仮想物体500と定規仮想物体510との位置姿勢関係を固定する。即ち、上記RAM2202に記録したそれぞれの位置姿勢データを用いて仮想物体500の位置姿勢を基準とした定規仮想物体510の位置姿勢(相対位置姿勢)を求め、そして位置姿勢固定モードにおける定規仮想物体510の位置姿勢は、現在の仮想物体500の位置姿勢にこの相対位置姿勢を加算した結果を用いるものとする。これにより、仮想物体500と定規仮想物体510との位置姿勢関係は固定される。なお、位置姿勢固定モードでは、RAM2202への位置姿勢データの記録は行わない。
ここで、上記処理を行うことで、表示装置(101a、101b)に表示される複合現実空間の画像について図21を用いて説明する。
図21(a)は、通常モードにおいて、仮想物体2100の測定したい2点のうち一方の点が交点となるように、仮想物体2100と定規仮想物体2101(同図では定規の直線部分(直線のモデル519に相当)のみを示している)の位置姿勢を操作している際に表示装置の表示画面上に表示される表示例を示す図である。
同図に示す如く、仮想物体2100と定規仮想物体2101とは2つの交点を有しており、一方の交点(後述の交点2)における目盛りの値は「2.6」であるので、この目盛りの値を報知するための報知仮想物体2102がこの一方の交点の位置近傍に配置されている。また、他方の交点(同図では交点1)における目盛りの値は「1.4」であるので、この目盛りの値を報知するための報知仮想物体2103がこの一方の交点の位置近傍に配置されている。
図21(b)は、通常モードにおいて、仮想物体2100の測定したい2点のうち一方の点が交点となるように、仮想物体2100と定規仮想物体2101(同図では定規の直線部分(直線のモデル519に相当)のみを示している)の位置姿勢を操作した後に、1つの固定点を位置固定モードでもって固定した際の表示装置の表示画面上に表示される表示例を示す図である。
ここで、測定したい2点のうち一方が交点1であるとすると、位置固定モードを選択すれば、この仮想物体2100は以降、交点1で拘束されることになる。また、スタイラス303は、定規仮想物体2101の一端の位置を操作することができるようになり、これにより、定規仮想物体2101の姿勢を交点1を軸として制御することができる。
図21(c)は、位置固定モードにおいて、仮想物体2100の測定したい2点のうち他方の点が交点となるように、仮想物体2100と定規仮想物体2101(同図では定規の直線部分(直線のモデル519に相当)のみを示している)の位置姿勢を操作している際に表示装置の表示画面上に表示される表示例を示す図である。
スタイラス303でもって定規仮想物体2101の一端の位置を操作することにより、定規仮想物体2101の姿勢を交点1を軸として制御することができる。同図では、測定したい2点のうち他方の点を交点2’とすべく操作している。また同図では、交点2’における目盛りの値は「2.0」であるので、この目盛りの値を報知するための報知仮想物体2105がこの一方の交点の位置近傍に配置されている。
図21(d)は、位置固定モードにおいて、仮想物体2100の測定したい2点のうち他方の点が交点となるように、仮想物体2100と定規仮想物体2101(同図では定規の直線部分(直線のモデル519に相当)のみを示している)の位置姿勢を操作した後に、定規仮想物体2101と仮想物体2100との位置姿勢関係を固定した際の表示装置の表示画面上に表示される表示例を示す図である。
ここで、測定したい2点のうち他方が交点2であるとすると、位置姿勢固定モードを選択すれば、この仮想物体2100は以降、更に交点2で拘束されることになる。即ち、定規仮想物体2101と仮想物体2100との相対位置姿勢関係を固定したことになる。
これにより、仮想物体2100の位置姿勢を自由に変更して指定した2点が仮想物体2100上の正しい位置にあることをゆっくりと確かめたり、目盛の値を固定して読み取ったりすることが可能となる。
以上説明したように、本実施形態では上記各モードにおける操作によって、ユーザが簡易試作物上の距離計測対象点指定を容易にすることが可能となる。さらにユーザの定規仮想物体や簡易試作物の保持の手間を軽減することが達成できる。
[第6の実施形態]
簡易試作物300は最終的な製品や部品と同じ大きさ(実寸大)であることが望ましいが、実寸大ではユーザが手で持って扱うことが不可能なほど巨大もしくは微小な大きさであることも想定される。このような場合、簡易試作物300はユーザが扱える縮尺で作成すると同時に簡易試作物300の縮尺に合わせて定規仮想物体510の縮尺を変更して、正しく測定を行えるようにする。
簡易試作物300は最終的な製品や部品と同じ大きさ(実寸大)であることが望ましいが、実寸大ではユーザが手で持って扱うことが不可能なほど巨大もしくは微小な大きさであることも想定される。このような場合、簡易試作物300はユーザが扱える縮尺で作成すると同時に簡易試作物300の縮尺に合わせて定規仮想物体510の縮尺を変更して、正しく測定を行えるようにする。
本実施形態が適用可能なシステムの構成については上記実施形態の何れであっても良いのであるが、何れの場合にも、簡易試作物300に対する縮尺を示すパラメータを予めコンピュータ400のRAM2202に保持させておき、この縮尺に応じて定規仮想物体510の各目盛りの値を計算する。
例えば縮尺を示すパラメータが「1センチが1メートル」を示すものである場合には、目盛りは1センチ毎に「1メートル」、「2メートル」、、、を示す目盛りを直線のモデル519上に配置する。
以上説明したように、本実施形態では簡易試作物300(仮想物体500)、定規仮想物体510を同じ縮尺値で扱うようにすることで、実寸大の簡易試作物が手で持って扱えないほど巨大、微小であった場合でもシステムの利便性を損なわずに正しい測定が行えるようにすることを可能とした。
尚、上記各実施形態では、HMDとしてビデオシースルータイプのものを用いて説明したが、光学シースルー型のものを用いても良く、その場合、上記説明において、現実空間の映像を取り込む処理、及び仮想物体の映像と現実空間の映像との合成処理は行わず、表示装置に出力すべき映像は仮想物体の映像のみとなる。
また、定規仮想物体をの位置や姿勢を操作するための手段については器具302、スタイラス303に限定するものはなく、様々なものが考えられる。またそれに応じて、モードの切り替えなどの操作方法についても操作手段に応じて様々なものが考えられる。
また、上記各実施形態では、定規仮想物体510は直線のモデル519とその直線上に配列される目盛りのモデル512とで構成されるとして説明したが、その構成については限定するものではなく、各目盛りの位置が把握できるのであれば、透明のポリゴンにメモリのついたテクスチャを張り付けたものを定規仮想物体510として用いるようにしても良い。
[その他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、カメラのCPUやMPUが記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、カメラのCPUやMPUが記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、カメラが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、カメラ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、カメラに挿入された機能拡張カードやカメラに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャート(機能構成)に対応するプログラムコードが格納されることになる。
Claims (15)
- 現実空間に仮想物体の画像を合成して観察者に提示する画像処理方法であって、
観察者視点からの現実画像を入力する現実画像入力工程と、
前記観察者視点の位置姿勢、前記現実画像に含まれる第1の現実物体の位置姿勢および前記現実画像に含まれる第2の現実物体の位置姿勢を取得する取得工程と、
前記第1の現実物体に対応する第1の仮想物体の画像を前記観察者視点の位置姿勢と前記第1の現実物体の位置姿勢に基づいて生成するとともに、仮想空間内で前記第1の仮想物体を計測するための第2の仮想物体の画像を前記観察者視点の位置姿勢と前記第2の現実物体の位置姿勢に基づいて生成する画像生成工程と、
前記現実画像、前記第1の仮想物体画像および前記第2の仮想物体画像とを合成して出力する出力工程と
を備えることを特徴とする画像処理方法。 - 前記画像生成工程は、第2の現実物体の位置から所定距離だけ離間した位置に第2の仮想物体の画像を生成する請求項1に記載の画像処理方法。
- 仮想空間内で前記第2の仮想物体画像を固定するか否かを指示する指示工程を有し、前記指示工程によって前記第2の仮想物体画像の固定が指示される場合には、前記画像生成工程は、第2の現実物体の位置姿勢に関わらない固定された前記第2の仮想物体画像を生成する請求項1または2に記載の画像処理方法。
- 仮想空間内で前記第1の仮想物体と前記第2の仮想物体が交わる場合に、前記第1の仮想物体と前記第2の仮想物体との交点を求める交点計算工程を有することを特徴とする請求項1ないし3のいずれか1つに記載の画像処理方法。
- 前記画像生成工程は、前記交点計算工程によって求めた交点位置を強調表示するための仮想物体を生成することを特徴とする請求項4に記載の画像処理方法。
- 前記画像生成工程は、前記交点位置を強調表示するための仮想物体は前記第1の仮想物体の色と異なる色に設定されることを特徴とする請求項5に記載の画像処理方法。
- 前記画像生成工程は、仮想空間内で前記第1の仮想物体と前記第2の仮想物体が交わる場合に、前記第2の仮想物体の色を透明色に変更することを特徴とする請求項1ないし3のいずれか1つに記載の画像処理方法。
- 前記第2の仮想物体は第1の仮想物体を計測可能な仮想計測器具であることを特徴とする請求項1ないし7のいずれか1つに記載の画像処理方法。
- 前記第2の仮想物体は仮想定規であって、仮想空間内で前記第1の仮想物体と前記仮想定規が交わる場合に、前記第1の仮想物体と前記仮想定規との交点を求める交点計算工程を有し、前記画像生成工程は前記交点計算工程によって求めた交点位置に前記仮想定規の計測値を前記観察者に提示するための仮想物体を生成することを特徴とする請求項1ないし3のいずれか1つに記載の画像処理方法。
- 前記第2の仮想物体は仮想定規であって、仮想空間内で前記第1の仮想物体と前記仮想定規が交わる場合に、前記第1の仮想物体と前記仮想定規との交点を求める交点計算工程を有し、前記画像生成工程は前記交点計算工程によって求めた交点位置間の前記仮想定規の計測値を前記観察者に提示するための仮想物体を生成することを特徴とする請求項1ないし3のいずれか1つに記載の画像処理方法。
- 仮想空間内で前記第1の仮想物体と前記第2の仮想物体が交わる場合に、前記画像生成工程は、第2の現実物体の位置姿勢に関わらない固定された前記第2の仮想物体画像を生成する請求項1または2に記載の画像処理方法。
- 前記画像生成工程は、前記第1の仮想物体と前記第2の仮想物体との交点位置で固定された前記第2の仮想物体画像を生成することを特徴とする請求項11に記載の画像処理方法。
- 現実空間に仮想物体の画像を合成して観察者に提示する画像処理装置であって、
観察者視点からの現実画像を入力する現実画像入力手段と、
前記観察者視点の位置姿勢、前記現実画像に含まれる第1の現実物体の位置姿勢および前記現実画像に含まれる第2の現実物体の位置姿勢を取得する取得手段と、
前記第1の現実物体に対応する第1の仮想物体の画像を前記観察者視点の位置姿勢と前記第1の現実物体の位置姿勢に基づいて生成するとともに、仮想空間内で前記第1の仮想物体を計測するための第2の仮想物体の画像を前記観察者視点の位置姿勢と前記第2の現実物体の位置姿勢に基づいて生成する画像生成手段と、
前記現実画像、前記第1の仮想物体画像および前記第2の仮想物体画像とを合成して出力する出力手段と
を備えることを特徴とする画像処理装置。 - コンピュータに請求項1乃至12の何れか1項に記載の画像処理方法を実行させることを特徴とするプログラム。
- 請求項14に記載のプログラムを格納することを特徴とする、コンピュータ読み取り可能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004268706A JP2006085375A (ja) | 2004-09-15 | 2004-09-15 | 画像処理方法、画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004268706A JP2006085375A (ja) | 2004-09-15 | 2004-09-15 | 画像処理方法、画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006085375A true JP2006085375A (ja) | 2006-03-30 |
Family
ID=36163846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004268706A Withdrawn JP2006085375A (ja) | 2004-09-15 | 2004-09-15 | 画像処理方法、画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006085375A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011145429A1 (ja) * | 2010-05-17 | 2011-11-24 | 株式会社エヌ・ティ・ティ・ドコモ | オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法 |
JP2012174219A (ja) * | 2011-02-24 | 2012-09-10 | Ohbayashi Corp | 画像合成方法 |
JP2013030059A (ja) * | 2011-07-29 | 2013-02-07 | Mitsubishi Electric Corp | 画像合成装置及び画像合成方法 |
JP2014109802A (ja) * | 2012-11-30 | 2014-06-12 | Casio Comput Co Ltd | 画像処理装置、画像処理方法およびプログラム |
JP2017049950A (ja) * | 2015-09-04 | 2017-03-09 | キヤノン株式会社 | 情報処理装置、情報処理方法、情報処理システム、及びプログラム |
JP6112689B1 (ja) * | 2016-02-17 | 2017-04-12 | 株式会社菊池製作所 | 重畳画像表示システム |
JP6142462B1 (ja) * | 2016-02-17 | 2017-06-07 | 株式会社菊池製作所 | 重畳画像表示システム |
WO2017213070A1 (ja) * | 2016-06-07 | 2017-12-14 | ソニー株式会社 | 情報処理装置および方法、並びに記録媒体 |
CN111238352A (zh) * | 2019-11-19 | 2020-06-05 | 广东博智林机器人有限公司 | 墙面虚拟靠尺检测方法、系统、设备和存储介质 |
JP2022087569A (ja) * | 2020-12-01 | 2022-06-13 | 鴻池運輸株式会社 | 仮想ゲージ表示プログラム及び装置 |
-
2004
- 2004-09-15 JP JP2004268706A patent/JP2006085375A/ja not_active Withdrawn
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011145429A1 (ja) * | 2010-05-17 | 2011-11-24 | 株式会社エヌ・ティ・ティ・ドコモ | オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法 |
JP2011242934A (ja) * | 2010-05-17 | 2011-12-01 | Ntt Docomo Inc | オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法 |
CN102893307A (zh) * | 2010-05-17 | 2013-01-23 | 株式会社Ntt都科摩 | 对象显示装置、对象显示系统以及对象显示方法 |
JP2012174219A (ja) * | 2011-02-24 | 2012-09-10 | Ohbayashi Corp | 画像合成方法 |
JP2013030059A (ja) * | 2011-07-29 | 2013-02-07 | Mitsubishi Electric Corp | 画像合成装置及び画像合成方法 |
JP2014109802A (ja) * | 2012-11-30 | 2014-06-12 | Casio Comput Co Ltd | 画像処理装置、画像処理方法およびプログラム |
JP2017049950A (ja) * | 2015-09-04 | 2017-03-09 | キヤノン株式会社 | 情報処理装置、情報処理方法、情報処理システム、及びプログラム |
JP6112689B1 (ja) * | 2016-02-17 | 2017-04-12 | 株式会社菊池製作所 | 重畳画像表示システム |
JP6142462B1 (ja) * | 2016-02-17 | 2017-06-07 | 株式会社菊池製作所 | 重畳画像表示システム |
JP2017146759A (ja) * | 2016-02-17 | 2017-08-24 | 株式会社菊池製作所 | 重畳画像表示システム |
JP2017146758A (ja) * | 2016-02-17 | 2017-08-24 | 株式会社菊池製作所 | 重畳画像表示システム |
WO2017213070A1 (ja) * | 2016-06-07 | 2017-12-14 | ソニー株式会社 | 情報処理装置および方法、並びに記録媒体 |
CN111238352A (zh) * | 2019-11-19 | 2020-06-05 | 广东博智林机器人有限公司 | 墙面虚拟靠尺检测方法、系统、设备和存储介质 |
JP2022087569A (ja) * | 2020-12-01 | 2022-06-13 | 鴻池運輸株式会社 | 仮想ゲージ表示プログラム及び装置 |
JP7414197B2 (ja) | 2020-12-01 | 2024-01-16 | 鴻池運輸株式会社 | 仮想ゲージ表示プログラム及び装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4667111B2 (ja) | 画像処理装置、画像処理方法 | |
JP4533087B2 (ja) | 画像処理方法、画像処理装置 | |
US8378997B2 (en) | Information processing method and device for presenting haptics received from a virtual object | |
JP4739002B2 (ja) | 画像処理方法、画像処理装置 | |
JP4401727B2 (ja) | 画像表示装置及び方法 | |
JP4926826B2 (ja) | 情報処理方法および情報処理装置 | |
US7830334B2 (en) | Image displaying method and apparatus | |
JP5709440B2 (ja) | 情報処理装置、情報処理方法 | |
US20050123171A1 (en) | Mixed reality exhibiting method and apparatus | |
US7782320B2 (en) | Information processing method and information processing apparatus | |
JP2009123018A (ja) | 画像処理装置、画像処理方法 | |
JP2008210276A (ja) | 三次元モデル情報の生成方法及び装置 | |
JP2019008623A (ja) | 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体 | |
JP6295296B2 (ja) | 複合システム及びターゲットマーカ | |
JP4660771B2 (ja) | 三次元像表示装置 | |
JP2022058753A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP4677281B2 (ja) | 画像処理方法、画像処理装置 | |
JP2006085375A (ja) | 画像処理方法、画像処理装置 | |
JP2008146497A (ja) | 画像処理装置、画像処理方法 | |
JP2006012042A (ja) | 画像生成方法及び装置 | |
JP2005339266A (ja) | 情報処理方法、情報処理装置、撮像装置 | |
JP2009048237A (ja) | 画像処理装置、画像処理方法 | |
JP2005107972A (ja) | 複合現実感提示方法、複合現実感提示装置 | |
JP4366165B2 (ja) | 画像表示装置及び方法並びに記憶媒体 | |
JP2005251118A (ja) | 画像処理方法、画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20071204 |