JP2014188600A - Remote visual recognition device and remote visual recognition operation system - Google Patents
Remote visual recognition device and remote visual recognition operation system Download PDFInfo
- Publication number
- JP2014188600A JP2014188600A JP2013063815A JP2013063815A JP2014188600A JP 2014188600 A JP2014188600 A JP 2014188600A JP 2013063815 A JP2013063815 A JP 2013063815A JP 2013063815 A JP2013063815 A JP 2013063815A JP 2014188600 A JP2014188600 A JP 2014188600A
- Authority
- JP
- Japan
- Prior art keywords
- operator
- unit
- light
- visual recognition
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 52
- 230000007246 mechanism Effects 0.000 claims abstract description 106
- 238000012545 processing Methods 0.000 claims abstract description 50
- 238000005259 measurement Methods 0.000 claims abstract description 24
- 239000011521 glass Substances 0.000 claims description 11
- 238000005286 illumination Methods 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 6
- 230000001360 synchronised effect Effects 0.000 claims description 6
- 239000011165 3D composite Substances 0.000 claims description 4
- 230000005855 radiation Effects 0.000 claims description 4
- 230000033001 locomotion Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000012423 maintenance Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000000034 method Methods 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 239000004567 concrete Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000012857 radioactive material Substances 0.000 description 1
- 238000012958 reprocessing Methods 0.000 description 1
- 239000002915 spent fuel radioactive waste Substances 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明の実施形態は、遠隔視認装置およびこれを用いた遠隔視認操作システムに関する。 Embodiments described herein relate generally to a remote viewing device and a remote viewing operation system using the remote viewing device.
放射性物質を扱う施設、例えば使用済み燃料集合体の再処理施設などでは、放射線レベルが高くて人が直接近づくことができない機器、部屋が存在する。そのような施設においては、機械式や電動式のマニピュレータを用い、遠隔操作により各種機器の分解、部品の交換、組立などの保守、補修作業が行われている。 In facilities that handle radioactive materials, for example, reprocessing facilities for spent fuel assemblies, there are devices and rooms that have high radiation levels and cannot be directly accessed by people. In such facilities, mechanical and electric manipulators are used, and maintenance and repair work such as disassembly of various devices, replacement of parts, and assembly are performed by remote control.
放射線による被ばくを防止するために、遠隔保守、補修を行う部屋は、鉛やコンクリート等の遮へい壁により包囲されており、たとえば、マスタースレーブマニピュレータ(以下、「MSM」と略す。)が、遮へい壁を貫通し、遮へい壁に固定されている。 In order to prevent radiation exposure, a room for remote maintenance and repair is surrounded by a shielding wall such as lead or concrete. For example, a master-slave manipulator (hereinafter abbreviated as “MSM”) has a shielding wall. It is fixed to the shielding wall.
MSMでは、遮へい壁の外側にいる操作者がマスターアームを操作すると、遮へい壁の内側の部分のスレーブアームがそれに従って動くことにより遠隔操作が可能となっている。通常のMSMの操作では、MSMが取り付けられた遮へい壁の正面に遮へい窓があり、この遮へい窓越しにスレーブ側の作業状況をオペレータが直接目視で確認しながら遠隔作業を実施している。したがって、MSM操作の遠隔保守作業の遠隔視認装置は遮へい窓が主体となっている。 In MSM, when an operator outside the shielding wall operates the master arm, the slave arm inside the shielding wall moves according to the movement of the master arm, thereby enabling remote operation. In normal MSM operation, there is a shielding window in front of the shielding wall to which the MSM is attached, and the operator performs remote work while directly confirming the working status of the slave side through this shielding window. Therefore, the remote visual recognition device for the remote maintenance work of the MSM operation is mainly a shielding window.
上述した遠隔視認のシステムでは、主として、遮へい窓の正面に遠隔操作する対象物を置き、MSMでこれらの作業対象物を扱うのが一般的である。MSMは床よりたとえば2ないし3mの高さの位置で遮へい壁を貫通し、遮へい窓は、通常、MSMが固定されている遮へい壁の真下で、オペレータの立ち位置での目の高さの位置に設けられている。 In the above-described remote visual recognition system, it is common to place an object to be remotely operated mainly in front of a shielding window and handle these work objects with the MSM. The MSM penetrates the shielding wall at a height of, for example, 2 to 3 m above the floor, and the shielding window is usually located directly below the shielding wall to which the MSM is fixed and the eye level at the operator's standing position. Is provided.
このようなレイアウトでは、スレーブアームは遮へい窓正面に上から下に下がってくる状況となり、作業中、しばしば、作業対象物が操作者から見てスレーブアームの向こう側となり、遮へい窓を通して見えない状況が発生する。 In such a layout, the slave arm falls from top to bottom in front of the shielding window, and during work, the work object is often seen from the side of the slave arm as seen by the operator and is not visible through the shielding window. Will occur.
従来のこの形態で、スレーブアームの先端に取り付けられたグリップの先端を見ようとすると、手首を左右のどちらか横に捻った姿勢をとるようにすることが必要であり、この制約条件で遠隔保守作業を計画する必要があった。本来は、遮へい窓から作業状態が見えるのであれば、グリップを真直ぐ正面に伸ばした姿勢で遠隔保守作業を可能とすべきであるが、グリップを正面とする普通の作業姿勢と異なるこのような姿勢のために作業性が劣ることや、グリップが占める空間が広くなるなどの課題があった。 In this conventional configuration, when looking at the tip of the grip attached to the tip of the slave arm, it is necessary to take a posture in which the wrist is twisted to either the left or right side. I had to plan my work. Originally, if the working state can be seen from the shielding window, remote maintenance work should be possible with the grip extended straight to the front. For this reason, there are problems such as poor workability and wide space occupied by the grip.
そこで、本発明の実施形態は、通常の姿勢でマスタースレーブマニピュレータの操作を可能とすることを目的とする。 Therefore, an object of the embodiment of the present invention is to enable operation of a master-slave manipulator in a normal posture.
上述の目的を達成するため、本発明の実施形態は、対象物が配置される領域と、操作者がいる領域とを分ける壁に固定され、前記操作者に遠隔操作されて前記対象物を取り扱うスレーブアームを有するマニピュレータ装置の操作のための遠隔視認装置であって、前記操作者の視点情報をリアルタイムで計測する視点計測機構部と、前記壁の操作者側に取り付けられたモニタと、前記対象物を撮影するカメラと当該カメラを駆動するカメラ駆動部とをそれぞれ有する複数のカメラ機構部と、前記カメラ機構部からの映像データに基づき前記対象物の3次元的形状を演算し、前記視点計測機構部からの視点情報データに基づき前記操作者から見た前記対象物のうち前記スレーブアームで妨げられ見えない部分を映像で補完して前記スレーブアームに妨げられなければ操作者が見ることができるはずの仮想的な2次元映像を生成して前記見えない部分に相当する範囲に表示するように前記モニタに表示信号を出力する制御処理部と、を備えることを特徴とする。 In order to achieve the above-described object, an embodiment of the present invention is fixed to a wall that separates an area where an object is placed and an area where an operator is located, and handles the object by being remotely operated by the operator. A remote visual recognition device for operating a manipulator device having a slave arm, a visual point measurement mechanism unit for measuring the visual point information of the operator in real time, a monitor attached to the operator side of the wall, and the target A plurality of camera mechanism units each having a camera for photographing an object and a camera drive unit for driving the camera, and calculating a three-dimensional shape of the object based on video data from the camera mechanism unit, and measuring the viewpoint A portion of the object seen by the operator based on viewpoint information data from a mechanism unit that is obstructed by the slave arm and cannot be seen is complemented with an image. A control processing unit that generates a virtual two-dimensional image that an operator should be able to see if not obstructed and outputs a display signal to the monitor so as to display it in a range corresponding to the invisible portion; It is characterized by providing.
また、本発明の実施形態は、放射線に対する遮へい壁を貫通して前記遮へい壁に固定されて対象物を操作者が遠隔で取り扱うマニピュレータ装置と、前記マニピュレータ装置の操作のための遠隔視認装置とを備える遠隔視認操作システムであって、前記遠隔視認装置は、前記操作者の目の3次元的な位置と前記操作者の視線方向に関する視点情報をリアルタイムで計測する視点計測機構部と、前記遮へい壁の操作者側から前記遮へい壁の対象物側を観察するための遮へい窓を覆うようにして取り付けられたモニタと、前記対象物を撮影するカメラと当該カメラを駆動するカメラ駆動部とをそれぞれ有する複数のカメラ機構部と、前記カメラ機構部からの映像データに基づき前記対象物の3次元的形状を演算し、前記視点計測機構部からの視点情報データに基づき前記操作者から見た前記対象物のうち前記スレーブアームで妨げられ見えない部分を映像で補完して前記スレーブアームに妨げられなければ前記操作者が見ることのできるはずの仮想的な2次元映像を生成して前記見えない部分に相当する範囲に表示するように前記モニタに表示信号を出力する制御処理部と、を有することを特徴とする。 In addition, an embodiment of the present invention includes a manipulator device that penetrates a shielding wall against radiation and is fixed to the shielding wall, and an operator remotely handles an object, and a remote visual recognition device for operating the manipulator device. A remote visual recognition operation system comprising: a visual point measurement mechanism unit that measures real-time visual point information related to a three-dimensional position of the operator's eyes and a visual line direction of the operator; and the shielding wall. A monitor attached so as to cover a shielding window for observing the object side of the shielding wall from the operator side, a camera for photographing the object, and a camera driving unit for driving the camera. A viewpoint from the viewpoint measurement mechanism unit that calculates a three-dimensional shape of the object based on a plurality of camera mechanism units and video data from the camera mechanism unit Based on the report data, a portion of the object viewed by the operator that is obstructed by the slave arm is supplemented with an image, and the virtual object that the operator should be able to see if the slave arm is not obstructed. And a control processing unit that outputs a display signal to the monitor so as to generate a two-dimensional image and display it in a range corresponding to the invisible portion.
本発明の実施形態によれば、通常の姿勢でマスタースレーブマニピュレータの操作が可能となる。 According to the embodiment of the present invention, the master-slave manipulator can be operated in a normal posture.
以下、図面を参照して本発明の実施形態に係る遠隔視認装置について説明する。ここで、互いに同一または類似の部分には、共通の符号を付して、重複説明は省略する。 Hereinafter, a remote visual recognition device according to an embodiment of the present invention will be described with reference to the drawings. Here, the same or similar parts are denoted by common reference numerals, and redundant description is omitted.
[第1の実施形態]
図1は、本発明の第1の実施形態に係る遠隔視認装置の構成を示す平面図である。また、図2は、本発明の第1の実施形態に係る遠隔視認装置の構成を示す側面図である。
[First Embodiment]
FIG. 1 is a plan view showing the configuration of the remote visual recognition apparatus according to the first embodiment of the present invention. FIG. 2 is a side view showing the configuration of the remote visual recognition apparatus according to the first embodiment of the present invention.
遠隔視認操作システムは、マスタースレーブマニピュレータ(以下、「MSM」と略す。)3およびこのMSM3の操作のための遠隔視認装置100を有する。遠隔視認装置100は、シースルー式モニタ5、カメラ機構部51a、51b、視点計測機構部6、投光機構部7および制御処理部50を有する。
The remote visual recognition operation system includes a master slave manipulator (hereinafter abbreviated as “MSM”) 3 and a remote
対象物20と操作者40の間には、遮へい壁1が設けられている。遮へい壁1を貫通してMSM3が遮へい壁1に固定された状態で設けられている。MSM3は、遮へい壁1の外側すなわち操作者40側に操作者40が操作するマスターアーム3aを有する。
A
また、MSM3は、遮へい壁1の内側すなわち対象物20側に、対象物20を直接に取り扱うスレーブアーム3bを有する。スレーブアーム3bは、マスターアーム3aの動きに追従して操作者40の操作と同じ動きをする。MSM3のたとえばスレーブアーム3bの回転軸や伸縮軸などの動作軸にはポジションセンサ、レゾルバなどの位置検出センサが取り付けられており、MSM3の各部の位置情報が出力される。
Further, the MSM 3 has a slave arm 3b that directly handles the
遮へい壁1には、遮へい壁1を貫通するように遮へい窓1aが嵌め込まれ固定されている。遮へい窓1aは、操作者40側から対象物20側を見るための窓であり、操作者40から、遮へい壁1の反対側の対象物20側が見えるような位置にあり、必要な範囲が見渡せる大きさである。また、遮へい窓1aは、対象物20側から操作者40側への放射線を遮へいする機能を有している。
A shielding window 1 a is fitted and fixed to the
遮へい窓1aの操作者40側には、遮へい窓1aを覆うようにシースルー式モニタ5が取り付けられている。シースルー式モニタ5は、モニタ表示がされないときは、操作者40は、シースルー式モニタ5および遮へい窓1aを通して遮へい壁1の対象物20側を見ることができる。
A see-through
また、シースルー式モニタ5の所定の範囲でのモニタ表示信号がシースルー式モニタ5に入力された場合は、この所定の表示範囲については、シースルー式モニタ5によるモニタ映像が表示され、その他の範囲については、操作者40は、シースルー式モニタ5および遮へい窓1aを通して遮へい壁1の対象物20側を見ることができる。
When a monitor display signal in a predetermined range of the see-through
シースルー式モニタ5は、たとえば、液晶モニタでよい。たとえば、有機EL素子と透明電極を用いることにより、非表示時には透明度が透明ガラスのように高い透明なモニタを製造することができることが知られている。
The see-through
遮へい壁1の内側の壁面の遮へい窓1aの斜め上方のそれぞれには、カメラ機構部51a、51bが取り付けられている。カメラ機構部51a、51bは、それぞれ、カメラ8aおよびカメラ8bの向きを調節するカメラ駆動部52aおよび52bを有する。カメラ8a、8bは、いずれも、対象物20およびスレーブアーム3bが撮影範囲となるような方向を向いている。
なお、本実施形態で示したように、カメラは複数台必要である。すなわち、対象物20を3次元的に把握するために少なくとも2つの違う場所からの映像が必要である。なお、本実施形態ではカメラが2台設けられている場合を示したが、必要に応じて3台以上でもよい。
As shown in this embodiment, a plurality of cameras are necessary. That is, in order to grasp the
また、対象物20の大きさ、作業上、関連する器具等にアクセスするためにスレーブアーム3bの動く範囲などを考慮するとカメラ8a、8bで撮影するエリアの範囲が広い場合は、カメラ8a、8bは広角カメラであることが望ましい。
Further, when the size of the
遮へい壁1の外側には、視点計測機構部6が設けられている。視点計測機構部6は、操作者40の目の方角の情報として、操作者40の目の位置および視線の方角をリアルタイムに計測する。視点計測機構部6はアイトラッキング機能を有している。これは、レーザレンジファインダーとカメラと画像処理装置などの組合せで実現できる。たとえば、ホビー用民生品でも精度のよいモーション検出用のデバイスが市販されており、このようなものを使用することでもよい。
A
遮へい壁1の内側の壁面の遮へい窓1aの上方には、投光機構部7が取り付けられている。投光機構部7は、対象物20を含む範囲に光を投光する。ここで、対象物20の把握を精度良く行う必要がある場合は、光は、レーザ光であることが望ましい。この場合は、投光機構部7は、図示しないレーザ発信器を備えている。
Above the shielding window 1a on the inner wall surface of the shielding
また、光は、非可視光(たとえば赤外線)を含むことでもよい。なお、この場合は、カメラ8a、8bは、非可視光にも感度を有するものとする。非可視光については、たとえば、図2に示すようにグリッド光投光機構部7cを備えることによって、グリッド線上のグリッド光を投光することでもよい。この場合、グリッド光により対象物20上に照射されたグリッド線をカメラ8a、8bが撮影可能であり、対象物20の形状の把握の精度向上に有効である。また、グリッド光は非可視光で投光されているため、対象物20上のグリッド線は目には見えないので、グリッド線が加わって操作上見にくいという事態を避けることができる。あるいは、グリッド光を投光する代わりに単一方向の投光をスキャンさせることでもよい。
The light may include invisible light (for example, infrared light). In this case, the cameras 8a and 8b are also sensitive to invisible light. About invisible light, you may project the grid light on a grid line, for example by providing the grid light projection mechanism part 7c as shown in FIG. In this case, the cameras 8a and 8b can capture the grid lines irradiated on the
遮へい壁1の外側には、遠隔視認装置100の一部を構成する制御処理部50が設けられている。MSM3の各部の位置情報信号は、リアルタイムに制御処理部50に送られる。さらに、カメラ機構部51a、51bからのカメラ映像信号、視点計測機構部6からの操作者40の目の位置および視線情報がリアルタイムに制御処理部50に送られる。また、制御処理部50から視点計測機構部6には視線情報がリアルタイムに送られる。さらに、制御処理部50からシースルー式モニタ5には、モニタ表示に関する信号がリアルタイムに送られる。
A
これらの信号の送受信は、ケーブル12を介して行われる。なお、本実施形態では、以上の情報の入出力の全てがケーブル12を介する場合を示したが、これに限らない。たとえば、一部、または全部の入出力を無線により行ってもよい。 Transmission / reception of these signals is performed via the cable 12. In the present embodiment, the case where all of the input / output of the above information is via the cable 12 is shown, but the present invention is not limited to this. For example, part or all of input / output may be performed wirelessly.
図3は、本発明の第1の実施形態に係る遠隔視認装置の構成を示すブロック図である。遠隔視認装置100は、前述のように、シースルー式モニタ5、カメラ機構部51a、51b、視点計測機構部6、投光機構部7および制御処理部50を有する。また、制御処理部50は、入力部13、映像取り込み部15、映像処理演算部16および2次元映像出力部18を有する。
FIG. 3 is a block diagram showing the configuration of the remote visual recognition apparatus according to the first embodiment of the present invention. As described above, the remote
入力部13には、視点計測機構部6から出力された操作者40の目の位置および視線情報に関する信号が入力される。また、入力部13には、MSM3から出力されたMSM3各部の位置情報が入力される。
The input unit 13 receives a signal relating to the eye position and line-of-sight information of the
映像取り込み部15には、カメラ機構部51a、51bそれぞれから出力されたカメラ8a、8bの撮影映像信号が入力される。
The video capturing unit 15 receives captured video signals of the cameras 8a and 8b output from the
映像処理演算部16には、入力部13に入力された操作者40の目の位置および視線情報、MSM3各部の位置情報、映像取り込み部15に入力されたカメラ8a、8bの撮影映像信号が入力される。
The video processing calculation unit 16 receives the eye position and line-of-sight information of the
映像処理演算部16は、マッピング演算部61および2次元映像演算部62を有する。映像処理演算部16のマッピング演算部61は、カメラ8a、8bの撮影映像信号に基づき対象物20およびスレーブアーム3bの3次元データを算出する。すなわち、3次元空間における対象物20の形状およびスレーブアーム3bの外形ラインなどの形状データを算出する。
The video processing calculation unit 16 includes a mapping calculation unit 61 and a two-dimensional video calculation unit 62. The mapping calculation unit 61 of the video processing calculation unit 16 calculates three-dimensional data of the
具体的には、対象物20の代表の複数個の点を選択点として同定し、各選択点について、三角測量の原理により実空間の3次元位置を計算し、計算した点群により作成された3次元空間の曲面上に3次元合成映像をマッピングして3次元的形状を出力する。
Specifically, a plurality of representative points of the
また、映像処理演算部16の2次元映像演算部62は、マッピング演算部61で合成した3次元合成映像と、視点計測機構部6から受けた操作者40の目の位置、視線方向に関する情報と、MSM3の各部の位置情報信号とに基づいて、操作者40から対象物20を見た場合に、スレーブアーム3bにより対象物20が見えない範囲を算出する。さらに、この範囲について、以上の演算の結果に基づき操作者40から対象物20を見た場合に、スレーブアーム3bにより対象物20が見えない範囲の2次元的な画像を合成する。
In addition, the 2D video computation unit 62 of the video processing computation unit 16 includes the 3D composite video synthesized by the mapping computation unit 61, the information about the eye position and line-of-sight direction of the
2次元映像出力部18は、映像処理演算部16において合成された画像を、操作者40から対象物を見た場合に、スレーブアーム3bにより対象物20が見えない範囲の場所に表示されるように位置を特定した上で、シースルー式モニタ5にこの範囲の画像信号を出力する。
The two-dimensional
この結果、シースルー式モニタ5には、スレーブアーム3bにより対象物20が見えない範囲の映像がリアルタイムに表示される。なお、シースルー式モニタ5の表示を、映像が無い場合すなわち対象物を遮っているスレーブアーム3bが見える場合と、対象物20のその部分の映像が映し出されている場合とを、操作者40がたとえば切り替え操作で切り替えるようにしてもよい。
As a result, on the see-through
ここで、操作者40が視覚上、対象物20を立体的に把握しながら作業を行うことができれば操作がしやすくなる。このためには、視点計測機構部6は、操作者40の左右の目のそれぞれの位置および視線方向を別々に計測する。
Here, if the
また、映像処理演算部16は、スレーブアーム3bにより対象物20が見えない範囲について、操作者40の左右それぞれの目から対象物40を見た場合の2種類について、それぞれ2次元的な画像を合成する。この2次元的な2種類の画像を交互に出力するとともに、同期信号を出力する。
In addition, the video processing calculation unit 16 displays two-dimensional images for the two types when the
操作者40は、同期信号を受けてこの映像と同期可能な同期メガネ21を装着する。同期メガネ21は、左右それぞれに対する同期信号を受ける左右がそれぞれ別個に開閉する。操作者40は、同期メガネ21を装着してこの映像を見ることにより、視覚的にも立体的に把握することができる。同期メガネ21としては、たとえば液晶シャッター付きメガネでよい。
The
なお、MSM3の操作は主として、遮へい窓1aの正面で行われることから、MSM3での作業中は、投光機構部7からの光の一部はスレーブアーム3bに遮られ、対象物20の表面にはスレーブアーム3bの非投光部の形状が影絵となって投影される。
Since the operation of the
図4は、映像処理演算部等における処理の流れを示すフロー図である。 FIG. 4 is a flowchart showing the flow of processing in the video processing calculation unit and the like.
映像処理演算部16においてこの非投光部分すなわち影絵の外の境界を利用して、対象物の把握をさらに精度よく行うことができる。具体的には、たとえば、以下の方法がある。 By using this non-projected portion, that is, the boundary outside the shadow picture, the image processing calculation unit 16 can grasp the target object with higher accuracy. Specifically, for example, there are the following methods.
映像処理演算部16は、影絵のエッジ画像を抽出する(ステップS1)。 The video processing calculation unit 16 extracts a shadow edge image (step S1).
ステップS1の後に、カメラ8a、8bの撮影映像(以下、左右映像という。)の非投光部である影絵の外側境界の代表点を選択点として同定する。同定は、特異点などを含んで、左右映像の相関から導き出す。なお、選択点としては、たとえば、エッジ部や辺上に数分割された点等がある(ステップS2)。 After step S1, the representative point of the outer boundary of the shadow image, which is a non-projected part of the captured images (hereinafter referred to as the left and right images) of the cameras 8a and 8b, is identified as a selected point. The identification is derived from the correlation between the left and right images including singular points and the like. Note that, as the selection point, for example, there are a number of points divided on an edge portion or a side (step S2).
ステップS2の後に、同定されたそれぞれの選択点について、左右映像の2次元位置すなわち(x、y)座標位置から三角測量の原理により、各点の実際の空間上の位置(X、Y、Z)を算出する(ステップS3)。 After step S2, for each identified selected point, the position (X, Y, Z) of each point in the actual space according to the principle of triangulation from the two-dimensional position of the left and right images, that is, the (x, y) coordinate position. ) Is calculated (step S3).
ステップS3で得られた映像を仮想の3次元空間にマッピングし、すでに合成した3次元画像があればこれに付加し、3次元ディジタル映像を作成する(ステップS4)。 The video obtained in step S3 is mapped to a virtual three-dimensional space, and if there is a synthesized three-dimensional image, it is added to the three-dimensional image to create a three-dimensional digital video (step S4).
ステップS4で得られ仮想の3次元空間にマッピングされた3次元ディジタル映像に基づき、操作者40の目の位置および視線方向を仮想のカメラとしてこの3次元ディジタル映像を見たときの2次元ディジタル映像を作成する(ステップS5)。なお、2次元ディジタル映像の合成は、操作者40の利き目の位置からの映像とする。どちらが利き目かは入力してもよいし、最初のキャリブレーションの際に決定してもよい。
Based on the 3D digital image mapped in the virtual 3D space obtained in step S4, the 2D digital image when viewing the 3D digital image with the eye position and line-of-sight direction of the
2次元映像出力部18は、ステップS5で得られた2次元ディジタル映像から、仮想空間において仮想カメラから見るとスレーブアーム3bによって遮られている範囲のみ抜き出し、その抜き出した範囲の映像をシースルー式モニタ5に出力する(ステップS6)。
The two-dimensional
次に、以上のように構成された本実施形態の作用を説明する。操作者40が、MSM3を用いて対象物20を取り扱う際に、操作者40から対象物20等を見た場合にスレーブアーム3bによって遮られて見えない部分が生ずる。
Next, the operation of the present embodiment configured as described above will be described. When the
一方、視点計測機構部6は、そのアイトラッキング機能によって、操作者40の左右の目の位置、それぞれの視線方向を常時追跡し、その情報信号を出力している。また、スレーブアーム3b自身の各部の位置情報も出力されている。これらの出力信号は、制御処理部50の入力部13に取り込まれる。
On the other hand, the viewpoint
また、カメラ8a、8bはそれぞれ、対象物20およびそれを取り扱うスレーブアーム3bの映像を出力しており、この映像情報信号は、制御処理部50の映像取り込み部15に取り込まれる。
Each of the cameras 8 a and 8 b outputs an image of the
制御処理部50においては、入力部13に取り込まれた操作者40の目および視線に関する情報信号、スレーブアーム3b各部の位置情報信号、および映像取り込み部15に取り込まれたカメラ8a、8bの映像情報信号が、映像処理演算部16に入力される。
In the
映像処理演算部16では、カメラ8a、8bの映像情報信号に基づき対象物20の3次元的情報を算出する。また、操作者40の位置および視線情報と、MSM3各部の位置情報に基づき、操作者40から対象物を見た場合に、スレーブアーム3bにより対象物20が見えない範囲を算出する。
The video processing calculation unit 16 calculates three-dimensional information of the
映像処理演算部16は、さらに、以上の演算の結果に基づき操作者40から対象物20を見た場合に、スレーブアーム3bにより対象物20が見えない範囲の2次元的な画像を合成する。この結果が、2次元映像出力部18からシースルー式モニタ5に出力される。
The video processing calculation unit 16 further synthesizes a two-dimensional image in a range where the
シースルー式モニタ5を見る操作者40は、実際に見える対象物20と、見えない部分をカバーするシースルー式モニタ5上の画像とにより、実際に全体が見えるような感覚で操作を行うことができる。
The
また、見えない部分をカバーするシースルー式モニタ5上の画像が、左右の目に対応する画像として交互に映し出されるように構成した場合は、この画像に同期する同期メガネを装着することによって、この見えない部分をカバーするシースルー式モニタ5上の画像をさらに立体的に見ることができる。
In addition, when the image on the see-through
以上のように、本実施形態によれば、対象物20の一部が、スレーブアーム3bにより遮られることを避けるために不自然な姿勢でMSM3を操作する必要がなく、通常の姿勢でMSM3の操作が可能となる。
As described above, according to the present embodiment, it is not necessary to operate the
[第2の実施形態]
図5は、本発明の第2の実施形態に係る遠隔視認装置の構成を示す平面図である。また、図6は、本発明の第2の実施形態に係る遠隔視認装置の構成を示す側面図である。
[Second Embodiment]
FIG. 5 is a plan view showing the configuration of the remote visual recognition apparatus according to the second embodiment of the present invention. FIG. 6 is a side view showing the configuration of the remote visual recognition apparatus according to the second embodiment of the present invention.
本実施形態は、第1の実施形態の変形である。対象物20のうちで、操作者40から見てMSM3の操作中にスレーブアーム3bに妨げられて見えない部分の外郭と、投光機構部7の発光部7aからの光を受ける照射範囲と光を受けない非照射範囲の境界の差を最小とするように、投光機構部7を追従させるものである。
This embodiment is a modification of the first embodiment. Out of the
第1の実施形態では、投光機構部7は、遮へい壁1の内側すなわち対象物20側の遮へい壁1の壁面に設けられていたが、本実施形態では、遮へい壁1の外側すなわち操作者40側に設けられている。また、投光機構部7の発光部7aは、操作者40の頭の直上に設けられている。
In the first embodiment, the light projecting
なお、直上に設けられている理由は、操作者40の動きの妨げにならないようにするためであり、操作者40の動きの妨げにならなければ、操作者40の目の近傍として、左右あるいは、操作者40の顔の前面の下側などでもよい。
The reason why it is provided directly above is to prevent the movement of the
投光機構部7は、視点計測機構部6によってリアルタイムに得られる操作者40の目の位置情報に基づいて操作中に移動する操作者40の目を追って、操作者40の近傍の位置に発光部7aの位置が保たれるように発光部位置をリアルタイムに移動させる。なお、この機能を、操作者40に発光部7aを装着させることにより行ってもよい。
The light projecting
なお、カメラ8a、8bによる撮影は、非照射部も撮影し、映像化する必要がある。非照射部の撮影が、対象が暗いために困難である場合など、非照射部の識別のための照度が必要な場合は、必要に応じて、投光機構部7とは別に対象物20全体を照らす投光装置を設ければよい。
In addition, in the imaging | photography with the cameras 8a and 8b, it is necessary to image | photograph a non-irradiation part and to image | video. When illuminance for identifying the non-irradiated part is necessary, such as when photographing of the non-irradiated part is difficult because the target is dark, the
このように構成された本実施形態においては、映像処理演算部16が、カメラ8a、8bの撮影映像信号に基づき対象物20の3次元空間における形状情報を算出する際に、対象物20の非投光部分の境界点の選択点を用いる場合の精度が向上する。
In the present embodiment configured as described above, when the video processing calculation unit 16 calculates the shape information of the
また、3次元的形状の合成の目的は、操作者40から対象物20を見た場合に、スレーブアーム3bにより対象物20が見えない範囲の2次元的な映像を合成することであるが、この2次元的な映像のうち対象物20の照射範囲の映像をそのまま使用できる点で2次元画像生成が効率的、かつ精度よく行える。
The purpose of the synthesis of the three-dimensional shape is to synthesize a two-dimensional image in a range where the
[第3の実施形態]
図7は、本発明の第3の実施形態に係る遠隔視認装置の構成を示す側面図である。本実施形態は、第1の実施形態あるいは第2の実施形態の変形である。本実施形態では、さらに、対象物20のうちで操作者40からみてMSM3の操作中にスレーブアーム3bに妨げられて見えない部分の外郭と、投光機構部7の発光部7aからの光を受ける照射範囲と光を受けない非照射範囲の境界を、近づけるだけでなく、一致させるように投光機構部7を追従させるものである。
[Third Embodiment]
FIG. 7 is a side view showing the configuration of the remote visual recognition apparatus according to the third embodiment of the present invention. This embodiment is a modification of the first embodiment or the second embodiment. In the present embodiment, the outer portion of the
本実施形態においては、ハーフミラー25が、シースルー式モニタ5と遮へい窓1aの間に設けられている。また、投光機構部7は、ハーフミラー25の上方に下向きに光を発する方向に取り付けられている。
In this embodiment, the half mirror 25 is provided between the see-through
ここで、ハーフミラー25は、透過と反射の割合が50%ずつの場合に限定されず、一部の光が透過して一部の光が反射する機能を有するものを指してハーフミラーと呼んでいる。 Here, the half mirror 25 is not limited to a case where the ratio of transmission and reflection is 50% each, and refers to a half mirror that has a function of transmitting part of light and reflecting part of light. It is out.
また、投光機構部7を上方から支持する投光部駆動機構23が設けられている。投光部駆動機構23は、遮へい壁1に固定支持されている。投光部駆動機構23は、投光機構部7の投光方向を調節するとともに、投光機構部7の水平位置も調節する。
Moreover, the light projection
投光部駆動機構23には、視点計測機構部6からの信号が入力され、操作者40の目の位置情報に基づいてリアルタイムに投光機構部7の水平位置、投光方向を制御する。
A signal from the viewpoint
なお、カメラ8a、8bによる撮影は、非照射部も撮影し、映像化する必要がある。非照射部の撮影が、対象が暗いために困難である場合など、非照射部の識別のための照度が必要な場合は、必要に応じて、投光機構部7とは別に対象物20全体を照らす投光装置を設ければよい。
In addition, in the imaging | photography with the cameras 8a and 8b, it is necessary to image | photograph a non-irradiation part and to image. When illuminance for identifying the non-irradiated part is necessary, such as when photographing of the non-irradiated part is difficult because the target is dark, the
このような構成による本実施形態においては、投光部駆動機構23は、投光機構部7の水平位置および投光方向を調節することにより、投光機構部7から発せられる光の中心が、操作者40の目の位置から発せられたのと等価にすることができる。
In the present embodiment having such a configuration, the light projecting
この結果、操作者40から見た対象物20において、スレーブアーム3bによって遮られて見えない範囲と、光がスレーブアーム3bによって遮られて対象物20に光を当てられない非投光部分の範囲が一致する。
As a result, in the
この結果、操作者40は、シースルー式モニタ5上の2次元映像以外の実際に見る対象物20の範囲には非投光範囲はなく全てに光があてられているため、見やすくなる。
As a result, the
また、映像処理演算部16が、カメラ8a、8bの撮影映像信号に基づき対象物20の3次元空間における形状情報を算出する際に、対象物20の非投光部分の境界点の選択点を用いる場合の精度が向上する。
Further, when the video processing calculation unit 16 calculates the shape information of the
また、3次元的形状の合成の目的は、操作者40から対象物を見た場合に、スレーブアーム3bにより対象物20が見えない範囲の2次元的な映像を合成することであるが、この2次元的な映像のうち対象物20の照射範囲の映像をそのまま使用できる点で2次元画像生成が効率的、かつ精度よく行える。
The purpose of the synthesis of the three-dimensional shape is to synthesize a two-dimensional image in a range where the
[第4の実施形態]
図8は、本発明の第4の実施形態に係る遠隔視認装置のレーザ光投光機構の構成を示す側面図である。本実施形態は、第3の実施形態の変形であり、第3の実施形態における投光機構部7に代えてレーザ光投光機構7bが投光部駆動機構23(図7参照)に支持されて設けられている。
[Fourth Embodiment]
FIG. 8 is a side view showing the configuration of the laser light projecting mechanism of the remote visual recognition apparatus according to the fourth embodiment of the present invention. This embodiment is a modification of the third embodiment, and a laser light projecting mechanism 7b is supported by a light projecting unit driving mechanism 23 (see FIG. 7) instead of the light projecting
レーザ光投光機構7bは、筐体24、筐体24に取り付けられたハーフミラー27aおよび筐体24内に収納されたハーフミラー25、レンズ26a、26b、ハーフミラー27b、レーザ発振器28およびカメラ機構29を有する。
The laser light projecting mechanism 7b includes a housing 24, a half mirror 27a attached to the housing 24, a half mirror 25 housed in the housing 24, lenses 26a and 26b, a half mirror 27b, a
ハーフミラー27aおよび27bは、第3の実施形態のおけるハーフミラー25と同様に、本実施形態においては、透過と反射の割合が50%ずつでない場合を含めて透過と反射の機能を有するものを指してハーフミラーと呼んでいる。 As in the case of the half mirror 25 in the third embodiment, the half mirrors 27a and 27b have a function of transmission and reflection in this embodiment, including the case where the ratio of transmission and reflection is not 50% each. It is called half mirror.
レーザ発振器28から発せられたレーザ光は、レンズ26bを経由し、ハーフミラー27bおよびハーフミラー27aを透過して、投光される。
Laser light emitted from the
一方、カメラ機構29から見た映像は、ハーフミラー27aを透過し、ハーフミラー27bで反射し、ハーフミラー25で反射して、レンズ26aを通過して入ってくる。
On the other hand, the image viewed from the
このように構成された本実施形態においては、レーザ光が等価的に操作者40の目の位置から発せされたように見えることに加えて、操作者40から見た映像と同じ映像が、カメラ機構29によって撮影される。
In the present embodiment configured as described above, the same image as the image seen from the
この結果、映像処理演算部16が、カメラ8a、8bの撮影映像信号に基づき対象物20の3次元空間における形状情報を算出し、操作者40から対象物20を見た場合にスレーブアーム3bに遮られて見えない範囲を設定する際に、カメラ機構29による映像を直接使用することによって、演算処理を大幅に削減することができ、また、より精度の高い2次元画像合成を行うことができる。
As a result, the video processing calculation unit 16 calculates the shape information in the three-dimensional space of the
[第5の実施形態]
図9は、本発明の第5の実施形態に係る遠隔視認装置のカメラの構成を示す側面図である。本実施形態は、第1ないし第3の実施形態の変形であり、第1ないし第3の実施形態において、投光機構部7に代えてレーザ光投光機構7bが設けられているか、レーザ光投光機構7bがさらに設けられているかによって、レーザ光が発信されている場合の実施形態である。
[Fifth Embodiment]
FIG. 9 is a side view showing the configuration of the camera of the remote viewing device according to the fifth embodiment of the present invention. This embodiment is a modification of the first to third embodiments. In the first to third embodiments, a laser beam projecting mechanism 7b is provided instead of the projecting
本実施形態におけるカメラ機構29は、カメラ29aおよびフィルター機構31を有する。フィルター機構31は、モータ32、制御回路33、回転機構34および円盤36を有する。
The
図10は、本発明の第5の実施形態に係る遠隔視認装置のカメラ内のフィルターを示す正面図である。円盤36は円環状であり、その内側には、フィルター35aおよびフィルター35bの2種類のフィルターがそれぞれ半円形状に設けられている。
FIG. 10 is a front view showing a filter in the camera of the remote visual recognition apparatus according to the fifth embodiment of the present invention. The
2種類のフィルターの内、一方のフィルター35aは、非可視光である赤外線をカットして可視光のみを通過する。もう一つのフィルター35bはレーザ発振器からの赤外線の波長のみ通過させるためのフィルターである。なお、本実施形態では、非可視光について長波長側の赤外線の場合を示しているが、これに限定されない。たとえば、短波長側の紫外線の場合でもよい。 Of the two types of filters, one filter 35a cuts off infrared rays that are invisible light and passes only visible light. The other filter 35b is a filter for passing only the infrared wavelength from the laser oscillator. In addition, in this embodiment, although the case of the infrared of a long wavelength side is shown about invisible light, it is not limited to this. For example, ultraviolet rays on the short wavelength side may be used.
制御回路33は、モータ32を制御し、映像フレーム毎、すなわちたとえば1/30秒ごとに正確に1回転し、フィルター35a、35bが交互に半フレームごとにレンズ30の正面になるように回転制御する。
The control circuit 33 controls the motor 32 to rotate exactly once every video frame, that is, every 1/30 seconds, for example, so that the filters 35a and 35b alternately turn to the front of the
また、制御回路33は、制御処理部50からの同期信号により左右のカメラ8a、8bを同期運転させて駆動し、可視光の映像、赤外線の映像を交互に左右同時に取り込み可能とする。
In addition, the control circuit 33 drives the left and right cameras 8a and 8b in synchronization with the synchronization signal from the
非可視光と可視光の使い分けは、たとえば、非可視光は、グリッド線上のグリッド光を投光し、可視光は通常の照明とすることでもよい。この場合、グリッド光により対象物20上に照射されたグリッド線をカメラ29aが撮影可能であり、対象物20の形状の把握の精度向上に有効である。また、グリッド光は非可視光で投光されているため、対象物20上のグリッド線は目には見えないので、グリッド線が加わって操作上見にくいという事態を避けることができる。あるいは、グリッド光を投光する代わりに単一方向の投光をスキャンさせることでもよい。
The use of invisible light and visible light may be different from each other, for example, invisible light may be emitted by projecting grid light on a grid line, and visible light may be normal illumination. In this case, the camera 29a can capture the grid lines irradiated on the
このようなカメラ機構29を、第1ないし第3の実施形態における複数のカメラ8a、8bが設けられている箇所に設けることにより、より確実に、簡単にカメラの映像からレーザ光の影の部分を抽出することができるようになる。
By providing such a
[その他の実施形態]
以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。たとえば、実施形態では、対象物20の中のスレーブアーム3bにより遮られる範囲を映像化して表示することで示したが、対象物20には限定されない。たとえば、映像化する対象は、対象物を取り扱うための機械器具類などを含むものであってもよい。また、各実施形態の特徴を組み合わせてもよい。
[Other Embodiments]
As mentioned above, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. For example, in the embodiment, the range that is obstructed by the slave arm 3b in the
さらに、これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、各実施形態の組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Furthermore, these embodiments can be implemented in various other forms, and various omissions, replacements, changes, and combinations of the embodiments can be made without departing from the spirit of the invention. . These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.
1…遮へい壁、1a…遮へい窓、3…マスタースレーブマニピュレータ(MSM、マニピュレータ装置)、3a…マスターアーム、3b…スレーブアーム、5…シースルー式モニタ(モニタ)、6…視点計測機構部、7…投光機構部、7a…発光部、7b…レーザ光投光機構、7c…グリッド光投光機構部、8a、8b…カメラ、12…ケーブル、13…ディジタル入力インターフェイスボード(入力部)、15…映像取り込み部、16…映像処理演算部、18…2次元映像出力部、20…対象機器(対象物)、21…同期メガネ、23…投光部駆動機構、24…筐体、25…ハーフミラー、26a、26b…レンズ、27a、27b…ハーフミラー、28…レーザ発振器、29…カメラ機構、29a…カメラ、30…レンズ、31…フィルター機構、32…モータ、33…制御回路、34…回転機構、35a、35b…フィルター、36…円盤、40…操作者、50…制御処理部、51a、51b…カメラ機構部、52a、52b…カメラ駆動部、61…マッピング演算部、62…2次元映像演算部、100…遠隔視認装置
DESCRIPTION OF
Claims (12)
前記操作者の視点情報をリアルタイムで計測する視点計測機構部と、
前記壁の操作者側に取り付けられたモニタと、
前記対象物を撮影するカメラと当該カメラを駆動するカメラ駆動部とをそれぞれ有する複数のカメラ機構部と、
前記カメラ機構部からの映像データに基づき前記対象物の3次元的形状を演算し、前記視点計測機構部からの視点情報データに基づき前記操作者から見た前記対象物のうち前記スレーブアームで妨げられ見えない部分を映像で補完して前記スレーブアームに妨げられなければ操作者が見ることができるはずの仮想的な2次元映像を生成して前記見えない部分に相当する範囲に表示するように前記モニタに表示信号を出力する制御処理部と、
を備えることを特徴とする遠隔視認装置。 A remote visual recognition device for operating a manipulator device having a slave arm that is fixed to a wall separating an area where an object is disposed and an area where an operator is located and is remotely operated by the operator and handles the object There,
A viewpoint measurement mechanism unit that measures the viewpoint information of the operator in real time;
A monitor attached to the operator side of the wall;
A plurality of camera mechanisms each having a camera for photographing the object and a camera driving unit for driving the camera;
A three-dimensional shape of the object is calculated based on video data from the camera mechanism, and is obstructed by the slave arm among the objects viewed by the operator based on viewpoint information data from the viewpoint measurement mechanism. The invisible portion is complemented with an image, and a virtual two-dimensional image that the operator should be able to see if it is not obstructed by the slave arm is generated and displayed in a range corresponding to the invisible portion. A control processing unit for outputting a display signal to the monitor;
A remote visual recognition device comprising:
前記視点計測機構部から出力された前記視点情報の信号と前記マニピュレータ装置から出力された前記マニピュレータ装置の各部の位置情報の信号とを入力するための入力部と、
前記カメラからのディジタル映像の信号を取り込む映像取り込み部と、
前記入力部および前記映像取り込み部からの出力を受けて、映像処理計算により合成した前記3次元的形状を演算し、前記2次元映像を生成して出力する映像処理演算部と、
前記映像処理演算部からの前記2次元映像を前記モニタへ出力する2次元映像出力部と、
を有することを特徴とする請求項1に記載の遠隔視認装置。 The control processing unit
An input unit for inputting the viewpoint information signal output from the viewpoint measurement mechanism unit and the position information signal of each part of the manipulator device output from the manipulator device;
A video capturing unit for capturing a digital video signal from the camera;
A video processing calculation unit that receives the output from the input unit and the video capturing unit, calculates the three-dimensional shape synthesized by video processing calculation, and generates and outputs the two-dimensional video;
A 2D video output unit for outputting the 2D video from the video processing operation unit to the monitor;
The remote visual recognition device according to claim 1, comprising:
前記映像処理演算部は、
前記対象物の複数個の点を選択点として同定し、各前記選択点について、三角測量の原理により実空間の3次元位置を計算し、計算した点群により作成された3次元空間の曲面上に3次元合成映像をマッピングして前記3次元的形状を出力するマッピング演算部と、
前記3次元合成映像と、前記視点計測機構部から受けた前記操作者の視点情報および前記マニピュレータ装置の各部の位置情報の信号とに基づき、前記操作者の目の位置および視線方向から見た前記2次元映像を作成する2次元映像演算部と、
を有することを特徴とする請求項2に記載の遠隔視認装置。 The cameras are provided at predetermined intervals in the space on the object side of the wall,
The video processing arithmetic unit is
A plurality of points of the object are identified as selection points, a three-dimensional position in real space is calculated for each of the selection points based on the principle of triangulation, and a curved surface in a three-dimensional space created by the calculated point group A mapping operation unit for mapping the 3D composite video to output the 3D shape;
Based on the operator's eye position and line-of-sight direction based on the 3D composite video, the operator's viewpoint information received from the viewpoint measurement mechanism, and the position information signal of each part of the manipulator device A 2D video calculation unit for creating a 2D video;
The remote visual recognition device according to claim 2, comprising:
前記視点計測機構部は、前記操作者の左右の目の位置および視線方向を計測し、左目の位置および視線方向の情報からなる左目情報と、右目の位置および視線方向の情報からなる右目情報を前記制御処理部に出力し、
前記2次元映像演算部は、前記左目情報に基づく前記操作者の左目から見た2次元映像と、前記右目情報に基づく前記操作者の右目から見た2次元映像とを作成し、前記モニタに交互に出力し、かつ、前記同期メガネに前記左右のシャッターそれぞれの開閉のための同期信号を出力し、
前記操作者が、前記同期メガネを装着することにより立体的視覚を得ることが可能なことを特徴とする請求項3に記載の遠隔視認装置。 The left and right shutters are further equipped with synchronized glasses that can be opened and closed separately.
The viewpoint measurement mechanism unit measures the position and line-of-sight direction of the left and right eyes of the operator, and outputs left-eye information including information on the left-eye position and line-of-sight, and right-eye information including information on the right-eye position and line-of-sight direction. Output to the control processing unit,
The two-dimensional image calculation unit creates a two-dimensional image viewed from the left eye of the operator based on the left eye information and a two-dimensional image viewed from the right eye of the operator based on the right eye information, and displays the two-dimensional image on the monitor. Output alternately, and output synchronization signals for opening and closing each of the left and right shutters to the synchronization glasses,
The remote viewing device according to claim 3, wherein the operator can obtain stereoscopic vision by wearing the synchronous glasses.
前記映像処理演算部は前記グリッド線からの情報に基づいて前記対象物の3次元演算を行う、
ことを特徴とする請求項2ないし請求項4のいずれか一項に記載の遠隔視認装置。 A grid light projecting mechanism for projecting grid light onto the object to generate grid lines that shine on the object;
The video processing calculation unit performs a three-dimensional calculation of the object based on information from the grid lines.
The remote visual recognition device according to any one of claims 2 to 4, wherein the device is a remote visual recognition device.
前記カメラは、色フィルターおよび分光装置を有し、可視光映像、非可視光映像の2つの映像を分離して取り込み可能であることを特徴とする請求項5に記載の遠隔視認装置。 The grid light is invisible;
The remote viewing device according to claim 5, wherein the camera includes a color filter and a spectroscopic device, and is capable of separately capturing two images of a visible light image and a non-visible light image.
前記制御処理部は、前記対象物の中で前記発光部からの光に照射される照射範囲と照射されない非照射範囲の境界と、前記見えない部分の外郭との差を最小とするように、前記投光機構部に前記発光部位置を前記操作者の目の近傍位置に追従するように指令信号を発する、
ことを特徴とする請求項1または請求項2に記載の遠隔視認装置。 A light projecting mechanism that has a light emitting unit that projects illumination light on the object and is capable of adjusting the position of the light emitting unit;
The control processing unit minimizes the difference between the irradiation range irradiated with light from the light emitting unit and the non-irradiation range not irradiated in the object, and the outline of the invisible part, A command signal is issued to the light projecting mechanism unit so that the position of the light emitting unit follows the position near the eyes of the operator.
The remote visual recognition device according to claim 1, wherein the remote visual recognition device is provided.
前記照明光を反射し、かつ前記操作者による前記対象物側の視認を可能とするハーフミラーと、
をさらに備えて、
前記発光部は、前記ハーフミラーに向けて配されて前記照明光が前記ハーフミラーで反射され前記壁の対象物側の対象機器を照らすように構成され、
制御処理部は、前記対象物の中で前記発光部からの光に照射される照射範囲と照射されない非照射範囲の境界と、前記見えない部分の外郭との差を最小とするように、前記発光部からの光の原点が前記操作者の目の位置の位置であるように前記投光機構部が追従するよう指令信号を発する、
ことを特徴とする請求項1または請求項2に記載の遠隔視認装置。 A light projecting mechanism that has a light emitting unit that projects illumination light onto the object and can adjust the position of the light emitting unit;
A half mirror that reflects the illumination light and enables the operator to visually recognize the object side;
Further comprising
The light emitting unit is arranged toward the half mirror, and the illumination light is reflected by the half mirror to illuminate a target device on the target side of the wall,
The control processing unit is configured to minimize a difference between a boundary between an irradiation range irradiated with light from the light emitting unit and a non-irradiation range that is not irradiated in the object, and an outline of the invisible portion. A command signal is issued so that the light projecting mechanism section follows so that the origin of light from the light emitting section is the position of the eyes of the operator.
The remote visual recognition device according to claim 1, wherein the remote visual recognition device is provided.
前記制御処理部は、前記対象物の中で前記発光部からの光に照射される照射範囲と照射されない非照射範囲の境界と、前記見えない部分の外郭との差を最小とするように、前記投光機構部に前記発光部位置を前記操作者の目の近傍位置に追従するように指令信号を発する、
ことを特徴とする請求項3ないし請求項6のいずれか一項に記載の遠隔視認装置。 A light projecting mechanism that has a light emitting unit that projects illumination light on the object and is capable of adjusting the position of the light emitting unit;
The control processing unit minimizes the difference between the irradiation range irradiated with light from the light emitting unit and the non-irradiation range not irradiated in the object, and the outline of the invisible part, A command signal is issued to the light projecting mechanism unit so that the position of the light emitting unit follows the position near the eyes of the operator.
The remote visual recognition device according to any one of claims 3 to 6, wherein the remote visual recognition device is provided.
前記照明光を反射し、かつ前記操作者による前記対象物側の視認を可能とするハーフミラーと、
をさらに備えて、
前記発光部は、前記ハーフミラーに向けて配されて前記照明光が前記ハーフミラーで反射され前記壁の対象物側の対象機器を照らすように構成され、
制御処理部は、前記対象物の中で前記発光部からの光に照射される照射範囲と照射されない非照射範囲の境界と、前記見えない部分の外郭との差を最小とするように、前記発光部からの光の原点が前記操作者の目の位置の位置であるように前記投光機構部が追従するよう指令信号を発する、
ことを特徴とする請求項3ないし請求項6のいずれか一項に記載の遠隔視認装置。 A light projecting mechanism that has a light emitting unit that projects illumination light onto the object and can adjust the position of the light emitting unit;
A half mirror that reflects the illumination light and enables the operator to visually recognize the object side;
Further comprising
The light emitting unit is arranged toward the half mirror, and the illumination light is reflected by the half mirror to illuminate a target device on the target side of the wall,
The control processing unit is configured to minimize a difference between a boundary between an irradiation range irradiated with light from the light emitting unit and a non-irradiation range that is not irradiated in the object, and an outline of the invisible portion. A command signal is issued so that the light projecting mechanism section follows so that the origin of light from the light emitting section is the position of the eyes of the operator.
The remote visual recognition device according to any one of claims 3 to 6, wherein the remote visual recognition device is provided.
前記遠隔視認装置は、
前記操作者の目の3次元的な位置と前記操作者の視線方向に関する視点情報をリアルタイムで計測する視点計測機構部と、
前記遮へい壁の操作者側から前記遮へい壁の対象物側を観察するための遮へい窓を覆うようにして取り付けられたモニタと、
前記対象物を撮影するカメラと当該カメラを駆動するカメラ駆動部とをそれぞれ有する複数のカメラ機構部と、
前記カメラ機構部からの映像データに基づき前記対象物の3次元的形状を演算し、前記視点計測機構部からの視点情報データに基づき前記操作者から見た前記対象物のうち前記スレーブアームで妨げられ見えない部分を映像で補完して前記スレーブアームに妨げられなければ前記操作者が見ることのできるはずの仮想的な2次元映像を生成して前記見えない部分に相当する範囲に表示するように前記モニタに表示信号を出力する制御処理部と、
を有することを特徴とする遠隔視認操作システム。 A remote vision operation system comprising a manipulator device that penetrates a shielding wall against radiation and is fixed to the shielding wall so that an operator remotely handles an object, and a remote vision device for operating the manipulator device,
The remote viewing device includes:
A viewpoint measurement mechanism unit that measures in real time viewpoint information regarding the three-dimensional position of the operator's eyes and the line-of-sight direction of the operator;
A monitor attached to cover a shielding window for observing the object side of the shielding wall from the operator side of the shielding wall;
A plurality of camera mechanisms each having a camera for photographing the object and a camera driving unit for driving the camera;
A three-dimensional shape of the object is calculated based on video data from the camera mechanism, and is obstructed by the slave arm among the objects viewed by the operator based on viewpoint information data from the viewpoint measurement mechanism. An invisible portion is complemented with an image, and a virtual two-dimensional image that the operator should be able to see if it is not obstructed by the slave arm is generated and displayed in a range corresponding to the invisible portion. A control processing unit for outputting a display signal to the monitor;
A remote visual recognition operation system characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013063815A JP6038701B2 (en) | 2013-03-26 | 2013-03-26 | Remote visual recognition device and remote visual operation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013063815A JP6038701B2 (en) | 2013-03-26 | 2013-03-26 | Remote visual recognition device and remote visual operation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014188600A true JP2014188600A (en) | 2014-10-06 |
JP6038701B2 JP6038701B2 (en) | 2016-12-07 |
Family
ID=51835464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013063815A Active JP6038701B2 (en) | 2013-03-26 | 2013-03-26 | Remote visual recognition device and remote visual operation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6038701B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020044491A1 (en) * | 2018-08-30 | 2020-03-05 | TechShare株式会社 | Robot |
CN112313042A (en) * | 2018-06-29 | 2021-02-02 | 国立研究开发法人科学技术振兴机构 | Remote operation system |
CN114332231A (en) * | 2022-03-04 | 2022-04-12 | 成都创像科技有限公司 | Method, device and medium for positioning manipulator and camera in visual inspection equipment |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58137575A (en) * | 1982-02-05 | 1983-08-16 | 株式会社明電舎 | Master/slave type manipulator |
JPS60126985A (en) * | 1983-12-13 | 1985-07-06 | Agency Of Ind Science & Technol | Working state display device for remote control operation |
JPH0360989A (en) * | 1989-07-27 | 1991-03-15 | Hitachi Ltd | Method and device for displaying picture and remote control device |
JP2001239483A (en) * | 2000-02-25 | 2001-09-04 | Toshiba Corp | Manipulator console |
JP2003121126A (en) * | 2001-10-15 | 2003-04-23 | Pentax Corp | Three-dimensional image detector and adapter for three- dimensional image detection |
JP2003131319A (en) * | 2001-10-25 | 2003-05-09 | Seiko Epson Corp | Optical transmission and reception device |
JP2003250812A (en) * | 2002-02-28 | 2003-09-09 | Olympus Optical Co Ltd | Stereoscopic display device for medical treatment |
-
2013
- 2013-03-26 JP JP2013063815A patent/JP6038701B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58137575A (en) * | 1982-02-05 | 1983-08-16 | 株式会社明電舎 | Master/slave type manipulator |
JPS60126985A (en) * | 1983-12-13 | 1985-07-06 | Agency Of Ind Science & Technol | Working state display device for remote control operation |
JPH0360989A (en) * | 1989-07-27 | 1991-03-15 | Hitachi Ltd | Method and device for displaying picture and remote control device |
JP2001239483A (en) * | 2000-02-25 | 2001-09-04 | Toshiba Corp | Manipulator console |
JP2003121126A (en) * | 2001-10-15 | 2003-04-23 | Pentax Corp | Three-dimensional image detector and adapter for three- dimensional image detection |
JP2003131319A (en) * | 2001-10-25 | 2003-05-09 | Seiko Epson Corp | Optical transmission and reception device |
JP2003250812A (en) * | 2002-02-28 | 2003-09-09 | Olympus Optical Co Ltd | Stereoscopic display device for medical treatment |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112313042A (en) * | 2018-06-29 | 2021-02-02 | 国立研究开发法人科学技术振兴机构 | Remote operation system |
CN112313042B (en) * | 2018-06-29 | 2024-05-10 | 国立研究开发法人科学技术振兴机构 | Remote operation system |
WO2020044491A1 (en) * | 2018-08-30 | 2020-03-05 | TechShare株式会社 | Robot |
JPWO2020044491A1 (en) * | 2018-08-30 | 2021-08-10 | TechShare株式会社 | robot |
JP7055883B2 (en) | 2018-08-30 | 2022-04-18 | TechShare株式会社 | robot |
CN114332231A (en) * | 2022-03-04 | 2022-04-12 | 成都创像科技有限公司 | Method, device and medium for positioning manipulator and camera in visual inspection equipment |
Also Published As
Publication number | Publication date |
---|---|
JP6038701B2 (en) | 2016-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230324684A1 (en) | Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking | |
CN113711109B (en) | Head mounted display with direct imaging | |
US20240080433A1 (en) | Systems and methods for mediated-reality surgical visualization | |
CN106535806B (en) | The quantitative three-dimensional imaging of surgical scene from multiport visual angle | |
CN100594517C (en) | Method and device for determining optical overlaps with AR objects | |
US20060176242A1 (en) | Augmented reality device and method | |
US20060038881A1 (en) | Stereoscopic image display | |
TW201843494A (en) | Display system with video see-through | |
CN108885342A (en) | Wide Baseline Stereo for low latency rendering | |
CN101581874B (en) | Tele-immersion teamwork device based on multi-camera acquisition | |
US20190294103A1 (en) | Visualization system and method for generating holographic presentations from optical signals | |
JPWO2011102136A1 (en) | Stereoscopic image display system and stereoscopic glasses | |
JP6038701B2 (en) | Remote visual recognition device and remote visual operation system | |
EP4158447A1 (en) | Systems and methods for providing mixed-reality experiences under low light conditions | |
JP7118650B2 (en) | Display device | |
JP6767481B2 (en) | Eye surgery using light field microscopy | |
JP2005312605A (en) | Gaze position display device | |
JP7501044B2 (en) | DISPLAY SYSTEM, INFORMATION PROCESSING DEVICE, AND DISPLAY CONTROL METHOD FOR DISPLAY SYSTEM | |
CN111586394B (en) | Three-dimensional interactive display system and display method thereof | |
JP6608208B2 (en) | Image display device | |
WO2020137088A1 (en) | Head-mounted display, display method, and display system | |
KR101883883B1 (en) | method for glass-free hologram display without flipping images | |
JP2006201517A (en) | Stereoscopic display device and stereoscopic display method | |
JP2003050274A (en) | Device for visualizing simultaneously three-dimensional space and object emitting characteristic energy as stereoscopic vision in environment having poor visibility | |
JP7446455B2 (en) | Location information acquisition system, location information acquisition method, and location information acquisition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160531 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161102 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6038701 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |