Nothing Special   »   [go: up one dir, main page]

JP2014188600A - Remote visual recognition device and remote visual recognition operation system - Google Patents

Remote visual recognition device and remote visual recognition operation system Download PDF

Info

Publication number
JP2014188600A
JP2014188600A JP2013063815A JP2013063815A JP2014188600A JP 2014188600 A JP2014188600 A JP 2014188600A JP 2013063815 A JP2013063815 A JP 2013063815A JP 2013063815 A JP2013063815 A JP 2013063815A JP 2014188600 A JP2014188600 A JP 2014188600A
Authority
JP
Japan
Prior art keywords
operator
unit
light
visual recognition
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013063815A
Other languages
Japanese (ja)
Other versions
JP6038701B2 (en
Inventor
Katsuhiko Sato
勝彦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013063815A priority Critical patent/JP6038701B2/en
Publication of JP2014188600A publication Critical patent/JP2014188600A/en
Application granted granted Critical
Publication of JP6038701B2 publication Critical patent/JP6038701B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to operate a master slave manipulator in an ordinary attitude.SOLUTION: According to an embodiment, a remote visual recognition device 100 for operating a manipulator device 3 for allowing an operator 40 to remotely handle a target 20 comprises: a view point measurement mechanism part 6 measuring a three-dimensional position and a visual line direction of the eyes of the operator 40 in real time; a monitor 5 attached to cover a shielding window 1a for observing a target 20 side from an operator 40 side of a shielding wall 1; a plurality of camera mechanism parts 51a and 51b including cameras 8a and 8b photographing the target 20 and camera drive parts 52a and 52b for the cameras 8a and 8b, respectively, and three-dimensionally grasping a shape of the target 20; and a control processing part 50 outputting operation instruction signals to the view point measurement mechanism part 6 and the camera mechanism parts 51a and 51b on the basis of an instruction from the operator 40, processing images picked up by the camera mechanism parts 51a and 51b, and outputting a display signal to the monitor 5.

Description

本発明の実施形態は、遠隔視認装置およびこれを用いた遠隔視認操作システムに関する。   Embodiments described herein relate generally to a remote viewing device and a remote viewing operation system using the remote viewing device.

放射性物質を扱う施設、例えば使用済み燃料集合体の再処理施設などでは、放射線レベルが高くて人が直接近づくことができない機器、部屋が存在する。そのような施設においては、機械式や電動式のマニピュレータを用い、遠隔操作により各種機器の分解、部品の交換、組立などの保守、補修作業が行われている。   In facilities that handle radioactive materials, for example, reprocessing facilities for spent fuel assemblies, there are devices and rooms that have high radiation levels and cannot be directly accessed by people. In such facilities, mechanical and electric manipulators are used, and maintenance and repair work such as disassembly of various devices, replacement of parts, and assembly are performed by remote control.

放射線による被ばくを防止するために、遠隔保守、補修を行う部屋は、鉛やコンクリート等の遮へい壁により包囲されており、たとえば、マスタースレーブマニピュレータ(以下、「MSM」と略す。)が、遮へい壁を貫通し、遮へい壁に固定されている。   In order to prevent radiation exposure, a room for remote maintenance and repair is surrounded by a shielding wall such as lead or concrete. For example, a master-slave manipulator (hereinafter abbreviated as “MSM”) has a shielding wall. It is fixed to the shielding wall.

MSMでは、遮へい壁の外側にいる操作者がマスターアームを操作すると、遮へい壁の内側の部分のスレーブアームがそれに従って動くことにより遠隔操作が可能となっている。通常のMSMの操作では、MSMが取り付けられた遮へい壁の正面に遮へい窓があり、この遮へい窓越しにスレーブ側の作業状況をオペレータが直接目視で確認しながら遠隔作業を実施している。したがって、MSM操作の遠隔保守作業の遠隔視認装置は遮へい窓が主体となっている。   In MSM, when an operator outside the shielding wall operates the master arm, the slave arm inside the shielding wall moves according to the movement of the master arm, thereby enabling remote operation. In normal MSM operation, there is a shielding window in front of the shielding wall to which the MSM is attached, and the operator performs remote work while directly confirming the working status of the slave side through this shielding window. Therefore, the remote visual recognition device for the remote maintenance work of the MSM operation is mainly a shielding window.

特開平9−234685号公報Japanese Patent Laid-Open No. 9-234685

上述した遠隔視認のシステムでは、主として、遮へい窓の正面に遠隔操作する対象物を置き、MSMでこれらの作業対象物を扱うのが一般的である。MSMは床よりたとえば2ないし3mの高さの位置で遮へい壁を貫通し、遮へい窓は、通常、MSMが固定されている遮へい壁の真下で、オペレータの立ち位置での目の高さの位置に設けられている。   In the above-described remote visual recognition system, it is common to place an object to be remotely operated mainly in front of a shielding window and handle these work objects with the MSM. The MSM penetrates the shielding wall at a height of, for example, 2 to 3 m above the floor, and the shielding window is usually located directly below the shielding wall to which the MSM is fixed and the eye level at the operator's standing position. Is provided.

このようなレイアウトでは、スレーブアームは遮へい窓正面に上から下に下がってくる状況となり、作業中、しばしば、作業対象物が操作者から見てスレーブアームの向こう側となり、遮へい窓を通して見えない状況が発生する。   In such a layout, the slave arm falls from top to bottom in front of the shielding window, and during work, the work object is often seen from the side of the slave arm as seen by the operator and is not visible through the shielding window. Will occur.

従来のこの形態で、スレーブアームの先端に取り付けられたグリップの先端を見ようとすると、手首を左右のどちらか横に捻った姿勢をとるようにすることが必要であり、この制約条件で遠隔保守作業を計画する必要があった。本来は、遮へい窓から作業状態が見えるのであれば、グリップを真直ぐ正面に伸ばした姿勢で遠隔保守作業を可能とすべきであるが、グリップを正面とする普通の作業姿勢と異なるこのような姿勢のために作業性が劣ることや、グリップが占める空間が広くなるなどの課題があった。   In this conventional configuration, when looking at the tip of the grip attached to the tip of the slave arm, it is necessary to take a posture in which the wrist is twisted to either the left or right side. I had to plan my work. Originally, if the working state can be seen from the shielding window, remote maintenance work should be possible with the grip extended straight to the front. For this reason, there are problems such as poor workability and wide space occupied by the grip.

そこで、本発明の実施形態は、通常の姿勢でマスタースレーブマニピュレータの操作を可能とすることを目的とする。   Therefore, an object of the embodiment of the present invention is to enable operation of a master-slave manipulator in a normal posture.

上述の目的を達成するため、本発明の実施形態は、対象物が配置される領域と、操作者がいる領域とを分ける壁に固定され、前記操作者に遠隔操作されて前記対象物を取り扱うスレーブアームを有するマニピュレータ装置の操作のための遠隔視認装置であって、前記操作者の視点情報をリアルタイムで計測する視点計測機構部と、前記壁の操作者側に取り付けられたモニタと、前記対象物を撮影するカメラと当該カメラを駆動するカメラ駆動部とをそれぞれ有する複数のカメラ機構部と、前記カメラ機構部からの映像データに基づき前記対象物の3次元的形状を演算し、前記視点計測機構部からの視点情報データに基づき前記操作者から見た前記対象物のうち前記スレーブアームで妨げられ見えない部分を映像で補完して前記スレーブアームに妨げられなければ操作者が見ることができるはずの仮想的な2次元映像を生成して前記見えない部分に相当する範囲に表示するように前記モニタに表示信号を出力する制御処理部と、を備えることを特徴とする。   In order to achieve the above-described object, an embodiment of the present invention is fixed to a wall that separates an area where an object is placed and an area where an operator is located, and handles the object by being remotely operated by the operator. A remote visual recognition device for operating a manipulator device having a slave arm, a visual point measurement mechanism unit for measuring the visual point information of the operator in real time, a monitor attached to the operator side of the wall, and the target A plurality of camera mechanism units each having a camera for photographing an object and a camera drive unit for driving the camera, and calculating a three-dimensional shape of the object based on video data from the camera mechanism unit, and measuring the viewpoint A portion of the object seen by the operator based on viewpoint information data from a mechanism unit that is obstructed by the slave arm and cannot be seen is complemented with an image. A control processing unit that generates a virtual two-dimensional image that an operator should be able to see if not obstructed and outputs a display signal to the monitor so as to display it in a range corresponding to the invisible portion; It is characterized by providing.

また、本発明の実施形態は、放射線に対する遮へい壁を貫通して前記遮へい壁に固定されて対象物を操作者が遠隔で取り扱うマニピュレータ装置と、前記マニピュレータ装置の操作のための遠隔視認装置とを備える遠隔視認操作システムであって、前記遠隔視認装置は、前記操作者の目の3次元的な位置と前記操作者の視線方向に関する視点情報をリアルタイムで計測する視点計測機構部と、前記遮へい壁の操作者側から前記遮へい壁の対象物側を観察するための遮へい窓を覆うようにして取り付けられたモニタと、前記対象物を撮影するカメラと当該カメラを駆動するカメラ駆動部とをそれぞれ有する複数のカメラ機構部と、前記カメラ機構部からの映像データに基づき前記対象物の3次元的形状を演算し、前記視点計測機構部からの視点情報データに基づき前記操作者から見た前記対象物のうち前記スレーブアームで妨げられ見えない部分を映像で補完して前記スレーブアームに妨げられなければ前記操作者が見ることのできるはずの仮想的な2次元映像を生成して前記見えない部分に相当する範囲に表示するように前記モニタに表示信号を出力する制御処理部と、を有することを特徴とする。   In addition, an embodiment of the present invention includes a manipulator device that penetrates a shielding wall against radiation and is fixed to the shielding wall, and an operator remotely handles an object, and a remote visual recognition device for operating the manipulator device. A remote visual recognition operation system comprising: a visual point measurement mechanism unit that measures real-time visual point information related to a three-dimensional position of the operator's eyes and a visual line direction of the operator; and the shielding wall. A monitor attached so as to cover a shielding window for observing the object side of the shielding wall from the operator side, a camera for photographing the object, and a camera driving unit for driving the camera. A viewpoint from the viewpoint measurement mechanism unit that calculates a three-dimensional shape of the object based on a plurality of camera mechanism units and video data from the camera mechanism unit Based on the report data, a portion of the object viewed by the operator that is obstructed by the slave arm is supplemented with an image, and the virtual object that the operator should be able to see if the slave arm is not obstructed. And a control processing unit that outputs a display signal to the monitor so as to generate a two-dimensional image and display it in a range corresponding to the invisible portion.

本発明の実施形態によれば、通常の姿勢でマスタースレーブマニピュレータの操作が可能となる。   According to the embodiment of the present invention, the master-slave manipulator can be operated in a normal posture.

本発明の第1の実施形態に係る遠隔視認装置の構成を示す平面図である。It is a top view which shows the structure of the remote visual recognition apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る遠隔視認装置の構成を示す側面図である。It is a side view which shows the structure of the remote visual recognition apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る遠隔視認装置の構成を示すブロック図である。It is a block diagram which shows the structure of the remote visual recognition apparatus which concerns on the 1st Embodiment of this invention. 映像処理演算部等における処理の流れを示すフロー図である。It is a flowchart which shows the flow of a process in a video processing calculating part etc. 本発明の第2の実施形態に係る遠隔視認装置の構成を示す平面図である。It is a top view which shows the structure of the remote visual recognition apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る遠隔視認装置の構成を示す側面図である。It is a side view which shows the structure of the remote visual recognition apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施形態に係る遠隔視認装置の構成を示す側面図である。It is a side view which shows the structure of the remote visual recognition apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第4の実施形態に係る遠隔視認装置のレーザ光投光機構の構成を示す側面図である。It is a side view which shows the structure of the laser beam projection mechanism of the remote visual recognition apparatus which concerns on the 4th Embodiment of this invention. 本発明の第5の実施形態に係る遠隔視認装置のカメラの構成を示す側面図である。It is a side view which shows the structure of the camera of the remote visual recognition apparatus which concerns on the 5th Embodiment of this invention. 本発明の第5の実施形態に係る遠隔視認装置のカメラ内のフィルターを示す正面図である。It is a front view which shows the filter in the camera of the remote visual recognition apparatus which concerns on the 5th Embodiment of this invention.

以下、図面を参照して本発明の実施形態に係る遠隔視認装置について説明する。ここで、互いに同一または類似の部分には、共通の符号を付して、重複説明は省略する。   Hereinafter, a remote visual recognition device according to an embodiment of the present invention will be described with reference to the drawings. Here, the same or similar parts are denoted by common reference numerals, and redundant description is omitted.

[第1の実施形態]
図1は、本発明の第1の実施形態に係る遠隔視認装置の構成を示す平面図である。また、図2は、本発明の第1の実施形態に係る遠隔視認装置の構成を示す側面図である。
[First Embodiment]
FIG. 1 is a plan view showing the configuration of the remote visual recognition apparatus according to the first embodiment of the present invention. FIG. 2 is a side view showing the configuration of the remote visual recognition apparatus according to the first embodiment of the present invention.

遠隔視認操作システムは、マスタースレーブマニピュレータ(以下、「MSM」と略す。)3およびこのMSM3の操作のための遠隔視認装置100を有する。遠隔視認装置100は、シースルー式モニタ5、カメラ機構部51a、51b、視点計測機構部6、投光機構部7および制御処理部50を有する。   The remote visual recognition operation system includes a master slave manipulator (hereinafter abbreviated as “MSM”) 3 and a remote visual recognition device 100 for operating the MSM 3. The remote viewing device 100 includes a see-through monitor 5, camera mechanism units 51a and 51b, a viewpoint measurement mechanism unit 6, a light projecting mechanism unit 7, and a control processing unit 50.

対象物20と操作者40の間には、遮へい壁1が設けられている。遮へい壁1を貫通してMSM3が遮へい壁1に固定された状態で設けられている。MSM3は、遮へい壁1の外側すなわち操作者40側に操作者40が操作するマスターアーム3aを有する。   A shielding wall 1 is provided between the object 20 and the operator 40. The MSM 3 is provided in a state of being fixed to the shielding wall 1 through the shielding wall 1. The MSM 3 has a master arm 3a operated by the operator 40 on the outside of the shielding wall 1, that is, on the operator 40 side.

また、MSM3は、遮へい壁1の内側すなわち対象物20側に、対象物20を直接に取り扱うスレーブアーム3bを有する。スレーブアーム3bは、マスターアーム3aの動きに追従して操作者40の操作と同じ動きをする。MSM3のたとえばスレーブアーム3bの回転軸や伸縮軸などの動作軸にはポジションセンサ、レゾルバなどの位置検出センサが取り付けられており、MSM3の各部の位置情報が出力される。   Further, the MSM 3 has a slave arm 3b that directly handles the object 20 inside the shielding wall 1, that is, on the object 20 side. The slave arm 3b follows the movement of the master arm 3a and performs the same movement as the operation of the operator 40. A position detection sensor such as a position sensor or a resolver is attached to an operation axis such as a rotation axis or a telescopic axis of the slave arm 3b of the MSM 3, and position information of each part of the MSM 3 is output.

遮へい壁1には、遮へい壁1を貫通するように遮へい窓1aが嵌め込まれ固定されている。遮へい窓1aは、操作者40側から対象物20側を見るための窓であり、操作者40から、遮へい壁1の反対側の対象物20側が見えるような位置にあり、必要な範囲が見渡せる大きさである。また、遮へい窓1aは、対象物20側から操作者40側への放射線を遮へいする機能を有している。   A shielding window 1 a is fitted and fixed to the shielding wall 1 so as to penetrate the shielding wall 1. The shielding window 1a is a window for viewing the object 20 side from the operator 40 side, and is located at a position where the operator 40 can see the object 20 side on the opposite side of the shielding wall 1 from which the necessary range can be seen. It is a size. Further, the shielding window 1a has a function of shielding radiation from the object 20 side to the operator 40 side.

遮へい窓1aの操作者40側には、遮へい窓1aを覆うようにシースルー式モニタ5が取り付けられている。シースルー式モニタ5は、モニタ表示がされないときは、操作者40は、シースルー式モニタ5および遮へい窓1aを通して遮へい壁1の対象物20側を見ることができる。   A see-through monitor 5 is attached to the side of the operator 40 of the shielding window 1a so as to cover the shielding window 1a. When the monitor display is not performed on the see-through monitor 5, the operator 40 can see the object 20 side of the shielding wall 1 through the see-through monitor 5 and the shielding window 1a.

また、シースルー式モニタ5の所定の範囲でのモニタ表示信号がシースルー式モニタ5に入力された場合は、この所定の表示範囲については、シースルー式モニタ5によるモニタ映像が表示され、その他の範囲については、操作者40は、シースルー式モニタ5および遮へい窓1aを通して遮へい壁1の対象物20側を見ることができる。   When a monitor display signal in a predetermined range of the see-through type monitor 5 is input to the see-through type monitor 5, the monitor video by the see-through type monitor 5 is displayed for this predetermined display range, and other ranges are displayed. The operator 40 can see the object 20 side of the shielding wall 1 through the see-through monitor 5 and the shielding window 1a.

シースルー式モニタ5は、たとえば、液晶モニタでよい。たとえば、有機EL素子と透明電極を用いることにより、非表示時には透明度が透明ガラスのように高い透明なモニタを製造することができることが知られている。   The see-through monitor 5 may be a liquid crystal monitor, for example. For example, it is known that by using an organic EL element and a transparent electrode, it is possible to manufacture a transparent monitor having a high transparency like transparent glass when not displayed.

遮へい壁1の内側の壁面の遮へい窓1aの斜め上方のそれぞれには、カメラ機構部51a、51bが取り付けられている。カメラ機構部51a、51bは、それぞれ、カメラ8aおよびカメラ8bの向きを調節するカメラ駆動部52aおよび52bを有する。カメラ8a、8bは、いずれも、対象物20およびスレーブアーム3bが撮影範囲となるような方向を向いている。   Camera mechanism portions 51 a and 51 b are attached to the oblique upper portions of the shielding window 1 a on the inner wall surface of the shielding wall 1. The camera mechanism units 51a and 51b have camera drive units 52a and 52b that adjust the orientation of the camera 8a and the camera 8b, respectively. Both the cameras 8a and 8b are oriented in such a direction that the object 20 and the slave arm 3b are within the imaging range.

なお、本実施形態で示したように、カメラは複数台必要である。すなわち、対象物20を3次元的に把握するために少なくとも2つの違う場所からの映像が必要である。なお、本実施形態ではカメラが2台設けられている場合を示したが、必要に応じて3台以上でもよい。   As shown in this embodiment, a plurality of cameras are necessary. That is, in order to grasp the object 20 three-dimensionally, images from at least two different places are necessary. In the present embodiment, the case where two cameras are provided has been described, but three or more cameras may be used as necessary.

また、対象物20の大きさ、作業上、関連する器具等にアクセスするためにスレーブアーム3bの動く範囲などを考慮するとカメラ8a、8bで撮影するエリアの範囲が広い場合は、カメラ8a、8bは広角カメラであることが望ましい。   Further, when the size of the object 20 and the range of movement of the slave arm 3b in order to access related tools for work are taken into consideration, the cameras 8a, 8b Is preferably a wide-angle camera.

遮へい壁1の外側には、視点計測機構部6が設けられている。視点計測機構部6は、操作者40の目の方角の情報として、操作者40の目の位置および視線の方角をリアルタイムに計測する。視点計測機構部6はアイトラッキング機能を有している。これは、レーザレンジファインダーとカメラと画像処理装置などの組合せで実現できる。たとえば、ホビー用民生品でも精度のよいモーション検出用のデバイスが市販されており、このようなものを使用することでもよい。   A viewpoint measuring mechanism 6 is provided outside the shielding wall 1. The viewpoint measurement mechanism unit 6 measures the eye position of the operator 40 and the direction of the line of sight in real time as information on the direction of the eye of the operator 40. The viewpoint measurement mechanism unit 6 has an eye tracking function. This can be realized by a combination of a laser range finder, a camera, an image processing apparatus, and the like. For example, a highly accurate motion detection device is commercially available as a hobby consumer product, and such a device may be used.

遮へい壁1の内側の壁面の遮へい窓1aの上方には、投光機構部7が取り付けられている。投光機構部7は、対象物20を含む範囲に光を投光する。ここで、対象物20の把握を精度良く行う必要がある場合は、光は、レーザ光であることが望ましい。この場合は、投光機構部7は、図示しないレーザ発信器を備えている。   Above the shielding window 1a on the inner wall surface of the shielding wall 1, a light projecting mechanism portion 7 is attached. The light projecting mechanism unit 7 projects light into a range including the object 20. Here, when it is necessary to accurately grasp the object 20, the light is desirably a laser beam. In this case, the light projecting mechanism unit 7 includes a laser transmitter (not shown).

また、光は、非可視光(たとえば赤外線)を含むことでもよい。なお、この場合は、カメラ8a、8bは、非可視光にも感度を有するものとする。非可視光については、たとえば、図2に示すようにグリッド光投光機構部7cを備えることによって、グリッド線上のグリッド光を投光することでもよい。この場合、グリッド光により対象物20上に照射されたグリッド線をカメラ8a、8bが撮影可能であり、対象物20の形状の把握の精度向上に有効である。また、グリッド光は非可視光で投光されているため、対象物20上のグリッド線は目には見えないので、グリッド線が加わって操作上見にくいという事態を避けることができる。あるいは、グリッド光を投光する代わりに単一方向の投光をスキャンさせることでもよい。   The light may include invisible light (for example, infrared light). In this case, the cameras 8a and 8b are also sensitive to invisible light. About invisible light, you may project the grid light on a grid line, for example by providing the grid light projection mechanism part 7c as shown in FIG. In this case, the cameras 8a and 8b can capture the grid lines irradiated on the object 20 by the grid light, which is effective in improving the accuracy of grasping the shape of the object 20. In addition, since the grid light is projected with invisible light, the grid lines on the object 20 are not visible to the eyes, so that it is possible to avoid a situation where the grid lines are added and difficult to see in operation. Alternatively, instead of projecting grid light, unidirectional light projection may be scanned.

遮へい壁1の外側には、遠隔視認装置100の一部を構成する制御処理部50が設けられている。MSM3の各部の位置情報信号は、リアルタイムに制御処理部50に送られる。さらに、カメラ機構部51a、51bからのカメラ映像信号、視点計測機構部6からの操作者40の目の位置および視線情報がリアルタイムに制御処理部50に送られる。また、制御処理部50から視点計測機構部6には視線情報がリアルタイムに送られる。さらに、制御処理部50からシースルー式モニタ5には、モニタ表示に関する信号がリアルタイムに送られる。   A control processing unit 50 that constitutes a part of the remote visual recognition device 100 is provided outside the shielding wall 1. The position information signal of each part of the MSM 3 is sent to the control processing unit 50 in real time. Further, the camera image signals from the camera mechanism units 51a and 51b, the eye position of the operator 40 and the line-of-sight information from the viewpoint measurement mechanism unit 6 are sent to the control processing unit 50 in real time. The line-of-sight information is sent from the control processing unit 50 to the viewpoint measurement mechanism unit 6 in real time. Further, a signal related to monitor display is sent from the control processing unit 50 to the see-through monitor 5 in real time.

これらの信号の送受信は、ケーブル12を介して行われる。なお、本実施形態では、以上の情報の入出力の全てがケーブル12を介する場合を示したが、これに限らない。たとえば、一部、または全部の入出力を無線により行ってもよい。   Transmission / reception of these signals is performed via the cable 12. In the present embodiment, the case where all of the input / output of the above information is via the cable 12 is shown, but the present invention is not limited to this. For example, part or all of input / output may be performed wirelessly.

図3は、本発明の第1の実施形態に係る遠隔視認装置の構成を示すブロック図である。遠隔視認装置100は、前述のように、シースルー式モニタ5、カメラ機構部51a、51b、視点計測機構部6、投光機構部7および制御処理部50を有する。また、制御処理部50は、入力部13、映像取り込み部15、映像処理演算部16および2次元映像出力部18を有する。   FIG. 3 is a block diagram showing the configuration of the remote visual recognition apparatus according to the first embodiment of the present invention. As described above, the remote visual recognition device 100 includes the see-through monitor 5, the camera mechanism units 51a and 51b, the viewpoint measurement mechanism unit 6, the light projecting mechanism unit 7, and the control processing unit 50. In addition, the control processing unit 50 includes an input unit 13, a video capturing unit 15, a video processing calculation unit 16, and a 2D video output unit 18.

入力部13には、視点計測機構部6から出力された操作者40の目の位置および視線情報に関する信号が入力される。また、入力部13には、MSM3から出力されたMSM3各部の位置情報が入力される。   The input unit 13 receives a signal relating to the eye position and line-of-sight information of the operator 40 output from the viewpoint measurement mechanism unit 6. Further, the position information of each part of the MSM 3 output from the MSM 3 is input to the input unit 13.

映像取り込み部15には、カメラ機構部51a、51bそれぞれから出力されたカメラ8a、8bの撮影映像信号が入力される。   The video capturing unit 15 receives captured video signals of the cameras 8a and 8b output from the camera mechanism units 51a and 51b, respectively.

映像処理演算部16には、入力部13に入力された操作者40の目の位置および視線情報、MSM3各部の位置情報、映像取り込み部15に入力されたカメラ8a、8bの撮影映像信号が入力される。   The video processing calculation unit 16 receives the eye position and line-of-sight information of the operator 40 input to the input unit 13, position information of each part of the MSM 3, and the captured video signals of the cameras 8 a and 8 b input to the video capturing unit 15. Is done.

映像処理演算部16は、マッピング演算部61および2次元映像演算部62を有する。映像処理演算部16のマッピング演算部61は、カメラ8a、8bの撮影映像信号に基づき対象物20およびスレーブアーム3bの3次元データを算出する。すなわち、3次元空間における対象物20の形状およびスレーブアーム3bの外形ラインなどの形状データを算出する。   The video processing calculation unit 16 includes a mapping calculation unit 61 and a two-dimensional video calculation unit 62. The mapping calculation unit 61 of the video processing calculation unit 16 calculates three-dimensional data of the object 20 and the slave arm 3b based on the captured video signals of the cameras 8a and 8b. That is, shape data such as the shape of the object 20 in the three-dimensional space and the outline line of the slave arm 3b are calculated.

具体的には、対象物20の代表の複数個の点を選択点として同定し、各選択点について、三角測量の原理により実空間の3次元位置を計算し、計算した点群により作成された3次元空間の曲面上に3次元合成映像をマッピングして3次元的形状を出力する。   Specifically, a plurality of representative points of the object 20 are identified as selection points, and for each selection point, a three-dimensional position in real space is calculated based on the principle of triangulation, and created by the calculated point group. A 3D composite image is mapped onto a curved surface in a 3D space and a 3D shape is output.

また、映像処理演算部16の2次元映像演算部62は、マッピング演算部61で合成した3次元合成映像と、視点計測機構部6から受けた操作者40の目の位置、視線方向に関する情報と、MSM3の各部の位置情報信号とに基づいて、操作者40から対象物20を見た場合に、スレーブアーム3bにより対象物20が見えない範囲を算出する。さらに、この範囲について、以上の演算の結果に基づき操作者40から対象物20を見た場合に、スレーブアーム3bにより対象物20が見えない範囲の2次元的な画像を合成する。   In addition, the 2D video computation unit 62 of the video processing computation unit 16 includes the 3D composite video synthesized by the mapping computation unit 61, the information about the eye position and line-of-sight direction of the operator 40 received from the viewpoint measurement mechanism unit 6. Based on the position information signal of each part of the MSM 3, when the object 20 is viewed from the operator 40, a range in which the object 20 cannot be seen by the slave arm 3b is calculated. Further, for this range, when the object 20 is viewed from the operator 40 based on the result of the above calculation, a two-dimensional image of the range in which the object 20 cannot be seen is synthesized by the slave arm 3b.

2次元映像出力部18は、映像処理演算部16において合成された画像を、操作者40から対象物を見た場合に、スレーブアーム3bにより対象物20が見えない範囲の場所に表示されるように位置を特定した上で、シースルー式モニタ5にこの範囲の画像信号を出力する。   The two-dimensional video output unit 18 displays the image synthesized by the video processing arithmetic unit 16 at a place where the target 20 cannot be seen by the slave arm 3b when the operator 40 views the target. Then, the image signal in this range is output to the see-through monitor 5.

この結果、シースルー式モニタ5には、スレーブアーム3bにより対象物20が見えない範囲の映像がリアルタイムに表示される。なお、シースルー式モニタ5の表示を、映像が無い場合すなわち対象物を遮っているスレーブアーム3bが見える場合と、対象物20のその部分の映像が映し出されている場合とを、操作者40がたとえば切り替え操作で切り替えるようにしてもよい。   As a result, on the see-through monitor 5, an image in a range where the object 20 cannot be seen by the slave arm 3b is displayed in real time. It should be noted that the display of the see-through monitor 5 is shown when the operator 40 has no image, that is, when the slave arm 3b blocking the object is seen and when the image of that part of the object 20 is being projected. For example, the switching operation may be performed.

ここで、操作者40が視覚上、対象物20を立体的に把握しながら作業を行うことができれば操作がしやすくなる。このためには、視点計測機構部6は、操作者40の左右の目のそれぞれの位置および視線方向を別々に計測する。   Here, if the operator 40 can visually perform the work while grasping the object 20 three-dimensionally, the operation becomes easy. For this purpose, the viewpoint measurement mechanism unit 6 measures the positions and line-of-sight directions of the left and right eyes of the operator 40 separately.

また、映像処理演算部16は、スレーブアーム3bにより対象物20が見えない範囲について、操作者40の左右それぞれの目から対象物40を見た場合の2種類について、それぞれ2次元的な画像を合成する。この2次元的な2種類の画像を交互に出力するとともに、同期信号を出力する。   In addition, the video processing calculation unit 16 displays two-dimensional images for the two types when the object 40 is viewed from the left and right eyes of the operator 40 in the range where the object 20 cannot be seen by the slave arm 3b. Synthesize. The two-dimensional two types of images are alternately output and a synchronization signal is output.

操作者40は、同期信号を受けてこの映像と同期可能な同期メガネ21を装着する。同期メガネ21は、左右それぞれに対する同期信号を受ける左右がそれぞれ別個に開閉する。操作者40は、同期メガネ21を装着してこの映像を見ることにより、視覚的にも立体的に把握することができる。同期メガネ21としては、たとえば液晶シャッター付きメガネでよい。   The operator 40 receives the synchronization signal and wears the synchronization glasses 21 that can synchronize with this video. The synchronization glasses 21 are opened and closed separately for the left and right sides that receive the synchronization signals for the left and right sides. The operator 40 can grasp visually and three-dimensionally by wearing the synchronous glasses 21 and viewing this video. As the synchronization glasses 21, for example, glasses with a liquid crystal shutter may be used.

なお、MSM3の操作は主として、遮へい窓1aの正面で行われることから、MSM3での作業中は、投光機構部7からの光の一部はスレーブアーム3bに遮られ、対象物20の表面にはスレーブアーム3bの非投光部の形状が影絵となって投影される。   Since the operation of the MSM 3 is mainly performed in front of the shielding window 1a, part of the light from the light projecting mechanism unit 7 is blocked by the slave arm 3b during the work in the MSM 3, and the surface of the object 20 The shape of the non-projecting part of the slave arm 3b is projected as a shadow.

図4は、映像処理演算部等における処理の流れを示すフロー図である。   FIG. 4 is a flowchart showing the flow of processing in the video processing calculation unit and the like.

映像処理演算部16においてこの非投光部分すなわち影絵の外の境界を利用して、対象物の把握をさらに精度よく行うことができる。具体的には、たとえば、以下の方法がある。   By using this non-projected portion, that is, the boundary outside the shadow picture, the image processing calculation unit 16 can grasp the target object with higher accuracy. Specifically, for example, there are the following methods.

映像処理演算部16は、影絵のエッジ画像を抽出する(ステップS1)。   The video processing calculation unit 16 extracts a shadow edge image (step S1).

ステップS1の後に、カメラ8a、8bの撮影映像(以下、左右映像という。)の非投光部である影絵の外側境界の代表点を選択点として同定する。同定は、特異点などを含んで、左右映像の相関から導き出す。なお、選択点としては、たとえば、エッジ部や辺上に数分割された点等がある(ステップS2)。   After step S1, the representative point of the outer boundary of the shadow image, which is a non-projected part of the captured images (hereinafter referred to as the left and right images) of the cameras 8a and 8b, is identified as a selected point. The identification is derived from the correlation between the left and right images including singular points and the like. Note that, as the selection point, for example, there are a number of points divided on an edge portion or a side (step S2).

ステップS2の後に、同定されたそれぞれの選択点について、左右映像の2次元位置すなわち(x、y)座標位置から三角測量の原理により、各点の実際の空間上の位置(X、Y、Z)を算出する(ステップS3)。   After step S2, for each identified selected point, the position (X, Y, Z) of each point in the actual space according to the principle of triangulation from the two-dimensional position of the left and right images, that is, the (x, y) coordinate position. ) Is calculated (step S3).

ステップS3で得られた映像を仮想の3次元空間にマッピングし、すでに合成した3次元画像があればこれに付加し、3次元ディジタル映像を作成する(ステップS4)。   The video obtained in step S3 is mapped to a virtual three-dimensional space, and if there is a synthesized three-dimensional image, it is added to the three-dimensional image to create a three-dimensional digital video (step S4).

ステップS4で得られ仮想の3次元空間にマッピングされた3次元ディジタル映像に基づき、操作者40の目の位置および視線方向を仮想のカメラとしてこの3次元ディジタル映像を見たときの2次元ディジタル映像を作成する(ステップS5)。なお、2次元ディジタル映像の合成は、操作者40の利き目の位置からの映像とする。どちらが利き目かは入力してもよいし、最初のキャリブレーションの際に決定してもよい。   Based on the 3D digital image mapped in the virtual 3D space obtained in step S4, the 2D digital image when viewing the 3D digital image with the eye position and line-of-sight direction of the operator 40 as the virtual camera. Is created (step S5). Note that the synthesis of the two-dimensional digital image is an image from the dominant position of the operator 40. Which one is dominant may be input, or may be determined at the time of the first calibration.

2次元映像出力部18は、ステップS5で得られた2次元ディジタル映像から、仮想空間において仮想カメラから見るとスレーブアーム3bによって遮られている範囲のみ抜き出し、その抜き出した範囲の映像をシースルー式モニタ5に出力する(ステップS6)。   The two-dimensional video output unit 18 extracts only the range blocked by the slave arm 3b when viewed from the virtual camera in the virtual space from the two-dimensional digital video obtained in step S5, and sees the video of the extracted range in a see-through monitor. 5 (step S6).

次に、以上のように構成された本実施形態の作用を説明する。操作者40が、MSM3を用いて対象物20を取り扱う際に、操作者40から対象物20等を見た場合にスレーブアーム3bによって遮られて見えない部分が生ずる。   Next, the operation of the present embodiment configured as described above will be described. When the operator 40 handles the object 20 using the MSM 3, when the operator 40 views the object 20 or the like, a portion that is not visible due to being blocked by the slave arm 3b occurs.

一方、視点計測機構部6は、そのアイトラッキング機能によって、操作者40の左右の目の位置、それぞれの視線方向を常時追跡し、その情報信号を出力している。また、スレーブアーム3b自身の各部の位置情報も出力されている。これらの出力信号は、制御処理部50の入力部13に取り込まれる。   On the other hand, the viewpoint measurement mechanism unit 6 always tracks the positions of the left and right eyes of the operator 40 and the respective gaze directions by the eye tracking function, and outputs the information signal. In addition, position information of each part of the slave arm 3b itself is also output. These output signals are taken into the input unit 13 of the control processing unit 50.

また、カメラ8a、8bはそれぞれ、対象物20およびそれを取り扱うスレーブアーム3bの映像を出力しており、この映像情報信号は、制御処理部50の映像取り込み部15に取り込まれる。   Each of the cameras 8 a and 8 b outputs an image of the object 20 and the slave arm 3 b that handles the object 20, and the image information signal is captured by the image capturing unit 15 of the control processing unit 50.

制御処理部50においては、入力部13に取り込まれた操作者40の目および視線に関する情報信号、スレーブアーム3b各部の位置情報信号、および映像取り込み部15に取り込まれたカメラ8a、8bの映像情報信号が、映像処理演算部16に入力される。   In the control processing unit 50, information signals regarding the eyes and lines of sight of the operator 40 captured by the input unit 13, position information signals of each part of the slave arm 3 b, and video information of the cameras 8 a and 8 b captured by the video capturing unit 15. The signal is input to the video processing calculation unit 16.

映像処理演算部16では、カメラ8a、8bの映像情報信号に基づき対象物20の3次元的情報を算出する。また、操作者40の位置および視線情報と、MSM3各部の位置情報に基づき、操作者40から対象物を見た場合に、スレーブアーム3bにより対象物20が見えない範囲を算出する。   The video processing calculation unit 16 calculates three-dimensional information of the object 20 based on the video information signals of the cameras 8a and 8b. Further, based on the position and line-of-sight information of the operator 40 and the position information of each part of the MSM 3, when the object is viewed from the operator 40, a range in which the object 20 cannot be seen by the slave arm 3b is calculated.

映像処理演算部16は、さらに、以上の演算の結果に基づき操作者40から対象物20を見た場合に、スレーブアーム3bにより対象物20が見えない範囲の2次元的な画像を合成する。この結果が、2次元映像出力部18からシースルー式モニタ5に出力される。   The video processing calculation unit 16 further synthesizes a two-dimensional image in a range where the target 20 cannot be seen by the slave arm 3b when the target 20 is viewed from the operator 40 based on the result of the above calculation. This result is output from the two-dimensional video output unit 18 to the see-through monitor 5.

シースルー式モニタ5を見る操作者40は、実際に見える対象物20と、見えない部分をカバーするシースルー式モニタ5上の画像とにより、実際に全体が見えるような感覚で操作を行うことができる。   The operator 40 who sees the see-through monitor 5 can perform an operation with a sense that the entire object can be actually seen by the object 20 that is actually visible and the image on the see-through monitor 5 that covers the invisible part. .

また、見えない部分をカバーするシースルー式モニタ5上の画像が、左右の目に対応する画像として交互に映し出されるように構成した場合は、この画像に同期する同期メガネを装着することによって、この見えない部分をカバーするシースルー式モニタ5上の画像をさらに立体的に見ることができる。   In addition, when the image on the see-through monitor 5 that covers the invisible portion is configured to be alternately displayed as an image corresponding to the left and right eyes, by wearing synchronous glasses synchronized with this image, this The image on the see-through type monitor 5 that covers the invisible part can be seen more stereoscopically.

以上のように、本実施形態によれば、対象物20の一部が、スレーブアーム3bにより遮られることを避けるために不自然な姿勢でMSM3を操作する必要がなく、通常の姿勢でMSM3の操作が可能となる。   As described above, according to the present embodiment, it is not necessary to operate the MSM 3 in an unnatural posture in order to avoid that a part of the object 20 is blocked by the slave arm 3b, and the MSM 3 in a normal posture. Operation becomes possible.

[第2の実施形態]
図5は、本発明の第2の実施形態に係る遠隔視認装置の構成を示す平面図である。また、図6は、本発明の第2の実施形態に係る遠隔視認装置の構成を示す側面図である。
[Second Embodiment]
FIG. 5 is a plan view showing the configuration of the remote visual recognition apparatus according to the second embodiment of the present invention. FIG. 6 is a side view showing the configuration of the remote visual recognition apparatus according to the second embodiment of the present invention.

本実施形態は、第1の実施形態の変形である。対象物20のうちで、操作者40から見てMSM3の操作中にスレーブアーム3bに妨げられて見えない部分の外郭と、投光機構部7の発光部7aからの光を受ける照射範囲と光を受けない非照射範囲の境界の差を最小とするように、投光機構部7を追従させるものである。   This embodiment is a modification of the first embodiment. Out of the object 20, the outer portion of the object that cannot be seen by the slave arm 3 b during the operation of the MSM 3 when viewed from the operator 40, the irradiation range and the light that receive light from the light emitting unit 7 a of the light projecting mechanism unit 7 The light projecting mechanism 7 is caused to follow so as to minimize the difference in the boundary of the non-irradiation range that does not receive the light.

第1の実施形態では、投光機構部7は、遮へい壁1の内側すなわち対象物20側の遮へい壁1の壁面に設けられていたが、本実施形態では、遮へい壁1の外側すなわち操作者40側に設けられている。また、投光機構部7の発光部7aは、操作者40の頭の直上に設けられている。   In the first embodiment, the light projecting mechanism unit 7 is provided on the inner side of the shielding wall 1, that is, on the wall surface of the shielding wall 1 on the object 20 side. However, in this embodiment, the outer side of the shielding wall 1, that is, the operator. 40 side is provided. Further, the light emitting unit 7 a of the light projecting mechanism unit 7 is provided immediately above the head of the operator 40.

なお、直上に設けられている理由は、操作者40の動きの妨げにならないようにするためであり、操作者40の動きの妨げにならなければ、操作者40の目の近傍として、左右あるいは、操作者40の顔の前面の下側などでもよい。   The reason why it is provided directly above is to prevent the movement of the operator 40 from being obstructed. If the movement of the operator 40 is not obstructed, the vicinity of the eyes of the operator 40 is The lower side of the front of the face of the operator 40 may be used.

投光機構部7は、視点計測機構部6によってリアルタイムに得られる操作者40の目の位置情報に基づいて操作中に移動する操作者40の目を追って、操作者40の近傍の位置に発光部7aの位置が保たれるように発光部位置をリアルタイムに移動させる。なお、この機能を、操作者40に発光部7aを装着させることにより行ってもよい。   The light projecting mechanism unit 7 emits light at a position near the operator 40 following the eyes of the operator 40 that moves during the operation based on the position information of the eyes of the operator 40 obtained in real time by the viewpoint measurement mechanism unit 6. The light emitting unit position is moved in real time so that the position of the unit 7a is maintained. This function may be performed by causing the operator 40 to attach the light emitting unit 7a.

なお、カメラ8a、8bによる撮影は、非照射部も撮影し、映像化する必要がある。非照射部の撮影が、対象が暗いために困難である場合など、非照射部の識別のための照度が必要な場合は、必要に応じて、投光機構部7とは別に対象物20全体を照らす投光装置を設ければよい。   In addition, in the imaging | photography with the cameras 8a and 8b, it is necessary to image | photograph a non-irradiation part and to image | video. When illuminance for identifying the non-irradiated part is necessary, such as when photographing of the non-irradiated part is difficult because the target is dark, the entire object 20 is separated from the light projecting mechanism unit 7 as necessary. What is necessary is just to provide the light projection apparatus which illuminates.

このように構成された本実施形態においては、映像処理演算部16が、カメラ8a、8bの撮影映像信号に基づき対象物20の3次元空間における形状情報を算出する際に、対象物20の非投光部分の境界点の選択点を用いる場合の精度が向上する。   In the present embodiment configured as described above, when the video processing calculation unit 16 calculates the shape information of the target 20 in the three-dimensional space based on the captured video signals of the cameras 8a and 8b, the non-target of the target 20 is determined. The accuracy when using the selection point of the boundary point of the light projecting portion is improved.

また、3次元的形状の合成の目的は、操作者40から対象物20を見た場合に、スレーブアーム3bにより対象物20が見えない範囲の2次元的な映像を合成することであるが、この2次元的な映像のうち対象物20の照射範囲の映像をそのまま使用できる点で2次元画像生成が効率的、かつ精度よく行える。   The purpose of the synthesis of the three-dimensional shape is to synthesize a two-dimensional image in a range where the object 20 cannot be seen by the slave arm 3b when the operator 20 views the object 20. Of the two-dimensional images, a two-dimensional image can be generated efficiently and accurately in that the image of the irradiation range of the object 20 can be used as it is.

[第3の実施形態]
図7は、本発明の第3の実施形態に係る遠隔視認装置の構成を示す側面図である。本実施形態は、第1の実施形態あるいは第2の実施形態の変形である。本実施形態では、さらに、対象物20のうちで操作者40からみてMSM3の操作中にスレーブアーム3bに妨げられて見えない部分の外郭と、投光機構部7の発光部7aからの光を受ける照射範囲と光を受けない非照射範囲の境界を、近づけるだけでなく、一致させるように投光機構部7を追従させるものである。
[Third Embodiment]
FIG. 7 is a side view showing the configuration of the remote visual recognition apparatus according to the third embodiment of the present invention. This embodiment is a modification of the first embodiment or the second embodiment. In the present embodiment, the outer portion of the object 20 that is not seen by the slave arm 3b during the operation of the MSM 3 when viewed from the operator 40, and the light from the light emitting unit 7a of the light projecting mechanism unit 7 are also displayed. In addition to bringing the boundary between the irradiation range received and the non-irradiation range not receiving light closer, the light projecting mechanism unit 7 is made to follow so as to match.

本実施形態においては、ハーフミラー25が、シースルー式モニタ5と遮へい窓1aの間に設けられている。また、投光機構部7は、ハーフミラー25の上方に下向きに光を発する方向に取り付けられている。   In this embodiment, the half mirror 25 is provided between the see-through monitor 5 and the shielding window 1a. The light projecting mechanism unit 7 is attached above the half mirror 25 in a direction of emitting light downward.

ここで、ハーフミラー25は、透過と反射の割合が50%ずつの場合に限定されず、一部の光が透過して一部の光が反射する機能を有するものを指してハーフミラーと呼んでいる。   Here, the half mirror 25 is not limited to a case where the ratio of transmission and reflection is 50% each, and refers to a half mirror that has a function of transmitting part of light and reflecting part of light. It is out.

また、投光機構部7を上方から支持する投光部駆動機構23が設けられている。投光部駆動機構23は、遮へい壁1に固定支持されている。投光部駆動機構23は、投光機構部7の投光方向を調節するとともに、投光機構部7の水平位置も調節する。   Moreover, the light projection part drive mechanism 23 which supports the light projection mechanism part 7 from upper direction is provided. The light projecting unit driving mechanism 23 is fixedly supported by the shielding wall 1. The light projecting unit driving mechanism 23 adjusts the light projecting direction of the light projecting mechanism unit 7 and also adjusts the horizontal position of the light projecting mechanism unit 7.

投光部駆動機構23には、視点計測機構部6からの信号が入力され、操作者40の目の位置情報に基づいてリアルタイムに投光機構部7の水平位置、投光方向を制御する。   A signal from the viewpoint measuring mechanism unit 6 is input to the light projecting unit driving mechanism 23, and the horizontal position and the light projecting direction of the light projecting mechanism unit 7 are controlled in real time based on the position information of the eyes of the operator 40.

なお、カメラ8a、8bによる撮影は、非照射部も撮影し、映像化する必要がある。非照射部の撮影が、対象が暗いために困難である場合など、非照射部の識別のための照度が必要な場合は、必要に応じて、投光機構部7とは別に対象物20全体を照らす投光装置を設ければよい。   In addition, in the imaging | photography with the cameras 8a and 8b, it is necessary to image | photograph a non-irradiation part and to image. When illuminance for identifying the non-irradiated part is necessary, such as when photographing of the non-irradiated part is difficult because the target is dark, the entire object 20 is separated from the light projecting mechanism unit 7 as necessary. What is necessary is just to provide the light projection apparatus which illuminates.

このような構成による本実施形態においては、投光部駆動機構23は、投光機構部7の水平位置および投光方向を調節することにより、投光機構部7から発せられる光の中心が、操作者40の目の位置から発せられたのと等価にすることができる。   In the present embodiment having such a configuration, the light projecting unit driving mechanism 23 adjusts the horizontal position and the light projecting direction of the light projecting mechanism unit 7 so that the center of the light emitted from the light projecting mechanism unit 7 is It can be equivalent to that emitted from the eye position of the operator 40.

この結果、操作者40から見た対象物20において、スレーブアーム3bによって遮られて見えない範囲と、光がスレーブアーム3bによって遮られて対象物20に光を当てられない非投光部分の範囲が一致する。   As a result, in the target object 20 viewed from the operator 40, a range where the light is blocked by the slave arm 3b and cannot be seen, and a non-light-projected part range where the light is blocked by the slave arm 3b and cannot be applied to the target object 20. Match.

この結果、操作者40は、シースルー式モニタ5上の2次元映像以外の実際に見る対象物20の範囲には非投光範囲はなく全てに光があてられているため、見やすくなる。   As a result, the operator 40 is easy to see because there is no non-projection range in the range of the object 20 to be actually viewed other than the two-dimensional image on the see-through monitor 5, and the light is applied to all.

また、映像処理演算部16が、カメラ8a、8bの撮影映像信号に基づき対象物20の3次元空間における形状情報を算出する際に、対象物20の非投光部分の境界点の選択点を用いる場合の精度が向上する。   Further, when the video processing calculation unit 16 calculates the shape information of the object 20 in the three-dimensional space based on the captured video signals of the cameras 8a and 8b, the selection point of the boundary point of the non-projection part of the object 20 is selected. Accuracy when used is improved.

また、3次元的形状の合成の目的は、操作者40から対象物を見た場合に、スレーブアーム3bにより対象物20が見えない範囲の2次元的な映像を合成することであるが、この2次元的な映像のうち対象物20の照射範囲の映像をそのまま使用できる点で2次元画像生成が効率的、かつ精度よく行える。   The purpose of the synthesis of the three-dimensional shape is to synthesize a two-dimensional image in a range where the object 20 cannot be seen by the slave arm 3b when the operator 40 views the object. Of the two-dimensional images, the two-dimensional image generation can be performed efficiently and accurately in that the image of the irradiation range of the object 20 can be used as it is.

[第4の実施形態]
図8は、本発明の第4の実施形態に係る遠隔視認装置のレーザ光投光機構の構成を示す側面図である。本実施形態は、第3の実施形態の変形であり、第3の実施形態における投光機構部7に代えてレーザ光投光機構7bが投光部駆動機構23(図7参照)に支持されて設けられている。
[Fourth Embodiment]
FIG. 8 is a side view showing the configuration of the laser light projecting mechanism of the remote visual recognition apparatus according to the fourth embodiment of the present invention. This embodiment is a modification of the third embodiment, and a laser light projecting mechanism 7b is supported by a light projecting unit driving mechanism 23 (see FIG. 7) instead of the light projecting mechanism unit 7 in the third embodiment. Is provided.

レーザ光投光機構7bは、筐体24、筐体24に取り付けられたハーフミラー27aおよび筐体24内に収納されたハーフミラー25、レンズ26a、26b、ハーフミラー27b、レーザ発振器28およびカメラ機構29を有する。   The laser light projecting mechanism 7b includes a housing 24, a half mirror 27a attached to the housing 24, a half mirror 25 housed in the housing 24, lenses 26a and 26b, a half mirror 27b, a laser oscillator 28, and a camera mechanism. 29.

ハーフミラー27aおよび27bは、第3の実施形態のおけるハーフミラー25と同様に、本実施形態においては、透過と反射の割合が50%ずつでない場合を含めて透過と反射の機能を有するものを指してハーフミラーと呼んでいる。   As in the case of the half mirror 25 in the third embodiment, the half mirrors 27a and 27b have a function of transmission and reflection in this embodiment, including the case where the ratio of transmission and reflection is not 50% each. It is called half mirror.

レーザ発振器28から発せられたレーザ光は、レンズ26bを経由し、ハーフミラー27bおよびハーフミラー27aを透過して、投光される。   Laser light emitted from the laser oscillator 28 passes through the lens 26b, passes through the half mirror 27b and the half mirror 27a, and is projected.

一方、カメラ機構29から見た映像は、ハーフミラー27aを透過し、ハーフミラー27bで反射し、ハーフミラー25で反射して、レンズ26aを通過して入ってくる。   On the other hand, the image viewed from the camera mechanism 29 is transmitted through the half mirror 27a, reflected by the half mirror 27b, reflected by the half mirror 25, and passes through the lens 26a.

このように構成された本実施形態においては、レーザ光が等価的に操作者40の目の位置から発せされたように見えることに加えて、操作者40から見た映像と同じ映像が、カメラ機構29によって撮影される。   In the present embodiment configured as described above, the same image as the image seen from the operator 40 is displayed in addition to the fact that the laser light appears to be emitted from the eye position of the operator 40 equivalently. Photographed by mechanism 29.

この結果、映像処理演算部16が、カメラ8a、8bの撮影映像信号に基づき対象物20の3次元空間における形状情報を算出し、操作者40から対象物20を見た場合にスレーブアーム3bに遮られて見えない範囲を設定する際に、カメラ機構29による映像を直接使用することによって、演算処理を大幅に削減することができ、また、より精度の高い2次元画像合成を行うことができる。   As a result, the video processing calculation unit 16 calculates the shape information in the three-dimensional space of the object 20 based on the captured video signals of the cameras 8a and 8b, and when the operator 40 views the object 20, the slave arm 3b By directly using the video from the camera mechanism 29 when setting the range that cannot be seen, the calculation process can be greatly reduced, and more accurate two-dimensional image composition can be performed. .

[第5の実施形態]
図9は、本発明の第5の実施形態に係る遠隔視認装置のカメラの構成を示す側面図である。本実施形態は、第1ないし第3の実施形態の変形であり、第1ないし第3の実施形態において、投光機構部7に代えてレーザ光投光機構7bが設けられているか、レーザ光投光機構7bがさらに設けられているかによって、レーザ光が発信されている場合の実施形態である。
[Fifth Embodiment]
FIG. 9 is a side view showing the configuration of the camera of the remote viewing device according to the fifth embodiment of the present invention. This embodiment is a modification of the first to third embodiments. In the first to third embodiments, a laser beam projecting mechanism 7b is provided instead of the projecting mechanism unit 7, or a laser beam is used. In this embodiment, laser light is transmitted depending on whether or not the light projecting mechanism 7b is further provided.

本実施形態におけるカメラ機構29は、カメラ29aおよびフィルター機構31を有する。フィルター機構31は、モータ32、制御回路33、回転機構34および円盤36を有する。   The camera mechanism 29 in this embodiment includes a camera 29a and a filter mechanism 31. The filter mechanism 31 includes a motor 32, a control circuit 33, a rotation mechanism 34, and a disk 36.

図10は、本発明の第5の実施形態に係る遠隔視認装置のカメラ内のフィルターを示す正面図である。円盤36は円環状であり、その内側には、フィルター35aおよびフィルター35bの2種類のフィルターがそれぞれ半円形状に設けられている。   FIG. 10 is a front view showing a filter in the camera of the remote visual recognition apparatus according to the fifth embodiment of the present invention. The disk 36 has an annular shape, and two types of filters, a filter 35a and a filter 35b, are provided in a semicircular shape inside thereof.

2種類のフィルターの内、一方のフィルター35aは、非可視光である赤外線をカットして可視光のみを通過する。もう一つのフィルター35bはレーザ発振器からの赤外線の波長のみ通過させるためのフィルターである。なお、本実施形態では、非可視光について長波長側の赤外線の場合を示しているが、これに限定されない。たとえば、短波長側の紫外線の場合でもよい。   Of the two types of filters, one filter 35a cuts off infrared rays that are invisible light and passes only visible light. The other filter 35b is a filter for passing only the infrared wavelength from the laser oscillator. In addition, in this embodiment, although the case of the infrared of a long wavelength side is shown about invisible light, it is not limited to this. For example, ultraviolet rays on the short wavelength side may be used.

制御回路33は、モータ32を制御し、映像フレーム毎、すなわちたとえば1/30秒ごとに正確に1回転し、フィルター35a、35bが交互に半フレームごとにレンズ30の正面になるように回転制御する。   The control circuit 33 controls the motor 32 to rotate exactly once every video frame, that is, every 1/30 seconds, for example, so that the filters 35a and 35b alternately turn to the front of the lens 30 every half frame. To do.

また、制御回路33は、制御処理部50からの同期信号により左右のカメラ8a、8bを同期運転させて駆動し、可視光の映像、赤外線の映像を交互に左右同時に取り込み可能とする。   In addition, the control circuit 33 drives the left and right cameras 8a and 8b in synchronization with the synchronization signal from the control processing unit 50, so that a visible light image and an infrared image can be alternately captured on the left and right simultaneously.

非可視光と可視光の使い分けは、たとえば、非可視光は、グリッド線上のグリッド光を投光し、可視光は通常の照明とすることでもよい。この場合、グリッド光により対象物20上に照射されたグリッド線をカメラ29aが撮影可能であり、対象物20の形状の把握の精度向上に有効である。また、グリッド光は非可視光で投光されているため、対象物20上のグリッド線は目には見えないので、グリッド線が加わって操作上見にくいという事態を避けることができる。あるいは、グリッド光を投光する代わりに単一方向の投光をスキャンさせることでもよい。   The use of invisible light and visible light may be different from each other, for example, invisible light may be emitted by projecting grid light on a grid line, and visible light may be normal illumination. In this case, the camera 29a can capture the grid lines irradiated on the object 20 by the grid light, which is effective in improving the accuracy of grasping the shape of the object 20. In addition, since the grid light is projected with invisible light, the grid lines on the object 20 are not visible to the eyes, so that it is possible to avoid a situation where the grid lines are added and difficult to see in operation. Alternatively, instead of projecting grid light, unidirectional light projection may be scanned.

このようなカメラ機構29を、第1ないし第3の実施形態における複数のカメラ8a、8bが設けられている箇所に設けることにより、より確実に、簡単にカメラの映像からレーザ光の影の部分を抽出することができるようになる。   By providing such a camera mechanism 29 at a location where the plurality of cameras 8a and 8b according to the first to third embodiments are provided, it is possible to more easily and easily detect the shadow portion of the laser light from the camera image. Can be extracted.

[その他の実施形態]
以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。たとえば、実施形態では、対象物20の中のスレーブアーム3bにより遮られる範囲を映像化して表示することで示したが、対象物20には限定されない。たとえば、映像化する対象は、対象物を取り扱うための機械器具類などを含むものであってもよい。また、各実施形態の特徴を組み合わせてもよい。
[Other Embodiments]
As mentioned above, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. For example, in the embodiment, the range that is obstructed by the slave arm 3b in the object 20 is displayed as an image, but is not limited to the object 20. For example, the object to be visualized may include mechanical instruments for handling the object. Moreover, you may combine the characteristic of each embodiment.

さらに、これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、各実施形態の組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Furthermore, these embodiments can be implemented in various other forms, and various omissions, replacements, changes, and combinations of the embodiments can be made without departing from the spirit of the invention. . These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1…遮へい壁、1a…遮へい窓、3…マスタースレーブマニピュレータ(MSM、マニピュレータ装置)、3a…マスターアーム、3b…スレーブアーム、5…シースルー式モニタ(モニタ)、6…視点計測機構部、7…投光機構部、7a…発光部、7b…レーザ光投光機構、7c…グリッド光投光機構部、8a、8b…カメラ、12…ケーブル、13…ディジタル入力インターフェイスボード(入力部)、15…映像取り込み部、16…映像処理演算部、18…2次元映像出力部、20…対象機器(対象物)、21…同期メガネ、23…投光部駆動機構、24…筐体、25…ハーフミラー、26a、26b…レンズ、27a、27b…ハーフミラー、28…レーザ発振器、29…カメラ機構、29a…カメラ、30…レンズ、31…フィルター機構、32…モータ、33…制御回路、34…回転機構、35a、35b…フィルター、36…円盤、40…操作者、50…制御処理部、51a、51b…カメラ機構部、52a、52b…カメラ駆動部、61…マッピング演算部、62…2次元映像演算部、100…遠隔視認装置   DESCRIPTION OF SYMBOLS 1 ... Shielding wall, 1a ... Shielding window, 3 ... Master slave manipulator (MSM, manipulator apparatus), 3a ... Master arm, 3b ... Slave arm, 5 ... See-through type monitor (monitor), 6 ... Viewpoint measurement mechanism part, 7 ... Light projecting mechanism, 7a ... Light emitting unit, 7b ... Laser light projecting mechanism, 7c ... Grid light projecting mechanism, 8a, 8b ... Camera, 12 ... Cable, 13 ... Digital input interface board (input unit), 15 ... Image capturing unit, 16 ... Video processing operation unit, 18 ... 2D image output unit, 20 ... Target device (object), 21 ... Synchronous glasses, 23 ... Projection unit drive mechanism, 24 ... Housing, 25 ... Half mirror 26a, 26b ... lens, 27a, 27b ... half mirror, 28 ... laser oscillator, 29 ... camera mechanism, 29a ... camera, 30 ... lens, 31 ... fill -Mechanism, 32 ... motor, 33 ... control circuit, 34 ... rotating mechanism, 35a, 35b ... filter, 36 ... disk, 40 ... operator, 50 ... control processing unit, 51a, 51b ... camera mechanism unit, 52a, 52b ... Camera drive unit 61 ... Mapping calculation unit 62 ... 2D image calculation unit 100 ... Remote visual recognition device

Claims (12)

対象物が配置される領域と、操作者がいる領域とを分ける壁に固定され、前記操作者に遠隔操作されて前記対象物を取り扱うスレーブアームを有するマニピュレータ装置の操作のための遠隔視認装置であって、
前記操作者の視点情報をリアルタイムで計測する視点計測機構部と、
前記壁の操作者側に取り付けられたモニタと、
前記対象物を撮影するカメラと当該カメラを駆動するカメラ駆動部とをそれぞれ有する複数のカメラ機構部と、
前記カメラ機構部からの映像データに基づき前記対象物の3次元的形状を演算し、前記視点計測機構部からの視点情報データに基づき前記操作者から見た前記対象物のうち前記スレーブアームで妨げられ見えない部分を映像で補完して前記スレーブアームに妨げられなければ操作者が見ることができるはずの仮想的な2次元映像を生成して前記見えない部分に相当する範囲に表示するように前記モニタに表示信号を出力する制御処理部と、
を備えることを特徴とする遠隔視認装置。
A remote visual recognition device for operating a manipulator device having a slave arm that is fixed to a wall separating an area where an object is disposed and an area where an operator is located and is remotely operated by the operator and handles the object There,
A viewpoint measurement mechanism unit that measures the viewpoint information of the operator in real time;
A monitor attached to the operator side of the wall;
A plurality of camera mechanisms each having a camera for photographing the object and a camera driving unit for driving the camera;
A three-dimensional shape of the object is calculated based on video data from the camera mechanism, and is obstructed by the slave arm among the objects viewed by the operator based on viewpoint information data from the viewpoint measurement mechanism. The invisible portion is complemented with an image, and a virtual two-dimensional image that the operator should be able to see if it is not obstructed by the slave arm is generated and displayed in a range corresponding to the invisible portion. A control processing unit for outputting a display signal to the monitor;
A remote visual recognition device comprising:
前記制御処理部は、
前記視点計測機構部から出力された前記視点情報の信号と前記マニピュレータ装置から出力された前記マニピュレータ装置の各部の位置情報の信号とを入力するための入力部と、
前記カメラからのディジタル映像の信号を取り込む映像取り込み部と、
前記入力部および前記映像取り込み部からの出力を受けて、映像処理計算により合成した前記3次元的形状を演算し、前記2次元映像を生成して出力する映像処理演算部と、
前記映像処理演算部からの前記2次元映像を前記モニタへ出力する2次元映像出力部と、
を有することを特徴とする請求項1に記載の遠隔視認装置。
The control processing unit
An input unit for inputting the viewpoint information signal output from the viewpoint measurement mechanism unit and the position information signal of each part of the manipulator device output from the manipulator device;
A video capturing unit for capturing a digital video signal from the camera;
A video processing calculation unit that receives the output from the input unit and the video capturing unit, calculates the three-dimensional shape synthesized by video processing calculation, and generates and outputs the two-dimensional video;
A 2D video output unit for outputting the 2D video from the video processing operation unit to the monitor;
The remote visual recognition device according to claim 1, comprising:
前記カメラは、前記壁の対象物側空間内に互いに所定の間隔で設けられており、
前記映像処理演算部は、
前記対象物の複数個の点を選択点として同定し、各前記選択点について、三角測量の原理により実空間の3次元位置を計算し、計算した点群により作成された3次元空間の曲面上に3次元合成映像をマッピングして前記3次元的形状を出力するマッピング演算部と、
前記3次元合成映像と、前記視点計測機構部から受けた前記操作者の視点情報および前記マニピュレータ装置の各部の位置情報の信号とに基づき、前記操作者の目の位置および視線方向から見た前記2次元映像を作成する2次元映像演算部と、
を有することを特徴とする請求項2に記載の遠隔視認装置。
The cameras are provided at predetermined intervals in the space on the object side of the wall,
The video processing arithmetic unit is
A plurality of points of the object are identified as selection points, a three-dimensional position in real space is calculated for each of the selection points based on the principle of triangulation, and a curved surface in a three-dimensional space created by the calculated point group A mapping operation unit for mapping the 3D composite video to output the 3D shape;
Based on the operator's eye position and line-of-sight direction based on the 3D composite video, the operator's viewpoint information received from the viewpoint measurement mechanism, and the position information signal of each part of the manipulator device A 2D video calculation unit for creating a 2D video;
The remote visual recognition device according to claim 2, comprising:
左右のシャッターそれぞれが別個に開閉可能な同期メガネをさらに備えて、
前記視点計測機構部は、前記操作者の左右の目の位置および視線方向を計測し、左目の位置および視線方向の情報からなる左目情報と、右目の位置および視線方向の情報からなる右目情報を前記制御処理部に出力し、
前記2次元映像演算部は、前記左目情報に基づく前記操作者の左目から見た2次元映像と、前記右目情報に基づく前記操作者の右目から見た2次元映像とを作成し、前記モニタに交互に出力し、かつ、前記同期メガネに前記左右のシャッターそれぞれの開閉のための同期信号を出力し、
前記操作者が、前記同期メガネを装着することにより立体的視覚を得ることが可能なことを特徴とする請求項3に記載の遠隔視認装置。
The left and right shutters are further equipped with synchronized glasses that can be opened and closed separately.
The viewpoint measurement mechanism unit measures the position and line-of-sight direction of the left and right eyes of the operator, and outputs left-eye information including information on the left-eye position and line-of-sight, and right-eye information including information on the right-eye position and line-of-sight direction. Output to the control processing unit,
The two-dimensional image calculation unit creates a two-dimensional image viewed from the left eye of the operator based on the left eye information and a two-dimensional image viewed from the right eye of the operator based on the right eye information, and displays the two-dimensional image on the monitor. Output alternately, and output synchronization signals for opening and closing each of the left and right shutters to the synchronization glasses,
The remote viewing device according to claim 3, wherein the operator can obtain stereoscopic vision by wearing the synchronous glasses.
前記対象物にグリッド光を投光して前記対象物上で光るグリッド線を生じさせるグリッド光投光機構部をさらに備え、
前記映像処理演算部は前記グリッド線からの情報に基づいて前記対象物の3次元演算を行う、
ことを特徴とする請求項2ないし請求項4のいずれか一項に記載の遠隔視認装置。
A grid light projecting mechanism for projecting grid light onto the object to generate grid lines that shine on the object;
The video processing calculation unit performs a three-dimensional calculation of the object based on information from the grid lines.
The remote visual recognition device according to any one of claims 2 to 4, wherein the device is a remote visual recognition device.
前記グリッド光は非可視光であり、
前記カメラは、色フィルターおよび分光装置を有し、可視光映像、非可視光映像の2つの映像を分離して取り込み可能であることを特徴とする請求項5に記載の遠隔視認装置。
The grid light is invisible;
The remote viewing device according to claim 5, wherein the camera includes a color filter and a spectroscopic device, and is capable of separately capturing two images of a visible light image and a non-visible light image.
前記対象物に照明光を投光する発光部を有して当該発光部位置を調整可能な投光機構部をさらに備え、
前記制御処理部は、前記対象物の中で前記発光部からの光に照射される照射範囲と照射されない非照射範囲の境界と、前記見えない部分の外郭との差を最小とするように、前記投光機構部に前記発光部位置を前記操作者の目の近傍位置に追従するように指令信号を発する、
ことを特徴とする請求項1または請求項2に記載の遠隔視認装置。
A light projecting mechanism that has a light emitting unit that projects illumination light on the object and is capable of adjusting the position of the light emitting unit;
The control processing unit minimizes the difference between the irradiation range irradiated with light from the light emitting unit and the non-irradiation range not irradiated in the object, and the outline of the invisible part, A command signal is issued to the light projecting mechanism unit so that the position of the light emitting unit follows the position near the eyes of the operator.
The remote visual recognition device according to claim 1, wherein the remote visual recognition device is provided.
前記対象物に照明光を投光する発光部を有して当該発光部位置を調整可能な投光機構部と、
前記照明光を反射し、かつ前記操作者による前記対象物側の視認を可能とするハーフミラーと、
をさらに備えて、
前記発光部は、前記ハーフミラーに向けて配されて前記照明光が前記ハーフミラーで反射され前記壁の対象物側の対象機器を照らすように構成され、
制御処理部は、前記対象物の中で前記発光部からの光に照射される照射範囲と照射されない非照射範囲の境界と、前記見えない部分の外郭との差を最小とするように、前記発光部からの光の原点が前記操作者の目の位置の位置であるように前記投光機構部が追従するよう指令信号を発する、
ことを特徴とする請求項1または請求項2に記載の遠隔視認装置。
A light projecting mechanism that has a light emitting unit that projects illumination light onto the object and can adjust the position of the light emitting unit;
A half mirror that reflects the illumination light and enables the operator to visually recognize the object side;
Further comprising
The light emitting unit is arranged toward the half mirror, and the illumination light is reflected by the half mirror to illuminate a target device on the target side of the wall,
The control processing unit is configured to minimize a difference between a boundary between an irradiation range irradiated with light from the light emitting unit and a non-irradiation range that is not irradiated in the object, and an outline of the invisible portion. A command signal is issued so that the light projecting mechanism section follows so that the origin of light from the light emitting section is the position of the eyes of the operator.
The remote visual recognition device according to claim 1, wherein the remote visual recognition device is provided.
前記対象物に照明光を投光する発光部を有して当該発光部位置を調整可能な投光機構部をさらに備え、
前記制御処理部は、前記対象物の中で前記発光部からの光に照射される照射範囲と照射されない非照射範囲の境界と、前記見えない部分の外郭との差を最小とするように、前記投光機構部に前記発光部位置を前記操作者の目の近傍位置に追従するように指令信号を発する、
ことを特徴とする請求項3ないし請求項6のいずれか一項に記載の遠隔視認装置。
A light projecting mechanism that has a light emitting unit that projects illumination light on the object and is capable of adjusting the position of the light emitting unit;
The control processing unit minimizes the difference between the irradiation range irradiated with light from the light emitting unit and the non-irradiation range not irradiated in the object, and the outline of the invisible part, A command signal is issued to the light projecting mechanism unit so that the position of the light emitting unit follows the position near the eyes of the operator.
The remote visual recognition device according to any one of claims 3 to 6, wherein the remote visual recognition device is provided.
前記対象物に照明光を投光する発光部を有して当該発光部位置を調整可能な投光機構部と、
前記照明光を反射し、かつ前記操作者による前記対象物側の視認を可能とするハーフミラーと、
をさらに備えて、
前記発光部は、前記ハーフミラーに向けて配されて前記照明光が前記ハーフミラーで反射され前記壁の対象物側の対象機器を照らすように構成され、
制御処理部は、前記対象物の中で前記発光部からの光に照射される照射範囲と照射されない非照射範囲の境界と、前記見えない部分の外郭との差を最小とするように、前記発光部からの光の原点が前記操作者の目の位置の位置であるように前記投光機構部が追従するよう指令信号を発する、
ことを特徴とする請求項3ないし請求項6のいずれか一項に記載の遠隔視認装置。
A light projecting mechanism that has a light emitting unit that projects illumination light onto the object and can adjust the position of the light emitting unit;
A half mirror that reflects the illumination light and enables the operator to visually recognize the object side;
Further comprising
The light emitting unit is arranged toward the half mirror, and the illumination light is reflected by the half mirror to illuminate a target device on the target side of the wall,
The control processing unit is configured to minimize a difference between a boundary between an irradiation range irradiated with light from the light emitting unit and a non-irradiation range that is not irradiated in the object, and an outline of the invisible portion. A command signal is issued so that the light projecting mechanism section follows so that the origin of light from the light emitting section is the position of the eyes of the operator.
The remote visual recognition device according to any one of claims 3 to 6, wherein the remote visual recognition device is provided.
前記選択点は、前記対象物の照射範囲と、前記スレーブアームに遮られて前記照明光が当たらない非照射範囲との境界の点であることを特徴とする請求項9または請求項10に記載の遠隔視認装置。   The said selection point is a point of a boundary with the irradiation range of the said target object, and the non-irradiation range which the said slave arm does not receive by the said slave arm, The Claim 9 or Claim 10 characterized by the above-mentioned. Remote viewing device. 放射線に対する遮へい壁を貫通して前記遮へい壁に固定されて対象物を操作者が遠隔で取り扱うマニピュレータ装置と、前記マニピュレータ装置の操作のための遠隔視認装置とを備える遠隔視認操作システムであって、
前記遠隔視認装置は、
前記操作者の目の3次元的な位置と前記操作者の視線方向に関する視点情報をリアルタイムで計測する視点計測機構部と、
前記遮へい壁の操作者側から前記遮へい壁の対象物側を観察するための遮へい窓を覆うようにして取り付けられたモニタと、
前記対象物を撮影するカメラと当該カメラを駆動するカメラ駆動部とをそれぞれ有する複数のカメラ機構部と、
前記カメラ機構部からの映像データに基づき前記対象物の3次元的形状を演算し、前記視点計測機構部からの視点情報データに基づき前記操作者から見た前記対象物のうち前記スレーブアームで妨げられ見えない部分を映像で補完して前記スレーブアームに妨げられなければ前記操作者が見ることのできるはずの仮想的な2次元映像を生成して前記見えない部分に相当する範囲に表示するように前記モニタに表示信号を出力する制御処理部と、
を有することを特徴とする遠隔視認操作システム。
A remote vision operation system comprising a manipulator device that penetrates a shielding wall against radiation and is fixed to the shielding wall so that an operator remotely handles an object, and a remote vision device for operating the manipulator device,
The remote viewing device includes:
A viewpoint measurement mechanism unit that measures in real time viewpoint information regarding the three-dimensional position of the operator's eyes and the line-of-sight direction of the operator;
A monitor attached to cover a shielding window for observing the object side of the shielding wall from the operator side of the shielding wall;
A plurality of camera mechanisms each having a camera for photographing the object and a camera driving unit for driving the camera;
A three-dimensional shape of the object is calculated based on video data from the camera mechanism, and is obstructed by the slave arm among the objects viewed by the operator based on viewpoint information data from the viewpoint measurement mechanism. An invisible portion is complemented with an image, and a virtual two-dimensional image that the operator should be able to see if it is not obstructed by the slave arm is generated and displayed in a range corresponding to the invisible portion. A control processing unit for outputting a display signal to the monitor;
A remote visual recognition operation system characterized by comprising:
JP2013063815A 2013-03-26 2013-03-26 Remote visual recognition device and remote visual operation system Active JP6038701B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013063815A JP6038701B2 (en) 2013-03-26 2013-03-26 Remote visual recognition device and remote visual operation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013063815A JP6038701B2 (en) 2013-03-26 2013-03-26 Remote visual recognition device and remote visual operation system

Publications (2)

Publication Number Publication Date
JP2014188600A true JP2014188600A (en) 2014-10-06
JP6038701B2 JP6038701B2 (en) 2016-12-07

Family

ID=51835464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013063815A Active JP6038701B2 (en) 2013-03-26 2013-03-26 Remote visual recognition device and remote visual operation system

Country Status (1)

Country Link
JP (1) JP6038701B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020044491A1 (en) * 2018-08-30 2020-03-05 TechShare株式会社 Robot
CN112313042A (en) * 2018-06-29 2021-02-02 国立研究开发法人科学技术振兴机构 Remote operation system
CN114332231A (en) * 2022-03-04 2022-04-12 成都创像科技有限公司 Method, device and medium for positioning manipulator and camera in visual inspection equipment

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58137575A (en) * 1982-02-05 1983-08-16 株式会社明電舎 Master/slave type manipulator
JPS60126985A (en) * 1983-12-13 1985-07-06 Agency Of Ind Science & Technol Working state display device for remote control operation
JPH0360989A (en) * 1989-07-27 1991-03-15 Hitachi Ltd Method and device for displaying picture and remote control device
JP2001239483A (en) * 2000-02-25 2001-09-04 Toshiba Corp Manipulator console
JP2003121126A (en) * 2001-10-15 2003-04-23 Pentax Corp Three-dimensional image detector and adapter for three- dimensional image detection
JP2003131319A (en) * 2001-10-25 2003-05-09 Seiko Epson Corp Optical transmission and reception device
JP2003250812A (en) * 2002-02-28 2003-09-09 Olympus Optical Co Ltd Stereoscopic display device for medical treatment

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58137575A (en) * 1982-02-05 1983-08-16 株式会社明電舎 Master/slave type manipulator
JPS60126985A (en) * 1983-12-13 1985-07-06 Agency Of Ind Science & Technol Working state display device for remote control operation
JPH0360989A (en) * 1989-07-27 1991-03-15 Hitachi Ltd Method and device for displaying picture and remote control device
JP2001239483A (en) * 2000-02-25 2001-09-04 Toshiba Corp Manipulator console
JP2003121126A (en) * 2001-10-15 2003-04-23 Pentax Corp Three-dimensional image detector and adapter for three- dimensional image detection
JP2003131319A (en) * 2001-10-25 2003-05-09 Seiko Epson Corp Optical transmission and reception device
JP2003250812A (en) * 2002-02-28 2003-09-09 Olympus Optical Co Ltd Stereoscopic display device for medical treatment

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112313042A (en) * 2018-06-29 2021-02-02 国立研究开发法人科学技术振兴机构 Remote operation system
CN112313042B (en) * 2018-06-29 2024-05-10 国立研究开发法人科学技术振兴机构 Remote operation system
WO2020044491A1 (en) * 2018-08-30 2020-03-05 TechShare株式会社 Robot
JPWO2020044491A1 (en) * 2018-08-30 2021-08-10 TechShare株式会社 robot
JP7055883B2 (en) 2018-08-30 2022-04-18 TechShare株式会社 robot
CN114332231A (en) * 2022-03-04 2022-04-12 成都创像科技有限公司 Method, device and medium for positioning manipulator and camera in visual inspection equipment

Also Published As

Publication number Publication date
JP6038701B2 (en) 2016-12-07

Similar Documents

Publication Publication Date Title
US20230324684A1 (en) Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking
CN113711109B (en) Head mounted display with direct imaging
US20240080433A1 (en) Systems and methods for mediated-reality surgical visualization
CN106535806B (en) The quantitative three-dimensional imaging of surgical scene from multiport visual angle
CN100594517C (en) Method and device for determining optical overlaps with AR objects
US20060176242A1 (en) Augmented reality device and method
US20060038881A1 (en) Stereoscopic image display
TW201843494A (en) Display system with video see-through
CN108885342A (en) Wide Baseline Stereo for low latency rendering
CN101581874B (en) Tele-immersion teamwork device based on multi-camera acquisition
US20190294103A1 (en) Visualization system and method for generating holographic presentations from optical signals
JPWO2011102136A1 (en) Stereoscopic image display system and stereoscopic glasses
JP6038701B2 (en) Remote visual recognition device and remote visual operation system
EP4158447A1 (en) Systems and methods for providing mixed-reality experiences under low light conditions
JP7118650B2 (en) Display device
JP6767481B2 (en) Eye surgery using light field microscopy
JP2005312605A (en) Gaze position display device
JP7501044B2 (en) DISPLAY SYSTEM, INFORMATION PROCESSING DEVICE, AND DISPLAY CONTROL METHOD FOR DISPLAY SYSTEM
CN111586394B (en) Three-dimensional interactive display system and display method thereof
JP6608208B2 (en) Image display device
WO2020137088A1 (en) Head-mounted display, display method, and display system
KR101883883B1 (en) method for glass-free hologram display without flipping images
JP2006201517A (en) Stereoscopic display device and stereoscopic display method
JP2003050274A (en) Device for visualizing simultaneously three-dimensional space and object emitting characteristic energy as stereoscopic vision in environment having poor visibility
JP7446455B2 (en) Location information acquisition system, location information acquisition method, and location information acquisition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161102

R151 Written notification of patent or utility model registration

Ref document number: 6038701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151