Nothing Special   »   [go: up one dir, main page]

JP6574939B2 - 表示制御装置、表示制御方法、表示制御システムおよび頭部装着ディスプレイ - Google Patents

表示制御装置、表示制御方法、表示制御システムおよび頭部装着ディスプレイ Download PDF

Info

Publication number
JP6574939B2
JP6574939B2 JP2014187583A JP2014187583A JP6574939B2 JP 6574939 B2 JP6574939 B2 JP 6574939B2 JP 2014187583 A JP2014187583 A JP 2014187583A JP 2014187583 A JP2014187583 A JP 2014187583A JP 6574939 B2 JP6574939 B2 JP 6574939B2
Authority
JP
Japan
Prior art keywords
display
head
unit
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014187583A
Other languages
English (en)
Other versions
JP2016061827A5 (ja
JP2016061827A (ja
Inventor
小田 恭一郎
恭一郎 小田
孝仁 分林
孝仁 分林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014187583A priority Critical patent/JP6574939B2/ja
Priority to CN201580048359.9A priority patent/CN106687065A/zh
Priority to PCT/JP2015/004199 priority patent/WO2016042705A1/en
Priority to US15/325,754 priority patent/US20170151034A1/en
Priority to EP15757573.9A priority patent/EP3178232A1/en
Publication of JP2016061827A publication Critical patent/JP2016061827A/ja
Publication of JP2016061827A5 publication Critical patent/JP2016061827A5/ja
Application granted granted Critical
Publication of JP6574939B2 publication Critical patent/JP6574939B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/00048Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/258User interfaces for surgical systems providing specific settings for specific users
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3616Magnifying glass
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/98Identification means for patients or instruments, e.g. tags using electromagnetic means, e.g. transponders
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Optics & Photonics (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Gynecology & Obstetrics (AREA)
  • Endoscopes (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本開示は、表示制御装置、表示制御方法、表示制御システムおよび頭部装着ディスプレイに関する。
ユーザが装着して使用するウェアラブル端末の1つとして、ヘッドマウントディスプレイ(Head Mounted Display、頭部装着ディスプレイ;以下「HMD」とする。)がある。HMDは、ユーザの頭部に装着して使用する表示装置であり、近年、AV機器やコンピュータゲーム等の表示装置の他、作業環境において作業しながらユーザが情報を確認するための表示装置としても使用されている。
例えば、医療現場において、内視鏡の映像を映し出すための表示装置としてHMDが使用されている。術者は、HMDを装着し、HMDに映し出された映像を見ながら手術を行う。これまで内視鏡の映像は術者の近くに設置されたモニタに表示されるのが一般的であったため、術者はモニタと患部との間で視線を頻繁に動かす必要があった。内視鏡の映像をHMDに映し出すことにより、術者は視線を大きく動かすことなくHMDの表示部に表示された内視鏡の映像と患部とを確認することが可能となる。
ここで、手術室内で複数のユーザがHMDを使用する場合、各ユーザの担当や好みに応じてHMDの表示部に表示する表示内容や表示設定が異なる。表示部の表示設定は、通常HMDを装着する毎に都度設定することはできるが、手間がかかる。そこで、表示設定情報として予め記憶しておき、HMDを使用するユーザのパスワードが識別された際、当該パスワードに関連付けられた表示設定情報に基づいて自動的にHMDの表示設定を行うことも提案されている(例えば、特許文献1)。
特開平09−93513号公報
しかし、上記特許文献1に記載の技術では、そのHMDに記憶されているユーザの表示設定情報に基づいて表示設定を行うため、ユーザにとって自動で表示設定がなされるHMDは固定されていた。また、複数のユーザでHMDの表示設定を同一にしたい場合も、各HMDで表示設定を行う必要があった。
そこで、本開示では、複数のHMDの表示設定をそれぞれ容易に行うことが可能な、新規かつ改良された表示制御装置、表示制御方法、表示制御システムおよび頭部装着ディスプレイを提案する。
本開示によれば、複数の頭部装着ディスプレイそれぞれについて、取得されたユーザ識別情報に関連付けられた表示設定情報に基づいて、頭部装着ディスプレイの表示設定を行う表示制御部を備える、表示制御装置が提供される。
また、本開示によれば、複数の頭部装着ディスプレイそれぞれについて、取得されたユーザ識別情報に関連付けられた表示設定情報に基づいて、頭部装着ディスプレイの表示設定を行う、表示制御方法が開示される。
さらに、本開示によれば、複数の頭部装着ディスプレイと、頭部装着ディスプレイのそれぞれについて表示設定を行う表示制御装置と、からなり、頭部装着ディスプレイは、少なくともユーザ識別情報を取得するリーダ部を備え、表示制御装置は、各頭部装着ディスプレイからユーザ識別情報が入力される入力部と、ユーザ識別情報に関連付けられた表示設定情報に基づいて、頭部装着ディスプレイの表示設定を行う表示制御部と、を備える、表示制御システムが提供される。
また、本開示によれば、少なくともユーザ識別情報を取得するリーダ部と、リーダ部により取得された情報を、表示制御装置に出力する出力部と、を備える、頭部装着ディスプレイが提供される。
以上説明したように本開示によれば、複数のHMDの表示設定をそれぞれ容易に行うことが可能となる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の第1の実施形態に係る内視鏡システムの一構成例を示すシステム構成図である。 同実施形態に係るHMDの表示設定時のユーザの動作を説明する説明図である。 同実施形態に係る表示制御システムを構成するHMDおよびプロセッサユニットの機能構成を示す機能ブロック図である。 HMDの表示設定情報の1つである映像の表示の向きを説明する説明図である。 HMDの表示設定情報の1つである映像の配置を説明する説明図である。 同実施形態に係る表示制御システムにおける表示設定情報に基づく表示処理を示すフローチャートである。 プロセッサユニットにユーザ名を表示させる例を示す説明図である。 プロセッサユニットにユーザIDを表示させる例を示す説明図である。 プロセッサユニットにHMDに表示されている画像を表示させる例を示す説明図である。 外部のディスプレイに通知オブジェクトを表示させる例を示す説明図である。 本開示の第2の実施形態に係る表示制御システムを構成するHMDおよびプロセッサユニットの機能構成を示す機能ブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態(プロセッサユニットにて表示設定情報を保持する場合)
1.1.システム構成
1.2.表示設定方法
(1)概要
(2)機能構成
(3)表示設定処理
2.第2の実施形態(ICカードにて表示設定情報を保持する場合)
3.まとめ
<1.第1の実施形態>
[1.1.システム構成]
まず、図1を参照して、本開示の第1の実施形態に係るHMDを使用したシステムの一例として、内視鏡システムについて説明する。なお、図1は、本実施形態に係る内視鏡システム1の一構成例を示すシステム構成図である。
本実施形態に係る内視鏡システム1は、内視鏡手術において用いられるシステムであり、術者はHMDを装着して内視鏡装置により撮像された患部の様子を視認しながら手術する。内視鏡システム1は、図1に示すように、HMD100(100A、100B)と、ディスプレイ300と、外部機器400(400A、400B)とが、プロセッサユニット200に接続されて構成されている。
HMD100は、外部機器400からの入力映像等の情報を表示する表示装置である。HMD100は、例えばゴーグル形状の非透過型のHMDであって、ユーザが頭部に装着した状態で使用される。HMD100は、当該HMD100の装着者に情報を提示する表示部を備える本体部と、本体部を頭部に固定させるための上部固定部および後部固定部とからなる。固定部で装着者の頭部に固定されると、本体部の表示部が装着者の左右の眼の前に位置するようになる。
本体部は、装着者の両眼を覆う部位である。本体部は、例えば装着者の左右のこめかみ付近まで覆うように構成されてもよい。このような形状とすることで、装着時に装着者の眼前をほぼ完全に被覆することができ、装着者の眼に外光が入射せずより画像を見やすくすることができる。本体部の外表面には、例えば周辺環境を撮影するための撮像部を備えてもよい。これにより、HMD100の装着者は、プロセッサユニット200を介して外部機器400等から提供される情報以外に、HMD100を装着していないときに見える周辺環境の情報も認識できるようになる(ビデオシースルー)。
また、本実施形態に係るHMD100は、例えば本体部には、ユーザ固有の情報であるユーザ識別情報を読み取るためのリーダ部(図2の符号170)が設けられている。リーダ部は、例えばNFC(Near field communication;近距離無線通信)によりNFC対応デバイスから情報を取得可能に構成される。
本体部の内部には、第1の表示部に左眼用画像を提示する第1の表示素子(図3の符号165)と、第2の表示部に右眼用画像を提示する第2の表示素子(図3の符号166)とが設けられている。各表示素子は、例えばプロセッサユニット200より提供される内視鏡装置の画像や、本体部の撮像部により撮像された画像等を提示する。なお、HMD100の表示部に表示される画像の表示制御処理については、後述する。また、本体部には、プロセッサユニット200との情報の送受信を行うため、プロセッサユニット200に接続されるケーブル140(140A、140B)が設けられている。本実施形態では、HMD100とプロセッサユニット200は有線接続されているが、本開示はかかる例に限定されず、機器間での情報通信は無線通信により行ってもよい。
このHMD100の表示部に表示される情報は、リモートコントローラ102(102A、102B)によって切り替えるようにしてもよい。リモートコントローラ102は、1つのHMD100と対となって設けられる。例えばリモートコントローラは装着者が足で踏み入力操作を行うフットスイッチであってもよい。リモートコントローラ102からの入力情報は、プロセッサユニット200へ出力される。
プロセッサユニット200は、接続された機器を制御する制御装置である。本実施形態においては、プロセッサユニット200は、図1に示すように、HMD100(100A、100B)と、ディスプレイ300と、外部機器400(400A、400B)とを制御する。具体的には、プロセッサユニット200は、外部機器400から入力された情報を、HMD100の表示部やディスプレイ300に表示可能な情報に処理し、各表示装置へ出力する。また、プロセッサユニット200は、各HMD100のリモートコントローラ102からの操作入力に基づいて、HMD100の表示部に表示する情報を切り替える。
ディスプレイ300は、不特定のユーザが情報を見るための外部の表示装置である。ディスプレイ300は、主として、HMD100の装着者とともに作業する、HMD100の非装着者が情報を見るために用いられる。ディスプレイ300には、外部機器400からの入力情報やその他の情報を表示することができる。ディスプレイ300に表示される情報は、装着者、非装着者、あるいはプロセッサユニット200によって設定される。
外部機器400は、HMD100やディスプレイ300等の表示装置に表示する情報を出力する機器である。本実施形態の内視鏡システム1においては、例えば外部機器A400Aは内視鏡装置であって、内視鏡装置のカメラにより撮像された映像がプロセッサユニット200へ出力される。
このような内視鏡システム1では、外部機器400から入力された情報がプロセッサユニット200により処理され、HMD100やディスプレイ300等の表示装置に表示される。
[1.2.表示設定方法]
次に、図2〜図10に基づいて、本実施形態に係る各HMD100の表示設定方法について説明する。
(1)概要
まず、図2に基づいて、本実施形態に係るHMD100の表示設定方法の概要を説明する。なお、図2は、本実施形態に係るHMD100の表示設定時のユーザの動作を説明する説明図である。
本実施形態において、HMD100の表示部の表示設定は、HMD100に設けられた情報を取得するリーダ部170によりユーザ識別情報を取得することにより行われる。ユーザ識別情報は、ユーザID等のユーザ固有の情報であって、例えば図2に示すように、ユーザが保持しているIDカード500等から取得される。IDカード500はNFC対応のカードであり、ユーザIDおよびユーザ名、ユーザの所属(部署)等が記憶されている。IDカード500をHMD100のリーダ部170に近接させることで、リーダ部170はIDカード500に記憶されているユーザ識別情報を読み取ることができるようになる。
医療現場においては、衛生上、HMD100に手で触れることができない場合も多い。そこで、NFC対応カードのような非接触型ICカードを用いることで、例えば手術着の下にIDカード500を装着した状態でも、ユーザは手を使わずにHMD100のリーダ部170でユーザ識別情報を読み取ることが可能となる。なお、IDカード500以外にも、NFC対応のデバイス等からユーザ識別情報を取得してもよい。
また、IDカード500から取得されたユーザ識別情報は、ユーザの属性の判別にも利用することができる。例えば、ユーザ識別情報にユーザが医療従事者であるかを示す属性が関連付けられているとする。この場合、リーダ部170によりユーザ識別情報が読み取られた際に、そのユーザ識別情報のユーザが医療従事者であるかが判定され、医療従事者である場合のみHMD100が使用可能となるようにしてもよい。
HMD100のリーダ部170にて取得されたユーザ識別情報は、ケーブル140を介してプロセッサユニット200に入力される。プロセッサユニット200は、HMD100の表示部の表示設定情報をユーザ識別情報と関連付けて記憶している。プロセッサユニット200は、HMD100から入力されたユーザ識別情報に対応する表示設定情報を取得し、取得した表示設定情報に基づいてそのHMD100の表示設定を行う。これにより、ユーザが毎回異なるHMD100を使用しても、ユーザが予め設定した表示設定情報で画像を表示させることができる。また、複数ユーザのHMD100の表示設定を同一にしたい場合には、設定したい表示設定となっているユーザのIDカード500を他のユーザが使用するHMD100のリーダ部170にて読み取らせるだけで、複数ユーザのHMD100の表示設定を同一にできる。
このように、本実施形態に係るHMD100の表示設定方法では、それぞれのユーザについて、HMD100の表示部の表示設定を容易に行うことができ、ユーザが使用するHMD100を固定する必要もなくなる。また、複数ユーザの表示設定を同一にする場合にも特別な操作をする必要もなく、設定の手間を省略することができる。
(2)機能構成
次に、図3〜図5に基づいて、本実施形態に係る表示制御システムを構成するHMD100およびプロセッサユニット200の機能構成について説明する。なお、図3は、本実施形態に係る表示制御システムを構成するHMD100およびプロセッサユニット200の機能構成を示す機能ブロック図である。図4は、HMD100の表示設定情報の1つである映像の表示の向きを説明する説明図である。図5は、HMD100の表示設定情報の1つである映像の配置を説明する説明図である。
なお、図3では、HMD100の表示部の表示制御を行う際に機能する機能部を示しており、実際には、他の機能部を備えているものとする。プロセッサユニット200は、IDカード500から取得されたユーザ識別情報に関連付けられた表示設定情報に基づき、HMD100の表示制御を行う表示制御装置として機能する。
まず、HMD100の表示処理機能についてみると、図3に示すように、HMD100は、ディスプレイポート162と、画像生成部164と、表示素子165、166と、リーダ部170とを備える。
ディスプレイポート162は、プロセッサユニット200からの入力情報を受けるインタフェースである。ディスプレイポート162には、プロセッサユニット200との情報通信を可能にするケーブル140が接続される。ディスプレイポート162には、例えば表示素子165、166へそれぞれ出力する画像信号や、HMD100の装着者が視認している情報が入力される。ディスプレイポート162から入力された情報は、画像生成部164へ出力される。
画像生成部164は、プロセッサユニット200を介して取得された情報に基づき、表示素子165、166へそれぞれ出力する画像信号を生成する。装着者に提示する画像が3D画像である場合には、画像生成部164は、第1の表示素子165へ出力される左眼用画像信号と第2の表示素子166へ出力される右眼用画像信号とにずれを生じさせるずらし処理を行う。ずらし処理では、例えば表示素子165、166と装着者の眼との距離や装着者の眼の間隔、虚像位置等に応じて、左眼用画像信号と右眼用画像信号とのずらし量が決定される。画像生成部164は、生成した画像信号を、第1の表示素子165および第2の表示素子166へ出力する。
表示素子165、166は、画像生成部164から入力される画像信号に基づいて、表示部に向かって画像光を出射する。表示素子165、166は、例えばHMD100の装着時に装着者の顔の前後方向に表示部と対向するように配置される。これにより、表示素子165、166から出射される画像光の光軸は、装着者が正面を向いたときの視線の方向と略平行になる。
表示素子165、166は、例えば有機EL(Electroluminescence)素子で構成される。表示素子165、166として有機EL素子を採用することで、小型で、高コントラスト、迅速な応答性等を実現することができる。表示素子165、166は、例えば複数の赤色有機EL素子、緑色有機EL素子、青色有機EL素子等がマトリクス状に配置された構成を有する。これらの各素子は、アクティブマトリクス型、あるいはパッシブマトリクス型等の駆動回路によって駆動されることで、それぞれ所定のタイミング、輝度等にて自発光する。この駆動回路が画像生成部164で生成された画像信号に基づいて制御されることで、表示素子165、166には全体として所定の画像が表示され、表示部を介して装着者に画像が提供される。
なお、表示素子165、166と表示部との間には、光学系として、例えば複数の接眼レンズ(図示せず。)をそれぞれ配置させてもよい。これらの接眼レンズと装着者の眼とを所定距離で対向させることにより、装着者に対し、画像が所定位置(虚像位置)に表示されるように見える虚像を観察させることが可能となる。このような虚像を提示することで、3D画像を提供することができる。なお、虚像位置及び虚像の大きさは、表示素子165、166及び光学系の構成等によって設定される。
リーダ部170は、IDカード500からユーザ識別情報を読み取る機器である。リーダ部170は、例えば図2に示すように本体部の外表面に設けられている。リーダ部170は、NFCにより、当該リーダ部170に所定の距離以上近づけられたIDカード500等からユーザ識別情報を取得し、プロセッサユニット200へ送信する。
次いで、プロセッサユニット200の表示処理機能についてみる。プロセッサユニット200は、図3に示すように、画像入力部211と、画像処理部212と、入力部213と、表示制御部214と、出力部215と、操作入力部216と、設定記憶部217と、を備える。
画像入力部211は、外部機器400からプロセッサユニット200に入力される画像を受けるインタフェースである。図3の例では、外部機器400として内視鏡装置10が示されており、このとき画像入力部211には、内視鏡装置10のカメラ(図示せず。)により撮像された画像が入力される。画像入力部211は、入力された画像を画像処理部212へ出力する。
画像処理部212は、プロセッサユニット200に入力された画像を、HMD100に表示させるための画像に処理する。画像処理部212では、例えば、内視鏡装置10のカメラにより撮像された画像から、HMD100の第1の表示部に表示させる左眼用画像と第2の表示部に表示させる右眼用画像とを生成する。画像処理部212により画像処理された画像は、表示制御部214へ出力される。
入力部213は、HMD100のリーダ部170にて取得されたユーザ識別情報が入力されるインタフェースである。入力部213に入力されたユーザ識別情報は、表示制御部214へ出力される。
表示制御部214は、HMD100の表示部に表示させる情報を制御する。表示制御部214は、リモートコントローラ102からの表示切替指示に基づき、指示された情報を表示するように制御する。また、表示制御部214は、入力部213から入力されたユーザ識別情報に基づいて対応する表示設定情報を取得し、取得された表示設定情報に基づいて、表示設定を行う。表示制御部214は、各HMD100に表示させる情報およびその表示設定を決定すると、出力部215を介して当該情報を各HMD100へ出力する。
操作入力部216は、HMD100の装着者からの操作入力を受ける入力部である。本実施形態において、HMD10の表示部に表示される情報は、リモートコントローラ102によって切替可能である。リモートコントローラ102に対する操作入力は操作入力部21へ出力され、操作入力部215はこの操作入力情報を表示制御部21に出力する。表示制御部21は、リモートコントローラ102からの表示切替指示に基づき、指示された情報を、出力部21を介してHMD100へ出力する。
設定記憶部217は、各ユーザ識別情報に対応するHMD100の表示設定情報を記憶する記憶部である。設定記憶部127に記憶されている表示設定情報は、例えば、画質や画像の向き、画像の配置等の各種設定情報を含んで構成される。例えば、画質の設定情報は、画像の明るさや色合い等の設定値を表す情報である。画像の向きの情報は、表示部に表示される画像の表示向きを表す情報である。ここで、画像の表示向きとは、基準とする画像の表示状態に対する変化を表す。
例えば、図4に示すように、4人のユーザP1〜P4が作業している状況しており、各ユーザP1〜P4が装着しているHMD100の表示部には、それぞれユーザP1が操作しているカメラにより撮影されている画像が表示されているとする。ユーザP1の装着するHMD100の表示部には、図4右側に示す通常モードの画像が表示されている。この通常モードの画像を基準とする。ここで、撮影対象をユーザP1〜P4が囲んでいるとき、ユーザの立ち位置によって撮影対象の見え方が異なる。例えば、撮影対象を挟んでユーザP1と対向する位置にいるユーザP3、P4は、画像を通常モードから180°回転させた状態で画像を表示させた方が実際の見え方に近くなる。また、ユーザP1の隣にいるユーザP2に対しては、画像を通常モードから左右反転モードで表示させた方がよい場合もある。
各ユーザP1〜P4の立ち位置は、ユーザの作業時の役割によって決まることが多い。そこで、頻繁に変更される設定情報ではない場合には、各ユーザのユーザ識別情報に関連付けて画像の表示向きの設定を予め記憶しておくことで、ユーザの表示設定の負荷を軽減することができる。
また、画像の配置の情報は、PinP機能により表示領域内に1または複数の画像を同時に表示させることが可能な場合に、どの画像をどのように配置して表示するかを表す情報である。例えば、図5に示す例では、ユーザP1は、HMD100の表示部の全体にメイン画面を表示させ、メイン画面の右上にサブ画面を小さく表示させるように設定している。例えば、メイン画像を内視鏡カメラの映像とし、サブ画像をCTスキャン画像とすると、メイン画面に内視鏡カメラの映像が大きく表示され、その右上にCTスキャン画像が表示されるようになる。
また、ユーザP3は、HMD100の表示部の左側にメイン画面を表示させ、メイン画面の右側に2つのサブ画面を小さく表示させるように設定している。例えば、メイン画像を内視鏡カメラの映像とし、サブ画像をレントゲン写真および外部視野画像(ビデオシースルー画像)とすると、メイン画面に内視鏡カメラの映像が表示され、その右側にレントゲン写真とビデオシースルー画像とが上下に並んで表示される。このように、各ユーザが見たい画像を見やすい配置で提示することができる。
設定記憶部217には、このようなHMD100の表示部に表示される画像の表示設定情報が、ユーザ識別情報に関連付けられて記憶される。なお、設定記憶部217に記憶されている表示設定情報は、ユーザが設定を変更した場合には変更後の設定を記憶させるようにしてもよい。
(3)表示設定処理
図6〜図9に基づいて、本実施形態に係る表示制御システムにおける表示設定情報に基づく表示処理について説明する。なお、図6は、本実施形態に係る表示制御システムにおける表示設定情報に基づく表示処理を示すフローチャートである。図7〜図9は、プロセッサユニット200に表示設定の状態を表示させる例を示す説明図である。
本実施形態に係る表示制御システムにおいて、HMD100の表示部の表示設定を行うには、まず、設定するHMD100のリーダ部170にユーザ識別情報を取得させる(S100)。ユーザは、例えば図2に示したように、HMD100のリーダ部170に対して、ユーザ識別情報を保持しているIDカード500近づけて、ユーザ識別情報を取得させる。リーダ部170により取得されたユーザ識別情報は、ケーブル140を介してプロセッサユニット200へ出力される。
次いで、HMD100からユーザ識別情報の入力を受けたプロセッサユニット200は、表示制御部214により、ユーザ識別情報に対応する表示設定情報を設定記憶部217から取得する(S110)。そして、表示制御部214は、ユーザ識別情報に関連付けられた表示設定情報を取得すると、その表示設定情報に基づいて、画像処理部212により画像処理された画像がHMD100に表示されるよう制御する(S120)。例えば表示制御部214は、画像の明るさや色合い、画像の表示の向き、表示させる画像数とその配置等を、表示設定情報に設定されている内容に基づき設定する。なお、表示設定情報にて指定されていない表示設定情報については、予め設定された所定の値が設定される。
表示制御部214により、表示設定情報に基づく画像とされると、出力部215を介してHMD100に画像データが出力される。このとき、表示制御部214は、HMD100の表示設定がどのユーザ識別情報に基づくものであるかをプロセッサユニット200に設けられた通知部に表示させるようにしてもよい(S130)。
プロセッサユニット200には、当該プロセッサユニット200に接続されたHMD100の設定状態を示す各種通知部や、HMD100を操作する各種操作ボタンが設けられている。例えば、図7に示すように、それぞれ2つのHMD100が接続されたプロセッサユニット200−1、200−2には、操作通知部230がHMD100それぞれに対して設けられている。
操作通知部230には、図7に示すように、例えば、HMD100へ出力する画像の入力信号選択ボタン231や、HMD100に出力されている画像を通知する入力画像通知部232、サブ画面の表示のオン/オフを切り替えるPinPボタン233がある。さらに、操作通知部230には、表示されている画像の向きを表す反転表示インジケータ234や、表示されている画像の向きを切り替える反転表示切替ボタン235も等が設けられている。さらに、操作通知部230に、本実施形態のように、ユーザ識別情報に基づいてHMD100の表示部の設定を自動的に行った場合にどのユーザ(ユーザ識別情報)に基づき表示設定が行われたかを通知する設定通知部236を設けてもよい。
設定通知部236は、例えば情報を表示可能な表示パネル等により構成することができる。設定通知部236に表示される内容は、例えば図7に示すように、表示設定情報に関連付けられたユーザ識別情報を有するユーザ名(例えば、「AA医師」等)を表示してもよい。あるいは、図8に示すように、ユーザ識別情報であるユーザID(「A01」、「B01」等)を設定通知部236に表示してもよく、図9に示すように、HMD100に表示されている画像を設定通知部236に表示させてもよい。
このように、プロセッサユニット200に、HMD100の表示設定の状態を表示させることで、例えば第3者がHMD100に表示させる画像を変更する際に、誤って他のHMD100の表示設定を変更してしまうといった誤操作を防止することができる。さらに、プロセッサユニット200の設定通知部236に表示された内容を、当該設定がされているHMD100にも表示するようにしてもよい。これにより、HMD100を装着しているユーザの周囲の人が、より確実に、各HMD100の表示設定がどのようになっているかを認識することができるようになる。
また、プロセッサユニット200は、各HMD100の表示設定の状態を、外部のディスプレイ300に表示させてもよい。例えば図10に示すように、あるユーザのHMD100に表示されている画像600とともに、そのHMD100を使用するユーザ識別情報を示す通知オブジェクト610をディスプレイ300に表示させてもよい。通知オブジェクト610には、図10に示すようなユーザIDやユーザ名等が表示される。これにより、各HMD100の表示設定がどのユーザ識別情報に基づき行われているかを、HMD100の装着者以外の人に通知することができる。
また、外部のディスプレイ300の表示面がタッチパネル等で構成されている場合には、ディスプレイ300に表示されている表示設定の状態を表すオブジェクトを操作して、その設定を調整可能に構成することもできる。例えば、ユーザ識別情報の1つであるユーザIDを変更することでHMD100の表示設定をまとめて変更できるようにしてもよく、表示設定情報に含まれる各種設定状態を変更できるようにしてもよい。これにより、例えば、看護師等の、HMD100の装着者以外の人も、容易にHMD100の表示設定の切り替え等の操作を行うことが可能となる。
以上、本実施形態に係る表示制御システムにおける表示設定処理について説明した。本実施形態によれば、HMD100のリーダ部170によってIDカード500等から取得されたユーザ識別情報に基づいて、予め設定された表示設定情報を取得し、HMD100の表示設定を行う。これにより、ユーザは、使用するHMD100を固定する必要がなく、使用するHMD100の表示設定も容易に行うことができる。また、あるユーザの表示設定を複数ユーザで共有することも容易に行うことができる。
<2.第2の実施形態>
図11に基づいて、本開示の第2の実施形態に係る表示制御システムについて説明する。なお、図11は、本実施形態に係る表示制御システムを構成するHMDおよびプロセッサユニットの機能構成を示す機能ブロック図である。ここでも、第1の実施形態と同様、内視鏡システム2へ本実施形態に係る表示制御システムを適用した場合について説明する。本実施形態に係る表示制御システムは、第1の実施形態に係る表示制御システムと比較して、各ユーザのHMD100の表示設定情報がIDカード500pに記憶されている点で相違する。以下では、第1の実施形態との相違点について説明し、第1の実施形態と同様の機能部についての詳細な説明は省略する。
まず、HMD100pの表示処理機能についてみると、図11に示すように、HMD100は、ディスプレイポート162と、画像生成部164と、表示素子165、166と、リーダ部170とを備える。これらの機能構成は、第1の実施形態に係るHMD100と同一である。
本実施形態において、リーダ部170は、IDカード500pからユーザ識別情報に加え、HMD100の表示設定情報も取得する。IDカード500pは設定記憶部520を記憶するメモリを備えており、設定記憶部520には予め各ユーザが設定したHMD100の表示設定情報が記憶されているものとする。リーダ部170は、取得したユーザ識別情報および表示設定情報を、プロセッサユニット200pへ送信する。
一方、プロセッサユニット200pの表示処理機能は、図11に示すように、プロセッサユニット200は、画像入力部211と、画像処理部212と、入力部213と、表示制御部214と、出力部215と、操作入力部216と、を備える。これらの機能構成は、第1の実施形態に係るプロセッサユニット200と同一である。なお、本実施形態に係るプロセッサユニット200pには、表示設定情報を記憶する設定記憶部は設けられていなくてもよい。
本実施形態に係る入力部213は、HMD100のリーダ部170にて取得されたユーザ識別情報および表示設定情報が入力されるインタフェースである。入力部213に入力されたこれらの情報は、表示制御部214へ出力される。
表示制御部214は、HMD100の表示部に表示させる情報を制御する。表示制御部214は、リモートコントローラ102からの表示切替指示に基づき、指示された情報を表示するように制御する。また、表示制御部214は、入力部213から入力された表示設定情報に基づいて、HMD100の表示設定を行い、画像処理部212から入力された画像を、出力部215を介して各HMD100pへ出力する。
このように、HMD100の表示設定情報を、ユーザ識別情報とともに保持しておくことで、プロセッサユニット200p内に各ユーザの表示設定情報を保持する必要がなくなる。したがって、ユーザが初めて使用するHMD100p、プロセッサユニット200pに対しても、ユーザの所望の表示設定でHMD100に画像を表示することができる。なお、本実施形態においても、第1の実施形態と同様、HMD100の表示設定の状態をHMD100や外部のディスプレイ300に表示させるようにしてもよい。
<3.まとめ>
以上、本開示の実施形態に係る表示制御システムの構成とこれによる表示設定処理について説明した。上述の実施形態によれば、HMD100に設けられたリーダ部170により、少なくともユーザを特定するユーザ識別情報を取得する。そして、ユーザ識別情報に関連付けられたHMD100の表示設定情報に基づき、当該ユーザ識別情報を取得したHMD100の表示設定が行われる。これにより、ユーザは、使用するHMD100を固定する必要がなく、容易に所望の表示設定を行うことができる。また、HMD100のリーダ部170にIDカード500をかざせばそのHMD100の表示設定を行うことができるので、あるユーザの表示設定情報を複数ユーザで共有することも容易に行うことができる。
また、上述の実施形態では、提案する表示制御システムを内視鏡システムへ適用した場合について説明したが、本開示はかかる例に限定されない。例えば、表示制御システムを、内視鏡以外の、他の医療機器により取得された生体内画像の表示設定へ適用することが考えられる。例えば、アンギオグラフィー(血管造影検査検査法)での血管観察やその際に行われる治療等においてHMDを用いる場合や、脳外科手術にて光学系顕微鏡画像をHMDで見る場合等において、その表示設定を上記表示制御システムにて行ってもよい。さらに、超音波検査等の暗い箇所での作業時にHMDを用いて超音波映像や他の画像を同時に見るような場合や、拡大鏡を用いた開腹手術時にHMDを用いる場合にも、上記表示制御システムにてHMDの表示設定を行うこともできる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、ユーザ識別情報の読み取るリーダ部170は、NFCにより情報を取得するものとしたが、本技術はかかる例に限定されない。例えば、HMD100の装着者の生体情報をユーザ識別情報として取得するリーダ部であってもよい。このとき、ユーザ識別情報は、例えば眼の虹彩や指紋等としてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
複数の頭部装着ディスプレイそれぞれについて、取得されたユーザ識別情報に関連付けられた表示設定情報に基づいて、頭部装着ディスプレイの表示設定を行う表示制御部を備える、表示制御装置。
(2)
前記頭部装着ディスプレイからの情報が入力される入力部と、
前記表示設定情報を記憶する設定記憶部と、
を備え、
前記入力部は、表示設定を行う前記頭部装着ディスプレイに設けられたリーダ部により取得された前記ユーザ識別情報の入力を受け、
前記表示制御部は、前記入力部に入力された前記ユーザ識別情報に基づいて、前記設定記憶部から前記ユーザ識別情報に関連付けられた前記表示設定情報を取得する、前記(1)に記載の表示制御装置。
(3)
前記頭部装着ディスプレイからの情報が入力される入力部を備え、
前記入力部は、表示設定を行う前記頭部装着ディスプレイに設けられたリーダ部により取得された前記ユーザ識別情報および前記表示設定情報の入力を受け、
前記表示制御部は、前記入力部に入力された前記表示設定情報に基づいて、頭部装着ディスプレイの表示設定を行う、前記(1)に記載の表示制御装置。
(4)
前記各頭部装着ディスプレイの表示設定の状態を通知する通知部を備える、前記(1)〜(3)のいずれか1項に記載の表示制御装置。
(5)
前記表示制御部は、前記頭部装着ディスプレイに対する表示設定の状態を、外部の表示装置に表示させる、前記(1)〜(4)のいずれか1項に記載の表示制御装置。
(6)
前記表示制御部は、前記各頭部装着ディスプレイの前記ユーザ識別情報を、外部の表示装置に表示させる、前記(1)〜(5)のいずれか1項に記載の表示制御装置。
(7)
前記表示設定情報は、少なくとも画質、画像の配置、画像の表示方向のうち、少なくともいずれか1つである、前記(1)〜(6)のいずれか1項に記載の表示制御装置。
(8)
前記ユーザ識別情報は、非接触型ICカードに記憶されたユーザ固有の情報である、前記(1)〜(7)のいずれか1項に記載の表示制御装置。
(9)
前記表示設定情報は、前記頭部装着ディスプレイに対する生体内画像の表示に関する情報である、請求項(1)〜(8)のいずれか1項に記載の表示制御装置。
(10)
複数の頭部装着ディスプレイそれぞれについて、取得されたユーザ識別情報に関連付けられた表示設定情報に基づいて、頭部装着ディスプレイの表示設定を行う、表示制御方法。
(11)
複数の頭部装着ディスプレイと、
前記頭部装着ディスプレイのそれぞれについて表示設定を行う表示制御装置と、
からなり、
前記頭部装着ディスプレイは、少なくともユーザ識別情報を取得するリーダ部を備え、
前記表示制御装置は、
前記各頭部装着ディスプレイからユーザ識別情報が入力される入力部と、
前記ユーザ識別情報に関連付けられた表示設定情報に基づいて、前記頭部装着ディスプレイの表示設定を行う表示制御部と、
を備える、表示制御システム。
(12)
少なくともユーザ識別情報を取得するリーダ部と、
前記リーダ部により取得された情報を、表示制御装置に出力する出力部と、
を備える、頭部装着ディスプレイ。
1 内視鏡システム
100 HMD
102 リモートコントロー
62 ディスプレイポート
164 画像生成部
165 第1の表示素子
166 第2の表示素子
170 リーダ部
200 プロセッサユニット
211 画像入力部
212 画像処理部
213 入力部
214 表示制御部
215 出力部
216 操作入力部
217 設定記憶部(プロセッサユニット)
300 ディスプレイ
400 外部機器
500 IDカード
520 設定記憶部(IDカード)

Claims (11)

  1. 複数の頭部装着ディスプレイそれぞれから取得されたユーザ識別情報が入力される入力部と、
    前記ユーザ識別情報に基づいて前記複数の頭部装着ディスプレイの表示部に表示される画像の表示向きを表す情報を含む表示設定情報を取得し、該表示設定情報に基づいて前記複数の頭部装着ディスプレイの前記表示部に表示される画像の表示向きに関する表示設定を行うとともに、前記ユーザ識別情報に基づく通知情報を前記複数の頭部装着ディスプレイとは異なる外部の表示装置に表示させる表示制御部と、
    を備え、
    前記表示制御部は、前記複数の頭部装着ディスプレイのうち、少なくとも一の頭部装着ディスプレイについて、当該頭部装着ディスプレイに表示されている画像と前記通知情報とを、前記表示装置に表示させるとともに、前記複数の頭部装着ディスプレイに、前記表示設定をした前記画像の表示向きを示す情報を表示させる、表示制御装置。
  2. 前記表示設定情報を記憶する設定記憶部と、
    を備え、
    前記入力部は、表示設定を行う前記頭部装着ディスプレイに設けられたリーダ部により取得された前記ユーザ識別情報の入力を受け、
    前記表示制御部は、前記入力部に入力された前記ユーザ識別情報に基づいて、前記設定記憶部から前記ユーザ識別情報に関連付けられた前記表示設定情報を取得する、請求項1に記載の表示制御装置。
  3. 前記入力部は、表示設定を行う前記頭部装着ディスプレイに設けられたリーダ部により取得された前記ユーザ識別情報および前記表示設定情報の入力を受け、
    前記表示制御部は、前記入力部に入力された前記表示設定情報に基づいて、頭部装着ディスプレイの表示設定を行う、請求項1に記載の表示制御装置。
  4. 前記表示設定情報は、少なくとも画質、画像の配置、画像の表示方向のうち、少なくともいずれか1つである、請求項1〜3のいずれか1項に記載の表示制御装置。
  5. 前記ユーザ識別情報は、非接触型ICカードに記憶されたユーザ固有の情報である、請求項1〜4のいずれか1項に記載の表示制御装置。
  6. 前記表示設定情報は、前記頭部装着ディスプレイに対する生体内画像の表示に関する情報である、請求項1〜5のいずれか1項に記載の表示制御装置。
  7. 複数の頭部装着ディスプレイそれぞれから取得されたユーザ識別情報が入力されること、
    前記ユーザ識別情報に基づいて前記複数の頭部装着ディスプレイの表示部に表示される画像の表示向きを表す情報を含む表示設定情報を取得すること、
    取得した前記表示設定情報に基づいて前記複数の頭部装着ディスプレイの前記表示部に表示される画像の表示向きに関する表示設定を行うこと、
    前記ユーザ識別情報に基づく通知情報を前記複数の頭部装着ディスプレイとは異なる外部の表示装置に表示させること、
    とを含み、
    前記複数の頭部装着ディスプレイのうち、少なくとも一の頭部装着ディスプレイについて、当該頭部装着ディスプレイに表示されている画像と前記通知情報とを、前記表示装置に表示させるとともに、前記複数の頭部装着ディスプレイに、前記表示設定をした前記画像の表示向きを示す情報を表示させる、表示制御方法。
  8. 複数の頭部装着ディスプレイと、
    前記頭部装着ディスプレイのそれぞれについて表示設定を行う表示制御装置と、
    からなり、
    前記頭部装着ディスプレイは、少なくともユーザ識別情報を取得するリーダ部を備え、
    前記表示制御装置は、
    前記各頭部装着ディスプレイから取得されたユーザ識別情報が入力される入力部と、
    前記ユーザ識別情報に基づいて前記複数の頭部装着ディスプレイの表示部に表示される画像の表示向きを表す情報を含む表示設定情報を取得し、該表示設定情報に基づいて前記複数の頭部装着ディスプレイの前記表示部に表示される画像の表示向きに関する表示設定を行うとともに、前記ユーザ識別情報に基づく通知情報を前記複数の頭部装着ディスプレイとは異なる外部の表示装置に表示させる表示制御部と、
    を備え、
    前記表示制御部は、前記複数の頭部装着ディスプレイのうち、少なくとも一の頭部装着ディスプレイについて、当該頭部装着ディスプレイに表示されている画像と前記通知情報とを、前記表示装置に表示させるとともに、前記複数の頭部装着ディスプレイに、前記表示設定をした前記画像の表示向きを示す情報を表示させる、表示制御システム。
  9. 少なくともユーザ識別情報を取得するリーダ部と、
    前記リーダ部により取得された情報を、表示制御装置に出力する出力部と、
    を備え、
    請求項1〜6のいずれか1項に記載の表示制御装置により制御される、頭部装着ディスプレイ。
  10. 医療用撮像装置と、
    前記医療用撮像装置で撮像された画像を表示する複数の頭部装着ディスプレイと、
    前記頭部装着ディスプレイのそれぞれについて表示設定を行う表示制御装置と、
    からなり、
    前記表示制御装置は、
    前記各頭部装着ディスプレイから取得されたユーザ識別情報が入力される入力部と、
    前記ユーザ識別情報に基づいて前記複数の頭部装着ディスプレイの表示部に表示される画像の表示向きを表す情報を含む表示設定情報を取得し、該表示設定情報に基づいて前記複数の頭部装着ディスプレイの前記表示部に表示される画像の表示向きに関する表示設定を行うとともに、前記ユーザ識別情報に基づく通知情報を前記複数の頭部装着ディスプレイとは異なる外部の表示装置に表示させる表示制御部と、
    を備え、
    前記表示制御部は、前記複数の頭部装着ディスプレイのうち、少なくとも一の頭部装着ディスプレイについて、当該頭部装着ディスプレイに表示されている画像と前記通知情報とを、前記表示装置に表示させるとともに、前記複数の頭部装着ディスプレイに、前記表示設定をした前記画像の表示向きを示す情報を表示させる、表示制御システム。
  11. 前記医療用撮像装置は、内視鏡装置である、請求項10に記載の表示制御システム。
JP2014187583A 2014-09-16 2014-09-16 表示制御装置、表示制御方法、表示制御システムおよび頭部装着ディスプレイ Expired - Fee Related JP6574939B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014187583A JP6574939B2 (ja) 2014-09-16 2014-09-16 表示制御装置、表示制御方法、表示制御システムおよび頭部装着ディスプレイ
CN201580048359.9A CN106687065A (zh) 2014-09-16 2015-08-21 显示控制设备、显示控制方法、显示控制系统和头戴式显示器
PCT/JP2015/004199 WO2016042705A1 (en) 2014-09-16 2015-08-21 Display control device, display control method, display control system, and head-mounted display
US15/325,754 US20170151034A1 (en) 2014-09-16 2015-08-21 Display control device, display control method, display control system, and head-mounted display
EP15757573.9A EP3178232A1 (en) 2014-09-16 2015-08-21 Display control device, display control method, display control system, and head-mounted display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014187583A JP6574939B2 (ja) 2014-09-16 2014-09-16 表示制御装置、表示制御方法、表示制御システムおよび頭部装着ディスプレイ

Publications (3)

Publication Number Publication Date
JP2016061827A JP2016061827A (ja) 2016-04-25
JP2016061827A5 JP2016061827A5 (ja) 2017-03-02
JP6574939B2 true JP6574939B2 (ja) 2019-09-18

Family

ID=54056238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014187583A Expired - Fee Related JP6574939B2 (ja) 2014-09-16 2014-09-16 表示制御装置、表示制御方法、表示制御システムおよび頭部装着ディスプレイ

Country Status (5)

Country Link
US (1) US20170151034A1 (ja)
EP (1) EP3178232A1 (ja)
JP (1) JP6574939B2 (ja)
CN (1) CN106687065A (ja)
WO (1) WO2016042705A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016119544A (ja) * 2014-12-19 2016-06-30 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US10478339B2 (en) * 2017-01-19 2019-11-19 Novartis Ag System and method for managing patient data during ophthalmic surgery
JP6896458B2 (ja) * 2017-03-07 2021-06-30 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像表示装置、および表示制御方法
EP3612123B1 (en) 2017-04-20 2024-07-31 Intuitive Surgical Operations, Inc. Systems and methods for constraining a virtual reality surgical system
CN107197342B (zh) * 2017-06-16 2019-12-13 深圳创维数字技术有限公司 一种数据处理方法、智能终端及存储介质
JP7017385B2 (ja) * 2017-12-05 2022-02-08 オリンパス株式会社 頭部装着型表示装置、表示システム及び表示方法
JP2019105885A (ja) * 2017-12-08 2019-06-27 セイコーエプソン株式会社 頭部装着型表示装置、情報処理装置、情報処理システム、及び頭部装着型表示装置の制御方法
JP2019129398A (ja) * 2018-01-24 2019-08-01 セイコーエプソン株式会社 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
US11114199B2 (en) 2018-01-25 2021-09-07 Mako Surgical Corp. Workflow systems and methods for enhancing collaboration between participants in a surgical procedure
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
WO2020154688A1 (en) * 2019-01-24 2020-07-30 Cao Group, Inc Electronic loupe
CN109889739A (zh) * 2019-03-18 2019-06-14 天津安怀信科技有限公司 医用智能眼镜影像显示系统
EP3744285A1 (en) * 2019-05-27 2020-12-02 Leica Instruments (Singapore) Pte. Ltd. Microscope system and method for controlling a surgical microcope
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US12133772B2 (en) 2019-12-10 2024-11-05 Globus Medical, Inc. Augmented reality headset for navigated robotic surgery
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
JP7501044B2 (ja) * 2020-03-30 2024-06-18 セイコーエプソン株式会社 表示システム、情報処理装置及び表示システムの表示制御方法
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11922581B2 (en) * 2020-05-08 2024-03-05 Coviden Lp Systems and methods of controlling an operating room display using an augmented reality headset
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
EP4030219A1 (en) * 2021-01-13 2022-07-20 BHS Technologies GmbH Medical imaging system and method of controlling such imaging system
EP4283373A1 (en) * 2022-05-27 2023-11-29 Leica Instruments (Singapore) Pte Ltd Medical imaging control apparatus, medical imaging system and method of operating a medical imaging system

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3362898B2 (ja) * 1993-03-03 2003-01-07 オリンパス光学工業株式会社 人工現実感システム
JP3680373B2 (ja) * 1995-09-28 2005-08-10 ソニー株式会社 光学視覚装置及び光学視覚装置の制御方法
US6774869B2 (en) * 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
JP3766598B2 (ja) * 2001-02-13 2006-04-12 オリンパス株式会社 観察システム
KR100538328B1 (ko) * 2003-06-20 2005-12-22 엘지.필립스 엘시디 주식회사 액정표시장치 및 그 제조방법
JP2005107758A (ja) * 2003-09-30 2005-04-21 Hitachi Zosen Corp 保全システムおよび情報共有システム
JP3683575B2 (ja) * 2003-10-28 2005-08-17 オリンパス株式会社 頭部装着型ディスプレイコントローラー
JP2006309534A (ja) * 2005-04-28 2006-11-09 Konica Minolta Photo Imaging Inc 内部情報記録媒体視認システム
JP2007320715A (ja) * 2006-05-31 2007-12-13 Seikatsu Kyodo Kumiai Coop Sapporo 作業関連情報提供システム、及び作業関連情報提供方法
JP2008124885A (ja) * 2006-11-14 2008-05-29 Sony Corp 撮像システム、撮像方法
JP2008198028A (ja) * 2007-02-14 2008-08-28 Sony Corp ウェアラブル装置、認証方法、およびプログラム
JP2009279193A (ja) * 2008-05-22 2009-12-03 Fujifilm Corp 医療機器管理システム
JP2010141446A (ja) * 2008-12-10 2010-06-24 Brother Ind Ltd ヘッドマウントディスプレイ及びヘッドマウントディスプレイにおける画像提示方法
JP5670079B2 (ja) * 2009-09-30 2015-02-18 富士フイルム株式会社 医用画像表示装置および方法、並びにプログラム
EP2584989B1 (en) * 2010-06-28 2017-08-09 Brainlab AG Generating images for at least two displays in image-guided surgery
JP2012170747A (ja) * 2011-02-23 2012-09-10 Toshiba Corp 超音波診断装置、及び超音波診断プログラム
WO2013033195A2 (en) * 2011-08-30 2013-03-07 Microsoft Corporation Head mounted display with iris scan profiling
JP6028357B2 (ja) * 2012-03-22 2016-11-16 ソニー株式会社 ヘッドマウントディスプレイ及び手術システム
JP6004699B2 (ja) * 2012-03-29 2016-10-12 キヤノン株式会社 印刷装置、画像処理装置、印刷装置の制御方法、画像処理装置の制御方法及びプログラム
US20130317848A1 (en) * 2012-05-22 2013-11-28 Andrew Savin Electronic Medical Record Process
JP2014092940A (ja) * 2012-11-02 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
EP2894629B1 (en) * 2012-11-30 2019-03-06 Maxell, Ltd. Picture display device, and setting modification method and setting modification program therefor
JP5734525B2 (ja) * 2012-12-11 2015-06-17 ViewSend ICT株式会社 医療支援システムおよびその方法
CN103190883B (zh) * 2012-12-20 2015-06-24 苏州触达信息技术有限公司 一种头戴式显示装置和图像调节方法
JP2016032485A (ja) * 2012-12-27 2016-03-10 国立大学法人 東京医科歯科大学 内視鏡下手術支援システム及び画像制御方法
EP3022672A2 (en) * 2013-07-16 2016-05-25 Seiko Epson Corporation Information processing apparatus, information processing method, and information processing system
US10194860B2 (en) * 2013-09-11 2019-02-05 Industrial Technology Research Institute Virtual image display system
CA2949241A1 (en) * 2014-05-20 2015-11-26 University Of Washington Through Its Center For Commercialization Systems and methods for mediated-reality surgical visualization

Also Published As

Publication number Publication date
EP3178232A1 (en) 2017-06-14
CN106687065A (zh) 2017-05-17
WO2016042705A1 (en) 2016-03-24
JP2016061827A (ja) 2016-04-25
US20170151034A1 (en) 2017-06-01

Similar Documents

Publication Publication Date Title
JP6574939B2 (ja) 表示制御装置、表示制御方法、表示制御システムおよび頭部装着ディスプレイ
JP6264087B2 (ja) 表示制御装置、表示装置および表示制御システム
JP6693507B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
EP3204816B1 (en) Head-mounted displaying of magnified images locked on an object of interest
EP3388921A1 (en) Control device of head mounted display; operation method and operation program thereof; and image display system
CN108697308A (zh) 图像处理装置、图像处理方法和记录介质
JP2016032485A (ja) 内視鏡下手術支援システム及び画像制御方法
US11094283B2 (en) Head-wearable presentation apparatus, method for operating the same, and medical-optical observation system
JP2023095970A (ja) 医療用観察システム
JP6589855B2 (ja) 頭部装着ディスプレイ、制御装置および制御方法
JP2016189120A (ja) 情報処理装置、情報処理システム、及び頭部装着ディスプレイ
US11224329B2 (en) Medical observation apparatus
US11729493B2 (en) Image capture apparatus and image capture method
JP6617766B2 (ja) 医療用観察システム、表示制御システムおよび表示制御装置
JP7017385B2 (ja) 頭部装着型表示装置、表示システム及び表示方法
JP2019154886A (ja) 医療用表示制御装置、および表示制御方法
JP2019154734A (ja) 医療用画像処理装置、医療用観察装置、および画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190304

TRDD Decision of grant or rejection written
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190603

R151 Written notification of patent or utility model registration

Ref document number: 6574939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees