JP6927389B2 - Ophthalmic equipment - Google Patents
Ophthalmic equipment Download PDFInfo
- Publication number
- JP6927389B2 JP6927389B2 JP2020137700A JP2020137700A JP6927389B2 JP 6927389 B2 JP6927389 B2 JP 6927389B2 JP 2020137700 A JP2020137700 A JP 2020137700A JP 2020137700 A JP2020137700 A JP 2020137700A JP 6927389 B2 JP6927389 B2 JP 6927389B2
- Authority
- JP
- Japan
- Prior art keywords
- eye
- unit
- face
- interest
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims description 56
- 238000001514 detection method Methods 0.000 claims description 54
- 230000003287 optical effect Effects 0.000 description 83
- 238000005286 illumination Methods 0.000 description 23
- 238000000034 method Methods 0.000 description 23
- 238000003384 imaging method Methods 0.000 description 21
- 238000005259 measurement Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 15
- 230000008859 change Effects 0.000 description 9
- 238000010191 image analysis Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 6
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 6
- 210000001747 pupil Anatomy 0.000 description 6
- 230000009466 transformation Effects 0.000 description 5
- 210000004087 cornea Anatomy 0.000 description 4
- 230000001186 cumulative effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000004907 flux Effects 0.000 description 4
- 230000004410 intraocular pressure Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000004323 axial length Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 0 *CC(C1C2[C@@](*)C2)[C@]1N Chemical compound *CC(C1C2[C@@](*)C2)[C@]1N 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 210000000554 iris Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 210000003786 sclera Anatomy 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Landscapes
- Eye Examination Apparatus (AREA)
Description
本開示は、被検眼を検査するための眼科装置に関する。 The present disclosure relates to an ophthalmic apparatus for examining an eye.
従来の眼科装置としては、例えば、眼屈折力測定装置、角膜曲率測定装置、眼圧測定装置、眼底カメラ、OCT、SLO等が知られている。これらの眼科装置では、ジョイスティック等の操作部材の操作によって検眼部を被検眼に対して上下左右前後方向に移動させ、被検眼に対して検眼部を所定の位置にアライメントすることが一般的である(特許文献1参照)。 As conventional ophthalmic devices, for example, an ocular refractive power measuring device, a corneal curvature measuring device, an intraocular pressure measuring device, a fundus camera, OCT, SLO and the like are known. In these ophthalmic devices, it is common to move the optometry part up, down, left, right, front and back with respect to the eye to be inspected by operating an operating member such as a joystick, and align the optometry part with respect to the eye to be inspected at a predetermined position. (See Patent Document 1).
また、従来の眼科装置において、被検者の顔を撮影し、広範囲でのアライメントを行う眼科装置が提案されている(特許文献2参照)。 Further, in a conventional ophthalmic apparatus, an ophthalmic apparatus that photographs the face of a subject and performs alignment in a wide range has been proposed (see Patent Document 2).
しかしながら、現在の市販の眼科装置は、被検眼を見つけるまでは操作部材による検者の操作を伴うものであり、広範囲でのアライメントが可能な装置は実現されていない。つまり、広範囲でのアライメントが可能な装置の実現においては、種々の検討事項がありうる。本発明者らは、これらを鑑み、広範囲でのアライメントが可能な装置のプロトタイプを考案するに至った。 However, the current commercially available ophthalmic apparatus involves the operation of the examiner by the operating member until the eye to be inspected is found, and an apparatus capable of alignment in a wide range has not been realized. That is, there may be various considerations in the realization of a device capable of alignment in a wide range. In view of these, the present inventors have devised a prototype of a device capable of a wide range of alignment.
本開示は、上記問題点を鑑み、広範囲でのアライメントを好適に行うことができる眼科装置を提供することを技術課題とする。 In view of the above problems, it is a technical subject of the present disclosure to provide an ophthalmic apparatus capable of preferably performing alignment in a wide range.
上記課題を解決するために、本開示は、以下のような構成を備えることを特徴とする。 In order to solve the above problems, the present disclosure is characterized by having the following configurations.
(1)
被検眼を検査する眼科装置であって、
前記被検眼を検査するための検眼手段と、被検者の顔を含む撮影画像を撮影するための顔撮影手段と、を備える検眼部と、
前記被検眼に対して前記検眼部を相対移動させる調整手段と、
前記検眼手段の位置を検出するための位置検出センサと、
前記調整手段によって移動される前記検眼部の位置に基づく関心領域を被検眼を検出するために前記撮影画像に設定し、前記関心領域における画像信号を処理する演算処理手段と、
前記演算処理手段は、前記位置検出センサによって検出された前記検眼手段の位置に応じて前記撮影画像における前記関心領域の設定位置を変更し、変更された前記関心領域における画像信号に基づいて前記撮像画像における被検眼の位置を検出し、前記検出結果に基づいて前記調整手段による前記検眼手段の移動を制御することを特徴とする。
(1)
An ophthalmic device that inspects the eye to be inspected
An optometry unit including an eye examination means for inspecting the eye to be inspected and a face photographing means for taking a photographed image including the face of the subject.
An adjusting means for moving the optometry portion relative to the eye to be inspected,
A position detection sensor for detecting the position of the optometry means and
An arithmetic processing means for setting an area of interest based on the position of the optometry unit moved by the adjusting means on the captured image in order to detect the eye to be inspected and processing an image signal in the area of interest.
The arithmetic processing means changes the set position of the region of interest in the captured image according to the position of the optometry means detected by the position detection sensor, and captures the image based on the changed image signal in the region of interest. It is characterized in that the position of the eye to be inspected in the image is detected, and the movement of the eye inspecting means by the adjusting means is controlled based on the detection result.
<実施形態>
以下、本開示に係る眼科装置の実施形態について説明する。本実施形態の眼科装置は、例えば、被検眼を検査する。眼科装置は、例えば、眼屈折力測定装置、角膜曲率測定装置、角膜形状測定装置、眼圧測定装置、眼軸長測定装置、眼底カメラ、OCT、SLO、超音波検眼装置等であってもよい。
<Embodiment>
Hereinafter, embodiments of the ophthalmic apparatus according to the present disclosure will be described. The ophthalmic apparatus of this embodiment examines, for example, the eye to be inspected. The ophthalmic apparatus may be, for example, an optical power measuring device, a corneal curvature measuring device, a corneal shape measuring device, an intraocular pressure measuring device, an axial length measuring device, a fundus camera, an OCT, an SLO, an ultrasonic optometry device, or the like. ..
眼科装置は、検眼部(装置本体ともいう)と、調整部と、演算処理部と、を備えてもよい。検眼部は、例えば、検眼系と、顔撮影部と、を備えてもよい。検眼系としては、被検眼を検査するための構成を備えてもよく、例えば、検査光学系、超音波測定系等であってもよい。検眼系は、検眼部に内蔵されてもよいし、検眼部の筐体外面に設けられてもよい。 The ophthalmic apparatus may include an eye examination unit (also referred to as an apparatus main body), an adjustment unit, and an arithmetic processing unit. The optometry unit may include, for example, an optometry system and a facial imaging unit. The optometry system may include a configuration for inspecting the eye to be inspected, and may be, for example, an inspection optical system, an ultrasonic measurement system, or the like. The optometry system may be built in the optometry section or may be provided on the outer surface of the housing of the optometry section.
顔撮影部は、被検者の顔を含む撮影画像を撮影するために設けられてもよく、例えば、撮像素子を備える撮影光学系を備えてもよいし、他の撮影系が用いられてもよい。顔撮影部は、検眼部に内蔵されてもよいし、検眼部の筐体外面に設けられてもよい。顔撮影部は、例えば、両眼を少なくとも含む被検者の顔を撮像可能な顔撮影部であってもよいし、被検者の片眼を広範囲で撮像可能な顔撮影部であってもよい。なお、顔撮影部は、被検眼の前眼部を撮影するための前眼部撮影部を兼用してもよいし、前眼部撮影部とは別に設けられてもよい。 The face photographing unit may be provided for taking a photographed image including the face of the subject, and may be provided with a photographing optical system including an image pickup element, or may be provided with another photographing system. good. The face photographing unit may be built in the eye examination unit or may be provided on the outer surface of the housing of the eye examination unit. The face photographing unit may be, for example, a face photographing unit capable of photographing the face of the subject including at least both eyes, or a face photographing unit capable of capturing a wide range of one eye of the subject. good. The face photographing unit may also be used as an anterior eye part photographing unit for photographing the anterior eye portion of the eye to be inspected, or may be provided separately from the anterior eye portion photographing unit.
調整部は、被検眼に対して検眼部を相対移動させるための移動部として用いられてもよく、例えば、駆動部(アクチュエータ)を備え、駆動部の駆動によって検眼部が被検眼に対して移動されてもよい。調整部は、被検眼と検眼部との相対位置を少なくとも1方向において調整してもよい。もちろん、3次元的に調整してもよい。例えば、調整部は、被検眼に対して検眼部を左右(X)方向、上下(Y)方向、前後(Z)方向に移動させる。 The adjusting unit may be used as a moving unit for relatively moving the optometry unit with respect to the eye to be inspected. May be moved. The adjusting unit may adjust the relative position between the eye to be inspected and the eye examination unit in at least one direction. Of course, it may be adjusted three-dimensionally. For example, the adjusting unit moves the optometry unit in the left-right (X) direction, the up-down (Y) direction, and the front-back (Z) direction with respect to the eye to be inspected.
演算処理部は、撮影画像を処理してもよく、例えば、プロセッサであってもよい。撮影画像は、例えば、顔撮影部によって撮影された撮影画像、前眼部撮影部によって撮影された撮影画像であってもよい。演算処理部は、例えば、撮影画像を処理して装置を制御するための演算制御部であってもよいし、撮影画像を処理するための画像処理部であってもよい。演算処理部は、撮影部側に設けられてもよい。なお、演算制御部と画像処理部の組合せによって演算処理部が構築されてもよい。 The arithmetic processing unit may process the captured image, and may be, for example, a processor. The photographed image may be, for example, a photographed image photographed by the face photographing unit or a photographed image taken by the anterior eye part photographing unit. The arithmetic processing unit may be, for example, an arithmetic control unit for processing a captured image to control an apparatus, or an image processing unit for processing a captured image. The arithmetic processing unit may be provided on the photographing unit side. The arithmetic processing unit may be constructed by combining the arithmetic control unit and the image processing unit.
演算処理部は、例えば、撮影部(例えば、顔撮影部、前眼部撮影部)による撮影画像の画像信号を処理して装置を制御してもよい。装置の制御としては、例えば、撮影部による撮影条件の制御、被検眼に対する検眼部の移動制御(アライメント調整)であってもよい。 The arithmetic processing unit may control the device by processing the image signal of the captured image by, for example, the photographing unit (for example, the face photographing unit and the anterior eye part photographing unit). The control of the device may be, for example, control of imaging conditions by the imaging unit, or movement control (alignment adjustment) of the eye examination unit with respect to the eye to be inspected.
<関心領域の設定(例えば、図6、図12参照)>
演算処理部は、顔撮影部によって撮影された撮影画像に関心領域を設定し、設定された関心領域における画像信号を処理してもよい。この場合、演算処理部は、被検者の顔の少なくとも一部を検出するために関心領域を設定してもよく、例えば、被検眼を検出するための関心領域を設定してもよいし、被検者の顔の肌の少なくとも一部を検出するために関心領域を設定してもよい。この場合、顔全体の任意の部位が関心領域として設定される場合もあれば、顔全体における所定部位(例えば、眼)が関心領域として設定される場合もありうる。
<Setting of the region of interest (see, for example, FIGS. 6 and 12)>
The arithmetic processing unit may set an area of interest in the captured image captured by the face photographing unit and process the image signal in the set area of interest. In this case, the arithmetic processing unit may set an area of interest to detect at least a part of the face of the subject, for example, may set an area of interest for detecting the eye to be examined. Areas of interest may be set to detect at least a portion of the skin on the subject's face. In this case, an arbitrary portion of the entire face may be set as the region of interest, or a predetermined region of the entire face (for example, the eyes) may be set as the region of interest.
例えば、演算処理部は、関心領域における画像信号を処理して被検眼を検出してもよいし、関心領域における画像信号を処理して、顔撮影部の撮影条件を制御するための評価値を得てもよい。この場合の評価値としては、例えば、被検者の顔の輝度を評価するための評価値であってもよい。 For example, the arithmetic processing unit may process the image signal in the region of interest to detect the eye to be inspected, or process the image signal in the region of interest to determine an evaluation value for controlling the imaging conditions of the face photographing unit. You may get it. The evaluation value in this case may be, for example, an evaluation value for evaluating the brightness of the face of the subject.
例えば、演算処理部は、関心領域における画像信号に基づいて装置を制御してもよい。この場合、演算処理部は、関心領域における画像信号に基づいて顔撮影部による撮影条件を制御してもよいし(例えば、図6参照)、関心領域における画像信号に基づいて調整部による検眼部の移動を制御してもよい(例えば、図12参照)。撮影条件の制御としては、例えば、顔撮影部のオートゲイン制御、自動露光時間制御であってもよい。なお、演算処理部は、関心領域における画像信号に基づいて顔撮影部による撮影条件を制御し、制御された撮影条件にて取得された撮影画像に基づいて調整部による検眼部の移動を制御してもよい。また、演算処理部は、関心領域における画像信号に基づいて顔照明光学系の照明条件を自動的に制御してもよい。 For example, the arithmetic processing unit may control the device based on the image signal in the region of interest. In this case, the arithmetic processing unit may control the shooting conditions by the face photographing unit based on the image signal in the region of interest (see, for example, FIG. 6), or the eye examination by the adjusting unit based on the image signal in the region of interest. The movement of the unit may be controlled (see, for example, FIG. 12). The control of the shooting conditions may be, for example, auto gain control of the face shooting unit or automatic exposure time control. The arithmetic processing unit controls the shooting conditions by the face photographing unit based on the image signal in the region of interest, and controls the movement of the eye examination unit by the adjusting unit based on the captured image acquired under the controlled shooting conditions. You may. Further, the arithmetic processing unit may automatically control the illumination conditions of the face illumination optical system based on the image signal in the region of interest.
関心領域の設定において、演算処理部は、例えば、調整部によって移動される検眼部の位置に基づく関心領域を撮影画像に設定してもよい。この場合、検眼部の位置に対応する撮影画像上の関心領域の位置が、記憶部に予め記憶されていてもよく、演算処理部は、記憶部に予め記憶された関心領域の位置に基づいて関心領域を設定してもよい。この場合、顔支持部に支持された被検者と検眼部との位置関係に基づいて、撮影画像上に関心領域が設定されてもよい。 In setting the region of interest, the arithmetic processing unit may, for example, set the region of interest in the captured image based on the position of the eye examination unit moved by the adjustment unit. In this case, the position of the region of interest on the captured image corresponding to the position of the eye examination unit may be stored in advance in the storage unit, and the arithmetic processing unit is based on the position of the region of interest stored in advance in the storage unit. You may set the area of interest. In this case, the region of interest may be set on the captured image based on the positional relationship between the subject supported by the face support portion and the eye examination portion.
ここで、検眼部の位置に基づく関心領域が設定されることによって、例えば、被検者の顔の少なくとも一部を容易に特定でき、顔の少なくとも一部の画像信号に対する処理をスムーズに行うことができる。なお、顔撮影部からの撮影画像に基づいて顔の少なくとも一部を検出するような場合、ノイズ光の影響等によって検出が難しい場合がありうる。ここで、検眼部と被検者との位置関係を考慮して設定された関心領域における画像信号を処理することで、顔の少なくとも一部を容易に検出できる。 Here, by setting the region of interest based on the position of the eye examination portion, for example, at least a part of the face of the subject can be easily identified, and the processing for the image signal of at least a part of the face is smoothly performed. be able to. When detecting at least a part of the face based on the image taken from the face photographing unit, it may be difficult to detect due to the influence of noise light or the like. Here, at least a part of the face can be easily detected by processing the image signal in the region of interest set in consideration of the positional relationship between the eye examination unit and the subject.
なお、被検者の顔の個人差によって撮影画像における顔画像(顔の少なくとも一部の画像)の形成位置にバラツキがあるので、これらを考慮して関心領域が設定されてもよい。また、関心領域における画像信号を優先的に処理し、顔の少なくとも一部が検出されなかった場合、撮影画像全体において検出処理が行われてもよい。 Since the formation position of the face image (at least a part of the face image) in the photographed image varies depending on the individual difference of the face of the subject, the region of interest may be set in consideration of these. Further, when the image signal in the region of interest is preferentially processed and at least a part of the face is not detected, the detection process may be performed on the entire captured image.
もちろん、撮影画像における被検者の顔の少なくとも一部に対して関心領域を設定し、関心領域における画像信号を処理する場合、演算処理部は、検眼部の位置情報を用いず、顔の少なくとも一部を画像処理によって特定してもよい。 Of course, when the region of interest is set for at least a part of the subject's face in the captured image and the image signal in the region of interest is processed, the arithmetic processing unit does not use the position information of the eye examination unit and does not use the position information of the eye examination unit. At least a part may be specified by image processing.
例えば、演算処理部は、画像処理によって特定された関心領域における画像信号に基づいて顔撮影部による撮影条件を制御し、撮影条件の制御後に取得された撮影画像を処理して被検眼を検出してもよい。これによって、例えば、被検者の肌と眼とのコントラストが調整された状態で眼を検出できる。この場合、例えば、被検者の顔全体、又は被検者の顔の肌の少なくとも一部に関心領域が設定されてもよい被検者の顔の少なくとも一部は、例えば、被検者の顔と背景との輝度差、パターンパッチング等を利用して特定されてもよい。 For example, the arithmetic processing unit controls the imaging conditions by the face imaging unit based on the image signal in the region of interest specified by the image processing, and processes the captured image acquired after controlling the imaging conditions to detect the eye to be inspected. You may. Thereby, for example, the eye can be detected in a state where the contrast between the subject's skin and the eye is adjusted. In this case, for example, the entire face of the subject, or at least a part of the subject's face in which the region of interest may be set on at least a part of the skin of the subject's face, is, for example, the subject's face. It may be specified by using the brightness difference between the face and the background, pattern patching, and the like.
<検眼部の位置に応じた関心領域の位置変更(例えば、図7参照)>
検眼部の位置に基づいて関心領域を設定する場合、例えば、演算処理部は、検眼部の位置の変化に応じて、撮影画像における関心領域の位置を変更してもよい。これによって、検眼部の位置の変化によって被検者の顔と検眼部との位置関係が変動した場合であっても、被検者の顔の少なくとも一部を確実に検出できる。
<Change the position of the region of interest according to the position of the eye examination part (see, for example, FIG. 7)>
When the region of interest is set based on the position of the eye examination unit, for example, the arithmetic processing unit may change the position of the region of interest in the captured image according to the change in the position of the eye examination unit. As a result, even if the positional relationship between the subject's face and the eye-examined portion changes due to a change in the position of the eye-examined portion, at least a part of the subject's face can be reliably detected.
顔支持部によって被検者の顔が適正に支持された場合、装置の中心位置あたりに被検者の顔の左右中心が位置され、結果として、被検者の顔が位置決めされ、左右眼においても位置決めされる。 When the subject's face is properly supported by the face support, the left and right centers of the subject's face are positioned around the center position of the device, and as a result, the subject's face is positioned and in the left and right eyes. Is also positioned.
撮影画像における顔の位置は、顔に対する顔撮影部の位置によって変化する。例えば、顔撮影部が顔の正面に位置された場合、撮影画像における撮像中心(例えば、光軸位置)を含む一定の領域に、被検者の顔が形成される。一方、顔撮影部が顔に対して(装置から見て)右側に配置された場合、撮像中心に対して左側の領域に顔が形成される。また、顔撮影部が顔に対して左側に配置された場合、撮像中心に対して右側の領域が形成される。もちろん、顔に対して顔撮影部が上下に移動した場合においても、被検者の顔の形成位置は、上下方向に変化する。上記位置関係の変化は、撮影画像における左右眼の位置においても同様である。 The position of the face in the captured image changes depending on the position of the face photographing portion with respect to the face. For example, when the face photographing portion is positioned in front of the face, the face of the subject is formed in a certain region including the imaging center (for example, the position of the optical axis) in the captured image. On the other hand, when the face photographing unit is arranged on the right side with respect to the face (as viewed from the device), the face is formed in the region on the left side with respect to the imaging center. Further, when the face photographing portion is arranged on the left side with respect to the face, a region on the right side with respect to the imaging center is formed. Of course, even when the face photographing portion moves up and down with respect to the face, the formation position of the subject's face changes in the vertical direction. The change in the positional relationship is the same for the positions of the left and right eyes in the captured image.
顔撮影部の位置は検眼部の位置と一対の関係にあるので、演算処理部は、検眼部の位置情報に基づいて、撮影画像に関心領域を設定することによって、被検者の顔の少なくとも一部を確実に検出できる。 Since the position of the face photographing unit has a paired relationship with the position of the eye examination unit, the arithmetic processing unit sets the region of interest in the photographed image based on the position information of the eye examination unit, thereby performing the face of the subject. At least a part of can be reliably detected.
この場合、撮影画像上での関心領域の位置と、検眼部の位置との対応関係が、予め記憶部に記憶されてもよい。例えば、検眼部の各位置に対応する関心領域の位置が予め記憶されていてもよいし、検眼部の基準位置に対応する関心領域の位置が予め記憶され、基準位置からの検眼部の移動距離に対応する関心領域の移動量が予め記憶されていてもよい。 In this case, the correspondence between the position of the region of interest on the captured image and the position of the eye examination unit may be stored in the storage unit in advance. For example, the position of the region of interest corresponding to each position of the eye examination unit may be stored in advance, or the position of the region of interest corresponding to the reference position of the eye examination unit is stored in advance and the eye examination unit from the reference position. The movement amount of the region of interest corresponding to the movement distance of the above may be stored in advance.
演算処理部は、検眼部の位置を検出するための位置検出センサからの検出信号に基づいて検眼部の位置情報を取得し、取得された位置情報に対応する関心領域を設定するようにしてもよい。位置検出センサとしては、種々の変容がありうるが、例えば、検眼部を移動可能に保持する基台に設けられたポテンショメータであってもよいし、駆動部のモータ部に設けられたエンコーダ等であってもよい。 The arithmetic processing unit acquires the position information of the eye examination unit based on the detection signal from the position detection sensor for detecting the position of the eye examination unit, and sets the region of interest corresponding to the acquired position information. You may. The position detection sensor may have various changes, but for example, it may be a potentiometer provided on a base for holding the eye examination unit so as to be movable, an encoder provided on the motor unit of the drive unit, or the like. It may be.
検眼部の位置に応じて関心領域の位置を変更する場合、例えば、演算処理部は、検眼部の左右方向における位置の変化に応じて、撮影画像上における関心領域を左右方向に関してシフトさせるようにしてもよい。これによって、検眼部が左右に移動される場合であっても、顔の少なくとも一部をスムーズに検出できる。 When changing the position of the region of interest according to the position of the eye examination unit, for example, the arithmetic processing unit shifts the region of interest on the captured image in the horizontal direction according to the change in the position of the eye examination unit in the left-right direction. You may do so. As a result, at least a part of the face can be smoothly detected even when the eye examination portion is moved to the left or right.
また、例えば、演算処理部は、検眼部の3次元位置の変化に応じて、撮影画像上における関心領域をシフトさせるようにしてもよい。これによって、検眼部が3次元的に移動される場合であっても、顔の少なくとも一部をスムーズに検出できる。 Further, for example, the arithmetic processing unit may shift the region of interest on the captured image according to the change in the three-dimensional position of the eye examination unit. As a result, at least a part of the face can be smoothly detected even when the eye examination portion is moved three-dimensionally.
<所定位置に対応する関心領域の設定(例えば、図6参照)>
検眼部の位置に基づいて関心領域を設定する場合、例えば、演算処理部は、予め設定された検眼部の所定位置に対応する関心領域を撮影画像に設定してもよい。これによって、検眼部が所定位置に配置された状態での顔撮影部からの画像信号を処理する場合、顔の少なくとも一部の位置が特定されるので、被検者の顔の少なくとも一部を確実に検出できる。
<Setting of the region of interest corresponding to the predetermined position (see, for example, FIG. 6)>
When the area of interest is set based on the position of the eye-examination unit, for example, the arithmetic processing unit may set the area of interest corresponding to a predetermined position of the eye-examination unit set in advance in the captured image. As a result, when processing the image signal from the face photographing unit in the state where the eye examination unit is arranged at a predetermined position, at least a part of the face is specified, so that at least a part of the subject's face is specified. Can be reliably detected.
顔撮影部による撮影を行う段階において、演算処理部は、例えば、予め設定された所定位置に検眼部を配置させておく。所定位置は、初期位置であってもよい。所定位置は、記憶部に記憶されていてもよい。この場合、被検眼への素早いアライメントのため、左右眼のいずれかに近い側に検査軸(例えば、検眼光学系の光軸)が配置される位置が、所定位置として設定されてもよい。もちろん、所定位置は、左右眼の中間に検査軸が配置される位置であってもよい。 At the stage of taking a picture by the face photographing unit, the arithmetic processing unit arranges the eye examination unit at a predetermined position set in advance, for example. The predetermined position may be the initial position. The predetermined position may be stored in the storage unit. In this case, a position where the examination axis (for example, the optical axis of the optometry optical system) is arranged on the side closer to either the left or right eye may be set as a predetermined position for quick alignment with the eye to be inspected. Of course, the predetermined position may be a position where the inspection axis is arranged between the left and right eyes.
検眼部を所定位置に配置させる場合、演算処理部は、検眼部の所定位置に対応する関心領域を設定し、設定された関心領域での画像信号を処理してもよい。所定位置に対応する関心領域の位置は、例えば、検眼部が所定位置に配置されたときの撮影画像において、被検者の顔の少なくとも一部が形成される位置に設定されてもよい。 When the eye examination unit is arranged at a predetermined position, the arithmetic processing unit may set an area of interest corresponding to the predetermined position of the eye examination unit and process an image signal in the set area of interest. The position of the region of interest corresponding to the predetermined position may be set to, for example, a position where at least a part of the face of the subject is formed in the captured image when the eye examination portion is arranged at the predetermined position.
<オートゲイン制御(例えば、図7参照)>
関心領域における画像信号に基づいて顔撮影部による撮影条件を制御する場合、例えば、演算処理部は、関心領域での画像信号に基づいて顔撮影部のオートゲイン制御を行うようにしてもよい。ここで、検眼部の位置に基づいて設定された関心領域での画像信号に基づいてオートゲイン制御が行われることで、顔画像の輝度が許容レベルに調整される。これによって、外乱光等の影響があっても、顔の位置が特定され、被検者の顔と眼とのコントラストが調整される。その結果として、例えば、撮影画像における眼検出を確実に行うことができ、被検眼に対するスムーズなアライメントが可能となる。
<Auto gain control (see, for example, FIG. 7)>
When controlling the shooting conditions by the face photographing unit based on the image signal in the region of interest, for example, the arithmetic processing unit may perform auto gain control of the face photographing unit based on the image signal in the region of interest. Here, the brightness of the face image is adjusted to an allowable level by performing the auto gain control based on the image signal in the region of interest set based on the position of the eye examination unit. As a result, the position of the face is specified and the contrast between the subject's face and the eyes is adjusted even if there is an influence of ambient light or the like. As a result, for example, eye detection in a captured image can be reliably performed, and smooth alignment with respect to the eye to be inspected becomes possible.
被検者の顔の肌と眼とのコントラストを精度よく調整するため、顔の肌の少なくとも一部が形成される画像領域が関心領域として設定されるように、検眼部の位置に対応して関心領域が設定されてもよい。また、顔画像以外(例えば、背景、髪等)に関心領域が設定されないように、被検者の顔の中心部が形成される画像領域が関心領域として設定されるように、検眼部の位置に対応して関心領域が設定されてもよい。 In order to accurately adjust the contrast between the skin of the subject's face and the eyes, it corresponds to the position of the eye examination part so that the image area where at least a part of the skin of the face is formed is set as the area of interest. The area of interest may be set. Further, in order to prevent the area of interest from being set to areas other than the face image (for example, background, hair, etc.), the image area in which the central portion of the subject's face is formed is set as the area of interest. The region of interest may be set according to the position.
撮影画像における関心領域の位置、サイズ等については、顔に関するオートゲインを調整可能な範囲で適宜設定可能である。関心領域のサイズとしては、少なくとも、平均的な人による顔画像の画像領域よりも小さいことが好ましい(背景部分を含めないため)。ここで、関心領域は、顔画像に対するオートゲイン制御用として設定されてもよい。なお、関心領域の形状は、例えば、矩形、丸等がありうるが、特定の画像領域を抽出する形状としては、特に限定されない。 The position, size, etc. of the region of interest in the captured image can be appropriately set within an adjustable range of the auto gain related to the face. The size of the region of interest is preferably at least smaller than the image region of the average human face image (because the background portion is not included). Here, the region of interest may be set for auto gain control on the face image. The shape of the region of interest may be, for example, a rectangle, a circle, or the like, but the shape for extracting a specific image region is not particularly limited.
検眼部を所定位置に配置させる場合、演算処理部は、検眼部の所定位置に対応する関心領域を設定し、関心領域での画像信号を解析処理してオートゲイン制御を行うようにしてもよい。また、演算処理部は、検眼部の位置に応じて関心領域の位置を変更し、変更された関心領域での画像信号を解析処理してオートゲイン制御を行うようにしてもよい。 When arranging the eye examination unit at a predetermined position, the arithmetic processing unit sets an area of interest corresponding to the predetermined position of the eye examination unit, analyzes the image signal in the area of interest, and performs auto gain control. May be good. Further, the arithmetic processing unit may change the position of the region of interest according to the position of the eye examination unit, analyze the image signal in the changed region of interest, and perform auto gain control.
オートゲインに際し、解析領域の画像信号が解析処理され、オートゲインを行うための評価値が取得されてもよい。オートゲインのための評価値としては、関心領域内での平均輝度であってもよいし、関心領域内の各画素の輝度累積値、関心領域内での最大輝度値、であってもよい。また、評価値として、関心領域内における画像のコントラスト、ヒストグラム等が用いられてもよい。 At the time of auto gain, the image signal in the analysis region may be analyzed and an evaluation value for performing auto gain may be acquired. The evaluation value for auto gain may be the average brightness in the region of interest, the cumulative luminance value of each pixel in the region of interest, or the maximum luminance value in the region of interest. Further, as the evaluation value, the contrast of the image in the region of interest, the histogram, or the like may be used.
なお、オートゲイン制御においては、例えば、顔撮影部に設けられた撮像素子(例えば、CMOSカメラ)に備わるオートゲイン機能が用いられてもよい。この場合、例えば、装置の制御部が、撮像素子に設けられた演算処理部に対して関心領域の位置情報を設定しておくことで、設定された関心領域での画像信号に基づいてオートゲイン制御が行われる。また、撮像素子自体にオートゲイン機能が設けられていない場合、装置の制御部上で画像解析を行い、その画像解析の結果によってゲインを制御してもよい。なお、上記説明においては、関心領域での画像信号に基づいて顔撮影部のオートゲイン制御を行うようにしたが、関心領域での画像信号に基づいて顔撮影部90の露光時間を自動的に制御する場合において、上記実施形態の適用が可能である。
In the auto gain control, for example, an auto gain function provided in an image sensor (for example, a CMOS camera) provided in the face photographing unit may be used. In this case, for example, the control unit of the device sets the position information of the region of interest with respect to the arithmetic processing unit provided in the image sensor, so that the auto gain is based on the image signal in the set region of interest. Control is done. Further, when the image sensor itself is not provided with the auto gain function, the image analysis may be performed on the control unit of the apparatus, and the gain may be controlled based on the result of the image analysis. In the above description, the auto gain control of the face photographing unit is performed based on the image signal in the region of interest, but the exposure time of the
<眼位置検出(例えば、図12参照)>
例えば、演算処理部は、検眼部の位置に基づいて設定された関心領域での画像信号に基づいて、撮影画像における眼の位置を検出してもよい。これによって、検眼部の位置を利用して被検眼の位置を特定できるので、例えば、撮影画像における眼検出を確実に行うことができ、被検眼に対するスムーズなアライメントが可能となる。なお、眼検出の具体的手法としては、眼に形成された指標(例えば、前眼部反射像)を検出してもよいし、眼の特徴部位(例えば、瞳孔、虹彩、強膜、血管等)を検出してもよい。また、関心領域は、撮影画像において眼を探索するための探索範囲として設定されてもよい。
<Eye position detection (see, for example, FIG. 12)>
For example, the arithmetic processing unit may detect the position of the eye in the captured image based on the image signal in the region of interest set based on the position of the eye examination unit. As a result, since the position of the eye to be inspected can be specified by using the position of the eye-examined portion, for example, the eye can be reliably detected in the captured image, and smooth alignment with respect to the eye to be inspected becomes possible. As a specific method for eye detection, an index formed in the eye (for example, anterior segmental reflection image) may be detected, or a characteristic part of the eye (for example, pupil, iris, sclera, blood vessel, etc.) may be detected. ) May be detected. Further, the region of interest may be set as a search range for searching the eye in the captured image.
撮影画像における眼を精度よく検出するために、被検眼が形成される画像領域が関心領域として設定されるように、検眼部の位置に対応して関心領域が設定されてもよい。撮影画像に左右眼が含まれる場合、被検者の左右眼の少なくともいずれかが形成される画像領域が関心領域として設定されるように、検眼部の位置に対応して関心領域が設定されてもよい。なお、左右眼毎に異なる関心領域が設定されてもよいし、左右眼を含む関心領域が設定されてもよい。 In order to accurately detect the eye in the captured image, the region of interest may be set corresponding to the position of the eye examination portion so that the image region in which the eye to be examined is formed is set as the region of interest. When the captured image includes the left and right eyes, the region of interest is set according to the position of the eye examination portion so that the image region in which at least one of the left and right eyes of the subject is formed is set as the region of interest. You may. A different region of interest may be set for each of the left and right eyes, or a region of interest including the left and right eyes may be set.
撮影画像における関心領域の位置、サイズ等については、瞳孔間距離の個人差、顔の大きさの違いによる眼の上下位置の個人差等の眼の位置を考慮して、適宜設定可能である。また、関心領域における眼を検出するため、関心領域は、顔画像全体が含まれるようなサイズに設定されてもよい。 The position, size, and the like of the region of interest in the captured image can be appropriately set in consideration of the individual difference in the interpupillary distance and the individual difference in the vertical position of the eye due to the difference in the size of the face. Further, in order to detect the eyes in the region of interest, the region of interest may be set to a size that includes the entire facial image.
検眼部を所定位置に配置させる場合、演算処理部は、検眼部の所定位置に対応する関心領域を設定し、関心領域での画像信号を解析処理して眼検出を行うようにしてもよい。所定位置に対応する関心領域が設定されることで、ノイズの要因となる画像領域(例えば、背景、髪等)の影響が軽減され、顔における眼の位置が検出される。 When the eye examination unit is arranged at a predetermined position, the arithmetic processing unit sets an area of interest corresponding to the predetermined position of the eye examination unit, analyzes the image signal in the area of interest, and performs eye detection. good. By setting the region of interest corresponding to the predetermined position, the influence of the image region (for example, background, hair, etc.) that causes noise is reduced, and the position of the eye on the face is detected.
また、演算処理部は、検眼部の位置に応じて関心領域の位置を変更し、変更された関心領域での画像信号を解析処理して眼検出を行うようにしてもよい。これによって、検眼部の位置に関わらず、ノイズの要因となる画像領域の影響が軽減され、顔における眼の位置が検出される。 Further, the arithmetic processing unit may change the position of the region of interest according to the position of the eye examination unit, analyze the image signal in the changed region of interest, and perform eye detection. As a result, regardless of the position of the eye examination portion, the influence of the image region that causes noise is reduced, and the position of the eye on the face is detected.
なお、撮影画像において眼位置が検出されると、演算処理部は、眼位置の検出結果に基づいて駆動部を制御することによって、被検眼に対する検眼部の自動アライメントを行うようにしてもよい。 When the eye position is detected in the captured image, the arithmetic processing unit may automatically align the eye examination unit with respect to the eye to be inspected by controlling the drive unit based on the detection result of the eye position. ..
なお、演算処理部は、関心領域での画像信号に基づくオートゲイン制御を行い、オートゲインによって調整された撮影画像に設定された関心領域での画像信号に基づいて眼の位置を検出してもよい。この場合、眼位置検出のための関心領域は、オートゲインのための関心領域に対して、位置又はサイズの少なくともいずれかが異なってもよい。これによって、各種制御を精度よく行うことができる。もちろん、これに限定されず、オートゲインと眼位置検出とで、同じ位置及びサイズの関心領域が用いられてもよい。 Even if the arithmetic processing unit performs auto gain control based on the image signal in the region of interest and detects the position of the eye based on the image signal in the region of interest set in the captured image adjusted by the auto gain. good. In this case, the region of interest for eye position detection may differ from the region of interest for autogain at least in position or size. As a result, various controls can be performed with high accuracy. Of course, the present invention is not limited to this, and the region of interest of the same position and size may be used for auto gain and eye position detection.
<変容形態>
なお、上記説明においては、検眼部の位置に応じて顔撮影部の撮影条件を制御するものとしたが、これに限定されず、検眼部の位置に応じて、顔照明光学系による照明条件を制御するようにしてもよい(図8参照)。
<実施例>
本開示に係る眼科装置を図面に基づいて説明する。なお、以下の説明では、眼科装置として眼屈折力測定装置を例に説明するが、角膜曲率測定装置、角膜形状測定装置、眼圧測定装置、眼軸長測定装置、眼底カメラ、OCT(optical coherence tomography)、SLO(Scanning Laser Ophthalmoscope)等の他の眼科装置にも適用可能である。
<Transformation form>
In the above description, the imaging conditions of the face imaging unit are controlled according to the position of the eye examination unit, but the present invention is not limited to this, and illumination by the face illumination optical system is performed according to the position of the eye examination unit. The conditions may be controlled (see FIG. 8).
<Example>
The ophthalmic apparatus according to the present disclosure will be described with reference to the drawings. In the following description, an ophthalmic refractive force measuring device will be described as an example of an ophthalmic device, but a corneal curvature measuring device, a corneal shape measuring device, an intraocular pressure measuring device, an axial length measuring device, a fundus camera, and an OCT (optical coherence). It can also be applied to other ophthalmic devices such as tomography) and SLO (Scanning Laser Ophthalmoscope).
本実施例の眼科装置は、例えば、被検眼の眼屈折力を他覚的に測定する。例えば、本実施例の眼科装置は、片眼毎に測定を行ってもよいし、両眼同時に(両眼視で)測定を行う装置であってもよい。眼科装置は、例えば、検眼部と、撮影部と、駆動部と、制御部と、を主に備える。
<外観>
図1に基づいて、眼科装置の外観を説明する。図1に示すように、本実施例の眼科装置1は、検眼部2と、顔撮影部90と、駆動部4と、を主に備える。検眼部2は、被検眼を検査する。検眼部2は、例えば、被検眼の眼屈折力、角膜曲率、眼圧等を測定する光学系を備えてもよい。また、検眼部2は、被検眼の前眼部、眼底等を撮影するための光学系等を備えてもよい。本実施例では、屈折力を測定する検眼部2を例に説明する。顔撮影部90は、例えば、被検眼の顔を撮影する。顔撮影部90は、例えば、左右の被検眼のうち少なくとも一方を含む顔を撮影する。駆動部4は、例えば、検眼部2および撮影部3を基台5に対して上下左右前後方向(3次元方向)に移動させる。
The ophthalmic apparatus of this embodiment objectively measures, for example, the refractive power of the eye to be inspected. For example, the ophthalmic apparatus of this embodiment may be an apparatus that performs measurement for each eye or may be an apparatus that performs measurement for both eyes at the same time (binocular vision). The ophthalmic apparatus mainly includes, for example, an eye examination unit, an imaging unit, a drive unit, and a control unit.
<Appearance>
The appearance of the ophthalmic apparatus will be described with reference to FIG. As shown in FIG. 1, the ophthalmic apparatus 1 of this embodiment mainly includes an
さらに、本実施例の眼科装置1は、例えば、筐体6、表示部7、操作部8、顔支持部9等を備えてもよい。例えば、筐体6は、検眼部2、顔撮影部90、駆動部4等を収納する。表示部7は、例えば、被検眼の観察画像および測定結果等を表示させる。表示部7は、例えば、装置1と一体的に設けられてもよいし、装置とは別に設けられてもよい。眼科装置1は、操作部8を備えてもよい。操作部8は、装置1の各種設定、測定開始時の操作に用いられる。操作部8には、検者による各種操作指示が入力される。例えば、操作部8は、タッチパネル、ジョイスティック、マウス、キーボード、トラックボール、ボタン等の各種ヒューマンインターフェイスであってもよい。顔支持部9は、例えば、額当て10と顎台11を備えてもよい。顎台11は、顎台駆動部12の駆動によって上下方向に移動されてもよい。
<制御系>
図2に示すように、本装置1は制御部70を備える。制御部70は、本装置1の各種制御を司る。制御部70は、例えば、一般的なCPU(Central Processing Unit)71、ROM72、RAM73等を備える。例えば、ROM72には、眼科装置を制御するための眼科装置制御プログラム、初期値等が記憶されている。例えば、RAMは、各種情報を一時的に記憶する。制御部70は、検眼部2、顔撮影部90、駆動部4、表示部7、操作部8、顎台駆動部12、記憶部(例えば、不揮発性メモリ)74等と接続されている。記憶部74は、例えば、電源の供給が遮断されても記憶内容を保持できる非一過性の記憶媒体である。例えば、ハードディスクドライブ、着脱可能なUSBフラッシュメモリ等を記憶部74として使用することができる。また、制御部70には、検眼部2の位置を検出するための位置検出センサ75が接続されている。
<検眼部>
検眼部2は、被検眼の測定,検査,撮影などを行う。検眼部2は、例えば、被検眼の屈折力を測定する測定光学系を備えてもよい。例えば、図3に示すように、検眼部2は、測定光学系20と、固視標呈示光学系40と、指標投影光学系50と、観察光学系(撮像光学系)60と、を備えてもよい。
Further, the ophthalmic apparatus 1 of this embodiment may include, for example, a housing 6, a
<Control system>
As shown in FIG. 2, the present device 1 includes a
<Eye examination part>
The
測定光学系20は、投影光学系(投光光学系)20aと、受光光学系20bと、を有している。投影光学系20aは、被検眼の瞳孔を介して眼底Efに光束を投影する。また、受光光学系20bは、瞳孔周辺部を介して眼底Efからの反射光束(眼底反射光)をリング状に取り出し、主に屈折力の測定に用いるリング状の眼底反射像を撮像する。
The measurement
投影光学系20aは、測定光源21と、リレーレンズ22と、ホールミラー23と、対物レンズ24と、を光軸L1上に有している。光源21は、リレーレンズ22から対物レンズ24、および、瞳孔中心部を介して眼底Efにスポット状の光源像を投影する。光源21は、移動機構33によって光軸L1方向に移動される。ホールミラー23には、リレーレンズ22を介した光源21からの光束を通過させる開口が設けられている。ホールミラー23は、被検眼の瞳孔と光学的に共役な位置に配置されている。
The projection
受光光学系20bは、ホールミラー23と、対物レンズ24と、を投影光学系20aと共用する。また、受光光学系20bは、リレーレンズ26と、全反射ミラー27と、を有している。更に、受光光学系20bは、受光絞り28と、コリメータレンズ29と、リングレンズ30と、撮像素子32と、をホールミラー23の反射方向の光軸L2上に有している。撮像素子32には、エリアCCD等の二次元受光素子を用いることができる。受光絞り28、コリメータレンズ29、リングレンズ30、及び撮像素子32は、移動機構33によって、投影光学系20aの測定光源21と一体的に光軸L2方向に移動される。移動機構33によって光源21が眼底Efと光学的に共役な位置に配置される場合、受光絞り28及び撮像素子32も、眼底Efと光学的に共役な位置に配置される。
The light receiving
リングレンズ30は、対物レンズ24からコリメータレンズ29を介して導かれる眼底反射光を、リング状に整形するための光学素子である。リングレンズ30は、リング状のレンズ部と、遮光部と、を有している。また、受光絞り28及び撮像素子32が、眼底Efと光学的に共役な位置に配置される場合、リングレンズ30は、被検眼の瞳孔と光学的に共役な位置に配置される。撮像素子32では、リングレンズ30を介したリング状の眼底反射光(以下、リング像という)が受光される。撮像素子32は、受光したリング像の画像情報を、CPU71に出力する。その結果、CPU71では、表示部7でのリング像の表示、およびリング像に基づく屈折力の算出等が行われる。
The
また、図3に示すように、本実施例では、対物レンズ24と被検眼との間に、ダイクロイックミラー39が配置されている。ダイクロイックミラー39は、光源21から出射された光、および、光源21からの光に応じた眼底反射光を透過する。また、ダイクロイックミラー39は、後述の固視標呈示光学系40からの光束を被検眼に導く。更に、ダイクロイックミラー39は、後述の指標投影光学系50からの光の前眼部反射光を反射して、その前眼部反射光を観察光学系60に導く。
Further, as shown in FIG. 3, in this embodiment, the
図3に示すように、被検眼の前方には、指標投影光学系50が配置されている。指標投影光学系50は、主に、被検眼に対する光学系の位置合わせ(アライメント)に用いられる指標を前眼部に投影する。この場合、指標投影光学系50は、被検眼に対する光学系のXY方向又はZ方向の少なくともいずれかに位置合わせ(アライメント)に用いられる指標を前眼部に投影する。なお、指標投影光学系50を用いず、前眼部画像における特徴部位を検出することによってアライメント検出を行うようにしてもよい。もちろん、指標検出と、特徴部位の検出とを併用して、アライメントを検出してもよい。
As shown in FIG. 3, the index projection
指標投影光学系50は、例えば、リング指標投影部51と、指標投影部52と、を備える。リング指標投影部51は、被検者眼Eの角膜に拡散光を投影し、リング指標(いわゆるマイヤーリング)を投影する。リング指標投影部51は、本実施例の眼科装置1では、被検者眼Eの前眼部を照明する前眼部照明としても用いられる。指標投影部52は、被検眼の角膜に平行光を投影し、無限遠指標を投影する。
The index projection
視標呈示光学系40は、光源41、固視標42、リレーレンズ43、反射ミラー46の反射方向の光軸L4上に有している。固視標42は、他覚屈折力測定時に被検眼を固視させるために使用される。例えば、光源41によって固視標42が照明されることによって、被検眼に呈示される。
The optotype presenting
光源41及び固視標42は、駆動機構48によって光軸L4の方向に一体的に移動される。光源41及び固視標42の移動によって、固視標の呈示位置(呈示距離)を変更してもよい。これによって、被検眼に雲霧をかけて屈折力測定を行うことができる。
The
前眼撮影光学系60は、撮像レンズ61と、撮像素子62とを、ハーフミラー63の反射方向の光軸L3上に備える。撮像素子62は、被検眼の前眼部と光学的に共役な位置に配置される。撮像素子62は、リング指標投影部51によって照明される前眼部を撮像する。撮像素子62からの出力は、CPU71に入力される。その結果、撮像素子62によって撮像される被検眼の前眼部画像Iaが、表示部7に表示される(図2参照)。また、撮像素子62では、指標投影光学系50によって被検眼の角膜に形成されるアライメント指標像(本実施例では、リング指標および無限遠指標)が撮像される。その結果、CPU71は、撮像素子62の撮像結果に基づいてアライメント指標像を検出できる。また、CPU71は、アライメント状態の適否を、アライメント指標像が検出される位置に基づいて判定できる。
<顔撮影部>
顔撮影部90は、例えば、左右の被検眼のうち少なくとも一方を含む顔を撮影するための光学系である。例えば、図3に示すように、本実施例の顔撮影部90は、例えば、撮像素子91と、撮像レンズ92を主に備える。なお、顔撮影部90の光路には、可視光カットフィルタが配置され、可視光によるノイズ光が制限されてもよい。
The front eye photographing
<Face photography section>
The
本実施例の顔撮影部90は、駆動部4によって検眼部2とともに移動される。もちろん、顔撮影部90は、例えば、基台5に対して固定され、移動しない構成でもよい。
The
なお、撮影レンズ92は、例えば、広角レンズであってもよい。広角レンズは、例えば、魚眼レンズ、円錐レンズ等である。広角レンズを備えることによって、顔撮影部90は、広い画角で被検者の顔を撮影できる。画角は例えば、87°以上である。これによって、顔撮影部90は、被検者の両眼を撮影し易い。
<顔照明光学系>
顔照明光学系80は、被検眼の顔を照明する。顔照明光学系80は、例えば、照明光源81を備える。顔照明光学系80は、例えば、指向性の低い光源が用いられる。なお、顔照明光学系80は、赤外光にて被検者の顔を照明する顔照明光学系であってもよい。ここで、顔撮影部90において可視光をカットしておくことで、赤外光による顔からの反射光が顔撮影部90によって検出される。この場合、赤外光によるノイズ光が顔撮影部90に入射される可能性があるので、オートゲイン、眼検出のための関心領域ROIを撮影画像に設定することによって、赤外光ノイズの影響を軽減できる。
<制御方法>
以下、本装置1の制御動作について説明する。本装置1は、例えば、被検眼を検査するために、検眼部2と被検眼とのアライメントを全自動(フルオート)で行う。
The photographing
<Face lighting optical system>
The face illumination
<Control method>
Hereinafter, the control operation of the present device 1 will be described. The apparatus 1 automatically aligns the
フルオート測定のフローチャートを図4に示す。例えば、制御部70は、測定を行った後、フルオートアライメントを行い、被検眼Eと検眼部2との位置合わせを行う。その後、眼の測定を行い、もう一方の眼に検眼部2を移動させて再度フルオートアライメントを行う。アライメントが完了すると、制御部70は、被検眼の測定を行い、処理を終了する。以下、各ステップについて説明する。
The flowchart of the fully automatic measurement is shown in FIG. For example, the
{ステップS100:顎台調整}
ステップS100において、制御部70は顎台調整を行う。顎台調整についての詳細は後述する。制御部70は、顎台調整が完了すると、ステップS200に移行する。
{Step S100: Jaw stand adjustment}
In step S100, the
{ステップS200:フルオートアライメント(1)}
ステップS200において、制御部70は、左右の一方の被検眼に対するフルオートアライメントを行う。例えば、制御部70は、顔撮影部90によって撮影された顔画像から被検者の眼を検出し、その方向に検眼部2を移動させる。このとき、制御部70は、前眼部観察光学系60によって撮影された被検眼の前眼部画像から、指標投影光学系50によって投影されたアライメント指標を検出してもよい。顔画像から検出された被検眼の情報に基づいて、粗アライメントが行われたところで、前眼部画像からアライメント指標を検出すると、制御部70は、アライメント指標による微アライメントを行う。例えば、制御部70は、アライメント指標の位置が所定位置となるように検眼部2を移動させ、アライメントを完了させる。
{Step S200: Fully automatic alignment (1)}
In step S200, the
{ステップS300:測定(1)}
ステップS300において、制御部70は被検眼の検査を行う。例えば、制御部70は、測定光を被検眼の眼底に照射し、眼底によって反射された測定光の検出結果に基づいて、被検眼の眼屈折力を測定する。
{Step S300: Measurement (1)}
In step S300, the
{ステップS400:左右眼切換}
ステップS400において、制御部70は測定対象眼を切り換える。例えば、制御部70は、ステップS300において検査が完了した眼からもう一方の眼に検眼部2を移動させる。
{Step S400: Left / right eye switching}
In step S400, the
{ステップS500:フルオートアライメント(2)}
ステップS500において、制御部70は検査が完了していない方の被検眼に対して、ステップS200と同様にフルオートアライメントを行う。
{Step S500: Fully automatic alignment (2)}
In step S500, the
{ステップS600:測定(2)}
ステップS600において、制御部70は、もう一方の被検眼の検査を行う。
{Step S600: Measurement (2)}
In step S600, the
<測定準備から測定まで>
続いて、ステップS100の測定準備からステップS300の測定までの制御について図5を用いてより詳しく説明する。例えば、制御部70は、顔撮影部90によって撮影される顔画像から被検者の両眼検出を行う。
<From measurement preparation to measurement>
Subsequently, the control from the measurement preparation in step S100 to the measurement in step S300 will be described in more detail with reference to FIG. For example, the
{ステップS110:顔画像解析}
ステップS110において、制御部70は、予め設定された初期位置に検眼部2を位置させる。この場合、例えば、制御部70は、記憶部74に記憶された初期位置に検眼部2を位置させてもよい。また、制御部70は、位置検出センサ75によって検眼部2が初期位置に達したことを検知することによって検眼部2を初期位置に位置させてもよい。制御部70は、顔照明光学系80による顔の照明を行うと共に、顔撮影部90からの撮像信号に基づいて、左右眼の少なくともいずれかの被検眼の位置を検出する。
{Step S110: Face image analysis}
In step S110, the
{ステップS120:前眼部画像解析}
ステップS120において、制御部70は、前眼撮影光学系60からの撮像信号に基づいて前眼部画像を解析し、被検眼の検出処理を行う。例えば、制御部70は、前眼部画像を解析し、指標または眼の特徴部位の検出処理を行う。
{Step S120: Anterior eye image analysis}
In step S120, the
{ステップS130:被検眼検出判定}
ステップS130において、制御部70は、ステップS120の検出処理において、前眼撮影光学系60からの撮像信号に基づいて被検眼が検出できたか否かを判定する。制御部70は、被検眼が検出された場合は、ステップS140の顎台調整をスキップして、前眼撮影光学系60による検眼部2の位置調整に移行する。また、被検眼が検出されなかった場合は、ステップS140に移る。
{Step S130: Optometry detection determination}
In step S130, the
{ステップS140:顎台調整}
ステップS140において、制御部70は、例えば、顎台駆動部12を制御し、顎台の高さを調整する。制御部70は、ステップS110の解析結果に基づいて顎台駆動部12を制御し、顎台の高さを調整する。この場合、制御部は、検眼部2の移動可能範囲内に被検眼が配置されるように顎台駆動部12を制御し、顎台の高さを調整してもよい。なお、顎台調整が必要ない場合は、ステップS180に移ってもよい。
{Step S140: Jaw stand adjustment}
In step S140, the
{ステップS150:第2の顔画像解析}
顎台の高さ調整が完了されると、制御部70は、ステップS150において、制御部70は、顔撮影部90からの撮像信号に基づいて、左右眼の少なくともいずれかの被検眼を検出する。
{Step S150: Second face image analysis}
When the height adjustment of the jaw stand is completed, the
{ステップS160:第2の前眼部画像解析}
ステップS120において、制御部70は、前眼撮影光学系60からの撮像信号に基づいて前眼部画像を解析し、被検眼の検出処理を行う。
{Step S160: Second anterior eye image analysis}
In step S120, the
{ステップS170:第2の被検眼検出判定}
ステップS170において、制御部70は、ステップS160の検出処理において、被検眼が検出できたか否かを判定する。制御部70は、被検眼が検出された場合は、顔撮影部90による検眼部2の位置調整をスキップして、前眼撮影光学系60による検眼部2の位置調整に移行する。また、被検眼が検出されなかった場合は、ステップS180に移る。
{Step S170: Second eye detection determination}
In step S170, the
{ステップS180:顔撮影部による位置調整}
ステップS180において、制御部70は、例えば、顔撮影部90からの撮像信号に基づいて駆動部4を制御し、検眼部2の位置を調整する。制御部70は、顔撮影部90からの撮像信号に基づいて眼の位置を検出する。制御部70は、位置検出結果に基づいて駆動部4を制御し、検眼部2の3次元位置を調整する。この場合、制御部は、前眼撮影光学系60による撮影可能範囲内に被検眼が配置されるように駆動部4を制御し、検眼部2の位置を調整してもよい。
{Step S180: Position adjustment by the face photographing section}
In step S180, the
{ステップS190:前眼撮影光学系60による位置調整}
ステップS190において、制御部70は、前眼撮影光学系60からの撮像信号に基づいて駆動部4を制御し、検眼部2の位置を調整する。制御部70は、前眼撮影光学系60からの撮像信号に基づいて被検眼の位置を検出する。制御部70は、位置検出結果に基づいて駆動部4を制御し、検眼部2の位置を調整する。この場合、制御部は、アライメント許容範囲内に被検眼が配置されるように駆動部4を制御し、検眼部2の3次元位置を調整してもよい。
{Step S190: Position adjustment by front eye imaging optical system 60}
In step S190, the
<オートゲイン制御における関心領域ROIの設定>
次に、ステップS110における顔画像解析において顔撮影部90のオートゲイン制御を行う場合の一例を説明する。図6はオートゲイン制御の一例を示す図である。制御部70は、初期位置に配置された検眼部の位置に基づく関心領域ROIを、顔撮影部90の撮影画像に設定する。この場合、関心領域ROIは、オートゲイン制御を行うために設定された関心領域である。
<Setting of area of interest ROI in auto gain control>
Next, an example of performing auto gain control of the
例えば、顎台11によって支持された被検者を初期位置にて撮影した際、顔の領域となる可能性が高い画像領域が、関心領域ROIとして予め設定される。ここで、関心領域ROIでの輝度が目標値となるようにゲインが自動的に調整される。
For example, when the subject supported by the
例えば、制御部は、ROIの輝度が目標値Th1となるように、オートゲイン制御を行う。より詳細には、制御部は、ROI内の各画素の輝度累計値を任意の目標値Th1に近づくように、オートゲイン制御を行うようにしてもよく、輝度累計値が目標値を下回る場合、ゲインを増加させ、輝度累計値が目標値を上回る場合、ゲインを減少させてもよい。 For example, the control unit performs auto gain control so that the brightness of the ROI becomes the target value Th1. More specifically, the control unit may perform auto gain control so that the cumulative luminance value of each pixel in the ROI approaches an arbitrary target value Th1. When the cumulative luminance value is less than the target value, If the gain is increased and the cumulative brightness exceeds the target value, the gain may be decreased.
これにより、広角ゆえに外乱光を集光しやすい顔撮影部90によって撮影された撮影画像において、被検者の顔と眼とのコントラストが適正に調整され、以降の眼検出をスムーズに行うことができる。
As a result, the contrast between the subject's face and eyes is properly adjusted in the captured image taken by the
なお、初期位置でのオートゲイン制御が行われた後も、オートゲイン制御が実行されてもよいし(例えば、ステップ150、ステップ180等)、終了してもよい。オートゲイン制御が常時実行されてもよい。 Even after the auto gain control is performed at the initial position, the auto gain control may be executed (for example, step 150, step 180, etc.) or may be terminated. Auto gain control may be performed at all times.
なお、初期位置でのオートゲイン制御が行われた後、制御部は、検眼部2の位置に応じて関心領域ROIを移動させてもよい。図7は、検眼部2の位置に応じたROIの位置に切換例を示す図である。本実施例では、検眼部2の左右位置に応じて異なる複数の関心領域ROIが設定される。この場合、左右方向での検眼部2の移動量と、撮影画像における関心領域ROIの移動量とが一対の関係であってもよい。
After the auto gain control is performed at the initial position, the control unit may move the region of interest ROI according to the position of the
撮影画像における関心領域ROIのサイズは、画像処理の目的に合わせて適宜設定されてもよい。本実施例では、顔の輝度を適正に調整して良好な眼検出を行うことを目的であり、被検者の肌の一部が少なくとも形成されるサイズに設定される(眼を避けた位置であることが好ましい)。この場合、上下左右方向に関してそれぞれ関心領域ROIに対応する境界が設定されてもよいし、左右方向に関してのみ関心領域ROIに対応する境界が設定されてもよい。 The size of the region of interest ROI in the captured image may be appropriately set according to the purpose of image processing. In this embodiment, the purpose is to properly adjust the brightness of the face to perform good eye detection, and the size is set so that at least a part of the skin of the subject is formed (position avoiding the eyes). Is preferable). In this case, a boundary corresponding to the region of interest ROI may be set in each of the vertical and horizontal directions, or a boundary corresponding to the region of interest ROI may be set only in the horizontal direction.
検眼部2の位置と関心領域ROIの設定位置との対応関係は、予め記憶部74に記憶されてもよく、制御部70は、記憶部74に記憶された対応関係を用いて、検眼部2の位置に応じて関心領域ROIを設定してもよい。検眼部2の位置とROIの設定位置との対応関係は、例えば、検眼部2、及び検眼部2における顔撮影部90の位置を考慮したシミュレーションによって求められてもよい。また、被検者の顔が顎台11によって支持された状態で顔撮影部90によって実際に撮影することによって、検眼部2の位置と関心領域ROIの設定位置との対応関係を求めてもよい。
The correspondence between the position of the
なお、図7では、左右位置に応じて異なる4種類のROIが設定されるが、これに限定されず、2〜3種類のROIが設定されてもよいし、5種類以上のROIが設定されてもよい。もちろん、検眼部2の位置に応じてリニアに関心領域ROIが設定されてもよい。
In FIG. 7, four different ROIs are set according to the left and right positions, but the ROI is not limited to this, and two or three types of ROIs may be set, and five or more types of ROIs are set. You may. Of course, the region of interest ROI may be set linearly according to the position of the
制御部70は、位置検出センサ75からの検眼部2の位置情報に基づいて撮影画像における関心領域ROIの設定位置を変更し、変更された関心領域ROIでの画像信号に基づいてオートゲイン制御を行ってもよい。これによって、検眼部2の位置に関わらず、適正な位置に関心領域ROIが設定され、オートゲインを適正に行うことができる。
The
また、制御部70は、検眼部2の位置に応じて関心領域ROIを設定してオートゲイン制御を行うことで、撮影画像における顔の形成位置に応じたゲイン調整を行うことができるので、さらに有利である。つまり、検眼部2の位置に応じて顔照明による照明状態が異なり、撮影画像の調整が必要な場合がある。そこで、前述のように検眼部2の位置に応じて設定された関心領域ROIを用いて、オートゲインを再度行うことによって、照明状態の変化にも対応でき、顔撮影部90を用いた眼検出によるアライメントを良好に行うことができる。また、検眼部2の位置に応じて関心領域ROIの位置を変更することによって、検眼部2の位置に関わらず、外部照明等の明るさに関係なく顔の明るさが一定の目標レベルに調整され、眼の検出等を確実に行うことができる。
Further, the
なお、上記説明においては、検眼部2の位置に応じて関心領域ROIの位置を変更し、オートゲイン制御を行うものとしたが、これに限定されず、検眼部2の位置に応じて、顔照明による照明状態を変更してもよい。
In the above description, the position of the region of interest ROI is changed according to the position of the
図8は、検眼部2の位置に応じて顔照明を変更する場合の一例を示す図である。例えば、検眼部2が左眼側に移動したときは、顔照明1〜顔照明3を点灯させて、顔照明4〜6を消灯し、検眼部2が右眼側に移動したときは、顔照明4〜6を点灯させて、顔照明1〜3を消灯してもよい。また、検眼部2が中心位置に配置されている場合、顔照明1〜6を点灯させてもよい。また、複数の照明光源の点灯/消灯に限定されず、光源の照明光量を調整してもよい。また、顔照明の配置構成は上記に限定されず、種々の変容が可能である。また、検眼部2の位置に応じて、顔照明1〜6をそれぞれ独立させた光量制御を行ってもよい。
FIG. 8 is a diagram showing an example of changing the face illumination according to the position of the
<眼検出における関心領域ROIの設定>
次に、ステップS110、ステップ150、ステップ180等における顔画像解析において、眼検出を行う場合の一例を説明する。
<Setting of area of interest ROI in eye detection>
Next, an example of performing eye detection in the face image analysis in step S110, step 150, step 180, etc. will be described.
制御部70は、検眼部の位置に基づく関心領域ROIを、顔撮影部90の撮影画像に設定する。この場合、関心領域ROIは、眼検出を行うために設定された関心領域であり、眼検出における画像探索範囲として設定される。
The
本実施例では、顔撮影部90から眼を検出する。眼の検出において、撮影画像上の探索範囲を限定できれば、例えば、検出処理を高速化できると共に誤検出(異なるものを眼として検出する)を削減できる。この場合、検眼部2の位置によって眼の位置が変わるので、検眼部2の3次元位置情報に基づいて関心領域(画像探索範囲)ROIを設定し、関心領域ROIの中で眼を探索する。
In this embodiment, the eye is detected from the
顎台11に顔を置いた状態で顔が撮影される場合、3次元実空間上の眼の存在しうる範囲は、ある程度限定される。例えば、瞳孔間距離、顔の大きさには個人差があるが、一定の範囲に存在するからである。そこで、眼が存在しうる実空間領域が、顔撮影部90の撮影画像上でどの領域になるか求め、その範囲内を探索する領域とする。
When the face is photographed with the face placed on the
以下、3次元実空間上の関心領域(眼が存在すると考えられる領域)の設定、実空間上の関心領域を撮影画像上の座標に変換する方法、顔撮影部90のレンズの歪みを考慮して座標変換の結果を補正する方法、座標変換の補正の結果から画像上の関心領域(眼が存在すると考えられる領域)を求める方法について述べる。
In the following, the setting of the region of interest in the three-dimensional real space (the region where the eye is considered to exist), the method of converting the region of interest in the real space into the coordinates on the captured image, and the distortion of the lens of the
ここで、3次元実空間上で、被検者が顔を顎台11に載せたとき、右眼が存在すると考えられる立体の領域を設定する(図9参照)。この立体は、点R1〜R8から成る立体で、それぞれR1=(XR1, YR1, ZR1)、・・・、R8=(XR8, YR8, ZR8)とする。同様に、左眼が存在すると考えられる点L1〜L8から成る直方体を設定する。
Here, in a three-dimensional real space, when the subject puts his / her face on the
例えば、左右方向に関して、R1−R5−R8−R4の面の位置は、瞳孔間距離が最も大きい被検眼(例えば、PD=90mm)を想定した右眼の位置であり、例えば、装置の中心位置から45mm離れた位置に設定される。また、R2−R6−R7−R3の面の位置は、瞳孔間距離が最も小さい被検眼(例えば、PD=30mm)を想定した右眼の位置であり、例えば、装置の中心位置から15mm離れた位置に設定される。中心位置は、例えば、駆動部の左右方向の駆動範囲の中心位置であってもよいし、装置本体(例えば、基台、顔支持部など)の左右対称軸の位置であってもよい。 For example, in the left-right direction, the position of the surface of R1-R5-R8-R4 is the position of the right eye assuming the eye to be inspected (for example, PD = 90 mm) having the largest interpupillary distance, for example, the center position of the device. It is set at a position 45 mm away from. The position of the surface of R2-R6-R7-R3 is the position of the right eye assuming the eye to be inspected (for example, PD = 30 mm) having the smallest interpupillary distance, for example, 15 mm away from the center position of the device. Set to position. The center position may be, for example, the center position of the drive range in the left-right direction of the drive unit, or the position of the left-right symmetric axis of the device main body (for example, the base, the face support portion, etc.).
また、上下方向に関して、R1−R2−R3−R4の面の位置は、検眼部2の移動可能範囲の上限であり、例えば、アイレベルマーカーの位置から上に32mm離れた位置に設定される。R5−R6−R7−R8の面の位置は、検眼部2の移動可能範囲の下限であり、例えば、アイレベルマーカーの位置から上に32mm離れた位置に設定される。
Further, in the vertical direction, the position of the surface of R1-R2-R3-R4 is the upper limit of the movable range of the
また、Z方向に関して、R3−R7−R8−R4の面の位置は、被検者が顔支持部9に支持されたときの平均的な眼の位置に対し、装置側に所定量(例えば、20mm)シフトした位置に設定される。また、R2−R6−R5−R1の面の位置は、被検者が顔支持部9に支持されたときの平均的な眼の位置に対し、被検者側に所定量(例えば、20mm)シフトした位置に設定される。なお、左眼についても、同様の手法が採用できるので、説明を省略する。
Further, in the Z direction, the position of the surface of R3-R7-R8-R4 is a predetermined amount (for example, for example) on the device side with respect to the average eye position when the subject is supported by the
上記のように設定した実空間上の関心領域の立体の頂点が、撮影画像上のどこに投影されるか求める(図10参照)。撮影画像における右眼の関心領域ROIについて求める方法で説明する。まず、R1〜R8がそれぞれカメラ上のr1〜r8に投影されるとする。それぞれ、r1=(xr1, yr1)、・・・、r8=(xr8, yr8)。このr1〜r8を求める。 It is determined where on the captured image the vertices of the solid of the region of interest in the real space set as described above are projected (see FIG. 10). The method of obtaining the ROI of the region of interest of the right eye in the captured image will be described. First, it is assumed that R1 to R8 are projected onto r1 to r8 on the camera, respectively. R1 = (xr1, yr1), ..., r8 = (xr8, yr8), respectively. The r1 to r8 are obtained.
ピンホールカメラモデルを適用すると、3次元の座標が撮影画像上の2次元座標に投影される関係式より、R1=(XR1,YR1,ZR1)とr1=(xr1, yr1)の間には式(1)の関係が成り立つ。 When the pinhole camera model is applied, the equation between R1 = (XR1, YR1, ZR1) and r1 = (xr1, yr1) is calculated from the relational expression in which the three-dimensional coordinates are projected onto the two-dimensional coordinates on the captured image. The relationship (1) holds.
同様に、L1〜L8がカメラ上に投影される座標、l1〜l8を求める。 Similarly, the coordinates where L1 to L8 are projected on the camera, l1 to l8, are obtained.
なお、本実施例では、顔撮影部90の撮影画像には歪みが発生する(図11参照)。本実施例では、眼の検出は原画像に対して行う(歪み補正せずに行う)。もちろん歪み補正を行ってもよい。なお、歪みの影響が少ない場合、画像処理での歪み対応は必ずしも必要ではない。
In this embodiment, the captured image of the
上記求めたr1〜r8は歪みを考慮していない座標である。そこで、歪みなしの座標r1〜r8に歪みを考慮した座標r‘1〜r’8に変換する。r1(xr1, yr1)をr‘1( x’r1, y’r1)に変換する例で説明する。r1とr‘1の関係は式(3)で表される。 The obtained r1 to r8 are coordinates that do not consider distortion. Therefore, the coordinates r1 to r8 without distortion are converted to the coordinates r'1 to r'8 in consideration of distortion. An example of converting r1 (xr1, yr1) to r'1 (x'r1, y'r1) will be described. The relationship between r1 and r'1 is expressed by equation (3).
ただし、(xc, yc)は画像上の光学中心座標、k1〜k3は歪み係数、mは画像上の光学中心からの半径で、 However, (xc, yc) is the optical center coordinates on the image, k1 to k3 are the distortion coefficients, and m is the radius from the optical center on the image.
式(3)よりr‘1が求められる。同様にr’2~r’8を求める。同様に、歪みなしの座標l1〜l8に歪みを考慮した座標l’1〜l’8に変換する。 R'1 can be obtained from Eq. (3). Similarly, r'2 to r'8 are obtained. Similarly, the coordinates l1 to l8 without distortion are converted to the coordinates l'1 to l'8 considering the distortion.
撮影画像上における右眼の関心領域ROIは、r‘1〜r’8を全て含む最小の矩形領域内(図12の矩形のROI参照)とする。同様に、左眼の関心領域ROIは l‘1〜l’8を全て含む最小の矩形領域内とする。 The ROI of interest of the right eye on the captured image is within the smallest rectangular region including all r'1 to r'8 (see the rectangular ROI of FIG. 12). Similarly, the region of interest ROI of the left eye is within the smallest rectangular region that includes all l'1 to l'8.
上記手法を用いて、制御部70は、検眼部2の位置に基づいて関心領域ROIを設定する。制御部70は、設定された関心領域ROIの画像信号を処理して関心領域ROIに含まれる眼を探索し、眼検出を行う。
Using the above method, the
<変容例>
<顔撮影と前眼部撮影の並行>
なお、制御部70は、前眼撮影光学系60による眼検出後においても、顔撮影部90による眼検出を行ってもよい。例えば、前眼撮影光学系60による眼検出後、被検者の顔が動いた場合、前眼撮影光学系60の撮像画像において眼が検出されず、眼の位置を検出できない可能性がある。
<Example of transformation>
<Parallel between face photography and anterior eye photography>
The
制御部70は、前眼撮影光学系60による眼検出後においても、顔撮影部90による眼検出を並行して行うようにしてもよい。顔撮影部90による眼検出は、前眼撮影光学系60からの画像による眼検出と常時並行して行ってもよいし、交互に行ってもよい。
The
これによって、前眼撮影光学系60による眼検出後においても、顔撮影部90によって眼の位置を広範囲にて検出することができ、再度初期位置に戻る必要もなく、スムーズなアライメントを行うことができる。この場合、制御部70は、前眼撮影光学系60において眼が検出されない場合において、顔撮影部90による眼検出に復帰するようにしてもよい。
As a result, even after the eye is detected by the anterior eye photographing
1 眼科装置
2 検眼部
4 駆動部
5 基台
6 筐体
70 制御部
71 CPU
72 ROM
73 RAM
90 顔撮影部
1
72 ROM
73 RAM
90 Face shooting department
Claims (1)
前記被検眼を検査するための検眼手段と、被検者の顔を含む撮影画像を撮影するための顔撮影手段と、を備える検眼部と、An optometry unit including an eye examination means for inspecting the eye to be inspected and a face photographing means for taking a photographed image including the face of the subject.
前記被検眼に対して前記検眼部を相対移動させる調整手段と、An adjusting means for moving the optometry portion relative to the eye to be inspected,
前記検眼手段の位置を検出するための位置検出センサと、A position detection sensor for detecting the position of the optometry means and
前記調整手段によって移動される前記検眼部の位置に基づく関心領域を被検眼を検出するために前記撮影画像に設定し、前記関心領域における画像信号を処理する演算処理手段と、An arithmetic processing means for setting an area of interest based on the position of the optometry unit moved by the adjusting means on the captured image in order to detect the eye to be inspected and processing an image signal in the area of interest.
前記演算処理手段は、前記位置検出センサによって検出された前記検眼手段の位置に応じて前記撮影画像における前記関心領域の設定位置を変更し、変更された前記関心領域における画像信号に基づいて前記撮像画像における被検眼の位置を検出し、前記検出結果に基づいて前記調整手段による前記検眼手段の移動を制御することを特徴とする眼科装置。The arithmetic processing means changes the set position of the region of interest in the captured image according to the position of the optometry means detected by the position detection sensor, and captures the image based on the changed image signal in the region of interest. An ophthalmologic apparatus comprising detecting the position of an eye to be inspected in an image and controlling the movement of the eye-inspecting means by the adjusting means based on the detection result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020137700A JP6927389B2 (en) | 2016-06-03 | 2020-08-18 | Ophthalmic equipment |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016112274A JP6843527B2 (en) | 2016-06-03 | 2016-06-03 | Ophthalmic equipment and ophthalmic equipment control program |
JP2020137700A JP6927389B2 (en) | 2016-06-03 | 2020-08-18 | Ophthalmic equipment |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016112274A Division JP6843527B2 (en) | 2016-06-03 | 2016-06-03 | Ophthalmic equipment and ophthalmic equipment control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020179309A JP2020179309A (en) | 2020-11-05 |
JP6927389B2 true JP6927389B2 (en) | 2021-08-25 |
Family
ID=73022799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020137700A Active JP6927389B2 (en) | 2016-06-03 | 2020-08-18 | Ophthalmic equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6927389B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3533308B2 (en) * | 1997-02-10 | 2004-05-31 | 株式会社ニデック | Ophthalmic equipment |
JP3636886B2 (en) * | 1997-07-03 | 2005-04-06 | 株式会社ニデック | Ophthalmic equipment |
JP3088993B2 (en) * | 1997-10-15 | 2000-09-18 | 株式会社コーナン | Ophthalmic equipment |
JP2003210406A (en) * | 2002-01-28 | 2003-07-29 | Canon Inc | Ophthalmologic examination device |
JP5410768B2 (en) * | 2008-02-01 | 2014-02-05 | 株式会社ニデック | Ophthalmic equipment |
JP6112846B2 (en) * | 2012-12-11 | 2017-04-12 | 株式会社トプコン | Ophthalmic equipment |
-
2020
- 2020-08-18 JP JP2020137700A patent/JP6927389B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020179309A (en) | 2020-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12048482B2 (en) | Ophthalmic apparatus | |
JP6641730B2 (en) | Ophthalmic apparatus and ophthalmic apparatus program | |
JP7073678B2 (en) | Ophthalmic equipment | |
US20170100033A1 (en) | Ophthalmologic apparatus | |
JP6701987B2 (en) | Ophthalmic device and ophthalmic device control program | |
CN109310316B (en) | Ophthalmic device | |
JP2022075772A (en) | Ophthalmologic apparatus | |
JP2020124350A (en) | Ophthalmologic apparatus | |
JP6843527B2 (en) | Ophthalmic equipment and ophthalmic equipment control program | |
JP6862685B2 (en) | Ophthalmic equipment and ophthalmic equipment control program | |
JP6634765B2 (en) | Ophthalmic apparatus and ophthalmic apparatus control program | |
JP6927389B2 (en) | Ophthalmic equipment | |
JP6701988B2 (en) | Ophthalmic equipment | |
JP2022027987A (en) | Ophthalmologic apparatus | |
JP6769092B2 (en) | Ophthalmic equipment | |
JP6769091B2 (en) | Ophthalmic equipment and ophthalmic equipment control program | |
JP6733292B2 (en) | Ophthalmic device and ophthalmic device control program | |
JP7187769B2 (en) | Ophthalmic device and ophthalmic device control program | |
JP7491218B2 (en) | Ophthalmic device and ophthalmic device control program | |
JP7550586B2 (en) | Ophthalmic device and method of operation thereof | |
JP7459491B2 (en) | Ophthalmology measuring device | |
JP7553190B2 (en) | Ophthalmic device and method of operation thereof | |
WO2022209991A1 (en) | Ophthalmologic device | |
JP2022105110A (en) | Ophthalmologic apparatus | |
JP2023010416A (en) | Ophthalmologic measuring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200818 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210628 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210706 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210719 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6927389 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |