JP5842634B2 - Display method and display device - Google Patents
Display method and display device Download PDFInfo
- Publication number
- JP5842634B2 JP5842634B2 JP2012014225A JP2012014225A JP5842634B2 JP 5842634 B2 JP5842634 B2 JP 5842634B2 JP 2012014225 A JP2012014225 A JP 2012014225A JP 2012014225 A JP2012014225 A JP 2012014225A JP 5842634 B2 JP5842634 B2 JP 5842634B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- display device
- image
- content
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
本発明は、表示方法及び表示装置に関する。 The present invention relates to a display method and a display device.
実世界の画像とコンテンツの画像が重ねられた拡張現実(AR:Augmented Reality)画像を表示する表示装置が提案されている。スマートホン(Smartphone)、タブレット(Tablet)、パーソナルデジタルアシスタント(PDA:Personal Digital Assistant)などの携帯端末は、このような表示装置の一例である。携帯端末は、実世界の画像を自己のカメラ機能で撮影し、撮影された画像にコンピュータグラフィック(CG:Computer Graphics)などのコンテンツの画像を重ねたAR画像を表示する。 A display device that displays an augmented reality (AR) image in which a real-world image and a content image are superimposed has been proposed. A portable terminal such as a smart phone, a tablet, or a personal digital assistant (PDA) is an example of such a display device. The portable terminal captures a real-world image with its own camera function, and displays an AR image in which an image of content such as computer graphics (CG) is superimposed on the captured image.
しかし、携帯端末のカメラ機能で撮影された実世界の画像は、縮尺が変換されており実際の画像より小さいので、AR画像に高い臨場感を持たせることは難しい。また、カメラ機能で撮影された実世界の画像の照明状態とコンテンツの陰影処理との間で整合性が取れていないと、表示されるAR画像が不自然なものとなる。ところが、カメラ機能で撮影された実世界の画像の照明状態を知るには、撮影時の携帯端末の位置を基準とした光源の位置を推定する必要があるため、実世界の照明状態と整合性の取れたコンテンツの陰影処理を行うことは難しい。 However, since the real-world image captured by the camera function of the mobile terminal has been reduced in scale and smaller than the actual image, it is difficult to give the AR image a high sense of presence. Further, if there is no consistency between the illumination state of the real-world image taken by the camera function and the shadow processing of the content, the displayed AR image becomes unnatural. However, in order to know the illumination state of the real-world image captured by the camera function, it is necessary to estimate the position of the light source based on the position of the mobile terminal at the time of capture, so it is consistent with the real-world illumination state. It is difficult to perform shading processing of content that has been removed.
一方、透過型ディスプレイを有する表示装置が提案されている。このような表示装置は、情報提示装置またはデジタルサイネージ(Digital Signage)などとも呼ばれる。ユーザは、実世界の映像を透過型ディスプレイを通して見ることができ、CGなどのコンテンツの画像を透過型ディスプレイに表示することで、ユーザは実世界の背景映像にコンテンツの画像が重ねられたAR画像を見ることができる。透過型ディスプレイを有する表示装置の場合、ユーザは実際の画像の縮尺で実世界の画像を透過型ディスプレイを通して見ることができるので、高い臨場感を有するAR画像を表示可能なARインタフェースを提供することができる。 On the other hand, a display device having a transmissive display has been proposed. Such a display device is also called an information presentation device or a digital signage. The user can view the real-world video through the transmissive display, and by displaying the content image such as CG on the transmissive display, the user can view the AR image in which the content image is superimposed on the real-world background video. Can see. In the case of a display device having a transmissive display, a user can view an image of the real world through the transmissive display at a scale of an actual image, and thus an AR interface capable of displaying an AR image with a high sense of reality is provided. Can do.
しかし、表示装置の設置環境の照明状態に合わないコンテンツの画像を透過型ディスプレイに表示すると、透過型ディスプレイを通して見える実世界の画像の照明状態とコンテンツの陰影処理との間で整合性が取れなくなる。このような場合、コンテンツの陰影処理が実世界の画像に対して不自然であるため、透過型ディスプレイを通して見えるAR画像は不自然なものとなり、ユーザはAR画像に違和感を覚える。 However, if an image of content that does not match the lighting condition of the installation environment of the display device is displayed on the transmissive display, consistency between the illumination state of the real-world image seen through the transmissive display and the shading process of the content cannot be achieved. . In such a case, since the shading process of the content is unnatural with respect to the real-world image, the AR image seen through the transmissive display becomes unnatural, and the user feels uncomfortable with the AR image.
従来の透過型ディスプレイを有する表示装置では、コンテンツの陰影処理を実世界の背景映像に対して常に適切に行うことは難しい。このため、実世界の背景の照明状態とコンテンツの陰影処理との間で整合性が取れたAR画像を提示することは難しい。 In a display device having a conventional transmissive display, it is difficult to always appropriately perform shadow processing of content on a background image in the real world. For this reason, it is difficult to present an AR image that is consistent between the illumination state of the background in the real world and the shading process of the content.
そこで、本発明は、実世界の画像の照明状態とコンテンツの陰影処理との間で整合性が取れたAR画像を提示可能な表示方法及び表示装置を提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides a display method and a display device capable of presenting an AR image that is consistent between the illumination state of a real-world image and the shading process of content.
本発明の一観点によれば、第1の面及び前記第1の面とは反対側の第2の面とを有する透過型スクリーンが設置されている環境の照明条件、及びユーザ位置と前記透過型スクリーンとの相対位置に応じて画像コンテンツに陰影処理を施し、前記ユーザ位置から前記透過型スクリーンの前記第1の面を通して見える実世界の映像に前記陰影処理を施された画像コンテンツを前記透過型スクリーンの前記第1の面または前記第2の面に投射して重ねて表示し、前記照明条件は、前記透過型スクリーンから見た光源方向である表示方法が提供される。 According to one aspect of the present invention, an illumination condition in an environment where a transmission screen having a first surface and a second surface opposite to the first surface is installed, a user position, and the transmission A shading process is performed on the image content in accordance with a relative position with respect to the mold screen, and the image content subjected to the shading process on the real-world video viewed through the first surface of the transmissive screen from the user position is transmitted. displayed superimposed by projecting the first surface or the second surface of the mold screens, the lighting conditions, the light source direction der Ru display method from the perspective of the transmission screen is provided.
本発明の一観点によれば、第1の面及び前記第1の面とは反対側の第2の面とを有する透過型スクリーンと、複数の光センサと、前記複数の光センサの検知出力に基づいて前記透過型スクリーンから見た光源方向を推定する推定部と、ユーザ位置と前記透過型スクリーンとの相対位置を検知する検知装置と、前記光源方向及び前記相対位置に応じて画像コンテンツに陰影処理を施す陰影処理部と、前記ユーザ位置から前記透過型スクリーンの前記第1の面を通して見える実世界の映像に前記陰影処理を施された画像コンテンツを前記透過型スクリーンの前記第1の面または前記第2の面に投射して重ねて表示するプロジェクタを備えた表示装置が提供される。 According to an aspect of the present invention, a transmissive screen having a first surface and a second surface opposite to the first surface , a plurality of photosensors, and detection outputs of the plurality of photosensors. an estimation unit for estimating a light source direction as seen from the transmission screen on the basis of a detection device for detecting the relative position of the transmission screen and the user position, the image content in response to the light source direction and the relative position A shadow processing unit that performs a shadow process; and an image content obtained by performing the shadow process on a real-world image that is visible from the user position through the first surface of the transmissive screen, and the first surface of the transmissive screen. Alternatively, a display device is provided that includes a projector that projects and projects the second surface .
開示の表示方法及び表示装置によれば、実世界の画像の照明状態とコンテンツの陰影処理との間で整合性が取れたAR画像を提示することが可能である。 According to the disclosed display method and display apparatus, it is possible to present an AR image that is consistent between the illumination state of the real-world image and the shadow processing of the content.
開示の表示方法及び表示装置では、透過型ディスプレイが設置されている環境の照明条件及びユーザと透過型ディスプレイとの相対位置に応じて、透過型ディスプレイに表示するコンテンツの陰影処理を行うことで、透過型ディスプレイを通して見える実世界の背景の照明状態とコンテンツの陰影処理との間の整合性を取る。 In the disclosed display method and display device, by performing shading processing of content displayed on the transmissive display according to the illumination conditions of the environment where the transmissive display is installed and the relative position between the user and the transmissive display, Consistency between the lighting conditions of the real world background seen through the transmissive display and the shading of the content.
以下に、開示の表示方法及び表示装置の各実施例を図面と共に説明する。 Embodiments of the disclosed display method and display device will be described below with reference to the drawings.
図1は、一実施例における表示装置の一例を示す斜視図である。図1に示す表示装置1は、ベース11、ベース11の上面に設けられたフレーム12、フレーム12に例えば一定間隔で配置された複数の光センサ13、ベース11の上面に設けられたプロジェクタ14、ベース11の下面に設けられた車輪15、及びフレーム12に指示された透過型スクリーン16を有する。透過型スクリーン16は、透過型ディスプレイの一例であり、ユーザ(図示せず)が矢印方向を向くと見える表面16−1と、プロジェクタ14のレンズ14−1から画像が投射される裏面16−2を有する。ユーザが矢印方向を向くと、透過型スクリーン16を通して裏面16−2の後方にある実世界の画像が見える。また、プロジェクタ14からCGなどのコンテンツの画像が裏面16−2に投射されると、ユーザには実世界の映像とコンテンツの画像が重ねられた拡張現実(AR:Augmented Reality)画像が表示されているように見える。
FIG. 1 is a perspective view illustrating an example of a display device according to an embodiment. A
なお、プロジェクタ14は、透過型スクリーン16の表面16−1にコンテンツの画像を投射しても良い。この例では、表示装置1は可動型(または、移動型)であるため車輪15が設けられており、車輪15は必要に応じてモータなどの駆動部(図示せず)により駆動されるが、車輪15は省略可能である。
The
さらに、透過型スクリーン16の形状は縦長の長方形に限定されず、横長の長方形、円形、楕円形などを含む任意の形状に形成可能である。フレーム12は、透過型スクリーン16の形状の合わせた形状とすれば良い。
Furthermore, the shape of the
背景の照明状態に合わせて透明スクリーンに投影するAR画像に適切に陰影処理をするための光源方向推定には、例えばニューラルネットワークのような機械学習を利用する。以下では、楽章とは特に明記しない限り機械学習のことを指すものとする。 Machine learning such as a neural network is used for light source direction estimation for appropriately shading the AR image projected onto the transparent screen in accordance with the background illumination state. In the following, the movement refers to machine learning unless otherwise specified.
図2は、学習時の表示装置を示す斜視図である。図2中、図1と同一部分には同一符号を付し、その説明は省略する。図2に示す複数の光センサ131は、学習時のみに用いられるセンサであり、学習時以外の時は取り外される。光センサ12と光センサ131は、いずれも規則的に配置され、この例ではマトリクス状に配置される。
FIG. 2 is a perspective view showing the display device during learning. In FIG. 2, the same parts as those of FIG. The plurality of
光センサ131は、学習時以外の時に取り外し可能であれば良く、透過型スクリーン16に直接取り外し可能に接着されていても、学習時のみに透過型スクリーン16の表面16−1に設置されるアダプタ(図示せず)に設けられていても良い。フィルム状のアダプタの場合、光センサ131はフィルムに印刷されていても良い。この場合、フィルムは、例えばローラブラインドの如き構成として、学習時以外の時は光センサ12の検知動作に干渉しない表示装置1内の位置に収納可能としても良い。
The
図3は、学習処理を説明するフローチャートである。図3の学習処理が開始されると、ステップS1は、図2に示すように光センサ131が配置された表示装置1を使用する場所(以下、設置位置とも言う)へ移動する。表示装置1に駆動部が設けられており自律走行型ロボットの如き自律走行が可能であれば、駆動部を制御することで表示装置1を設置位置まで自動的に移動させることも可能である。ステップS2は、設置位置にある表示装置1を用いて光源方向情報を学習する学習処理を行う。ステップS3は、学習処理が終了したか否かを判定し、判定結果がNOであれば処理はステップS2へ戻り、判定結果がYESであれば処理は終了する。
FIG. 3 is a flowchart for explaining the learning process. When the learning process of FIG. 3 is started, step S1 moves to a place (hereinafter also referred to as an installation position) where the
図4は、ニューラルネットワークを用いた学習処理を説明する図である。図4において、ニューラルネットワーク(NN:Neural Network)32の入力31は、フレーム12のみに設けられた光センサ13で検知された照度分布である。NN32の出力33は、学習時のみに使用される光センサ131を含む全ての光センサ13,131で検知された照度分布である。学習処理は、全ての光センサ13,131で検知された照度分布である出力33を教師信号と比較し、比較結果に応じてNN32の結合強度を変更することで行われる。
FIG. 4 is a diagram illustrating learning processing using a neural network. In FIG. 4, an
図5は、ニューラルネットワークの一例を示す図である。図5に示すNN32は、X0〜Xiで形成された入力31が入力される入力層321、中間層322、及び出力33が出力される出力層323を有する階層型である。誤差逆伝搬アルゴリズムに基づいてNN32の結合の重みを学習させることで、図5中丸印で示すニューロン間の結合強度が変更される。
FIG. 5 is a diagram illustrating an example of a neural network. The
光センサ31,131は、マトリクス状に配置されているが、隣り合う光センサ間の部分の照度は、当該隣り合う光センサで検知された照度に基づく補間処理で補間する。図6は、補間処理の一例を説明する図である。図6中、縦軸はxy座標系のy座標値を示し、横軸はxy座標系のx座標値を示す。図6は隣り合う4個の光センサの位置(xi,yj+1),(xi+1,yj+1),(xi、yj),(xi+1,yj)で検知された照度S(xi,yj+1),S(xi+1,yj+1),S(xi、yj),S(xi+1,yj)と、位置(xi、yj)からy方向へVi、x方向へHi離れた位置(x,y)における照度P(x,y)を示す。補間処理が例えば線形補間を行う場合、位置(x,y)におけるx方向についての照度の補間はH(x)=S(xi,yj)+a×Hiに基づいて行うことができ、a={S(xi+1,yj)−S(xi,yj)}/(xi+1−xi)である。また、位置(x,y)におけるy方向についての照度の補間はV(y)=S(xi,yj)+b×Viに基づいて行うことができ、b={S(xi,yj+1)−S(xi,yj)}/(yj+1−yj)である。従って、位置(x,y)における照度P(x,y)はH(x)+V(y)から求めることができる。なお、補間処理は線形補間に限定されない。
Although the
図7は、一実施例における表示装置の構成の一例を示すブロック図である。表示装置1は、外部装置と通信可能な構成を有する。サーバ500は、外部装置の一例であり、この例では表示装置1のホスト装置として動作可能である。表示装置1とサーバ500は、ケーブルまたは有線ネットワークで接続されていても、無線ネットワークで接続されていても良い。
FIG. 7 is a block diagram illustrating an example of a configuration of a display device according to an embodiment. The
表示装置1は、図7に示す如く接続された光センサ13−1〜13−N(Nは2以上の自然数)、光源方向推定及び学習部51、陰影処理部52、プロジェクタ14、撮影装置53、測位装置54、人検知装置55、タッチパネル56、マイクロホン57、通信部58、画像処理部59、制御部61、移動制御部62、駆動部63、コンテンツセレクタ64、記憶部65、及び音再生部66を有する。光センサ131−1〜131−M(Mは2以上の自然数)は、学習時にのみ光源方向推定及び学習部51に接続される。光センサ13−1〜13−Nは図2に示す光センサ13に相当し、光センサ131−1〜131−Mは図2に示す光センサ131に相当する。
The
光センサ13−1〜13−N,131−1〜131−Mは、光の強度(または、光量)を検知可能なホトダイオードなどで形成可能である。光源方向推定及び学習部51は、例えばニューラルネットワーク(NN)で形成可能であり、光源方向推定NNと学習NNを含む。光源方向推定NNは、光センサ13−1〜13−N、或いは、光センサ13−1〜13−N,131−1〜131−Mで検知された光量情報(即ち、照度分布)に基づいて、ユーザ側から見た透過型スクリーン16の表面16−1に対する光源の向き(即ち、光源方向)を推定し、推定された光源方向を示す光源方向情報を陰影処理部52に供給する。光源方向を推定する際には、上記の如き補間処理を行っても良い。一方、学習NNは、例えば図5に示すNN32で形成可能であり、出力33を制御部61に供給する。
The optical sensors 13-1 to 13-N and 131-1 to 131-M can be formed of photodiodes that can detect the intensity (or light amount) of light. The light source direction estimation and learning unit 51 can be formed by, for example, a neural network (NN), and includes a light source direction estimation NN and a learning NN. The light source direction estimation NN is based on light amount information (that is, illuminance distribution) detected by the optical sensors 13-1 to 13-N or the optical sensors 13-1 to 13-N and 131-1 to 131-M. The direction of the light source with respect to the surface 16-1 of the
測位装置54は、表示装置1の位置を周知の方法で測位して、表示装置1の位置を示す装置位置情報を制御部61に供給する。測位装置54は、例えばGPS(Global Positioning System)で形成可能である。人検知装置55は、表示装置1の透過型スクリーン16の表面16−1の手前側にいるユーザを周知の方法で検知して、表示装置1から見た(即ち、表示装置1の位置を基準とした)ユーザの相対的な位置を示す人検知情報を制御部61と陰影処理部52に供給する。例えば、人検知装置55は1以上のカメラを含んでも良い。制御部61は、装置位置情報及び人検知情報に基づいて、透過型スクリーン16の表面16−1に対するユーザの位置を周知の方法で推定して、ユーザの推定位置を示す推定位置情報を撮影装置53へフィードバックする。また、制御部61には、光源方向推定及び学習部51から推定照度分布を示す出力33(即ち、推定照度情報)が供給されるので、この推定照度情報と人検知情報とに基づいて表示装置1の向きを微調整する移動指令を出力することで、透過型スクリーン16がユーザから見やすい向きになるようにしても良い。
The positioning device 54 measures the position of the
撮影装置53は、例えば首振りカメラで形成可能であり、推定位置情報に基づいてスクリーン16の裏面16−2の後方の画像を撮影する。推定位置情報はユーザの推定位置を示すので、撮影装置53はユーザの推定位置から透過型スクリーン16を通して見える画像を撮影する。撮影装置53が撮影した画像を示す画像情報は、画像処理部59に供給される。画像処理部59は、画像情報の特徴を周知の方法で抽出して得られる画像特徴情報を制御部61に供給する。
The
タッチパネル56は、例えば透過型スクリーン16と一体的に設けられている。ユーザがタッチパネル56を操作すると、操作情報が制御部61に供給される。ユーザがタッチパネル56上の任意の位置、即ち、透過型スクリーン16の表面16−1の任意の位置に触れると、触れられた位置を示す操作情報が制御部61に供給される。制御部61には、ユーザが透過型スクリーン16を通して見ている画像を示す画像情報から抽出された画像特徴情報が供給されているので、ユーザが触れた透過型スクリーン16上の位置を示す操作情報が制御部61に供給されると、制御部61はユーザが透過型スクリーン16を通して見ている画像中でユーザがポインティングしている箇所を認識することができる。マイクロホン57は、検知した音声を示す音声情報を制御部61に供給するので、制御部61は必要に応じてユーザからの質問などを認識することができる。また、マイクロホン57が複数設けられていれば、制御部61は音声情報から音源であるユーザの位置を認識することができるので、認識されたユーザの位置に応じて表示装置1の透過型スクリーン16が見やすい位置まで移動させるための移動指令を出力することもできる。
The touch panel 56 is provided integrally with the
通信部58は、サーバ500と通信するための送信機及び受信機を含み、サーバ500からの動作指令、コンテンツ情報などを受信する。動作指令は、表示装置1を設置位置まで移動させるための移動指令、出力するべきコンテンツ情報を選択する選択指令などを含む。コンテンツ情報は、音声コンテンツ及び画像コンテンツを含む。音声コンテンツは、音声案内、音楽、効果音、これらの任意の組み合わせなどの各種音声情報を含む。画像コンテンツは、CGを含む動画像、静止画像、テキスト、これらの任意の組み合わせなどの各種画像情報を含む。通信部58が受信した動作指令は制御部61に供給され、通信部58が受信したコンテンツ情報は記憶部65に格納される。コンテンツ情報は、表示装置1の後方にある固定の既知位置にある商品棚(図示せず)などのユーザの目視対象(即ち、ユーザが透過型スクリーン16を通して見る対象)の各部の基準座標系における座標に対応させて管理される。
The communication unit 58 includes a transmitter and a receiver for communicating with the
なお、記憶部65は、表示装置1内ではなく、表示装置1外部に設けられていても良い。記憶部65が表示装置1外部に設けられている場合には、コンテンツセレクタ64が通信部58を介して選択出力するべきコンテンツ情報を外部の記憶部65から読み出す。
Note that the storage unit 65 may be provided outside the
制御部61は、通信部58から供給された動作指令が移動指令であると、表示装置1を設置位置まで移動させるための移動指令を発行して移動制御部62に供給する。移動制御部62は、移動指令に応答して表示装置1を設置位置まで移動させるよう駆動部63を駆動する制御指令を出力する。駆動部63は、例えばモータで形成可能であり、制御指令に応答して図1に示す車輪15を駆動する。
When the operation command supplied from the communication unit 58 is a movement command, the control unit 61 issues a movement command for moving the
制御部61は、通信部58からの動作指令がコンテンツ情報を選択する選択指令であると、選択指令に応じてコンテンツを選択するコンテンツ選択指令をコンテンツセレクタ64に供給する。コンテンツセレクタ64は、コンテンツ選択指令が選択したコンテンツを記憶部65から読み出して選択出力する。コンテンツ選択指令が選択した音声コンテンツは音声再生部66に供給され、音声コンテンツが再生される。音声再生部66は、例えばスピーカで形成される。コンテンツ選択指令が選択した画像コンテンツは陰影処理部52に供給される。陰影処理部52は、画像コンテンツに光源方向情報及び人検知情報に基づいた陰影処理を施す。つまり、陰影処理部52では、光源方向とユーザの相対位置に基づき、ユーザの視点から見た空間の照明状況に合うように画像コンテンツに陰影処理を施す。陰影処理部52は、陰影処理を施された画像コンテンツをプロジェクタ14に供給する。プロジェクタ14は、陰影処理を施された画像コンテンツを、透過型スクリーン16の裏面16−2に投射する。
If the operation command from the communication unit 58 is a selection command for selecting content information, the control unit 61 supplies the content selector 64 with a content selection command for selecting content in accordance with the selection command. The content selector 64 reads out the content selected by the content selection command from the storage unit 65 and selectively outputs it. The audio content selected by the content selection command is supplied to the audio reproduction unit 66, and the audio content is reproduced. The audio reproduction unit 66 is formed by a speaker, for example. The image content selected by the content selection command is supplied to the
例えば、コンテンツ情報は表示装置1の後方にある商品棚に置かれた商品に関するものである。制御部61はユーザが透過型スクリーン16を通して見ている画像中でユーザがポインティングしている箇所を上記の如く認識することができるので、商品棚が固定位置に設置されていれば、制御部61はユーザがポインティングしている商品棚の商品を認識することができる。例えば、商品棚に置かれた各商品の位置を基準座標系で管理しておけば、基準座標系の座標値に応じて各商品の説明などのコンテンツ情報を記憶部65に格納しておくことで、ポインティングされた箇所の商品に関する説明などの音声コンテンツを音声再生部66から出力したり、画像コンテンツをプロジェクタ14により透過型スクリーン16に投射したりすることができる。また、マイクロホン57が検知した音声を示す音声情報が制御部61に供給されているので、制御部61はユーザからの質問などを認識するとポインティングされた箇所の商品に関する説明などのコンテンツ情報を出力するようにしても良い。このようにして、表示装置1は、ユーザとのインタラクションに応じて出力するコンテンツ情報を決定し、画像コンテンツを表示すると共に、必要に応じて音声情報を出力することができる。
For example, the content information relates to a product placed on a product shelf behind the
なお、ユーザがポインティングした箇所は、以下に図8及び図9と共に説明するように、ユーザが透過型スクリーン16に触れない場合でも認識することができる。
Note that the location pointed by the user can be recognized even when the user does not touch the
図8は、ユーザによるポインティングを説明する図である。図8中、(a)は透過型スクリーン16の正面図、(b)は表示装置1の側面図を示す。この例では、人検知装置55は、基準座標系から見たユーザ501の位置と姿勢を計測可能なステレオカメラで形成されている。また、ユーザ501は、手501Aで表示装置1の後方にある商品棚(図示せず)にある商品を矢印方向に沿ってポインティングするものとする。商品棚の前面で形成される対象空間の面601(以下、対象空間面601と言う)と破線で示すポインティング方向502との交点503は、ユーザ501がポインティングしている商品の位置に相当する。ポインティング方向502は、基準座標系から見た手501Aの向きを示す直線である。基準座標系から見た対象空間面601の位置は既知であるものとする。
FIG. 8 is a diagram for explaining pointing by the user. 8A is a front view of the
図9は、ポインティング位置検出処理の一例を説明するフローチャートである。ポインティング位置検出処理は、制御部61を形成するCPU(Central Processing Unit)などのプロセッサにより実行される。CPUが実行するプログラムは、制御部61を形成する記憶部などのコンピュータ読み取り可能な記憶媒体に格納されていても良い。図9において、ステップS11は、基準座標系から見た表示装置1の位置と姿勢を、測位装置54から供給される装置位置情報及び人検知装置55から供給される人検知情報に基づいて計測する。ステップS12は、表示装置1から見たユーザ501の手501Aの向きを、人検知装置55から供給される人検知情報に基づいて計測する。ステップS13は、計測した手501Aの向きを、表示装置1の座標系から基準座標系に変換する。ステップS14は、基準座標系から見た手501Aの向き、即ち、ポインティング方向502と、対象空間面601との交点503を算出し、処理は終了する。
FIG. 9 is a flowchart for explaining an example of the pointing position detection process. The pointing position detection process is executed by a processor such as a CPU (Central Processing Unit) that forms the control unit 61. The program executed by the CPU may be stored in a computer-readable storage medium such as a storage unit that forms the control unit 61. 9, step S11 measures the position and orientation of the
なお、人検知装置55はステレオカメラに限定されず、例えばマイクロソフト社製のKinect Sensor(登録商標)などの、基準座標系から見たユーザ501の位置と姿勢を計測可能な三次元計測装置を用いても良いことは、言うまでもない。
The
図10は、座標とコンテンツを対応付けるデータベースとコンテンツデータベースの一例を示す図である。図10中、(a)は座標とコンテンツを対応付けるデータベース(DB:Data Base)651を示し、(b)はコンテンツデータベース(DB)652を示す。DB651は、基準座標系から見た空間座標値に対応するコンテンツのIDを管理している。この例では、DB651は、座標値x,y,zに対応付けられたコンテンツの対象IDを格納している。一方、DB652は、コンテンツの対象IDをインデックスとするコンテンツ情報(例えば、コンテンツのファイル名)を管理している。この例では、DB652は、コンテンツの対象IDに対応付けられたコンテンツ情報(例えば、コンテンツのファイル名)を格納している。DB651,652は、表示装置1内または表示装置1外の記憶部に格納されており、例えば記憶部65に格納されていても良い。
FIG. 10 is a diagram illustrating an example of a database that associates coordinates with content and a content database. 10, (a) shows a database (DB: Data Base) 651 for associating coordinates and content, and (b) shows a content database (DB) 652. The
図11は、コンテンツ選択処理の一例を説明するフローチャートである。コンテンツ選択処理は、コンテンツセレクタ64により実行される。コンテンツセレクタ64の処理を制御部61で行う場合には、コンテンツ選択処理は制御部61を形成するCPUにより実行される。図11において、ステップS21は、図9のポインティング位置検出処理により算出された交点503の基準座標系から見た空間座標値を取得する。ステップS22は、測定誤差を吸収するため、取得した空間座標値との距離が閾値ε以下となる空間座標値に対応する対象IDをDB651から読み出して取得する。ステップS23は、取得した対象IDをインデックスとしてDB652を検索して対応するコンテンツを取得する。
FIG. 11 is a flowchart illustrating an example of content selection processing. The content selection process is executed by the content selector 64. When the processing of the content selector 64 is performed by the control unit 61, the content selection processing is executed by the CPU that forms the control unit 61. In FIG. 11, step S21 acquires the spatial coordinate value seen from the reference coordinate system of the
図12及び図13は、ユーザによるポインティングを説明する正面図及び側面図であり、図14は、ポインティングされた商品に関する情報表示の一例を説明する図である。 12 and 13 are a front view and a side view for explaining pointing by the user, and FIG. 14 is a view for explaining an example of information display regarding the pointed product.
図12に示すように、ユーザ501が商品棚600の前を通ると、表示装置1はユーザ501と商品棚600の間に位置するように移動する。図13に示すように、ユーザ501が表示装置1の透過型スクリーン16を通して見える商品棚600にある対象商品610をポインティングすると、上記の如きポインティング位置検出処理により交点503が算出され、交点503の位置にある商品610が認識される。また、上記の如きコンテンツ選択処理により交点503の位置にある商品610に関するコンテンツの対象IDがDB651から取得され、対象IDをインデックスとしてDB652を検索することで対応する商品610のコンテンツを取得される。これにより、図14に示すように、商品610に関するコンテンツ情報がプロジェクタ14により表示装置1の透過型スクリーン16の裏面16−2に投射される。
As shown in FIG. 12, when the
図14の例では、「この商品は○○です。」なる商品610に関する画像コンテンツが透過型スクリーン16に表示されるので、ユーザ501は透過型スクリーン16を通して見ている商品棚600の商品610の位置に対応させて表示された画像コンテンツを見ることで、商品610に関する情報を得ることができる。この例では、図14に示すように、商品610の商品名または価格などを示すラベル615が商品棚600に設けられているので、商品610に関する画像コンテンツはこのラベル615をポインティングするように表示されるが、画像コンテンツは商品610をポインティングするように表示されても良い。要は、画像コンテンツは、商品610に関するものであることがユーザ501に分かり易いように表示されれば良い。なお、「この商品は○○です。」なる商品610に関する音声コンテンツを音声再生部66から出力しても良い。
In the example of FIG. 14, the image content related to the
ところで、ユーザがポインティングした履歴を記録するようにしても良い。このような履歴を解析することで、ユーザが知りたがっている商品情報、ユーザが興味を示している商品の傾向などを把握してマーケティング戦略などに反映させることもできる。 By the way, a history of pointing by the user may be recorded. By analyzing such a history, it is possible to grasp the product information that the user wants to know, the tendency of the product that the user is interested in, and the like and reflect it in the marketing strategy and the like.
図15は、履歴記録処理の一例を説明するフローチャートである。履歴記録処理は、制御部61を形成するCPUにより実行可能である。また、履歴記録処理は、表示装置1内または表示装置1外の記憶部に履歴を記録可能である。履歴は、例えば記憶部65に記録しても良い。
FIG. 15 is a flowchart illustrating an example of the history recording process. The history recording process can be executed by the CPU forming the control unit 61. In the history recording process, a history can be recorded in a storage unit inside the
図15において、ステップS31は、ユーザが商品などの対象をポインティングした時刻のタイムスタンプを記録し、人検知装置55のカメラでユーザを撮影する。ステップS32は、撮影した画像に対して周知の画像処理を行うことでユーザの顔を検知する。ステップS33は、検知されたユーザの顔画像を周知の画像処理で分析することで、ユーザの性別、年代、表情を抽出する。ステップS34は、ユーザが人検知装置55により検知されなくなり、ユーザがいなくなった時刻までの経過時間から、ユーザが表示装置1の前にいた滞在時間を算出する。ステップS35は、ステップS33,S34で求めた情報を例えば図16に示す履歴データベース653に格納する。履歴データベース653は、例えば記憶部65に格納される。
In FIG. 15, in step S31, a time stamp at the time when the user points to an object such as a product is recorded, and the user is photographed with the camera of the
図16に示す履歴データベース653には、タイムスタンプ、ポインティングされた商品などの対象ID、ユーザの滞在時間、ユーザの性別、ユーザの年代、ユーザの表情などが格納されている。ユーザの表情は、例えばユーザの笑顔であり、笑顔の度合い(笑顔度)を履歴データベース653に格納しても良い。この例では、笑顔度が大きい値ほど、ユーザが微笑んでいることを表す。なお、ユーザの笑顔の抽出または検出には、デジタルカメラなどで用いられている周知の方法を用いることができる。
The
上記の実施例によれば、ユーザが表示装置の透過型スクリーンを通して見ている実世界の映像に、適切に陰影処理された画像コンテンツを重ねて表示することが可能になる。例えば、表示装置である移動式デジタルサイネージを、遠隔地にいるユーザのアバタ(Avatar)として使用することもできる。この場合に従来のサイネージと大きく異なるのは、上記の実施例ではユーザの視点から見える背景に遠隔地にいる人の画像(アバタ)が透過型スクリーンに適切に陰影処理されて投影されるため、臨場感が格段に高まる効果が得られる点である。 According to the above-described embodiment, it is possible to display the image content appropriately shaded on the real-world video that the user is viewing through the transmissive screen of the display device. For example, mobile digital signage as a display device can be used as an avatar for a user at a remote location. In this case, a significant difference from conventional signage is that in the above embodiment, an image (avatar) of a person at a remote place is projected on a transmissive screen after being appropriately shaded on the background visible from the user's viewpoint. It is a point that an effect that a sense of reality is remarkably increased can be obtained.
また、ユーザが透過型スクリーンを通して見る対象は、商品棚に限定されず、風景に組まれるランドマーク、TV会議システムの参加者などであっても良い。 Further, the object that the user sees through the transmissive screen is not limited to the product shelf, but may be a landmark assembled in a landscape, a participant in a TV conference system, or the like.
さらに、上記実施例では、表示装置に設けられた光センサを用いて光源方向を推定するため、光源の明るさの急激な変化も検知することができ、リアルタイムで光源方向を知ることができる。光源の3次元位置を推定する必要はなく、画像投影面である透過型スクリーンから見た光源方向のみを推定し、推定した光源方向に基づいた陰影処理を行うため、比較的簡単な処理で実世界の画像の照明状態とコンテンツの陰影処理との間で整合性が取れたAR画像を提示可能となる。 Further, in the above embodiment, since the light source direction is estimated using the optical sensor provided in the display device, a sudden change in the brightness of the light source can be detected, and the light source direction can be known in real time. There is no need to estimate the three-dimensional position of the light source, only the direction of the light source viewed from the transmissive screen that is the image projection plane is estimated, and shading processing based on the estimated light source direction is performed. It is possible to present an AR image that is consistent between the illumination state of the image in the world and the shading process of the content.
以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
透過型ディスプレイが設置されている環境の照明条件、及びユーザ位置と前記透過型ディスプレイとの相対位置に応じて、透過型ディスプレイに表示する画像コンテンツに陰影処理を施し、
前記ユーザ位置から前記透過型ディスプレイを通して見える実世界の映像に前記陰影処理を施された画像コンテンツを重ねて表示し、
前記照明条件は、前記透過型ディスプレイから見た光源方向である
ことを特徴とする、表示方法。
(付記2)
前記透過型ディスプレイに対してユーザがポインティングした位置を検出し、
前記画像コンテンツは前記ポインティングした位置に関する情報を含む
ことを特徴とする、付記1記載の表示方法。
(付記3)
前記ポインティングした位置は、前記透過型ディスプレイと一体的に設けられたタッチパネル上でユーザにより触れられた位置を検出することにより検出される
ことを特徴とする、付記1または2記載の表示方法。
(付記4)
前記ポインティングした位置は、
前記透過型ディスプレイから見たポインティングの向きを、測位装置から供給される該透過型ディスプレイの位置情報及び三次元計測装置から供給されるユーザの検知情報に基づいて計測し、
計測したポインティングの向きを、前記透過型ディスプレイの座標系から前記基準座標系に変換し、該基準座標系から見たポインティングの向きと、前記透過型ディスプレイを通して見える対象の対象空間面との交点を算出することで求める
ことを特徴とする、付記1または2記載の表示方法。
(付記5)
前記透過型ディスプレイは透過型スクリーンで形成され、
前記陰影処理を施された画像コンテンツは、プロジェクタにより前記透過型スクリーンに投射される
ことを特徴とする、付記1乃至4のいずれか1項記載の表示方法。
(付記6)
複数の第1の光センサにより検知された照度分布に基づいて前記光源方向を推定し、
学習時には、前記学習時にのみ設けられる複数の第2の光センサと前記複数の第1の光センサとにより検知された照度分布に基づいて前記光源方向を学習する
ことを特徴とする、付記1乃至5のいずれか1項記載の表示方法。
(付記7)
前記ポインティングに関する履歴をデータベースに記録する
ことを特徴とする、付記1乃至6のいずれか1項記載の表示方法。
(付記8)
透過型ディスプレイと、
複数の光センサと、
前記複数の光センサの検知出力に基づいて前記透過型ディスプレイから見た光源方向を推定する推定部と、
ユーザ位置と前記透過型ディスプレイとの相対位置を検知する検知装置と、
前記光源方向及び前記相対位置に応じて画像コンテンツに陰影処理を施す陰影処理部と、
前記ユーザ位置から前記透過型ディスプレイを通して見える実世界の映像に前記陰影処理を施された画像コンテンツを投射して重ねて表示するプロジェクタ
を備えたことを特徴とする、表示装置。
(付記9)
前記透過型ディスプレイに対してユーザがポインティングした位置を検出する検出手段
を更に備え、
前記画像コンテンツは前記ポインティングした位置に関する情報を含む
ことを特徴とする、付記8記載の表示装置。
(付記10)
前記検出手段は、前記透過型ディスプレイと一体的に設けられ、ユーザにより触れられた位置を検出することで前記ポインティングした位置を検出するタッチパネルを有する
ことを特徴とする、付記8または9記載の表示装置。
(付記11)
前記検出手段は、
前記透過型ディスプレイの位置を測位して位置情報を出力する測位装置と、
前記ユーザを検知して検知情報を出力する三次元計測装置と、
前記位置情報及び前記検知情報に基づいて計測した前記表示装置から見たポインティングの向きを、前記表示装置の座標系から前記基準座標系に変換し、該基準座標系から見たポインティングの向きと、前記透過型ディスプレイを通して見える対象の対象空間面との交点を算出する制御部
を有することを特徴とする、付記8または9記載の表示装置。
(付記12)
前記透過型ディスプレイは透過型スクリーンで形成されている
ことを特徴とする、付記8乃至11のいずれか1項記載の表示装置。
(付記13)
前記ポインティングに関する履歴をデータベースに記録する制御部
を更に備えたことを特徴とする、付記8乃至12のいずれか1項記載の表示装置。
The following additional notes are further disclosed with respect to the embodiment including the above examples.
(Appendix 1)
Depending on the lighting conditions of the environment where the transmissive display is installed and the relative position between the user position and the transmissive display, the image content displayed on the transmissive display is subjected to shading processing,
The image content that has been subjected to the shading process is superimposed and displayed on a real-world image that can be seen through the transmissive display from the user position,
The display method according to
(Appendix 2)
Detecting a position where the user points to the transmissive display;
The display method according to
(Appendix 3)
The display method according to
(Appendix 4)
The pointed position is
Measuring the pointing direction as seen from the transmissive display based on the position information of the transmissive display supplied from the positioning device and the detection information of the user supplied from the three-dimensional measuring device,
The measured pointing direction is converted from the coordinate system of the transmissive display to the reference coordinate system, and the intersection of the pointing direction viewed from the reference coordinate system and the target space plane of the object seen through the transmissive display is obtained. The display method according to
(Appendix 5)
The transmissive display is formed of a transmissive screen,
The display method according to any one of
(Appendix 6)
Estimating the light source direction based on the illuminance distribution detected by the plurality of first optical sensors;
In learning, the light source direction is learned on the basis of illuminance distributions detected by the plurality of second optical sensors and the plurality of first optical sensors provided only during the learning. 6. The display method according to any one of 5 above.
(Appendix 7)
The display method according to any one of
(Appendix 8)
A transmissive display;
A plurality of light sensors;
An estimation unit that estimates a light source direction viewed from the transmissive display based on detection outputs of the plurality of optical sensors;
A detection device for detecting a relative position between a user position and the transmissive display;
A shadow processing unit that performs a shadow process on the image content according to the light source direction and the relative position;
A display device comprising: a projector that projects and displays the image content that has undergone the shading process on a real-world image that can be seen from the user position through the transmissive display.
(Appendix 9)
Detecting means for detecting a position pointed to by the user with respect to the transmissive display;
The display device according to appendix 8, wherein the image content includes information regarding the pointed position.
(Appendix 10)
The display according to appendix 8 or 9, wherein the detection means includes a touch panel that is provided integrally with the transmissive display and detects the pointed position by detecting a position touched by a user. apparatus.
(Appendix 11)
The detection means includes
A positioning device that measures the position of the transmissive display and outputs position information;
A three-dimensional measurement device that detects the user and outputs detection information;
The pointing direction seen from the display device measured based on the position information and the detection information is converted from the coordinate system of the display device to the reference coordinate system, and the pointing direction seen from the reference coordinate system; The display device according to appendix 8 or 9, further comprising: a control unit that calculates an intersection with a target space plane of the target that can be seen through the transmissive display.
(Appendix 12)
The display device according to any one of appendices 8 to 11, wherein the transmissive display is formed of a transmissive screen.
(Appendix 13)
The display device according to any one of appendices 8 to 12, further comprising a control unit that records a history of the pointing in a database.
以上、開示の表示方法及び表示装置を実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能であることは言うまでもない。 Although the disclosed display method and display device have been described with reference to the embodiments, it is needless to say that the present invention is not limited to the above embodiments, and various modifications and improvements can be made within the scope of the present invention. .
1 表示装置
11 ベース
12 フレーム
13,13−1〜13−N,131 センサ
14 プロジェクタ
16 透過型スクリーン
51 光源方向推定及び学習部
52 陰影処理部
53 撮影装置
54 測位装置
55 人検知装置
56 タッチパネル
61 制御部
DESCRIPTION OF
Claims (5)
前記ユーザ位置から前記透過型スクリーンの前記第1の面を通して見える実世界の映像に前記陰影処理を施された画像コンテンツを前記透過型スクリーンの前記第1の面または第2の面に投射して重ねて表示し、
前記照明条件は、前記透過型スクリーンから見た光源方向である
ことを特徴とする、表示方法。 The first surface and the first surface in accordance with a relative position between opposite second illumination conditions of the environment in which the transmission screen is provided with a surface, and the transmission screen with a user position of the Apply shading to image content,
Projecting, on the first or second surface of the transmissive screen, the image content obtained by performing the shading process on the real-world image seen through the first surface of the transmissive screen from the user position. Overlapping display
The display method according to claim 1, wherein the illumination condition is a light source direction viewed from the transmission screen .
複数の光センサと、
前記複数の光センサの検知出力に基づいて前記透過型スクリーンから見た光源方向を推定する推定部と、
ユーザ位置と前記透過型スクリーンとの相対位置を検知する検知装置と、
前記光源方向及び前記相対位置に応じて画像コンテンツに陰影処理を施す陰影処理部と、
前記ユーザ位置から前記透過型スクリーンの前記第1の面を通して見える実世界の映像に前記陰影処理を施された画像コンテンツを前記透過型スクリーンの前記第1の面または前記第2の面に投射して重ねて表示するプロジェクタ
を備えたことを特徴とする、表示装置。 A transmissive screen having a first surface and a second surface opposite to the first surface ;
A plurality of light sensors;
An estimation unit that estimates a light source direction viewed from the transmission screen based on detection outputs of the plurality of optical sensors;
A detection device for detecting a relative position between a user position and the transmission screen ;
A shadow processing unit that performs a shadow process on the image content according to the light source direction and the relative position;
Projecting, on the first or second surface of the transmissive screen, the image content obtained by performing the shading process on the real-world image seen through the first surface of the transmissive screen from the user position. A display device comprising a projector that displays images in a superimposed manner.
を更に備え、
前記画像コンテンツは前記ポインティングした位置に関する情報を含む
ことを特徴とする、請求項2記載の表示装置。 Detecting means for detecting a position pointed to by the user with respect to the transmissive screen ;
The display device according to claim 2, wherein the image content includes information regarding the pointed position.
ことを特徴とする、請求項3記載の表示装置。 The display device according to claim 3 , wherein the detection unit includes a touch panel that is provided integrally with the transmission screen and detects the pointed position by detecting a position touched by a user. .
前記透過型スクリーンの位置を測位して位置情報を出力する測位装置と、
前記ユーザを検知して検知情報を出力する三次元計測装置と、
前記位置情報及び前記検知情報に基づいて計測した前記表示装置から見たポインティングの向きを、前記表示装置の座標系から基準座標系に変換し、該基準座標系から見たポインティングの向きと、前記透過型スクリーンの前記第1の面を通して見える対象の対象空間面との交点を算出する制御部
を有することを特徴とする、請求項3記載の表示装置。 The detection means includes
A positioning device that measures the position of the transmission screen and outputs position information;
A three-dimensional measurement device that detects the user and outputs detection information;
The pointing direction seen from the display device measured based on the position information and the detection information is converted from the coordinate system of the display device to a reference coordinate system, the pointing direction seen from the reference coordinate system, and The display device according to claim 3 , further comprising: a control unit configured to calculate an intersection point with a target space surface of a target seen through the first surface of the transmission screen .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012014225A JP5842634B2 (en) | 2012-01-26 | 2012-01-26 | Display method and display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012014225A JP5842634B2 (en) | 2012-01-26 | 2012-01-26 | Display method and display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013156670A JP2013156670A (en) | 2013-08-15 |
JP5842634B2 true JP5842634B2 (en) | 2016-01-13 |
Family
ID=49051824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012014225A Expired - Fee Related JP5842634B2 (en) | 2012-01-26 | 2012-01-26 | Display method and display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5842634B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110533707B (en) * | 2018-05-24 | 2023-04-14 | 微软技术许可有限责任公司 | Illumination estimation |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6452593B1 (en) * | 1999-02-19 | 2002-09-17 | International Business Machines Corporation | Method and system for rendering a virtual three-dimensional graphical display |
JP2003264740A (en) * | 2002-03-08 | 2003-09-19 | Cad Center:Kk | Observation scope |
JP2005038008A (en) * | 2003-07-15 | 2005-02-10 | Canon Inc | Image processing method, image processor |
JP4804256B2 (en) * | 2006-07-27 | 2011-11-02 | キヤノン株式会社 | Information processing method |
JP4926826B2 (en) * | 2007-05-25 | 2012-05-09 | キヤノン株式会社 | Information processing method and information processing apparatus |
-
2012
- 2012-01-26 JP JP2012014225A patent/JP5842634B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013156670A (en) | 2013-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11379173B2 (en) | Method of maintaining accuracy in a 3D image formation system | |
US10587864B2 (en) | Image processing device and method | |
US11854147B2 (en) | Augmented reality guidance that generates guidance markers | |
US11582409B2 (en) | Visual-inertial tracking using rolling shutter cameras | |
TW201322178A (en) | System and method for augmented reality | |
US11720996B2 (en) | Camera-based transparent display | |
US11741679B2 (en) | Augmented reality environment enhancement | |
WO2018131238A1 (en) | Information processing device, information processing method, and program | |
US20200097068A1 (en) | Method and apparatus for providing immersive reality content | |
KR20230007477A (en) | Depth estimation based on object bottom position | |
CN115812189A (en) | Dynamic sensor selection for visual inertial odometer system | |
CN104345885A (en) | Three-dimensional tracking state indicating method and display device | |
JP5842634B2 (en) | Display method and display device | |
KR20200031255A (en) | System for sharing of image data or video data for interaction contents and the method thereof | |
CN117716419A (en) | Image display system and image display method | |
KR20200031259A (en) | System for sharing of image data or video data for interaction contents and the method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141007 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150804 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150930 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151020 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5842634 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |