Nothing Special   »   [go: up one dir, main page]

JP2012048720A - マーカーを利用した拡張現実(ar)を提供する装置及び方法 - Google Patents

マーカーを利用した拡張現実(ar)を提供する装置及び方法 Download PDF

Info

Publication number
JP2012048720A
JP2012048720A JP2011183431A JP2011183431A JP2012048720A JP 2012048720 A JP2012048720 A JP 2012048720A JP 2011183431 A JP2011183431 A JP 2011183431A JP 2011183431 A JP2011183431 A JP 2011183431A JP 2012048720 A JP2012048720 A JP 2012048720A
Authority
JP
Japan
Prior art keywords
marker
augmented reality
image
basic
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011183431A
Other languages
English (en)
Other versions
JP5236055B2 (ja
Inventor
Chang-Gyu Song
昌 奎 宋
Jung-Woo Nam
政 佑 南
Sung-Yun Baek
承 潤 白
Ha-Won Yi
夏 遠 李
Un-Kyong Jeong
恩 耿 鄭
He Xu Yuan
元 赫 許
Wan Xu Zhi
志 萬 許
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pantech Co Ltd
Original Assignee
Pantech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pantech Co Ltd filed Critical Pantech Co Ltd
Publication of JP2012048720A publication Critical patent/JP2012048720A/ja
Application granted granted Critical
Publication of JP5236055B2 publication Critical patent/JP5236055B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】インスタントマーカーまたは代替マーカーを利用した拡張現実を提供する方法を提供する。
【解決手段】本発明の一態様によって、インスタントマーカーまたは代替マーカーは、3次元オブジェクトに基づいて生成される。元の2次元マーカーは、その意味単位が分析され、インスタントマーカーまたは代替マーカーとして使われるオブジェクトの画像で意味単位に対応するマーカー要素が抽出される。意味単位とマーカー要素とがマッピングされることによって、オブジェクトに基づいたインスタントマーカーまたは代替マーカーが生成され、ユーザは、生成されたインスタントマーカーまたは代替マーカーを通じて拡張現実を利用できる。
【選択図】図1

Description

本発明は、マークベースまたはマークベースレスの拡張現実のための装置及び方法に関する。
拡張現実(augmented reality、AR)とは、実際の環境で仮想の事物や情報を合成して、元の環境に存在する事物や情報のように見せるコンピュータグラフィックス技法を言う。
拡張現実は、仮想の空間と事物を対象とする既存の仮想現実(VR)とは異なって、現実世界に基づいて仮想の事物を合成して、現実世界では容易に得難い付加的な情報等を補強して提供することに特徴がある。拡張現実は、このような特徴のために、単純にゲームのような分野のみに限定された適用が可能な既存の仮想現実とは異なって、多様な現実環境に応用が可能であり、特に、ユビキタス環境に適した次世代ディスプレイ技術として脚光を浴びている。
従来より、拡張現実の具現のために、マークベース(若しくは「マーカーベース」)またはマークレスベースのオブジェクト認識が、通常、用いられていた。マークベースのオブジェクト認識は、付加的な情報がマークの識別子によってスキームの表示に適用できるかどうかを決定する技術にすることができる。マーカーベース認識の拡張現実は、主に広告分野でその利用が広まっていた。広告の重要な要素が消費者の関心の誘発であるだけに、興味と好奇心とをかき立てる拡張現実は、適切な広告媒体によって高い効率を奏する。このような広告媒体としてのマーカーは、一般的に、インターネットを通じてダウンロードされた画像をA4用紙または製品のパッケージに印刷して提供される。
しかし、マーカーを消費者に与える従前の方法は、プリントされた画像或いはダウンロードされた画像を与えることに向けられており、拡張現実の実行は利用されていなかった。
本発明は、マーカー、または、その場で必要な機能を代替しうるインスタントマーカー若しくは代替マーカーを用いる拡張現実(AR)を提供する装置及び方法を提供することを目的とする。
本発明の一態様による拡張現実(AR)装置は、拡張現実に関係する基本マーカーの画像を獲得する第1イメージ獲得部と、オブジェクトの画像を獲得する第2イメージ獲得部と、基本マーカーの意味単位を分析する意味単位分析部と、前記のオブジェクトの画像から要素を抽出するマーカー要素抽出部と、前記の分析された意味単位で前記の抽出された要素をマッピングして、前記オブジェクトの画像及びマッピングされた要素から成る代替マーカーを生成する代替マーカー生成部と、を含みうる。
また、本発明の一態様による拡張現実(AR)を提供する方法は、拡張現実に関係する基本マーカーの画像を獲得し、オブジェクトの画像を獲得し、基本マーカーの意味単位を分析し、前記のオブジェクトの画像から意味単位を抽出し、前記の分析された意味単位を前記の抽出された要素でマッピングし、前記オブジェクトの画像及びマッピングされた要素から成る代替マーカーを生成すること、を含みうる。
また、本発明の他の態様による拡張現実(AR)を付与する方法は、拡張現実に関係する3次元オブジェクトの画像を獲得し、2次元マーカーの意味単位を分析し、前記の3次元マーカーの画像の要素を抽出し、前記の分析された意味単位を前記の抽出された要素にマッピングし、前記の3次元オブジェクトの画像及びマッピングされた要素から成る代替マーカーを生成し、前記の2次元マーカーに対応する拡張現実情報により、前記代替マーカーを表示すること、を含みうる。
以下の全体的な記載及び詳細な説明は本発明の例示的なもの及び説明的なものであって、特許請求の範囲に記載された発明の更なる説明を与えることが意図されている。また、本発明の他の特徴は、後述する詳細な説明、図面及び請求の範囲から明確になるであろう。また、添付した図面は、本発明の更なる理解を与えるためのものであって、本発明の技術的な本質的な思想或いは原理を説明するために、本願の詳細な説明とともに明細書を構成する。
本発明によれば、基本マーカーの代用ができる代替マーカーを生成し、該生成された代替マーカーを用いて拡張現実を具現するために、基本マーカーが無い状況でも、拡張現実を簡便に具現し、基本マーカーがあっても、代替マーカーを活用して拡張された拡張現実を具現することが可能である。
本発明の一実施形態による拡張現実装置を示す概略図である。 本発明の一実施形態による基本マーカー及び該基本マーカーの意味単位を示す図である。 本発明の一実施形態による基本マーカー及び該基本マーカーの意味単位を示す図である。 本発明の一実施形態による代替マーカー及び該代替マーカーのマーカー要素を示す図である。 本発明の一実施形態による代替マーカー及び該代替マーカーのマーカー要素を示す図である。 本発明の一実施形態による基本マーカーとオブジェクトとの間のマッピングの関係を示す図である。 本発明の一実施形態による拡張現実(AR)を付与する方法を示す図である。 本発明の一実施形態によるマーカー要素の抽出方法を示す図である。 本発明の一実施形態によるユーザインターフェース画面を示す図である。 本発明の一実施形態による複数の基本マーカーを一つのオブジェクトにマッピングする方法を示す図である。 本発明の他の実施形態によって複数の基本マーカーを一つのオブジェクトにマッピングする方法を示す図である。 本発明の更に他の実施形態によって複数の基本マーカーを一つのオブジェクトにマッピングする方法を示す図である。 本発明の一実施形態による立体マーカーを示す図である。 本発明の他の実施形態による立体マーカーを示す図である。
以下、本発明の一実施形態を示す添付図面を参照して本発明をより詳細に説明する。なお、本発明は、種々の他の形態で実施されてもよいものであって、本明細書に記載した実施形態に限定されるものと解釈されてはならない。むしろ、これらの一実施形態は、本開示が当業者に対して徹底され且つ十分に本発明の範囲が伝達されるように提供されるものである。図面において、層及び領域のサイズ並びに相対的なサイズは明瞭化のために誇張して図示されることもある。図中、同じ図面符号は同じ要素を示す。
ここで使用される技術用語は、特定の実施形態を説明する目的のみであって、本願の発明の開示を限定するものでは無い。本願明細書に記載されるように、単数形「a」及び「an」、と「the」は、文脈の前後関係から明らかに他のことを示さない限り、複数形も含むことが意図されている。更に、a、an等の用語は、量の限定を意味するものでは無く、むしろ、その付されたものの少なくとも一つの存在を意味する。更に、「第1」、「第2」等の用語の使用は、特定の順番を示すものでは無く、個々の要素を区別するために付け加えられる。更に、第1、第2等の用語の使用は、何らかの順番や重要性を示すのでは無く、むしろ、1つの要素を他の要素から区別するために使用される。また、本明細書で用いるところでは、用語「含む(comprises)」及び/又は「含む(comprising)」若しくは「包含する(includes)」及び/又は「を含む(including)」は、言及された特徴、領域、整数、ステップ、操作、要素、及び/又は成分を具体的に記載する。しかし、これらの用語は、一つ以上の他の特徴、領域、整数、ステップ、操作、要素、成分及び又はその群を排除しない。また、本願の明細書による発明の開示の目的上、「少なくとも各一つ」という用語は、この用語の後に列挙される要素の任意の組み合わせを意味し、列挙された要素の複合的な組み合わせを含む。例えば、「X、Y及びZのうち少なくとも一つ」という語句は、Xのみ、Yのみ、Zのみ或いはX、Y及びZから選択された2つ以上の要素の任意の組み合わせ(例えば、XYZ、XZ、YZ、XY等)を意味する。
図1は、本発明の一実施形態による拡張現実装置を示す図である。
図1に関して、本実施形態による拡張現実装置100は、拡張現実と関連したマーカー(marker)を撮影し、その撮影されたマーカーの画像上にマーカーによって拡張現実が表示される携帯端末(例えば、スマートフォン)の一部構成になりうる。或いは、本実施形態による拡張現実装置100は、このような携帯端末で駆動される拡張現実アプリケーションの一部構成上に存在しうる。
マーカーが認識されると、そのマーカーに対応する拡張現実を実現する時、任意のオブジェクトに基づいて元のマーカーの代用として機能する代替マーカーまたはインスタントマーカーを生成することができる。後に、拡張現実は、該生成された代替マーカーまたはインスタントマーカーとともに利用され、或いは表示させることができる。例えば、ユーザが、スマートフォンで紙の上に印刷されているマーカーを撮影してプレビュー画面にそれを表示すれば、仮想のアバターがプレビュー画面上のマーカー上で所定の動作を取る拡張現実アプリケーションがあると仮定する。このような場合、本実施形態による拡張現実装置100によれば、ユーザは、元のマーカーの特徴または意味単位を、任意のオブジェクト(例えば、所持しているクレジットカードまたは名刺など)の特徴またはマーカー要素にマッピングして、そのマッピングされた任意のオブジェクトをマーカーとして使用できる。このように、仮想のアバターがプレビュー画面に表示されたオブジェクト上で所定の動作を取れるように、任意のオブジェクトがプレビュー画面に表示される。
このような拡張現実装置100は、図示されたように、第1イメージ獲得部101、第2イメージ獲得部102、意味単位分析部103、マーカー要素抽出部104、代替マーカー生成部105、相関関係保存部106、及び表示部107を含んで構成することができる。
第1イメージ獲得部101は、拡張現実のための基本マーカーの画像を獲得する。本発明の実施形態において、“基本マーカー”とは、紙などに印刷された一般的な2次元マーカーを指称する。基本マーカーの画像は、第1イメージ獲得部101が或るオブジェクトの特定部分に表示された基本マーカーを撮影して得られる。あるいは、第1イメージ獲得部101が、基本マーカーの画像を別途のサーバからダウンロードするか、若しくは他の端子または装置から前記の画像を受信することも可能である。
第2イメージ獲得部102は、オブジェクトの画像を獲得する。前記のオブジェクトは、代替マーカーとして使われる任意の物体とすることができる。例えば、第2イメージ獲得部102は、任意のオブジェクトを撮影するカメラモジュールを含んで構成することができる。この画像は、ユーザの命令によって検索或いは読み出すことができる。
意味単位分析部103は、第1イメージ獲得部101によって獲得された基本マーカーの意味単位を分析する。本発明の実施形態において、“意味単位”は、基本マーカーと拡張現実アプリケーションとの間に約束された意味要素を示すことができる。例えば、基本マーカーの意味単位は、どの拡張現実が、或いは拡張現実がどのようにして、表示されるか、または機能するかについて決定することができる。言い換えれば、拡張現実アプリケーションは、基本マーカーの意味単位からの出力に基づき、特定の方法で情報を表示することを決定する。
前記の意味単位は、基本マーカーの全部または一部において拡張現実情報を定義することができる。例えば、基本マーカーの一部は、拡張現実情報が表示される位置によって定義され、拡張現実情報が表示される方向を定義する部分、または拡張現実情報が表現される動作或いは拡張現情報がどのように表現されるかを定義する部分等になりうる。しかし、これらは、例示に過ぎないものであって、本発明の使用目的及び応用例によって、上記の部分の他にも多様な部分が意味単位と定義されうるということはいうまでもない。
マーカー要素抽出部104は、意味単位分析部103の出力に対応可能な要素を、第2イメージ獲得部102から抽出する。例えば、抽出されるこの要素をマーカー要素と指称することができる。すなわち、“マーカー要素”とは、マーカーの構成要素に相互に関連しえるものであって、他の部分と区別される特徴的な形態、形状、または色相またはこのように他の部分と区別される複数の特徴的な要素間の位置関係または相関関係などになりうる。
一例として、マーカー要素抽出部104は、第2イメージ獲得部102によって得られたオブジェクトの画像に基づいて、オブジェクトの外形をマーカー要素として抽出することができる。
他の例として、マーカー要素抽出部104は、第2イメージ獲得部102によって得られた画像の中のオブジェクトの文字または絵を認識し、該認識された文字または絵をマーカー要素として抽出することも可能である。
また他の例として、マーカー要素抽出部104は、第2イメージ獲得部102によって得られた画像の中のオブジェクトに関連した形態または色相を抽出することも可能である。マーカー要素抽出部104は、オブジェクトの画像を多数の格子に分割し、各格子が有するピクセル値の平均を用いて、各格子のグリッド値を計算し、類似するグリッド値を有する格子をグループ化、或いは一つの群にまとめることで、形態要素を抽出することができる。
しかし、マーカー要素を決定するために使用可能な技術は多数ある。このように、ここに開示された技術に加えて、他の技術も同様に使用することができ、使われる特徴的な部分は非常に多様であるので、マーカー要素抽出部104がマーカー要素を抽出する方法は、前述した例に限定されるものではない。すなわち、マーカー要素抽出部104が、或る部分をマーカー要素として抽出するかは、本発明の使用目的及び応用例によって適切に変更されうるということは当業者に自明である。
代替マーカー生成部105は、意味単位分析部103の出力をマーカー要素抽出部104にマッピングすることによって、代替マーカーを生成する。したがって、本実施形態において、“代替マーカー”とは、基本マーカーに対応し、その基本マーカーの代わりになり得る2次元または3次元オブジェクトを意味する。
代替マーカー生成部105が意味単位分析部103の出力をマーカー要素抽出部104にマッピングした後、相関関係保存部106はそのマッピング関係または相関関係を保存する。例えば、相関関係保存部106は、どの意味単位がオブジェクトのどのマーカー要素にマッピングされたかを表わす情報を保存することが可能である。
表示部107は、代替マーカーを利用して基本マーカーに基づいて拡張現実が表示されて実行されるように、代替マーカー生成部105によって生成された代替マーカーと相関関係保存部106に保存された相関関係とを用いて、拡張現実を表示して実現する。例えば、表示部107は、前記の代替マーカーを用いて、基本マーカーに関する拡張現実を表示することが可能である。
また、本発明の一実施形態によって、所定の拡張現実は、第1イメージ獲得部101で獲得された基本マーカーに基づいて実現され、ユーザによってなされる選択に従い、基本マーカーの代わりにする代替マーカーに基づいて実現されることもできる。代替マーカーを通じて拡張現実が実現される場合、代替マーカーとして使用されるオブジェクトの画像が入力の準備ができているという案内メッセージをユーザに与え、オブジェクトの画像に基本マーカーの画像をマッピングすることによって、代替マーカーを生成することが可能である。したがって、受信した拡張現実情報は、基本マーカーと同様に、生成された代替マーカーまたはインスタントマーカーに基づいている。
図2A及び図2Bは、本発明の一実施形態による基本マーカー201及び該基本マーカーの意味単位を示す図である。
図2Aで、基本マーカー201は、コンピュータまたは端末によって読取り可能な2次元的なイメージコードである。基本マーカー201は、撮影されている写真から抽出されるか、例えば、サービス網を通じてその画像自体がダウンロードされうる。
図2Bに示されるように、基本マーカー201には、5つの意味単位210,220,230,240,250が存在する。第1意味単位210は、基本マーカー201の画像に対応するものであって、その基本マーカー201が認識された場合に、拡張現実情報(または、その仮想画像)を実行するかを否かを示す部分である。第2意味単位220は、実行される拡張現実情報が複数存在する場合、具体的な拡張現実情報の種類を示す部分である。第3意味単位230は、拡張現実情報の表示位置を示す部分である。第4意味単位240は、拡張現実情報の表示方向を示す部分である。第5意味単位250は、拡張現実情報が関連付けられる動作を決定する部分である。例えば、第5意味単位250に対応して特定の動作が行われる場合、仮想の画像が1つの反応(例えば、拡張現実情報の回転、反転、縮小など)をすることが可能である。
図2A及び図2Bのように、基本マーカー201には、さまざまの意味単位210、220、230、240、250を表示することが可能であり、それぞれの意味単位は、基本マーカー201とこの基本マーカー201に対応する拡張現実アプリケーションとの間に既定されている。
図3A及び図3Bは、本発明の一実施形態による代替マーカー301及び該代替マーカーのマーカー要素を示す図である。
図3Aに示されるように、代替マーカー301は、クレジットカード301になりうる。このように、ユーザは、基本マーカー201(図2A)を媒体として拡張現実情報を見ることもでき、所持しているクレジットカード301を媒体として拡張現実情報を見ることもできる。
図3Bで、クレジットカード301を代替マーカーとして使うためのクレジットカード301のマーカー要素は、特定の文字領域310、絵領域320、他の部分と区別される特徴的部分330になりうる。クレジットカード301のような或るオブジェクトからマーカー要素として抽出される部分は、要望される用途によって多様な変形が可能であるので、図3Bに示されたマーカー要素310、320、330は、理解を助けるための例に過ぎないということは前述した通りである。
図4は、本発明の一実施形態による基本マーカーとオブジェクトのマーカー要素との間のマッピングの関係を示す図である。
図4を参照すると、基本マーカー401の画像内の意味単位402、403は、オブジェクトの画像404内のマーカー要素405、406にそれぞれマッピングされる。そして、意味単位402、403とマーカー要素405、406との間のマッピング407、408が保存される。したがって、オブジェクトの画像404は、基本マーカーの代わりをする代替マーカーとして使われる。言い換えれば、ユーザが、代替マーカーと指定されたクレジットカードを携帯端末のプレビュー画面に表示すれば、その表示されたクレジットカードの画像を用いて、拡張現実を実行することができる。
また、図4で、意味単位とマーカー要素間のマッピングは、多様に変更されうる。例えば、意味単位とマーカー要素との間の形態または色相の類似性に基づいてマッピングを実行することもでき、各マーカー要素に所定の加重値または優先順位を付与した後、その加重値または優先順位によって順次にマッピングを実行することも可能である。しかし、このような方法も説明の便宜のための例示に過ぎないものであって、その他にも多様なマッピング方法が実施されうる。
図5は、本発明の一実施形態による拡張現実を付与する方法を示すフローチャートである。この方法は、代替マーカーを利用して拡張現実を実行するか否かをユーザに尋ねた後に開始することが可能である。
図5を参照すると、まず、基本マーカーの画像が獲得される(501)。図1の第1イメージ獲得部101が、基本マーカーを撮影するか、基本マーカーの画像201をダウンロードすることで、図2Aのような基本マーカー201の画像を獲得することができる。
そして、オブジェクト(客体)の画像が獲得される(502)。図1の第2イメージ獲得部102が、クレジットカードのような特定のオブジェクト(客体)を撮影して図3Aのようなオブジェクトの画像301を獲得することができる。
その後、基本マーカーの意味単位が分析される(503)。例えば、図1の意味単位分析部103が、図2Bのように基本マーカーの意味単位を分析することが可能である。
そして、基本マーカーの意味単位に対応するマーカー要素が、前記のオブジェクトの画像から抽出される(504)。図1のマーカー要素抽出部104が、図3Bのようにマーカー要素310、320、330を抽出することが可能である。
そして、前記の基本マーカーの意味単位が、オブジェクトのマーカー要素にマッピングされ、代替マーカーが生成される(505)。例えば、図1の代替マーカー生成部105が、図4のようにマッピング及び代替マーカーの生成を行うことが可能である。
意味単位とマーカー要素との間のマッピングは、多様な方法で行うことができる。例えば、任意のマッピングを用いることも可能である。任意のマッピングは、ランダムにマーカー要素を選択し、次いで該選択されたマーカー要素に何れかの意味単位をマッピングすることと、定義することができる。他の例として、マッピングは、意味単位とマーカー要素との間の或る類似性に基づいてなされることも可能である。例えば、何れかの意味単位が選択して、該選択された意味単位を、形態的、位置的、または色相的に類似したマーカー要素にマッピングすることが可能である。
代替マーカーが生成された後、意味単位とマーカー要素間のマッピングを保存することが可能である。このような情報は、図1の相関関係保存部106に保存することができる。
前述した方法は、生成された代替マーカーに基づいた演算処理がさらに含まれうる。例えば、図1の表示部107は、生成された代替マーカーと保存された相関関係とを用いて、元の基本マーカーに対応する拡張現実を示すことができる。
図6は、本発明の一実施形態によるマーカー要素の抽出方法を示す図である。
図1及び図6を参照すると、マーカー要素抽出部104は、オブジェクト602のプレビュー画面601を、それぞれ基準のサイズを有することが可能な格子に分割する。そして、マーカー要素抽出部104は、格子内の画像データの変化量が大きいものから小さいものへという順番で、前記の格子を順序化する。そして、各格子をマーカー要素として抽出することが可能である。マーカー要素の抽出の他の例において、何れか一つの格子とその隣接した格子のデータ変化量が、臨界値以下である場合、これらの格子を同じ格子として扱うことも可能である。
しかし、代替マーカーを形成するために画像から特定部分を抽出する方法は、図6で説明された方法に限定されるものではない。例えば、格子内部の特徴的な形態または形状をマーカー要素として抽出することが可能である。オブジェクト602が、主な色相、すなわち、オブジェクトの主要な比率を形成する色相を有する場合、その主な色相と相違する部分をマーカー要素として抽出することもできる。もし、オブジェクトに主となる色相が存在していない場合、オブジェクト内の特定領域を任意に指定し、その指定された領域と該領域の周辺との色相を比較して、その後、その比較によってマーカー要素の抽出を行うようにすることができる。
その他にも、代替マーカーとして使われるオブジェクトの特定の色相自体をマーカー要素として抽出することも可能である。例えば、或るオブジェクトから赤色、黄色、及び青色が感知されれば、赤色を元のマーカーのA部分、黄色を元のマーカーのB部分、青色を元のマーカーのC部分にマッピングすることができる。
マーカー要素を抽出する場合、該抽出されたマーカー要素の個数を示す情報を分析することも可能である。例えば、形状に基づいてマーカー要素がL個抽出され、色相に基づいてマーカー要素がM個抽出される場合、1次的にL個のマーカー要素をマッピングし、2次的にM個のマーカー要素をマッピングするようにマッピングの優先順位を決めることができる。もし、マーカー要素の全個数(L+M)が、識別される全ての意味単位を元のマーカー上にマッピングするのに不足する場合、他のオブジェクトの画像を(L+M)個になるまで入力することができる趣旨のメッセージがユーザに表示されうる。
図7は、本発明の一実施形態によるユーザインターフェース画面を示す図である。
図7を参照すると、本実施形態によるユーザインターフェース画面は、基本マーカーが表示される欄701、基本マーカーに関する簡略情報が表示される欄702、及び代替マーカーが表示される欄703に区分されるように構成できる。基本マーカーに関する簡略情報は、基本マーカーに対応する拡張現実アプリケーションの名称または基本マーカーの意味単位についての情報にすることができる。
図7で、ユーザは、代替マーカーが表示される欄703をタッチ操作して所望の代替マーカーを選択し、代替マーカーが選択されれば、該選択された代替マーカーがマッピングされた基本マーカーの拡張現実アプリケーションが実行される。
また、代替マーカーが複数ある場合、ユーザーは、各代替マーカーと拡張現実アプリケーションの相互関係が分かるように望むことがある。したがって、代替マーカー及び対応する拡張現実アプリケーションとを連結させてリスト化またはサムネイル化して表示するか、またはフォルダー形式で代替マーカーを表示することが望ましい。
図8は、本発明の一実施形態によって多数の基本マーカーを一つのオブジェクトにマッピングする方法を示す図である。
図8を参照すると、代替マーカーとして使われるオブジェクト801は、領域M1、M2、M3に分画される。そして、それぞれの領域M1、M2、M3は、何れか一つの基本マーカーにマッピングされうる。例えば、図8に示されるように、第1基本マーカー810は、第1領域M1にマッピングされ、第2基本マーカー820は、第2領域M2にマッピングされ、第3基本マーカー830は、第3領域M3にマッピングされうる。複数の基本マーカーが一つのオブジェクトにマッピングされる場合、代替マーカーのマーカー要素は、各領域M1、M2、M3別に独立して抽出されうる。
図9は、本発明の他の実施形態によって複数の基本マーカーを一つのオブジェクトにマッピングする方法を示す図である。
図9を参照すると、第1基本マーカー901は、オブジェクトの第1部分910にマッピングされ、第2基本マーカー902は、オブジェクトの第2部分920にマッピングされる。オブジェクトの第2部分920は、オブジェクトの第1部分910より相対的に小さい。第1部分910は、オブジェクトが元のサイズのままでプレビュー画面に表示される場合に認識され、第2部分920は、オブジェクトが拡大されてプレビュー画面に表示される場合に認識されうる。したがって、第2部分920に対応する代替マーカーは、オブジェクトが元のサイズのままで見られている場合、隠されたマーカーとして活用することができる。
図10は、本発明のまた他の実施形態によって複数の基本マーカーを一つのオブジェクトにマッピングする方法を示す図である。
図10を参照すると、第1基本マーカー1001は、オブジェクトの第1部分1002にマッピングされ、第2基本マーカー1003は、オブジェクトの第2部分1004にマッピングされる。第1基本マーカー1001は、仮想オブジェクト1005の拡張現実を表わし、第2基本マーカー1003は、仮想オブジェクト1006の拡張現実を表わす。したがって、ユーザが、第1基本マーカー1001と第2基本マーカー1003とがマッピングされた代替マーカー1007を用いて拡張現実を実行する場合、仮想オブジェクト1005と1006を表示させる拡張現実は、一つの画面1008に表示されるようにすることが可能である。
その他の例として、単一のオブジェクトに複数のマッピングポイントがある場合、多様な基本マーカーをその単一のオブジェクトにマッピングすることによって、代替マーカーを生成することが可能である。例えば、サイコロのように各面の特徴が異なる3次元オブジェクトの場合、それぞれの面に相異なる基本マーカーをマッピングすることが可能である。また、書籍のような場合、書籍の各ページに基本マーカーを割り当てる方式で代替マーカーを生成することも可能である。
図11は、本発明の一実施形態による立体マーカーを示す図である。
図11を参照すると、船舶と関連した基本マーカー1101が、3次元オブジェクト1102にマッピングされる。3次元オブジェクト1102の画像、或いは3次元オブジェクト1102の種々の部分は、カメラやファイル等のイメージ獲得部によって取得される。3次元オブジェクト1102は、正面の画像と同様に、そのオブジェクト自体が有している上下左右の属性がある。したがって、3次元事物1102が有している上下左右の属性を船舶の上下左右の属性によってマッピングさせることが可能である。例えば、船舶と関連した基本マーカー1101をカップ1102にマッピングする場合、ユーザがカップ1102をプレビュー画面に表示した後、カップ1102の上下左右を撮影すれば、撮影方向によって船舶の上下左右が表示されるように拡張現実を実行することが可能である。元のマーカーが2次元的画像であり、そのようなマーカーに対応する拡張現実情報が3次元的画像である場合がある。このような場合、元のマーカーを用いて拡張現実画像を具現することには限界がある。しかし、2次元マーカーを3次元オブジェクトにマッピングを行い、前記の3次元オブジェクトを代替マーカーとして用いることによって、図11に示されるように、3次元の属性を有する拡張現実は、船舶の表示された画像を扱うために更なる卓越した能力或いはビューイング能力を提供できる。
図12は、本発明の他の実施形態による立体マーカーを示す図である。
図12を参照すると、建物の設計図と関連した基本マーカー1201が、カップ1202等の3次元オブジェクトにマッピングされる。前記の建物が3階構造を有する場合、図11のように、カップ1202の低部は、建物の1階1203を表わし、カップ1202の中央部は、建物の2階1204を表わし、カップ1202の上部は、建物の3階1205を表わすことができる。カップ1202のような3次元オブジェクトが、代替マーカーとして使われる場合、3次元オブジェクトが有する多様な属性(例えば、カップ1202の特定面または特定面に描かれた各種の縞など)によって元の拡張現実と同様に追加的な情報も共に付け加えて表示させることが可能である。このように、カップ1202の3次元的な操作性及び形状は、立体的なオブジェクトの表示された画像を扱うために更なる卓越した能力或いはビューイング能力をユーザーに与えることができる。
前述したように、本実施形態による拡張現実装置及び拡張現実を提供する方法によれば、基本マーカーの代わりをすることができる代替マーカーを生成し、該生成された代替マーカーを用いて拡張現実を具現するために、基本マーカーのない状況でも、拡張現実を具現することができ、基本マーカーがあっても、代替マーカーを活用して拡張された拡張現実を具現することが可能である。
一方、前記の実施形態は、コンピュータで読み取り可能な記録媒体にコンピュータで読み取り可能な持続性のあるコードとして具現しうる。コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取れるデータが保存されるあらゆる種類の記録装置を含む。
コンピュータで読み取り可能な記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク(登録商標)、光データ保存装置などがあり、また、キャリアウェーブ(例えば、インターネットを通じる伝送)の形態で具現するものを含む。また、コンピュータで読み取り可能な記録媒体は、ネットワークで連結された複数のコンピュータシステム間に分散することが可能であって、コンピュータで読み取り可能なコードまたはプログラム命令として分散方式で保存されて実行可能である。そして、本発明を具現するための機能的な(functional)プログラム、コード及びコードセグメントは、本発明が属する技術分野のプログラマーによって容易に解釈され得る。
以上、本発明の実施のための具体例を説明した。前述した実施形態は、本発明を例示的に説明するためのものであって、本発明の権利範囲が特定の実施形態に限定されるものではない。例えば、記載された技術が異なる順番で達成され、及び/或いは記載されたシステム内の構成要素、コンピュータ・アーキテクチャ、デバイス、或いは回路が異なる方法で組み合わされ、及び/或いは他の構成要素またはそれらと同等のものによって置き換えられ或いは補われる場合、好適な結果を得ることが可能である。このように、前述した実施形態以外の本発明の実施は、特許請求の範囲内において可能である。
種々の改変及び変形は、本発明の精神又は範囲から逸脱しない限り、本発明においてなし得ることは、当業者には容易に明白となるであろう。このように、本発明の改変及び変形が本願のクレーム及び該クレームと等価なものの範囲内にあるならば、本発明はそのような改変及び変形を含むことが意図されている。
本発明は、マーカーを利用した拡張現実を提供する装置及び方法に関連する技術分野に適用可能である。

Claims (23)

  1. 拡張現実と関連する基本マーカーの画像を獲得する第1イメージ獲得部と、
    オブジェクトの画像を獲得する第2イメージ獲得部と、
    前記基本マーカーの画像の意味単位を分析する意味単位分析部と、
    前記オブジェクトの画像から要素を抽出するマーカー要素抽出部と、
    前記分析された意味単位で前記抽出された要素をマッピングすることによって、前記オブジェクトの画像及びマッピングされた要素から成る代替マーカーを生成する代替マーカー生成部と、
    を含むことを特徴とする、拡張現実(AR)装置。
  2. 前記意味単位分析部は、前記基本マーカーに対応する拡張現実情報に基づいて、前記の意味単位を分析することを特徴とする、請求項1に記載の拡張現実装置。
  3. 前記意味単位分析部は、前記の拡張現実情報が表示される位置に基づいて、前記の意味単位を分析することを特徴とする、請求項2に記載の拡張現実装置。
  4. 前記意味単位分析部は、前記の拡張現実情報の表示方向に基づいて、前記の意味単位を分析することを特徴とする、請求項2に記載の拡張現実装置。
  5. 前記意味単位分析部は、前記の拡張現実情報に関連する動作に基づいて、前記の意味単位を分析することを特徴とする、請求項2に記載の拡張現実装置。
  6. 前記マーカー要素抽出部は、前記のオブジェクトの画像から、オブジェクトの外形、文字または絵を認識し、該認識された外形、文字、絵、またはこれらの位置関係のうち少なくとも一つに基づいて、前記要素を抽出することを特徴とする、請求項1に記載の拡張現実装置。
  7. 前記マーカー要素抽出部は、前記のオブジェクトの画像から、形状または色相に基づいて、前記の要素を抽出することを特徴とする、請求項1に記載の拡張現実装置。
  8. 前記オブジェクトの画像を多数の格子に分割し、各格子が有するピクセル値の平均を用いて、各格子のグリッド値を計算し、実質的に同様なグリッド値を有する格子をグループ化して、前記の要素を抽出することを特徴とする、請求項7に記載の拡張現実装置。
  9. 前記代替マーカー生成部は、前記の基本マーカーを前記の代替マーカーに置き換えることを特徴とする、請求項1に記載の拡張現実装置。
  10. 前記の意味単位で前記の要素をマッピングした結果を保存する相関関係保存部をさらに含むことを特徴とする、請求項1に記載の拡張現実装置。
  11. 拡張現実と関連する基本マーカーの画像を獲得し、
    オブジェクトの画像を獲得し、
    前記基本マーカーの意味単位を分析し、
    前記オブジェクトの画像から要素を抽出し、
    前記分析された意味単位を前記抽出された要素でマッピングし、
    前記オブジェクトの画像及びマッピングされた要素から成る代替マーカーを生成する、
    ことを特徴とする、拡張現実(AR)を提供する方法。
  12. 前記意味単位は、前記基本マーカーに対応する拡張現実情報に基づいて分析されることを含むことを特徴とする、請求項11に記載の拡張現実を提供する方法。
  13. 前記意味単位は、前記の拡張現実情報が表示される位置に基づいて分析されることを含むことを特徴とする、請求項12に記載の拡張現実を提供する方法。
  14. 前記意味単位は、前記の拡張現実情報の表示方向に基づいて分析されることを含むことを特徴とする、請求項12に記載の拡張現実を提供する方法。
  15. 前記意味単位は、前記の拡張現実情報の動作に基づいて分析されることを含むことを特徴とする、請求項12に記載の拡張現実を提供する方法。
  16. 前記要素の抽出は、外形、文字または絵を認識し、
    該認識された外形、文字、絵、またはこれらの位置関係のうち少なくとも一つを、前記要素として抽出することを含むことを特徴とする、請求項11に記載の拡張現実を提供する方法。
  17. 前記要素の抽出は、前記のオブジェクトの画像の形状または色相に基づいて、前記の要素を抽出することを含むことを特徴とする、請求項11に記載の拡張現実を提供する方法。
  18. 形状に基づく前記の要素の抽出は、
    前記オブジェクトの画像を複数の格子に分割し、
    各格子が有するピクセル値の平均を用いて、各格子のグリッド値を計算し、
    実質的に同様なグリッド値を有する格子をグループ化すること、を更に含むことを特徴とする、請求項17に記載の拡張現実を提供する方法。
  19. 前記代替マーカーの生成は、前記の基本マーカーを前記の代替マーカーに置き換えること、を更に含むことを特徴とする、請求項11に記載の拡張現実を提供する方法。
  20. 前記の要素で前記の意味単位をマッピングした結果を保存すること、を更に含むことを特徴とする、請求項11に記載の拡張現実を提供する方法。
  21. 拡張現実のための2次元マーカーの画像を獲得し、
    拡張現実と関連する3次元オブジェクトの画像を獲得し、
    前記2次元マーカーの意味単位を分析し、
    前記3次元オブジェクトの画像の要素を抽出し、
    前記分析された意味単位を前記抽出された要素にマッピングし、
    前記3次元オブジェクトの画像及びマッピングされた要素から成る代替マーカーを生成し、
    前記2次元マーカーに対応する拡張現実情報を用いて、前記の代替マーカーを表示すること、
    を含むことを特徴とする、拡張現実(AR)を提供する方法。
  22. 前記の表示は、3次元オブジェクトが認識される場合に、行われることを含むことを特徴とする、請求項21に記載の拡張現実を提供する方法。
  23. 基本マーカーが認識されるか否かを決定し、
    基本マーカーが認識される場合には、基本マーカーに基づいて拡張現実を提供するか、または代替マーカーに基づいて拡張現実を提供するかをユーザに質疑すること、
    を含むことを特徴とする、請求項11に記載の拡張現実を提供する方法。
JP2011183431A 2010-08-25 2011-08-25 マーカーを利用した拡張現実(ar)を提供する装置及び方法 Active JP5236055B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020100082696A KR101330811B1 (ko) 2010-08-25 2010-08-25 인스턴트 마커를 이용한 증강 현실 장치 및 방법
KR10-2010-0082696 2010-08-25

Publications (2)

Publication Number Publication Date
JP2012048720A true JP2012048720A (ja) 2012-03-08
JP5236055B2 JP5236055B2 (ja) 2013-07-17

Family

ID=44584059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011183431A Active JP5236055B2 (ja) 2010-08-25 2011-08-25 マーカーを利用した拡張現実(ar)を提供する装置及び方法

Country Status (5)

Country Link
US (1) US20120050305A1 (ja)
EP (1) EP2423880A3 (ja)
JP (1) JP5236055B2 (ja)
KR (1) KR101330811B1 (ja)
CN (1) CN102385512A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101351132B1 (ko) * 2012-12-27 2014-01-14 조선대학교산학협력단 이방성의 웨이블릿 변환에 기반한 이미지 분할장치 및 그 방법
KR101705812B1 (ko) * 2016-11-10 2017-02-10 주식회사 팝스라인 Mr 콘텐츠 제작 장치 및 그 방법
JP2017513143A (ja) * 2014-04-02 2017-05-25 スン−シオン,パトリック 拡張プリペイドカード、システム、および、方法
US10319110B2 (en) 2014-04-16 2019-06-11 Fujitsu Limited Display control method and system
JP2020173817A (ja) * 2018-08-24 2020-10-22 グーグル エルエルシー レーダーシステムを備えるスマートフォン、システムおよび方法
US10890653B2 (en) 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
US10930251B2 (en) 2018-08-22 2021-02-23 Google Llc Smartphone-based radar system for facilitating awareness of user presence and orientation
US11314312B2 (en) 2018-10-22 2022-04-26 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2501925B (en) * 2012-05-11 2015-04-29 Sony Comp Entertainment Europe Method and system for augmented reality
KR101373397B1 (ko) * 2012-06-11 2014-03-13 인하대학교 산학협력단 증강현실의 호모그래피 정확도 향상을 위한 csp 기반의 ransac 샘플링 방법
US9092690B2 (en) 2013-03-12 2015-07-28 Google Inc. Extraction of financial account information from a digital image of a card
US20140270477A1 (en) * 2013-03-14 2014-09-18 Jonathan Coon Systems and methods for displaying a three-dimensional model from a photogrammetric scan
US8922589B2 (en) 2013-04-07 2014-12-30 Laor Consulting Llc Augmented reality apparatus
KR101481271B1 (ko) 2013-05-22 2015-01-12 부경대학교 산학협력단 텍스트 마커를 이용한 증강 현실시스템
JP6171671B2 (ja) * 2013-07-24 2017-08-02 富士通株式会社 情報処理装置、位置指定方法および位置指定プログラム
JP6314394B2 (ja) * 2013-09-13 2018-04-25 富士通株式会社 情報処理装置、設定方法、設定プログラム、システムおよび管理装置
US9137232B2 (en) * 2014-01-14 2015-09-15 Xerox Corporation Method and system for controlling access to document data using augmented reality marker
US10026228B2 (en) * 2015-02-25 2018-07-17 Intel Corporation Scene modification for augmented reality using markers with parameters
CN105549208A (zh) * 2016-01-28 2016-05-04 深圳市裕同包装科技股份有限公司 一种具有360度裸眼3d效果的数字化名片及其制作方法
US20180211404A1 (en) * 2017-01-23 2018-07-26 Hong Kong Applied Science And Technology Research Institute Co., Ltd. 3d marker model construction and real-time tracking using monocular camera
CN108983971A (zh) * 2018-06-29 2018-12-11 北京小米智能科技有限公司 基于增强现实的标记方法及装置
CN110689573B (zh) * 2019-09-06 2022-07-01 重庆邮电大学 一种基于边缘模型的增强现实无标识跟踪注册方法及装置
KR102489290B1 (ko) * 2020-11-20 2023-01-17 부산대학교 산학협력단 영상처리와 위치추적 기술을 활용한 작업장 내 위험지역 접근 감지 및 알림 시스템 및 방법
KR102348852B1 (ko) * 2021-04-27 2022-01-11 김천윤 오브젝트를 추출하는 방법 및 이를 위한 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008090908A1 (ja) * 2007-01-23 2008-07-31 Nec Corporation マーカ生成及びマーカ検出のシステム、方法とプログラム

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10210473A (ja) * 1997-01-16 1998-08-07 Toshiba Corp 動きベクトル検出装置
JP4794708B2 (ja) * 1999-02-04 2011-10-19 オリンパス株式会社 3次元位置姿勢センシング装置
US7084887B1 (en) * 1999-06-11 2006-08-01 Canon Kabushiki Kaisha Marker layout method, mixed reality apparatus, and mixed reality space image generation method
JP4233723B2 (ja) * 2000-02-28 2009-03-04 本田技研工業株式会社 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体
US6765569B2 (en) * 2001-03-07 2004-07-20 University Of Southern California Augmented-reality tool employing scene-feature autocalibration during camera motion
US7605826B2 (en) * 2001-03-27 2009-10-20 Siemens Corporate Research, Inc. Augmented reality guided instrument positioning with depth determining graphics
US7274380B2 (en) * 2001-10-04 2007-09-25 Siemens Corporate Research, Inc. Augmented reality system
US20030174178A1 (en) * 2002-01-31 2003-09-18 Hodges Matthew Erwin System for presenting differentiated content in virtual reality environments
JP4032776B2 (ja) 2002-03-04 2008-01-16 ソニー株式会社 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
JP2004048674A (ja) * 2002-05-24 2004-02-12 Olympus Corp 視野一致型情報呈示システム、並びに、それに用いられる携帯情報端末及びサーバ
US7391424B2 (en) * 2003-08-15 2008-06-24 Werner Gerhard Lonsing Method and apparatus for producing composite images which contain virtual objects
JP2005191954A (ja) * 2003-12-25 2005-07-14 Niles Co Ltd 撮像システム
JP4380376B2 (ja) 2004-03-17 2009-12-09 日本電信電話株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP4532982B2 (ja) * 2004-05-14 2010-08-25 キヤノン株式会社 配置情報推定方法および情報処理装置
US20050285878A1 (en) * 2004-05-28 2005-12-29 Siddharth Singh Mobile platform
US20050289590A1 (en) * 2004-05-28 2005-12-29 Cheok Adrian D Marketing platform
US20120036046A1 (en) * 2010-08-09 2012-02-09 Decopac, Inc. Decorating System for Edible Products
JP4434890B2 (ja) * 2004-09-06 2010-03-17 キヤノン株式会社 画像合成方法及び装置
JP4137078B2 (ja) 2005-04-01 2008-08-20 キヤノン株式会社 複合現実感情報生成装置および方法
US7706603B2 (en) * 2005-04-19 2010-04-27 Siemens Corporation Fast object detection for augmented reality systems
CN100470452C (zh) * 2006-07-07 2009-03-18 华为技术有限公司 一种实现三维增强现实的方法及系统
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
US20080266323A1 (en) * 2007-04-25 2008-10-30 Board Of Trustees Of Michigan State University Augmented reality user interaction system
US7783107B2 (en) * 2007-09-06 2010-08-24 Seiko Epson Corporation Characterization of a printed droplet
KR100932634B1 (ko) * 2007-12-27 2009-12-21 팅크웨어(주) 증강 현실을 이용한 3차원 웹 지도 서비스 방법 및 그시스템
JP4632102B2 (ja) * 2008-07-17 2011-02-16 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US20100014755A1 (en) * 2008-07-21 2010-01-21 Charles Lee Wilson System and method for grid-based image segmentation and matching
US20100048290A1 (en) * 2008-08-19 2010-02-25 Sony Computer Entertainment Europe Ltd. Image combining method, system and apparatus
KR100974900B1 (ko) 2008-11-04 2010-08-09 한국전자통신연구원 동적 임계값을 이용한 마커 인식 장치 및 방법
AU2008255212A1 (en) * 2008-12-10 2010-06-24 Canon Kabushiki Kaisha Page mark-up using printed dot barcodes
KR20100082696A (ko) 2009-01-09 2010-07-19 다니엘리 코루스 베뷔 용광로에서의 철 제조방법 및 이 제조방법으로부터 얻어지는 상부 가스의 사용방법
US8606657B2 (en) * 2009-01-21 2013-12-10 Edgenet, Inc. Augmented reality method and system for designing environments and buying/selling goods
CN101551732A (zh) * 2009-03-24 2009-10-07 上海水晶石信息技术有限公司 带有交互功能的增强现实的方法及其系统
US8405658B2 (en) * 2009-09-14 2013-03-26 Autodesk, Inc. Estimation of light color and direction for augmented reality applications
US8803992B2 (en) * 2010-05-12 2014-08-12 Fuji Xerox Co., Ltd. Augmented reality navigation for repeat photography and difference extraction
KR101269773B1 (ko) * 2010-12-13 2013-05-30 주식회사 팬택 증강 현실 제공 단말기 및 방법
KR101338700B1 (ko) * 2011-01-27 2013-12-06 주식회사 팬택 마커를 분할해서 공유하는 증강 현실 시스템 및 그 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008090908A1 (ja) * 2007-01-23 2008-07-31 Nec Corporation マーカ生成及びマーカ検出のシステム、方法とプログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101351132B1 (ko) * 2012-12-27 2014-01-14 조선대학교산학협력단 이방성의 웨이블릿 변환에 기반한 이미지 분할장치 및 그 방법
JP2017513143A (ja) * 2014-04-02 2017-05-25 スン−シオン,パトリック 拡張プリペイドカード、システム、および、方法
JP2018116720A (ja) * 2014-04-02 2018-07-26 スン−シオン,パトリック 拡張プリペイドカード、システム、および、方法
US10319110B2 (en) 2014-04-16 2019-06-11 Fujitsu Limited Display control method and system
KR101705812B1 (ko) * 2016-11-10 2017-02-10 주식회사 팝스라인 Mr 콘텐츠 제작 장치 및 그 방법
US10890653B2 (en) 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
US10930251B2 (en) 2018-08-22 2021-02-23 Google Llc Smartphone-based radar system for facilitating awareness of user presence and orientation
US11176910B2 (en) 2018-08-22 2021-11-16 Google Llc Smartphone providing radar-based proxemic context
US11435468B2 (en) 2018-08-22 2022-09-06 Google Llc Radar-based gesture enhancement for voice interfaces
JP2020173817A (ja) * 2018-08-24 2020-10-22 グーグル エルエルシー レーダーシステムを備えるスマートフォン、システムおよび方法
US10936185B2 (en) 2018-08-24 2021-03-02 Google Llc Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface
US11204694B2 (en) 2018-08-24 2021-12-21 Google Llc Radar system facilitating ease and accuracy of user interactions with a user interface
US11314312B2 (en) 2018-10-22 2022-04-26 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode
US12111713B2 (en) 2018-10-22 2024-10-08 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode

Also Published As

Publication number Publication date
US20120050305A1 (en) 2012-03-01
CN102385512A (zh) 2012-03-21
JP5236055B2 (ja) 2013-07-17
EP2423880A3 (en) 2014-03-05
KR101330811B1 (ko) 2013-11-18
KR20120019331A (ko) 2012-03-06
EP2423880A2 (en) 2012-02-29

Similar Documents

Publication Publication Date Title
JP5236055B2 (ja) マーカーを利用した拡張現実(ar)を提供する装置及び方法
KR101671185B1 (ko) 렌더링을 위한 빛 및 질감 추출 장치 및 방법, 그리고, 빛 및 질감을 이용한 렌더링 장치
JP7271099B2 (ja) ファイルの生成装置およびファイルに基づく映像の生成装置
US10650264B2 (en) Image recognition apparatus, processing method thereof, and program
US8817046B2 (en) Color channels and optical markers
JP6723748B2 (ja) 画像管理装置、画像管理方法及びプログラム
KR20170122725A (ko) 파라미터를 갖는 마커를 사용한 증강 현실의 장면 수정
KR20090070900A (ko) 증강 현실을 이용한 3차원 웹 지도 서비스 방법 및 그시스템
KR20140082610A (ko) 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치
CN112070906A (zh) 一种增强现实系统及增强现实数据的生成方法、装置
JP2010237804A (ja) 画像検索システム及び画像検索方法
Koutsoudis et al. 3dsse–a 3d scene search engine: Exploring 3d scenes using keywords
CN117083640A (zh) 使用对面部表情的选择在线上社区的内容中的面部合成
Rattanarungrot et al. The application of augmented reality for reanimating cultural heritage
KR101843585B1 (ko) 사물 인식을 통한 서비스 서버 및 방법
Arbelaiz et al. Volume visualization tools for medical applications in ubiquitous platforms
JP2013214158A (ja) 表示画像検索装置、表示制御システム、表示制御方法、およびプログラム
JP2015125541A (ja) 視線予測システム、視線予測方法、および視線予測プログラム
US10586366B2 (en) System and method for display object bitmap caching
US9165339B2 (en) Blending map data with additional imagery
CN113674293B (zh) 图片处理方法、装置、电子设备和计算机可读介质
WO2021176877A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CA3067417C (en) Systems and methods for displaying and interacting with a dynamic real-world environment
Zeng et al. Design and Implementation of Virtual Real Fusion Metaverse Scene Based on Deep Learning
CN115082627A (zh) 3d舞台模型生成方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130326

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5236055

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250