JP6974573B1 - Information processing program, terminal device and information processing method - Google Patents
Information processing program, terminal device and information processing method Download PDFInfo
- Publication number
- JP6974573B1 JP6974573B1 JP2020177164A JP2020177164A JP6974573B1 JP 6974573 B1 JP6974573 B1 JP 6974573B1 JP 2020177164 A JP2020177164 A JP 2020177164A JP 2020177164 A JP2020177164 A JP 2020177164A JP 6974573 B1 JP6974573 B1 JP 6974573B1
- Authority
- JP
- Japan
- Prior art keywords
- shooting
- image
- terminal device
- viewpoint
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 52
- 238000003672 processing method Methods 0.000 title claims abstract description 6
- 238000000034 method Methods 0.000 claims abstract description 60
- 238000003384 imaging method Methods 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 19
- 238000010586 diagram Methods 0.000 abstract description 33
- 238000012545 processing Methods 0.000 description 45
- 230000004044 response Effects 0.000 description 20
- 230000005540 biological transmission Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 102100027867 FH2 domain-containing protein 1 Human genes 0.000 description 8
- 101001060553 Homo sapiens FH2 domain-containing protein 1 Proteins 0.000 description 8
- 230000009466 transformation Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】多視点画像に関する撮影を容易にする情報処理プログラム、端末装置及び情報処理方法を提供する。【解決手段】情報処理プログラムは、撮影対象に関する撮影対象情報を取得する取得手順と、前記撮影対象の多視点画像に関する撮影を行うための撮影位置と撮影方向とを示すモデルを提供する提供手順と、を端末装置に実行させる。【選択図】図14PROBLEM TO BE SOLVED: To provide an information processing program, a terminal device and an information processing method for facilitating shooting of a multi-viewpoint image. An information processing program includes an acquisition procedure for acquiring shooting target information regarding a shooting target, and a providing procedure for providing a model indicating a shooting position and a shooting direction for shooting a multi-viewpoint image of the shooting target. , Is executed by the terminal device. [Selection diagram] FIG. 14
Description
本発明は、情報処理プログラム、端末装置および情報処理方法に関する。 The present invention relates to an information processing program, a terminal device and an information processing method.
従来、被写体(撮影対象)を異なる視点で撮像した複数の画像である多視点画像(自由視点画像)を生成する技術が提供されている(例えば特許文献1参照)。 Conventionally, there has been provided a technique for generating a multi-viewpoint image (free-viewpoint image) which is a plurality of images of a subject (shooting target) captured from different viewpoints (see, for example, Patent Document 1).
しかしながら、上述した従来技術では、多視点画像に関する撮影を容易にしているとは言えない場合がある。例えば、上述した従来技術では、ユーザに多視点画像を活用させているものの、例えばユーザ自身が撮影を行う場合等、どのように撮影を行えばよいか不明になること等が生じ、多視点画像に関する撮影を行うことが難しい場合がある。 However, it may not be possible to say that the above-mentioned conventional technique facilitates shooting of a multi-viewpoint image. For example, in the above-mentioned conventional technology, although the user is made to utilize the multi-viewpoint image, for example, when the user himself / herself takes a picture, it becomes unclear how to take a picture, and the multi-viewpoint image occurs. It can be difficult to shoot about.
本願は、上記に鑑みてなされたものであって、多視点画像に関する撮影を容易にすることを目的とする。 The present application has been made in view of the above, and an object thereof is to facilitate shooting of a multi-viewpoint image.
本願に係る情報処理プログラムは、撮影対象に関する撮影対象情報を取得する取得手順と、前記撮影対象の多視点画像に関する撮影を行うための撮影位置と撮影方向とを示すモデルを提供する提供手順と、を端末装置に実行させる。 The information processing program according to the present application includes an acquisition procedure for acquiring shooting target information regarding a shooting target, a provision procedure for providing a model indicating a shooting position and a shooting direction for shooting a multi-viewpoint image of the shooting target, and a provision procedure. To the terminal device.
実施形態の一態様によれば、多視点画像に関する撮影を容易にすることができる。 According to one aspect of the embodiment, it is possible to facilitate taking a picture of a multi-viewpoint image.
以下に、本願に係る情報処理プログラム、端末装置および情報処理方法を実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理プログラム、端末装置および情報処理方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。 Hereinafter, embodiments for implementing the information processing program, terminal device, and information processing method according to the present application (hereinafter, referred to as “embodiments”) will be described in detail with reference to the drawings. The information processing program, terminal device, and information processing method according to the present application are not limited by this embodiment. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description will be omitted.
[実施形態]
〔1.情報処理〕
以下、図1を用いて、実施形態に係る情報処理の一例について説明する。図1は、実施形態に係る情報処理システムによる処理の一例を示す図である。情報処理システム1では、端末装置10により被写体(以下「撮影対象」ともいう)を異なる視点で撮像した複数の画像である多視点画像(自由視点画像)を撮影したり、端末装置10により多視点画像を表示したりする。以下では、情報処理システム1が提供する電子商取引サービスにおいて取引される取引対象を撮影対象の一例として説明する。なお、ここでいう取引対象とは、商品又はサービス(役務)の利用等である。なお、取引対象は、情報処理システム1において取引される対象であればどのようなものであってもよい。
[Embodiment]
[1. Information processing]
Hereinafter, an example of information processing according to the embodiment will be described with reference to FIG. 1. FIG. 1 is a diagram showing an example of processing by the information processing system according to the embodiment. In the
〔1−1.情報処理システムの構成〕
まず、情報処理システム1の構成について説明する。図1に示すように、情報処理システム1は、端末装置10と、サービス提供装置100とが含まれる。端末装置10と、サービス提供装置100とは所定の通信網(図8のネットワークN等)を介して、有線または無線により通信可能に接続される。なお、図1に示した情報処理システム1には、複数台の端末装置10や、複数台のサービス提供装置100が含まれてもよい。
[1-1. Information processing system configuration]
First, the configuration of the
サービス提供装置100は、端末装置10により撮影された画像に基づく情報の入稿を受け付けるサーバ装置(情報処理装置)である。例えば、サービス提供装置100は、端末装置10により撮影された多視点画像の入稿を受け付ける。サービス提供装置100は、情報を配信するサービスを提供する。例えば、サービス提供装置100は、取引対象の情報を配信するサービスを提供する。例えば、サービス提供装置100は、取引対象の出品等、取引対象の売買に関するサービスを提供する。
The
例えば、サービス提供装置100は、端末装置10を利用するユーザに電子商取引サービスを提供する情報処理装置である。サービス提供装置100は、端末装置10に電子商取引サービスに関する各種情報を配信(提供)する。以下の例では、サービス提供装置100が電子商取引サービスの一例であるオークションサービスを提供する場合を示す。例えば、サービス提供装置100は、取引対象の出品サービスを提供し、ユーザ(出品者)からの取引対象の出品を受け付ける。また、サービス提供装置100は、出品された取引対象に対するユーザの入札を受け付ける。なお、サービス提供装置100は、オークションサービスに限らず、ショッピングサービス、フリーマーケットサービス等、取引対象を取引するための様々なサービスを提供してもよい。
For example, the
また、サービス提供装置100が提供するオークションサービス等の電子商取引サービスは、多視点画像の登録や配信を行う点以外は通常の電子商取引サービスと同様であるため、電子商取引サービスに関する点については適宜説明を省略する。なお、サービス提供装置100が提供するサービスは、電子商取引サービスに限らず、例えばナビゲーションサービス、電子決済サービス、検索サービス、ニュース配信サービス、天気予報サービス、ファイナンスサービス、路線検索サービス、地図提供サービス、旅行サービス、飲食店紹介サービス、施設予約サービス、SNS(Social Networking Service)サービス、ウェブブログサービス等、様々な情報を配信するサービスであってもよい。
Further, since the electronic commerce service such as the auction service provided by the
端末装置10は、ユーザによって利用されるデバイス(コンピュータ)である。図1の例では、端末装置10は、ユーザU1により利用されるスマートフォンである場合を示す。端末装置10は、ユーザによる操作を受け付ける。端末装置10は、画像を撮像する画像センサ(以下「カメラ」ともいう)を有する。例えば、端末装置10は、画像センサとして機能するアウトカメラであるカメラ70を有する。端末装置10は、カメラ70により画像を撮影する。なお、端末装置10は、スマートフォンに限らず、以下に示す処理に適用可能であれば、タブレット型端末や、携帯電話機、PDA(Personal Digital Assistant)、ノート型PC(Personal Computer)等の様々な種別の端末装置であってもよい。以下の説明では、端末装置10をユーザと同一視する場合がある。すなわち、以下では、必要に応じて、端末装置10をユーザ、ユーザを端末装置10と読み替えることもできる。
The
〔1−2.情報処理の一例〕
ここから、図1を示す処理について説明する。例えば、端末装置10は、取引対象に関する情報をサービス提供装置100へ送信するためのアプリケーション(例えば第1アプリケーション81等)を起動し、以下の処理を実行する。まず、端末装置10は、画像RP11、RP12、RP13、RP14、RP15、RP16、RP17、RP18、RP19の順で時系列に沿う9個の画像により多視点画像FV1を取得する(ステップS11)。図1の例では、端末装置10は、取引対象であるスニーカ(以下「靴A」とする)を9個の異なる視点で撮像した多視点画像FV1を取得する。なお、図1では、多視点画像FV1を構成する画像RP11〜RP19の9個の画像うち、最初の画像である画像RP11、中間の画像であるRP15、最後の画像であるRP19の3つの画像のみを図示する。多視点画像FV1は、左前のつま先から左側面を経由し左後ろのかかとへと撮影した多視点画像である。
[1-2. An example of information processing]
From here, the process shown in FIG. 1 will be described. For example, the
図1の例では、端末装置10は、取引対象である靴A(撮影対象SB1)を撮影し、多視点画像FV1を生成するが、この点については後述する。端末装置10は、靴Aを撮影し多視点画像FV1を生成することにより、多視点画像FV1を取得する。
In the example of FIG. 1, the
そして、端末装置10は、靴Aを撮影した多視点画像FV1を靴Aに関連する情報(以下「対象関連情報」ともいう)とともにサービス提供装置100へ送信する(ステップS12)。図1の例では、端末装置10は、靴Aをオークションに出品するための出品情報を対象関連情報INF1として、靴Aを撮影した多視点画像FV1とともにサービス提供装置100へ送信する。例えば、対象関連情報INF1には、靴Aの内容を説明する文字情報が含まれる。また、対象関連情報INF1には、靴Aの開始価格、最低落札価格、入札期間等のオークションに関する情報が含まれる。
Then, the
端末装置10から靴Aの多視点画像FV1と靴Aの対象関連情報INF1とを受信したサービス提供装置100は、多視点画像FV1と対象関連情報INF1とを靴Aに対応付けて登録する(ステップS13)。図1の例では、サービス提供装置100は、靴Aをオークションへの出品物として追加し、靴Aに多視点画像FV1と対象関連情報INF1とを対応付けて管理する。
The
端末装置10が取引対象に関連する対象関連情報とともに、その取引対象の多視点画像をサービス提供装置100に送信することにより、サービス提供装置100は、端末装置10から取引対象の出品を登録し次第、その取引対象の多視点画像を配信することができる。したがって、端末装置10は、多視点画像を用いたサービスの提供を促進することができる。これにより、情報処理システム1は、オークションやフリマ等における取引対象の画像として、多視点画像を表示することができる。
The
〔1−3.撮影対象の撮影〕
ここから、多視点画像FV1を生成するためにユーザが撮影を行う場合について説明する。まず、図2を用いてユーザによる撮影について説明する。図2は、実施形態に係る端末装置を用いた撮影の一例を示す図である。なお、以下の説明では、ユーザU1により靴Aを撮影対象SB1として撮影する場合を一例として説明する。
[1-3. Shooting target]
From here, a case where a user takes a picture in order to generate a multi-viewpoint image FV1 will be described. First, photography by the user will be described with reference to FIG. FIG. 2 is a diagram showing an example of photography using the terminal device according to the embodiment. In the following description, a case where the shoe A is photographed by the user U1 as the imaging target SB1 will be described as an example.
図2に示すようにユーザU1は、端末装置10に設けられたカメラ70を撮影対象SB1へ向けて撮影対象SB1の撮影を行う。図2では、端末装置10は、撮影対象SB1の左側部側の視点位置(「視点VP」とする)からカメラ70の視線(「視線VL」とする)を撮影対象SB1に向けて撮影対象SB1を撮影する。
As shown in FIG. 2, the user U1 points the
また、端末装置10は、カメラ70による撮影を基に注視点の決定を行う。端末装置10は、視点VPからの視線VLに基づいて注視点を決定する。端末装置10は、2つの視点から視線の情報に基づいて注視点を決定する。この点について、図3を用いて説明する。図3は、実施形態に係る注視点の一例を示す図である。
Further, the
なお、図3では、撮影位置の違いに応じて、ユーザU1が利用する端末装置10を「端末装置10a」、「端末装置10b」と記載するが、特に区別せずに説明する場合は、端末装置10と記載する。同様に、撮影位置の違いに応じて、カメラ70を「カメラ70a」、「カメラ70b」と記載するが、特に区別せずに説明する場合は、カメラ70と記載する。
In FIG. 3, the
図3では、ユーザU1は、第1位置から端末装置10aのカメラ70aを撮影対象SB1へ向けて撮影対象SB1の撮影を行う。これにより、端末装置10は、撮影対象SB1の左斜め前側の視点VPaからカメラ70aの視線VLaを撮影対象SB1に向けて撮影対象SB1を撮影する。
In Figure 3, the user U1 executes a shooting imaging target SB1 toward the first position the
また、ユーザU1は、第2位置から端末装置10bのカメラ70bを撮影対象SB1へ向けて撮影対象SB1の撮影を行う。これにより、端末装置10は、撮影対象SB1の左側部側の視点VPbからカメラ70bの視線VLbを撮影対象SB1に向けて撮影対象SB1を撮影する。
The user U1 carries a shooting imaging target SB1 toward the second position the
端末装置10は、第1位置及び第2位置の2つの視点からの撮影により取得した情報を用いて、注視点を決定する。端末装置10は、第1位置及び第2位置の2つの視点からの撮影により取得した情報を用いて、注視点の3次元位置(以下単に「位置」ともいう)を算出する。端末装置10は、2つの視点からの撮影により取得した情報を用いて、撮影対象SB1とカメラ70との間の距離を推定する。端末装置10は、視点VPaからの視線VLa、及び視点VPbからの視線VLbに基づいて注視点を決定する。
The
例えば、端末装置10は、視線VLaと視線VLbとが交差する位置(3次元点)を注視点GP1に決定する。このように、端末装置10は、視線VLaと視線VLbとに基づいて注視点GP1に算出する。なお、上記は一例に過ぎず、端末装置10は、例えば視線VLaと視線VLbとが交差しない場合、視線VLaと視線VLbとが近接する位置を注視点GP1に決定してもよい。例えば、図3では説明のために、平面視した場合を示すが、3次元空間では、視線VLaと視線VLbとが高さ方向でずれており交差しない場合、視線VLaと視線VLbとにおいて最も近接する位置の中間点を注視点GP1に決定してもよい。このように、端末装置10は、注視点が決定できればどのような方法により注視点を決定してもよい。
For example, the
また、注視点の決定は、上記ように2つの視点からの撮影により注視点を決定する場合に限らない。例えば、端末装置10は、撮像対象の識別、奥行きの識別等の技術を適宜用いて自動的に設定してもよい。また、端末装置10は、例えば1つの視点からの撮影により注視点を決定してもよい。例えば、端末装置10は、撮影対象の接地面を認識して、注視点(の位置)を決定(算出)してもよい。例えば、端末装置10は、外部装置が提供する注視点決定ロジックを用いて注視点を決定してもよい。視線VLはカメラ70の光軸に沿う直線であってもよい。
Further, the determination of the gazing point is not limited to the case where the gazing point is determined by shooting from two viewpoints as described above. For example, the
端末装置10は、注視点GP1に基づいて、多視点画像に関する撮影を行うための複数の位置(視点)を決定する。この点について図4を用いて説明する。図4は、実施形態に係る多視点画像を生成するための撮影の一例を示す図である。
The
例えば、端末装置10は、設定された撮影する範囲や撮影を行う位置の数に基づいて、視点VP1〜VP9を決定(算出)する。例えば、端末装置10は、推定した撮影対象SB1とカメラ70との間の距離の情報を用いて、9個の視点VP1〜VP9を算出する。図4の例では、端末装置10は、設定された撮影する範囲(120°)や撮影を行う位置の数(9個)に基づいて、視点VP1〜VP9を決定する。例えば、端末装置10は、視点VP5を中心として、15°間隔で配置され、各視線VL1〜VL9が注視点GP1を通過する9個の視点VP1〜VP9を決定する。端末装置10は、既存の3次元空間情報処理技術や画像処理技術を適宜用いて、上述した注視点及び視点の決定等の処理を行う。
For example, the
なお、上記は一例に過ぎず、端末装置10は、注視点GP1に基づいて、設定された撮影する範囲と撮影を行う位置の数とを満たす位置(視点)が決定できれば、どのような方法により位置(視点)を決定してもよい。また、図4に示す撮影する範囲(120°)や撮影を行う位置の数(9個)は一例に過ぎず、撮影する範囲(角度)や撮影を行う位置の数(カット数)は任意の設定が可能である。例えば、撮影する範囲が90°であり、撮影を行う位置の数が5個であってもよい。また、各視点VP1〜VP9の位置は、撮影開始する前の注視点GP1と端末装置10との位置関係の変更に応じて変更されてもよい。また、端末装置10は、視差角度等のパラメータも設定で切り替え可能であってもよい。
The above is only an example, and the
ここで、上述した注視点GP1の決定や撮影を行う位置(視点)に関する端末装置10の表示について、図5を用いて説明する。図5は、実施形態に係る撮影時における表示の一例を示す図である。図5に示す表示画面DP1〜DP5は、端末装置10の画面(出力部50)の表示を示す。なお、図1〜図4で説明した点については適宜説明を省略する。
Here, the display of the
まず、表示画面DP1は図3での第1視点からの撮影を行う場合を示す。ユーザU1は表示画面DP1に示すように、撮影対象SB1の左斜め前側の視点VPaから、端末装置10のカメラ70aを撮影対象SB1に向け、表示画面DP1中の撮影対象SB1の中心をタップすることにより撮影対象SB1を撮影する。例えば、端末装置10は、ユーザU1がタップした位置とカメラ70a(視点VPa)とを通る直線を視線VLaとして算出する。表示画面DP1に示すように、「商品の中心をタップしてください」を表示することで、多視点画像を生成するために適切な画像を撮影することができる。
First, the display screen DP1 shows a case where shooting is performed from the first viewpoint in FIG. As shown on the display screen DP1, the user U1 points the
また、表示画面DP2は図3での第2視点からの撮影を行う場合を示す。ユーザU1は表示画面DP2に示すように、撮影対象SB1の左斜め前側の視点VPbから、端末装置10のカメラ70bを撮影対象SB1に向け、表示画面DP2中の撮影対象SB1の中心をタップすることにより撮影対象SB1を撮影する。例えば、端末装置10は、ユーザU1がタップした位置とカメラ70b(視点VPb)とを通る直線を視線VLbとして算出する。このように、ユーザU1は、第1位置から撮影対象SB1を撮影し、違う位置である第2位置から撮影対象SB1を撮影する。これにより、端末装置10は、第1位置及び第2位置の2つの視点からの撮影により取得した情報を用いて、注視点GP1を決定し、距離に応じたガイド表示を行う。例えば、端末装置10は、画像から奥行きを推定し、タップ位置の差から3次元的な注視点GP1を決定する。
Further, the display screen DP2 shows a case where shooting is performed from the second viewpoint in FIG. As shown on the display screen DP2, the user U1 points the
そして、端末装置10は、表示画面DP3に示すように、撮影する角度を指定するためのピンMK1と、透過性を有する撮影位置ガイドGD1を重畳表示する。例えば、端末装置10は、既存のAR(Augmented Reality)技術や画像処理技術を適宜用いて、撮影位置ガイドGD1等のオブジェクト(仮想オブジェクト)を、カメラ70の撮影領域の表示に重畳させて表示する。撮影位置ガイドGD1は、注視点GP1を中心として、図4で示した視点VP1〜VP9の各々が対応する9個の〇が円弧上に配置された扇状のガイドである。ユーザU1は、所望の位置に端末装置10を配置し、ピンMK1をタップして撮影する角度を指定する。
Then, as shown on the display screen DP3, the
表示画面DP4は撮影する角度が指定され、ピンMK1の表示がピンMK2に変更された場合を示す。図3での第2視点からの撮影を行う場合を示す。端末装置10は、撮影する角度が指定により、表示画面DP4に示すように、撮影位置ガイドGD2の向きを固定して表示する。
The display screen DP4 shows a case where the shooting angle is specified and the display of the pin MK1 is changed to the pin MK2. The case where the image is taken from the second viewpoint in FIG. 3 is shown. The
その後、端末装置10は、表示画面DP5に示すように、視点VP1〜VP9の各々に対応する位置ごとの撮影を開始する。ユーザU1は、各視点(位置)に端末装置10を配置して、視点(位置)ごとに撮影を行う。このように、端末装置10は、注視点の基準点を指定する前は、端末装置10の移動に応じて撮影位置ガイドGD1の向きも変動させ、指定後は、撮影位置ガイドGD2の向きを固定する。そして、端末装置10は、対応する視点で撮影が完了すると、白〇が黄色になる。カメラボタンの下の表示も変化させる。
After that, as shown in the display screen DP5, the
図5の例では、端末装置10は、撮影領域の中心部を示すオブジェクトOB1を表示する。また、端末装置10は、撮影の開始に応じて、ボタンBT1の表示をボタンBT2に変更する。図5の例では、端末装置10は、複数の位置のうち、撮影が完了した撮影完了位置と、撮影が未完了である撮影未完了位置とを識別可能に表示するゲージGG1を表示する。図5の例では、撮影対象SB1のかかと側の3つの位置(視点VP7〜VP9に対応)での撮影が完了していることを示す。また、端末装置10は、撮影位置ガイドGD3中の撮影対象SB1のかかと側の3つの位置(視点VP7〜VP9に対応)に対応する「〇」の色を他の「〇」の色を異なる色に変更する。なお、端末装置10は、撮影の開始に応じて、撮影位置ガイドGD3の透過度を撮影位置ガイドGD2よりも高くしてもよい。端末装置10は、既存の3次元空間情報処理技術や画像処理技術を適宜用いて、上述したガイドの表示等の処理を行う。
In the example of FIG. 5, the
〔1−4.画像の編集〕
撮影した画像については任意の編集が可能である。端末装置10は、撮影画像のうちクロップする範囲の指定を受け付け、指定された範囲のみの画像を生成してもよい。これにより、ユーザU1は、撮影後にクロップ範囲(商品が含まれている範囲、注視点の範囲)を抽出することができ、スムーズな多視点画像を作成できる。
[1-4. Image editing]
Arbitrary editing is possible for the captured image. The
なお、端末装置10は、撮影した各多視点画像を一列に並べ、カルーセル方式で結果を表示してもよい。端末装置10は、画面の下に表示されたバーを操作することで、画像の表示を切り替えて表示し、多視点画像を回転させてもよい。また、端末装置10は、画像ごとに編集を受け付けてもよい。端末装置10は、編集された画像を他の画像と区別可能に表示する。例えば、端末装置10は、編集された画像に白丸のアイコン等の任意のマークを付して表示することにより、他の画像と区別可能に表示する。
The
また、端末装置10は、色等を手動もしくは自動で補正可能であってもよい。端末装置10は、1枚ごとに画像の補正を受け付けてもよいし、全画像を対象とする補正を受け付けてもよい。これにより、例えば撮影時に逆光等により色味等が変わる場合であっても、適切に画像を補正し、多視点画像を生成することができる。また、端末装置10は、平均化技術を用いて、自動的に画像の補正を行ってもよい。また、端末装置10は、拡大縮小を手動もしくは自動で提供してもよい。
Further, the
〔1−5.多視点画像の生成〕
上述した処理により、端末装置10は、撮影画像である画像P11、画像P12、画像P13、画像P14、画像P15、画像P16、画像P17、画像P18、及び画像P19の9個の撮影画像を撮影する。端末装置10は、視点VP1に対応する位置において、画像P11を撮影する。端末装置10は、視点VP2に対応する位置において、画像P12を撮影する。同様に、端末装置10は、視点VP3〜VP9の各々対応する位置において、画像P13〜P19を撮影する。
[1-5. Multi-view image generation]
By the above-mentioned processing, the
これにより、端末装置10は、自由視点画像(多視点画像)を生成するための基となる画像P11〜P19を取得する。そして、端末装置10は、取得した画像P11〜P19に基づいて、多視点画像を生成する。具体的には、端末装置10は、取得した9個の画像P11〜P19に関して所定の校正(カメラキャリブレーション)を行うことにより、多視点画像を構成するための画像に変換するための適切なパラメータ(例えば、射影変換行列)を取得する。そして、端末装置10は、取得されたパラメータを用いて画像データ(画像P11〜P19)を射影変換する。そして、端末装置10は、射影変換された画像(画像RP11〜RP19)を連結することにより、複数の画像(画像RP11〜RP19)について滑らかに表示を遷移させることのできる自由視点画像(多視点画像)を生成するが、自由視点画像(多視点画像)の生成の点については、特許文献1と同様であるため詳細な説明は省略する。このように、端末装置10は、ユーザU1に撮影を行わせた後、視点を制御可能な自由視点画像(多視点画像)を生成する。
Thus, the
〔1−6.撮影の容易化〕
上述のような撮影により、自由視点画像(多視点画像)を生成することができるが、撮影するのは、手間がかかる。例えば、複数の画像を等間隔で撮影すること難しく、自由視点画像(多視点画像)を生成するための画像の撮影を容易にすることが望まれている。そこで、端末装置10は、以下のような撮影をガイドするためのモデルを提供する。この点について図6及び図7を用いて説明する。図6は、実施形態に係る3Dモデルの配置の一例を示す図である。図7は、実施形態に係る3Dモデルの表示の一例を示す図である。なお、図1〜図5と同様の点については適宜説明を省略する。
[1-6. Facilitating shooting]
A free-viewpoint image (multi-viewpoint image) can be generated by shooting as described above, but shooting is time-consuming. For example, it is difficult to take a plurality of images at equal intervals, and it is desired to facilitate taking an image for generating a free-viewpoint image (multi-viewpoint image). Therefore, the
図6に示すように、端末装置10は、撮影位置と撮影方向とを示す3Dモデル(3次元モデル)であるモデルMDを表示する。例えば、端末装置10は、既存のAR技術や画像処理技術を適宜用いて、モデルMD等のオブジェクト(仮想オブジェクト)を、カメラ70の撮影領域の表示に重畳させて表示する。詳細は後述するが、端末装置10は、撮影対象SB1とカメラ70との間に配置されるモデルMDを表示する。例えば、端末装置10は、注視点に対する角度と距離とが、所定の条件を満たすように配置したモデルMDを表示する。
As shown in FIG. 6, the
図7は、端末装置10におけるモデルMDの表示例を示す。なお、モデルMDの表示態様は、図7に示す態様に限らず、ユーザに所定の視点での撮影位置及び撮影方向を認識させることができれば、どのような表示態様であってもよい。図7の例では、端末装置10に「1/13」と表示されており、13個の視点のうち、1個の視点での撮影が完了し、残り12個の視点での撮影が未完了であることを示す。
FIG. 7 shows a display example of the model MD in the
図7では、端末装置10に表示された撮影位置ガイドGDの円弧上の丸(図7には5個を図示)のうち、右端の丸(〇)に対応する視点での撮影が完了しているものとする。端末装置10は、撮影が未完了である12個の視点のうち、右端から2つ目の丸(〇)に対応する視点での撮影位置及び撮影方向を示すモデルMD(図7中の黒枠)を表示する。例えば、端末装置10は、注視点GP1に応じたガイド用のアイコンである撮影位置ガイドGDと重ね合わせるように、モデルMDを表示する。なお、図7に示す表示は一例に過ぎず、端末装置10は、既存の3次元空間情報処理技術や画像処理技術を適宜用いて、上述したモデルMDの表示等の処理を行う。
In FIG. 7, among the circles on the arc of the shooting position guide GD displayed on the terminal device 10 (five are shown in FIG. 7), shooting from the viewpoint corresponding to the rightmost circle (◯) is completed. And. The
ユーザU1は、オブジェクトOB(図7中の白抜きの枠)をモデルMDに合わせることにより、撮影位置ガイドGDの右端の〇に対応する視点での撮影を行う。例えば、端末装置10は、オブジェクトOBとモデルMDとの重なりに応じて撮影を行う。端末装置10は、オブジェクトOBとモデルMDとが重なる範囲が所定の閾値以上である場合、条件を満たすと判定して、撮影を実行する。例えば、端末装置10は、指定された時間等の所定時間内に、オブジェクトOB等の2DガイドとモデルMD等の3Dモデルがある閾値以上で重畳していた場合に撮影を行う。これにより、端末装置10は、撮影時の手振れを抑制することができる。なお、端末装置10は、オブジェクトOB等の2DガイドとモデルMD等の3Dモデルとが重なっていない範囲を判定に用いる場合、オブジェクトOB等の2DガイドとモデルMD等の3Dモデルがある閾値以下で重畳していた場合に撮影を行ってもよい。例えば、端末装置10は、モデルMD等の3Dモデルのうち、オブジェクトOB等の2Dガイドと重なっていない範囲が閾値以下である場合に撮影を行ってもよい。このように、閾値は判定に用いる情報に応じて適宜設定されてもよい。例えば、端末装置10は、オブジェクトOBとモデルMDとが一致すると、表示したり、バイブレーションで通知したりしてもよい。なお、端末装置10は、モデルMDを表示する位置にある程度遊び(誤差)を持たせてもよく、緩い閾値を用いてもよい。そして、端末装置10は、(自動で)撮影した後、撮影した画像を補正する。例えば、端末装置10は、モデルMDの表示の遊び(誤差)に応じて、撮影した画像を補正する。
By aligning the object OB (white frame in FIG. 7) with the model MD, the user U1 shoots at the viewpoint corresponding to ◯ at the right end of the shooting position guide GD. For example, the
上述のように、端末装置10は、オブジェクトOB等の2DガイドとモデルMD等の3Dモデルの重なりに応じて撮影を行うことにより、撮影時の手振れを抑制することができる。また、端末装置10は、上述したモデルのようなガイドを表示することで、自由視点画像(多視点画像)を生成するための画像の撮影を容易にすることができる。このように、端末装置10は、空間に浮かせたAR(拡張現実)の態様でガイドであるモデルMDを表示する。これにより、端末装置10は、ユーザU1に撮影位置や距離等を認識させるようにモデルMDを表示させることで、ユーザU1の手振れも抑制することができる。
As described above, the
〔1−7.撮影対象について〕
図1の例では、取引対象である靴Aを撮影対象とする場合を示したが、撮影対象となる被写体は、取引対象に限らず、例えば人や風景等であってもよい。
[1-7. About the shooting target]
In the example of FIG. 1, the case where the shoe A, which is the transaction target, is the subject of photography is shown, but the subject to be photographed is not limited to the transaction target, and may be, for example, a person or a landscape.
〔1−8.生成対象について〕
上述した例では、多視点画像を生成する場合を示したが、生成する対象は多視点画像に限らず、端末装置10は、撮影対象の3次元モデル(3Dモデル)を生成してもよい。例えば、端末装置10は、撮影画像を基に、撮影対象SB1である靴Aの3次元モデル(3Dモデル)を生成してもよい。
[1-8. About the generation target]
In the above-mentioned example, the case of generating a multi-viewpoint image is shown, but the target to be generated is not limited to the multi-viewpoint image, and the
〔2.機能構成の一例〕
以下、上記した各処理を実行するため、端末装置10およびサービス提供装置100が有する機能構成の一例について説明する。
[2. Example of functional configuration]
Hereinafter, an example of the functional configuration of the
〔2−1.端末装置が有する機能構成の一例〕
まず、図8を用いて、端末装置10が有する機能構成の一例について説明する。図8は、実施形態に係る端末装置が有する機能構成の一例を説明する図である。図8に示すように、端末装置10は、通信部20、記憶部30、入力部40、出力部50、物理センサ60、カメラ70、および制御部80を有する。
[2-1. An example of the functional configuration of a terminal device]
First, an example of the functional configuration of the
(通信部20)
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、サービス提供装置100との間で情報の送受信を行う。なお、通信部20は、各種のコンテンツを配信する配信サーバと通信可能であってもよい。
(Communication unit 20)
The
(記憶部30)
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部30は、取引対象情報記憶部31を有する。なお、記憶部30は、取引対象情報記憶部31に限らず、様々な情報を記憶する。記憶部30は、撮影位置ガイドや3Dモデル(モデルMD)等を表示するために用いる情報を記憶する。記憶部30は、第2アプリケーションで表示する取引対象に関する各種情報を記憶する。例えば、記憶部30は、サービス提供装置100から提供される取引対象の情報を記憶する。
(Memory unit 30)
The
(取引対象情報記憶部31)
取引対象情報記憶部31は、取引対象に関する情報を記憶する。図11は、実施形態に係る取引対象情報記憶部の一例を示す図である。図11に示した例では、取引対象情報記憶部31は、「取引対象ID」、「取引対象」、「対象関連情報」、「多視点画像ID」、「多視点画像情報」といった項目を有する。
(Transaction target information storage unit 31)
The transaction target
「取引対象ID」は、取引対象を識別する識別情報を示す。「取引対象」は、取引対象を名称等、例えば商品名やサービス名(役務名)を特定するための情報を示す。なお、取引対象情報記憶部31は、取引対象IDに対応付けて、その取引対象のカテゴリを示す情報を記憶してもよい。例えば、取引対象情報記憶部31は、「靴」や「ヘアカット」等、商品やサービス等の取引対象のカテゴリを示す情報を記憶してもよい。
The “transaction target ID” indicates identification information for identifying the transaction target. The "transaction target" indicates information for specifying a transaction target such as a name, for example, a product name or a service name (service name). The transaction target
「対象関連情報」は、「取引対象ID」に対応付けられた取引対象の説明に関する情報である。例えば、対象関連情報には、取引対象を出品する場合、取引対象を出品するために必要な各種の情報(出品情報)が含まれる。対象関連情報には、例えば、取引対象の内容を説明する文字情報、価格、送料、在庫数等、取引対象に関連する各種の情報が含まれる。なお、名称や対象関連情報等の情報は、ユーザが入力してもよいし、端末装置10が外部装置から取得してもよい。
The "target-related information" is information related to the description of the transaction target associated with the "transaction target ID". For example, the target-related information includes various information (exhibition information) necessary for listing a transaction target when listing the transaction target. The target-related information includes, for example, various information related to the transaction target, such as text information explaining the content of the transaction target, price, shipping fee, and inventory quantity. Information such as a name and target-related information may be input by the user, or may be acquired by the
「多視点画像ID」は、対応する取引対象を撮影対象(被写体)として撮影した多視点画像(自由視点画像)の識別情報を示す。「多視点画像情報」は、「撮影画像データ」、「校正データ」、「変換後画像データ」といった項目を有し、多視点画像に関連する情報が記憶される。 The "multi-viewpoint image ID" indicates identification information of a multi-viewpoint image (free-viewpoint image) taken with the corresponding transaction target as a shooting target (subject). The "multi-viewpoint image information" has items such as "captured image data", "calibration data", and "converted image data", and information related to the multi-viewpoint image is stored.
「撮影画像データ」は、多視点画像の生成元となった画像データを示す。例えば「撮影画像データ」は、ユーザが第1アプリケーションによるガイドに従って、端末装置10により撮影した複数の画像データが記憶される。多視点画像は複数の画像データから生成されるため、撮影画像データは、一つの多視点画像に対して複数記憶される。
The “captured image data” indicates the image data that is the source of the multi-viewpoint image. For example, in the "captured image data", a plurality of image data captured by the
「校正データ」は、多視点画像を生成するための所定の校正データ(カメラキャリブレーション)を示す。図11では、校正データを「R11」のような概念で示す。校正データには、端末装置10が多視点画像を構成する画像を取得するために、撮影画像データを適切に射影変換するための種々のデータが含まれる。例えば、校正データには、画像を撮影した端末装置10のカメラ70(撮像装置)のカメラパラメータが含まれる。例えば、校正データには、カメラ70の焦点距離や、カメラ70によって生成される画像のアスペクト比及びスキュー等、多視点画像の生成に必要な各種のカメラパラメータが含まれる。
“Calibration data” indicates predetermined calibration data (camera calibration) for generating a multi-viewpoint image. In FIG. 11, the calibration data is shown by a concept such as “R1 1”. The calibration data includes various data for appropriately projecting and transforming the captured image data in order for the
「変換後画像データ」は、多視点画像を構成する画像データを示す。変換後画像データは、例えば、撮影画像データに対して所定の校正を行い、射影変換された後の画像データを示す。 "Converted image data" indicates image data constituting a multi-viewpoint image. The converted image data indicates, for example, the image data after the captured image data is subjected to predetermined calibration and the projection conversion is performed.
図11では、取引対象ID「SB1」で識別される取引対象(取引対象SB1)は、靴Aであることを示す。取引対象SB1の対象関連情報は、対象関連情報INF1であることを示す。例えば、対象関連情報INF1には、靴Aである取引対象SB1の内容を説明する文字情報、価格、送料、在庫数等、取引対象SB1に関連する各種の情報が含まれる。 In FIG. 11, it is shown that the transaction target (transaction target SB1) identified by the transaction target ID “SB1” is the shoe A. The target-related information of the transaction target SB1 indicates that it is the target-related information INF1. For example, the target-related information INF1 includes various information related to the transaction target SB1, such as text information explaining the contents of the transaction target SB1 which is the shoe A, a price, a shipping fee, and the number of stocks.
また、取引対象SB1である靴Aの多視点画像は、多視点画像ID「FV1」で識別される多視点画像(多視点画像FV1)であることを示す。 Further, it is shown that the multi-viewpoint image of the shoe A, which is the transaction target SB1, is a multi-viewpoint image (multi-viewpoint image FV1) identified by the multi-viewpoint image ID “FV1”.
多視点画像FV1は、撮影画像データが「P11」〜「P19」の9個の画像であることを示す。多視点画像FV1を生成するために、撮影画像である画像P11、画像P12、画像P13、画像P14、画像P15、画像P16、画像P17、画像P18、及び画像P19の9個の撮影画像が用いられることを示す。 The multi-viewpoint image FV1 indicates that the captured image data is nine images of "P1 1 " to "P1 9". In order to generate the multi-viewpoint image FV1, the captured images P1 1 , image P1 2 , image P1 3 , image P1 4 , image P1 5 , image P1 6 , image P1 7 , image P1 8 and image P1 9 are taken. It is shown that the nine captured images of the above are used.
また、多視点画像FV1において、画像P11〜画像P19の9個の画像の各々の校正データは「R11」〜「R19」であることを示す。例えば、画像P11の校正データは校正データR11であることを示す。 Further, in the multi-viewpoint image FV1, it is shown that the calibration data of each of the nine images of the images P1 1 to P1 9 are "R1 1 " to "R1 9". For example, it is shown that the calibration data of the image P1 1 is the calibration data R1 1.
多視点画像FV1は、変換後画像データが「RP11」〜「RP19」の9個の画像であることを示す。例えば、変換後画像である画像RP11は、画像P11を校正データR11により変換された画像であることを示す。多視点画像FV1は、画像RP11、画像RP12、画像RP13、画像RP14、画像RP15、画像RP16、画像RP17、画像RP18、及び画像RP19の9個の変換後画像により構成されることを示す。 The multi-viewpoint image FV1 indicates that the converted image data is nine images of "RP1 1 " to "RP1 9". For example, the image RP1 1 is converted images show that the transformed image the image P1 1 by the calibration data R1 1. The multi-viewpoint image FV1 is composed of nine converted images of image RP1 1 , image RP1 2 , image RP1 3 , image RP1 4 , image RP1 5 , image RP1 6 , image RP1 7 , image RP1 8 and image RP1 9. Indicates that it is configured.
すなわち、多視点画像FV1は、画像RP11、RP12、RP13、RP14、RP15、RP16、RP17、RP18、RP19の順で時系列に沿う9個の画像により構成されることを示す。例えば、多視点画像FV1においては、画像RP11、RP12、RP13、RP14、RP15、RP16、RP17、RP18、RP19の順で1〜9の番号が付される。例えば、多視点画像FV1は、JPEG(Joint Photographic Experts Group)等の形式の9個の画像RP11〜RP19により構成される。なお、多視点画像FV1は、画像RP11〜RP19による自由視点画像(多視点画像数)を提供可能であれば、APNG(Animated Portable Network Graphics)等の形式であってもよい。
That is, the multi-viewpoint image FV1 is composed of nine images in the order of images RP1 1 , RP1 2 , RP1 3 , RP1 4 , RP1 5 , RP1 6 , RP1 7 , RP1 8 and RP1 9. Show that. For example, in the multi-viewpoint image FV1, the images RP1 1 , RP1 2 , RP1 3 , RP1 4 , RP1 5 , RP1 6 , RP1 7 , RP1 8 and RP1 9 are numbered 1 to 9 in this order. For example, the multi-viewpoint image FV1 is composed of nine images RP1 1 to RP1 9 in a format such as JPEG (Joint Photographic Experts Group). Note that the multi-viewpoint image FV1, the
なお、取引対象情報記憶部31は、上記に限らず、目的に応じて種々の情報を記憶してもよい。取引対象情報記憶部31は、多視点画像の初期表示に対応する画像(初期表示画像)を記憶してもよい。例えば、取引対象情報記憶部31は、多視点画像FV1の初期表示画像として、画像RP11を記憶する。
The transaction target
また、取引対象情報記憶部31は、各多視点画像の生成に用いる各種情報を対応する多視点画像IDに対応付けて記憶してもよい。例えば、取引対象情報記憶部31は、多視点画像IDに対応付けて、その多視点画像を生成する際に用いた注視点に関する情報を記憶する。例えば、取引対象情報記憶部31は、多視点画像FV1に対応付けて注視点GP1を示す情報を記憶する。
Further, the transaction target
また、例えば、取引対象情報記憶部31は、多視点画像IDに対応付けて、その多視点画像を撮影するための複数の位置を示す情報を記憶する。例えば、取引対象情報記憶部31は、多視点画像FV1に対応付けて視点VP1〜VP9の各々の位置を示す情報を記憶する。
Further, for example, the transaction target
(入力部40)
入力部40は、利用者から各種操作を受け付ける入力装置である。入力部40は、タッチパネル機能により表示面を介してユーザからの各種操作を受け付ける。例えば、入力部40は、タッチパネルの機能によりユーザの操作を受け付ける受付部として機能する。また、入力部40は、端末装置10に設けられたボタンや、端末装置10に接続されたキーボードやマウスからの各種操作を受け付けてもよい。
(Input unit 40)
The
例えば、入力部40は、端末装置10の画面(出力部50)を介してユーザの指定操作等の操作を受け付ける。なお、入力部40によるユーザの操作の検知方式には、タブレット端末では主に静電容量方式が採用されるが、他の検知方式である抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式など、ユーザの操作を検知できタッチパネルの機能が実現できればどのような方式を採用してもよい。
For example, the
(出力部50)
出力部50は、各種情報を表示するための表示装置であり、すなわち、画面である。例えば、出力部50は、液晶ディスプレイ等によって実現される。なお、端末装置10にタッチパネルが採用される場合には、入力部40と出力部50とは一体化される。出力部50を画面と記載する場合がある。
(Output unit 50)
The
(物理センサ60)
物理センサ60は、端末装置10の物理的な状態を検知するセンサである。例えば、物理センサ60は、端末装置10の3軸方向の傾きを測定するジャイロセンサである。なお、物理センサ60は、ジャイロセンサに限定されるものではなく、例えば、加速度センサ、温度センサ、音量センサ、明度センサ等、任意のセンサが適用可能である。
(Physical sensor 60)
The
(カメラ70)
カメラ70は、画像(動画或いは静止画)を撮像するための撮像装置である。カメラ70は、例えば、CCD(Charged-coupled devices)センサやCMOS(Complementary metal-oxide-semiconductor)センサ等の撮像素子により構成される。なお、カメラ70は、端末装置10の背面側(画面が設置された面の反対側の面)に設置されるメインカメラと、端末装置10の背面側(画面が設置された面)に設置されるサブカメラとにより構成されていてもよい。
(Camera 70)
The
(制御部80)
制御部80は、例えば、コントローラ(controller)であり、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置10内部の記憶装置に記憶されている各種プログラム(送信プログラム、提供プログラム、表示プログラム等の一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部80は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 80)
The
図8に示す例では、制御部80は、第1アプリケーション81や第2アプリケーション82を実行することで、上述した第1表示処理や第2表示処理を実現するための機能構成を有することとなる。なお、制御部80は、例えば、端末装置10のOS(Operating System)となるアプリケーションや、各種操作の受付を実現するためのアプリケーション等、任意のアプリケーションを他にも実行していてよい。また、第1アプリケーション81と第2アプリケーション82とは一体であり、1つのアプリケーションであってもよい。例えば、第1アプリケーション81及び第2アプリケーション82は、オークションアプリ等の電子商取引の利用に用いられるアプリケーションに組込まれたアプリケーションであってもよい。
In the example shown in FIG. 8, the
(第1アプリケーション81)
第1アプリケーション81は、上述した送信処理や情報処理を端末装置10に実行させる。第1アプリケーション81は、多視点画像の生成や送信に用いられるアプリケーションである。例えば、図9は、実施形態に係る第1アプリケーションが実現する機能構成の一例を示す図である。図9に示すように、第1アプリケーション81は、第1取得部811、第1表示部812、判定部813、撮影部814、生成部815および、送信部816を実現する。
(First application 81)
The
第1取得部811は、記憶部30から各種情報を取得する。第1取得部811は、取引対象情報記憶部31から各種情報を取得する。第1取得部811は、サービス提供装置100等の外部装置から各種情報を受信する。第1取得部811は、撮影対象に関する撮影対象情報を取得する。
The first acquisition unit 811 acquires various information from the
第1取得部811は、取引対象を異なる視点で撮像した多視点画像を取得する。第1取得部811は、出品物である取引対象を異なる視点で撮像した多視点画像を取得する。第1取得部811は、取引対象情報記憶部31から多視点画像を取得する。第1取得部811は、自由視点画像(多視点画像)を生成するための基となる画像P11〜P19を取得する。
The first acquisition unit 811 acquires multi-viewpoint images obtained by capturing the transaction target from different viewpoints. The first acquisition unit 811 acquires a multi-viewpoint image obtained by capturing a transaction target, which is an exhibit, from different viewpoints. The first acquisition unit 811 acquires a multi-viewpoint image from the transaction target
第1表示部812は、出力部50(液晶ディスプレイ等)により各種情報を表示する。第1表示部812は、出力部50に各種情報を表示する。第1表示部812は、出力部50を制御し、情報を表示する処理を実行する。
The
第1表示部812は、撮影対象の多視点画像に関する撮影を行うための撮影位置と撮影方向とを示す3Dモデルを提供する提供部として機能する。なお、3Dモデルの提供が他の装置への送信である場合、送信部816が提供部として機能してもよい。
The
第1表示部812は、多視点画像に関する撮影を行うためのガイドを表示する。第1表示部812は、撮影位置と撮影方向とを示す3Dモデルを含むガイドを表示する。第1表示部812は、3Dモデルを端末装置10の画面に表示する。第1表示部812は、撮影対象を含む撮影領域を表示する端末装置の画面に3Dモデルを重畳表示する。第1表示部812は、取引対象を含む撮影領域を表示する端末装置の画面に3Dモデルを重畳表示する。
The
第1表示部812は、撮影領域の中心部を示すオブジェクトを表示する。第1表示部812は、撮影対象を撮影する視点と撮影対象における注視点との間に配置される3Dモデルを表示する。第1表示部812は、視点からの視線に基づいて決定される注視点と、端末装置との間に配置される3Dモデルを表示する。第1表示部812は、第1視点からの第1視線、及び第2視点からの第2視線に基づいて決定される注視点と、端末装置との間に配置される3Dモデルを表示する。
The
第1表示部812は、取引対象における注視点に基づいて多視点画像を撮影するための複数の位置を示す撮影位置ガイドを表示する。第1表示部812は、注視点を中心とする扇の形状である撮影位置ガイドを表示する。第1表示部812は、複数の位置の各々が扇の円弧上に配置される撮影位置ガイドを表示する。第1表示部812は、複数の位置のうち一端側の第1位置と注視点とを結ぶ第1半径と、複数の位置のうち他端側の第2位置と注視点とを結ぶ第2半径と、がなす角を中心とする扇の形状である撮影位置ガイドを表示する。例えば、第1表示部812は、注視点GP1を中心として下方向に円弧を向けて撮影位置ガイドGD1を表示する。
The
第1表示部812は、取引対象を含む撮影領域を表示する端末装置の画面に、透過性を有する撮影位置ガイドを重畳表示する。第1表示部812は、複数の位置のうち、撮影が完了した撮影完了位置と、撮影が未完了である撮影未完了位置とを識別可能に表示する。
The
第1表示部812は、上述した表示に必要な各種の演算処理等を行う。例えば、第1表示部812は、注視点を決定する。第1表示部812は、各種情報を用いて、注視点を算出する。第1表示部812は、視点からの視線に基づいて注視点を決定する。
The
第1表示部812は、複数の視点から視線の情報に基づいて注視点を決定する。第1表示部812は、2つの視点から視線の情報に基づいて注視点を決定する。例えば、第1表示部812は、第1視点からの第1視線、及び第2視点からの第2視線に基づいて注視点を決定する。
The
なお、第1表示部812は、上記に限らず、様々な情報を用いて注視点を算出してもよい。例えば、第1表示部812は、1つの視点から視線の情報と平面の情報とに基づいて注視点を決定してもよい。第1表示部812は、1つの視点から視線の情報と、取引対象等の撮影対象が載置された面の情報とに基づいて注視点を決定してもよい。
The
第1表示部812は、注視点GP1に基づいて、多視点画像に関する撮影を行うための複数の位置(視点)を決定する。第1表示部812は、設定された撮影する範囲や撮影を行う位置の数に基づいて、視点VP1〜VP9を決定(算出)する。第1表示部812は、設定された撮影する範囲(120°)や撮影を行う位置の数(9個)に基づいて、視点VP1〜VP9を決定する。
The
例えば、第1表示部812は、推定した撮影対象SB1とカメラ70との間の距離の情報を用いて、9個の視点VP1〜VP9を算出する。第1表示部812は、注視点GP1とカメラ70bとの間の距離(「距離Db」とする)を、注視点GP1と視点VP1〜VP9との間の距離とする。第1表示部812は、注視点GP1から距離Dbの位置に視点VP1〜VP9を配置する。なお、上記は一例に過ぎず、注視点GP1と視点VP1〜VP9との間の距離は種々の情報を用いて適宜決定されてもよい。例えば、第1表示部812は、注視点GP1とカメラ70aとの間の距離を用いて、注視点GP1と視点VP1〜VP9との間の距離を決定してもよい。
For example, the
また、例えば、第1表示部812は、視点VPbの位置を視点VP5の位置に決定する。第1表示部812は、視点VP5を中心として、所定の平面に沿って15°間隔で配置され、各視線VL1〜VL9が注視点GP1を通過する9個の視点VP1〜VP9を決定する。
Further, for example, the
例えば、第1表示部812は、カメラ70bの姿勢に対応する平面上に、視点VP5を中心として15°間隔で9個の視点VP1〜VP9を配置してもよい。例えば、第1表示部812は、視点VPbを通り高さ方向に交差する(地平面に沿う)平面上に、視点VP5を中心として15°間隔で9個の視点VP1〜VP9を配置してもよい。なお、上記は一例に過ぎず、9個の視点VP1〜VP9の配置は種々の情報を用いて適宜決定されてもよい。例えば、第1表示部812は、視点VPaと視点VPbとを通る平面上に9個の視点VP1〜VP9を配置してもよい。
For example, the
第1表示部812は、注視点GP1の位置及び9個の視点VP1〜VP9の位置の情報を用いて、注視点GP1を中心として、視点VP5を円弧の中央とする扇状の撮影位置ガイドGD1を表示する。第1表示部812は、注視点GP1を中心として、注視点GP1と視点VP1とを結ぶ線分と、注視点GP1と視点VP2とを結ぶ線分とを半径とする扇状の撮影位置ガイドGD1を表示する。
The
第1表示部812は、撮影位置と撮影方向とを示す3DモデルであるモデルMDを表示する。第1表示部812は、注視点GP1とカメラ70との間に配置され、9個の視点VP1〜VP9のうちいずれかの視点での撮影位置と撮影方向とを示すモデルMDを表示する。
The
第1表示部812は、9個の視点VP1〜VP9のうち撮影が未完了である視点での撮影位置と撮影方向とを示すモデルMDを表示する。第1表示部812は、9個の視点VP1〜VP9の各々が撮影完了であるか否かの情報を管理し、撮影が未完了の視点での撮影位置と撮影方向とを示すモデルMDを表示する。
The
図4を例に説明すると、第1表示部812は、例えば、撮影が未完了である視点VP9での撮影位置と撮影方向とを示すモデルMDを表示する。第1表示部812は、注視点GP1と視点VP9との間の位置にモデルMDを配置する。
Taking FIG. 4 as an example, the
第1表示部812は、視点VP9での撮影が完了した場合、視点VP9以外の撮影が未完了の視点での撮影位置と撮影方向とを示すように、モデルMDの表示を変更する。例えば、第1表示部812は、視点VP9での撮影が完了した場合、視点VP9に隣接する視点であって、撮影が未完了の視点VP8での撮影位置と撮影方向とを示すように、モデルMDの表示を変更する。この場合、第1表示部812は、視点VP8での撮影位置と撮影方向とを示すモデルMDを表示する。第1表示部812は、注視点GP1と視点VP8との間の位置にモデルMDを配置する。
When the shooting at the viewpoint VP 9 is completed, the
また、第1表示部812は、視点VP8での撮影が完了した場合、視点VP8以外の撮影が未完了の視点での撮影位置と撮影方向とを示すように、モデルMDの表示を変更する。例えば、第1表示部812は、視点VP8での撮影が完了した場合、視点VP8に隣接する視点であって、撮影が未完了の視点VP7での撮影位置と撮影方向とを示すように、モデルMDの表示を変更する。この場合、第1表示部812は、視点VP7での撮影位置と撮影方向とを示すモデルMDを表示する。第1表示部812は、注視点GP1と視点VP7との間の位置にモデルMDを配置する。第1表示部812は、9個の視点VP1〜VP9の全てが撮影完了になるまで、影が未完了の視点での撮影位置と撮影方向とを示すようにモデルMDを表示する。
Further, when the shooting at the viewpoint VP 8 is completed, the
なお、上記は一例に過ぎず、第1表示部812は、所望の態様により、撮影位置と撮影方向とを示すモデルMDを表示してもよい。
The above is only an example, and the
判定部813は、各種の判定処理を行う。判定部813は、撮影を行うか否かの判定を行う。判定部813は、各対象物の位置を示す情報を用いて、撮影を行うか否かの判定を行う。判定部813は、撮影を行うか否かの判定用の閾値を用いて、撮影を行うか否かの判定を行う。
The
判定部813は、端末装置10の撮影領域の中心部と、3Dモデルとの重なりを判定する。判定部813は、オブジェクトが示す中心部と3Dモデルとの重なりを判定する。判定部813は、中心部と3Dモデルとが重なる範囲が所定の閾値以上である場合、所定の条件を満たすと判定する。例えば、判定部813は、バックプロジェクション等の画像処理の技術を用いて、判定を行う。例えば、判定部813は、バックプロジェクションの技術を用いて、3Dモデルがどこにあるかを特定し、オブジェクトが示す中心部と3Dモデルとの重なりを判定する。
The
撮影部814は、カメラ70を制御し、画像を撮影する処理を実行する。撮影部814は、判定部813により中心部と3Dモデルとの重なりが所定の条件を満たすと判定した場合、撮影を行う。例えば、撮影部814は、指定された時間等の所定時間内に、オブジェクトOB等の2DガイドとモデルMD等の3Dモデルがある閾値以上で重畳していた場合に撮影を行う。また、撮影部814は、オブジェクトOB等の2DガイドとモデルMD等の3Dモデルとが重なっていない範囲を判定に用いる場合、オブジェクトOB等の2DガイドとモデルMD等の3Dモデルがある閾値以下で重畳していた場合にのみ撮影を行ってもよい。
The shooting unit 814 controls the
生成部815は、自由視点画像(多視点画像)を生成する。生成部815は、撮影画像(元画像データ)に所定の変換処理を行うことにより、自由視点画像(多視点画像)を生成する。生成部815は、多視点から撮像された複数の画像を、3次元位置のある一点で各撮像装置(カメラ)の光軸が重なった状態で撮影されたかのような画像である自由視点画像(多視点画像)へ変換するため、射影変換行列を導出する。この場合、生成部815は、各画像を撮像する撮像装置のパラメータとして、カメラ70の位置姿勢を含むカメラパラメータを参照する。
The
生成部815は、第1取得部811により取得された画像P11〜P19に基づいて、自由視点画像(多視点画像)を生成する。生成部815は、9個の画像P11〜P19に関して所定の校正(カメラキャリブレーション)を行うことにより、多視点画像を構成するための画像に変換するための適切なパラメータ(例えば、射影変換行列)を生成する。例えば、生成部815は、カメラ70のパラメータ(カメラパラメータ)を用いて画像P11〜P19を射影変換する。例えば、生成部815は、校正データR11〜R19を用いて、画像P11〜P19を射影変換する。そして、生成部815は、射影変換された画像RP11〜RP19を連結することにより、複数の画像RP11〜RP19について滑らかに表示を遷移させることのできる自由視点画像(多視点画像)を生成する。
なお、端末装置10は、外部装置により生成された自由視点画像(多視点画像)を取得してもよい。例えば、端末装置10は、自由視点画像(多視点画像)を生成する外部装置(生成装置)に、画像P11〜P19及び校正データR11〜R19を送信部816により送信し、生成装置により生成された画像RP11〜RP19を第1取得部811により受信してもよい。この場合、第1アプリケーション81には、生成部815は含まれなくてもよい。
The
送信部816は、サービス提供装置100等の外部装置に各種情報を送信する。送信部816は、取引対象の情報を配信するサービスを提供するサービス提供装置100に、取引対象に関連する対象関連情報とともに、多視点画像を送信する。送信部816は、取引対象の売買に関するサービスを提供するサービス提供装置に、取引対象の対象関連情報とともに、多視点画像を送信する。
The
送信部816は、取引対象の出品に関するサービスを提供するサービス提供装置に、取引対象の対象関連情報とともに、多視点画像を送信する。送信部816は、取引対象の出品に関するサービスを提供するサービス提供装置に、取引対象の対象関連情報とともに、多視点画像を送信する。送信部816は、取引対象の出品サービスを提供するサービス提供装置に、出品物である取引対象の出品情報である対象関連情報とともに、多視点画像を送信する。例えば、送信部816が提供部として機能する場合、送信部816は、3Dモデルをサービス提供装置100等の外部装置へ送信する。
The
(第2アプリケーション82)
第2アプリケーション82は、上述した表示処理を端末装置10に実行させる。第2アプリケーション82は、多視点画像等のコンテンツの表示に用いられるアプリケーションである。例えば、図10は、実施形態に係る第2アプリケーションが実現する機能構成の一例を示す図である。図10に示すように、第2アプリケーション82は、第2取得部821、第2表示部822、および受付部823を実現する。
(Second application 82)
The
第2取得部821は、記憶部30から各種情報を取得する。第2取得部821は、取引対象情報記憶部31から各種情報を取得する。第2取得部821は、サービス提供装置100等の外部装置から各種情報を受信する。第2取得部821は、サービス提供装置100から提供(配信)される情報を受信する。例えば、第2取得部821は、多視点画像を含む画像群を取引対象の情報として受信する。
The
第2取得部821は、サービス提供装置100から提供される取引対象の情報を受信し、記憶部30に格納する。なお、第2アプリケーション82は、取引対象の情報を記憶部30に記憶しない場合、第2アプリケーション82内で取引対象の情報を参照可能に管理してもよい。
The
第2取得部821は、撮影対象を異なる視点で撮像した多視点画像である第1画像と、第1画像とは異なる第2画像とを含む画像群を取得する。第2取得部821は、記憶部30から画像群を取得する。
The
第2表示部822は、出力部50(液晶ディスプレイ等)により各種情報を表示する。第2表示部822は、出力部50に各種情報を表示する。第2表示部822は、出力部50を制御し、情報を表示する処理を実行する。
The
第2表示部822は、後述する表示に必要な各種の演算処理等を行う。第2表示部822は、端末装置10を利用するユーザによる端末装置10の画面における画像群の表示を切り替える操作に応じて、第1画像に含まれる画像を切り替えて端末装置10の画面に表示する。第2表示部822は、画像群中の画像ごとに表示される第1表示態様での表示時の操作に応じて、第1画像に含まれる画像を切り替えて端末装置10の画面に表示する。
The
第2表示部822は、操作に応じて、第1画像に含まれる各画像の順序に沿って表示する。第2表示部822は、操作に応じて、第1画像が撮影された時系列に沿って画像ごとに表示する。第2表示部822は、第1画像と第2画像とを並べて一覧表示する第2表示態様で画像群を表示し、第2表示態様で表示された一の画像が指定された場合、第2表示態様から、一の画像を表示する第1表示態様に切り替える。
The
第2表示部822は、第2表示態様において、第1画像のうち所定の画像を、第1画像を示す画像として表示する。第2表示部822は、第2表示態様において、第1画像のうち順序が最初の画像を表示する。
In the second display mode, the
第2表示部822は、受付部823により受け付けたユーザの操作に応じて、第1画像に含まれる画像を切り替えて表示する。第2表示部822は、接触位置の移動に応じて、第1画像に含まれる画像を切り替えて端末装置10の画面に表示する。第2表示部822は、接触位置の所定の方向への移動に応じて、第1画像が撮影された時系列に沿って画像ごとに表示する。
The
第2表示部822は、第1画像のうち順序が最後の画像の表示時において、接触位置の所定の方向への移動に応じて、第1画像の次の順序の第2画像を表示する。第2表示部822は、接触位置の所定の方向とは逆方向への移動に応じて、第1画像が撮影された時系列とは逆順に画像ごとに表示する。第2表示部822は、第1画像のうち順序が最初の画像の表示時において、接触位置の逆方向への移動に応じて、第1画像の前の順序の第2画像を表示する。
The
第2表示部822は、靴Aの多視点画像FV1と、他の靴の画像IM1〜IM2、IM4〜IM6等を含む画像群IGPを表示する。第2表示部822は、他の靴の画像IM1〜IM2、靴Aの多視点画像FV1が最上段に配置され、他の靴の画像IM4〜IM6が2段目に配置され、靴の画像を一覧表示するコンテンツCT1を表示する。
The
第2表示部822は、ユーザU1の操作に応じて、画像の一覧表示の態様(第2表示態様)から画像ごとの表示の態様(第1表示態様)に表示を変更する。第2表示部822は、他の靴の画像IM1のみを表示した状態において、ユーザU1による順方向へのスワイプ操作に応じて、他の靴の画像IM1のみを表示した状態から、他の靴の画像IM2のみを表示した状態に表示を切り替える。第2表示部822は、他の靴の画像IM2のみを表示した状態において、ユーザU1による逆方向へのスワイプ操作に応じて、他の靴の画像IM2のみを表示した状態から、他の靴の画像IM1のみを表示した状態に表示を切り替える。
The
第2表示部822は、他の靴の画像IM2のみを表示した状態において、ユーザU1による順方向へのスワイプ操作に応じて、他の靴の画像IM2のみを表示した状態から、靴Aの多視点画像FV1のみを表示した状態に表示を切り替える。第2表示部822は、ユーザU1による順方向へのスワイプ操作に応じて、他の靴の画像IM2のみを表示した状態から、靴Aの多視点画像FV1のうち、最初の画像RP11を表示した状態に表示を切り替える。
In the state where only the image IM2 of the other shoes is displayed, the
第2表示部822は、ユーザU1の順方向へのスワイプ操作の移動に応じて、多視点画像FV1の表示を画像RP11から、画像RP12、画像RP13、画像RP14、画像RP15、画像RP16、画像RP17、画像RP18、画像RP19の順で時系列に沿って表示する。
The
第2表示部822は、最後の画像RP19を表示した状態におけるユーザU1の順方向へのスワイプ操作の移動に応じて、多視点画像FV1の次の画像IM4を表示する。第2表示部822は、ユーザU1による順方向へのスワイプ操作に応じて、靴Aの多視点画像FV1のみを表示した状態から、他の靴の画像IM4のみを表示した状態に表示を切り替える。
The
受付部823は、ユーザの操作を受け付ける。受付部823は、入力部40を介してユーザの操作を受け付ける。例えば、受付部823は、端末装置10の画面(出力部50)へのユーザの接触をユーザの操作として受け付ける。受付部823は、ユーザによるスワイプ操作を受け付ける。また、受付部823は、フリック、タップ、ダブルタップ、ロングタップ、ピンチイン、ピンチアウト等の様々な操作を受け付ける。
The reception unit 823 accepts the user's operation. The reception unit 823 receives the user's operation via the
受付部823は、第1表示態様において、ユーザによる操作を受け付ける。受付部823は、ユーザが端末装置10の画面に接触した状態において、接触位置を所定の方向に移動させる操作を受け付ける。受付部823は、ユーザが端末装置10の画面に接触した状態において、接触位置を所定の方向とは逆方向に移動させる操作を受け付ける。
The reception unit 823 receives the operation by the user in the first display mode. The reception unit 823 accepts an operation of moving the contact position in a predetermined direction while the user is in contact with the screen of the
受付部823は、ユーザの操作に応じて、ユーザによる情報の要求を受け付ける。受付部823は、受け付けた情報の要求をサービス提供装置100に、通信部20を介して送信する。受付部823は、ユーザによるカテゴリ「靴」の取引情報の要求を受け付け、カテゴリ「靴」の取引情報の要求をサービス提供装置100に送信する。
The reception unit 823 receives a request for information by the user according to the operation of the user. The reception unit 823 transmits the received information request to the
なお、上述した制御部80による各処理は、第1アプリケーション81や第2アプリケーション82等の専用アプリケーションを用いる場合に限らず、例えば、JavaScript(登録商標)やHTML(HyperText Markup Language)等を用いて実現されてもよい。
Note that each process by the
〔2−2.サービス提供装置が有する機能構成の一例〕
続いて、図12を用いて、サービス提供装置100が有する機能構成の一例について説明する。図12は、実施形態に係るサービス提供装置の構成例を示す図である。図12に示すように、サービス提供装置100は、通信部110、記憶部120、および制御部130を有する。なお、サービス提供装置100は、サービス提供装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための出力部(例えば、液晶ディスプレイ等)を有してもよい。
[2-2. An example of the functional configuration of a service providing device]
Subsequently, an example of the functional configuration of the
(通信部110)
通信部110は、例えば、NIC等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC or the like. Then, the communication unit 110 is connected to the network N by wire or wirelessly, and transmits / receives information to / from the
(記憶部120)
記憶部120は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、サービス提供に必要な各種情報を記憶する。例えば、記憶部120は、オークションサービスを提供するために必要な各種情報を記憶する。
(Memory unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 stores various information necessary for providing the service. For example, the storage unit 120 stores various information necessary for providing the auction service.
記憶部120は、取引対象に関する各種情報を記憶する。記憶部120は、サービス提供において情報提供される取引対象に関する各種情報を記憶する。例えば、記憶部120は、取引対象の多視点画像や対象関連情報を、その取引対象を提供する提供元を特定する識別情報と対応づけて記憶する。 The storage unit 120 stores various information regarding the transaction target. The storage unit 120 stores various information regarding the transaction target to be provided in the service provision. For example, the storage unit 120 stores a multi-viewpoint image of a transaction target and target-related information in association with identification information that identifies a provider that provides the transaction target.
(制御部130)
制御部130は、例えば、コントローラであり、CPUやMPU等によって、サービス提供装置100内部の記憶装置に記憶されている各種プログラム(通知プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
(Control unit 130)
The control unit 130 is, for example, a controller, and various programs (corresponding to an example of a notification program) stored in a storage device inside the
図12に示すように、制御部130は、受信部131と、処理部132と、配信部133とを有し、以下に説明する情報処理の機能や作用を実現または実行する。 As shown in FIG. 12, the control unit 130 has a reception unit 131, a processing unit 132, and a distribution unit 133, and realizes or executes the functions and operations of information processing described below.
(受信部131)
受信部131は、種々の情報を受信する。受信部131は、端末装置10等の外部装置から各種情報を受信する。受信部131は、端末装置10から多視点画像を受信する。受信部131は、端末装置10から多視点画像を受信する。
(Receiver 131)
The receiving unit 131 receives various information. The receiving unit 131 receives various information from an external device such as the
受信部131は、端末装置10から取引対象の出品を受け付ける。受信部131は、取引対象に関連する対象関連情報とともに、取引対象の多視点画像を受信する。受信部131は、出品物である取引対象の出品情報である対象関連情報とともに、多視点画像を受信する。例えば、受信部131は、撮影対象の多視点画像に関する撮影を行うための撮影位置と撮影方向とを示す3Dモデルを受信する。
The receiving unit 131 accepts the listing of the transaction target from the
受信部131は、端末装置10から情報の要求を受信する。受信部131は、取引対象のカテゴリを示す情報を情報の要求として受信する。受信部131は、端末装置10から出品された取引対象に対する入札を受け付ける。
The receiving unit 131 receives a request for information from the
(処理部132)
処理部132は、サービス提供に関する各種処理を実行する。処理部132は、受信部131により受信された情報を記憶部120に登録する。処理部132は、取引対象に関する各種情報を記憶部120に登録する。
(Processing unit 132)
The processing unit 132 executes various processes related to service provision. The processing unit 132 registers the information received by the receiving unit 131 in the storage unit 120. The processing unit 132 registers various information regarding the transaction target in the storage unit 120.
処理部132は、各種情報を選択する。処理部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を選択する。また、処理部132は、記憶部120から情報を選択する。処理部132は、記憶部120に登録された取引対象のうち、ユーザの要求に対応する取引対象の情報を選択する。処理部132は、記憶部120に登録された取引対象のうち、ユーザが要求するカテゴリに対応する取引対象の情報を選択する。 The processing unit 132 selects various types of information. The processing unit 132 selects various information based on the various information stored in the storage unit 120. Further, the processing unit 132 selects information from the storage unit 120. The processing unit 132 selects the information of the transaction target corresponding to the user's request from the transaction targets registered in the storage unit 120. The processing unit 132 selects the information of the transaction target corresponding to the category requested by the user from the transaction targets registered in the storage unit 120.
(配信部133)
配信部133は、各種情報を配信する。配信部133は、端末装置10に各種情報を送信する。配信部133は、端末装置10に要求された取引対象の情報を配信する。配信部133は、処理部132により選択された取引対象の情報を端末装置10に送信する。配信部133は、多視点画像を含む取引対象の情報を端末装置10に送信する。配信部133は、多視点画像を含む画像群を端末装置10に送信する。
(Distribution unit 133)
The distribution unit 133 distributes various information. The distribution unit 133 transmits various information to the
〔3.情報処理のフロー〕
次に、図13を用いて、実施形態に係る送信処理の手順の一例について説明する。図13は、実施形態に係る送信処理の流れの一例を示すフローチャートである。例えば、端末装置10は、取引対象を異なる視点で撮像した多視点画像を取得する(ステップS101)。そして、端末装置10は、取引対象の情報を配信するサービスを提供するサービス提供装置100に、取引対象に関連する対象関連情報とともに、多視点画像を送信する(ステップS102)。
[3. Information processing flow]
Next, an example of the transmission processing procedure according to the embodiment will be described with reference to FIG. FIG. 13 is a flowchart showing an example of the flow of transmission processing according to the embodiment. For example, the
次に、図14を用いて、実施形態に係る情報処理の手順の一例について説明する。図14は、実施形態に係る情報処理の流れの一例を示すフローチャートである。例えば、端末装置10は、撮影対象に関する撮影対象情報を取得する(ステップS201)。そして、端末装置10は、撮影対象の多視点画像を撮影するための撮影位置と撮影方向とを示すモデルを提供する(ステップS202)。例えば、端末装置10は、撮影対象の多視点画像を撮影するための撮影位置と撮影方向とを示す3Dモデルを提供する。
Next, an example of the information processing procedure according to the embodiment will be described with reference to FIG. FIG. 14 is a flowchart showing an example of the flow of information processing according to the embodiment. For example, the
〔4.表示処理の一例〕
上述した処理で生成された自由視点画像(多視点画像)は、情報配信に利用されてもよく、配信された多視点画像は配信先の端末装置10において表示される。この点について、図15〜図17を用いて説明する。
[4. An example of display processing]
The free-viewpoint image (multi-viewpoint image) generated by the above-mentioned processing may be used for information distribution, and the distributed multi-viewpoint image is displayed on the distribution
まず、図15を用いて配信処理の流れについて説明する。図15は、実施形態に係る情報処理システムによる処理の一例を示す図である。なお、図1等と同様の点については適宜説明を省略する。例えば、端末装置10は、取引対象に関する情報を表示するためのアプリケーション(例えば第2アプリケーション82等)を起動し、以下の処理を実行する。まず、端末装置10は、サービス提供装置100に取引対象に関する情報を要求する(ステップS21)。図15の例では、端末装置10は、カテゴリ「靴」に対応する取引対象に関する情報の要求を送信する。
First, the flow of the distribution process will be described with reference to FIG. FIG. 15 is a diagram showing an example of processing by the information processing system according to the embodiment. The same points as in FIG. 1 and the like will be omitted as appropriate. For example, the
そして、端末装置10から要求を受信したサービス提供装置100は、記憶部120(図12参照)に情報が記憶された取引対象のうち、カテゴリ「靴」に対応する取引対象に関する情報を選択する(ステップS22)。
Then, the
そして、サービス提供装置100は、選択したカテゴリ「靴」に対応する取引対象に関する情報を端末装置10へ配信する(ステップS23)。図15の例では、サービス提供装置100は、靴Aの多視点画像FV1等を含む靴に関する画像群(以下「画像群IGP」とする)を端末装置10へ配信する。例えば、サービス提供装置100は、靴Aの多視点画像FV1と、他の靴の画像IM1〜IM2、IM4〜IM6等を含む画像群IGPを配信する。例えば、画像群IGPにおいては、他の靴の画像IM1〜IM2、多視点画像FV1、他の靴の画像IM4〜IM6の順序が付されているものとする。
Then, the
そして、画像群IGPを受信した端末装置10は、画像群IGPに関する情報を表示する(ステップS24)。例えば、端末装置10は、図16に示すように画像群IGPに含まれる各画像を一覧表示する。図16は、実施形態に係る取引対象の一覧表示の一例を示す図である。端末装置10は、他の靴の画像IM1〜IM2、靴Aの多視点画像FV1が最上段に配置され、他の靴の画像IM4〜IM6が2段目に配置され、靴の画像を一覧表示するコンテンツCT1を表示する。コンテンツCT1は、画像群IGPを受信した端末装置10が画像群IGPを基に生成してもよいし、サービス提供装置100が生成し配信してもよい。なお、一覧表示において、多視点画像は通常の画像とは識別可能に表示されてもよい。例えば、端末装置10は、多視点画像FV1に多視点画像であることを示すアイコンなどを付して、多視点画像FV1が他の画像IM1〜IM2、IM4〜IM6とは異なり多視点画像であることを示してもよい。
Then, the
そして、端末装置10は、ユーザU1の操作に応じて、画像の一覧表示の態様(第2表示態様)から画像ごとの表示の態様(第1表示態様)に表示を変更する。例えば、ユーザU1は、他の靴の画像IM1を指定した場合、他の靴の画像IM1のみを表示する第1表示態様に表示を変更する。以下、第1表示態様における表示の切り替えについて、図17を用いて説明する。図17は、実施形態に係る多視点画像を含む画像群の表示の一例を示す図である。図17では、端末装置10の表示内容の変更に応じて、端末装置10を端末装置10−1〜10−6として区別可能に示すが、特に区別なく説明する場合には、端末装置10と記載する。
Then, the
図17において、端末装置10−1は、他の靴の画像IM1のみを表示した状態を示す。なお、端末装置10は、ユーザが端末装置10の画面に接触した指を右から左(順方向)へ移動させる操作(スワイプ操作)に応じて、画像群を順番に沿って表示する。例えば、端末装置10は、他の靴の画像IM1のみを表示した状態において、ユーザU1による順方向へのスワイプ操作に応じて、他の靴の画像IM1のみを表示した端末装置10−1から、他の靴の画像IM2のみを表示した端末装置10−2に表示を切り替える。すなわち、端末装置10は、ユーザU1による順方向へのスワイプ操作に応じて、次の画像を表示する。
In FIG. 17, the terminal device 10-1 shows a state in which only the image IM1 of another shoe is displayed. The
なお、端末装置10は、ユーザが端末装置10の画面に接触した指を左から右(逆方向)へ移動させる操作(スワイプ操作)に応じて、画像群を逆順に表示する。例えば、端末装置10は、他の靴の画像IM2のみを表示した状態において、ユーザU1による逆方向へのスワイプ操作に応じて、他の靴の画像IM2のみを表示した端末装置10−2から、他の靴の画像IM1のみを表示した端末装置10−1に表示を切り替える。すなわち、端末装置10は、ユーザU1による逆方向へのスワイプ操作に応じて、前の画像を表示する。
The
図17において、端末装置10−2は、他の靴の画像IM2のみを表示した状態を示す。例えば、端末装置10は、他の靴の画像IM2のみを表示した状態において、ユーザU1による順方向へのスワイプ操作に応じて、他の靴の画像IM2のみを表示した端末装置10−2から、靴Aの多視点画像FV1のみを表示した端末装置10−3に表示を切り替える。具体的には、端末装置10は、他の靴の画像IM2のみを表示した状態において、ユーザU1による順方向へのスワイプ操作に応じて、他の靴の画像IM2のみを表示した端末装置10−2から、靴Aの多視点画像FV1のうち、最初の画像RP11を表示した端末装置10−3に表示を切り替える。
In FIG. 17, the terminal device 10-2 shows a state in which only the image IM2 of another shoe is displayed. For example, the
そして、端末装置10は、ユーザU1の順方向へのスワイプ操作の移動に応じて、多視点画像FV1の表示を画像RP11から、画像RP12、画像RP13、画像RP14、画像RP15、画像RP16、画像RP17、画像RP18、画像RP19の順で時系列に沿って表示する。図17において、端末装置10−4は、多視点画像FV1のうち、画像RP15を表示した状態を示し、端末装置10−5は、多視点画像FV1のうち、最後の画像RP19を表示した状態を示す。なお、図17では、説明のための、多視点画像FV1のうち、最初の画像である画像RP11、中間の画像であるRP15、最後の画像であるRP19の3つの画像のみが表示された状態を図示するが、他の画像RP12、画像RP13、画像RP14、画像RP16、画像RP17、画像RP18についてもユーザU1の順方向へのスワイプ操作の移動に応じて、順番に沿って表示される。
Then, the
また、端末装置10は、最後の画像RP19を表示した端末装置10−6の状態におけるユーザU1の順方向へのスワイプ操作の移動に応じて、多視点画像FV1の次の画像IM4を表示する。具体的には、端末装置10は、靴Aの多視点画像FV1のうち、最初の画像RP19を表示した端末装置10−5の状態において、ユーザU1による順方向へのスワイプ操作に応じて、靴Aの多視点画像FV1のみを表示した端末装置10−5から、他の靴の画像IM4のみを表示した端末装置10−6に表示を切り替える。端末装置10は、既存の画像処理技術を適宜用いて、上述した多視点画像を含む画像群の切替え表示等の処理を行う。
The
上述のように、端末装置10は、画像群の表示を切り替える操作(スワイプ操作)に応じて、多視点画像に含まれる画像を切り替えて表示することにより、多視点画像を含む画像群の表示の切替え操作を容易にすることができる。
As described above, the
このように、端末装置10は、第1表示態様において画像群の画像をカルーセル表示する。端末装置10は、ユーザによるスワイプ操作やスライド操作等に応じて、多視点画像について違う視点からの画像を表示する。なお、端末装置10は、表示中の画像が多視点画像ではない場合、通常の画像切り替えを行う。
In this way, the
例えば、端末装置10は、第2表示態様において多視点画像のうち最初の画像のサムネイル、または、多視点画像のうち最後の画像のサムネイルだけを一覧表示する。そして、端末装置10は、画面全体にサムネイルが表示された場合(第1表示態様等)、画像群の表示を切り替える操作で多視点画像を切り替え表示する。また、端末装置10は、シームレスに同じ操作で別の画像を表示する。例えば、端末装置10は、多視点画像のうち最後の画像と最後の画像をカルーセル表示し、その切り替えの間、多視点画像の他の画像を順次表示する。この結果、端末装置10は、カルーセルを切り替える操作を何度も行わずとも、シームレスに表示が可能となる。したがって、端末装置10は、カルーセルの形式で画像を表示する様々なサービスにおいて、多視点画像を他の画像と同様の操作により、シームレスに表示が可能となる。
For example, in the second display mode, the
〔4−1.他の表示例〕
なお、上述した表示は一例に過ぎず、端末装置10が画像群の表示を切り替える操作に応じて、多視点画像に含まれる画像を切り替えて表示可能であれば、その他の表示態様はどのような表示態様であってもよい。
[4-1. Other display examples]
It should be noted that the above-mentioned display is only an example, and if the
端末装置10は、多視点画像をオーバレイさせて表示してもよい。例えば、端末装置10は、多視点画像のうち最初と最後の画像以外の画像をオーバレイさせて表示してもよい。また、端末装置10は、多視点画像を表示時においては、多視点画像に含まれる画像の切り替え表示をキャンセルし、前後の画像の表示に遷移するボタン等を表示してもよい。端末装置10は、多視点画像を表示時においては、左右両端に矢印マークを配置して、左側の矢印マークが選択された場合は、多視点画像の次の画像を表示し、右側の矢印マークが選択された場合は、多視点画像の前の画像を表示してもよい。なお、操作は逆の設定であってもよく、端末装置10は、左側の矢印マークが選択された場合は、多視点画像の前の画像を表示し、右側の矢印マークが選択された場合は、多視点画像の次の画像を表示してもよい。
The
また、端末装置10は、多視点画像のうち、最初の画像(のサムネイル)と最後の画像(のサムネイル)とを表示し、ユーザが選択した画像から他方の画像へと順に表示を切り替えて多視点画像を表示してもよい。この場合、端末装置10は、画面のうち一部(例えば下側)に配置された一覧表示領域に、多視点画像のうち、最初の画像(のサムネイル)と最後の画像(のサムネイル)とを表示する。そして、端末装置10は、一覧表示領域に表示された最初の画像(のサムネイル)と最後の画像(のサムネイル)とのうち、ユーザがいずれかの画像を選択した場合、画面のうち一部(例えば上側)に配置された選択対象表示領域に、ユーザが選択した画像から他方の画像へと順に表示を切り替えて多視点画像を表示してもよい。端末装置10は、最初の画像をユーザが選択した場合、選択対象表示領域において、最初の画像から最後の画像まで多視点画像を時系列に沿って順に表示してもよい。端末装置10は、最後の画像をユーザが選択した場合、選択対象表示領域において、最後の画像から最初の画像まで多視点画像を時系列の逆順に表示してもよい。
Further, the
端末装置10は、一覧表示領域に最初の画像と最後の画像を表示し、選択対象表示領域の表示状態と一覧表示領域に対するユーザの指定に応じて、選択対象表示領域における多視点画像の表示を切り替えてもよい。例えば、端末装置10は、選択対象表示領域に最初の画像を表示時に、一覧表示領域中の最後の画像をユーザが選択した場合、選択対象表示領域において、最初の画像から最後の画像まで多視点画像を時系列に沿って順に表示してもよい。また、端末装置10は、選択対象表示領域に最後の画像を表示時に、一覧表示領域中の最初の画像をユーザが選択した場合、選択対象表示領域において、最後の画像から最初の画像まで多視点画像を時系列の逆順に表示してもよい。
The
〔4−2.情報処理のフロー〕
次に、図18を用いて、実施形態に係る表示処理の手順の一例について説明する。図18は、実施形態に係る表示処理の流れの一例を示すフローチャートである。例えば、端末装置10は、撮影対象を異なる視点で撮像した多視点画像である第1画像と、第1画像とは異なる第2画像とを含む画像群を取得する(ステップS301)。そして、端末装置10は、端末装置10を利用するユーザによる端末装置の画面における画像群の表示を切り替える操作に応じて、第1画像に含まれる画像を切り替えて端末装置の画面に表示する(ステップS302)。
[4-2. Information processing flow]
Next, an example of the display processing procedure according to the embodiment will be described with reference to FIG. FIG. 18 is a flowchart showing an example of the flow of display processing according to the embodiment. For example, the
〔5.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、逆に、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[5. others〕
Further, among the processes described in the above-described embodiment, all or a part of the processes described as being automatically performed can be manually performed, and conversely, the processes described as being manually performed. It is also possible to automatically perform all or part of the above by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the information shown in the figure.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the above-described embodiments can be appropriately combined as long as the processing contents do not contradict each other.
〔6.プログラム〕
また、上述した実施形態に係る端末装置10やサービス提供装置100は、例えば図19に示すような構成のコンピュータ1000によって実現される。図19は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[6. program〕
Further, the
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。
The
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
The output IF 1060 is an interface for transmitting information to be output to an
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
The
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
The network IF 1080 receives data from another device via the network N and sends it to the
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
The
例えば、コンピュータ1000が端末装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部80の機能を実現する。
For example, when the computer 1000 functions as the
〔7.効果〕
上述してきたように、実施形態に係る端末装置(実施形態では端末装置10)は、取得部(実施形態では第1取得部811)と、提供部(実施形態では第1表示部812)と有する。第1取得部811は、撮影対象に関する撮影対象情報を取得する。第1表示部812は、撮影対象の多視点画像に関する撮影を行うための撮影位置と撮影方向とを示すモデル(実施形態では3DモデルMD)を提供する。
[7. effect〕
As described above, the terminal device (
このように、実施形態に係る端末装置10は、撮影対象の多視点画像に関する撮影を行うための撮影位置と撮影方向とを示すモデルを提供する。これにより、端末装置10は、多視点画像を生成するための撮影を容易にすることができるため、多視点画像に関する撮影を容易にすることができる。
As described above, the
また、実施形態に係る端末装置10において、第1表示部812は、モデルを端末装置10の画面(実施形態では出力部50)に表示する。これにより、端末装置10は、端末装置10を利用するユーザが撮影位置と撮影方向とを認識でき、ユーザによる多視点画像に関する撮影を容易にすることができるため、多視点画像に関する撮影を容易にすることができる。
Further, in the
また、実施形態に係る端末装置10において、第1表示部812は、撮影対象を含む撮影領域を表示する端末装置10の画面にモデルを重畳表示する。これにより、端末装置10は、撮影領域にガイドを重畳表示することで、多視点画像に関する撮影を容易にすることができる。
Further, in the
また、実施形態に係る端末装置10は、判定部(実施形態では判定部813)を有する。判定部813は、端末装置10の撮影領域の中心部と、モデルとの重なりを判定する。これにより、端末装置10は、撮影位置と撮影方向とが撮影に適した状態であるかを判定することができるため、多視点画像に関する撮影を容易にすることができる。
Further, the
また、実施形態に係る端末装置10において、第1表示部812は、撮影領域の中心部を示すオブジェクトを表示する。これにより、端末装置10は、撮影領域の中心部を示すオブジェクトとモデルとの重なりがどのような状態であるかをユーザに認識させることができ、多視点画像に関する撮影を容易にすることができる。
Further, in the
また、実施形態に係る端末装置10において、判定部813は、オブジェクトが示す中心部とモデルとの重なりを判定する。これにより、端末装置10は、撮影位置と撮影方向とが撮影に適した状態であるかを判定することができるため、多視点画像に関する撮影を容易にすることができる。
Further, in the
また、実施形態に係る端末装置10は、撮影部(実施形態では撮影部814)を有する。撮影部814は、判定部813により中心部とモデルとの重なりが所定の条件を満たすと判定した場合、撮影を行う。これにより、端末装置10は、ユーザが端末装置10の位置や向きを変更する操作のみで、多視点画像に関する撮影を行うことができるため、多視点画像に関する撮影を容易にすることができる。
Further, the
また、実施形態に係る端末装置10において、判定部813は、中心部とモデルとが重なる範囲が所定の閾値以上である場合、所定の条件を満たすと判定する。これにより、端末装置10は、ユーザが端末装置10の位置や向きを変更する操作のみで、多視点画像に関する撮影を行うことができるため、多視点画像に関する撮影を容易にすることができる。
Further, in the
また、実施形態に係る端末装置10において、第1表示部812は、撮影対象を撮影する視点と撮影対象における注視点との間に配置されるモデルを表示する。これにより、端末装置10は、視点と注視点との間にモデルを表示させることで、多視点画像に関する撮影を容易にすることができる。
Further, in the
また、実施形態に係る端末装置10において、第1表示部812は、視点からの視線に基づいて決定される注視点と、端末装置10との間に配置されるモデルを表示する。これにより、端末装置10は、視点に基づいて決定した注視点と端末装置10との間にモデルを表示させることで、多視点画像に関する撮影を容易にすることができる。
Further, in the
また、実施形態に係る端末装置10において、第1表示部812は、第1視点からの第1視線、及び第2視点からの第2視線に基づいて決定される注視点と、端末装置10との間に配置されるモデルを表示する。これにより、端末装置10は、2つの視点からの視線に基づいて決定した注視点と、端末装置10との間にモデルを表示させることで、多視点画像に関する撮影を容易にすることができる。
Further, in the
また、実施形態に係る端末装置10において、第1表示部812は、注視点に基づいて多視点画像に関する撮影を行うための複数の位置を示す撮影位置ガイドを表示する。これにより、端末装置10は、多視点画像を撮影するための複数の位置を示す撮影位置ガイドを表示することで、ユーザによる多視点画像に関する撮影を容易にすることができる。
Further, in the
また、実施形態に係る端末装置10において、第1表示部812は、注視点を中心とする扇の形状である撮影位置ガイドを表示する。これにより、端末装置10は、扇の形状である撮影位置ガイドを表示することで、ユーザによる多視点画像に関する撮影を容易にすることができる。
Further, in the
また、実施形態に係る端末装置10において、第1表示部812は、複数の位置の各々が扇の円弧上に配置される撮影位置ガイドを表示する。これにより、端末装置10は、複数の位置の各々が扇の円弧上に配置して表示することで、ユーザによる多視点画像に関する撮影を容易にすることができる。
Further, in the
また、実施形態に係る端末装置10において、第1表示部812は、取引対象を含む撮影領域を表示する端末装置10の画面に、透過性を有する撮影位置ガイドを重畳表示する。これにより、端末装置10は、ユーザによる多視点画像に関する撮影を容易にすることができる。
Further, in the
また、実施形態に係る端末装置10において、第1表示部812は、複数の位置のうち、撮影が完了した撮影完了位置と、撮影が未完了である撮影未完了位置とを識別可能に表示する。これにより、端末装置10は、ユーザが各位置での撮影が完了したか否かを認識することができ、ユーザによる多視点画像に関する撮影を容易にすることができる。
Further, in the
以上、本願の実施形態を図面に基づいて詳細に説明したが、これは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 The embodiments of the present application have been described in detail with reference to the drawings, but this is an example, and various modifications and improvements are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to carry out the present invention in other forms described above.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、受付部は、受付手段や受付回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the reception unit can be read as a reception means or a reception circuit.
1 情報処理システム
10 端末装置
20 通信部
30 記憶部
31 取引対象情報記憶部
40 入力部
50 出力部
60 物理センサ
70 カメラ
80 制御部
81 第1アプリケーション
811 第1取得部
812 第1表示部(提供部)
813 判定部
814 撮影部
815 生成部
816 送信部
82 第2アプリケーション
821 第2取得部
822 第2表示部
823 受付部
100 サービス提供装置
110 通信部
120 記憶部
130 制御部
131 受信部
132 処理部
133 配信部
1
813 Judgment unit 814
Claims (13)
前記撮影対象の多視点画像に関する撮影を行うための撮影位置と撮影方向とを示すモデルを、前記撮影対象を含む撮影領域を表示する端末装置の画面に前記モデルを重畳表示する提供手順と、
前記端末装置の前記撮影領域の中心部と、前記モデルとの重なりを判定する判定手順と、
前記判定手順により前記中心部と前記モデルとの重なりが所定の条件を満たすと判定した場合、撮影を行う撮影手順と、
を前記端末装置に実行させ、
前記判定手順は、
前記中心部と前記モデルとが重なる範囲が所定の閾値以上である場合、前記所定の条件を満たすと判定することを特徴とする情報処理プログラム。 The acquisition procedure for acquiring shooting target information related to the shooting target, and
A procedure for superimposing a model indicating a shooting position and a shooting direction for shooting a multi-viewpoint image of a shooting target on a screen of a terminal device displaying a shooting area including the shooting target, and a procedure for providing the model.
A determination procedure for determining the overlap between the central portion of the photographing region of the terminal device and the model, and
When it is determined by the determination procedure that the overlap between the central portion and the model satisfies a predetermined condition, the imaging procedure for performing imaging and the imaging procedure are performed.
It was performed to the terminal device,
The determination procedure is
If the range between the center and the model overlap is above a predetermined threshold, the information processing program characterized that you determined that the predetermined condition is satisfied.
前記撮影領域の前記中心部を示すオブジェクトを表示する
ことを特徴とする請求項1に記載の情報処理プログラム。 The above-mentioned provision procedure
The information processing program according to claim 1 , wherein an object indicating the central portion of the photographing area is displayed.
前記オブジェクトが示す前記中心部と前記モデルとの重なりを判定する
ことを特徴とする請求項2に記載の情報処理プログラム。 The determination procedure is
The information processing program according to claim 2 , wherein the overlap between the central portion indicated by the object and the model is determined.
前記撮影対象を撮影する視点と前記撮影対象における注視点との間に配置される前記モデルを表示する
ことを特徴とする請求項1〜3のうちいずれか1つに記載の情報処理プログラム。 The above-mentioned provision procedure
The information processing program according to any one of claims 1 to 3 , wherein the model is displayed between the viewpoint for photographing the image target and the gazing point in the image target.
前記視点からの視線に基づいて決定される前記注視点と、前記端末装置との間に配置される前記モデルを表示する
ことを特徴とする請求項4に記載の情報処理プログラム。 The above-mentioned provision procedure
The information processing program according to claim 4 , wherein the model is displayed between the gaze point determined based on the line of sight from the viewpoint and the terminal device.
第1視点からの第1視線、及び第2視点からの第2視線に基づいて決定される前記注視点と、前記端末装置との間に配置される前記モデルを表示する
ことを特徴とする請求項5に記載の情報処理プログラム。 The above-mentioned provision procedure
A claim characterized by displaying the model arranged between the gaze point determined based on the first line of sight from the first viewpoint and the second line of sight from the second viewpoint and the terminal device. Item 5. The information processing program according to item 5.
前記注視点に基づいて前記多視点画像に関する撮影を行うための複数の位置を示す撮影位置ガイドを表示する
ことを特徴とする請求項4〜6のうちいずれか1つに記載の情報処理プログラム。 The above-mentioned provision procedure
The information processing program according to any one of claims 4 to 6 , wherein a shooting position guide indicating a plurality of positions for shooting the multi-viewpoint image based on the gazing point is displayed.
前記注視点を中心とする扇の形状である前記撮影位置ガイドを表示する
ことを特徴とする請求項7に記載の情報処理プログラム。 The above-mentioned provision procedure
The information processing program according to claim 7 , wherein the shooting position guide, which is in the shape of a fan centered on the gazing point, is displayed.
前記複数の位置の各々が前記扇の円弧上に配置される前記撮影位置ガイドを表示する
ことを特徴とする請求項8に記載の情報処理プログラム。 The above-mentioned provision procedure
The information processing program according to claim 8 , wherein each of the plurality of positions displays the shooting position guide arranged on the arc of the fan.
前記撮影対象を含む撮影領域を表示する前記端末装置の画面に、透過性を有する前記撮影位置ガイドを重畳表示する
ことを特徴とする請求項7〜9のうちいずれか1つに記載の情報処理プログラム。 The above-mentioned provision procedure
The information processing according to any one of claims 7 to 9 , wherein the shooting position guide having transparency is superimposed and displayed on the screen of the terminal device that displays the shooting area including the shooting target. program.
前記複数の位置のうち、撮影が完了した撮影完了位置と、撮影が未完了である撮影未完了位置とを識別可能に表示する
ことを特徴とする請求項7〜10のうちいずれか1つに記載の情報処理プログラム。 The above-mentioned provision procedure
Among the plurality of positions, any one of claims 7 to 10 , wherein the shooting completed position where the shooting is completed and the shooting completed position where the shooting is not completed are displayed in an distinguishable manner. The information processing program described.
前記撮影対象の多視点画像に関する撮影を行うための撮影位置と撮影方向とを示すモデルを、前記撮影対象を含む撮影領域を表示する端末装置の画面に前記モデルを重畳表示する提供部と、
前記端末装置の前記撮影領域の中心部と、前記モデルとの重なりを判定する判定部と、
前記判定部により前記中心部と前記モデルとの重なりが所定の条件を満たすと判定した場合、撮影を行う撮影部と、
を有し、
前記判定部は、
前記中心部と前記モデルとが重なる範囲が所定の閾値以上である場合、前記所定の条件を満たすと判定することを特徴とする端末装置。 An acquisition unit that acquires shooting target information related to the shooting target,
A providing unit that superimposes and displays a model indicating a shooting position and a shooting direction for shooting a multi-viewpoint image of a shooting target on a screen of a terminal device that displays a shooting area including the shooting target.
A determination unit for determining the overlap between the central portion of the photographing region of the terminal device and the model.
When the determination unit determines that the overlap between the central portion and the model satisfies a predetermined condition, the photographing unit for performing imaging and the photographing unit
Have a,
The determination unit
A terminal device characterized in that when the range in which the central portion and the model overlap is equal to or greater than a predetermined threshold value, it is determined that the predetermined condition is satisfied.
前記撮影対象の多視点画像に関する撮影を行うための撮影位置と撮影方向とを示すモデルを、前記撮影対象を含む撮影領域を表示する端末装置の画面に前記モデルを重畳表示する提供工程と、
前記端末装置の前記撮影領域の中心部と、前記モデルとの重なりを判定する判定工程と、
前記判定工程により前記中心部と前記モデルとの重なりが所定の条件を満たすと判定した場合、撮影を行う撮影工程と、
含み、
前記判定工程は、
前記中心部と前記モデルとが重なる範囲が所定の閾値以上である場合、前記所定の条件を満たすと判定することを特徴とする情報処理方法。 The acquisition process to acquire the shooting target information related to the shooting target,
A step of providing a model showing a shooting position and a shooting direction for shooting a multi-viewpoint image of a shooting target by superimposing the model on a screen of a terminal device displaying a shooting area including the shooting target.
A determination step for determining the overlap between the central portion of the photographing region of the terminal device and the model, and
When it is determined by the determination step that the overlap between the central portion and the model satisfies a predetermined condition, the imaging step of performing imaging and the imaging step
Seen including,
The determination step is
An information processing method characterized in that when the range in which the central portion and the model overlap is equal to or greater than a predetermined threshold value, it is determined that the predetermined condition is satisfied.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020177164A JP6974573B1 (en) | 2020-10-22 | 2020-10-22 | Information processing program, terminal device and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020177164A JP6974573B1 (en) | 2020-10-22 | 2020-10-22 | Information processing program, terminal device and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6974573B1 true JP6974573B1 (en) | 2021-12-01 |
JP2022068472A JP2022068472A (en) | 2022-05-10 |
Family
ID=78766776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020177164A Active JP6974573B1 (en) | 2020-10-22 | 2020-10-22 | Information processing program, terminal device and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6974573B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012015674A (en) * | 2010-06-30 | 2012-01-19 | Fujifilm Corp | Imaging device, operation control method for imaging device, and program for imaging device |
JP2012191253A (en) * | 2011-03-08 | 2012-10-04 | Olympus Imaging Corp | Photographing apparatus |
JP2017139759A (en) * | 2016-02-02 | 2017-08-10 | 株式会社モルフォ | Image processing apparatus, image processing method, and image processing program, and photographing auxiliary equipment |
-
2020
- 2020-10-22 JP JP2020177164A patent/JP6974573B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012015674A (en) * | 2010-06-30 | 2012-01-19 | Fujifilm Corp | Imaging device, operation control method for imaging device, and program for imaging device |
JP2012191253A (en) * | 2011-03-08 | 2012-10-04 | Olympus Imaging Corp | Photographing apparatus |
JP2017139759A (en) * | 2016-02-02 | 2017-08-10 | 株式会社モルフォ | Image processing apparatus, image processing method, and image processing program, and photographing auxiliary equipment |
Also Published As
Publication number | Publication date |
---|---|
JP2022068472A (en) | 2022-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10878489B2 (en) | Augmented reality system and method for visualizing an item | |
US10210659B2 (en) | Augmented reality system, method, and apparatus for displaying an item image in a contextual environment | |
US11140324B2 (en) | Method of displaying wide-angle image, image display system, and information processing apparatus | |
JP6784168B2 (en) | Information processing equipment, programs, browsing systems | |
CN103797812A (en) | Moving-image-with-comments generation device and moving-image-with-comments generation method | |
JP6452429B2 (en) | Image processing apparatus, image processing method, and image processing program | |
CN107045431A (en) | The local scaling of working space assets in digital Collaborative environment | |
JP6942872B1 (en) | Display program, terminal device and display method | |
JP6974573B1 (en) | Information processing program, terminal device and information processing method | |
JP6959422B1 (en) | Transmission program, terminal device and transmission method | |
EP3177005B1 (en) | Display control system, display control device, display control method, and program | |
JP6844420B2 (en) | Browsing system, program | |
JP2008287450A (en) | Commodity sales system | |
US11847297B2 (en) | Method of providing real-time VR service through avatar | |
US10991342B2 (en) | Terminal apparatus, system, and method of displaying image | |
JP6891667B2 (en) | Browsing system, program | |
JP2012146214A (en) | Generation method for photographic image data, and commodity sales promotion system in internet connection environment using the same | |
JP2020013552A (en) | Terminal device, browsing system, display method, and program | |
JP2021056852A (en) | Program, information processing apparatus, and display method | |
JP2021086355A (en) | Information processing method, program, and information processing device | |
WO2020184259A1 (en) | Image display system, image display method, and non-transitory recording medium | |
KR20230080713A (en) | System for providing information of virtual store | |
JP2020095602A (en) | Display program, display device, and display method | |
JP2020095645A (en) | Display program, display device, and display method | |
JP2020009016A (en) | Terminal, browsing system, presentation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210219 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210219 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210707 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6974573 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |