Nothing Special   »   [go: up one dir, main page]

JP2016115067A - 画像表示端末、画像表示システム及び画像表示プログラム - Google Patents

画像表示端末、画像表示システム及び画像表示プログラム Download PDF

Info

Publication number
JP2016115067A
JP2016115067A JP2014252144A JP2014252144A JP2016115067A JP 2016115067 A JP2016115067 A JP 2016115067A JP 2014252144 A JP2014252144 A JP 2014252144A JP 2014252144 A JP2014252144 A JP 2014252144A JP 2016115067 A JP2016115067 A JP 2016115067A
Authority
JP
Japan
Prior art keywords
viewpoint
image
street view
point
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014252144A
Other languages
English (en)
Other versions
JP2016115067A5 (ja
JP6358072B2 (ja
Inventor
拡基 鵜飼
Hiroki Ukai
拡基 鵜飼
安保 正敏
Masatoshi Anpo
正敏 安保
木村 洋介
Yosuke Kimura
洋介 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014252144A priority Critical patent/JP6358072B2/ja
Priority to PCT/JP2015/006100 priority patent/WO2016092823A1/ja
Publication of JP2016115067A publication Critical patent/JP2016115067A/ja
Publication of JP2016115067A5 publication Critical patent/JP2016115067A5/ja
Application granted granted Critical
Publication of JP6358072B2 publication Critical patent/JP6358072B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ストリートビュー画像を視点変更して表示する際の操作性を高める。【解決手段】画像表示端末2は、ストリートビュー画像を含むストリートビュー画面M3〜M6に視点切替釦201bを形成し、視点切替釦201bがタッチ操作されると、ストリートビュー画像を視点変更して表示する。ユーザが指先でタッチパネルをなぞる操作を行う従来とは異なり、ユーザが視点切替釦201bをタッチするという簡単な操作を行うだけで、ストリートビュー画像を視点変更して表示させることができる。【選択図】図11

Description

本発明は、画像表示端末、画像表示システム及び画像表示プログラムに関する。
従来より、オンライン地図サービスの1つとしてストリートビューが供されている。ストリートビューでは、例えば多機能型の携帯電話機等の画像表示端末は、ユーザ操作により表示対象物(例えば店舗等)が選択されると、その表示対象物の地点情報(POI(Point Of Interest)名称と地点(緯度経度)とを含むPOI情報)を通信ネットワークを介してサーバに送信する。サーバは、画像表示端末から地点情報を受信すると、その受信した地点情報の地点に最も近い(地点から最寄りの)ビューポイントを特定する。そして、サーバは、その特定したビューポイントから地点情報の地点に向かう方向が撮影されたストリートビュー画像を通信ネットワークを介して画像表示端末に送信する。画像表示端末は、サーバからストリートビュー画像を受信すると、その受信したストリートビュー画像を表示する。これにより、ユーザは、所望の表示対象物の周囲の様子を道路からの視点で確認することができる。
このようなストリートビューを利用するユーザは、表示対象物の正面のストリートビュー画像を取得したいと考えるが一般的である。ところが、表示対象物が立設されている状況によっては、その地点情報の地点に最も近いビューポイントが表示対象物の背面側(裏側)の道路(裏道)や側面側の道路(脇道)になることがある。そうなると、表示対象物の背面や側面のストリートビュー画像が表示され、ユーザにとって好ましくないストリートビュー画像が表示されることになる。このような問題に対し、特許文献1には、画像表示端末において、ストリートビュー画像を視点変更して表示する技術が開示されている。
特表2013−534656号公報
特許文献1に開示されている技術では、ユーザが指先でタッチパネルをなぞる操作(スワイプ操作)を行うことでストリートビュー画像を視点変更して表示する。このようなユーザが指先でなぞる操作を行う構成では、ユーザ自らがなぞる方向やなぞる距離(指先の移動方向や移動量)を調節して所望の視点からのストリートビュー画像を取得可能となる。即ち、所望の視点からのストリートビュー画像を取得したいという要求に対しては有用である。
しかしながら、とりあえず現在の視点とは異なる別の視点からのストリートビュー画像を取得したいという要求がある場合でもなぞる操作を行う必要があり、なぞる方向やなぞる距離をある程度調節する必要がある。又、なぞる距離によっては視点が1周(360度)して現在の視点まで戻ってしまう虞があるので、なぞる操作の開始から終了まで画面を注視しておく必要がある。又、視点を比較的大きく変更するには、なぞる距離を比較的大きくしたり、場合によってはなぞる操作を複数回に分けたりする必要が生じ得る。特にタッチパネルのサイズが比較的小さい端末では、1回のなぞる操作での視点の変更量が比較的小さく限られてしまうので、なぞる操作を複数回に分ける必要が生じる可能性が高い。このようにユーザが指先でなぞる操作を行うことでストリートビュー画像を視点変更して表示する構成では、とりあえず現在の視点とは異なる別の視点からのストリートビュー画像を取得したいという要求に対して操作性の点で十分に対応していない。
本発明は、上記した事情に鑑みてなされたものであり、その目的は、ストリートビュー画像を視点変更して表示する際の操作性を高めることができる画像表示端末、画像表示システム及び画像表示プログラムを提供することにある。
請求項1に記載した発明によれば、画像取得手段は、表示対象物の地点情報が地点情報設定手段により設定されると、ビューポイントから地点情報の地点に向かう方向が撮影されたストリートビュー画像をサーバから取得する。表示制御手段は、ストリートビュー画像が画像取得手段により取得されると、その取得されたストリートビュー画像を表示させる。操作受付手段は、ユーザによる操作手段のタッチ操作を受け付ける。ここで、画像取得手段は、視点変更前のビューポイントから視点変更前の地点に向かう方向が撮影された視点変更前のストリートビュー画像を表示手段に表示中にユーザによるタッチ操作が操作受付手段により受け付けられると、視点変更前のビューポイントとは異なる別の視点変更後のビューポイントから視点変更後の地点に向かう方向が撮影された視点変更後のストリートビュー画像をサーバから取得する。そして、表示制御手段は、視点変更後のストリートビュー画像が画像取得手段により取得されると、その取得された視点変更後のストリートビュー画像を表示させる。
これにより、ユーザが指先でタッチパネルをなぞる操作を行う従来とは異なり、ユーザが操作手段をタッチするという簡単な操作を行うだけで、視点変更前のストリートビュー画像から視点変更後のストリートビュー画像へと表示を切り替えることができる。即ち、なぞる操作よりも簡単なタッチ操作を行うだけで、所望の表示対象物の周囲の様子を、視点変更前のビューポイントとは異なる別の視点変更後のビューポイントからの視点で確認することができ、とりあえず現在の視点とは異なる別の視点からのストリートビュー画像を取得したいという要求に対し、操作性を高めることができる。
第1の実施形態の画像表示システムの全体構成を示す図 ビューポイントを模式的に示す図 地図画面を示す図 ストリートビュー画面を示す図(その1) 画像表示端末及びサーバの処理の処理を示すフローチャート(その1) ストリートビュー画面を示す図(その2) ストリートビュー画面を示す図(その3) ストリートビュー画面を示す図(その4) ストリートビュー画面を示す図(その5) 視点変更後のビューポイントを決定する態様を示す図 ストリートビュー画面の遷移を示す図(その1) ストリートビュー画面の遷移を示す図(その2) 画像表示端末及びサーバの処理の処理を示すフローチャート(その2) 画像表示端末及びサーバの処理の処理を示すフローチャート(その3) 第2の実施形態の視点変更後のビューポイントを決定する態様を示す図 画像表示端末及びサーバの処理の処理を示すフローチャート(その4)
(第1の実施形態)
以下、本発明の第1の実施形態について図1から図13を参照して説明する。
図1に示すように、画像表示システム1は、画像表示端末2と、サーバ3とを有し、両者が通信ネットワーク(インターネットを含む)を介してデータ通信可能に構成されている。本実施形態では、画像表示端末2として所謂スマートフォン(多機能型の携帯電話機)を想定している。又、不特定多数の画像表示端末2がサーバ3にアクセス可能である。
画像表示端末2は、制御部21(制御手段に相当)と、メモリ22と、ユーザインタフェース(UI(User Interface))部23と、表示部24(表示手段に相当)と、通信部25と、カメラ26とを有する。制御部21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)及びI/O(Input/Output)を有するマイクロコンピュータにより構成されている。メモリ22は、例えば半導体記憶素子等により構成されており、コンピュータプログラムを記憶している。制御部21は、メモリ22に記憶されているコンピュータプログラムを実行し、画像表示端末2の動作全般を制御する。
ユーザインタフェース部23は、表示部24の画面上に形成されるタッチパネルや機械的なスイッチ等により構成されており、ユーザからの操作を受け付けると、その操作内容を示す操作検知信号を制御部21に出力する。表示部24は、例えば液晶ディスプレイ等により構成されており、制御部21から表示指令信号を入力すると、その入力した表示指令信号により指定される画面を表示する(描画する)。通信部25は、サーバ3との間での通信ネットワークを介したデータ通信を制御する。カメラ26は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを含んで構成され、撮像動作を行う。尚、画像表示端末2は、これらの機能の他に、ユーザが発した音声を送話音声として入力する機能、通話相手から通信ネットワークを介して受信した音声を受話音声として出力する機能、電話帳データを記憶する機能等の電話に関する様々な周知の機能を有する。
制御部21は、地点情報設定部21a(地点情報設定手段に相当)と、画像取得部21b(画像取得手段に相当)と、表示制御部21c(表示制御手段に相当)と、操作受付部21d(操作受付手段に相当)とを有する。これら地点情報設定部21a、画像取得部21b、表示制御部21c、操作受付部21dは、制御部21が実行するコンピュータプログラム(画像表示プログラムを含む)により構成されており、ソフトウェアにより実現されている。
地点情報設定部21aは、ユーザが表示対象物(例えば店舗等)を選択する操作をユーザインタフェース部23により行うと、そのユーザが選択した表示対象物の地点情報を設定する。地点情報はPOI(Point Of Interest)名称と地点(緯度経度)とを含むPOI情報である。画像取得部21bは、地点情報設定部21aにより地点情報が設定されると、その設定された地点情報を通信部25から通信ネットワークを介してサーバ3に送信させ、ビューポイントから地点情報の地点に向かう方向が撮影されたストリートビュー画像をサーバ3から通信部25により受信して取得する。ビューポイントは、全方位カメラを搭載した車両(自動車)が走行した道路上のポイントである。又、ストリートビュー画像は、その車両に搭載されている全方位カメラが撮影した道路沿いの風景の画像である。
表示制御部21cは、画像取得部21bにより取得されたストリートビュー画像を表示部24に表示させる。操作受付部21dは、ユーザがユーザインタフェース部23に対して行った操作を受け付ける。ユーザがユーザインタフェース部23を構成するタッチパネルに対して行う操作としては、タッチ操作(指先で画面を1回押す(叩く)操作、タップ操作と同意)、ダブルタッチ操作(指先で画面を2回押す操作)、ロングタッチ操作(指先で画面を長く押す操作)、フリック操作(指先で画面に触れ、その指先を素早く所定方向(上下左右方向)に払う操作)、スワイプ操作(指先で画面に触れ、その指先を移動させる(なぞる)操作)、ピンチイン操作(2本の指先で画面に触れ、その2本の指先の間隔を狭める操作)、ピンチアウト操作(2本の指先で画面に触れ、その2本の指先の間隔を広げる操作)等がある。
サーバ3は、制御部31と、メモリ32と、記憶部33と、通信部34とを有する。制御部31は、CPU、ROM、RAM及びI/Oを有するマイクロコンピュータにより構成されている。メモリ32は、例えば半導体記憶素子等により構成されており、コンピュータプログラムを記憶している。制御部31は、メモリ32に記憶されているコンピュータプログラムを実行し、サーバ3の動作全般を制御する。記憶部33は、ハードディスク等の記憶媒体で構成されており、地図を格納する地図データベース33aと、ストリートビュー画像を格納する画像データベース33bとを有する。地図データベース33aに格納されている地図には、道路上のビューポイントの地点(緯度経度)が含まれている。通信部34は、画像表示端末2との間での通信ネットワークを介したデータ通信を制御する。
制御部31は、方向特定部31aと、画像抽出部31bと、画像提供部31cとを有する。これら方向特定部31a、画像抽出部31b、画像提供部31cは、制御部31が実行するコンピュータプログラムにより構成されており、ソフトウェアにより実現されている。方向特定部31aは、画像表示端末2から地点情報が通信部34により受信されると、その地点情報の地点を特定し、地図データベース33aを検索し、その特定した地点に最も近い(地点から最寄りの)ビューポイントを特定する。そして、方向特定部31aは、その特定したビューポイントと地点情報の地点との地図上の相対的な位置関係を判定し、ビューポイントから地点情報の地点に向かう方向を特定する。画像抽出部31bは、方向特定部31aにより方向が特定されると、画像データベース33bを検索し、その特定されたビューポイントに対応する全方位のストリートビュー画像の中から当該特定された方向のストリートビュー画像を抽出する(切り出す)。画像提供部31cは、画像抽出部31bによりストリートビュー画像が抽出されると、その抽出されたストリートビュー画像を通信部34から通信ネットワークを介して画像表示端末2に送信させる。
ストリートビューの対象となる表示対象物について図2を参照して説明する。図2の例示では、表示対象物D(例えば店舗等)が立設されている敷地Gの正面側(表側)には表道51が敷設され、敷地Gの背面側(裏側)には裏道52が敷設され、敷地Gの側面には脇道53が敷設されている。又、敷地G内には駐車スペースEが設けられている。全方位カメラを搭載した車両が表道51、裏道52、脇道53をそれぞれ走行したことで、表道51にはビューポイント51a〜51jが設定され、裏道52にはビューポイント52a〜52kが設定され、脇道53にはビューポイント53a〜53dが設定されている。これらビューポイント51a〜51j、52a〜52k、53a〜53dはほぼ等間隔に設定されている。図2の例示では、サーバ3の画像データベース33bには、表道51、裏道52、脇道53のそれぞれのビューポイント51a〜51j、52a〜52k、53a〜53dに対応するストリートビュー画像が格納されている。
画像表示端末2は、ユーザが地図アプリの起動操作を行うと、地図アプリを起動し、図3に示すように、ユーザが指定した地域の地図画像を含む地図画面M1を表示する。地図画面M1では、地図画像が表示される地図画像表示領域101と選択項目が表示される選択項目表示領域102とが上下に並んでいる。地図画像表示領域101には、ユーザが選択項目表示領域102にて選択中の地点情報(図3ではコンビニB)を含む周辺の地図画像が表示されていると共に、ユーザがタッチ操作可能な地図釦101aが地図画像上に形成(重畳表示)されている。ユーザは、地図釦101aをタッチ操作することで、地図画面からストリートビュー画面へと表示を切り替えることが可能である。
画像表示端末2は、ユーザが地図釦101aをタッチ操作すると、地図表示モードからストリートビュー表示モードに移行する。画像表示端末2は、地図表示モードからストリートビュー表示モードに移行すると、選択中の地点情報を設定し、その設定した地点情報を含む画像要求信号を通信ネットワークを介してサーバ3に送信する。サーバ3は、画像表示端末2から画像要求信号を受信すると、その受信した画像要求信号に含まれている地点情報の地点(図2では地点O)に最も近い(地点から最寄りの)ビューポイントを特定する。そして、サーバ3は、その特定したビューポイントから地点情報の地点に向かう方向が撮影されたストリートビュー画像を含む画像応答信号を通信ネットワークを介して画像表示端末2に送信する。
画像表示端末2は、サーバ3から画像応答信号を受信すると、図4に示すように、その受信した画像応答信号に含まれているストリートビュー画像を含むストリートビュー画面M2を表示する。ストリートビュー画面M2では、ストリートビュー画像が表示されるストリートビュー画像表示領域201と選択項目が表示される選択項目表示領域202とが上下に並んでいる。ストリートビュー画像表示領域201には、ユーザが選択項目表示領域202にて選択中の地点情報(図4でもコンビニB)を含む周辺のストリートビュー画像が表示されていると共に、ユーザがタッチ操作可能なストリートビュー釦201aがストリートビュー画像上に形成されている。このようにしてユーザは、地図画面からストリートビュー画面へと表示を切り替える操作を行うことで、所望の表示対象物Dの周囲の様子を道路からの視点で確認することができる。
ところで、地点情報の地点Oは表示対象物Dの一部(例えば店舗の出入口等)に設定されていることが多い。そのため、図2に示したように、多数の駐車スペースEの確保や車両の入場及び退場等の様々な事情により敷地G内において表示対象物Dが裏道52側に偏って立設されていると、地点情報の地点Oに最も近いビューポイントが裏道52のビューポイント52eに設定されることになる。そうなると、図4に示したように、ビューポイント52eから地点情報の地点Oに向かう方向が撮影されたストリートビュー画像、即ち、表示対象物Dの背面のストリートビュー画像が表示され、ユーザにとって好ましくないストリートビュー画像が表示されることになる。このようにユーザにとって好ましくないストリートビュー画像が表示されるという問題に対し、画像表示端末2及びサーバ3は以下に示す動作を行う。
次に、上記した構成の作用について、図5から図13を参照して説明する。
最初にユーザは地図アプリの起動操作を行う。制御部21は、ユーザが地図アプリの起動操作を行ったと判定すると(A1:YES)、地図アプリを起動する(A2)。制御部21は、地図アプリを起動すると、図3に示したように、ユーザが指定した地域の地図画像を含む地図画面M1を表示部24に表示させる(A3)。続いてユーザは地図釦101aをタッチ操作する。制御部21は、ユーザが地図釦101aをタッチ操作したことで、地図画面からストリートビュー画面へと表示を切り替える操作を行ったと判定すると(A4:YES)、地図表示モードからストリートビュー表示モードに移行する(A5)。制御部21は、ストリートビュー表示モードに移行すると、選択中の地点情報を設定し(A6、第1の手順)、その設定した地点情報を含む画像要求信号を通信部25から通信ネットワークを介してサーバ3に送信させる(A7)。
サーバ3において、制御部31は、画像表示端末2から画像要求信号を通信部34により受信すると(B1)、その受信した画像要求信号に含まれている地点情報の地点Oに最も近い(地点Oから最寄りの)ビューポイントを特定する(B2)。そして、制御部31は、その特定したビューポイントから地点情報の地点Oに向かう方向が撮影されたストリートビュー画像を抽出し、その抽出したストリートビュー画像を含む画像応答信号を通信部34から通信ネットワークを介して画像表示端末2に送信させる(B3)。この場合、制御部31は、地点Oに最も近いビューポイントとして裏道52のビューポイント52eを設定し、裏道52のビューポイント52eから地点Oに向かう方向が撮影されたストリートビュー画像、即ち、表示対象物Dの背面のストリートビュー画像を含む画像応答信号を送信させる。
画像表示端末2において、制御部21は、サーバ3から画像応答信号を通信部24により受信すると(A8、第2の手順)、図6に示すように、その受信した画像応答信号に含まれているストリートビュー画像を含むストリートビュー画面M3を表示部24に表示させる(A9、第3の手順)。ここで、制御部21は、ストリートビュー画面M3では、図4に示したストリートビュー釦201aに加え、ユーザがタッチ操作可能な視点切替釦201b(操作手段に相当)をストリートビュー画像上に形成(重畳表示)する。即ち、図4に示した従来のストリートビュー画面M2ではストリートビュー釦201aのみが形成されているが、図6に示す本発明のストリートビュー画面M3ではストリートビュー釦201aに加え、視点切替釦201bが形成されている。制御部21は、ストリートビュー画面M3を表示中では、ストリートビュー釦201a又は視点切替釦201bの何れかのタッチ操作を待機する。
この状態で、ユーザはストリートビュー画像を視点変更する場合には指先で視点切替釦201bをタッチ操作する。制御部21は、ユーザが視点切替釦201bをタッチ操作して視点変更の操作を行ったと判定すると(A10:YES、第4の手順)、地点情報の地点Oを基準として仮想地点を特定する(A11)。この場合、地点情報の地点Oは視点変更前の地点であり、仮想地点は視点変更後の地点である。具体的に図10を参照して説明すると、制御部21は、地点情報の地点Oと現在のビューポイント(視点変更前のビューポイント)52eとを結ぶ線分L0の長さを特定する。次いで、制御部21は、線分L0の長さと等しく且つ当該線分L0との間で時計回り方向に90度を形成する線分L1を特定し、その線分L1の端点を仮想地点P1として特定する。そして、制御部21は、このようにして特定した仮想地点P1を含む画像要求信号を通信部25から通信ネットワークを介してサーバ3に送信させる(A12)。
サーバ3において、制御部31は、画像表示端末2から画像要求信号を通信部34により受信すると(B4)、その受信した画像要求信号に含まれている仮想地点P1に最も近い(仮想地点P1から最寄りの)ビューポイントを特定する(B5)。そして、制御部31は、その特定したビューポイントから仮想地点P1に向かう方向が撮影されたストリートビュー画像を抽出し、その抽出したストリートビュー画像を含む画像応答信号を通信部34から通信ネットワークを介して画像表示端末2に送信させる(B6)。この場合、制御部31は、仮想地点P1に最も近いビューポイントとして脇道53のビューポイント53cを特定し、脇道53のビューポイント53cから仮想地点P1に向かう方向が撮影されたストリートビュー画像、即ち、表示対象物Dの正面右側面のストリートビュー画像を含む画像応答信号を送信させる。
画像表示端末2において、制御部21は、サーバ3から画像応答信号を通信部24により受信すると(A13、第5の手順)、図7に示すように、その受信した画像応答信号に含まれているストリートビュー画像を含むストリートビュー画面M4を表示部24に表示させる(A14、第6の手順)。ここでも、制御部21は、ユーザがタッチ操作可能な視点切替釦201bをストリートビュー画像上に形成する。これにより、ユーザは、地図画面M1からストリートビュー画面M3へと表示を切り替える操作を行うと、その直後では最初に表示対象物Dの背面のストリートビュー画像が表示されるが、視点切替釦201bをタッチ操作することで、表示対象物Dの背面のストリートビュー画像から表示対象物Dの正面右側面のストリートビュー画像へと表示を切り替えることができる。即ち、ユーザは表示対象物Dの正面右側面の様子を脇道53からの視点で確認することができる。
制御部21は、これ以降、ユーザが視点切替釦201bをタッチ操作する毎に同様の手順を繰り返して行う。即ち、制御部21は、図7に示したストリートビュー画面M4を表示中にユーザが視点切替釦201bをタッチ操作したと判定すると、図10に示すように、線分L0の長さと等しく且つ当該線分L0との間で時計回り方向に180度(90度×2)を形成する線分L2を特定し、その線分L2の端点を仮想地点P2として特定する。そして、制御部21は、その特定した仮想地点P2を含む画像要求信号を通信部25から通信ネットワークを介してサーバ3に送信させる。この場合、サーバ3において、制御部31は、仮想地点P2に最も近いビューポイントとして表道51のビューポイント51eを特定し、表道51のビューポイント51eから仮想地点P2に向かう方向が撮影されたストリートビュー画像、即ち、表示対象物Dの真正面のストリートビュー画像を含む画像応答信号を送信させる。これに応じて、制御部21は、サーバ3から画像応答信号を通信部24により受信すると、図8に示すように、表示対象物Dの真正面のストリートビュー画像を含むストリートビュー画面M5を表示部24に表示させる。これにより、ユーザは、視点切替釦201bをタッチ操作することで、表示対象物Dの真正面のストリートビュー画像へと表示を切り替えることができる。即ち、ユーザは表示対象物Dの真正面の様子を表道51からの視点で確認することができる。
更に、制御部21は、図8に示したストリートビュー画面M5を表示中にユーザが視点切替釦201bをタッチ操作したと判定すると、図10に示すように、線分L0の長さと等しく且つ当該線分L0との間で時計回り方向に270度(90度×3)を形成する線分L3を特定し、その線分L3の端点を仮想地点P3として特定する。そして、制御部21は、その特定した仮想地点P3を含む画像要求信号を通信部25から通信ネットワークを介してサーバ3に送信させる。この場合、サーバ3において、制御部31は、仮想地点P3に最も近いビューポイントとして裏道52のビューポイント52gを特定し、裏道52のビューポイント52gから仮想地点P3に向かう方向が撮影されたストリートビュー画像、即ち、表示対象物Dの背面左側面のストリートビュー画像を含む画像応答信号を送信させる。これに応じて、制御部21は、サーバ3から画像応答信号を通信部24により受信すると、図9に示すように、表示対象物Dの背面左側面のストリートビュー画像を含むストリートビュー画面M6を表示部24に表示させる。これにより、ユーザは、視点切替釦201bをタッチ操作することで、表示対象物Dの背面左側面のストリートビュー画像へと表示を切り替えることができる。即ち、ユーザは表示対象物Dの背面左側面の様子を裏道52からの視点で確認することができる。上記した一連の処理では、ストリートビュー画面M3に表示されるストリートビュー画像が視点変更前のストリートビュー画像であり、ストリートビュー画面M4〜M6に表示されるストリートビュー画像が視点変更後のストリートビュー画像である。
尚、制御部21は、図9に示したストリートビュー画面M6を表示中にユーザが視点切替釦201bをタッチ操作したと判定すると、視点が周回したと判定し、図6に示した最初のストリートビュー画像、即ち、表示対象物Dの背面のストリートビュー画像を含むストリートビュー画面M3を表示部24に再度表示させる(最初の表示に戻る)。
制御部2は、以上に説明した一連の処理を行うことで、ユーザが視点切替釦201bをタッチ操作すること連動してストリートビュー画像を視点変更して表示させる。このとき、ユーザは、指先でタッチパネルをなぞる操作を行う必要はないので、なぞる方向やなぞる距離をある程度調節する必要がなく、なぞる操作の開始から終了まで画面を注視しておく必要もない。即ち、ユーザは、指先で視点切替釦201bをタッチ操作するという簡単な操作を行うだけで、ストリートビュー画像を視点変更して表示させることができる。
尚、以上は、最初のストリートビュー画面M3を表示させている状態からの変更角度を時計回り方向に90度、180度、270度の順序とすることで、図11に示すように、ストリートビュー画面M3、M4、M5、M6の順序で表示させる場合を説明したが、どのような順序で表示させても良い。即ち、最初のストリートビュー画面M3を表示させている状態からの変更角度を180度、90度、270度の順序とすることで、図12に示すように、ストリートビュー画面M3、M5、M4、M6の順序で表示させても良い。又、ストリートビュー画面M3、M6、M5、M4というように反時計回りの順序で表示させても良い。又、変更角度を3つとすることに限らず、1つ以上とすれば良い。変更角度を1つとする場合であれば、視点の変更量が最大となる180度とすることが望ましい。又、表示対象物Dが例えば大型店舗等であれば、変更角度をより多くすることで、表示対象物Dの周囲の様子をより多くの視点で確認することができる。又、ユーザが変更角度の大きさや個数及び変更順序を任意に設定可能として良い。
又、以上は、視点変更後の地点として仮想地点を用いることで、仮想地点に最も近いビューポイントから仮想地点に向かう方向が撮影されたストリートビュー画像を表示させる場合を説明したが、視点変更前の地点をそのまま視点変更後の地点として用い、仮想地点に最も近いビューポイントから視点変更前の地点に向かう方向が撮影されたストリートビュー画像を表示させても良い。図10の例示では、脇道53のビューポイント53c、表道51のビューポイント51e、裏道52のビューポイント52gのそれぞれから地点情報の地点Oに向かう方向が撮影されたストリートビュー画像を表示させても良い。
又、以上は、画像表示端末2が仮想地点を特定する場合を説明したが、サーバ3が仮想地点を特定しても良い。この場合、図13に示すように、画像表示端末2において、制御部21は、ユーザが視点切替釦201bをタッチ操作して視点変更の操作を行ったと判定すると(A10:YES)、その視点変更の操作が行われたことを示すと共に地点情報の地点Oと現在のビューポイントとを操作情報として含む画像要求信号を通信部25から通信ネットワークを介してサーバ3に送信させる(A21)。
サーバ3において、制御部31は、画像表示端末2から画像要求信号を通信部34により受信すると(B21)、その受信した画像要求信号に含まれている地点情報の地点Oと現在のビューポイントとを用いて上記した手順と同様にして仮想地点P1を特定する(B22)。そして、制御部31は、その特定した仮想地点P1に最も近い(仮想地点P1から最寄りの)ビューポイントを特定し(B23)。その特定したビューポイントから仮想地点P1に向かう方向が撮影されたストリートビュー画像を含む画像応答信号を通信部34から通信ネットワークを介して画像表示端末2に送信させる(B24)。
画像表示端末2において、制御部21は、サーバ3から画像応答信号を通信部24により受信すると(A22)、図7に示すように、その受信した画像応答信号に含まれているストリートビュー画像を含むストリートビュー画面M4を表示部24に表示させる(A23)。以下、サーバ3において、制御部31は、仮想地点P2、P3についても同様の手順により特定する。
以上に説明したように第1の実施形態によれば、次に示す効果を得ることができる。
画像表示端末2において、ストリートビュー画面M3〜M6に視点切替釦201bを形成し、視点切替釦201bがタッチ操作されると、ストリートビュー画像を視点変更して表示するようにした。これにより、ユーザが指先でタッチパネルをなぞる操作を行う従来とは異なり、ユーザが視点切替釦201bをタッチするという簡単な操作を行うだけで、ストリートビュー画像を視点変更して表示させることができる。即ち、とりあえず現在の視点とは異なる別の視点からのストリートビュー画像を取得したいという要求に対し、操作性を高めることができる。
(第2の実施形態)
次に、本発明の第2の実施形態について図14から図16を参照して説明する。尚、上記した第1の実施形態と同一部分については説明を省略し、異なる部分について説明する。第1の実施形態は、仮想地点を特定して視点変更する構成であったが、第2の実施形態は、基準線を特定して視点変更する構成である。
この場合、制御部21は、ユーザが視点切替釦201bをタッチ操作して視点変更の操作を行ったと判定すると(A10:YES、第4の手順)、地点情報の地点Oを基準として基準線を特定する(A31)。具体的に図15を参照して説明すると、制御部21は、地点情報の地点Oと現在のビューポイント(視点変更前のビューポイント)52eとを結ぶ線分L0との間で時計回り方向に90度を形成する基準線L11を特定する。そして、制御部21は、このようにして特定した基準線L11と予め設定している所定距離rとを含む画像要求信号を通信部25から通信ネットワークを介してサーバ3に送信させる(A32)。
サーバ3において、制御部31は、画像表示端末2から画像要求信号を通信部34により受信すると(B31)、その受信した画像要求信号に含まれている所定距離rを特定し、地点情報の地点Oから所定距離rの範囲内に存在し且つ基準線L11に最も近いビューポイントを特定する(B32)。そして、制御部31は、その特定したビューポイントから地点情報の地点Oに向かう方向が撮影されたストリートビュー画像を含む画像応答信号を通信部34から通信ネットワークを介して画像表示端末2に送信させる(B33)。この場合、制御部31は、地点情報の地点Oから所定距離rの範囲内に存在し且つ基準線L11に最も近いビューポイントとして脇道53のビューポイント53cを特定し、脇道53のビューポイント53cから地点情報の地点Oに向かう方向が撮影されたストリートビュー画像、即ち、表示対象物Dの正面右側面のストリートビュー画像を含む画像応答信号を送信させる。
画像表示端末2において、制御部21は、サーバ3から画像応答信号を通信部24により受信すると(A33、第5の手順)、その受信した画像応答信号に含まれているストリートビュー画像を含むストリートビュー画面を表示部24に表示させる(A34、第6の手順)。ここでも、制御部21は、ユーザがタッチ操作可能な視点切替釦201bをストリートビュー画像上に形成する。これにより、ユーザは、この場合も、地図画面M1からストリートビュー画面M3へと表示を切り替える操作を行うと、その直後では最初に表示対象物Dの背面のストリートビュー画像が表示されるが、視点切替釦201bをタッチ操作することで、表示対象物Dの背面のストリートビュー画像から表示対象物Dの正面右側面のストリートビュー画像へと表示を切り替えることができる。
制御部21は、これ以降、ユーザが視点切替釦201bをタッチ操作する毎に同様の手順を繰り返して行う。即ち、制御部21は、ユーザが視点切替釦201bをタッチ操作すると、線分L0との間で時計回り方向に180度(90度×2)を形成する基準線L12を特定する。この場合、制御部21は、表道51のビューポイント51eから地点情報の地点Oに向かう方向が撮影されたストリートビュー画像を含むストリートビュー画面を表示部24に表示させる。制御部21は、ユーザが更に視点切替釦201bをタッチ操作すると、線分L0との間で時計回り方向に270度(90度×3)を形成する基準線L13を特定する。この場合、制御部21は、裏道52のビューポイント52iから地点情報の地点Oに向かう方向が撮影されたストリートビュー画像を含むストリートビュー画面を表示部24に表示させる。尚、この場合も、ユーザが変更角度の大きさや個数及び変更順序を任意に設定可能として良く、所定距離を設定可能として良い。
又、この場合も、画像表示端末2が基準線を特定することに限らず、サーバ3が基準線を特定しても良い。この場合、図16に示すように、画像表示端末2において、制御部21は、ユーザが視点切替釦201bをタッチ操作して視点変更の操作を行ったと判定すると(A10:YES)、その視点変更の操作が行われたことを示すと共に地点情報の地点Oと現在のビューポイントと所定距離rとを操作情報として含む画像要求信号を通信部25から通信ネットワークを介してサーバ3に送信させる(A41)。
サーバ3において、制御部31は、画像表示端末2から画像要求信号を通信部34により受信すると(B41)、その受信した画像要求信号に含まれている地点情報の地点Oと現在のビューポイントと所定距離rとを用いて上記した手順と同様にして基準線L11を特定する(B42)。そして、制御部31は、地点情報の地点Oから所定距離rの範囲内に存在し且つ基準線L11に最も近いビューポイントを特定し(B43)、その特定したビューポイントから地点情報の地点Oに向かう方向が撮影されたストリートビュー画像を含む画像応答信号を通信部34から通信ネットワークを介して画像表示端末2に送信させる(B44)。
画像表示端末2において、制御部21は、サーバ3から画像応答信号を通信部24により受信すると(A42)、その受信した画像応答信号に含まれているストリートビュー画像を含むストリートビュー画面を表示部24に表示させる(A43)。以下、サーバ3において、制御部31は、基準線L12、L13についても同様の手順により特定する。
以上に説明したように第2の実施形態によれば、第1の実施形態と同様の作用効果を得ることができる。即ち、ユーザが視点切替釦201bをタッチするという簡単な操作を行うだけで、ストリートビュー画像を視点変更して表示させることができ、とりあえず現在の視点とは異なる別の視点からのストリートビュー画像を取得したいという要求に対し、操作性を高めることができる。
(その他の実施形態)
本発明は、上記した実施形態で例示したものに限定されることなく、その範囲を逸脱しない範囲で任意に変形又は拡張することができる。
本実施形態では、画像表示端末としてスマートフォンを例示したが、スマートフォンよりも表示部の表示面積が小さい簡易な携帯電話機やスマートフォンよりも表示部の表示面積が大きいタブレット端末等であっても良い。
本実施形態では、タッチ操作が1回行われる毎に、ストリートビュー画像の表示が1つの変更角度分(図10では90度分)だけ切り替えられる構成を例示したが、どのようなタッチ操作が行われても良い。例えばダブルタッチ操作が行われると、ストリートビュー画像の表示が2つの変更角度分(図10では180度分)だけ切り替えられる構成でも良い。又、ロングタッチ操作が行われると、指先が画面に触れている期間でストリートビュー画像の表示が連続的に切り替えられる構成でも良い。即ち、本発明でいうタッチ操作とは、なぞる操作と指先の動きが異なる操作であれば、指先が画面に触れる回数や期間はどのようであっても良い。
図面中、1は画像表示システム、2は画像表示端末、3はサーバ、21は制御部(制御手段)、21aは地点情報設定部(地点情報設定手段)、21bは画像取得部(画像取得手段)、21cは表示制御部(表示制御手段)、21dは操作受付部(操作受付手段)、24は表示部(表示手段)、201bは視点切替釦(操作手段)である。

Claims (11)

  1. 表示対象物の地点情報を設定する地点情報設定手段(21a)と、
    ビューポイントから前記地点情報設定手段により設定された地点情報の地点に向かう方向が撮影されたストリートビュー画像をサーバ(3)から取得する画像取得手段(21b)と、
    前記画像取得手段により取得されたストリートビュー画像を表示手段(24)に表示させる表示制御手段(21c)と、
    ユーザによる操作手段(201b)のタッチ操作を受け付ける操作受付手段(21d)と、を備え、
    前記画像取得手段は、視点変更前のビューポイントから視点変更前の地点に向かう方向が撮影された視点変更前のストリートビュー画像を前記表示手段に表示中にユーザによる前記タッチ操作が前記操作受付手段により受け付けられると、視点変更前のビューポイントとは異なる別の視点変更後のビューポイントから視点変更後の地点に向かう方向が撮影された視点変更後のストリートビュー画像を前記サーバから取得し、
    前記表示制御手段は、前記画像取得手段により取得された視点変更後のストリートビュー画像を前記表示手段に表示させることを特徴とする画像表示端末(2)。
  2. 請求項1に記載した画像表示端末において、
    前記画像取得手段は、視点変更前の地点から視点変更前のビューポイントまでの距離と等距離だけ離れ且つ視点変更前の地点と視点変更前のビューポイントとを結ぶ線分との間で所定角度を形成する線分の端点を仮想地点として特定し、その特定した仮想地点を視点変更後の地点とすることで、仮想地点に最も近いビューポイントから仮想地点に向かう方向が撮影されたストリートビュー画像を視点変更後のストリートビュー画像として前記サーバから取得することを特徴とする画像表示端末。
  3. 請求項1に記載した画像表示端末において、
    前記画像取得手段は、視点変更前の地点から視点変更前のビューポイントまでの距離と等距離だけ離れ且つ視点変更前の地点と視点変更前のビューポイントとを結ぶ線分との間で所定角度を形成する線分の端点を仮想地点として特定し、視点変更前のビューポイントをそのまま視点変更後のビューポイントとすることで、視点変更前のビューポイントをそのまま視点変更後のビューポイントとすることで、仮想地点に最も近いビューポイントから視点変更前の地点に向かう方向が撮影されたストリートビュー画像を視点変更後のストリートビュー画像として前記サーバから取得することを特徴とする画像表示端末。
  4. 請求項1に記載した画像表示端末において、
    前記画像取得手段は、視点変更前の地点と視点変更前のビューポイントとを結ぶ線分との間で所定角度を形成する基準線を特定し、視点変更前のビューポイントをそのまま視点変更後のビューポイントとすることで、視点変更前の地点から所定距離の範囲内に存在し且つ基準線に最も近いビューポイントから視点変更前の地点に向かう方向が撮影されたストリートビュー画像を視点変更後のストリートビュー画像として前記サーバから取得することを特徴とする画像表示端末。
  5. 請求項2から4の何れか一項に記載した画像表示端末において、
    前記画像取得手段は、前記所定角度を複数設定し、視点変更後のビューポイントを前記サーバから複数取得することを特徴とする画像表示端末。
  6. 請求項5に記載した画像表示端末において、
    前記表示制御手段は、ユーザによる前記タッチ操作が前記操作受付手段により受け付けられる毎に、複数の視点変更後のストリートビュー画像を順次切り替えて前記表示手段に順次表示させることを特徴とする画像表示端末。
  7. 請求項6に記載した画像表示端末において、
    前記表示制御手段は、ユーザによる前記タッチ操作が前記操作受付手段により受け付けられる毎に、視点変更前のストリートビュー画像と複数の視点変更後のストリートビュー画像とを所定の周回方向にしたがって順次切り替えて前記表示手段に順次表示させることを特徴とする画像表示端末。
  8. 請求項5に記載した画像表示端末において、
    前記画像取得手段は、前記複数の所定角度の1つして180度を設定し、
    前記表示制御手段は、ユーザによる最初の前記タッチ操作が前記操作受付手段により受け付けられると、所定角度が180度の条件を満たす視点変更後のビューポイントから視点変更後の地点に向かう方向が撮影された視点変更後のストリートビュー画像を前記表示手段に表示させることを特徴とする画像表示端末。
  9. 請求項8に記載した画像表示端末において、
    前記表示制御手段は、ユーザによる2回目以降の前記タッチ操作が前記操作受付手段により受け付けられると、所定角度が180度以外の条件を満たす視点変更後のビューポイントから視点変更後の地点に向かう方向が撮影された視点変更後のストリートビュー画像を前記表示手段に表示させることを特徴とする画像表示端末。
  10. 請求項1から9の何れか一項に記載した画像表示端末(2)と、
    ストリートビュー画像を提供するサーバ(3)と、を備えたことを特徴とする画像表示システム(1)。
  11. 画像表示端末(2)の制御手段(21)に、
    表示対象物の地点情報を設定する第1の手順と、
    ビューポイントから前記第1の手順により設定した地点情報の地点に向かう方向が撮影されたストリートビュー画像をサーバ(3)から取得する第2の手順と、
    前記第2の手順により取得した画像を表示手段(24)に表示させる第3の手順と、
    視点変更前のビューポイントから視点変更前の地点に向かう方向が撮影された視点変更前のストリートビュー画像を前記表示手段に表示中にユーザによる操作手段(201b)のタッチ操作を受け付けたか否かを判定する第4の手順と、
    ユーザによる前記タッチ操作を受け付けたと前記第4の手順により判定すると、視点変更前のビューポイントとは異なる別の視点変更後のビューポイントから視点変更後の地点に向かう方向が撮影された視点変更後のストリートビュー画像を前記サーバから取得する第5の手順と、
    前記第5の手順により取得した視点変更後のストリートビュー画像を前記表示手段に表示させる第6の手順と、を実行させることを特徴とする画像表示プログラム。
JP2014252144A 2014-12-12 2014-12-12 画像表示端末、画像表示システム及び画像表示プログラム Active JP6358072B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014252144A JP6358072B2 (ja) 2014-12-12 2014-12-12 画像表示端末、画像表示システム及び画像表示プログラム
PCT/JP2015/006100 WO2016092823A1 (ja) 2014-12-12 2015-12-08 画像表示端末、画像表示システム、画像表示プログラム、および画像表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014252144A JP6358072B2 (ja) 2014-12-12 2014-12-12 画像表示端末、画像表示システム及び画像表示プログラム

Publications (3)

Publication Number Publication Date
JP2016115067A true JP2016115067A (ja) 2016-06-23
JP2016115067A5 JP2016115067A5 (ja) 2016-12-15
JP6358072B2 JP6358072B2 (ja) 2018-07-18

Family

ID=56107035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014252144A Active JP6358072B2 (ja) 2014-12-12 2014-12-12 画像表示端末、画像表示システム及び画像表示プログラム

Country Status (2)

Country Link
JP (1) JP6358072B2 (ja)
WO (1) WO2016092823A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10853643B2 (en) 2017-10-27 2020-12-01 Rakuten, Inc. Image extraction device, image extraction method, and image extraction program
US11021112B2 (en) 2018-07-30 2021-06-01 Honda Motor Co., Ltd. Display control device and computer-readable storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD886135S1 (en) 2016-11-23 2020-06-02 Google Inc. Display screen with animated graphical user interface

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070273712A1 (en) * 2006-05-26 2007-11-29 O'mullan Beth Ellyn Embedded navigation interface
JP2013020008A (ja) * 2011-07-08 2013-01-31 Mic Ware:Kk 地図表示装置、地図表示方法、プログラム、およびデータ構造
JP2013534656A (ja) * 2010-06-02 2013-09-05 マイクロソフト コーポレーション 適応的で革新的なモバイルデバイスのストリートビュー
US20130321402A1 (en) * 2012-06-05 2013-12-05 Apple Inc. Rotation operations in a mapping application

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070273712A1 (en) * 2006-05-26 2007-11-29 O'mullan Beth Ellyn Embedded navigation interface
JP2013534656A (ja) * 2010-06-02 2013-09-05 マイクロソフト コーポレーション 適応的で革新的なモバイルデバイスのストリートビュー
JP2013020008A (ja) * 2011-07-08 2013-01-31 Mic Ware:Kk 地図表示装置、地図表示方法、プログラム、およびデータ構造
US20130321402A1 (en) * 2012-06-05 2013-12-05 Apple Inc. Rotation operations in a mapping application

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"3 Things Bing Maps Does Better Than Google Maps", PC MECH, JPN6016002667, 8 August 2012 (2012-08-08) *
"iPhone5パワーアップガイド 第2章 マップアプリ強化", IPHONE PEOPLE, JPN6016002661, 29 October 2012 (2012-10-29), JP, pages pp.12−28 *
IOS標準マップアプリが【3D FLYOVER】に対応。東京の街が3Dで再現されたぞ!, JPN6016002664, 1 July 2014 (2014-07-01) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10853643B2 (en) 2017-10-27 2020-12-01 Rakuten, Inc. Image extraction device, image extraction method, and image extraction program
US11021112B2 (en) 2018-07-30 2021-06-01 Honda Motor Co., Ltd. Display control device and computer-readable storage medium

Also Published As

Publication number Publication date
WO2016092823A1 (ja) 2016-06-16
JP6358072B2 (ja) 2018-07-18

Similar Documents

Publication Publication Date Title
US10530998B2 (en) Image processing device, imaging device, image processing method, and program
JP5315111B2 (ja) 端末装置、情報提示システム及び端末画面表示方法
CN105959553B (zh) 一种摄像头的切换方法及终端
US10222968B2 (en) Image display control apparatus, image display apparatus, non-transitory computer readable medium, and image display control method
US9013368B1 (en) Foldable mobile device and method of controlling the same
JP6009584B2 (ja) 表示処理方法及び情報装置
KR20210042621A (ko) 전자 장치 및 이를 이용한 카메라 배율 조정 방법
CN107643912B (zh) 一种信息分享方法及移动终端
JP5755915B2 (ja) 情報処理装置、拡張現実感提供方法、及びプログラム
US20140092136A1 (en) Image display control apparatus, image display apparatus, non-transitory computer readable medium, and image display method
JP6647103B2 (ja) 表示制御装置およびその制御方法
CN107172347B (zh) 一种拍照方法及终端
US10095384B2 (en) Method of receiving user input by detecting movement of user and apparatus therefor
WO2017126222A1 (ja) 表示制御装置、表示制御方法及びコンピュータプログラム
JP4757934B2 (ja) 携帯型電子機器、および携帯型電子機器の動作方法
CN106412432A (zh) 一种拍照方法及移动终端
JP6358072B2 (ja) 画像表示端末、画像表示システム及び画像表示プログラム
KR102501713B1 (ko) 영상 표시 방법 및 그 전자장치
CN106896995B (zh) 移动终端的壁纸配置方法和装置
CN111010528A (zh) 视频通话方法、移动终端及计算机可读存储介质
JP2016038619A (ja) 携帯端末装置及びその操作方法
JP6155893B2 (ja) 画像処理装置、及びプログラム
US20200257396A1 (en) Electronic device and control method therefor
WO2019102885A1 (ja) 画像の表示部分を変更可能な電子機器
JP5965515B2 (ja) 情報処理装置、拡張現実感提供方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180604

R151 Written notification of patent or utility model registration

Ref document number: 6358072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250