JP6630654B2 - Program, method, information processing device and video display system - Google Patents
Program, method, information processing device and video display system Download PDFInfo
- Publication number
- JP6630654B2 JP6630654B2 JP2016215394A JP2016215394A JP6630654B2 JP 6630654 B2 JP6630654 B2 JP 6630654B2 JP 2016215394 A JP2016215394 A JP 2016215394A JP 2016215394 A JP2016215394 A JP 2016215394A JP 6630654 B2 JP6630654 B2 JP 6630654B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- region
- displayed
- predetermined
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 21
- 238000000034 method Methods 0.000 title claims description 10
- 238000003384 imaging method Methods 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 36
- 230000008859 change Effects 0.000 description 27
- 230000007704 transition Effects 0.000 description 25
- 238000013500 data storage Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 12
- 230000009467 reduction Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、プログラム、方法、情報処理装置および映像表示システムに関する。 The present invention relates to a program, a method, an information processing device, and a video display system.
パノラマ映像(水平方向に広い視野を有する映像)や全天球映像(全方向に視野を有する映像)等の広視野映像の撮影・表示が普及しつつある(例えば、特許文献1等を参照。)。 2. Description of the Related Art Shooting and displaying wide-field images such as panoramic images (images having a wide field of view in the horizontal direction) and omnidirectional images (images having a field of view in all directions) are becoming widespread (for example, see Patent Document 1). ).
このような広視野映像を画面表示する場合、1つの表示領域に全方向の映像を表示することは視認性の観点からも困難であるため、複数の表示領域に方向の異なる部分的な映像を表示する場合がある。 When such a wide-field image is displayed on a screen, it is difficult to display an image in all directions in one display area from the viewpoint of visibility. Therefore, partial images having different directions are displayed in a plurality of display areas. May be displayed.
このように複数の表示領域に方向の異なる部分的な映像を表示する場合、各表示領域に所定の方向の映像が固定されるものが多い。この場合、表示領域に対する映像の移動や拡大縮小等の操作は行わない。 When displaying partial images having different directions in a plurality of display areas as described above, an image in a predetermined direction is often fixed in each display area. In this case, operations such as moving or enlarging / reducing the image with respect to the display area are not performed.
表示領域に対して移動や拡大縮小等の操作を行えるようにすることも考えられるが、各表示領域について独立に移動や拡大縮小の操作を行うのが基本となる。 Although it is conceivable that operations such as movement and enlargement / reduction can be performed on the display area, it is fundamental to perform movement / enlargement / reduction operation independently for each display area.
上述したように、広視野映像を複数の表示領域に表示する場合、広視野映像の特性に適した操作のユーザインタフェースは存在しておらず、ユーザが望むような映像への操作が行えないという問題があった。 As described above, when a wide-field image is displayed in a plurality of display areas, there is no user interface for an operation suitable for the characteristics of the wide-field image, and the user cannot perform an operation on the image as desired. There was a problem.
本発明は上記の従来の問題点に鑑み提案されたものであり、その目的とするところは、映像を複数の表示領域に表示する場合に、柔軟な操作が行えるユーザインタフェースを提供することにある。 The present invention has been proposed in view of the above-described conventional problems, and an object of the present invention is to provide a user interface that can perform a flexible operation when displaying an image on a plurality of display areas. .
上記の課題を解決するため、本発明にあっては、全天球映像の一部であり少なくとも水平方向の角度で特定される第1の所定領域を画面の第1領域に表示させ、前記全天球映像の一部であり前記第1の所定領域とは水平方向の角度が異なり、垂直方向の角度が同じである第2の所定領域を前記画面の第2領域に表示させ、前記第1領域内への操作である第1の操作により、前記第1領域に表示させる前記第1の所定領域と、前記第2領域に表示させる前記第2の所定領域と、を連携して変化させる第1の処理と、前記第1領域から前記第2領域内への連続した操作である第2の操作により、前記第1領域に表示させる前記第1の所定領域と、前記第2領域に表示させる前記第2の所定領域と、を連携して変化させる第2の処理と、を情報処理装置に実行させ、前記第1領域と前記第2領域は、前記画面上で縦方向に並んで配置されている。 In order to solve the above problem, in the present invention, a first predetermined area which is a part of a spherical image and is specified at least by a horizontal angle is displayed in a first area of a screen, and wherein a part of the celestial sphere image from the first predetermined region Ri Do different horizontal angle, the vertical angle to display the second predetermined region to be the same as in the second region of the screen, the The first operation, which is an operation in the first area, causes the first predetermined area to be displayed in the first area and the second predetermined area to be displayed in the second area to change in cooperation with each other. A first process to be performed, and a second operation that is a continuous operation from the first area to the second area, the first predetermined area to be displayed in the first area, and the second area to be displayed in the second area. And a second process of cooperatively changing the second predetermined area to be displayed. It was performed on location, the first region and the second region, that are arranged in the vertical direction in the screen.
本発明にあっては、映像を複数の表示領域に表示する場合に、柔軟な操作が行えるユーザインタフェースを提供することができる。 According to the present invention, it is possible to provide a user interface capable of performing a flexible operation when displaying an image in a plurality of display areas.
以下、本発明の好適な実施形態につき説明する。 Hereinafter, preferred embodiments of the present invention will be described.
<構成>
図1は本発明の一実施形態にかかる映像表示システム10の構成例を示す図である。図1において、映像表示システム10は、撮影装置1と情報処理装置2とWebサーバ3とを含んでいる。撮影装置1と情報処理装置2の間、および、Webサーバ3と情報処理装置2の間は、無線または有線により接続される。
<Configuration>
FIG. 1 is a diagram illustrating a configuration example of a video display system 10 according to an embodiment of the present invention. In FIG. 1, a video display system 10 includes a photographing device 1, an information processing device 2, and a Web server 3. The connection between the imaging device 1 and the information processing device 2 and the connection between the Web server 3 and the information processing device 2 are wireless or wired.
撮影装置1は、全天球映像を撮影し、撮影した映像を情報処理装置2に提供する機能を有している。なお、撮影する映像は全天球映像に限られず、パノラマ映像やその他の映像であってもよい。情報処理装置2は、スマートフォン、タブレット、携帯電話、PC(Personal Computer)等の装置であり、撮影装置1またはWebサーバ3から映像を取得し、ユーザに対して映像の表示を行う機能を有している。Webサーバ3は、予め映像を取得して蓄積し、情報処理装置2に対して映像を提供する機能を有している。 The image capturing device 1 has a function of capturing a spherical image and providing the captured image to the information processing device 2. It should be noted that the image to be photographed is not limited to a spherical image, but may be a panoramic image or another image. The information processing device 2 is a device such as a smartphone, a tablet, a mobile phone, and a PC (Personal Computer), and has a function of acquiring a video from the imaging device 1 or the Web server 3 and displaying the video to a user. ing. The Web server 3 has a function of acquiring and storing a video in advance, and providing the video to the information processing apparatus 2.
図2は撮影装置1の外観構成例を示す図である。図2(a)は、撮影装置1をユーザが手に持った状態を示している。図2(b)は、図2(a)の右側方から撮影装置1を見た図である。図2(c)は、図2(a)の上方から撮影装置1を見た図である。 FIG. 2 is a diagram illustrating an example of an external configuration of the photographing apparatus 1. FIG. 2A shows a state in which the user holds the imaging device 1 in his hand. FIG. 2B is a diagram of the photographing apparatus 1 viewed from the right side of FIG. FIG. 2C is a view of the photographing apparatus 1 viewed from above FIG.
撮影装置1は、筐体の一側の上部に前面撮影素子1H1が設けられ、反対側に後面撮影素子1H2が設けられている。また、筐体の中央部にはスイッチ1H3が設けられている。スイッチ1H3は撮影を指示するために用いられる。 The photographing apparatus 1 has a front photographing element 1H1 provided on an upper portion on one side of a housing, and a rear photographing element 1H2 provided on an opposite side. A switch 1H3 is provided at the center of the housing. The switch 1H3 is used to instruct shooting.
図3は撮影装置1のハードウェア構成例を示す図である。図3において、撮影装置1は、撮影ユニット1H4と映像処理ユニット1H7と撮影制御ユニット1H8とを備えている。撮影ユニット1H4は、前面撮影素子1H1と後面撮影素子1H2とレンズ1H5、1H6とを備えている。映像処理ユニット1H7は、前面撮影素子1H1と後面撮影素子1H2の撮影した映像から全天球映像を生成する機能を有している。撮影制御ユニット1H8は、前面撮影素子1H1および後面撮影素子1H2の撮影を制御する機能を有してる。 FIG. 3 is a diagram illustrating an example of a hardware configuration of the photographing apparatus 1. In FIG. 3, the photographing apparatus 1 includes a photographing unit 1H4, a video processing unit 1H7, and a photographing control unit 1H8. The photographing unit 1H4 includes a front photographing element 1H1, a rear photographing element 1H2, and lenses 1H5 and 1H6. The image processing unit 1H7 has a function of generating a spherical image from the images captured by the front imaging element 1H1 and the rear imaging element 1H2. The photographing control unit 1H8 has a function of controlling photographing of the front photographing element 1H1 and the rear photographing element 1H2.
また、撮影装置1は、バス1H17を介して相互に接続されたCPU(Central Processing Unit)1H9とROM(Read-Only Memory)1H10とSRAM(Static Random Access Memory)1H11とDRAM(Dynamic Random Access Memory)1H12と操作I/F(Interface)1H13とネットワークI/F 1H14と無線I/F 1H15とアンテナ1H16とを備えている。これらは、映像処理ユニット1H7および撮影制御ユニット1H8の制御を行うとともに、撮影された全天球映像を外部に提供する処理を行うために用いられる。 The image capturing apparatus 1 includes a CPU (Central Processing Unit) 1H9, a ROM (Read-Only Memory) 1H10, an SRAM (Static Random Access Memory) 1H11, and a DRAM (Dynamic Random Access Memory) interconnected via a bus 1H17. 1H12, an operation I / F (Interface) 1H13, a network I / F 1H14, a wireless I / F 1H15, and an antenna 1H16. These are used to control the image processing unit 1H7 and the imaging control unit 1H8, and to perform processing for providing the captured omnidirectional image to the outside.
図4は情報処理装置2のハードウェア構成例を示す図である。図4において、情報処理装置2は、バス2H7を介して相互に接続された補助記憶装置2H1と主記憶装置2H2と入出力装置2H3と状態センサ2H4とCPU2H5とネットワークI/F 2H6とを備えている。状態センサ2H4は、情報処理装置2の縦持ちと横持ちとを検出するための、角度センサや加速度センサを含んでいる。入出力装置2H3は、画面表示を行うとともにユーザ操作を受け付けるための、ディスプレイおよびタッチパネル等である。CPU2H5は、撮影装置1またはWebサーバ3からの映像の取得、映像の画面表示等を制御するために用いられる。 FIG. 4 is a diagram illustrating an example of a hardware configuration of the information processing apparatus 2. In FIG. 4, the information processing device 2 includes an auxiliary storage device 2H1, a main storage device 2H2, an input / output device 2H3, a state sensor 2H4, a CPU 2H5, and a network I / F 2H6 interconnected via a bus 2H7. I have. The state sensor 2H4 includes an angle sensor and an acceleration sensor for detecting whether the information processing device 2 is held vertically or horizontally. The input / output device 2H3 is a display, a touch panel, and the like for displaying a screen and receiving a user operation. The CPU 2H5 is used to control acquisition of a video from the imaging device 1 or the Web server 3, display of a video screen, and the like.
図5は映像表示システム10のソフトウェア構成例を示す図である。図5において、撮影装置1は、第一撮影部11と第二撮影部12と全天球映像生成部13とを備えている。第一撮影部11は前面撮影素子1H1(図3)に対応し、第二撮影部12は後面撮影素子1H2(図3)に対応している。全天球映像生成部13は映像処理ユニット1H7(図3)に対応している。 FIG. 5 is a diagram illustrating an example of a software configuration of the video display system 10. In FIG. 5, the photographing apparatus 1 includes a first photographing unit 11, a second photographing unit 12, and a spherical image generating unit 13. The first imaging unit 11 corresponds to the front imaging device 1H1 (FIG. 3), and the second imaging unit 12 corresponds to the rear imaging device 1H2 (FIG. 3). The spherical image generator 13 corresponds to the image processing unit 1H7 (FIG. 3).
情報処理装置2は、映像取得部21と領域制御部22と入出力部23と記憶部24とを備えている。領域制御部22は、映像選択部221と領域設定部222と映像割当部223と操作判定部224と映像操作部225とを有している。記憶部24は、映像データ記憶部241と表示領域パターン記憶部242と領域遷移パターン記憶部243とカレントデータ記憶部244とを有している。 The information processing device 2 includes a video acquisition unit 21, an area control unit 22, an input / output unit 23, and a storage unit 24. The area control unit 22 includes an image selection unit 221, an area setting unit 222, an image allocation unit 223, an operation determination unit 224, and an image operation unit 225. The storage unit 24 includes a video data storage unit 241, a display area pattern storage unit 242, an area transition pattern storage unit 243, and a current data storage unit 244.
映像取得部21は、撮影装置1またはWebサーバ3から映像を取得し、映像データ記憶部241に格納する機能を有している。 The video acquisition unit 21 has a function of acquiring a video from the imaging device 1 or the Web server 3 and storing the video in the video data storage unit 241.
領域制御部22は、画面上の表示領域を管理し、その表示領域への映像の表示を行い、ユーザから映像への操作(移動、拡大縮小等)を受け付けて表示に反映する処理を行う機能を有している。 The area control unit 22 manages a display area on the screen, displays an image in the display area, and performs a process of receiving an operation (movement, enlargement / reduction, etc.) from the user to the image and reflecting the operation on the display. have.
映像選択部221は、映像データ記憶部241に格納された映像の中から表示する映像をユーザに選択させる機能を有している。映像選択部221は、選択された映像を識別する映像IDをカレントデータとしてカレントデータ記憶部244に格納する。 The video selection unit 221 has a function of allowing the user to select a video to be displayed from the videos stored in the video data storage unit 241. The video selection unit 221 stores the video ID for identifying the selected video in the current data storage unit 244 as current data.
領域設定部222は、表示領域パターン記憶部242に格納された表示領域パターンの中からユーザの選択を受け付け、表示領域の設定を行う機能を有している。領域設定部222は、選択された表示領域パターンのデータおよび対応する領域遷移パターン(操作が複数の表示領域に跨る場合の処理を記述であって領域遷移パターン記憶部243に格納)のデータをカレントデータとしてカレントデータ記憶部244に格納する。 The area setting unit 222 has a function of receiving a user's selection from the display area patterns stored in the display area pattern storage unit 242 and setting the display area. The region setting unit 222 stores the data of the selected display region pattern and the data of the corresponding region transition pattern (which describes the processing when the operation extends over a plurality of display regions and is stored in the region transition pattern storage unit 243). The data is stored in the current data storage unit 244 as data.
映像割当部223は、領域設定部222によって設定された各表示領域に対し、映像データ記憶部241から映像を取得して割り当てる機能を有している。各表示領域に割り当てる映像は、取得した映像の異なる領域の映像となるが、一部共通する領域を含んでいてもよい。 The video allocating unit 223 has a function of acquiring and allocating a video from the video data storage unit 241 to each display area set by the area setting unit 222. The video assigned to each display area is a video in a different area of the acquired video, but may include a partly common area.
操作判定部224は、ユーザの映像に対する操作を判定する機能を有している。この際、どの表示領域の映像に対応する操作であるのかと、複数の表示領域に跨る操作を判断するために、入出力部23から入力される操作の座標情報と、カレントデータ記憶部244のカレントデータとを参照する。なお、ユーザの映像に対する操作は、画面をタッチする指による操作でもよいし、電子ペンやマウス等による操作でもよい。 The operation determining unit 224 has a function of determining a user's operation on an image. At this time, the coordinate information of the operation input from the input / output unit 23 and the current data storage unit 244 are stored in order to determine which display area the operation corresponds to, and to determine an operation over a plurality of display areas. Refer to the current data. Note that the user's operation on the video may be an operation using a finger that touches the screen, or an operation using an electronic pen, a mouse, or the like.
映像操作部225は、操作判定部224により判定された操作に応じて、映像データ記憶部241に格納された映像データに操作を反映する機能を有している。映像操作部225は、操作により変更された映像の方向および視野角をカレントデータ記憶部244のカレントデータに反映させる。 The video operation unit 225 has a function of reflecting the operation on the video data stored in the video data storage unit 241 according to the operation determined by the operation determination unit 224. The video operation unit 225 reflects the direction and the viewing angle of the video changed by the operation in the current data of the current data storage unit 244.
入出力部23は、ユーザの操作を受け付けて操作が行われた画面上の座標情報を領域制御部22に与えるとともに、領域制御部22から出力映像を入力して画面表示する機能を有している。 The input / output unit 23 has a function of accepting a user's operation and providing coordinate information on the screen where the operation has been performed to the region control unit 22 and inputting an output video from the region control unit 22 to display the screen. I have.
図6は表示領域パターン記憶部242に保持される表示領域パターンテーブルの例を示す図である。表示領域パターンテーブルの内容は、映像取得部21、領域制御部22、入出力部23等を構成するアプリケーションプログラムをインストールする際に格納されるとともに、その後に変更や追加があった場合はサーバ等から取得されて更新される。 FIG. 6 is a diagram illustrating an example of the display area pattern table held in the display area pattern storage unit 242. The contents of the display area pattern table are stored when installing the application programs constituting the video acquisition unit 21, the area control unit 22, the input / output unit 23, and the like. And updated.
図6において、表示領域パターンテーブルは、「表示領域パターン」「領域数」「映像の範囲(初期値)」「配置パターン」「基準」「連携表示の方向」等の項目を有している。 In FIG. 6, the display area pattern table has items such as “display area pattern”, “number of areas”, “image range (initial value)”, “arrangement pattern”, “reference”, and “direction of cooperative display”.
「表示領域パターン」は、表示領域のパターンを識別する情報である。「領域数」は、当該表示領域パターンにおける表示領域の数である。「映像の範囲(初期値)」は、当該表示領域パターンにおいて各表示領域に表示される映像の範囲の初期値である。全天球映像の場合、水平方向の角度θと垂直方向の角度φと視野角αにより映像が特定される。なお、映像の範囲はユーザの操作により移動や拡大縮小が行われた場合は変化するが、それらはカレントデータに反映される。 “Display area pattern” is information for identifying the pattern of the display area. “Number of areas” is the number of display areas in the display area pattern. The “image range (initial value)” is the initial value of the range of the image displayed in each display area in the display area pattern. In the case of a spherical image, the image is specified by the angle θ in the horizontal direction, the angle φ in the vertical direction, and the viewing angle α. Note that the range of the video changes when the user moves or enlarges / reduces the size by an operation of the user, but these are reflected in the current data.
「配置パターン」は、画面内に複数の表示領域をどのように配置するかであり、ユーザが選択できるように複数の選択肢が用意されている。選択された配置パターンはカレントデータに反映される。 The “arrangement pattern” indicates how to arrange a plurality of display areas in the screen, and a plurality of options are prepared so that the user can select. The selected arrangement pattern is reflected on the current data.
配置パターンの具体例について説明する。図7は、縦持ちの場合に上下に均等に2分割して2つの表示領域とした場合の例である。図8は、縦持ちの場合に上下に2分割して2つの表示領域とした場合であるが、下の表示領域を大きくし、上の表示領域を小さくした場合の例である。図9は、縦持ちの場合に2分割して2つの表示領域とした場合であるが、画面全面の表示領域の上右隅に小さい表示領域を設けた場合の例である。図10は、縦持ちの場合に上下方向に均等に3分割して3つの表示領域とした場合の例である。図11は、縦持ちの場合に格子状に均等に4分割して4つの表示領域とした場合の例である。図12は、縦持ちの場合に中央に大きな表示領域を設け、上下に小さい表示領域を2つずつ設け、5つの表示領域とした場合の例である。図13は、タブレット等の場合に、横持ちとして、中央に大きな表示領域を設け、左右に小さい表示領域を2つずつ設け、5つの表示領域とした場合の例である。 A specific example of the arrangement pattern will be described. FIG. 7 shows an example in which two display areas are equally divided vertically into two display areas when the camera is held vertically. FIG. 8 shows a case where the display area is vertically divided into two display areas when held vertically, and an example in which the lower display area is enlarged and the upper display area is reduced. FIG. 9 shows a case where two display areas are divided into two when the camera is held vertically, and a small display area is provided at the upper right corner of the display area on the entire screen. FIG. 10 shows an example in which three display areas are equally divided in the vertical direction when the camera is held vertically. FIG. 11 shows an example in which four display areas are equally divided into four parts in a grid pattern when the apparatus is held vertically. FIG. 12 shows an example in which a large display area is provided at the center and two small display areas are provided at the top and bottom, and five display areas are provided. FIG. 13 shows an example in which a tablet or the like is horizontally held, and a large display area is provided at the center, two small display areas are provided on the left and right sides, and five display areas are provided.
図6に戻り、配置パターンとしては、全ての表示領域または一部の表示領域のサイズを変倍とするものも含まれる。この場合、表示領域のサイズはユーザの操作により変更が可能である。表示領域のサイズの変更の操作は、情報処理装置2のOS(Operating System)の提供する操作インタフェース(表示領域の端部をドラッグする等)に依存する。変更されたサイズはカレントデータに反映される。また、全ての表示領域または一部の表示領域の位置をユーザ操作により移動可能としてもよい。 Returning to FIG. 6, the arrangement pattern includes a pattern in which the size of all display areas or a part of the display area is scaled. In this case, the size of the display area can be changed by a user operation. The operation of changing the size of the display area depends on an operation interface (such as dragging an end of the display area) provided by an OS (Operating System) of the information processing apparatus 2. The changed size is reflected in the current data. Further, the positions of all the display areas or a part of the display areas may be movable by a user operation.
更に、表示領域は複製(コピー)や削除を行えるようにしてもよい。複製された表示領域は、元の表示領域の特性を継承してカレントデータに反映される。併せて、これを表領域パターンテーブルに新規に登録できるようにしてもよい。複製は、画面内の空いている場所や既に存在する表示領域の上に配置することができる。配置は、既に表示、配置されている表示領域と重ならないように表示されるように指定することもできる。この場合、元から配置されている表示領域との間で位置が調整される。 Further, the display area may be made duplicatable (copied) or deleted. The duplicated display area inherits the characteristics of the original display area and is reflected in the current data. At the same time, this may be newly registered in the table area pattern table. The copy can be placed on an empty place in the screen or on a display area that already exists. The arrangement can also be designated so as to be displayed so as not to overlap with the already displayed and arranged display area. In this case, the position is adjusted between the original display area and the display area.
「基準」は、表示領域間の連携の関係を定めるにあたり基準となる表示領域を示すものである。「連携表示の方向」は、基準とされる表示領域に対し、連携する表示領域の連携の方向を示すものであり、移動と拡大縮小について同方向と逆方向が選択できるようになっている。「連携表示の方向」は、連携する表示領域の個々について選択できるようにしてもよい。 The “reference” indicates a display area that serves as a reference when determining a cooperative relationship between display areas. The “direction of cooperative display” indicates the direction of cooperation of the display area that cooperates with the reference display area, and the same direction and the opposite direction can be selected for movement and enlargement / reduction. The “direction of linked display” may be selectable for each of the linked display areas.
なお、表示領域パターンテーブルは、テーブルの形式に代えて、コード実装によりプログラム中で実質的に実現してもよい。 The display area pattern table may be substantially realized in a program by code implementation instead of the table format.
図14は領域遷移パターン記憶部243に保持される領域遷移パターンテーブルの例を示す図である。領域遷移パターンテーブルの内容は、映像取得部21、領域制御部22、入出力部23等を構成するアプリケーションプログラムをインストールする際に格納されるとともに、その後に変更や追加があった場合はサーバ等から取得されて更新される。 FIG. 14 is a diagram illustrating an example of the area transition pattern table held in the area transition pattern storage unit 243. The contents of the area transition pattern table are stored when installing the application programs constituting the video acquisition unit 21, the area control unit 22, the input / output unit 23, and the like. And updated.
領域遷移パターンテーブルは、「領域遷移パターン」「領域数」「遷移方向」「操作の主従遷移」「連携の対象」等の項目を有している。 The area transition pattern table has items such as “area transition pattern”, “number of areas”, “transition direction”, “master-slave transition of operation”, and “cooperation target”.
「領域遷移パターン」は、領域遷移のパターンを識別する情報である。「領域数」は、当該領域遷移パターンが適用される表示領域の数である。「遷移方向」は、操作が跨る表示領域の関係を示すものである。「左 ⇔ 右」は、左右に隣り合う表示領域に跨る操作を示す。「上 ⇔ 下」は、上下に隣り合う表示領域に跨る操作を示す。「斜め」は、上下に隣り合う表示領域の左右に隣り合う表示領域に跨る操作を示す。 “Area transition pattern” is information for identifying an area transition pattern. “Number of regions” is the number of display regions to which the region transition pattern is applied. The “transition direction” indicates the relationship between the display areas that the operation straddles. “Left ⇔ right” indicates an operation that straddles the display area adjacent to the left and right. “Upper ⇔ Lower” indicates an operation that straddles the vertically adjacent display areas. “Diagonally” indicates an operation that straddles the display area adjacent to the left and right of the display area adjacent vertically.
「操作の主従遷移」は、「遷移方向」で規定される操作が行われた場合に、基準と連携の関係を変更して、操作のタッチが行われた起点の属する表示領域の操作として扱うための情報である。「連携の対象」は、連携する内容を示しており、移動(移動方向、移動量)と拡大縮小(拡大縮小量)が設定されている。 The "operation master-slave transition" is treated as an operation of the display area to which the origin of the touch operation is changed by changing the relationship between the reference and the cooperation when the operation specified by the "transition direction" is performed. Information. The “cooperation target” indicates the content of the cooperation, in which the movement (moving direction and moving amount) and the scaling (the scaling amount) are set.
なお、領域遷移パターンテーブルは、テーブルの形式に代えて、コード実装によりプログラム中で実質的に実現してもよい。 The area transition pattern table may be substantially realized in a program by code implementation instead of the table format.
図15はカレントデータ記憶部244に保持されるカレントデータの例を示す図であり、ユーザに選択された映像の映像IDと、表示領域パターンテーブル(図6)の中からユーザに選択された表示領域パターンのデータと、領域遷移パターン(図14)の中の表示領域パターンに対応する領域遷移パターンのデータとが格納される。 FIG. 15 is a diagram showing an example of current data held in the current data storage unit 244. The video ID of the video selected by the user and the display selected by the user from the display area pattern table (FIG. 6). The area pattern data and the area transition pattern data corresponding to the display area pattern in the area transition pattern (FIG. 14) are stored.
<動作>
図16は撮影装置1による撮影の例を示す図であり、ユーザは撮影装置1を手で持ち、スイッチ1H3(図2)を押すことによって撮影を行う。撮影装置1は、前面撮影素子1H1(図2)と後面撮影素子1H2(図2)とによって、撮影装置1の全方位を撮影することができる。
<Operation>
FIG. 16 is a diagram illustrating an example of photographing by the photographing apparatus 1. The user holds the photographing apparatus 1 by hand and performs photographing by pressing the switch 1H3 (FIG. 2). The photographing apparatus 1 can photograph in all directions of the photographing apparatus 1 by the front photographing element 1H1 (FIG. 2) and the rear photographing element 1H2 (FIG. 2).
図17は撮影装置1によって撮影された映像の例を示す図である。図17(a)は撮影装置1の前面撮影素子1H1によって撮影された映像を示しており、図17(b)は後面撮影素子1H2によって撮影された映像を示している。なお、図17(b)では映像の天地が逆になっているが、これは光学系を簡略化し、筐体の前後に配置されたレンズから入射した光線を1つのミラーの表裏で上下に反射し、反射光の光軸上に前面撮影素子1H1と後面撮影素子1H2とを配置したことによる。そして、図17(a)(b)の映像は合成され、図17(c)のメルカトル(Mercator)図法(正距円筒図法)による全天球映像となる。 FIG. 17 is a diagram illustrating an example of an image captured by the image capturing device 1. FIG. 17A shows an image captured by the front image capturing element 1H1 of the image capturing apparatus 1, and FIG. 17B shows an image captured by the rear image capturing element 1H2. In FIG. 17B, the top and bottom of the image are reversed, but this simplifies the optical system and reflects the light rays incident from the lenses arranged in front and back of the housing up and down on the front and back of one mirror. However, this is because the front imaging element 1H1 and the rear imaging element 1H2 are arranged on the optical axis of the reflected light. Then, the images of FIGS. 17A and 17B are combined to form a spherical image by the Mercator projection (Equidistant cylindrical projection) of FIG. 17C.
図18は、撮影装置1の全天球映像生成部13(図5)による全天球映像の生成の例を示す図である。図18において、上段は前面撮影素子1H1と後面撮影素子1H2から得られる映像の画素位置に対し、水平方向の角度θと垂直方向の角度φとの対応関係を示している。上段の左右では、一方の映像の天地が逆になっていることに対応し、角度φの正負が逆になっている。 FIG. 18 is a diagram illustrating an example of generation of a spherical image by the spherical image generation unit 13 (FIG. 5) of the photographing apparatus 1. In FIG. 18, the upper part shows the correspondence between the horizontal angle θ and the vertical angle φ with respect to the pixel position of the image obtained from the front imaging element 1H1 and the rear imaging element 1H2. On the left and right of the upper row, the sign of the angle φ is reversed, corresponding to the upside down of one image.
上段の映像に含まれる各画素に対し、角度θと角度φを直交する座標に変換するルックアップテーブルに基づいて、中段に示す映像に変換を行う。次いで、中段の2つの映像を合成し、下段の角度θが0°〜360°の映像とする。そして、これを3角形状のポリゴンに分解し、角度θと角度φと対応付けて3Dデータとする。これが全天球映像となる。 For each pixel included in the upper image, the image is converted into the image shown in the middle based on a look-up table that converts the angle θ and the angle φ into orthogonal coordinates. Next, the two images in the middle are combined to form an image in which the lower angle θ is 0 ° to 360 °. Then, this is decomposed into triangular polygons, and is made 3D data in association with the angles θ and φ. This is a spherical image.
図19は表示映像の切り出しの例を示す図である。図19(a)はX軸、Y軸、Z軸の関係を示している。立体球CSは全天球映像が仮想的に貼り付けられている球面である。図19(b)は表示映像の切り出しのための仮想カメラCAMの配置の例を示している。仮想カメラCAMは立体球CSの内部に配置され、仮想カメラCAMで捉えられる所定領域Tが表示映像となる。図19(c)は仮想カメラCAMの視野を示しており、所定領域Tの対角線の両端を挟む角度が視野角αとなる。 FIG. 19 is a diagram showing an example of clipping a display video. FIG. 19A shows the relationship among the X axis, the Y axis, and the Z axis. The three-dimensional sphere CS is a spherical surface on which a spherical image is virtually attached. FIG. 19B shows an example of an arrangement of virtual cameras CAM for cutting out a display image. The virtual camera CAM is arranged inside the three-dimensional sphere CS, and a predetermined area T captured by the virtual camera CAM is a display image. FIG. 19C shows the field of view of the virtual camera CAM, and the angle between both ends of the diagonal line of the predetermined area T is the viewing angle α.
図20は仮想カメラCAMの位置と立体球CSの原点との関係を示しており、原点よりも距離dだけ後退した位置から立体球CSを眺めたものが視野角αとなる。距離dの位置が立体球CSの内部にある場合は、原点からの画角ωで立体球CSと交わる位置と視野角αで立体球CSと交わる位置は一致するものとし、距離dの位置が立体球CSの外部にある場合は、視野角αは立体球CSに外接するものとする。距離dが0の場合は、原点からの画角ωと視野角αは一致する。拡大縮小の倍率に応じて、画角ωと視野角αと距離dを制御することで、縮小していくと、表示される映像の輪郭は円形になる。 FIG. 20 shows the relationship between the position of the virtual camera CAM and the origin of the three-dimensional sphere CS. When the three-dimensional sphere CS is viewed from a position retracted by a distance d from the origin, the viewing angle α is obtained. When the position of the distance d is inside the three-dimensional sphere CS, the position that intersects the three-dimensional sphere CS at the angle of view ω from the origin and the position that intersects the three-dimensional sphere CS at the viewing angle α are the same, and the position of the distance d is When it is outside the three-dimensional sphere CS, the viewing angle α circumscribes the three-dimensional sphere CS. When the distance d is 0, the angle of view ω from the origin and the viewing angle α match. By controlling the angle of view ω, the angle of view α, and the distance d in accordance with the magnification of the enlargement / reduction, the contour of the displayed image becomes circular as the image is reduced.
図21は上記の実施形態の処理例を示すフローチャートであり、情報処理装置2における処理を示している。 FIG. 21 is a flowchart showing a processing example of the above embodiment, and shows processing in the information processing device 2.
図21において、処理を開始すると、情報処理装置2の映像選択部221は、映像データ記憶部241に格納された映像の一覧をユーザに提示し、選択を受け付ける(ステップS101)。映像データ記憶部241は、ユーザにより選択された映像の映像IDをカレントデータとしてカレントデータ記憶部244に格納する。 In FIG. 21, when the process is started, the video selection unit 221 of the information processing device 2 presents a list of videos stored in the video data storage unit 241 to the user and accepts the selection (Step S101). The video data storage unit 241 stores the video ID of the video selected by the user as current data in the current data storage unit 244.
次いで、領域設定部222は、表示領域パターン記憶部242の表示領域パターンテーブルから領域表示パターンの候補をユーザに提示し、選択を受け付ける(ステップS102)。映像選択部221は、領域表示パターンがユーザにより決定された場合(ステップS103のYes)、領域表示パターンと領域遷移パターンのデータをカレントデータとしてカレントデータ記憶部244に格納する。 Next, the area setting unit 222 presents the area display pattern candidates to the user from the display area pattern table of the display area pattern storage unit 242, and accepts the selection (step S102). When the region display pattern is determined by the user (Yes in step S103), the video selection unit 221 stores the data of the region display pattern and the region transition pattern in the current data storage unit 244 as current data.
なお、ユーザにより領域表示パターンが選択されるものとしたが、表示する映像の特徴や特性に応じて、適宜に領域表示パターンが決定されるようにしてもよい。例えば、映像の色調、時間変化等の分析の結果や、付与されている特徴情報、タグ等の識別情報に基づいて領域表示パターンが決定されるようにしてもよい。この場合、変化の少ない映像は、見やすさから表示領域の数を少ない領域表示パターンとし、逆に様々な方向で変化のある映像は、漏れなく確認する必要性から、表示領域の数を多い領域表示パターンとする等が考えられる。 Although the region display pattern is selected by the user, the region display pattern may be appropriately determined according to the characteristics and characteristics of the video to be displayed. For example, the region display pattern may be determined based on the result of analysis of the color tone of the video, the change over time, and the like, the added characteristic information, and the identification information such as the tag. In this case, an image with a small change is an area display pattern with a small number of display areas for easy viewing, and an image with a change in various directions is an area with a large number of display areas because it is necessary to check without omission. For example, a display pattern may be used.
次いで、映像割当部223は、決定された表示領域パターンの映像の範囲(初期値)に基づいて表示領域の割り当てを行い(ステップS104)、対象映像の表示を行う(ステップS105)。なお、映像割当部223は、状態センサ2H4(図4)の信号から情報処理装置2が縦持ちであるか横持ちであるかを判断し、表示する映像の天地を合わせて映像の表示を行う。 Next, the video allocating unit 223 allocates a display area based on the video range (initial value) of the determined display area pattern (Step S104), and displays the target video (Step S105). Note that the video allocating unit 223 determines whether the information processing apparatus 2 is vertically held or horizontally held from the signal of the state sensor 2H4 (FIG. 4), and displays the video by matching the top and bottom of the video to be displayed. .
その後、操作判定部224は、画面へのユーザの操作を確認し(ステップS106)、操作があったと判断した場合(ステップS107のYes)、座標情報から操作のためのタッチの起点が属する一の表示領域を特定し(ステップS108)、その他の表示領域を特定する(ステップS109)。 Thereafter, the operation determining unit 224 confirms the user's operation on the screen (step S106), and when it is determined that the operation has been performed (Yes in step S107), one of the starting points of the touch for the operation belongs from the coordinate information. The display area is specified (step S108), and other display areas are specified (step S109).
次いで、操作判定部224は、特定した一の表示領域の操作を、タッチ箇所の数と座標情報の変化等から判別する(ステップS110)。具体的には、スライド(スワイプ)であるかピンチアウト、ピンチインであるかを判別する。その際、操作量も併せて取得する。 Next, the operation determining unit 224 determines the operation of the specified one display area based on the number of touch points, a change in coordinate information, and the like (step S110). Specifically, it is determined whether it is a slide (swipe), a pinch out, or a pinch in. At this time, the operation amount is also acquired.
そして、操作判定部224は、有効な操作であると判断した場合(ステップS111のYes)、判定した操作および取得した操作量から、一の表示領域の映像に加える変化(移動、拡大縮小)を決定する(ステップS112)。操作判定部224は、カレントデータの表示領域パターンのデータの連携表示の方向から、その他の表示領域に加える変化(移動、拡大縮小)を決定する(ステップS113)。 If the operation determining unit 224 determines that the operation is a valid operation (Yes in step S111), the operation determining unit 224 determines, based on the determined operation and the acquired operation amount, a change (movement, enlargement / reduction) to be added to the image of one display area. It is determined (step S112). The operation determination unit 224 determines a change (movement, enlargement / reduction) to be applied to the other display areas from the direction of the cooperative display of the data of the display area pattern of the current data (step S113).
この際、全ての表示領域のサイズが均等である場合には、一の表示領域の映像に加える変化(移動、拡大縮小)の量とその他の表示領域の映像に加える変化の量は同じになる。また、サイズが異なる場合には、それぞれの表示領域の代表的な長さ(矩形の場合は対角線の長さ、円形の場合は直径等)の比率に応じて変化の量を変える。例えば、一の表示領域の代表的な長さとその他の表示領域の代表的な長さの比率が1:0.5である場合、一の表示領域の変化の量の半分がその他の表示領域の変化の量となる。 At this time, if the sizes of all the display areas are equal, the amount of change (movement, enlargement / reduction) applied to the image of one display area is equal to the amount of change applied to the image of the other display area. . When the sizes are different, the amount of change is changed in accordance with the ratio of the representative length (diagonal length in the case of a rectangle, diameter in the case of a circle, etc.) of each display area. For example, if the ratio of the typical length of one display area to the typical length of the other display area is 1: 0.5, half of the amount of change in one display area is the other display area. The amount of change.
また、一の表示領域およびその他の表示領域に加える変化の決定(ステップS112、S113)にあたり、2つの表示領域に跨る操作である場合、最初にタッチした表示領域への操作が連続して行われたものとして扱う。すなわち、操作判定部224は、カレントデータの領域繊維パターンのデータの遷移方向に該当する場合、操作の主従遷移に基づいて2つの表示領域の基準または遷移の関係を入れ替えて変化を決定する。 Further, in determining a change to be applied to one display area and the other display areas (steps S112 and S113), if the operation spans two display areas, the operation on the display area that is first touched is continuously performed. Treat as That is, when the current data corresponds to the transition direction of the data of the area fiber pattern of the current data, the operation determination unit 224 determines the change by exchanging the reference or transition relationship between the two display areas based on the master-slave transition of the operation.
次いで、映像操作部225は、決定された一の表示領域の映像に加える変化とその他の表示領域に加える変化に基づき、一の表示領域とその他の表示領域に操作の変化を適用し、連動表示を行う(ステップS114)。 Next, the video operation unit 225 applies the change of the operation to the one display area and the other display area based on the determined change to be applied to the video of the one display area and the change to be applied to the other display area, and performs the linked display. Is performed (step S114).
以下、操作と表示変化の例について説明する。 Hereinafter, examples of operations and display changes will be described.
図22は、縦持ちで上下に均等に2分割された場合において、下の表示領域に対して上の表示領域の移動の連携が逆方向に設定されている場合を示している。この場合、(a)に示すように下の表示領域に対して右方向のスライド操作を行った場合、(b)に示すように、下の表示領域の映像が右方向に移動するとともに、上の表示領域の映像は左方向に移動する。 FIG. 22 shows a case where the cooperation of the movement of the upper display area with respect to the lower display area is set in the opposite direction in the case where the display area is vertically divided into two equal parts vertically. In this case, when a rightward slide operation is performed on the lower display area as shown in (a), as shown in (b), the video in the lower display area moves rightward and The image in the display area moves leftward.
図23は、縦持ちで上下に均等に2分割された場合において、下の表示領域に対して上の表示領域の移動の連携が逆方向に設定されている場合を示している。この場合、(a)に示すように下の表示領域に対して上方向のスライド操作を行った場合、(b)に示すように、下の表示領域の映像が上方向に移動するとともに、上の表示領域の映像は下方向に移動する。 FIG. 23 shows a case where the cooperation of the movement of the upper display area with respect to the lower display area is set to the opposite direction in the case where the display area is vertically divided into two equal parts vertically. In this case, when an upward sliding operation is performed on the lower display area as shown in (a), as shown in (b), the image of the lower display area moves upward and The image in the display area moves downward.
図24は、縦持ちで上下に均等に2分割された場合において、下の表示領域に対して上の表示領域の移動の連携が逆方向に設定されている場合を示している。この場合、(a)に示すように下の表示領域に対して右斜め上方向のスライド操作を行った場合、(b)に示すように、下の表示領域の映像が右斜め上斜め方向に移動するとともに、上の表示領域の映像は左斜め下方向に移動する。 FIG. 24 shows a case where the cooperation of the movement of the upper display area with respect to the lower display area is set in the opposite direction in the case where the display area is vertically divided into two equal parts vertically. In this case, when a slide operation in the upper right direction is performed on the lower display area as shown in (a), as shown in (b), the image in the lower display area is displayed in the upper right diagonal direction. As it moves, the image in the upper display area moves diagonally downward and to the left.
図25は、横持ちで左右に均等に2分割された場合において、左の表示領域に対して右の表示領域の移動の連携が逆方向に設定されている場合を示している。この場合、(a)に示すように左の表示領域に対して右方向のスライド操作を行った場合、(b)に示すように、左の表示領域の映像が右方向に移動するとともに、右の表示領域の映像は左方向に移動する。 FIG. 25 shows a case where the cooperation of the movement of the right display area is set in the opposite direction with respect to the left display area in the case where the display area is horizontally divided into two parts evenly. In this case, when a rightward slide operation is performed on the left display area as shown in (a), as shown in (b), the image in the left display area moves rightward and The image in the display area moves leftward.
図26は、横持ちで左右に均等に2分割された場合において、左の表示領域に対して右の表示領域の移動の連携が逆方向に設定されている場合を示している。この場合、(a)に示すように左の表示領域に対して上方向のスライド操作を行った場合、(b)に示すように、左の表示領域の映像が上方向に移動するとともに、右の表示領域の映像は下方向に移動する。 FIG. 26 illustrates a case where the cooperation of the movement of the right display area is set in the opposite direction with respect to the left display area in the case where the display is divided horizontally and equally divided into two. In this case, when an upward sliding operation is performed on the left display area as shown in (a), as shown in (b), the video in the left display area moves upward and The image in the display area moves downward.
図27は、横持ちで左右に均等に2分割された場合において、左の表示領域に対して右の表示領域の移動の連携が逆方向に設定されている場合を示している。この場合、(a)に示すように左の表示領域に対して右斜め上方向のスライド操作を行った場合、(b)に示すように、左の表示領域の映像が右斜め上方向に移動するとともに、右の表示領域の映像は左斜め下方向に移動する。 FIG. 27 shows a case where the cooperation of the movement of the right display area with respect to the left display area is set in the opposite direction in the case where the display area is divided horizontally and equally divided into two parts. In this case, when a slide operation in the upper right direction is performed on the left display area as shown in (a), the video in the left display area moves in the upper right direction as shown in (b). At the same time, the image in the right display area moves diagonally downward to the left.
図28は、縦持ちで上下に均等に2分割された場合において、下の表示領域に対して上の表示領域の移動の連携が逆方向に設定されている場合を示している。この場合、(a)に示すように下の表示領域から上の表示領域に跨って右上斜め方向のスライド操作を行った場合、(b)に示すように、下の表示領域の映像が右上斜め方向に移動するとともに、上の表示領域の映像は左下斜め方向に移動する。 FIG. 28 shows a case where the cooperation of the movement of the upper display area with respect to the lower display area is set in the opposite direction in the case where the display area is vertically divided into two equal parts vertically. In this case, when the slide operation in the upper right diagonal direction is performed from the lower display area to the upper display area as shown in (a), as shown in (b), the image in the lower display area becomes , The image in the upper display area moves diagonally in the lower left direction.
図29は、縦持ちで全面に広がる表示領域と右上の小さな表示領域とに2分割された場合において、大きな表示領域に対して小さな表示領域の移動の連携が同方向に設定されている場合を示している。この場合、(a)に示すように大きな表示領域に対して右方向のスライド操作を行った場合、(b)に示すように、大きな表示領域の映像が右方向に移動するとともに、小さな表示領域の映像も右方向に移動する。 FIG. 29 shows a case where, when the display area is divided into a display area extending vertically and extending over the entire surface and a small display area at the upper right, the movement of the movement of the small display area is set in the same direction with respect to the large display area. Is shown. In this case, when a rightward slide operation is performed on a large display area as shown in (a), as shown in (b), an image in the large display area moves rightward and a small display area is moved. Also moves to the right.
図30は、縦持ちで上下に均等に2分割された場合において、下の表示領域に対して上の表示領域の拡大縮小の連携が同方向に設定されている場合を示している。この場合、(a)に示すように下の表示領域に対してピンチアウト操作を行った場合、(b)に示すように、下の表示領域の映像が拡大するとともに、上の表示領域の映像も拡大する。 FIG. 30 shows a case in which the upper and lower display areas are cooperatively set in the same direction with respect to the lower display area in the case where the display area is equally divided vertically into two vertically. In this case, when the pinch-out operation is performed on the lower display area as shown in (a), the image in the lower display area is enlarged and the image in the upper display area is enlarged as shown in (b). Also expand.
図31は、縦持ちで上下に2分割され、上の表示領域が小さく右寄せに設定された場合において、下の表示領域に対して上の表示領域の拡大縮小の連携が同方向に設定されている場合を示している。この場合、(a)に示すように下の表示領域に対してピンチアウト操作を行った場合、(b)に示すように、下の表示領域の映像が拡大するとともに、上の表示領域の映像も拡大する。 FIG. 31 shows that when the display area is vertically divided into two and the upper display area is set to be small and right-aligned, the cooperation of enlargement / reduction of the upper display area is set in the same direction with respect to the lower display area. Is shown. In this case, when the pinch-out operation is performed on the lower display area as shown in (a), the image in the lower display area is enlarged and the image in the upper display area is enlarged as shown in (b). Also expand.
<総括>
以上説明したように、本実施形態によれば、映像を複数の表示領域に表示する場合に、柔軟な操作が行えるユーザインタフェースを提供することができる。
<Summary>
As described above, according to the present embodiment, it is possible to provide a user interface capable of performing a flexible operation when displaying an image in a plurality of display areas.
以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。 The present invention has been described with reference to the preferred embodiments of the present invention. Although the invention has been described with reference to specific embodiments, various modifications and changes may be made in these embodiments without departing from the broader spirit and scope of the invention as defined in the appended claims. Obviously you can do that. In other words, the present invention should not be interpreted as being limited by the details of the specific examples and the accompanying drawings.
<実施形態の用語と請求項の用語の対応>
映像取得部21は「映像取得手段」の一例である。領域設定部222は「領域設定手段」の一例である。映像割当部223は「映像割当手段」の一例である。操作判定部224は「操作判定手段」の一例である。映像操作部225は「表示制御手段」の一例である。領域制御部22は「表示手段」の一例である。領域制御部22は「領域を変化させる手段」の一例である。
<Correspondence of Terms in Embodiments and Terms in Claims>
The video obtaining unit 21 is an example of a “video obtaining unit”. The area setting unit 222 is an example of an “area setting unit”. The video allocating unit 223 is an example of a “video allocating unit”. The operation determining unit 224 is an example of an “operation determining unit”. The video operation unit 225 is an example of a “display control unit”. The area control unit 22 is an example of a “display unit”. The area control unit 22 is an example of “means for changing the area”.
1 撮影装置
11 第一撮影部
12 第二撮影部
13 全天球映像生成部
2 情報処理装置
21 映像取得部
22 領域制御部
221 映像選択部
222 領域設定部
223 映像割当部
224 操作判定部
225 映像操作部
23 入出力部
24 記憶部
241 映像データ記憶部
242 表示領域パターン記憶部
243 領域遷移パターン記憶部
244 カレントデータ記憶部
3 Webサーバ
10 映像表示システム
REFERENCE SIGNS LIST 1 imaging device 11 first imaging unit 12 second imaging unit 13 omnidirectional image generation unit 2 information processing device 21 image acquisition unit 22 area control unit 221 image selection unit 222 area setting unit 223 image allocation unit 224 operation determination unit 225 image Operation unit 23 Input / output unit 24 Storage unit 241 Video data storage unit 242 Display area pattern storage unit 243 Area transition pattern storage unit 244 Current data storage unit 3 Web server 10 Video display system
Claims (9)
前記全天球映像の一部であり前記第1の所定領域とは水平方向の角度が異なり、垂直方向の角度が同じである第2の所定領域を前記画面の第2領域に表示させ、
前記第1領域内への操作である第1の操作により、前記第1領域に表示させる前記第1の所定領域と、前記第2領域に表示させる前記第2の所定領域と、を連携して変化させる第1の処理と、
前記第1領域から前記第2領域内への連続した操作である第2の操作により、前記第1領域に表示させる前記第1の所定領域と、前記第2領域に表示させる前記第2の所定領域と、を連携して変化させる第2の処理と、を情報処理装置に実行させ、
前記第1領域と前記第2領域は、前記画面上で縦方向に並んで配置されていることを特徴とするプログラム。 A first predetermined area which is a part of the spherical image and is specified by at least a horizontal angle is displayed in a first area of the screen,
The omnidirectional a part of the image from said first predetermined region Ri Do different horizontal angle, the vertical angle to display the second predetermined region to be the same as in the second region of the screen ,
By the first operation that is an operation into the first area, the first predetermined area to be displayed in the first area and the second predetermined area to be displayed in the second area are coordinated. A first process for changing;
By a second operation which is a continuous operation from the first area to the second area, the first predetermined area to be displayed in the first area and the second predetermined area to be displayed in the second area. Causing the information processing apparatus to execute a second process of changing the area in cooperation with the area ,
The first region and the second region, the program characterized that you have been aligned in the vertical direction in the screen.
前記全天球映像の一部であり前記第1の所定領域とは水平方向の角度が異なり、垂直方向の角度が同じである第2の所定領域を前記画面の第2領域に表示させ、
前記第1領域内への操作である第1の操作により、前記第1領域に表示させる前記第1の所定領域と、前記第2領域に表示させる前記第2の所定領域と、を連携して変化させる第1の処理と、
前記第1領域から前記第2領域内への連続した操作である第2の操作により、前記第1領域に表示させる前記第1の所定領域と、前記第2領域に表示させる前記第2の所定領域と、を連携して変化させる第2の処理と、を情報処理装置が実行し、
前記第1領域と前記第2領域は、前記画面上で縦方向に並んで配置されていることを特徴とする方法。 A first predetermined area which is a part of the spherical image and is specified by at least a horizontal angle is displayed in a first area of the screen,
The omnidirectional a part of the image from said first predetermined region Ri Do different horizontal angle, the vertical angle to display the second predetermined region to be the same as in the second region of the screen ,
By the first operation that is an operation into the first area, the first predetermined area to be displayed in the first area and the second predetermined area to be displayed in the second area are coordinated. A first process for changing;
By a second operation which is a continuous operation from the first area to the second area, the first predetermined area to be displayed in the first area and the second predetermined area to be displayed in the second area. The information processing apparatus executes a second process of cooperatively changing the area and
The first region and the second region, wherein that you have been aligned in the vertical direction in the screen.
前記全天球映像の一部であり前記第1の所定領域とは水平方向の角度が異なり、垂直方向の角度が同じである第2の所定領域を前記画面の第2領域に表示させ、
前記第1領域内への操作である第1の操作により、前記第1領域に表示させる前記第1の所定領域と、前記第2領域に表示させる前記第2の所定領域と、を連携して変化させる第1の制御手段と、
前記第1領域から前記第2領域内への連続した操作である第2の操作により、前記第1領域に表示させる前記第1の所定領域と、前記第2領域に表示させる前記第2の所定領域と、を連携して変化させる第2の制御手段と、を有し、
前記第1領域と前記第2領域は、前記画面上で縦方向に並んで配置されていることを特徴とする情報処理装置。 A first predetermined area which is a part of the spherical image and is specified by at least a horizontal angle is displayed in a first area of the screen,
The omnidirectional a part of the image from said first predetermined region Ri Do different horizontal angle, the vertical angle to display the second predetermined region to be the same as in the second region of the screen ,
By the first operation that is an operation into the first area, the first predetermined area to be displayed in the first area and the second predetermined area to be displayed in the second area are coordinated. First control means for changing;
By a second operation which is a continuous operation from the first area to the second area, the first predetermined area to be displayed in the first area and the second predetermined area to be displayed in the second area. and second control means for changing in conjunction with the region, and were perforated,
The first region and the second region, the information processing apparatus characterized that you have been aligned in the vertical direction in the screen.
前記全天球映像の一部であり前記第1の所定領域とは水平方向の角度が異なり、垂直方向の角度が同じである第2の所定領域を前記画面の第2領域に表示させ、
前記第1領域内への操作である第1の操作により、前記第1領域に表示させる前記第1の所定領域と、前記第2領域に表示させる前記第2の所定領域と、を連携して変化させる第1の制御手段と、
前記第1領域から前記第2領域内への連続した操作である第2の操作により、前記第1領域に表示させる前記第1の所定領域と、前記第2領域に表示させる前記第2の所定領域と、を連携して変化させる第2の制御手段と、を有し、
前記第1領域と前記第2領域は、前記画面上で縦方向に並んで配置されていることを特徴とする映像表示システム。 A first predetermined area which is a part of the spherical image and is specified by at least a horizontal angle is displayed in a first area of the screen,
The omnidirectional a part of the image from said first predetermined region Ri Do different horizontal angle, the vertical angle to display the second predetermined region to be the same as in the second region of the screen ,
By the first operation that is an operation into the first area, the first predetermined area to be displayed in the first area and the second predetermined area to be displayed in the second area are coordinated. First control means for changing;
By a second operation which is a continuous operation from the first area to the second area, the first predetermined area to be displayed in the first area and the second predetermined area to be displayed in the second area. and second control means for changing in conjunction with the region, and were perforated,
The first region and the second region, the image display system characterized that you have been aligned in the vertical direction in the screen.
前記第2の操作には、移動させる操作が含まれ、前記移動させる操作を行った場合、前記第1領域に表示させる前記第1の所定領域と、前記第2領域に表示させる前記第2の所定領域と、を連携して移動させる
ことを特徴とする請求項1乃至4の何れか1項に記載のプログラム。 The first operation includes an operation of enlarging or reducing, and when the operation of enlarging or reducing is performed, the first predetermined region displayed on the first region and the second predetermined region are displayed on the second region. The second predetermined area is cooperatively enlarged or reduced,
The second operation includes a moving operation, and when the moving operation is performed, the first predetermined region displayed in the first region and the second predetermined region displayed in the second region. The program according to any one of claims 1 to 4, wherein the program is moved in cooperation with a predetermined area.
ことを特徴とする請求項8に記載のプログラム。 9. The outline of at least one of the first predetermined area and the second predetermined area displayed as the image is reduced by the first operation becomes circular. program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016215394A JP6630654B2 (en) | 2016-11-02 | 2016-11-02 | Program, method, information processing device and video display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016215394A JP6630654B2 (en) | 2016-11-02 | 2016-11-02 | Program, method, information processing device and video display system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016056450A Division JP6037072B2 (en) | 2016-03-22 | 2016-03-22 | Video display system, information processing apparatus, video display method, and video display program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018127163A Division JP6683216B2 (en) | 2018-07-03 | 2018-07-03 | Program, method, information processing device, and video display system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017107549A JP2017107549A (en) | 2017-06-15 |
JP6630654B2 true JP6630654B2 (en) | 2020-01-15 |
Family
ID=59060793
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016215394A Active JP6630654B2 (en) | 2016-11-02 | 2016-11-02 | Program, method, information processing device and video display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6630654B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11012619B2 (en) | 2017-08-07 | 2021-05-18 | Sony Corporation | Transmission device, transmission method, reception device, reception method, and imaging device |
CN108235086B (en) * | 2017-12-18 | 2021-08-20 | 广州华多网络科技有限公司 | Video playing control method and device and corresponding terminal |
JP7154789B2 (en) * | 2018-03-27 | 2022-10-18 | キヤノン株式会社 | Display control device, its control method, program and storage medium |
CN119556794A (en) * | 2018-06-21 | 2025-03-04 | 奇跃公司 | Method and apparatus for providing input for a head mounted image display device |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1118007A (en) * | 1997-06-27 | 1999-01-22 | Shogakukan Inc | Omnidirectional image display system |
JP2004310351A (en) * | 2003-04-04 | 2004-11-04 | Canon Inc | Coordinate input system |
JP4355535B2 (en) * | 2003-08-07 | 2009-11-04 | 株式会社岩根研究所 | 360 degree image conversion processing device |
JP4223373B2 (en) * | 2003-10-22 | 2009-02-12 | クラリオン株式会社 | Audio apparatus and control method thereof |
JP5608360B2 (en) * | 2009-12-04 | 2014-10-15 | オリンパス株式会社 | Microscope controller and microscope system including the microscope controller |
JP2014115863A (en) * | 2012-12-11 | 2014-06-26 | Sony Corp | Information processing apparatus, information processing method, and program |
JP5946216B2 (en) * | 2012-12-21 | 2016-07-05 | 富士フイルム株式会社 | Computer having touch panel, operating method thereof, and program |
JP2013116374A (en) * | 2013-03-18 | 2013-06-13 | Panasonic Corp | Ultrasonograph |
-
2016
- 2016-11-02 JP JP2016215394A patent/JP6630654B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017107549A (en) | 2017-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5987931B2 (en) | Video display system, information processing apparatus, video display method, video display program, video processing apparatus, video processing method, and video processing program | |
US20220084279A1 (en) | Methods for manipulating objects in an environment | |
CN106803884B (en) | Image processing apparatus | |
WO2018188499A1 (en) | Image processing method and device, video processing method and device, virtual reality device and storage medium | |
JP6630654B2 (en) | Program, method, information processing device and video display system | |
JP2020533710A (en) | Image stitching method and device, storage medium | |
KR20140104684A (en) | Apparatus and method for processing object on screen of terminal | |
EP4195664A1 (en) | Image processing method, mobile terminal, and storage medium | |
JP2019146155A (en) | Image processing device, image processing method, and program | |
CN110209325A (en) | A kind of 3D scene display control method, system and equipment | |
JP2019174984A (en) | Display controller and control method thereof and program and storage media | |
JP6746419B2 (en) | Information processing apparatus, control method thereof, and computer program | |
JP6852295B2 (en) | Image processing equipment, image processing methods, and image processing programs | |
JP6683216B2 (en) | Program, method, information processing device, and video display system | |
JP2018206205A (en) | Fisheye image correction method, fisheye image correction program and fisheye image correction device | |
JP7338330B2 (en) | Display device, display method, program | |
JP6037072B2 (en) | Video display system, information processing apparatus, video display method, and video display program | |
CN117590942A (en) | Control method, device, equipment and storage medium of electronic equipment | |
JP6859763B2 (en) | Program, information processing device | |
WO2019163449A1 (en) | Image processing apparatus, image processing method and program | |
JP7342501B2 (en) | Display device, display method, program | |
JP7287156B2 (en) | Display device, display method, program | |
JP2023106170A (en) | Business card management system and business card management program | |
CN117953182A (en) | Image processing method, device, equipment and medium | |
JP2023081701A (en) | Image processing system and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171220 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180703 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180710 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20180928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6630654 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |