Nothing Special   »   [go: up one dir, main page]

JP6655895B2 - Imaging device, control method therefor, program and system - Google Patents

Imaging device, control method therefor, program and system Download PDF

Info

Publication number
JP6655895B2
JP6655895B2 JP2015130325A JP2015130325A JP6655895B2 JP 6655895 B2 JP6655895 B2 JP 6655895B2 JP 2015130325 A JP2015130325 A JP 2015130325A JP 2015130325 A JP2015130325 A JP 2015130325A JP 6655895 B2 JP6655895 B2 JP 6655895B2
Authority
JP
Japan
Prior art keywords
data
image data
imaging
moving image
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015130325A
Other languages
Japanese (ja)
Other versions
JP2017017444A (en
Inventor
龍太 水森
龍太 水森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015130325A priority Critical patent/JP6655895B2/en
Publication of JP2017017444A publication Critical patent/JP2017017444A/en
Application granted granted Critical
Publication of JP6655895B2 publication Critical patent/JP6655895B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置およびその制御方法、プログラムならびにシステムに関する。   The present invention relates to an imaging device, a control method thereof, a program, and a system.

デジタルカメラの撮影機能として、静止画の撮影において、シャッター釦押下の数秒前からのライブビュー映像を記録し、撮影した静止画に関連付けて記録する機能(動画関連付け機能)が知られている(特許文献1)。撮影された映像には撮影現場における被写体の表情の変化や一連の会話等が記録されているため、静止画再生時に映像も再生できれば、撮影時の雰囲気や臨場感が再現されて、撮影時の記憶をより印象的に想起させる効果が期待できる。   As a photographing function of a digital camera, a function (moving image association function) of recording a live view image several seconds before a shutter button is pressed and recording the image in association with the photographed still image in photographing a still image is known (Patent) Reference 1). Since the captured video records changes in the expression of the subject at the shooting site and a series of conversations, etc., if the video can be played back at the time of still image playback, the atmosphere and realism at the time of shooting will be reproduced, An effect that recalls memories more impressively can be expected.

特許第4500465号公報Japanese Patent No. 4505005 特開2009−21914号公報JP 2009-21914 A

上記特許文献1では、1台のデジタルカメラで静止画及び動画を撮影するため、動画に記録される被写体はデジタルカメラの画角内の被写体のみである。一方、例えば、被写体と撮影者のやり取りなども、撮影現場の雰囲気を構成する重要な要素である。しかし、上述した動画関連付け機能では撮影者側の状況を記録することが想定されていないため、例えば、被写体と撮影者のやり取りなどを含めた映像を作成することはできない。
ところで、複数のデジタルカメラ間でデータを受送信して、撮影した画像を共有することができる無線通信機能を備えたデジタルカメラが知られている(特許文献2)。しかし、デジタルカメラで被写体の撮影を行っているときに、別のデジタルカメラで撮影者側の状況を撮影し、それぞれの画像を関連付けて記録することは考慮されていない。
In Patent Literature 1, since a still image and a moving image are shot by one digital camera, only the objects within the angle of view of the digital camera are recorded in the moving image. On the other hand, for example, the interaction between the subject and the photographer is also an important factor constituting the atmosphere of the photographing site. However, since the moving image association function described above does not assume that the situation of the photographer is recorded, it is not possible to create a video including, for example, an exchange between the subject and the photographer.
Meanwhile, a digital camera having a wireless communication function capable of receiving and transmitting data between a plurality of digital cameras and sharing a captured image is known (Patent Document 2). However, it is not considered that when photographing a subject with a digital camera, the situation of the photographer is photographed with another digital camera and the images are recorded in association with each other.

本発明は、上述の従来技術の問題点に鑑み、撮影者側の状況を撮影した画像と撮影画像とを関連付けて記録することが可能な撮像装置およびその制御方法、プログラムならびにシステムを提供することを目的とする。   The present invention has been made in consideration of the above-described problems of the related art, and provides an imaging apparatus capable of recording an image of a situation on the photographer's side in association with a captured image, a control method thereof, a program, and a system. With the goal.

この課題を解決するため、本発明の撮像装置は外部装置と通信する通信手段と第一の記録手段と、撮像手段と、制御手段と、を有し、前記制御手段は、前記通信手段を介して前記外部装置が撮像した第一のデータを受信し前記制御手段は、前記撮像手段により撮された静止画データと、前記外部装置から受信した前記第一のデータとを関連付けて前記第一の記録手段によって記録し、前記第一のデータは、少なくとも前記静止画データが撮像されたタイミングよりも所定の期間前から前記静止画データが撮像されたタイミングまで継続して記録された動画データである、ことを特徴とする。
To solve this problem, the imaging apparatus of the present invention is a communication means for communicating with the external apparatus includes a first recording means, imaging means, and control means, wherein the control means, said communication means receiving a first data which the external device imaged via, said control means, in association with the still image data image shooting by the image pickup means and said first data received from the external device The first data is recorded by the first recording unit, and the first data is continuously recorded at least from a predetermined period before the timing at which the still image data is captured to a timing at which the still image data is captured. Moving image data .

本発明によれば、撮影者側の状況を撮影した画像と撮影画像とを関連付けて記録することが可能になる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to record the image | photographed image of the situation on the photographer side and the captured image in association with each other.

本発明の実施形態に係る撮像装置の一例としてのデジタルカメラの機能構成例を示すブロック図1 is a block diagram illustrating a functional configuration example of a digital camera as an example of an imaging device according to an embodiment of the present invention. 本発明の実施形態に係る撮像装置の一例としてのウェアラブルカメラの機能構成例を示すブロック図1 is a block diagram illustrating a functional configuration example of a wearable camera as an example of an imaging device according to an embodiment of the present invention. 実施形態1に係るシステムの利用例を説明する図FIG. 3 is a diagram illustrating an example of using the system according to the first embodiment. 実施形態1に係る動画関連付け処理の一連の動作を示すシーケンス図Sequence diagram showing a series of operations of a moving image association process according to the first embodiment 実施形態1に係るSSIDの通知方法の一例として液晶画面を用いた例を説明する図FIG. 7 is a diagram for explaining an example using a liquid crystal screen as an example of an SSID notification method according to the first embodiment. 実施形態1に係る動画取得要求メッセージの例を説明する図FIG. 5 is a view for explaining an example of a moving image acquisition request message according to the first embodiment. 実施形態2に係るシステムの利用例を説明する図FIG. 7 is a diagram illustrating an example of using the system according to the second embodiment. 実施形態2に係る動画関連付け処理の一連の動作を示すシーケンス図Sequence diagram showing a series of operations of a moving image association process according to the second embodiment 実施形態2に係るSSIDの通知方法の一例として発光部を用いた例を説明する図FIG. 9 is a diagram for explaining an example using a light emitting unit as an example of an SSID notification method according to the second embodiment. 実施形態3に係る動画関連付け処理の一連の動作を示すシーケンス図Sequence diagram showing a series of operations of a moving image association process according to the third embodiment 実施形態4に係る動画関連付け処理の一連の動作を示すシーケンス図Sequence diagram showing a series of operations in a moving image association process according to the fourth embodiment

(実施形態1)
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では撮像装置の一例として、外部の撮像装置で撮影したデータを取得可能な任意のデジタルカメラに本発明を適用した例を説明する。しかし、本発明は、デジタルカメラに限らず、当該データを取得可能な任意の電子機器にも適用可能である。これらの機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、眼鏡型や時計型の情報端末などが含まれてよい。また、外部の撮像装置の一例として通信機能と撮像機能を備えたウェアラブルカメラに本発明を適用した例を説明する。しかし、本発明はウェアラブルカメラに限らず、通信機能と撮像機能を備えた任意の電子機器にも適用可能であり、これらの機器には、携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、監視カメラ、車載カメラなどが含まれてよい。
(Embodiment 1)
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. Hereinafter, an example in which the present invention is applied to an arbitrary digital camera capable of acquiring data captured by an external imaging device will be described as an example of an imaging device. However, the present invention is not limited to a digital camera and can be applied to any electronic device capable of acquiring the data. These devices may include, for example, a mobile phone, a game machine, a tablet terminal, a personal computer, a glasses-type or clock-type information terminal, and the like. Further, an example in which the present invention is applied to a wearable camera having a communication function and an imaging function as an example of an external imaging device will be described. However, the present invention is not limited to a wearable camera, and is applicable to any electronic device having a communication function and an imaging function. These devices include a mobile phone, a game machine, a tablet terminal, a personal computer, and a monitoring camera. , An in-vehicle camera and the like.

実施形態1では、撮影者がウェアラブルカメラ200を身につけ、デジタルカメラ100を用いて被写体を撮影する場合の、動画関連付け処理に関して説明する。   In the first embodiment, a moving image association process when a photographer wears the wearable camera 200 and shoots a subject using the digital camera 100 will be described.

(デジタルカメラ100の構成)
図1は、本実施形態の撮像装置の一例としてデジタルカメラ100の機能構成例を示すブロック図である。なお、図1に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
(Configuration of Digital Camera 100)
FIG. 1 is a block diagram illustrating a functional configuration example of a digital camera 100 as an example of an imaging apparatus according to the present embodiment. Note that one or more of the functional blocks illustrated in FIG. 1 may be realized by hardware such as an ASIC or a programmable logic array (PLA), or may be realized by a programmable processor such as a CPU or an MPU executing software. You may. Further, the present invention may be realized by a combination of software and hardware. Therefore, in the following description, even when different functional blocks are described as the operation subject, the same hardware can be realized as the subject.

レンズ101は、ズームレンズやフォーカスレンズ等のレンズ群を含む撮影光学系であり、被写体像を撮像部102に結像させる。撮像部102は、CCD又はCMOS等の撮像素子やA/D変換回路等の各種回路を含み、レンズ101を介して入射する被写体像を光電変換し、さらにデジタル信号に変換して画像データとして出力する。また、撮像部102は、所定のフレーム数の動画データを出力することも可能である。なお、以降の説明において単に画像という場合であっても動画或いは音声付きの動画である映像を含む場合がある。   The lens 101 is a photographing optical system including a lens group such as a zoom lens and a focus lens, and forms a subject image on the imaging unit 102. The imaging unit 102 includes an imaging device such as a CCD or a CMOS and various circuits such as an A / D conversion circuit, photoelectrically converts a subject image incident via the lens 101, further converts the image into a digital signal, and outputs the image data as image data. I do. The imaging unit 102 can also output a predetermined number of frames of moving image data. In the following description, even if it is simply an image, it may include a moving image or a moving image with sound.

画像処理部103は、信号処理回路又は信号処理用の機能モジュールを含み、撮像部102から出力される静止画又は動画データに対して例えば輝度補正等の画像処理を施す。符号化部104は、信号処理回路又は信号処理用の機能モジュールを含み、所望の静止画又は動画データの符号化方式に従って入力したデータを符号化する。   The image processing unit 103 includes a signal processing circuit or a functional module for signal processing, and performs image processing such as luminance correction on still image or moving image data output from the imaging unit 102. The encoding unit 104 includes a signal processing circuit or a functional module for signal processing, and encodes input data according to a desired still or moving image data encoding method.

制御部105は、例えばCPUあるいはMPUを含み、記録部108に格納されたプログラムを記憶部107の作業エリアに展開し、実行することにより、デジタルカメラ100全体を制御する。また、制御部105は、後述するウェアラブルカメラ200から受信した動画データと撮像部102により撮像した静止画データとを関連付けて記録する、後述する動画関連付け処理の全体を制御する。   The control unit 105 includes, for example, a CPU or an MPU, and controls the entire digital camera 100 by developing a program stored in the recording unit 108 in a work area of the storage unit 107 and executing the program. In addition, the control unit 105 controls the entirety of a moving image association process described below, in which moving image data received from the wearable camera 200 described below and still image data captured by the imaging unit 102 are associated and recorded.

通信部106は、無線通信に係る処理を実行する専用回路又は機能ブロックを含み、外部装置との通信を実現する。通信部106は、各種の所定の通信規格に従う接続処理に加え、静止画又は動画データの送受信に係る制御などを行う。   The communication unit 106 includes a dedicated circuit or a functional block that executes a process related to wireless communication, and realizes communication with an external device. The communication unit 106 performs control related to transmission and reception of still image or moving image data, in addition to connection processing according to various predetermined communication standards.

記憶部107は、例えば半導体メモリ等の揮発性の記憶媒体を含み、各機能ブロックの設定情報等を一時保持するほか、制御部105が実行する各種プログラムを展開しておくことができる。   The storage unit 107 includes a volatile storage medium such as a semiconductor memory, for example, and temporarily stores setting information of each functional block, and can develop various programs executed by the control unit 105.

記録部108は、例えば半導体又は磁気による不揮発性の記録媒体であり、デジタルカメラ100で撮影した静止画データや動画データ、制御部105で実行するプログラム等を記録しておくことができる。   The recording unit 108 is, for example, a semiconductor or magnetic non-volatile recording medium, and can record still image data and moving image data captured by the digital camera 100, a program executed by the control unit 105, and the like.

表示部109は、例えばLCDやOLED等の表示パネルを含み、ユーザに対する通知や撮影した静止画データ又は動画データを表示する他、メニュー画面などのGUI(Graphical User Interface)を表示する。さらに、表示部109は、制御部105の指示に応じて、後述する二次元バーコードを表示する。   The display unit 109 includes, for example, a display panel such as an LCD or an OLED, displays a notice to the user, data of a captured still image or moving image, and also displays a GUI (Graphical User Interface) such as a menu screen. Further, the display unit 109 displays a two-dimensional barcode, which will be described later, in accordance with an instruction from the control unit 105.

操作部110は、例えば操作ボタンやダイヤル、タッチパネル等を含み、デジタルカメラ100に対するユーザ操作を検出する。発光部111は、発光素子を含み、静止画撮影時のフラッシュ及び動画撮影時のライトとして被写体に対する光を発光する。   The operation unit 110 includes, for example, operation buttons, a dial, and a touch panel, and detects a user operation on the digital camera 100. The light emitting unit 111 includes a light emitting element, and emits light to a subject as a flash for photographing a still image and a light for photographing a moving image.

(ウェアラブルカメラ200の構成)
図2は、本実施形態の撮像装置の一例としてウェアラブルカメラ200の機能構成例を示すブロック図である。図1と同様、図2に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
(Configuration of Wearable Camera 200)
FIG. 2 is a block diagram illustrating a functional configuration example of a wearable camera 200 as an example of the imaging apparatus according to the present embodiment. As in FIG. 1, one or more of the functional blocks shown in FIG. 2 may be realized by hardware such as an ASIC or a programmable logic array (PLA), or a programmable processor such as a CPU or MPU executes software. It may be realized by. Further, the present invention may be realized by a combination of software and hardware. Therefore, in the following description, even when different functional blocks are described as the operation subject, the same hardware can be realized as the subject.

レンズ201は、ズームレンズやフォーカスレンズ等のレンズ群を含む撮影光学系であり、被写体像を撮像部202に結像させる。撮像部202は、CCD又はCMOS等の撮像素子やA/D変換回路等の各種回路を含み、レンズ201を介して入射する被写体像を光電変換し、さらにデジタル信号に変換して画像データとして出力する。また、撮像部302は、所定のフレーム数の動画データを出力することも可能である。   The lens 201 is a photographing optical system including a lens group such as a zoom lens and a focus lens, and forms a subject image on the imaging unit 202. The imaging unit 202 includes an imaging device such as a CCD or a CMOS, and various circuits such as an A / D conversion circuit. The imaging unit 202 photoelectrically converts a subject image incident via the lens 201, further converts the subject image into a digital signal, and outputs the data as image data. I do. The imaging unit 302 can also output a predetermined number of frames of moving image data.

画像処理部203は、信号処理回路又は信号処理用の機能モジュールを含み、撮像部202から出力される静止画又は動画データに対して例えば輝度補正等の画像処理を施す。符号化部204は、信号処理回路又は信号処理用の機能モジュールを含み、所望の静止画又は動画データの符号化方式に従って入力したデータを符号化する。   The image processing unit 203 includes a signal processing circuit or a functional module for signal processing, and performs image processing such as luminance correction on still image or moving image data output from the imaging unit 202. The encoding unit 204 includes a signal processing circuit or a functional module for signal processing, and encodes input data according to a desired still image or moving image data encoding method.

制御部205は、例えばCPUあるいはMPUを含み、記録部208に格納されたプログラムを記憶部207の作業エリアに展開し、実行することにより、ウェアラブルカメラ200全体を制御する。後述するように、制御部205は、撮像部202により撮影される動画データをデジタルカメラ100に送信する処理を行う。   The control unit 205 includes, for example, a CPU or an MPU, and controls the entire wearable camera 200 by expanding a program stored in the recording unit 208 in a work area of the storage unit 207 and executing the program. As described later, the control unit 205 performs a process of transmitting moving image data captured by the imaging unit 202 to the digital camera 100.

通信部206は、無線通信に係る処理を実行する専用回路又は機能ブロックを含み、外部装置との通信を実現する。通信部206は、各種の所定の通信規格に従う接続処理に加え、静止画又は動画データの送受信に係る制御などを行う。   The communication unit 206 includes a dedicated circuit or a functional block that executes processing related to wireless communication, and realizes communication with an external device. The communication unit 206 performs control related to transmission and reception of still image or moving image data, in addition to connection processing according to various predetermined communication standards.

記憶部207は、例えば半導体メモリ等の揮発性の記憶媒体を含み、各機能ブロックの設定情報等を一時保持するほか、制御部205が実行する各種プログラムを展開しておくことができる。   The storage unit 207 includes, for example, a volatile storage medium such as a semiconductor memory, and temporarily stores setting information of each functional block and the like, and can expand various programs executed by the control unit 205.

記録部208は、例えば半導体又は磁気による不揮発性の記録媒体であり、ウェアラブルカメラ200で撮影した静止画データや動画データ、制御部205で実行するプログラム等を記録しておくことができる。   The recording unit 208 is, for example, a nonvolatile recording medium made of a semiconductor or a magnet, and can record still image data and moving image data captured by the wearable camera 200, a program executed by the control unit 205, and the like.

(デジタルカメラ100とウェアラブルカメラ200を含むシステムの例)
図3は、本実施形態に係るデジタルカメラ100とウェアラブルカメラ200が撮影現場で連携して動作するシステムの例を示している。
(Example of system including digital camera 100 and wearable camera 200)
FIG. 3 illustrates an example of a system in which the digital camera 100 and the wearable camera 200 according to the present embodiment operate in cooperation with each other at a shooting site.

撮影者301は、デジタルカメラ100を操作して被写体302を捉えた静止画を撮影する。また、ウェアラブルカメラ200は、デジタルカメラ100に対する外部装置として機能し、デジタルカメラ100を用いた撮影現場を撮影可能である。例えば、撮影者301は、ウェアラブルカメラ200を頭部に取り付けて、撮影者301の目線と同じ高さで動画を撮影する。ウェアラブルカメラ200は、撮影者側の一部として、撮影者301が構えているデジタルカメラ100の一部又は全部(この場合、背面の一部又は全部)を映像として捉えている。従って、ウェアラブルカメラ200は、撮影者301がデジタルカメラ100を操作している様子や被写体302に指示を出している様子、更には奥にいる被写体302をともに記録している。また、ウェアラブルカメラ200は、デジタルカメラ100と所定のタイミングで無線通信を確立し、当該無線通信を用いてデジタルカメラ100に撮影した動画データを送信する。デジタルカメラ100は、デジタルカメラ100で撮影した静止画データとウェアラブルカメラ200から受信した動画データとを関連付けて、記録部108に記録する。   The photographer 301 operates the digital camera 100 to photograph a still image of the subject 302. In addition, the wearable camera 200 functions as an external device to the digital camera 100, and can shoot a shooting site using the digital camera 100. For example, the photographer 301 attaches the wearable camera 200 to the head, and photographs a moving image at the same height as the photographer 301's eyes. The wearable camera 200 captures a part or all (in this case, part or all of the back) of the digital camera 100 held by the photographer 301 as an image as a part of the photographer. Therefore, the wearable camera 200 records a state in which the photographer 301 is operating the digital camera 100, a state in which an instruction is given to the subject 302, and a subject 302 in the back. In addition, the wearable camera 200 establishes wireless communication with the digital camera 100 at a predetermined timing, and transmits moving image data to the digital camera 100 using the wireless communication. The digital camera 100 associates still image data captured by the digital camera 100 with moving image data received from the wearable camera 200 and records the data in the recording unit 108.

(動画関連付け処理に係る一連の動作)
次に、図4に示すシーケンス図を参照して、本実施形態に係る動画関連付け処理に係る一連の動作を説明する。なお、本処理に係るデジタルカメラ100の一連の動作は、制御部105が記録部108に記憶されたプログラムを記憶部107の作業用領域に展開し、実行することにより実現される。また、本処理に係るウェアラブルカメラ200の一連の動作も同様に、制御部205が記録部208に記憶されたプログラムを記憶部207の作業用領域に展開し、実行することにより実現される。
(Series of operations related to video association processing)
Next, a series of operations relating to the moving image association processing according to the present embodiment will be described with reference to the sequence diagram shown in FIG. Note that a series of operations of the digital camera 100 according to the present process are realized by the control unit 105 expanding a program stored in the recording unit 108 to a work area of the storage unit 107 and executing the program. Similarly, a series of operations of the wearable camera 200 according to the present processing are also realized by the control unit 205 expanding the program stored in the recording unit 208 to a work area of the storage unit 207 and executing the program.

また、本実施形態では、撮影者301が装着しているウェアラブルカメラ200は、常時動画を記録しているものとし、撮影された動画データは記録部208に記録されている。   In the present embodiment, the wearable camera 200 worn by the photographer 301 always records a moving image, and the captured moving image data is recorded in the recording unit 208.

S401で撮影者301は、デジタルカメラ100を起動する。撮影者301によるボタン操作が操作部110において検出されると、制御部105は、デジタルカメラ100の各ブロックを初期化して起動する。   In S401, the photographer 301 activates the digital camera 100. When a button operation by the photographer 301 is detected on the operation unit 110, the control unit 105 initializes and starts each block of the digital camera 100.

S402で撮影者301は、デジタルカメラ100を動画追加記録モードに設定する。撮影者301による所定のボタン操作が操作部110において検出されると、制御部105は、デジタルカメラ100の状態を動画追加記録モードに移行させる。なお、本実施形態において動画追加記録モードは、デジタルカメラ100の動作モードであって、静止画の撮影において静止画に関連する動画を関連付けて記録するモードである。   In S402, the photographer 301 sets the digital camera 100 to the moving image additional recording mode. When a predetermined button operation by the photographer 301 is detected on the operation unit 110, the control unit 105 shifts the state of the digital camera 100 to the moving image additional recording mode. Note that, in the present embodiment, the moving image additional recording mode is an operation mode of the digital camera 100, and is a mode in which a moving image related to a still image is recorded in association with a still image in shooting a still image.

S403でデジタルカメラ100は、動画追加記録モード専用のアクセスポイントを起動する。具体的には、制御部105は、通信部106を起動し、所定の通信パラメータを用いてビーコンの発信を開始させることによってネットワークを生成する、アクセスポイント機能を実行する。   In step S403, the digital camera 100 activates an access point dedicated to the moving image additional recording mode. Specifically, the control unit 105 activates the communication unit 106 and executes an access point function of generating a network by starting transmission of a beacon using predetermined communication parameters.

S404でデジタルカメラ100は、S403で生成したネットワークのSSID(Service Set IDentifier)およびパスワードを表す情報を二次元バーコード形式で表示する。具体的には、制御部105は、SSIDの情報を示す二次元バーコードを生成して、図5に示すように二次元バーコード501を表示部109に表示する。   In step S404, the digital camera 100 displays information representing the network SSID (Service Set Identifier) and password generated in step S403 in a two-dimensional barcode format. Specifically, the control unit 105 generates a two-dimensional barcode indicating the information of the SSID, and displays the two-dimensional barcode 501 on the display unit 109 as shown in FIG.

S405でウェアラブルカメラ200は、S404でデジタルカメラ100が表示した二次元バーコード501を検出する。本実施形態では、撮影者301が装着しているウェアラブルカメラ200は、撮影者301が操作しているデジタルカメラ100の表示部109を撮影している。従って、表示部109が二次元バーコード501を表示することにより、ウェアラブルカメラ200は撮影する映像からこの二次元バーコード501を検出することができる。制御部205は、ウェアラブルカメラ200で撮影した映像で捉えている(デジタルカメラ100の表示部109に表示された)二次元バーコード501を、例えば公知の物体検出機能を用いて検出する。制御部205はさらに、検出した二次元バーコード501の内容からデジタルカメラ100が生成したネットワークのSSIDおよびパスワードの情報を取得する。   In S405, the wearable camera 200 detects the two-dimensional barcode 501 displayed by the digital camera 100 in S404. In the present embodiment, the wearable camera 200 worn by the photographer 301 photographs the display unit 109 of the digital camera 100 operated by the photographer 301. Therefore, when the display unit 109 displays the two-dimensional barcode 501, the wearable camera 200 can detect the two-dimensional barcode 501 from a captured image. The control unit 205 detects the two-dimensional barcode 501 (displayed on the display unit 109 of the digital camera 100) captured by the image captured by the wearable camera 200 using, for example, a known object detection function. The control unit 205 further acquires information on the network SSID and password generated by the digital camera 100 from the content of the detected two-dimensional barcode 501.

S406でウェアラブルカメラ200は、取得したSSIDおよびパスワードの情報を用いてデジタルカメラ100との無線通信を確立する。すなわち、制御部205は、デジタルカメラ100に対して、通信部206を介して通信接続の確立要求メッセージを送信する。   In S406, the wearable camera 200 establishes wireless communication with the digital camera 100 using the acquired information of the SSID and the password. That is, the control unit 205 transmits a communication connection establishment request message to the digital camera 100 via the communication unit 206.

S407でデジタルカメラ100は、通信接続の確立要求を許可する。すなわち、制御部105は、通信部106を介して通信接続の確立要求メッセージを受信すると、S403で起動したアクセスポイントの情報と一致しているか否かを判定し、これらが一致している場合に通信接続の確立を許可する。通信接続の確立要求に対する許可は、制御部105が通信部106を介して許可メッセージを送信することによって行われ、結果としてデジタルカメラ100とウェアラブルカメラ200の接続が確立する。このように、デジタルカメラ100の表示部109に表示した二次元バーコード501を用いて接続が確立されるようにすることで、ウェアラブルカメラ200が、デジタルカメラ100を画角に捉えているという関係に限定して接続を確立することができる。なお、接続が確立したならば、制御部105は、二次元バーコード501の表示を消す。   In step S407, the digital camera 100 permits the request for establishing a communication connection. That is, upon receiving the communication connection establishment request message via the communication unit 106, the control unit 105 determines whether or not the information matches the information of the access point started in S403. Allow establishment of communication connection. The permission for the communication connection establishment request is performed by the control unit 105 transmitting a permission message via the communication unit 106, and as a result, the connection between the digital camera 100 and the wearable camera 200 is established. As described above, by establishing the connection using the two-dimensional barcode 501 displayed on the display unit 109 of the digital camera 100, the relationship that the wearable camera 200 captures the digital camera 100 at an angle of view. The connection can be established only for. When the connection is established, the control unit 105 turns off the display of the two-dimensional barcode 501.

S408で撮影者301は、デジタルカメラ100に対して、撮影条件の設定等のカメラ操作を行って、例えばシャッター速度、露出、ISO感度、フラッシュのON/OFFなどカメラパラメータの設定を行う。すなわち、操作部110が撮影者301によるカメラ操作を検出すると、制御部105は各機能ブロックの設定値を変更し、カメラパラメータ(撮影条件)の設定を反映させる。図3に示したシステムでは、撮影者301によるこうした一連のカメラ操作をウェアラブルカメラ200が動画として記録している。そして、S409で撮影者301は、撮影を実行する。すなわち、操作部110が撮影者301によるシャッター釦の押下を検出すると、制御部105はS408で設定した撮影条件に応じて撮影を実行する。   In step S <b> 408, the photographer 301 performs camera operations such as setting of photographing conditions on the digital camera 100 to set camera parameters such as shutter speed, exposure, ISO sensitivity, and flash ON / OFF. That is, when the operation unit 110 detects a camera operation by the photographer 301, the control unit 105 changes the setting value of each functional block to reflect the setting of the camera parameter (photographing condition). In the system shown in FIG. 3, the wearable camera 200 records such a series of camera operations by the photographer 301 as a moving image. Then, in S409, the photographer 301 executes photographing. That is, when the operation unit 110 detects that the photographer 301 has pressed down the shutter button, the control unit 105 executes shooting according to the shooting conditions set in S408.

S410でデジタルカメラ100は、静止画の撮影タイミングに関連した動画データの取得要求をウェアラブルカメラ200に送信する。すなわち、制御部105は、例えば撮影前4秒から撮影後2秒までの動画取得要求を通信部106を介して送信する。動画取得要求は、例えば図6に示すXML形式のデータである。動画取得要求タグ601は、動画取得を要求するコマンドであることを示す。動画取得要求タグ601は、そのタグの構造中に、撮影時刻タグ602、撮影前期間タグ603、撮影後期間タグ604を含む。撮影時刻タグ602は、例えばISO8601の形式に従って撮影時刻の情報を示す。撮影前期間タグ603及び撮影後期間タグ604は、撮影時刻を基準に前後にどの程度の期間の動画を要求するかを示す情報であり、例えば秒単位で設定される。これにより撮影時刻を基準に撮影前と撮影後を指定した所定の期間の動画を取得することができる。   In step S <b> 410, the digital camera 100 transmits to the wearable camera 200 a request for acquiring moving image data related to a still image capturing timing. That is, the control unit 105 transmits, via the communication unit 106, a moving image acquisition request from, for example, 4 seconds before shooting to 2 seconds after shooting. The moving image acquisition request is, for example, XML format data shown in FIG. The moving image acquisition request tag 601 indicates that the command is a command for requesting moving image acquisition. The moving image acquisition request tag 601 includes a shooting time tag 602, a pre-shooting period tag 603, and a post-shooting period tag 604 in the structure of the tag. The shooting time tag 602 indicates shooting time information according to, for example, the format of ISO8601. The pre-shooting period tag 603 and the post-shooting period tag 604 are information indicating how long before and after the moving image is requested based on the shooting time, and are set, for example, in seconds. This makes it possible to acquire a moving image for a predetermined period in which before and after shooting are designated based on the shooting time.

なお、上述した特許文献1では、静止画の撮影タイミングで動画データの記録を停止するため、撮影後の撮影現場を記録することが想定されていなかった。本実施形態のようにすれば、撮影後の期間における、撮影者301と被写体302による撮影後の余韻を撮影することができる。撮影者301による静止画の撮影タイミングの前後を撮影した動画を、その静止画に関連付けて記録することで、静止画を観賞する際に、静止画撮影時の記憶をより印象的に想起させる効果が期待できる。   Note that, in Patent Document 1 described above, recording of moving image data is stopped at the timing of capturing a still image, and therefore, it is not assumed that the shooting site after shooting is recorded. According to the present embodiment, it is possible to capture the afterglow of the photographer 301 and the subject 302 after the photographing in the period after the photographing. By recording a moving image taken before and after the shooting timing of a still image by the photographer 301 in association with the still image, an effect of recalling the memory at the time of still image shooting more impressively when viewing the still image. Can be expected.

制御部105は、この動画取得要求コマンドを生成して記憶部107に格納し、通信部106を介してウェアラブルカメラ200に送信する。なお、当該コマンドは、例えばHTTP(Hyper Text Transfer Protocol)に従って送信される。その後、送信されたコマンドは、ウェアラブルカメラ200の通信部206で受信され、制御部205によって内容が解析されて動画取得要求として認識される。   The control unit 105 generates the moving image acquisition request command, stores the command in the storage unit 107, and transmits the command to the wearable camera 200 via the communication unit 106. The command is transmitted according to, for example, HTTP (Hyper Text Transfer Protocol). After that, the transmitted command is received by the communication unit 206 of the wearable camera 200, the content is analyzed by the control unit 205, and the command is recognized as a moving image acquisition request.

S411でデジタルカメラ100は、S409におけるシャッター釦押下に従って撮影した静止画を記録する。すなわち、制御部105は、画像処理部103、符号化部104、記録部108に指示することにより、S409で撮影された静止画データを処理し、記録部108に記録する。   In step S <b> 411, the digital camera 100 records a still image captured in accordance with the pressing of the shutter button in step S <b> 409. That is, by instructing the image processing unit 103, the encoding unit 104, and the recording unit 108, the control unit 105 processes the still image data shot in S409 and records the data in the recording unit 108.

S412でウェアラブルカメラ200は、動画取得要求コマンドで指定された期間の動画データをデジタルカメラ100に送信する。具体的には、ウェアラブルカメラ200の制御部205は、記録部208に随時記録されている動画データから動画取得要求に従った期間の動画データを読み出し、通信部206を介してデジタルカメラ100に送信する。動画データは、デジタルカメラ100側の通信部106で受信され、記録部108に記録される。   In S412, the wearable camera 200 transmits the moving image data of the period specified by the moving image acquisition request command to the digital camera 100. Specifically, the control unit 205 of the wearable camera 200 reads out the moving image data of the period according to the moving image acquisition request from the moving image data recorded in the recording unit 208 as needed, and transmits the moving image data to the digital camera 100 via the communication unit 206. I do. The moving image data is received by the communication unit 106 of the digital camera 100 and recorded in the recording unit 108.

S413でデジタルカメラ100は、S411で記録した静止画データと、S412で受信した動画データの関連付けを行う。制御部105は、例えば、専用の管理ファイルを生成して静止画データと動画データの関連付けを記録する。制御部105は、記録部108の所定の領域にこの専用のファイルを生成することで撮影した静止画データと取得した動画データの関連付けを管理することができる。   In step S413, the digital camera 100 associates the still image data recorded in step S411 with the moving image data received in step S412. The control unit 105 generates, for example, a dedicated management file and records the association between the still image data and the moving image data. The control unit 105 can manage the association between the captured still image data and the acquired moving image data by generating the dedicated file in a predetermined area of the recording unit 108.

以上の処理により、デジタルカメラ100は、当該デジタルカメラ100を画角に捉えているウェアラブルカメラ200から、シャッター釦押下に応じてウェアラブルカメラ200が撮影している動画データを受信することができる。そして、撮影した静止画データと受信した動画データとを関連付けて記録することができる。また、図3に示したシステムにおいて本シーケンスが動作することによって、ウェアラブルカメラ200から受信する動画データは、撮影前の期間に撮影者301がデジタルカメラ100を操作する様子と被写体302の様子を撮影したものになる。   Through the above processing, the digital camera 100 can receive, from the wearable camera 200 capturing the digital camera 100 at an angle of view, moving image data captured by the wearable camera 200 in response to pressing of the shutter button. Then, the captured still image data and the received moving image data can be recorded in association with each other. By operating this sequence in the system shown in FIG. 3, moving image data received from the wearable camera 200 captures a state in which the photographer 301 operates the digital camera 100 and a state of the subject 302 during a period before photographing. It will be.

なお、本実施形態では、ウェアラブルカメラ200で撮影された動画データを、デジタルカメラ100が撮影した静止画データと関連付けるものとして説明した。しかし、ウェアラブルカメラ200で撮影された静止画データを、デジタルカメラ100が撮影した静止画データと関連付けてもよい。例えば、デジタルカメラ100が撮影した静止画データに、S410で指定された期間にウェアラブルカメラ200で撮影された1枚以上の静止画を関連付けてもよい。或いは、ウェアラブルカメラ200で撮影された動画データを、デジタルカメラ100が撮影した動画データと関連付けてもよい。このようにしても、静止画撮影時の記憶を印象的に想起させる効果が期待できる。   In the present embodiment, the description has been made assuming that moving image data captured by the wearable camera 200 is associated with still image data captured by the digital camera 100. However, the still image data shot by the wearable camera 200 may be associated with the still image data shot by the digital camera 100. For example, one or more still images shot by the wearable camera 200 during the period specified in S410 may be associated with the still image data shot by the digital camera 100. Alternatively, the moving image data shot by the wearable camera 200 may be associated with the moving image data shot by the digital camera 100. Even in such a case, an effect of impressively recalling a memory at the time of shooting a still image can be expected.

また、図4に示したシーケンス図では、二次元バーコード501の表示タイミングとしてS404のタイミングを例に説明したが、これに限定されない。例えば、S409の撮影実行後に表示してもよい。すなわち、操作部110が撮影者301によるシャッター釦押下を検出した後に、制御部105はS403とS404の処理を行ってもよい。この場合、撮影者301による撮影指示のタイミングで、制御部105はデジタルカメラ100を画角に捉えているウェアラブルカメラ200と接続を確立する。撮影者301による撮影指示という一定の限定された時間間隔においてウェアラブルカメラ200から動画データを取得することにより、より確実に撮影者301を映した動画データを取得することができる。また、S401におけるデジタルカメラ100の起動後に、二次元バーコード501を表示してもよい。この場合、制御部105は、デジタルカメラ100の動作モードと無関係に撮影者301の撮影指示と連動し、接続しているウェアラブルカメラ200から動画データを取得することができる。動作モードに関係なく動画データを取得することで、あらゆる静止画に対して撮影現場の様子を記録しておくことが可能となる。   In the sequence diagram shown in FIG. 4, the timing of S404 is described as an example of the display timing of the two-dimensional barcode 501, but the present invention is not limited to this. For example, it may be displayed after the photographing is executed in S409. That is, after the operation unit 110 detects that the photographer 301 has pressed the shutter button, the control unit 105 may perform the processing of S403 and S404. In this case, the control unit 105 establishes a connection with the wearable camera 200 that captures the digital camera 100 at an angle of view at the timing of a shooting instruction from the photographer 301. By acquiring moving image data from the wearable camera 200 at a certain limited time interval of a photographing instruction by the photographer 301, moving image data showing the photographer 301 can be acquired more reliably. Further, the two-dimensional barcode 501 may be displayed after the activation of the digital camera 100 in S401. In this case, the control unit 105 can acquire moving image data from the connected wearable camera 200 in conjunction with a photographing instruction of the photographer 301 regardless of the operation mode of the digital camera 100. By acquiring moving image data regardless of the operation mode, it is possible to record the state of the shooting site for every still image.

図4に示したシーケンス図では、S410において、撮影前4秒から撮影後2秒までを指定した動画取得要求を送信するようにしたが、動画の期間としてはこれに限らない。例えば撮影前と撮影後とをそれぞれ指定する場合に、秒数を変更した指定や撮影前よりも撮影後の時間を長くした指定を行ってもよい。また、撮影前のみについて指定する、逆に撮影後のみについて数秒指定するものであってもよい。撮影前後の時間の変更は、例えば図6に示すXMLについて、撮影前期間タグ603又は撮影後期間タグ604の値を変更すればよい。   In the sequence diagram shown in FIG. 4, in S410, a moving image acquisition request specifying from 4 seconds before shooting to 2 seconds after shooting is transmitted, but the moving image period is not limited to this. For example, when designating before and after photographing, respectively, a designation with a changed number of seconds or a designation with a longer time after photographing than before photographing may be performed. Alternatively, it may be specified only before shooting, or conversely, only a few seconds after shooting. The time before and after the photographing may be changed by, for example, changing the value of the pre-imaging period tag 603 or the value of the post-imaging period tag 604 for XML shown in FIG.

さらに、転送する動画データの撮影期間の決定をウェアラブルカメラ200側に任せる方法であってもよい。この場合、例えばデジタルカメラ100を捉えている全期間の動画データを、ウェアラブルカメラ200が送信するようにしてもよい。ウェアラブルカメラ200は、S405で二次元バーコード501を検出する以前からデジタルカメラ100を画角に捉えている可能性がある。従って、ウェアラブルカメラ200の制御部205は物体検出機能を実行させて、動画中からデジタルカメラ100を検出し、S405において検出されたSSIDと物体情報と関連付ける。このようにすれば、デジタルカメラ100が画角に入った時点からの動画データを選別し、デジタルカメラ100に送信することができる。この場合、デジタルカメラ100では、動画取得要求の際に指定する、撮影前期間タグ603及び撮影後期間タグ604について、具体的な値を設定しない或いは予約済みの値を用いればよい。これにより、送信する動画の期間をウェアラブルカメラ200側に任せる旨を指示することができる。   Further, a method of leaving the determination of the shooting period of the moving image data to be transferred to the wearable camera 200 side may be employed. In this case, for example, the wearable camera 200 may transmit moving image data for the entire period of capturing the digital camera 100. The wearable camera 200 may have captured the digital camera 100 at an angle of view before detecting the two-dimensional barcode 501 in S405. Therefore, the control unit 205 of the wearable camera 200 executes the object detection function, detects the digital camera 100 from the moving image, and associates the SSID detected in S405 with the object information. By doing so, it is possible to select moving image data from the point in time when the digital camera 100 enters the angle of view and transmit the selected moving image data to the digital camera 100. In this case, in the digital camera 100, for the pre-shooting period tag 603 and the post-shooting period tag 604 specified at the time of the moving image acquisition request, a specific value may not be set or a reserved value may be used. Thereby, it is possible to instruct that the period of the moving image to be transmitted is left to the wearable camera 200 side.

加えて、S406とS407により接続を確立した時点で、デジタルカメラ100とウェアラブルカメラ200とがそれぞれの時刻情報を同期させるようにしてもよい。例えば、制御部205は、ウェアラブルカメラ200側でNTP(Network Time Protocol)サーバを起動させておく。そして、両者間の通信が確立した時点で、制御部105はNTPクライアントとしてウェアラブルカメラ200の時刻との時刻同期処理を行う。制御部205がNTPサーバのプログラムを、制御部105がNTPクライアントのプログラムをそれぞれ動作させ、お互いの通信部から時刻調整用のメッセージを送受信する。このようにして、デジタルカメラ100とウェアラブルカメラ200の時刻が正確に同期されていれば、S409における撮影者301の撮影指示を基準として、より高い精度で動画データの撮影や送受信が可能になる。   In addition, the digital camera 100 and the wearable camera 200 may synchronize their time information at the time when the connection is established in S406 and S407. For example, the control unit 205 activates an NTP (Network Time Protocol) server on the wearable camera 200 side. Then, when communication between the two is established, the control unit 105 performs time synchronization processing with the time of the wearable camera 200 as an NTP client. The control unit 205 operates the program of the NTP server, and the control unit 105 operates the program of the NTP client, and transmits and receives a time adjustment message from each other's communication unit. In this manner, if the time of the digital camera 100 and the time of the wearable camera 200 are accurately synchronized, it is possible to shoot and transmit / receive moving image data with higher accuracy based on the shooting instruction of the photographer 301 in S409.

以上説明したように本実施形態では、デジタルカメラ100は、撮影者側を画角に捉える外部のウェアラブルカメラ200によって撮影された動画データを受信し、デジタルカメラ100で撮影した静止画データと関連付けるようにした。このとき、デジタルカメラ100は、静止画を撮影するタイミングに基づく所定の期間を指定して動画データを受信する。このようにすることで、撮影者側の状況を撮影した画像と撮影画像とを関連付けて記録することが可能になる。特に、静止画への動画関連付け機能において、撮影前後の撮影者側の撮影状況が記録された動画データを容易に記録可能になる。また、ウェアラブルカメラ200は、デジタルカメラ100の表示部109に表示された二次元バーコードを検出し、この情報を用いて無線通信を確立するようにした。このようにすることで、接続する外部装置を、デジタルカメラ100を画角に捉えている外部装置に限定することができるとともに、外部装置と必要なタイミングで接続を確立することができる。このため、ネットワーク資源の合理化や無駄な消費電力の抑制を図ることができる。   As described above, in the present embodiment, the digital camera 100 receives moving image data captured by the external wearable camera 200 that captures the photographer's side at an angle of view, and associates the received moving image data with still image data captured by the digital camera 100. I made it. At this time, the digital camera 100 receives the moving image data by specifying a predetermined period based on the timing of shooting a still image. In this way, it is possible to record the image of the situation on the photographer side in association with the photographed image. In particular, in the function of associating a moving image with a still image, moving image data in which the photographing state of the photographer before and after photographing is recorded can be easily recorded. The wearable camera 200 detects a two-dimensional barcode displayed on the display unit 109 of the digital camera 100, and establishes wireless communication using this information. By doing so, the external device to be connected can be limited to an external device that captures the digital camera 100 at an angle of view, and a connection can be established with the external device at necessary timing. For this reason, network resources can be rationalized and unnecessary power consumption can be suppressed.

(実施形態2)
次に実施形態2について説明する。実施形態1では、ウェアラブルカメラ200は撮影者に装着され、デジタルカメラ100(又は更に被写体302)などの撮影者側の一部を画角に捉えるように動画データを撮影した。実施形態2では、被写体がウェアラブルカメラ200を装着して、撮影者側を画角に捉えるように動画データを撮影する点が異なる。本実施形態におけるデジタルカメラ100及びウェアラブルカメラ200の構成は、実施形態1における図1及び図2の構成と同様であるが、デジタルカメラ100が可視光を用いてウェアラブルカメラ200にSSIDの情報を通知する構成が異なる。このため、本実施形態において参照する図面において、実施形態1と同一の構成及びステップについては同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
(Embodiment 2)
Next, a second embodiment will be described. In the first embodiment, the wearable camera 200 is attached to a photographer, and captures moving image data so as to capture a part of the photographer side such as the digital camera 100 (or the subject 302) at an angle of view. The second embodiment is different from the first embodiment in that the subject wears the wearable camera 200 and shoots moving image data so as to capture the photographer at an angle of view. The configurations of the digital camera 100 and the wearable camera 200 in the present embodiment are the same as the configurations of FIGS. 1 and 2 in the first embodiment, but the digital camera 100 notifies the wearable camera 200 of the SSID information using visible light. Configuration is different. For this reason, in the drawings referred to in the present embodiment, the same configurations and steps as those in the first embodiment are denoted by the same reference numerals, and redundant description will be omitted, and differences will be mainly described.

図7は、本実施形態におけるデジタルカメラ100とウェアラブルカメラ200が、
撮影現場で連携して動作するシステムの例を示している。撮影者701は、デジタルカメラ100を操作して被写体702を捉えた静止画を撮影する。また、本実施形態では、被写体702は、ウェアラブルカメラ200を頭部に取り付けて撮影を行う。従って、ウェアラブルカメラ200は、デジタルカメラ100を操作して撮影している撮影者701やデジタルカメラ100の一部又は全部(この場合、前面の一部又は全部)を正面から撮影している。すなわち、ウェアラブルカメラ200によって撮影者701の表情を撮影できる。
FIG. 7 shows that the digital camera 100 and the wearable camera 200 according to the present embodiment
1 shows an example of a system that operates in cooperation with a shooting site. The photographer 701 operates the digital camera 100 to photograph a still image of the subject 702. In the present embodiment, the subject 702 captures an image with the wearable camera 200 attached to the head. Therefore, the wearable camera 200 photographs the photographer 701 operating the digital camera 100 and part or all of the digital camera 100 (in this case, part or all of the front) from the front. That is, the expression of the photographer 701 can be photographed by the wearable camera 200.

(動画関連付け処理に係る一連の動作)
次に、図8に示すシーケンス図を参照して、本実施形態に係る動画関連付け処理に係る一連の動作を説明する。なお、本処理に係るデジタルカメラ100の一連の動作は、実施形態1と同様、制御部105が記録部108に記憶されたプログラムを記憶部107の作業用領域に展開し、実行することにより実現される。また、本処理に係るウェアラブルカメラ200の一連の動作も同様に、制御部205が記録部208に記憶されたプログラムを記憶部207の作業用領域に展開し、実行することにより実現される。
(Series of operations related to video association processing)
Next, a series of operations related to the moving image association processing according to the present embodiment will be described with reference to a sequence diagram illustrated in FIG. Note that a series of operations of the digital camera 100 according to the present processing are realized by the control unit 105 expanding the program stored in the recording unit 108 to a work area of the storage unit 107 and executing the program, as in the first embodiment. Is done. Similarly, a series of operations of the wearable camera 200 according to the present processing are also realized by the control unit 205 expanding the program stored in the recording unit 208 to a work area of the storage unit 207 and executing the program.

また、本実施形態では、被写体702が装着しているウェアラブルカメラ200は、常時動画を記録しているものとし、撮影された動画データは記録部208に記録されている。   In the present embodiment, the wearable camera 200 mounted on the subject 702 always records a moving image, and the captured moving image data is recorded in the recording unit 208.

図4に示したシーケンス図と異なる点は、S804とS805でウェアラブルカメラ200にデジタルカメラ100で起動したアクセスポイントのSSIDの情報を通知する処理である。   The difference from the sequence diagram shown in FIG. 4 is the process of notifying the wearable camera 200 of the SSID information of the access point activated by the digital camera 100 in S804 and S805.

S401〜S402で撮影者701は、実施形態1と同様、撮影者701はデジタルカメラ100を起動し、動作モードを動画追加記録モードに設定する。また、S403でデジタルカメラ100は、実施形態1と同様、アクセスポイントを起動する。   In steps S <b> 401 to S <b> 402, the photographer 701 activates the digital camera 100 and sets the operation mode to the moving image additional recording mode, as in the first embodiment. In step S403, the digital camera 100 activates an access point as in the first embodiment.

S801でデジタルカメラ100は、図9に示すように発光部111を点滅させ、可視光通信によりアクセスポイントのSSIDの情報を送信する。すなわち、制御部105は、公知の可視光通信技術を用いて発光部111に対する発光制御を行って、S403で起動したアクセスポイントのSSIDの情報をウェアラブルカメラ200に通知する。   In step S801, the digital camera 100 blinks the light emitting unit 111 as shown in FIG. 9 and transmits the information of the SSID of the access point by visible light communication. That is, the control unit 105 performs light emission control on the light emitting unit 111 using a known visible light communication technique, and notifies the wearable camera 200 of the information of the SSID of the access point activated in S403.

S802でウェアラブルカメラ200は、S801でデジタルカメラ100が開始した可視光通信を受信して、ウェアラブルカメラ200のSSIDの情報を検出する。すなわち、制御部205は、撮影している動画データを用いて可視光通信の信号を受信することにより、デジタルカメラ100が可視光通信のために光源の点滅を開始した時点で受信を開始できる。そして、制御部205は、デジタルカメラ100の送信したアクセスポイントのSSIDの情報を取得する。   In S802, the wearable camera 200 receives the visible light communication started by the digital camera 100 in S801, and detects the information of the SSID of the wearable camera 200. That is, the control unit 205 can start receiving when the digital camera 100 starts blinking the light source for visible light communication by receiving the visible light communication signal using the moving image data being captured. Then, the control unit 205 acquires the information of the SSID of the access point transmitted from the digital camera 100.

その後のS406〜S413の処理は、実施形態1と同様である。   Subsequent processes in S406 to S413 are the same as those in the first embodiment.

以上の処理により、デジタルカメラ100は、当該デジタルカメラ100を画角に捉えているウェアラブルカメラ200から、シャッター釦押下に応じてウェアラブルカメラ200が撮影している動画データを受信することができる。そして、撮影した静止画データと受信した動画データとを関連付けて記録することができる。また、図7に示したシステムにおいて本シーケンスが動作することによって、ウェアラブルカメラ200から受信する動画データは、静止画の撮影前の期間にデジタルカメラ100を操作している撮影者701の正面からの様子を撮影したものになる。そして、静止画の撮影後の期間を撮影した動画データは、撮影者701による撮影後の余韻を撮影したものになる。   Through the above processing, the digital camera 100 can receive, from the wearable camera 200 capturing the digital camera 100 at an angle of view, moving image data captured by the wearable camera 200 in response to pressing of the shutter button. Then, the captured still image data and the received moving image data can be recorded in association with each other. By operating this sequence in the system shown in FIG. 7, the moving image data received from the wearable camera 200 is viewed from the front of the photographer 701 operating the digital camera 100 during the period before the still image is captured. It is a picture of the situation. The moving image data obtained by capturing the period after the still image is captured is obtained by capturing the lingering sound after the capturing by the photographer 701.

本実施形態では、可視光通信の表示タイミングとしてS801のタイミングを例に説明したがこれに限定されない。例えばS409の撮影実行後に表示してもよい。すなわち、操作部110が撮影者701によるシャッター釦押下を検出した後に、制御部105はS403とS801の処理を行ってもよい。この場合、撮影者701による撮影指示のタイミングで、制御部105はデジタルカメラ100を画角に捉えているウェアラブルカメラ200と通信を確立する。撮影者701による撮影指示という一定の限定された時間間隔においてウェアラブルカメラ200から動画データを取得することにより、より確実に撮影者701を正面から映した動画データを取得できることが期待できる。   In the present embodiment, the display timing of visible light communication is described using the timing of S801 as an example, but the present invention is not limited to this. For example, it may be displayed after the photographing in S409 is executed. That is, after the operation unit 110 detects that the photographer 701 has pressed the shutter button, the control unit 105 may perform the processing of S403 and S801. In this case, the control unit 105 establishes communication with the wearable camera 200 that captures the digital camera 100 at an angle of view at the timing of a shooting instruction from the photographer 701. By acquiring moving image data from the wearable camera 200 at a certain limited time interval of a photographing instruction by the photographer 701, it can be expected that moving image data showing the photographer 701 from the front can be acquired more reliably.

また、S401におけるデジタルカメラ100の起動後に、可視光通信を開始してもよい。この場合、デジタルカメラ100の撮影モードと無関係に撮影者701の撮影指示と連動し、接続しているウェアラブルカメラ200から動画データを取得することができる。動作モードに関係なく動画データを取得することで、あらゆる静止画に対して撮影現場の様子を記録することが可能となる。   Further, after starting the digital camera 100 in S401, the visible light communication may be started. In this case, the moving image data can be acquired from the connected wearable camera 200 in conjunction with the photographing instruction of the photographer 701 regardless of the photographing mode of the digital camera 100. By acquiring moving image data regardless of the operation mode, it is possible to record the state of the shooting site for any still image.

また、本実施形態においても、実施形態1において説明したように、ウェアラブルカメラ200は動画データの代わりに静止画データを送信してもよい。また、動画取得要求における撮影前期間タグ603や撮影後期間タグ604の値を変更し、或いは動画データの撮影時間をウェアラブルカメラ200側で決定するようにしてもよい。さらに、実施形態1において説明したように、デジタルカメラ100とウェアラブルカメラ200のそれぞれの時刻情報を同期させてもよい。   Also, in the present embodiment, as described in the first embodiment, the wearable camera 200 may transmit still image data instead of moving image data. Further, the value of the pre-shooting period tag 603 or the post-shooting period tag 604 in the moving image acquisition request may be changed, or the shooting time of the moving image data may be determined on the wearable camera 200 side. Further, as described in the first embodiment, the time information of each of the digital camera 100 and the wearable camera 200 may be synchronized.

以上説明したように本実施形態では、静止画データを撮影するデジタルカメラ100が、撮影者側を被写体側から画角に捉えるウェアラブルカメラ200によって撮影された動画データを受信して、撮影した静止画データと関連付けるようにした。このようにすることで、被写体側から見た、撮影者側の状況を撮影した画像を撮影画像と関連付けて記録することが可能になる。特に、静止画への動画関連付け機能において、被写体側から見た、撮影前後の撮影者側の撮影状況が記録された動画データを容易に記録可能になる。また、ウェアラブルカメラ200は、デジタルカメラ100と可視光通信を行って無線アクセスポイントの情報を取得し、この情報を用いて無線通信を確立するようにした。このような方法によっても、接続する外部装置を、デジタルカメラ100を画角に捉えている外部装置に限定することができるとともに、外部装置と必要なタイミングで接続を確立することができる。   As described above, in the present embodiment, the digital camera 100 that captures still image data receives the moving image data captured by the wearable camera 200 that captures the photographer from the subject side at an angle of view, and the captured still image Added to associate with data. In this way, it is possible to record an image of the situation on the photographer side as seen from the subject side in association with the photographed image. In particular, in the function of associating a moving image with a still image, it is possible to easily record moving image data in which the photographing situation of the photographer before and after photographing is recorded as viewed from the subject side. In addition, the wearable camera 200 performs visible light communication with the digital camera 100 to acquire information on a wireless access point, and establishes wireless communication using this information. According to such a method, the external device to be connected can be limited to the external device capturing the digital camera 100 at the angle of view, and the connection can be established with the external device at a necessary timing.

(実施形態3)
さらに、実施形態3について説明する。実施形態1では、デジタルカメラ100におけるシャッター釦押下のタイミングでウェアラブルカメラ200によって撮影された動画データを取得するためには、ウェアラブルカメラ200が一定の長さの動画データを随時記録部208に記録する必要があった。本実施形態では、ウェアラブルカメラ200が動画データを記録部208に記録できない場合であっても、撮影前後の撮影者側の撮影状況や雰囲気が記録された動画データを記録可能な構成について説明する。なお、記録部208が動画データを記録できない状況として、例えばウェアラブルカメラ200の記録部208の空き領域が無いため追加記録ができない、或いはウェアラブルカメラ200がそもそも記録部208を備えていない場合などを含む。
(Embodiment 3)
Further, a third embodiment will be described. In the first embodiment, in order to acquire moving image data shot by the wearable camera 200 at the timing of pressing the shutter button of the digital camera 100, the wearable camera 200 records moving image data of a fixed length in the recording unit 208 as needed. Needed. In the present embodiment, a configuration will be described in which even when the wearable camera 200 cannot record moving image data in the recording unit 208, moving image data in which the photographing situation and atmosphere of the photographer before and after photographing are recorded can be recorded. Note that the situation where the recording unit 208 cannot record the moving image data includes, for example, a case where additional recording cannot be performed because there is no free space in the recording unit 208 of the wearable camera 200, or a case where the wearable camera 200 does not have the recording unit 208 in the first place. .

本実施形態におけるデジタルカメラ100及びウェアラブルカメラ200の構成は、実施形態1における図1及び図2の構成と同様であるが、ウェアラブルカメラ200が撮影した動画データをストリーミング配信する点が異なる。このため、本実施形態において参照する図面において、上述した実施形態と同一の構成及びステップについては同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。   The configurations of the digital camera 100 and the wearable camera 200 in the present embodiment are the same as the configurations of FIGS. 1 and 2 in the first embodiment, except that the moving image data shot by the wearable camera 200 is distributed by streaming. For this reason, in the drawings referred to in the present embodiment, the same configurations and steps as those in the above-described embodiment are denoted by the same reference numerals, and redundant description will be omitted, and differences will be mainly described.

(動画関連付け処理に係る一連の動作)
図10は、図3のシステムにおいてデジタルカメラ100とウェアラブルカメラ200が連動しながら動作する処理を示すシーケンス図を示している。
(Series of operations related to video association processing)
FIG. 10 is a sequence diagram showing a process in which the digital camera 100 and the wearable camera 200 operate in conjunction with each other in the system shown in FIG.

S401〜S407については実施形態1と同様に各ステップの処理を実行する。   In steps S401 to S407, the processing of each step is executed as in the first embodiment.

S1001で制御部105は、ウェアラブルカメラ200に対してストリーミング開始要求を送信する。例えばRTSP(Real Time Streaming Protocol)プロトコルに従ったコマンドを送信する。RTSPによる通信において、制御部105は、ストリーミングを行うためのセッションの確立やストリーミングの開始又は停止といった制御を行うことができる。本ステップでは、制御部105はセッションの確立とストリーミングを開始する処理を行う。制御部105がRTSPプロトコルに従うコマンドをウェアラブルカメラ200に送信すると、ウェアラブルカメラ200の制御部205は、セッションの確立処理を行ってRSTPプロトコルに従ってレスポンスを返す。制御部105は、ウェアラブルカメラ200からのレスポンスを受信して、送信したRTSPコマンドが正しく処理されたことを確認して以降の処理を行う。   In step S1001, the control unit 105 transmits a streaming start request to the wearable camera 200. For example, a command according to the RTSP (Real Time Streaming Protocol) is transmitted. In communication by RTSP, the control unit 105 can perform control such as establishment of a session for performing streaming and start or stop of streaming. In this step, the control unit 105 performs a process of establishing a session and starting streaming. When the control unit 105 transmits a command according to the RTSP protocol to the wearable camera 200, the control unit 205 of the wearable camera 200 performs a session establishment process and returns a response according to the RSTP protocol. The control unit 105 receives the response from the wearable camera 200, confirms that the transmitted RTSP command has been correctly processed, and performs the subsequent processing.

S1002でウェアラブルカメラは、S1001で受信したストリーミング開始要求に従って、デジタルカメラ100に対するストリーミングの配信を開始する。制御部205は、ウェアラブルカメラ200の各部を制御して撮影を行い、撮影した動画データを記憶部207に一時的に記録させる。さらに、制御部205は記憶部207に一時記録されている動画データを随時読み出して通信部206を介して送信する。本ステップの処理をウェアラブルカメラ200による撮影中に繰り返すことで、撮影した動画データをリアルタイムに送信することができる。   In S1002, the wearable camera starts streaming distribution to the digital camera 100 according to the streaming start request received in S1001. The control unit 205 controls each unit of the wearable camera 200 to perform photographing, and causes the storage unit 207 to temporarily record photographed moving image data. Further, the control unit 205 reads out the moving image data temporarily recorded in the storage unit 207 as needed and transmits the moving image data via the communication unit 206. By repeating the process of this step during shooting by the wearable camera 200, the shot moving image data can be transmitted in real time.

S1003でデジタルカメラ100は、受信したストリーミングデータのバッファリングを開始する。すなわち、制御部105は、記憶部107の所定領域を確保し、通信部106で受信した一定期間分のストリーミングデータを一時的に記録する。特に確保した所定領域をリングバッファとして利用すれば、常に一定期間のストリーミングデータをバッファリングすることができる。本実施形態では、ストリーミングデータから例えば撮影前4秒から撮影後の2秒までの動画データを生成するため、制御部105は、最低でも4秒分の動画データをバッファリングする領域を記憶部107に確保する。   In step S1003, the digital camera 100 starts buffering the received streaming data. That is, the control unit 105 secures a predetermined area in the storage unit 107 and temporarily records streaming data for a certain period received by the communication unit 106. In particular, if the secured predetermined area is used as a ring buffer, streaming data for a certain period can always be buffered. In the present embodiment, in order to generate moving image data from, for example, 4 seconds before shooting to 2 seconds after shooting from the streaming data, the control unit 105 stores an area for buffering at least 4 seconds of moving image data in the storage unit 107. To secure.

S408及びS409で制御部105は、実施形態1と同様に、撮影者301の指示に応じて撮影条件を設定するとともに、撮影を実行する。なお、図3に示したシステムでは、撮影者301によるこうした一連のカメラ操作をウェアラブルカメラ200が撮影し、撮影したストリーミングデータを送信している。   In steps S408 and S409, the control unit 105 sets shooting conditions in accordance with an instruction from the photographer 301 and executes shooting as in the first embodiment. In the system shown in FIG. 3, the wearable camera 200 shoots such a series of camera operations by the photographer 301, and transmits the shot streaming data.

S411で制御部105は、実施形態1と同様に、S409におけるシャッター釦押下に従って撮影した静止画データを記録部108に記録する。   In step S411, the control unit 105 records, in the recording unit 108, still image data captured by pressing the shutter button in step S409, as in the first embodiment.

S1004でデジタルカメラ100は、S1002以降に受信していたストリーミングデータを動画データとして記録する。本実施形態では、例えば撮影前4秒から撮影後2秒までの動画データを記録するため、制御部105は、記憶部107にバッファリングされているストリーミングデータを動画データとして記録部108に記録する。S1003で説明したように、4秒分のストリーミングデータをバッファリングしているため、撮影前4秒から撮影後2秒までの動画データを生成することは可能である。   In S1004, the digital camera 100 records the streaming data received after S1002 as moving image data. In the present embodiment, for example, in order to record moving image data from 4 seconds before shooting to 2 seconds after shooting, the control unit 105 records streaming data buffered in the storage unit 107 as moving image data in the recording unit 108. . As described in S1003, since streaming data for 4 seconds is buffered, it is possible to generate moving image data from 4 seconds before shooting to 2 seconds after shooting.

S1005でデジタルカメラ100は、ストリーミング終了要求を送信する。すなわち、制御部105は、RTSPプロトコルに従うストリーミング終了要求コマンドを生成して、通信部106を介してウェアラブルカメラ200に送信する。送信されたコマンドは、ウェアラブルカメラ200の通信部206で受信され、制御部205によって内容が解析されてストリーミング終了要求として認識される。制御部205は、ストリーミング終了要求を受信したことに応じて、ストリーミングデータの送信を終了する。   In step S1005, the digital camera 100 transmits a streaming end request. That is, the control unit 105 generates a streaming end request command according to the RTSP protocol and transmits the command to the wearable camera 200 via the communication unit 106. The transmitted command is received by the communication unit 206 of the wearable camera 200, the content is analyzed by the control unit 205, and the command is recognized as a streaming end request. The control unit 205 ends the transmission of the streaming data in response to receiving the streaming end request.

最後にS413で、実施形態1と同様に、デジタルカメラ100の制御部105は、S411で記録した静止画データと、S1004で記録した動画データの関連付けを行う。   Lastly, in step S413, the control unit 105 of the digital camera 100 associates the still image data recorded in step S411 with the moving image data recorded in step S1004, as in the first embodiment.

以上の処理により、デジタルカメラ100は、デジタルカメラ100を画角に捉えているウェアラブルカメラ200から、シャッター釦押下に応じてウェアラブルカメラ200が撮影している動画データをストリーミングデータとして受信することができる。そして、撮影した静止画データと受信したストリーミングデータに基づく動画データとを関連付けて記録することができる。また、図3に示したシステムにおいて本シーケンスが動作することによって、関連付けた動画データは、撮影前の期間に撮影者の301がデジタルカメラ100を操作する様子と被写体302の様子を撮影したものになる。本実施形態では、特に、ウェアラブルカメラ200が撮影した動画データを記録できない構成であっても、デジタルカメラ100は、シャッター釦押下のタイミングに基づく動画データを関連付けることが可能となる。   Through the above processing, the digital camera 100 can receive, as streaming data, the moving image data captured by the wearable camera 200 in response to the pressing of the shutter button from the wearable camera 200 capturing the digital camera 100 at an angle of view. . Then, the captured still image data and the moving image data based on the received streaming data can be recorded in association with each other. In addition, by the operation of this sequence in the system shown in FIG. 3, the associated moving image data is obtained by photographing the state of the photographer 301 operating the digital camera 100 and the state of the subject 302 during the period before photographing. Become. In the present embodiment, the digital camera 100 can associate moving image data based on the timing of pressing the shutter button, even if the moving image data captured by the wearable camera 200 cannot be recorded.

なお、本実施形態においても、実施形態1において説明した、二次元バーコードの表示タイミングや動画の期間等について同様の変更を適用することができる。   Note that, in the present embodiment, similar changes can be applied to the display timing of the two-dimensional barcode, the period of the moving image, and the like described in the first embodiment.

また、本実施形態では、S1005でストリーミング終了要求を送信することによってストリーミングの終了タイミングを制御したがこれに限定されない。例えば、制御部105はデジタルカメラ100の動作モードが変化したタイミングでストリーミング終了要求を送信してもよい。つまり、動画追加記録モードの間はストリーミングを受信し続けるようにしてもよい。このようにすれば、撮影者301が複数枚の静止画を続けて撮影する場合であっても、常に撮影者301による静止画の撮影タイミングに関連した動画を静止画に関連付けて記録することができる。   Further, in the present embodiment, the streaming end timing is controlled by transmitting the streaming end request in S1005, but the present invention is not limited to this. For example, the control unit 105 may transmit a streaming end request at a timing when the operation mode of the digital camera 100 changes. That is, streaming may be continuously received during the moving image additional recording mode. In this way, even when the photographer 301 continuously shoots a plurality of still images, a moving image related to the photographing timing of the still image by the photographer 301 can always be recorded in association with the still image. it can.

また、本実施形態では、デジタルカメラ100がS1001以降で受信するストリーミングデータを表示部109に表示することもできる。表示部109の液晶画面内に小窓を設けて当該小窓に受信したストリーミングデータを表示することにより、撮影者301は、撮影者自身が身につけているウェアラブルカメラ200の映像を確認しながら撮影を行うことができる。   Further, in the present embodiment, the streaming data received by the digital camera 100 after S1001 can be displayed on the display unit 109. By providing a small window in the liquid crystal screen of the display unit 109 and displaying the received streaming data in the small window, the photographer 301 can shoot while checking the image of the wearable camera 200 worn by the photographer himself. It can be performed.

(実施形態4)
さらに、実施形態4について説明する。実施形態3では、ウェアラブルカメラ200は撮影者に装着され、撮影者側の一部や被写体302を画角に捉えるように動画データを撮影した。実施形態4では、被写体がウェアラブルカメラ200を装着して撮影者側を画角に捉えるように動画データを撮影する点が異なる。本実施形態におけるデジタルカメラ100及びウェアラブルカメラ200の構成は、実施形態3における構成と同様であるが、デジタルカメラ100が可視光を用いてウェアラブルカメラ200にSSIDの情報を通知する構成が異なる。このため、本実施形態において参照する図面において、上述した実施形態と同一の構成及びステップについては同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
(Embodiment 4)
Further, a fourth embodiment will be described. In the third embodiment, the wearable camera 200 is attached to the photographer, and photographs moving image data so as to capture a part of the photographer side and the subject 302 at an angle of view. The fourth embodiment is different from the first embodiment in that the subject wears the wearable camera 200 and shoots moving image data so that the photographer captures the photographer side at an angle of view. The configurations of the digital camera 100 and the wearable camera 200 in the present embodiment are the same as the configurations in the third embodiment, except that the configuration in which the digital camera 100 notifies the wearable camera 200 of the SSID information using visible light is different. For this reason, in the drawings referred to in the present embodiment, the same configurations and steps as those in the above-described embodiment are denoted by the same reference numerals, and redundant description will be omitted, and differences will be mainly described.

(動画関連付け処理に係る一連の動作)
図11は、図7のシステムにおいてデジタルカメラ100と被写体702が装着しているウェアラブルカメラ200が連動しながら動作する処理を示すシーケンス図を示している。
(Series of operations related to video association processing)
FIG. 11 is a sequence diagram showing a process in which the digital camera 100 and the wearable camera 200 on which the subject 702 is mounted operate in conjunction with each other in the system shown in FIG.

S401〜S403については実施形態3と同様に各ステップの処理を実行する。   In steps S401 to S403, the processing of each step is executed as in the third embodiment.

S801でデジタルカメラ100の制御部105は、実施形態2で上述したように、可視光通信によってウェアラブルカメラ200にアクセスポイントのSSIDの情報を通知する。そして、S802で、ウェアラブルカメラ200の制御部205は、撮影している動画データを用いて可視光通信の信号を受信して、デジタルカメラ100のSSIDの情報を取得する。   In step S801, the control unit 105 of the digital camera 100 notifies the wearable camera 200 of the information of the SSID of the access point by visible light communication as described in the second embodiment. Then, in step S802, the control unit 205 of the wearable camera 200 receives a visible light communication signal using the moving image data being captured, and acquires information on the SSID of the digital camera 100.

そして、S406〜S413に係る処理は、実施形態3と同様である。   The processes in S406 to S413 are the same as those in the third embodiment.

以上のシーケンス処理により、デジタルカメラ100と、それを画角に捉えているウェアラブルカメラ200との間で無線通信を確立することができ、シャッター釦押下に応じてウェアラブルカメラ200が撮影している動画データをストリーミングデータとして受信することができる。そして、撮影した静止画データと受信したストリーミングデータに基づく動画データとを関連付けて記録することができる。また、図7に示したシステムにおいて本シーケンスが動作することによって、ウェアラブルカメラ200から受信するストリーミングデータは、撮影前の期間に撮影者の301がデジタルカメラ100を操作する様子を正面から撮影したものになる。本実施形態では、特に、ウェアラブルカメラ200が撮影した動画データを記録できない構成であっても、デジタルカメラ100は、シャッター釦押下のタイミングに基づく動画データを関連付けることが可能となる。   By the above-described sequence processing, wireless communication can be established between the digital camera 100 and the wearable camera 200 that captures the image at an angle of view, and the moving image captured by the wearable camera 200 in response to the pressing of the shutter button. Data can be received as streaming data. Then, the captured still image data and the moving image data based on the received streaming data can be recorded in association with each other. Also, by operating this sequence in the system shown in FIG. 7, streaming data received from the wearable camera 200 is obtained by photographing the digital camera 100 from the front while the photographer 301 operates the digital camera 100 in a period before photographing. become. In the present embodiment, the digital camera 100 can associate moving image data based on the timing of pressing the shutter button, even if the moving image data captured by the wearable camera 200 cannot be recorded.

なお、本実施形態においても、実施形態2において説明した可視光通信の開始タイミングや、実施形態1から実施形態3において説明した動画の期間等についての同様の変更を適用することができる。   Note that, in the present embodiment, the same change in the start timing of the visible light communication described in the second embodiment and the moving image period described in the first to third embodiments can be applied.

(その他の実施形態)
本発明は、上述した実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.

102…撮像部、106…通信部、108…記録部、109…表示部、111…発光部、202…撮像部、206…通信部 Reference numeral 102: imaging unit, 106: communication unit, 108: recording unit, 109: display unit, 111: light emitting unit, 202: imaging unit, 206: communication unit

Claims (12)

部装置と通信する通信手段と
第一の記録手段と、
撮像手段と、
制御手段と、を有し、
前記制御手段は、前記通信手段を介して前記外部装置が撮像した第一のデータを受信し
前記制御手段は、前記撮像手段により撮された静止画データと、前記外部装置から受信した前記第一のデータとを関連付けて前記第一の記録手段によって記録し
前記第一のデータは、少なくとも前記静止画データが撮像されたタイミングよりも所定の期間前から前記静止画データが撮像されたタイミングまで継続して記録された動画データである
ことを特徴とする撮像装置。
Communication means for communicating with external devices,
A first recording means;
Imaging means;
Control means,
The control unit receives the first data captured by the external device via the communication unit ,
Wherein said control means includes a still image data image shooting by the imaging unit, and recording by said first data and said first recording means in association with that received from said external device,
The first data is moving image data that is continuously recorded at least a predetermined period before the timing at which the still image data was captured until the timing at which the still image data was captured ,
An imaging device characterized by the above-mentioned.
前記第一のデータは、さらに前記静止画データが撮像されたタイミングよりも後まで継続して記録された動画データである、The first data is moving image data that is continuously recorded until after the timing at which the still image data is captured,
ことを特徴とする請求項1に記載の撮像装置。The imaging device according to claim 1, wherein:
前記制御手段は前記通信手段を介した通信の接続を確立するために用いる情報を通知し
前記制御手段は、通知した前記情報に基づいて接続が確立された通信を用いて、前記外部装置像し前記第一のデータを前記通信手段を介して受信する、
ことを特徴とする請求項1または2に記載の撮像装置。
Said control means notify the information used to establish a connection for communication via the communication means,
Wherein said control means uses a communication connection based on the information notified has been established, to receive the first data to which the external device is shooting the image through the communication means,
The imaging apparatus according to claim 1 or 2, characterized in that.
表示手段を更に有し、
前記通信手段を介した通信の接続を確立するために用いる前記情報は前記表示手段によって表示された二次元バーコードである
ことを特徴とする請求項に記載の撮像装置。
Further comprising a display means,
The information used to establish a connection for communication via the communication means is a two-dimensional bar code displayed by the display means,
The imaging device according to claim 3 , wherein:
発光手段を更に有し、
前記制御手段は、前記通信手段を介した通信の接続を確立するために用いる前記情報を前記発光手段による可視光通信によって通知する、
ことを特徴とする請求項に記載の撮像装置。
Further comprising light emitting means,
Said control means notifies the visible light communication by said light emitting means the information used to establish a connection for communication via the communication means,
The imaging device according to claim 3 , wherein:
前記第一のデータでは画角に前記撮像装置が撮像されており、In the first data, the imaging device is imaged at an angle of view,
前記第一のデータに撮像されている前記撮像装置の面は、前記制御手段が前記情報を通知する場合に用いる前記撮像装置の部材を含む面である、The surface of the imaging device being imaged with the first data is a surface including a member of the imaging device used when the control unit notifies the information,
ことを特徴とする請求項3から5のいずれか1項に記載の撮像装置。The imaging device according to claim 3, wherein:
前記制御手段は、前記外部装置との接続を確立した場合前記外部装置との間で時刻情報を同期する
ことを特徴とする請求項1からのいずれか1項に記載の撮像装置。
Wherein, when establishing a connection with the external device, to synchronize time information between said external device,
The imaging apparatus according to any one of claims 1 6, characterized in that.
さらに前記第一の記録手段とは異なる第二の記録手段を有し、
前記制御手段は、前記外部装置からストリーミングデータを受信し、
前記制御手段は、前記外部装置から受信した前記ストリーミングデータを所定時間前記第二の記録手段に記録し、
前記制御手段は、前記撮像手段によって撮像する場合、前記第二の記録手段に記録されている前記ストリーミングデータを前記第一のデータとして前記第一の記録手段によって記録する、
ことを特徴とする請求項1からのいずれか1項に記載の撮像装置。
Further having a second recording means different from the first recording means,
The control means receives streaming data from the external device,
The control means records the streaming data received from the external device in the second recording means for a predetermined time,
When the control unit captures an image by the imaging unit, the streaming data recorded in the second recording unit is recorded by the first recording unit as the first data ,
The imaging apparatus according to any one of claims 1 7, characterized in that.
前記撮像装置の動作モードが、前記静止画データと前記第一のデータとを関連付けて記録する第一のモードから前記第一のモードと異なる第二の動作モードに変化したことに応じて、前記制御手段は、前記ストリーミングデータの受信を停止する、
ことを特徴とする請求項に記載の撮像装置。
The operation mode of the imaging apparatus, in response to a change from a first mode for recording in association with the still image data and the first data in the first mode and different second mode of operation, the The control means stops receiving the streaming data ,
The imaging device according to claim 8 , wherein:
部装置と通信する通信手段と
記録手段と、
撮像手段とを有する撮像装置の制御方法であって、
記外部装置像し第一のデータを、前記通信手段を介して受信る工程と、
記撮像手段より撮像された静止画データと、前記外部装置から受信した前記第一のデータとを関連付けて前記記録手段によって記録する工程と、を有し、
前記第一のデータは、少なくとも前記静止画データが撮像されたタイミングよりも所定の期間前から前記静止画データが撮像されたタイミングまで継続して記録された動画データである、
ことを特徴とする制御方法。
Communication means for communicating with external devices,
Recording means;
A method for controlling an imaging apparatus having an imaging hands stage, a
The first data is pre Kigaibu device and shooting the image, the higher the factory that will receive via said communication means,
A still image data more captured before Symbol imaging means, Engineering and as you recorded by said first data and said recording means in association with that received from the external device, and
The first data is moving image data that is continuously recorded at least a predetermined period before the timing at which the still image data was captured until the timing at which the still image data was captured,
A control method characterized in that:
コンピュータを、請求項1からのいずれか1項に記載の撮像装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each unit of the imaging device according to any one of claims 1 to 9 . の撮像装置と第の撮像装置とが通信するシステムであって、
前記第の撮像装置は、
第一の記録手段と、
第一の撮像手段と、を有し、
前記第二の撮像装置は第二の撮像手段を有し、
前記第一の撮像装置は、接続を確立している前記第二の撮像装置から前記第二の撮像手段によって撮像された第一のデータを受信し、
前記第一の撮像装置は、前記第一の撮像手段により撮像された静止画データと、前記第二の撮像装置から受信した前記第一のデータとを関連付けて前記第一の記録手段によって記録し、
前記第二の撮像手段によって撮像された前記第一のデータは、前記第一の撮像手段が前記静止画データを撮像したタイミングよりも前から前記静止画データを撮像したタイミングまで継続して記録された動画データである、
ことを特徴とするシステム。
A system in which the first imaging device and the second imaging device communicate,
The first imaging device,
A first recording means;
A first imaging means ,
The second imaging device has a second imaging unit,
The first imaging device receives first data imaged by the second imaging unit from the second imaging device that has established a connection,
The first imaging device associates the still image data captured by the first imaging device with the first data received from the second imaging device and records the data by the first recording device. ,
The first data imaged by the second imaging means is continuously recorded from a timing before the first imaging means captures the still image data to a timing when the still image data is captured. Video data
A system characterized in that:
JP2015130325A 2015-06-29 2015-06-29 Imaging device, control method therefor, program and system Expired - Fee Related JP6655895B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015130325A JP6655895B2 (en) 2015-06-29 2015-06-29 Imaging device, control method therefor, program and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015130325A JP6655895B2 (en) 2015-06-29 2015-06-29 Imaging device, control method therefor, program and system

Publications (2)

Publication Number Publication Date
JP2017017444A JP2017017444A (en) 2017-01-19
JP6655895B2 true JP6655895B2 (en) 2020-03-04

Family

ID=57831058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015130325A Expired - Fee Related JP6655895B2 (en) 2015-06-29 2015-06-29 Imaging device, control method therefor, program and system

Country Status (1)

Country Link
JP (1) JP6655895B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6548061B1 (en) * 2019-02-12 2019-07-24 株式会社Gpro Camera control system and camera control method
JP7469536B1 (en) * 2023-03-17 2024-04-16 株式会社ドワンゴ Content management system, content management method, content management program, and user terminal

Also Published As

Publication number Publication date
JP2017017444A (en) 2017-01-19

Similar Documents

Publication Publication Date Title
JP6439837B2 (en) Electronic device and display method
US8937667B2 (en) Image communication apparatus and imaging apparatus
JP6382961B2 (en) Method and apparatus for acquiring video content
JPWO2017047012A1 (en) Imaging device and system including imaging device and server
JP5730928B2 (en) Captured image display device, imaging system, captured image display method, and program
JP2019016891A (en) Imaging apparatus and image transfer method
JP6655895B2 (en) Imaging device, control method therefor, program and system
JP2004297414A (en) Camera having synchronous photographing function and image recorder
JP6351260B2 (en) Imaging apparatus and control method thereof
JP2007166420A (en) Camera system and digital camera
JP2017041778A (en) Imaging apparatus, moving picture formation method and program
JP6426969B2 (en) Imaging device, control method therefor, system, and program
JP2019193161A (en) Communication device, control method thereof, and program
JP2011078056A (en) Camera
JP2011035543A (en) Imaging apparatus, terminal device, imaging system, and information processing method of imaging apparatus
JP2022187301A (en) Image capture apparatus, control method, and program
US11496685B2 (en) Information processing system, information processing method, medium, and management device
JP6735566B2 (en) Image management apparatus, image reproduction apparatus and control method thereof, program, and storage medium
JP2013187642A (en) Image pickup device, image pickup device control system, and computer program
KR101643772B1 (en) Apparatus and method for image capture using image stored in camera
JP2021034879A (en) Imaging system, imaging apparatus, and program
JP2017017471A (en) Information processing system, and control method and program thereof
JP6446842B2 (en) Imaging apparatus, imaging control system, imaging control method, and program
JP2017188775A (en) Imaging system and imaging processing method thereof
JP2023167632A (en) Imaging apparatus, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200204

R151 Written notification of patent or utility model registration

Ref document number: 6655895

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees