JP6958795B1 - Information processing methods, computer programs and information processing equipment - Google Patents
Information processing methods, computer programs and information processing equipment Download PDFInfo
- Publication number
- JP6958795B1 JP6958795B1 JP2021001571A JP2021001571A JP6958795B1 JP 6958795 B1 JP6958795 B1 JP 6958795B1 JP 2021001571 A JP2021001571 A JP 2021001571A JP 2021001571 A JP2021001571 A JP 2021001571A JP 6958795 B1 JP6958795 B1 JP 6958795B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- facility
- facial expression
- target
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 58
- 238000003672 processing method Methods 0.000 title claims abstract description 16
- 238000004590 computer program Methods 0.000 title claims abstract description 6
- 230000008921 facial expression Effects 0.000 claims abstract description 128
- 238000012545 processing Methods 0.000 claims description 149
- 238000003860 storage Methods 0.000 claims description 56
- 238000000034 method Methods 0.000 claims description 53
- 230000008569 process Effects 0.000 claims description 41
- 230000005540 biological transmission Effects 0.000 claims description 24
- 238000013507 mapping Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 abstract description 11
- 238000004891 communication Methods 0.000 description 17
- 230000002776 aggregation Effects 0.000 description 16
- 238000004220 aggregation Methods 0.000 description 16
- 230000009471 action Effects 0.000 description 13
- 230000006399 behavior Effects 0.000 description 13
- 230000004044 response Effects 0.000 description 13
- 239000000284 extract Substances 0.000 description 11
- 230000001815 facial effect Effects 0.000 description 11
- 240000000220 Panda oleosa Species 0.000 description 6
- 235000016496 Panda oleosa Nutrition 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 244000035744 Hura crepitans Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000000386 athletic effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】施設の利用者を撮影した画像を、画像以外の情報と共に提供する情報処理方法、コンピュータプログラム及び情報処理装置を提供する。【解決手段】本実施の形態に係る情報処理方法は、情報処理装置が、対象に関する表情の選択を受け付け、前記対象が利用する施設に設置されたカメラが撮影した画像から、選択された表情に応じて抽出された画像を表示し、前記施設で実施されたイベントと前記対象の表情との対応付けを表示する。また情報処理方法は、表情に対応付けられた文字又は画像を選択候補として複数表示し、前記選択候補に対する選択を受け付けて、前記対象に関する表情の選択を受け付けてもよい。【選択図】図6PROBLEM TO BE SOLVED: To provide an information processing method, a computer program and an information processing device for providing an image of a user of a facility together with information other than the image. In the information processing method according to the present embodiment, an information processing device accepts selection of a facial expression related to a target, and the selected facial expression is obtained from an image taken by a camera installed in a facility used by the target. The image extracted accordingly is displayed, and the correspondence between the event carried out at the facility and the facial expression of the target is displayed. Further, the information processing method may display a plurality of characters or images associated with facial expressions as selection candidates, accept selections for the selection candidates, and accept selections of facial expressions related to the target. [Selection diagram] Fig. 6
Description
本発明は、カメラが撮影した画像の表示に係る処理を行う情報処理方法、コンピュータプログラム及び情報処理装置に関する。 The present invention relates to an information processing method, a computer program, and an information processing device that perform processing related to display of an image captured by a camera.
保育園、幼稚園又は小学校等の施設に通う園児又は生徒等の保護者は、これらの施設において自身の子供がどのように過ごしているかを詳しく知りたいと考えている。例えば、これらの施設に従事する保育士又は先生等が園児又は生徒等の様子を撮影し、撮影した写真を施設の掲示板等に貼り出す又は写真を整理してアルバム等を作成して保護者に渡す等を行うことによって、保護者は施設内での子供の様子を知ることができるが、保育士又は先生等の負担が増す。 Parents of children or students attending facilities such as nursery schools, kindergartens or elementary schools want to know in detail how their children spend their time in these facilities. For example, nursery teachers or teachers engaged in these facilities take pictures of children or students, and post the pictures taken on the bulletin board of the facility or organize the pictures to create an album etc. for parents. Parents can know the state of the child in the facility by handing it over, but the burden on the nursery teacher or teacher will increase.
特許文献1においては、専門のカメラマンを幼稚園又は学校等に派遣して園児又は生徒等の写真を撮影し、ウエブサイトに写真を掲示して写真アルバムの申し込みをユーザから受け付け、ウエブサイトを介して写真アルバムを配信する写真アルバム作成システムが提案されている。
In
施設にて撮影される写真は、園児又は生徒等の日常生活の一瞬を切り取ったものであり、一日全体における子供の様子を知ることは難しい。特許文献1に記載の写真アルバム作成システムについても同様である。また特許文献1に記載の写真アルバム作成システムは、専門のカメラマンを施設へ派遣する必要があるため、頻繁に利用することは容易ではない。例えば入園式、入学式、運動会、卒園式又は卒業式等の特別なイベントについて専門のカメラマンに撮影を依頼することはできても、日常生活について専門のカメラマンに撮影を依頼することは難しい。
The pictures taken at the facility are taken from the moments of daily life of children or students, and it is difficult to know the state of the child throughout the day. The same applies to the photo album creation system described in
本発明は、斯かる事情に鑑みてなされたものであって、その目的とするところは、施設の利用者を日常的に撮影した画像を提供することが期待できる情報処理方法、コンピュータプログラム及び情報処理装置を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is an information processing method, a computer program, and information that can be expected to provide images taken on a daily basis to users of a facility. The purpose is to provide a processing device.
一実施形態に係る情報処理方法は、情報処理装置が、対象に関する表情の選択を受け付け、前記対象が利用する施設に設置されたカメラが撮影した画像から、選択された表情に応じて抽出された画像を表示し、前記施設で実施されたイベントと前記対象の表情との対応付けを表示する。 In the information processing method according to one embodiment, the information processing apparatus accepts the selection of facial expressions related to the target, and the images taken by the camera installed in the facility used by the target are extracted according to the selected facial expressions. An image is displayed, and the correspondence between the event carried out at the facility and the facial expression of the target is displayed.
一実施形態による場合は、施設の利用者を日常的に撮影した画像を提供することが期待できる。 In the case of one embodiment, it can be expected to provide images of facility users on a daily basis.
本発明の実施形態に係る情報処理システムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 A specific example of the information processing system according to the embodiment of the present invention will be described below with reference to the drawings. It should be noted that the present invention is not limited to these examples, and is indicated by the scope of claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.
<システム概要>
図1は、本実施の形態に係る情報処理システムの概要を説明するための模式図である。本実施の形態に係る情報処理システムは、施設100に設置された一又は複数のカメラ1が撮影した画像(静止画像又は動画像)をサーバ装置3へ送信し、カメラ1から受信した画像をサーバ装置3がユーザの端末装置5へ送信するシステムである。
<System overview>
FIG. 1 is a schematic diagram for explaining an outline of the information processing system according to the present embodiment. The information processing system according to the present embodiment transmits an image (still image or moving image) taken by one or a plurality of
なおカメラ1は、例えばカメラを有するスマートフォン又はタブレット型端末装置等の装置であってもよい。またカメラ1は、撮影方向又は画角等が可変の装置であってよく、例えば所定の被写体を自動追跡して撮影を行うカメラであってもよい。またカメラ1は、例えば360°の範囲を撮影可能なカメラであってもよい。またカメラ1は、例えばドローン等の移動体に搭載されるカメラであってよく、施設100に設定されたカメラ1には、このような移動体に搭載されたカメラにて施設100の内外の撮影を行う装置が含まれ得る。また施設100には、上記のような種々の構成のカメラ1が複数設置されてよい。
The
図示の例では、施設100として保育園又は幼稚園等が示されている。保育園又は幼稚園等の施設100に設置されたカメラ1は、例えば所定の周期で繰り返し自動的に施設100内の撮影、施設100を利用する利用者(本例では子供)の撮影を行っている。カメラ1は携帯電話通信網及びインターネット等のネットワークを介した通信を行う機能を備えており、カメラ1は撮影した画像をサーバ装置3へ送信する。
In the illustrated example, a nursery school, a kindergarten, or the like is shown as the
サーバ装置3は、ネットワークを介してカメラ1から画像を受信し、受信した画像を記憶装置に記憶して蓄積する。またサーバ装置3は、ユーザが使用するスマートフォン又はPC(パーソナルコンピュータ)等の端末装置5へ、蓄積した画像を送信する。なお本実施の形態において端末装置5には、施設を利用する子供の保護者等が使用する端末装置5と、施設に従事する保育士等の従業者が使用する端末装置5とが含まれ得る。これにより例えば保育園又は幼稚園等の施設100に子供を預けている保護者は、施設100で過ごす子供の様子をカメラ1にて撮影した画像を自身の端末装置5にて閲覧することができる。また例えば施設100の保育士等は、子供の写真を撮影するという業務を行うことなく、施設100で過ごす子供の様子をカメラ1にて撮影した画像を端末装置5にて取得することができ、例えばフォトアルバムの作成又は施設100内での写真の掲示等を行うことができる。
The
本実施の形態に係る情報処理システムでは、カメラ1が撮影した画像に対してサーバ装置3が例えば人を検出する処理、検出した人を識別する処理、並びに、識別した人の表情(感情)及び行動を識別する処理等を行う。サーバ装置3は、これらの処理結果を付随情報として画像に付して記憶する。なおサーバ装置3は、これらの処理結果に基づいて各画像の採点(スコアリング)を行い、スコアが閾値を超えた画像のみを記憶し、スコアが閾値を超えない画像を破棄してもよい。サーバ装置3は、端末装置5から画像の表示要求及び表示する画像の条件等を受け付け、記憶して蓄積した多数の画像の中から要求に応じた画像を抽出して端末装置5へ送信し、端末装置5に抽出した画像を表示させる。
In the information processing system according to the present embodiment, the
また本実施の形態に係る情報処理システムでは、施設にて行われるイベント(カリキュラム)についてのスケジュール情報を施設100の従業者が端末装置5にて作成し、このスケジュール情報をサーバ装置3が取得して記憶する。サーバ装置3は、上述の種々の処理の結果に基づいて、例えば施設100にて行われるイベント毎、且つ、施設100の利用者(子供)毎に、イベントにおける利用者の表情及び行動等を集計し、集計した情報をスケジュール情報と対応付けて記憶する。
Further, in the information processing system according to the present embodiment, the employee of the
また本実施の形態に係る情報処理システムでは、施設100の従業者等が、カメラ1の撮影場所又は設置場所等の情報を端末装置5にて予め作成して登録しておくことが可能であってもよい。例えば施設100が保育園又は幼稚園等である場合に、カメラ1の撮影場所として砂場、園庭、プール、遊具、さくら組の教室又はチューリップ組の教室等のような情報が従業者等により登録され得る。登録されたこれらの情報は例えばカメラ1が記憶し、カメラ1は撮影した画像に登録された情報を付してサーバ装置3へ送信する。又は、登録されたこれらの情報は例えばカメラ1のID等に対応付けてサーバ装置3が記憶し、カメラ1から取得した画像にこれらの情報を付してもよい。画像に付されたこれらの情報は、例えばサーバ装置3による画像のスコアリングに用いられてもよく、また例えば表示する画像の条件等としてユーザにより指定され、ユーザからの条件に応じてサーバ装置3が画像を抽出する際に用いられてもよい。
Further, in the information processing system according to the present embodiment, it is possible for an employee or the like of the
本実施の形態に係る情報処理システムでは、ユーザは自身の端末装置5を使用してサーバ装置3との通信を行い、サーバ装置3に記憶して蓄積された画像を取得して端末装置5に表示させることができる。このときに端末装置5は、サーバ装置3から取得して表示する画像の条件等をユーザから受け付け、条件を指定してサーバ装置3に画像の送信を要求する。サーバ装置3は、端末装置5からの要求において指定された条件を満たす画像を抽出し、要求元の端末装置5へ送信する。端末装置5は、サーバ装置3から送信された画像を受信して、表示部に表示する。本実施の形態においては、画像に写されている人(子供)の表情又は行動等をユーザが条件として指定することができ、サーバ装置3は画像に付随情報として付された表情又は行動等の識別結果に基づいて指定された条件の画像を抽出する。
In the information processing system according to the present embodiment, the user uses his / her
また本実施の形態に係る情報処理システムでは、施設にて行われるイベントのスケジュール情報とこれに対応付けられた表情及び行動等の集計情報とをサーバ装置3から端末装置5が取得し、取得したスケジュール情報及び集計情報を表示する。端末装置5は、例えば1日のイベントのスケジュールを一覧表示し、各イベントにおいて対象の利用者(子供)がどのような表情又は行動等をしていたかを文字又は画像等で表示する。
Further, in the information processing system according to the present embodiment, the
また本実施の形態に係る情報処理システムでは、端末装置5のユーザの種別(例えば保護者又は保育士等)に応じて、端末装置5に表示することが可能な画像及び情報等に差異を設けてある。即ち、施設の利用者(子供)又はその保護者等が使用する端末装置5は、この利用者が写された画像が表示され、この利用者の表情又は行動等の識別結果が表示されるが、他の利用者(のみ)が写された画像及び他の利用者の表情又は行動等の識別結果は表示されない。これに対して施設に従事する従業者が使用する端末装置5には、この施設を利用する全ての利用者(子供)の画像と表情又は行動等の識別結果とを表示することができる。
Further, in the information processing system according to the present embodiment, the images and information that can be displayed on the
また本実施の形態に係る情報処理システムでは、端末装置5に表示された画像(サーバ装置3が記憶している画像)に対してユーザがコメント等の情報を付すことができる。端末装置5はユーザからコメント等の入力を受け付けてサーバ装置3へ送信し、サーバ装置3はコメント等の情報を画像に対応付けて記憶する。この画像を端末装置5へ送信する際にサーバ装置3は、画像に対応付けられたコメント等の情報を付して画像を端末装置5へ送信する。端末装置5は、サーバ装置3から受信した画像にコメント等の情報が付されている場合、画像と共にコメント等の情報を表示する。これにより、例えば施設の利用者(子供)の保護者と施設の従事者との間でコメント等の情報交換を行うことができる。
Further, in the information processing system according to the present embodiment, the user can add information such as a comment to the image displayed on the terminal device 5 (the image stored in the server device 3). The
なお本例では保育園又は幼稚園等の施設100にて子供の撮影を行う場合について説明したが、本実施の形態に係る情報処理システムの適用は保育園又は幼稚園等の施設100に限られない。施設100は、例えば遊園地又はテーマパーク等の商業施設であってもよく、また例えばスポーツ又はイベント等が開催される会場等の施設であってもよく、また例えば利用者の自宅であってもよい。またカメラ1による撮影対象は、人でなくてもよく、例えば動物園の動物又は自宅のペット等であってもよい。
In this example, the case where the child is photographed at the
<装置構成>
図2は、本実施の形態に係るサーバ装置3の構成を示すブロック図である。本実施の形態に係るサーバ装置3は、処理部31、記憶部(ストレージ)32及び通信部(トランシーバ)33等を備えて構成されている。なお本実施の形態においては、1つのサーバ装置にて処理が行われるものとして説明を行うが、複数のサーバ装置が分散して処理を行ってもよい。
<Device configuration>
FIG. 2 is a block diagram showing a configuration of the
処理部31は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の演算処理装置、ROM(Read Only Memory)及びRAM(Random Access Memory)等を用いて構成されている。処理部31は、記憶部32に記憶されたサーバプログラム32aを読み出して実行することにより、カメラ1が撮影した画像を取得する処理、画像に写されている人、人の表情及び行動等を識別する処理、画像を選別して記憶する処理、施設100の従業者が作成したスケジュール情報を取得して記憶する処理、並びに、端末装置5からの要求に応じて画像を抽出して送信する処理等の種々の処理を行う。
The
記憶部32は、例えばハードディスク等の大容量の記憶装置を用いて構成されている。記憶部32は、処理部31が実行する各種のプログラム、及び、処理部31の処理に必要な各種のデータを記憶する。本実施の形態において記憶部32は、処理部31が実行するサーバプログラム32aを記憶すると共に、カメラ1から受信した画像を記憶して蓄積する画像記憶部32bと、ユーザに関する情報を記憶するユーザDB(データベース)32cとが設けられている。
The
本実施の形態においてサーバプログラム32aは、メモリカード又は光ディスク等の記録媒体99に記録された態様で提供され、サーバ装置3は記録媒体99からサーバプログラム32aを読み出して記憶部32に記憶する。ただし、サーバプログラム32aは、例えばサーバ装置3の製造段階において記憶部32に書き込まれてもよい。また例えばサーバプログラム32aは、遠隔の他のサーバ装置等が配信するものをサーバ装置3が通信にて取得してもよい。例えばサーバプログラム32aは、記録媒体99に記録されたものを書込装置が読み出してサーバ装置3の記憶部32に書き込んでもよい。サーバプログラム32aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体99に記録された態様で提供されてもよい。
In the present embodiment, the
画像記憶部32bは、カメラ1から受信し、サーバ装置3にて選別された画像を記憶する。画像記憶部32bは、例えばカメラ1が設置された施設100のID、カメラ1が複数設置される場合には各カメラ1のID、及び、画像が撮影された日時等により複数の画像を分類して記憶する。また本実施の形態において画像記憶部32bは、画像に写された人の識別結果、並びに、この人の表情又は行動等の識別結果等の情報を付随情報として画像に付して記憶する。
The image storage unit 32b stores an image received from the
また本実施の形態において画像記憶部32bは、施設の従事者等が端末装置5にて作成してサーバ装置3が取得したスケジュール情報を記憶する。スケジュール情報は、例えば日付の情報、その日に行われるイベントの名称等の情報、並びに、各イベントの時間帯(開始時刻及び終了時刻)の情報等の情報を含む。スケジュール情報は、例えば2020年11月25日の9時から10時まで自由遊び、10時から12時までクラスタイム、12時から13時までおひるごはん、…というような情報である。更に本実施の形態において画像記憶部32bは、各イベントにおける利用者(子供)の表情及び行動等の認識結果に関する情報を、スケジュール情報の各イベントに対応付けて記憶する。例えば10:00から11:00までの1時間のイベントにおいて、利用者Aは最も笑顔が多く、利用者Bは最も怒りの表情が多く、利用者Cは最も悲しみの表情が多い等のような情報が、スケジュール情報の各イベントに対応付けて記憶される。
Further, in the present embodiment, the image storage unit 32b stores the schedule information created by the facility worker or the like in the
ユーザDB32cは、本実施の形態に係る情報処理システムが提供するサービスについて利用登録を行ったユーザに関する情報を記憶するデータベースである。図3は、ユーザDB32cの一構成例を示す模式図である。本実施の形態に係るサーバ装置3が有するユーザDB32cは、例えば「ユーザID」、「施設ID」及び「対象者」の情報を対応付けて記憶する。「ユーザID」は、本実施の形態に係る情報処理システムが提供するサービスを利用するユーザに対して一意に付された識別情報である。ユーザは、例えば保育園を利用する子供の保護者又は保育士等であり、本例ではユーザIDとして保護者A、保護者B、保育士X、保育士Y等のIDが付されている。「施設ID」は、施設100に対して一意に付された識別情報である。本例では施設IDとして保育園a等のIDが付されている。
The
「対象者」は、施設100に設置されたカメラ1による撮影の対象となる利用者(子供)に関する情報であり、ユーザが画像を閲覧等することが可能な対象者に関する情報である。「対象者」の情報には、例えば「名前」及び「特徴量」等の情報が含まれ得る。「名前」は、対象者の本名又は愛称等であり、本例では「あおいちゃん」、「たくやくん」等の愛称が設定されている。「特徴量」は、例えば対象者の顔写真等から抽出された、対象者の顔の特徴を示すベクトル情報等である。この特徴量は、例えば画像に写された人が誰であるかを識別する処理に用いられる。なお本例では、施設100の従業者である保育士X及び保育士Yについては、この施設100の利用者の全員について画像の閲覧が可能であり、「対象者」として「全員」が設定されている。
The "target person" is information about a user (child) to be photographed by the
なおサーバ装置3が有するユーザDB32cの構成は、図示のものに限らない。ユーザDB32cには、上記の情報以外にも、例えばユーザの名前、施設100の名前、ユーザが使用する端末装置5に付された端末ID、ユーザの住所、電話番号もしくはメールアドレス等の連絡先、又は、サービスに対するログイン用のパスワード等の種々の情報が記憶され得る。
The configuration of the
サーバ装置3の通信部33は、携帯電話通信網、無線LAN(Local Area Network)及びインターネット等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施の形態において通信部33は、ネットワークNを介して、カメラ1及び端末装置5との間で通信を行う。通信部33は、処理部31から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部31へ与える。
The
なお記憶部32は、サーバ装置3に接続された外部記憶装置であってよい。またサーバ装置3は、複数のコンピュータを含んで構成されるマルチコンピュータであってよく、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。またサーバ装置3は、上記の構成に限定されず、例えば可搬型の記憶媒体に記憶された情報を読み取る読取部、操作入力を受け付ける入力部、又は、画像を表示する表示部等を含んでもよい。
The
また本実施の形態に係るサーバ装置3には、記憶部32に記憶されたサーバプログラム32aを処理部31が読み出して実行することにより、画像受信処理部31a、画像識別処理部31b、情報集計処理部31c、画像選別部31d及び画像送信処理部31e等が、ソフトウェア的な機能部として処理部31に実現される。なお本図においては、処理部31の機能部として、カメラ1が撮影した画像に対する処理を行う機能部を図示し、これ以外の処理に関する機能部は図示を省略している。
Further, in the
画像受信処理部31aは、カメラ1が送信する画像を通信部33にて受信する処理を行う。例えば画像受信処理部31aは、受信した画像に付されたデータに基づいて、画像の撮影日時、撮影したカメラ1のID及びカメラ1が設置された施設100のID等に対応付けて、画像を分類して記憶部32に一時的に記憶する。なお画像受信処理部31aによって記憶部32に一時的に記憶された画像は、画像選別処理により選別がなされ、記憶部32の画像記憶部32bに記憶して蓄積されるか、又は、記憶部32から消去される。
The image
画像識別処理部31bは、カメラ1から取得した画像に対して、画像に写された人を検出する処理、画像に写された人が誰であるかを識別する処理、画像に写された人の表情を識別する処理、及び、画像に写された人の行動を識別する処理等を行う。画像識別処理部31bは、これらの処理結果に関する情報を画像にメタデータとして付す。なお本実施の形態においては、これらの処理をサーバ装置3が行うものとするが、これに限るものではなく、これらの処理の一部又は全部を予めカメラ1が行ってもよい。
The image
画像識別処理部31bは、例えば予め機械学習がなされた学習モデルを用いて、画像から人を検出する。学習モデルは、例えば画像のデータを入力として受け付けて、この画像に含まれる人が写された画像領域(を示す座標等のデータ)を出力するように予め機械学習がなされる。学習モデルは、例えば画像のデータと、この画像に含まれる人が写された画像領域を示すデータとが対応付けられた教師データを用いて機械学習がなされる。また保育園又は幼稚園等の施設100にて撮影された画像を基に検出する対象の人を子供とする場合、子供が写された画像データを用いて教師データを作成することにより、子供の検出精度を高めることが期待できる。画像識別処理部31bは、カメラ1から取得した画像を学習モデルへ入力し、学習モデルが出力する人の検出結果を取得することで、画像に写された人を検出する処理を行う。なお画像識別処理部31bは、画像から人が検出されなかった場合、即ち画像に人が写されていない場合、この画像を除去して後続の処理の対象から外す。
The image
画像識別処理部31bは、例えば画像に写された人の顔の特徴量に基づいて、画像に写された人が誰であるかを識別する処理を行う。画像識別処理部31bは、例えば画像に写された人の顔の特徴量を抽出し、ユーザDB32cに登録された対象者の特徴量との比較を行う。画像識別処理部31bは、カメラ1の画像に写された人の顔の特徴量と一致する又は類似する特徴量がユーザDB32cに登録されている対象者(子供)を検索し、該当する対象者をこの画像に写された人と判断する。画像識別処理部31bは、例えば画像を入力として受け付けて、この画像に写された人の顔の特徴量として多次元のベクトル情報を出力する学習モデルを用いて、カメラ1が撮影した画像に写された人の顔の特徴量の抽出を行う。ユーザDB32cに顔の特徴量を登録する際にも、同じ学習モデルを用いることができる。画像識別処理部31bは、例えば2つの特徴量に対応する2つのベクトルの距離等を算出し、この距離が閾値以下であり、且つ、距離が最も小さいものを、顔の特徴が一致する又は類似すると判断することができる。
The image
画像識別処理部31bは、例えば予め機械学習がなされた学習モデルを用いて、画像に写された人の表情を識別する処理を行う。例えば学習モデルは、人が写された画像を入力として受け付けて、この画像に写された人の表情が所定の表情である確信度を出力するように予め機械学習がなされる。所定の表情は例えば笑顔、怒り又は悲しみ等である。画像識別処理部31bは、例えば1種類の表情について確信度を出力する学習モデルを複数用意して複数種類の表情の識別を行ってもよく、また例えば複数種類の表情について確信度をそれぞれ出力する1つの学習モデルを用意して識別を行ってもよい。学習モデルは、例えば画像のデータと、この画像に写された人の顔の表情が所定の表情であるか否かを示すラベル(所定の表情であればラベル1、所定の表情以外であればラベル0など)とを対応付けた教師データを用いて機械学習がなされる。本実施の形態において画像識別処理部31bは、カメラ1が撮影した画像を学習モデルへ入力し、学習モデルが出力する各表情の確信度を取得し、確信度が最も高い表情を画像に写された人の表情と判断する。なお最も高い確信度が閾値を超えない場合には、画像識別処理部31bは、画像に写された人の表情が、学習モデルにて識別できるいずれの表情でもないと判断してよい。
The image
画像識別処理部31bは、例えば予め機械学習がなされた学習モデルを用いて、画像に写された人が行っている行動を識別する処理を行う。学習モデルは、例えば画像のデータを入力として受け付け、この画像に写された人の行動が所定の行動である確信度を出力するように予め機械学習がなされる。本実施の形態においては、所定の行動として例えば走っている確信度を出力する学習モデル、及び、食事をしている確信度を出力する学習モデル等のように、行動毎に学習モデルが予め作成される。学習モデルは、例えば画像のデータと、この画像に写された人が所定の行動を行っているか否かを示すラベルとを対応付けた教師データを用いて機械学習がなされる。本実施の形態において画像識別処理部31bは、カメラ1が撮影した画像を各学習モデルへ入力し、学習モデルが出力する各行動の確信度を取得する。画像識別処理部31bは、複数の行動に関する確信度を比較し、最も確信度が高い行動を、画像に写された人が行っている行動と判定する。なお最も高い確信度が閾値を超えない場合には、画像識別処理部31bは、画像に写された人の行動が、学習モデルにて識別できるいずれの行動でもないと判断してよい。
The image
情報集計処理部31cは、画像識別処理部31bによる識別結果の情報を集計する処理を行う。情報集計処理部31cは、施設100の従業者が予め作成したスケジュール情報を記憶部32から読み出し、スケジュール情報に含まれるイベント毎に、施設100の各利用者(子供)について、例えばいずれの表情をしている時間が最も長かったか、いずれの行動をしている時間が最も長かったか等を集計する。情報集計処理部31cは、これらの集計結果を集計情報としてスケジュール情報の各イベントに対応付けて記憶部32に記憶する。
The information
図4は、情報集計処理部が生成する集計情報の一例を示す模式図である。本図には利用者の表情について画像から認識された回数の集計結果が示されているが、これに限るものではなく、例えば利用者の行動について集計が行われてもよく、また例えば表情の回数ではなく時間について集計が行われてもよい。情報集計処理部31cが生成する集計情報は、例えば「年月日」、「イベント」、「対象者」及び「表情の回数」等の情報が対応付けて記憶された情報である。
FIG. 4 is a schematic diagram showing an example of aggregated information generated by the information aggregation processing unit. This figure shows the aggregated result of the number of times the user's facial expression is recognized from the image, but it is not limited to this, and for example, the user's behavior may be aggregated, and for example, the facial expression. Aggregation may be done for time rather than number of times. The aggregated information generated by the information
「年月日」は、カメラ1により画像が撮影された年月日である。「イベント」は、「年月日」に対して設定されたイベントの情報をスケジュール情報から抽出したものであり、例えば保育園又は幼稚園等の施設100であれば「登園」及び「自由あそび」等のイベントが設定され得る。「対象者」は、カメラ1により撮影された画像に写された人として識別された人であり、ユーザDB32cに記憶された「対象者」の「名前」が設定され得る。本例では、「あおいちゃん」及び「たくやくん」の名前が「対象者」として設定されている。「表情の回数」は、カメラ1が撮影した画像から識別された各利用者の表情の回数であり、本例では「えがお」、「かなしい」及び「おこる」の3種類について表情の識別が行われるものとしている。
The "date" is the date when the image was taken by the
本例の集計情報によれば、「2020年11月25日」の「登園」のイベントにおいて、「あおいちゃん」は「えがお」が8回且つ「かなしい」が1回であり、「たくやくん」は「えがお」が2回且つ「おこる」が4回であることが集計されている。また同日の「自由あそび」のイベントにおいて、「あおいちゃん」は「えがお」が7回且つ「おこる」が1回であり、「たくやくん」は「えがお」が6回且つ「かなしい」が2回であることが集計されている。 According to the aggregated information of this example, in the event of "going to the park" on "November 25, 2020", "Aoi-chan" had "Egao" eight times and "Kanai" once, and "Takuya-kun". "" Is counted as "Egao" twice and "Occurrence" four times. Also, at the "Free Play" event on the same day, "Aoi-chan" had "Egao" 7 times and "Okake" once, and "Takuya-kun" had "Egao" 6 times and "Kanai" 2 times. Is aggregated.
画像選別部31dは、画像識別処理部31bによる識別結果に基づいて、カメラ1から取得した画像の中から、画像記憶部32bに記憶して蓄積する画像を選別する処理を行う。画像選別部31dは、例えばスケジュールの各イベントについて、1人の利用者について所定数の画像を選別する。このときに画像選別部31dは、例えば表情を識別する際に学習モデルが出力した確信度が高い画像を上位から所定数だけ選別することができる。また例えば画像選別部31dは、5分又は10分等の間隔で確信度が最も高い画像を選別してもよい。画像選別部31dによる画像選別の方法は、上記の方法に限らず、どのような方法が採用されてもよい。
The image selection unit 31d performs a process of selecting an image stored and accumulated in the image storage unit 32b from the images acquired from the
画像送信処理部31eは、画像記憶部32bに記憶した画像をユーザの端末装置5へ送信する処理を行う。画像送信処理部31eは、端末装置5から画像の送信要求と共に与えられる条件を取得し、取得した条件を満たす画像を画像記憶部32bに記憶された複数の画像の中から抽出して、要求元の端末装置5へ送信する。端末装置5から与えられる条件は、例えば「2020年11月25日のあおいちゃんの笑顔の画像」等である。画像送信処理部31eは、画像識別処理部31bが各画像に付したメタデータに基づいて、端末装置5からの条件を満たす画像を抽出する。
The image
図5は、本実施の形態に係る端末装置5の構成を示すブロック図である。本実施の形態に係る端末装置5は、処理部51、記憶部(ストレージ)52、通信部(トランシーバ)53、表示部(ディスプレイ)54及び操作部55等を備えて構成されている。端末装置5は、施設100の利用者、利用者を見守る保護者、又は、施設100の従事者等のユーザが使用する装置であり、例えばスマートフォン、タブレット型端末装置又はパーソナルコンピュータ等の情報処理装置を用いて構成され得る。
FIG. 5 is a block diagram showing the configuration of the
処理部51は、CPU又はMPU等の演算処理装置、ROM及び等を用いて構成されている。処理部51は、記憶部52に記憶されたプログラム52aを読み出して実行することにより、表示する画像の条件の入力を受け付ける処理、及び、サーバ装置3から取得した画像を表示する処理等の種々の処理を行う。
The
記憶部52は、例えばフラッシュメモリ等の不揮発性のメモリ素子を用いて構成されている。記憶部52は、処理部51が実行する各種のプログラム、及び、処理部51の処理に必要な各種のデータを記憶する。本実施の形態において記憶部52は、処理部51が実行するプログラム52aを記憶している。本実施の形態においてプログラム52aは遠隔のサーバ装置等により配信され、これを端末装置5が通信にて取得し、記憶部52に記憶する。ただしプログラム52aは、例えば端末装置5の製造段階において記憶部52に書き込まれてもよい。例えばプログラム52aは、メモリカード又は光ディスク等の記録媒体98に記録されたプログラム52aを端末装置5が読み出して記憶部52に記憶してもよい。例えばプログラム52aは、記録媒体98に記録されたものを書込装置が読み出して端末装置5の記憶部52に書き込んでもよい。プログラム52aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体98に記録された態様で提供されてもよい。
The
通信部53は、携帯電話通信網、無線LAN及びインターネット等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施の形態において通信部53は、ネットワークNを介して、サーバ装置3との間で通信を行う。通信部53は、処理部51から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部51へ与える。
The
表示部54は、液晶ディスプレイ等を用いて構成されており、処理部51の処理に基づいて種々の画像及び文字等を表示する。操作部55は、ユーザの操作を受け付け、受け付けた操作を処理部51へ通知する。例えば操作部55は、機械式のボタン又は表示部54の表面に設けられたタッチパネル等の入力デバイスによりユーザの操作を受け付ける。また例えば操作部55は、マウス及びキーボード等の入力デバイスであってよく、これらの入力デバイスは端末装置5に対して取り外すことが可能な構成であってもよい。
The
また本実施の形態に係る端末装置5は、記憶部52に記憶されたプログラム52aを処理部51が読み出して実行することにより、表示処理部51a及び条件取得部51b等がソフトウェア的な機能部として処理部51に実現される。なおプログラム52aは、本実施の形態に係る情報処理システムに専用のプログラムであってもよく、インターネットブラウザ又はウェブブラウザ等の汎用のプログラムであってもよい。
Further, in the
表示処理部51aは、表示部54に対して種々の文字又は画像等を表示する処理を行う。本実施の形態において表示処理部51aは、後述のUI(User Interface)画面を表示部54に表示すると共に、このUI画面の所定領域にサーバ装置3から取得した画像を表示する。また本実施の形態に係る情報処理システムでは、施設100の利用者又はその保護者が使用する端末装置5に表示するUI画面と、施設100の従業者が使用する端末装置5に表示するUI画面とには差異が設けられており、表示処理部51aは端末装置5を使用しているユーザに応じたUI画面の表示を行う。
The
条件取得部51bは、表示処理部51aがUI画面を表示部54に表示している際に、操作部55に対するユーザの操作に基づいて、UI画面に表示する一又は複数の画像に関する条件を取得する処理を行う。本実施の形態に係る情報処理システムでは、表示する画像に関する条件として、画像が撮影された日付、画像に写されている人の表情(笑顔、怒り及び悲しみ等)、画像に写されている利用者(子供)、並びに、スケジュールのイベント等を受け付ける。条件取得部51bは、取得した条件を付した画像の送信要求をサーバ装置3へ与える。この要求に応じてサーバ装置3は条件に適合する画像を端末装置5へ送信し、この画像を受信した端末装置5の表示処理部51aが画像を表示する。
The
<画像表示処理>
図6は、本実施の形態に係る端末装置5が表示するUI画面の一例を示す模式図である。なお図6に示すUI画面は、施設100の従業者が使用する端末装置5が表示するUI画面である。本実施の形態に係る端末装置5が表示するUI画面は、日付表示領域101、表情選択領域(第1の領域)102、対象者選択領域103、主画像表示領域(第3の領域)104、従画像表示領域(第2の領域)105及びスケジュール表示領域(第4の領域)106等を含んで構成されている。
<Image display processing>
FIG. 6 is a schematic view showing an example of a UI screen displayed by the
日付表示領域101は、UI画面の上部に設けられており、本例では「2020年11月25日 wed.」のように年月日及び曜日が表示されている。本実施の形態に係る情報処理システムでは、本サービスを利用するためにユーザが端末装置5にてプログラム52aを起動した後、図示のUI画面が表示される。このときにUI画面の日付表示領域101には昨日の日付が表示され、ユーザは施設100のカメラ1が昨日に撮影した画像を閲覧することができる。ユーザは、日付表示領域101に対するタッチ操作又はクリック操作等を行うことによって、日付を変更することができる。端末装置5は、日付表示領域101に対する操作を受け付けた場合に、例えばカレンダー等を表示して日付の選択を受け付ける。日付の選択を受け付けた端末装置5は、この日付の画像を送信する要求をサーバ装置3へ与え、要求に応じてサーバ装置3から送信される画像を受信して表示する。
The
表情選択領域102は、UI画面の左端に設けられており、例えば「かなしい」、「えがお」及び「おこる」等の表情を示す文字列が選択肢として上下に並べて表示されている。また端末装置5は、各選択肢について表情を示す文字列と共に、表情を示すアイコン(画像、図形、記号等)と、表情に対応する画像の数とを表示する。図示の例では、「かなしい」の画像が1つ、「えがお」の画像が8つ、「おこる」の画像が2つであることが示されており、「えがお」が選択されている。端末装置5は、表情選択領域102に表示されたいずれかの選択肢に対するタッチ操作又はクリック操作等を受け付けることにより、表情の選択を受け付ける。表情の選択を受け付けた端末装置5は、この表情の画像を送信する要求をサーバ装置3へ与え、要求に応じてサーバ装置3から送信される画像を受信して表示する。
The facial
対象者選択領域103は、UI画面の中央に設けられる後述の主画像表示領域104の上部に設けられ、いわゆるタブの態様で対象者の選択(切替)操作を受け付けるための領域である。図示の例では、「あおいちゃん」、「たくやくん」、「はなちゃん」及び「れんくん」等の選択可能な4人の対象者の名前が各タブに表示され、これらの中で「あおいちゃん」が選択されている。また端末装置5は、各タブについて対象者の名前を文字列として表示すると共に、この対象者に対応する画像の数を表示する。図示の例では、「あおいちゃん」の画像が4つ、「たくやくん」の画像が2つ、「はなちゃん」の画像が1つ、「れんくん」の画像が1つであることが示されている。端末装置5は、対象者選択領域103に設けられたいずれかのタブに対するタッチ操作又はクリック操作等を受け付けることにより、画像を表示する対象者の選択を受け付ける。対象者の選択を受け付けた端末装置5は、この対象者の画像を送信する要求をサーバ装置3へ与え、要求に応じてサーバ装置3から送信される画像を受信して表示する。
The target
なお図示の例は、施設100の従業者が使用する端末装置5が表示するUI画面であるため、対象者選択領域103では施設100を利用する全ての利用者(子供)を選択することができる。ただし、例えば施設100が保育園等であり利用者のクラス分け等がなされている場合には、従業者は担当するクラスの利用者の全てについて選択することが可能であり、他のクラスの利用者については選択できなくてもよい。
Since the illustrated example is a UI screen displayed by the
また図示は省略するが、利用者(子供)の保護者等が使用する端末装置5が表示するUI画面の対象者選択領域103には、保護者の子供のみが選択可能なタブとして設けられ、他の子供を選択することはできない。例えば施設100利用する子供が1人であれば、対象者選択領域103に設けられるタブは1つであり、対象者を切り替えることができなくてよい。また例えば、兄弟姉妹等の複数の子供が施設100を利用している場合、この子供達の保護者が使用する端末装置5が表示するUI画面には、保護者の複数人の子供についてのタブが設けられ、対象者の切り替えが行われる。サーバ装置3又は端末装置5は、UI画面の対象者選択領域103にて選択可能な対象者が誰であるかを、ユーザDB32cの「対象者」の情報に基づいて判断することができる。
Although not shown, the target
主画像表示領域104は、UI画面の中央に設けられており、後述の従画像表示領域105にて選択された1つの画像を表示する。また本実施の形態に係る情報処理システムが記憶及び表示する画像は、静止画像又は動画像のいずれであってもよく、静止画及び動画像が混在していてもよい。端末装置5は、主画像表示領域104に動画像を表示する場合、主画像表示領域104の下部に再生及び停止等の操作を受け付けるボタン、及び、再生時間を示すスライドバー等を表示する。図示の例は、主画像表示領域104に動画像を表示した状態である。静止画を主画像表示領域104に表示する場合には、これらのボタン及びスライドバー等は表示されなくてよい。
The main
従画像表示領域105は、主画像表示領域104の右側に設けられており、ユーザにより選択された条件に合致する一又は複数の画像を上下方向に並べて一覧表示する領域である。一覧表示される各画像は、元の画像を縮小したもの、いわゆるサムネイルであってよく、サムネイル画像の作成はサーバ装置3又は端末装置5のいずれにより行われてもよい。図示の例では、従画像表示領域105に3つの画像が上下方向に並べて一覧表示されている。なおこれ以上の数の画像を従画像表示領域105に一覧表示する場合に端末装置5は、例えば従画像表示領域105の側部にスクロールバー等を表示し、従画像表示領域105に対するスクロール操作を受け付けて、従画像表示領域105に表示する画像をスクロールさせて切り替えてもよい。また従画像表示領域105に一覧表示される複数の画像の表示順は、例えば撮影時刻に応じて決定してもよく、また例えば表情の条件としてえがおが選択されている場合に笑顔の確信度に応じて決定されてもよく、これら以外の方法で決定されてもよい。端末装置5は、従画像表示領域105に一覧表示された一又は複数の画像に対するタッチ操作又はクリック操作等を受け付けることにより、ユーザによる画像の選択を受け付ける。端末装置5は、従画像表示領域105にて選択された画像を、主画像表示領域104に表示する。
The
スケジュール表示領域106は、UI画面の下部に設けられており、日付表示領域101に表示された日付において施設100にて実施された(実施する予定だった)イベント(カリキュラム)のスケジュールを表示する。図示の例では、横軸を時間として帯グラフ状に複数のイベントを横方向に並べてスケジュールを示している。本例のスケジュールに示されているイベントは、8:00〜9:00が「登園」であり、9:00〜10:00が「自由あそび」であり、10:00〜12:00がクラスタイムであり、12:00〜13:00が「お昼ごはん」であり、13:00〜14:00が「自由あそび」である。
The
また端末装置5は、スケジュール表示領域106の各イベントに対応付けて、「えがお」、「かなしい」及び「おこる」等の表情に対応するアイコンを表示する。この表情のアイコン表示は、対象者選択領域103にて選択された対象者についてサーバ装置3が集計した表情の情報に基づいて端末装置5が行うことができる。図示の例では、8:00〜9:00の「登園」について「かなしい」の表情のアイコンが表示され、9:00〜10:00が「自由あそび」、12:00〜13:00が「お昼ごはん」、及び、13:00〜14:00が「自由あそび」について「えがお」の表情のアイコンが表示されている。なお13:00〜14:00が「自由あそび」については「えがお」の表情のアイコンが2つ表示されているが、これは例えば、このイベント時に撮影された画像から識別した笑顔の確信度が所定の閾値を超えて高い場合、又は、このイベントの時間中に笑顔でいた時間が所定の閾値を超えて長い場合等に、表示するアイコンの数を増すことで強調表示したものである。
Further, the
またスケジュール表示領域106の左側部分には、「えがお」、「かなしい」及び「おこる」等の表情について画像の数が示されている。図示の例では、「えがお」の画像が4つ、「かなしい」の画像が1つ、「おこる」の画像が0であることが示されている。
Further, in the left side portion of the
また端末装置5は、スケジュール表示領域106に表示したスケジュールのイベントに対するタッチ操作又はクリック操作等を受け付けることにより、イベントの選択を受け付ける。イベントの選択を受け付けた端末装置5は、このイベントの画像を送信する要求をサーバ装置3へ与え、要求に応じてサーバ装置3から送信される画像を受信して表示する。
Further, the
本実施の形態に係る情報処理システムでは、端末装置5が表示するUI画面を利用してユーザが操作を行うことで、表示する画像の条件を設定することができる。例えばユーザは、日付表示領域101にて日付の条件を設定することができ、表情選択領域102にて表情の条件を設定することができ、対象者選択領域103にて対象者の条件を設定することができ、スケジュール表示領域106にてイベントの条件を設定することができる。ユーザはこれら複数の条件を全て設定する必要はなく、適宜に一又は複数の条件を設定すればよい。端末装置5は、これらの領域にて設定された条件を満たす画像の送信をサーバ装置3へ送信する。サーバ装置3は、端末装置5からの要求に応じて条件を満たす画像を画像記憶部32bに記憶された画像の中から抽出し、抽出した画像を要求元の端末装置5へ送信する。端末装置5は、サーバ装置3から送信された画像を受信し、受信した一又は複数の画像をUI画面の従画像表示領域105に一覧表示する。ユーザは従画像表示領域105に一覧表示された画像の中から1つの画像をタッチ操作又はクリック操作等により選択し、この選択に応じて端末装置5は、選択された画像を主画像表示領域104に表示する。
In the information processing system according to the present embodiment, the conditions of the image to be displayed can be set by the user performing an operation using the UI screen displayed by the
また図示は省略するが、本実施の形態に係る情報処理システムでは、主画像表示領域104又は従画像表示領域105に表示された画像に対してコメント等の情報を付すことができる。例えば主画像表示領域104に表示された画像に対して所定の操作(例えばダブルクリック等)がなされた場合、端末装置5は、コメント等の情報を入力する画面を表示して、文字又は画像等の入力を受け付ける。端末装置5は入力を受け付けたコメント等の情報をサーバ装置3へ送信し、サーバ装置3はこの情報を画像に対応付けて画像記憶部32bに記憶する。
Although not shown, in the information processing system according to the present embodiment, information such as a comment can be added to the image displayed in the main
またサーバ装置3は、端末装置5からの要求に応じて画像を送信する際に、この画像に対応付けられたコメント等の情報が記憶されている場合、この情報を画像に付して端末装置5へ送信する。端末装置5は、コメント等の情報が付された画像を受信した場合、例えばこの画像を主画像表示領域104に表示する際に、コメント等の情報を画像に重畳して表示する、主画像表示領域104の上下左右等の所定の箇所にコメント等の情報を表示する、又は、コメント等の情報が付されている旨を示すアイコン等を画像に重畳して表示し、このアイコンに対するタッチ操作又はクリック操作等に応じてコメント等の情報を表示する等の種々の方法で、コメント等の情報を表示することができる。
Further, when the
図7は、本実施の形態に係るサーバ装置3が行う画像記憶処理の手順を示すフローチャートである。本実施の形態に係るサーバ装置3の処理部31の画像受信処理部31aは、施設100に設置されたカメラ1が送信する画像を受信したか否かを判定する(ステップS1)。画像を受信していない場合(S1:NO)、画像受信処理部31aは、カメラ1から画像を受信するまで待機する。
FIG. 7 is a flowchart showing a procedure of image storage processing performed by the
カメラ1から画像を受信した場合(S1:YES)、処理部31の画像識別処理部31bは、カメラ1が撮影した画像に写された人を検出する処理を行う(ステップS2)。この処理の結果に基づいて画像識別処理部31bは、画像に人が写されているか否かを判定する(ステップS3)。画像に人が写されていない場合(S3:NO)、画像識別処理部31bは、この画像を破棄して(ステップS11)、ステップS1へ処理を戻す。
When an image is received from the camera 1 (S1: YES), the image
画像に人が写されている場合(S3:YES)、画像識別処理部31bは、画像に写された人の特徴量を取得し、ユーザDB32cに記憶された特徴量に基づいて、画像に写された人が誰であるかを識別する処理を行う(ステップS4)。画像識別処理部31bは、画像に写された人の表情を識別する処理を行う(ステップS5)。また画像識別処理部31bは、画像に写された人の行動を識別する処理を行う(ステップS6)。次いで処理部31の情報集計処理部31cは、ステップS4にて識別した人について、画像が撮影された日のスケジュール情報の各イベントに対応付けて、ステップS5にて識別した表情及びステップS6にて識別した行動等の情報を集計する処理を行う(ステップS7)。情報集計処理部31cは、ステップS7の集計処理の結果に基づき、スケジュール情報の各イベントに対応付けて、画像に写された人の表情及び行動等の集計結果を集計情報として記憶部32に記憶する(ステップS8)。
When a person is captured in the image (S3: YES), the image
処理部31の画像選別部31dは、例えばステップS5にて識別した表情及びステップS6にて識別した行動等の情報に基づいて画像のスコアリングを行い、スコアが閾値を超えるか否かを判定することによって、この画像を記憶するか否かを判定する(ステップS9)。画像を記憶すると判定した場合(S9:YES)、画像選別部31dは、この画像を画像記憶部32bに記憶して(ステップS10)、ステップS1へ処理を戻す。画像を記憶しないと判定した場合(S9:NO)、画像選別部31dは、この画像を破棄して(ステップS11)、ステップS1へ処理を戻す。
The image selection unit 31d of the
なお本実施の形態においては、カメラ1が撮影した画像から人を検出する処理、画像に写された人が誰であるかを識別する処理、画像に写された人の表情を識別する処理、及び、画像に写された人に行動を識別する処理等をサーバ装置3が行うものとするが、これに限るものではない。これら複数の処理の一部又は全部はカメラ1にて行われてもよい。例えばカメラ1は、自身が撮影した画像から人を検出する処理を行い、人が写されていない画像をサーバ装置3へ送信せずに破棄してもよい。また例えばカメラ1は画像に写された人の表情の識別等の処理を行い、処理結果を画像に付してサーバ装置3へ送信してもよい。
In the present embodiment, a process of detecting a person from an image captured by the
図8は、本実施の形態に係る端末装置5が行う画像表示処理の手順を示すフローチャートである。本実施の形態に係る端末装置5は、本サービスを利用するためのアプリケーションプログラム等のプログラム52aが起動された場合、処理部51の表示処理部51aが図6に示したUI画面を表示する(ステップS21)。なお起動直後のUI画面は、例えば主画像表示領域104及び従画像表示領域105に画像が表示されていない状態であってよく、また例えば表情及び対象者等の条件について定められたデフォルトの条件に基づいて抽出された画像が表示されてもよい。デフォルトの条件に基づいて画像を表示する場合、端末装置5は、UI画像の表示に先立って、デフォルトの条件での画像送信をサーバ装置3に要求し、この要求に応じてサーバ装置3が送信する画像を取得して主画像表示領域104及び従画像表示領域105に表示する。
FIG. 8 is a flowchart showing a procedure of image display processing performed by the
UI画面を表示した状態において、処理部51の条件取得部51bは、UI画面の対象者選択領域103にて画像表示の対象者の選択がなされたか否かを判定する(ステップS22)。対象者の選択がなされていない場合(S22:NO)、条件取得部51bは、UI画面の表情選択領域102にて表情の選択がなされたか否かを判定する(ステップS23)。表情の選択がなされていない場合(S23:NO)、条件取得部51bは、スケジュール表示領域106にてイベントの選択がなされたか否かを判定する(ステップS24)。イベントの選択がなされていない場合(S24:NO)、条件取得部51bは、ステップS28へ処理を進める。
In the state where the UI screen is displayed, the
UI画面において対象者の選択がなされた場合(S22:YES)、表情の選択がなされた場合(S23:YES)、又は、イベントの選択がなされた場合(S24:YES)、条件取得部51bは選択された条件を取得して、この条件に合致する画像の送信をサーバ装置3に要求する(S25)。条件取得部51bは、この要求に応じてサーバ装置3が送信する画像を受信する(ステップS26)。表示処理部51aは、ステップS26にて受信した一又は複数の画像を従画像表示領域105に一覧表示する(S27)。
When the target person is selected on the UI screen (S22: YES), the facial expression is selected (S23: YES), or the event is selected (S24: YES), the
次いで条件取得部51bは、従画像表示領域105に一覧表示された画像の中から、一の画像の選択がなされたか否かを判定する(ステップS28)。画像の選択がなされていない場合(S28:NO)、条件取得部51bは、ステップS21へ処理を戻し、UI画像の表示を継続する。画像の選択がなされた場合(S28:YES)、表示処理部51aは、選択された一の画像を主画像表示領域104に表示して(ステップS29)、ステップS21へ処理を戻し、UI画像の表示を継続する。
Next, the
図9は、本実施の形態に係るサーバ装置3が行う画像表示処理の手順を示すフローチャートである。本実施の形態に係るサーバ装置3の画像送信処理部31eは、端末装置5から画像の送信要求が与えられたか否かを判定する(ステップS41)。送信要求が与えられていない場合(S41:NO)、画像送信処理部31eは、送信要求が与えられるまで待機する。
FIG. 9 is a flowchart showing a procedure of image display processing performed by the
端末装置5から画像の送信要求が与えられた場合(S41:YES)、画像送信処理部31eは、送信要求に付された画像の条件を取得する(ステップS42)。画像送信処理部31eは、画像記憶部32bに記憶された複数の画像の中から、ステップS42にて取得した条件にて設定された対象の年月日の画像を抽出する(ステップS43)。
When an image transmission request is given from the terminal device 5 (S41: YES), the image
画像送信処理部31eは、ステップS43にて抽出した画像の中から、ステップS42にて取得した条件にて設定された対象者の画像を抽出する(ステップS44)。画像送信処理部31eは、ステップS44にて抽出した画像の中から、ステップS42にて取得した条件にて設定された対象の表情の画像を抽出する(ステップS45)。画像送信処理部31eは、ステップS45にて抽出した画像の中から、ステップS42にて取得した条件にて設定された対象のイベントの画像を抽出する(ステップS46)。
The image
なお、ステップS42にて取得する条件には、例えば対象の年月日、対象者、表情又はイベントの全てについて条件が設定されていなくてもよい。画像送信処理部31eは、設定されていない条件については対応するステップS43〜S46の処理を省略してよい。また例えば、複数人の対象者又は複数の表情等が条件として設定されてもよく、この場合に画像送信処理部31eは、各条件に該当する画像をそれぞれ抽出すればよい。
The conditions acquired in step S42 may not be set for all of the target date, target person, facial expression, or event, for example. The image
画像送信処理部31eは、ステップS46にて最終的に抽出された一又は複数の画像を、要求元の端末装置5へ送信し(ステップS47)、処理を終了する。なお、設定された条件に該当する画像が存在しない場合、画像送信処理部31eは、画像が存在しない旨を端末装置5へ通知する。
The image
<その他>
カメラ1が撮影した画像に写された人を識別する際に、例えば画像中における人の顔の大きさ又は向き等によっては識別精度が低下する可能性がある。そこでサーバ装置3は、例えば画像に写された人を追跡する処理(トラッキング処理)を併用して、人の識別を行ってもよい。サーバ装置3は、画像に人の顔が大きく写されている場合又は画像に写されている人の顔が正面(カメラ1)を向いている場合等のように識別精度が高いことが期待できる画像に基づく人の識別結果を基準とし、この画像に続く一又は複数の画像に対してトラッキング処理を行う。トラッキング処理は、連続的に撮影された複数の画像において、対象物の移動を追跡する処理であり、例えばBoosting、MIL(Multiple Instance Learning)、TLD(Tracking Learning and Detection)、MedianFlow又はKCF(Kernelized Correlation Filters)等の手法が用いられ得る。サーバ装置3は、トラッキング処理により同じ人が写されていると判断できる複数の画像に対して、基準となる画像における人の識別結果(例えば識別の確信度等)を後続の画像についての識別結果とし、後続の画像に識別結果の情報を付して記憶してもよい。
<Others>
When identifying a person captured in an image captured by the
<まとめ>
以上の構成の本実施の形態に係る情報処理システムでは、画像を表示する対象者に関する表情の選択を端末装置5がUI画面の表情選択領域102にて受け付ける。対象者が利用する施設100に設置されたカメラ1が撮影した画像から、選択された表情に応じてサーバ装置3が抽出した画像を端末装置5が取得して主画像表示領域104及び従画像表示領域105に表示する。また端末装置5は、この施設100にて実施されたイベントと対象者の表情との対応付けをスケジュール表示領域106に表示する。これにより情報処理システムは、施設100の利用者を日常的に撮影した画像を、利用者の表情及びスケジュールの情報等と共に提供することができる。
<Summary>
In the information processing system according to the present embodiment having the above configuration, the
また本実施の形態に係る情報処理システムでは、端末装置5が表情に対応付けられた文字及びアイコンを選択候補としてUI画面の表情選択領域102に複数表示し、選択候補に対するユーザの選択操作を受け付けて、対象者の表情に関する選択を受け付ける。これによりユーザは、表示させたい画像について対象者の表情を条件として容易に設定することができる。
Further, in the information processing system according to the present embodiment, the
また本実施の形態に係る情報処理システムでは、端末装置5が表情選択領域102の各選択候補と共に、この選択候補が選択された場合に表示可能な画像の数を表示する。これによりユーザは、表情の条件に応じて表示される画像の数を予め知ることができ、条件の選択を容易化することが期待できる。
Further, in the information processing system according to the present embodiment, the
また本実施の形態に係る情報処理システムでは、端末装置5がUI画面の対象者選択領域103に設けられたタブにより画像を表示する対象者の選択を受け付ける。選択された対象者に応じてサーバ装置3が画像記憶部32bから抽出した画像を端末装置5が取得して主画像表示領域104及び従画像表示領域105に表示する。また端末装置5は、選択された対象者についてイベント及び表情の対応付けをスケジュール表示領域106に表示する。これにより対象者が複数存在する場合に、ユーザが容易に対象者を選択して画像を閲覧することができる。
Further, in the information processing system according to the present embodiment, the
また本実施の形態に係る情報処理システムでは、UI画面のスケジュール表示領域106に表示したイベント及び表情の対応付けに基づいて、端末装置5が例えばいずれかのイベントに対するタッチ操作又はクリック操作等を受け付けることにより、イベントの選択を受け付ける。端末装置5は、選択されたイベントに応じてサーバ装置3が画像記憶部32bから抽出した画像を取得して主画像表示領域104及び従画像表示領域105に表示する。これによりユーザは、表示させたい画像についてイベントを条件として容易に設定することができる。
Further, in the information processing system according to the present embodiment, the
また本実施の形態に係る情報処理システムでは、サーバ装置3が条件に応じて抽出した一又は複数の画像を端末装置5がUI画面の従画像表示領域105に一覧表示し、一覧表示した一又は複数の画像から一の画像の選択を受け付け、選択された画像を主画像表示領域104に表示する。これにより、ユーザが定めた条件に適合する画像が複数存在する場合に、ユーザは複数の画像の中から所望の一の画像を容易に選択することができる。
Further, in the information processing system according to the present embodiment, the
また本実施の形態に係る情報処理システムでは、表情の選択を受け付ける表情選択領域102と、選択された表情に応じて抽出された一又は複数の画像を一覧表示する従画像表示領域105と、一覧表示された画像から選択された画像を表示する主画像表示領域104と、施設100で実施されたイベントと対象者の表情を対応付けて表示するスケジュール表示領域106とを含むUI画面を端末装置5が表示部54に表示する。これによりユーザは、表示されたUI画面にて表情及びイベント等の条件を設定し、条件に応じた画像をサーバ装置3から取得して端末装置5に表示させることができる。
Further, in the information processing system according to the present embodiment, a facial
また本実施の形態に係る情報処理システムでは、施設100の利用者(子供)又はその関係者(保護者)が使用する端末装置5は、この利用者に関する画像を表示する。これに対して施設100の従業者が使用する端末装置5は、施設100の複数の利用者に関する画像を表示する。これにより情報処理システムは、端末装置5の使用者に適切な画像表示を行うことが期待できる。
Further, in the information processing system according to the present embodiment, the
なお本実施の形態においては、カメラ1を設置する施設100を保育園又は幼稚園等とし、カメラ1が施設100を利用する子供の撮影を行う構成を示したが、施設100は保育園又は幼稚園等に限らず、どのような施設であってもよい。施設100は屋内又は屋外のいずれのものであってもよい。また施設100には複数のカメラ1が設置されてよく、複数のカメラ1がサーバ装置3へ撮影した画像を送信してよい。また条件に応じた画像の抽出をサーバ装置3が行うものとしたが、これに限るものではなく、端末装置5が行ってもよい。
In the present embodiment, the
また図6に示したUI画面は一例であって、これに限るものではなく、各領域の配置及びデザイン等は適宜に変更され得る。また本実施の形態においては、UI画面の表情選択領域102にて表情の選択を受け付けたが、表情の選択に代えて、又は、表情の選択と共に、画像に写された人の行動を条件として選択可能としてもよい。
The UI screen shown in FIG. 6 is an example and is not limited to this, and the arrangement and design of each area can be changed as appropriate. Further, in the present embodiment, the facial expression selection is accepted in the facial
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered as exemplary in all respects and not restrictive. The scope of the present invention is indicated by the scope of claims, not the above-mentioned meaning, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.
1 カメラ
3 サーバ装置
5 端末装置
31 処理部
31a 画像受信処理部
31b 画像識別処理部
31c 情報集計処理部
31d 画像選別部
31e 画像送信処理部
32 記憶部
32a サーバプログラム
32b 画像記憶部
32c ユーザDB
33 通信部
51 処理部
51a 表示処理部
51b 条件取得部
52 記憶部
52a プログラム
53 通信部
54 表示部
55 操作部
98、99 記録媒体
100 施設
101 日付表示領域
102 表情選択領域
103 対象者選択領域
104 主画像表示領域
105 従画像表示領域
106 スケジュール表示領域
1
33
Claims (13)
対象に関する表情の選択を受け付け、
前記対象が利用する施設に設置されたカメラが撮影した画像から、選択された表情に応じて抽出された画像を表示し、
前記施設で実施されたイベントと前記対象の表情との対応付けを表示する、
情報処理方法。 Information processing device
Accepts facial expression selections regarding the subject,
An image extracted according to the selected facial expression from the image taken by the camera installed in the facility used by the target is displayed.
Display the correspondence between the event held at the facility and the facial expression of the target.
Information processing method.
前記選択候補に基づいて前記対象に関する表情の選択を受け付ける、
請求項1に記載の情報処理方法。 Multiple characters or images associated with facial expressions are displayed as selection candidates, and
Accepts the selection of facial expressions related to the target based on the selection candidates.
The information processing method according to claim 1.
請求項2に記載の情報処理方法。 Along with the selection candidate, the number of images that can be displayed when the selection candidate is selected is displayed.
The information processing method according to claim 2.
選択された表情及び対象に応じて抽出された画像を表示し、
前記施設で実施されたイベントと選択された対象の表情との対応付けを表示する、
請求項1から請求項3までのいずれか1つに記載の情報処理方法。 Accept the selection of the target,
Display the extracted image according to the selected facial expression and target,
Display the correspondence between the event held at the facility and the facial expression of the selected target.
The information processing method according to any one of claims 1 to 3.
選択されたイベントに応じて抽出された画像を表示する、
請求項1から請求項4までのいずれか1つに記載の情報処理方法。 Accepts event selection based on the displayed event and facial expression mapping,
Display the extracted images according to the selected event,
The information processing method according to any one of claims 1 to 4.
一覧表示した一又は複数の画像から一の画像の選択を受け付け、
選択された画像を表示する、
請求項1から請求項5までのいずれか1つに記載の情報処理方法。 List one or more extracted images and
Accepts the selection of one image from one or more images displayed in the list,
Display the selected image,
The information processing method according to any one of claims 1 to 5.
前記第1の領域にて選択された表情に応じて抽出された一又は複数の画像を一覧表示して一の画像の選択を受け付ける第2の領域と、
前記第2の領域にて選択された画像を表示する第3の領域と、
前記施設で実施されたイベント及び前記対象の表情の対応付けを表示する第4の領域と
を含む画面を表示部に表示する、
請求項1から請求項6までのいずれか1つに記載の情報処理方法。 A first area that displays multiple characters or images associated with facial expressions as selection candidates and accepts selection of facial expressions related to the target, and
A second area that displays a list of one or more images extracted according to the facial expression selected in the first area and accepts the selection of one image, and
A third area for displaying the image selected in the second area, and
A screen including an event carried out at the facility and a fourth area for displaying the association of facial expressions of the target is displayed on the display unit.
The information processing method according to any one of claims 1 to 6.
前記施設の従業者が使用する情報処理装置は、前記施設を利用する複数の利用者に係る画像を表示する、
請求項1から請求項7までのいずれか1つに記載の情報処理方法。 The information processing device used by the user who uses the facility or a person related to the user displays an image related to the user and displays an image related to the user.
The information processing device used by the employee of the facility displays an image relating to a plurality of users who use the facility.
The information processing method according to any one of claims 1 to 7.
請求項1から請求項8までのいずれか1つに記載の情報処理方法。The information processing method according to any one of claims 1 to 8.
対象に関する表情の選択を受け付け、
前記対象が利用する施設に設置されたカメラが撮影した画像から、選択された表情に応じて抽出された画像を表示し、
前記施設で実施されたイベントと前記対象の表情との対応付けを表示する
処理を行わせるコンピュータプログラム。 On the computer
Accepts facial expression selections regarding the subject,
An image extracted according to the selected facial expression from the image taken by the camera installed in the facility used by the target is displayed.
A computer program that performs a process of displaying the correspondence between an event carried out at the facility and the facial expression of the target.
施設に設置されたカメラが撮影した画像を取得し、
前記施設で実施されたイベントの情報を取得し、
取得した画像に写された対象の表情を識別し、
前記施設で実施されたイベントと識別した前記対象の表情とを対応付けて記憶部に記憶し、
前記施設で実施されたイベントと前記対象の表情とを対応付けた情報を端末装置へ送信する
処理を行わせるコンピュータプログラム。 On the computer
Acquire the image taken by the camera installed in the facility and
Get information on the events held at the facility
Identify the facial expression of the target in the acquired image and
The event carried out at the facility and the facial expression of the identified object are associated with each other and stored in the storage unit.
A computer program that performs a process of transmitting information that associates an event carried out at the facility with the facial expression of the target to a terminal device.
前記対象が利用する施設に設置されたカメラが撮影した画像から、選択された表情に応じて抽出された画像を表示する処理を行う画像表示処理部と、
前記施設で実施されたイベントと前記対象の表情との対応付けを表示する処理を行う対応表示処理部と
を備える、情報処理装置。 The reception department that accepts the selection of facial expressions related to the target,
An image display processing unit that performs processing to display an image extracted according to a selected facial expression from an image taken by a camera installed in the facility used by the target.
An information processing device including a corresponding display processing unit that performs processing for displaying the correspondence between an event carried out at the facility and the facial expression of the target.
前記施設で実施されたイベントの情報を取得する情報取得部と、
前記画像取得部が取得した画像に写された対象の表情を識別する識別部と、
前記施設で実施されたイベントと識別した前記対象の表情とを対応付けて記憶する記憶部と、
前記施設で実施されたイベントと前記対象の表情とを対応付けた情報を端末装置へ送信する情報送信部と
を備える、情報処理装置。 An image acquisition unit that acquires images taken by cameras installed in the facility,
The information acquisition department that acquires information on events held at the facility,
An identification unit that identifies the facial expression of the target imaged in the image acquired by the image acquisition unit, and an identification unit.
A storage unit that stores the event performed at the facility and the facial expression of the identified object in association with each other.
An information processing device including an information transmission unit that transmits information in which an event carried out at the facility and a facial expression of the target are associated with each other to a terminal device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021001571A JP6958795B1 (en) | 2021-01-07 | 2021-01-07 | Information processing methods, computer programs and information processing equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021001571A JP6958795B1 (en) | 2021-01-07 | 2021-01-07 | Information processing methods, computer programs and information processing equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6958795B1 true JP6958795B1 (en) | 2021-11-02 |
JP2022106517A JP2022106517A (en) | 2022-07-20 |
Family
ID=78281986
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021001571A Active JP6958795B1 (en) | 2021-01-07 | 2021-01-07 | Information processing methods, computer programs and information processing equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6958795B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7333570B1 (en) | 2022-12-21 | 2023-08-25 | 株式会社Shift | program, method, information processing device, system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005260355A (en) * | 2004-03-09 | 2005-09-22 | Fuji Xerox Co Ltd | Significance imparting device, significance information creating method, electronic album creating device, method and program |
JP2012256327A (en) * | 2012-06-27 | 2012-12-27 | Olympus Imaging Corp | Image display apparatus, image display method, and image display program |
JP2014216658A (en) * | 2013-04-22 | 2014-11-17 | 株式会社ニコン | Imaging apparatus and imaging assist program |
JP2015139001A (en) * | 2014-01-20 | 2015-07-30 | キヤノン株式会社 | Information processing device, information processing method and program |
JP2020149304A (en) * | 2019-03-13 | 2020-09-17 | ソニー株式会社 | Imaging apparatus and facial expression detection method |
-
2021
- 2021-01-07 JP JP2021001571A patent/JP6958795B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005260355A (en) * | 2004-03-09 | 2005-09-22 | Fuji Xerox Co Ltd | Significance imparting device, significance information creating method, electronic album creating device, method and program |
JP2012256327A (en) * | 2012-06-27 | 2012-12-27 | Olympus Imaging Corp | Image display apparatus, image display method, and image display program |
JP2014216658A (en) * | 2013-04-22 | 2014-11-17 | 株式会社ニコン | Imaging apparatus and imaging assist program |
JP2015139001A (en) * | 2014-01-20 | 2015-07-30 | キヤノン株式会社 | Information processing device, information processing method and program |
JP2020149304A (en) * | 2019-03-13 | 2020-09-17 | ソニー株式会社 | Imaging apparatus and facial expression detection method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7333570B1 (en) | 2022-12-21 | 2023-08-25 | 株式会社Shift | program, method, information processing device, system |
JP2024088975A (en) * | 2022-12-21 | 2024-07-03 | 株式会社Shift | Program, method, information processing device and system |
Also Published As
Publication number | Publication date |
---|---|
JP2022106517A (en) | 2022-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10057485B2 (en) | Imaging apparatus and methods for generating a guide display using imaging height posture information | |
CN103412951B (en) | Human connection association analysis based on portrait photographs management System and method for | |
CN102763404B (en) | Camera, information acquiring system and program | |
WO2012137397A1 (en) | Content-processing device, content-processing method, content-processing program, and integrated circuit | |
CN111460192A (en) | Image candidate determination device, image candidate determination method, and recording medium storing program for controlling image candidate determination device | |
JP2011155385A (en) | Electronic device, content transmission method, and program | |
US20170019590A1 (en) | Imaging apparatus, information processing apparatus, image photographing assist system and image photographing assist method | |
JP2013105346A (en) | Information presentation device, information presentation method, information presentation system, information registration device, information registration method, information registration system, and program | |
JP6649005B2 (en) | Robot imaging system and image management method | |
JP2013105345A (en) | Information registration device, information registration method, information registration system, information presentation device, information presentation method, information presentation system, and program | |
JP2019159537A (en) | Image search apparatus, image search method, electronic device and its control method | |
JP2008198135A (en) | Information delivery system, information delivery device and information delivery method | |
JP6958795B1 (en) | Information processing methods, computer programs and information processing equipment | |
JP6323548B2 (en) | Imaging assistance system, imaging apparatus, information processing apparatus, imaging assistance program, and imaging assistance method | |
JP2021158567A (en) | Life log providing system and life log providing method | |
US20210075754A1 (en) | Method for sharing a photograph | |
US20210073269A1 (en) | Method for clustering at least two timestamped photographs | |
JP2015139001A (en) | Information processing device, information processing method and program | |
JP6677527B2 (en) | Server device and program | |
JP2023100112A (en) | image selection system | |
JP7227799B2 (en) | Image retrieval device, image retrieval method and computer program | |
US20210072869A1 (en) | Method for retrieving at least two captured photographs | |
CN110933223B (en) | Image processing apparatus, image processing method, and recording medium | |
JP2022070805A (en) | Program, information processing device and method | |
JP6976531B2 (en) | Album creation support device and album creation support system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210107 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210107 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210624 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210831 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210924 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6958795 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |