JP2019185188A - Information processing method, information processing apparatus, and information processing system - Google Patents
Information processing method, information processing apparatus, and information processing system Download PDFInfo
- Publication number
- JP2019185188A JP2019185188A JP2018071841A JP2018071841A JP2019185188A JP 2019185188 A JP2019185188 A JP 2019185188A JP 2018071841 A JP2018071841 A JP 2018071841A JP 2018071841 A JP2018071841 A JP 2018071841A JP 2019185188 A JP2019185188 A JP 2019185188A
- Authority
- JP
- Japan
- Prior art keywords
- person
- image
- information
- identification information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 83
- 238000003672 processing method Methods 0.000 title claims abstract description 30
- 238000003860 storage Methods 0.000 claims abstract description 96
- 239000000284 extract Substances 0.000 claims abstract description 18
- 238000004891 communication Methods 0.000 claims description 54
- 238000000605 extraction Methods 0.000 claims description 48
- 230000005540 biological transmission Effects 0.000 claims description 38
- 238000005259 measurement Methods 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 7
- 230000009471 action Effects 0.000 abstract description 19
- 238000010586 diagram Methods 0.000 description 16
- 230000006399 behavior Effects 0.000 description 13
- 238000000034 method Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 11
- 230000008451 emotion Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 5
- 238000010079 rubber tapping Methods 0.000 description 5
- 239000004065 semiconductor Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000017531 blood circulation Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005281 excited state Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000011273 social behavior Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0015—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
- A61B5/0022—Monitoring a patient using a global network, e.g. telephone networks, internet
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/01—Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
- A61B5/0205—Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
- A61B5/026—Measuring blood flow
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/167—Personality evaluation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/02—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
- H04L67/025—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP] for remote control or remote monitoring of applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/06—Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/06—Children, e.g. for attention deficit diagnosis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/117—Identification of persons
- A61B5/1171—Identification of persons based on the shapes or appearances of their bodies or parts thereof
- A61B5/1176—Recognition of faces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6898—Portable consumer electronic devices, e.g. music players, telephones, tablet computers
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Psychiatry (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Educational Technology (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physiology (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Cardiology (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Pulmonology (AREA)
- Hematology (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
本開示は、所定の画像を抽出する情報処理方法、情報処理装置及び情報処理システムに関するものである。 The present disclosure relates to an information processing method, an information processing apparatus, and an information processing system for extracting a predetermined image.
従来、幼稚園又は保育園などで子供を保育する保育者は、日々の子供の行動を記録し、子供の興味の変化及び子供の遊び方の変化を確認することで、子供の親の子育て支援に役立てている。 Conventionally, a childcare person who raises a child at a kindergarten or a nursery school records the daily behavior of the child and confirms changes in the child's interest and changes in how the child plays, thereby helping the child parenting support of the child. Yes.
例えば、特許文献1に示す遊び行動認識システムは、空間内で任意に移動可能であり、加速度を出力する遊具と、空間を任意に移動する子供の位置および姿勢を取得する距離画像センサと、子供の位置および姿勢と遊具の加速度とを利用して、子供の社会的行動様式によって分類される第1遊び行動と心的機能によって分類される第2遊び行動とを認識する中央制御装置とを備える。
For example, the play behavior recognition system shown in
特許文献1では、保育者は認識された2つの遊び行動を確認することで、子供がどのような遊び行動を行っているかを適切に把握することができる。
In
しかしながら、上記従来の技術では、子供がどのような遊び行動を行っているかを把握することができるが、子供が興味を持った遊び行動を特定したり、興味を持った遊び行動を行っていた際の子供の様子を示す画像を提供したりすることは困難であり、更なる改善が必要とされていた。 However, in the above conventional technique, it is possible to grasp what kind of play behavior a child is doing, but the play behavior that the child is interested in is specified or play behavior that is interesting It was difficult to provide an image showing the state of the child at the time, and further improvement was required.
本開示は、上記の問題を解決するためになされたもので、第1の人物が興味を持った行動を特定することができるとともに、興味を持った行動を行っていた際の第1の人物の様子を示す画像を提供することができる情報処理方法、情報処理装置及び情報処理システムを提供することを目的とするものである。 The present disclosure was made in order to solve the above-described problem. The first person can identify an action that the first person is interested in, and the first person who is performing the action that is interested in the person. It is an object of the present invention to provide an information processing method, an information processing apparatus, and an information processing system that can provide an image showing the above situation.
本開示の一態様に係る情報処理方法は、コンピュータが、第1の人物の生体情報を取得し、前記生体情報の取得タイミングに同期して、前記第1の人物を撮影した画像を取得し、前記画像に基づいて、前記第1の人物を識別するための人物識別情報を特定し、特定した前記人物識別情報と、取得した前記生体情報と、取得した前記画像とを対応付けて記憶部に記憶し、前記第1の人物とは異なる第2の人物により選択された前記第1の人物の前記人物識別情報と、前記第2の人物により選択された前記第1の人物の状態を示す状態情報とを取得し、取得した前記人物識別情報と、取得した前記状態情報に対応する前記生体情報とに対応付けられている前記画像を前記記憶部から抽出する。 In the information processing method according to an aspect of the present disclosure, a computer acquires biological information of a first person, acquires an image of the first person in synchronization with the acquisition timing of the biological information, Based on the image, personal identification information for identifying the first person is specified, and the specified personal identification information, the acquired biological information, and the acquired image are associated with each other in the storage unit. A state indicating the person identification information of the first person selected by the second person different from the first person and the state of the first person selected by the second person Information is acquired, and the image associated with the acquired person identification information and the biological information corresponding to the acquired state information is extracted from the storage unit.
本開示によれば、第1の人物が興味を持った行動を特定することができるとともに、興味を持った行動を行っていた際の第1の人物の様子を示す画像を提供することができる。 According to the present disclosure, it is possible to identify an action that the first person is interested in, and to provide an image that shows the state of the first person when the action that is of interest is performed. .
(本開示の基礎となった知見)
上記のように、幼稚園又は保育園などで子供を保育する保育者は、日々の子供の行動を記録した保育日誌を作成し、子供の興味の変化及び子供の遊び方の変化を確認する。このとき、保育者は、複数の子供の保育日誌を作成する必要があり、保育日誌の作成作業に多くの時間を必要としている。
(Knowledge that became the basis of this disclosure)
As described above, a childcare person who raises a child at a kindergarten or a nursery school creates a childcare diary that records daily child behavior and confirms changes in children's interest and changes in how children play. At this time, the childcare person needs to create childcare diaries for a plurality of children, and a lot of time is required for the work of creating the childcare diaries.
従来技術では、子供がどのような遊び行動を行っているかを把握することができるが、子供が興味を持った遊び行動を特定したり、興味を持った遊び行動を行っていた際の子供の様子を示す画像を提供したりすることは困難である。 In the prior art, it is possible to grasp what kind of play behavior a child is doing, but it is possible to identify the play behavior that the child is interested in, or the child when the play behavior is interesting It is difficult to provide an image showing the situation.
以上の課題を解決するために、本開示の一態様に係る情報処理方法は、コンピュータが、第1の人物の生体情報を取得し、前記生体情報の取得タイミングに同期して、前記第1の人物を撮影した画像を取得し、前記画像に基づいて、前記第1の人物を識別するための人物識別情報を特定し、特定した前記人物識別情報と、取得した前記生体情報と、取得した前記画像とを対応付けて記憶部に記憶し、前記第1の人物とは異なる第2の人物により選択された前記第1の人物の前記人物識別情報と、前記第2の人物により選択された前記第1の人物の状態を示す状態情報とを取得し、取得した前記人物識別情報と、取得した前記状態情報に対応する前記生体情報とに対応付けられている前記画像を前記記憶部から抽出する。 In order to solve the above problems, in an information processing method according to an aspect of the present disclosure, a computer acquires biological information of a first person, and the first information is synchronized with the acquisition timing of the biological information. An image obtained by photographing a person is acquired, and based on the image, person identification information for identifying the first person is specified, the specified person identification information, the acquired biological information, and the acquired The image is associated and stored in the storage unit, and the person identification information of the first person selected by a second person different from the first person and the person selected by the second person Status information indicating the status of the first person is acquired, and the image associated with the acquired person identification information and the biological information corresponding to the acquired status information is extracted from the storage unit. .
この構成によれば、第1の人物の生体情報が取得される。生体情報の取得タイミングに同期して、第1の人物を撮影した画像が取得される。画像に基づいて、第1の人物を識別するための人物識別情報が特定される。特定された人物識別情報と、取得された生体情報と、取得された画像とが対応付けて記憶部に記憶される。第1の人物とは異なる第2の人物により選択された第1の人物の人物識別情報と、第2の人物により選択された第1の人物の状態を示す状態情報とが取得される。取得された人物識別情報と、取得された状態情報に対応する生体情報とに対応付けられている画像が記憶部から抽出される。 According to this configuration, the biological information of the first person is acquired. In synchronization with the biometric information acquisition timing, an image of the first person is acquired. Person identification information for identifying the first person is specified based on the image. The identified person identification information, the acquired biological information, and the acquired image are stored in the storage unit in association with each other. The person identification information of the first person selected by the second person different from the first person and the state information indicating the state of the first person selected by the second person are acquired. An image associated with the acquired person identification information and the biological information corresponding to the acquired state information is extracted from the storage unit.
したがって、第2の人物により選択された第1の人物の人物識別情報と、第2の人物により選択された第1の人物の状態を示す状態情報に対応する生体情報とに対応付けられている画像が記憶部から抽出されるので、第1の人物が興味を持った行動を特定することができるとともに、興味を持った行動を行っていた際の第1の人物の様子を示す画像を提供することができる。 Accordingly, the person identification information of the first person selected by the second person is associated with the biological information corresponding to the state information indicating the state of the first person selected by the second person. Since the image is extracted from the storage unit, it is possible to identify an action that the first person is interested in and provide an image that shows the state of the first person when the action was performed can do.
また、上記の情報処理方法において、前記状態情報は、前記第1の人物の心理状態を示す心理状態情報を含んでもよい。 In the information processing method, the state information may include psychological state information indicating a psychological state of the first person.
この構成によれば、第1の人物の人物識別情報と、第1の人物の心理状態を示す心理状態情報に対応する生体情報とに対応付けられている画像が記憶部から抽出されるので、第1の人物の心理状態に応じた画像を抽出することができる。 According to this configuration, the image associated with the person identification information of the first person and the biological information corresponding to the psychological state information indicating the psychological state of the first person is extracted from the storage unit. An image corresponding to the psychological state of the first person can be extracted.
また、上記の情報処理方法において、さらに、抽出した前記画像を、前記第2の人物が利用している端末装置へ送信してもよい。 In the above information processing method, the extracted image may be transmitted to a terminal device used by the second person.
この構成によれば、抽出された画像が、第2の人物が利用している端末装置へ送信されるので、第2の人物は、端末装置を用いて、第2の人物により選択された第1の人物の状態に応じた画像を確認することができる。 According to this configuration, since the extracted image is transmitted to the terminal device used by the second person, the second person is selected by the second person using the terminal device. An image corresponding to the state of one person can be confirmed.
また、上記の情報処理方法において、さらに、抽出した前記画像と、前記画像を取得した日付と、取得した前記人物識別情報とを対応付けて前記記憶部に記憶し、さらに、取得した前記人物識別情報に対応付けられている過去の前記画像を履歴画像として前記記憶部から抽出してもよい。 In the above information processing method, the extracted image, the date when the image was acquired, and the acquired person identification information are stored in the storage unit in association with each other, and the acquired person identification is further performed. The past image associated with the information may be extracted from the storage unit as a history image.
この構成によれば、抽出された画像と、画像が取得された日付と、取得された人物識別情報とが対応付けて記憶部に記憶される。そして、取得された人物識別情報に対応付けられている過去の画像が履歴画像として記憶部から抽出される。 According to this configuration, the extracted image, the date when the image was acquired, and the acquired person identification information are stored in the storage unit in association with each other. Then, past images associated with the acquired person identification information are extracted from the storage unit as history images.
したがって、第2の人物により選択された第1の人物の人物識別情報と、第2の人物により選択された第1の人物の状態を示す状態情報に対応する生体情報とに対応付けられている画像が記憶部から抽出されるとともに、人物識別情報に対応付けられている過去の画像が履歴画像として記憶部から抽出されるので、興味を持った行動を行っていた際の第1の人物の様子を示す画像を提供することができるとともに、第1の人物の過去の様子を示す履歴画像を提供することができる。 Accordingly, the person identification information of the first person selected by the second person is associated with the biological information corresponding to the state information indicating the state of the first person selected by the second person. Since an image is extracted from the storage unit and a past image associated with the person identification information is extracted from the storage unit as a history image, the first person when performing an action of interest An image showing a state can be provided, and a history image showing a past state of the first person can be provided.
また、上記の情報処理方法において、さらに、抽出した前記画像とともに、抽出した前記履歴画像を、前記第2の人物が利用している端末装置へ送信してもよい。 In the above information processing method, the extracted history image may be transmitted together with the extracted image to a terminal device used by the second person.
この構成によれば、抽出された画像とともに、抽出された履歴画像が、第2の人物が利用している端末装置へ送信されるので、第2の人物は、端末装置を用いて、第2の人物により選択された第1の人物の状態に応じた画像と、第1の人物の過去の様子を示す履歴画像とを確認することができる。また、第2の人物は、提供された今回の画像と履歴画像とを比較することができる。 According to this configuration, since the extracted history image is transmitted to the terminal device used by the second person together with the extracted image, the second person uses the terminal device to An image corresponding to the state of the first person selected by the person and a history image showing the past state of the first person can be confirmed. Further, the second person can compare the provided current image with the history image.
また、上記の情報処理方法において、前記人物識別情報を有するコードが、前記第1の人物の表面に付されており、前記人物識別情報の特定は、前記画像内の前記コードを読み取ることにより、前記人物識別情報を特定してもよい。 In the information processing method, a code having the person identification information is attached to a surface of the first person, and the identification of the person identification information is performed by reading the code in the image. The person identification information may be specified.
この構成によれば、人物識別情報を有するコードが、第1の人物の表面に付されている。人物識別情報の特定において、画像内のコードが読み取られることにより、人物識別情報が特定される。 According to this configuration, the code having the person identification information is attached to the surface of the first person. In specifying the person identification information, the person identification information is specified by reading the code in the image.
したがって、画像内の第1の人物の表面に付されているコードが読み取られることにより、画像内に存在する第1の人物の人物識別情報を容易に特定することができる。 Therefore, by reading the code attached to the surface of the first person in the image, the person identification information of the first person existing in the image can be easily specified.
また、上記の情報処理方法において、前記人物識別情報の特定は、前記画像内の前記第1の人物の顔を認証することにより、前記人物識別情報を特定してもよい。 In the information processing method, the person identification information may be specified by authenticating the face of the first person in the image.
この構成によれば、人物識別情報の特定において、画像内の第1の人物の顔が認証されることにより、人物識別情報が特定される。 According to this configuration, in identifying the person identification information, the person identification information is identified by authenticating the face of the first person in the image.
したがって、画像内の第1の人物の顔が認証されることにより、画像内に存在する第1の人物の人物識別情報を容易に特定することができる。 Therefore, by authenticating the face of the first person in the image, the person identification information of the first person existing in the image can be easily specified.
また、上記の情報処理方法において、さらに、前記画像に基づいて、遊具を識別するための遊具識別情報を特定し、前記記憶は、前記人物識別情報と前記生体情報と前記画像と前記遊具識別情報とを対応付けて前記記憶部に記憶し、前記抽出は、取得した前記人物識別情報と、取得した前記状態情報に対応する前記生体情報とに対応付けられている前記画像及び前記遊具識別情報を前記記憶部から抽出してもよい。 In the above information processing method, play equipment identification information for identifying a play equipment is further specified based on the image, and the memory stores the person identification information, the biological information, the image, and the play equipment identification information. Are stored in the storage unit, and the extraction includes the acquired person identification information and the image and playground equipment identification information associated with the biological information corresponding to the acquired state information. You may extract from the said memory | storage part.
この構成によれば、画像に基づいて、遊具を識別するための遊具識別情報が特定される。記憶において、人物識別情報と生体情報と画像と遊具識別情報とが対応付けて記憶部に記憶される。抽出において、取得された人物識別情報と、取得された状態情報に対応する生体情報とに対応付けられている画像及び遊具識別情報が記憶部から抽出される。 According to this configuration, the playground equipment identification information for identifying the playground equipment is specified based on the image. In the storage, the person identification information, the biological information, the image, and the playground equipment identification information are associated with each other and stored in the storage unit. In the extraction, an image and playground equipment identification information associated with the acquired person identification information and the biological information corresponding to the acquired state information are extracted from the storage unit.
したがって、第2の人物により選択された第1の人物の人物識別情報と、第2の人物により選択された第1の人物の状態を示す状態情報に対応する生体情報とに対応付けられている画像及び遊具識別情報が記憶部から抽出されるので、第1の人物が興味を持った行動及び遊具を特定することができるとともに、興味を持った行動を行っていた際の第1の人物の様子を示す画像及び第1の人物が興味を持った遊具を識別する遊具識別情報を提供することができる。 Accordingly, the person identification information of the first person selected by the second person is associated with the biological information corresponding to the state information indicating the state of the first person selected by the second person. Since the image and the playground equipment identification information are extracted from the storage unit, it is possible to identify the action and playground equipment in which the first person is interested, and the first person who is performing the action that has interest in the first person. It is possible to provide an image showing a state and playground equipment identification information for identifying a playground equipment in which the first person is interested.
また、上記の情報処理方法において、前記遊具識別情報を有するコードが、前記遊具の表面に付されており、前記遊具識別情報の特定は、前記画像内の前記コードを読み取ることにより、前記遊具識別情報を特定してもよい。 In the above information processing method, a code having the playground equipment identification information is attached to a surface of the playground equipment, and the playground equipment identification information is identified by reading the code in the image. Information may be specified.
この構成によれば、遊具識別情報を有するコードが、遊具の表面に付されている。遊具識別情報の特定において、画像内のコードが読み取られることにより、遊具識別情報が特定される。 According to this configuration, the code having the play equipment identification information is attached to the surface of the play equipment. In specifying the playground equipment identification information, the playground equipment identification information is specified by reading the code in the image.
したがって、画像内の遊具の表面に付されているコードが読み取られることにより、画像内に存在する遊具の遊具識別情報を容易に特定することができる。 Therefore, the play equipment identification information of the play equipment existing in the image can be easily specified by reading the code attached to the surface of the play equipment in the image.
また、上記の情報処理方法において、前記人物識別情報の特定は、前記画像内の前記第1の人物の位置をさらに特定し、前記遊具識別情報の特定は、前記画像内の前記遊具の位置をさらに特定するとともに、取得した前記画像よりも時間的に前に取得した過去画像内の前記遊具の位置をさらに特定し、前記記憶は、前記第1の人物の位置と前記画像内の前記遊具の位置との距離が所定の閾値より短く、かつ位置が移動している前記遊具の前記遊具識別情報と、前記人物識別情報と、前記生体情報と、前記画像とを対応付けて前記記憶部に記憶してもよい。 In the information processing method, the identification of the person identification information further specifies the position of the first person in the image, and the identification of the play equipment identification information specifies the position of the play equipment in the image. In addition, the position of the play equipment in the past image acquired before the acquired image is further specified, and the memory stores the position of the first person and the play equipment in the image. The playground equipment identification information of the playground equipment whose position is shorter than a predetermined threshold and whose position is moving, the person identification information, the biological information, and the image are associated with each other and stored in the storage unit. May be.
この構成によれば、人物識別情報の特定において、画像内の第1の人物の位置がさらに特定される。遊具識別情報の特定において、画像内の遊具の位置がさらに特定されるとともに、取得した画像よりも時間的に前に取得した過去画像内の遊具の位置がさらに特定される。記憶において、第1の人物の位置と画像内の遊具の位置との距離が所定の閾値より短く、かつ位置が移動している遊具の遊具識別情報と、人物識別情報と、生体情報と、画像とが対応付けられて記憶部に記憶される。 According to this configuration, in specifying the person identification information, the position of the first person in the image is further specified. In specifying the playground equipment identification information, the position of the playground equipment in the image is further specified, and the position of the playground equipment in the past image acquired before the acquired image is further specified. In storage, the play equipment identification information, the person identification information, the biological information, and the image of the play equipment whose distance between the position of the first person and the position of the play equipment in the image is shorter than a predetermined threshold and the position is moving. Are associated and stored in the storage unit.
したがって、第1の人物の近くにあり、かつ位置が移動している遊具が、第1の人物が利用している遊具であると推定することができるので、第1の人物が利用している遊具をより確実に特定することができる。 Therefore, it can be presumed that the playground equipment that is close to the first person and whose position is moving is the playground equipment used by the first person, so that the first person uses it. The play equipment can be identified more reliably.
また、上記の情報処理方法において、前記人物識別情報の特定は、前記画像内の前記第1の人物の位置をさらに特定し、前記遊具識別情報の特定は、前記画像内の前記遊具の位置をさらに特定し、前記記憶は、前記第1の人物の位置と前記遊具の位置との距離が所定の閾値より短い前記遊具の前記遊具識別情報と、前記人物識別情報と、前記生体情報と、前記画像とを対応付けて前記記憶部に記憶してもよい。 In the information processing method, the identification of the person identification information further specifies the position of the first person in the image, and the identification of the play equipment identification information specifies the position of the play equipment in the image. Further, the storage may further include the play equipment identification information of the play equipment, the person identification information, the biological information, and the biological information, wherein the distance between the position of the first person and the position of the play equipment is shorter than a predetermined threshold. An image may be associated and stored in the storage unit.
この構成によれば、人物識別情報の特定において、画像内の第1の人物の位置がさらに特定される。遊具識別情報の特定において、画像内の遊具の位置がさらに特定される。記憶において、第1の人物の位置と遊具の位置との距離が所定の閾値より短い遊具の遊具識別情報と、人物識別情報と、生体情報と、画像とが対応付けて記憶部に記憶される。 According to this configuration, in specifying the person identification information, the position of the first person in the image is further specified. In specifying the play equipment identification information, the position of the play equipment in the image is further specified. In storage, the playground equipment identification information, the person identification information, the biological information, and the image of the playground equipment whose distance between the position of the first person and the position of the playground equipment is shorter than a predetermined threshold are stored in the storage unit in association with each other. .
したがって、第1の人物の近くにある遊具が、第1の人物が利用している遊具であると推定することができるので、第1の人物が利用している遊具を容易に特定することができる。 Therefore, the playground equipment near the first person can be estimated to be the playground equipment used by the first person, so that the playground equipment used by the first person can be easily identified. it can.
本開示の他の態様に係る情報処理装置は、通信部と、プロセッサと、メモリと、を備え、前記通信部が、第1の人物の生体情報を取得し、前記通信部が、前記生体情報の取得タイミングに同期して、前記第1の人物を撮影した画像を取得し、前記プロセッサが、前記画像に基づいて、前記第1の人物を識別するための人物識別情報を特定し、前記プロセッサが、特定した前記人物識別情報と、取得した前記生体情報と、取得した前記画像とを対応付けて前記メモリに記憶し、前記通信部が、前記第1の人物とは異なる第2の人物により選択された前記第1の人物の前記人物識別情報と、前記第2の人物により選択された前記第1の人物の状態を示す状態情報とを取得し、前記プロセッサが、取得した前記人物識別情報と、取得した前記状態情報に対応する前記生体情報とに対応付けられている前記画像を前記メモリから抽出する。 An information processing apparatus according to another aspect of the present disclosure includes a communication unit, a processor, and a memory, the communication unit acquires biological information of a first person, and the communication unit includes the biological information. In synchronization with the acquisition timing, an image obtained by capturing the first person is acquired, and the processor specifies person identification information for identifying the first person based on the image, and the processor Stores the identified person identification information, the acquired biometric information, and the acquired image in association with each other, and the communication unit is configured by a second person different from the first person. The person identification information of the selected first person and state information indicating the state of the first person selected by the second person are acquired, and the processor acquires the person identification information acquired And the acquired status information The image associated with said biometric information corresponding to the extracted from the memory.
この構成によれば、通信部によって、第1の人物の生体情報が取得される。通信部によって、生体情報の取得タイミングに同期して、第1の人物を撮影した画像が取得される。プロセッサによって、画像に基づいて、第1の人物を識別するための人物識別情報が特定される。プロセッサによって、特定された人物識別情報と、取得された生体情報と、取得された画像とが対応付けられてメモリに記憶される。通信部によって、第1の人物とは異なる第2の人物により選択された第1の人物の前記人物識別情報と、第2の人物により選択された第1の人物の状態を示す状態情報とが取得される。プロセッサによって、取得された人物識別情報と、取得された状態情報に対応する生体情報とに対応付けられている画像がメモリから抽出される。 According to this configuration, the biological information of the first person is acquired by the communication unit. An image obtained by photographing the first person is acquired by the communication unit in synchronization with the acquisition timing of the biological information. The processor identifies person identification information for identifying the first person based on the image. The identified person identification information, the acquired biometric information, and the acquired image are associated with each other and stored in the memory by the processor. The person identification information of the first person selected by the second person different from the first person by the communication unit, and state information indicating the state of the first person selected by the second person To be acquired. The processor extracts an image associated with the acquired person identification information and the biological information corresponding to the acquired state information from the memory.
したがって、第2の人物により選択された第1の人物の人物識別情報と、第2の人物により選択された第1の人物の状態を示す状態情報に対応する生体情報とに対応付けられている画像が記憶部から抽出されるので、第1の人物が興味を持った行動を特定することができるとともに、興味を持った行動を行っていた際の第1の人物の様子を示す画像を提供することができる。 Accordingly, the person identification information of the first person selected by the second person is associated with the biological information corresponding to the state information indicating the state of the first person selected by the second person. Since the image is extracted from the storage unit, it is possible to identify an action that the first person is interested in and provide an image that shows the state of the first person when the action was performed can do.
本開示の他の態様に係る情報処理システムは、カメラと、生体情報測定装置と、情報処理装置と、端末装置とを備える情報処理システムであって、前記カメラは、第1の人物を撮影する撮影部と、前記撮影部によって撮影された画像を前記情報処理装置へ送信する送信部と、を備え、前記生体情報測定装置は、前記第1の人物の生体情報を測定する測定部と、前記測定部によって測定された前記生体情報を前記情報処理装置へ送信する送信部と、を備え、前記情報処理装置は、記憶部と、前記生体情報測定装置によって送信された前記生体情報を取得する第1取得部と、前記生体情報の取得タイミングに同期して、前記カメラによって送信された前記画像を取得する第2取得部と、前記画像に基づいて、前記第1の人物を識別するための人物識別情報を特定する特定部と、特定した前記人物識別情報と、取得した前記生体情報と、取得した前記画像とを対応付けて前記記憶部に記憶する記憶実行部と、前記第1の人物とは異なる第2の人物により選択された前記第1の人物の前記人物識別情報と、前記第2の人物により選択された前記第1の人物の状態を示す状態情報とを前記端末装置から取得する第3取得部と、取得された前記人物識別情報と、取得された前記状態情報に対応する前記生体情報とに対応付けられている前記画像を前記記憶部から抽出する抽出部と、抽出された前記画像を前記端末装置へ送信する送信部と、を備え、前記端末装置は、前記第1の人物の前記人物識別情報と、前記第1の人物の状態を示す前記状態情報との前記第2の人物による入力を受け付ける入力受付部と、入力された前記人物識別情報と前記状態情報とを前記情報処理装置へ送信する送信部と、前記情報処理装置によって送信された前記画像を受信する受信部と、前記受信部によって受信された前記画像を表示する表示部と、を備える。 An information processing system according to another aspect of the present disclosure is an information processing system including a camera, a biological information measurement device, an information processing device, and a terminal device, and the camera captures a first person. An imaging unit; and a transmission unit that transmits an image captured by the imaging unit to the information processing device, wherein the biological information measurement device measures the biological information of the first person; A transmission unit that transmits the biological information measured by the measurement unit to the information processing device, wherein the information processing device acquires the biological information transmitted by the storage unit and the biological information measurement device. A first acquisition unit, a second acquisition unit that acquires the image transmitted by the camera in synchronization with the acquisition timing of the biological information, and a person for identifying the first person based on the image A specifying unit that specifies different information, the specified person identification information, the acquired biological information, a storage execution unit that stores the acquired image in association with each other, and the first person, Acquires from the terminal device the person identification information of the first person selected by a different second person and state information indicating the state of the first person selected by the second person A third acquisition unit; an extraction unit that extracts the image associated with the acquired person identification information and the biological information corresponding to the acquired state information from the storage unit; A transmission unit that transmits the image to the terminal device, wherein the terminal device includes the person identification information of the first person and the state information indicating the state of the first person. Input that accepts input by other people A reception unit, a transmission unit that transmits the input person identification information and the state information to the information processing device, a reception unit that receives the image transmitted by the information processing device, and a reception unit that receives the image And a display unit for displaying the image.
この構成によれば、カメラの撮影部によって、第1の人物が撮影される。カメラの送信部によって、撮影部により撮影された画像が情報処理装置へ送信される。生体情報測定装置の測定部によって、第1の人物の生体情報が測定される。生体情報測定装置の送信部によって、測定部により測定された生体情報が情報処理装置へ送信される。情報処理装置の第1取得部によって、生体情報測定装置により送信された生体情報が取得される。情報処理装置の第2取得部によって、生体情報の取得タイミングに同期して、カメラによって送信された画像が取得される。情報処理装置の特定部によって、画像に基づいて、第1の人物を識別するための人物識別情報が特定される。情報処理装置の記憶実行部によって、特定された人物識別情報と、取得された生体情報と、取得された画像とが対応付けて記憶部に記憶される。情報処理装置の第3取得部によって、第1の人物とは異なる第2の人物により選択された第1の人物の人物識別情報と、第2の人物により選択された第1の人物の状態を示す状態情報とが端末装置から取得される。情報処理装置の抽出部によって、取得された人物識別情報と、取得された状態情報に対応する生体情報とに対応付けられている画像が記憶部から抽出される。情報処理装置の送信部によって、抽出された画像が端末装置へ送信される。端末装置の入力受付部によって、第1の人物の人物識別情報と、第1の人物の状態を示す状態情報との第2の人物による入力が受け付けられる。端末装置の送信部によって、入力された人物識別情報と状態情報とが情報処理装置へ送信される。端末装置の受信部によって、情報処理装置により送信された画像が受信される。端末装置の表示部によって、受信部により受信された画像が表示される。 According to this configuration, the first person is photographed by the photographing unit of the camera. An image captured by the imaging unit is transmitted to the information processing apparatus by the transmission unit of the camera. The biological information of the first person is measured by the measurement unit of the biological information measuring device. The biological information measured by the measuring unit is transmitted to the information processing device by the transmitting unit of the biological information measuring device. The biological information transmitted by the biological information measuring device is acquired by the first acquisition unit of the information processing device. The image acquired by the camera is acquired by the second acquisition unit of the information processing apparatus in synchronization with the acquisition timing of the biological information. The identifying unit of the information processing device identifies person identification information for identifying the first person based on the image. The storage execution unit of the information processing apparatus stores the identified person identification information, the acquired biological information, and the acquired image in the storage unit in association with each other. The personal identification information of the first person selected by the second person different from the first person and the state of the first person selected by the second person by the third acquisition unit of the information processing apparatus. The status information shown is acquired from the terminal device. An image associated with the acquired person identification information and the biological information corresponding to the acquired state information is extracted from the storage unit by the extraction unit of the information processing device. The extracted image is transmitted to the terminal device by the transmission unit of the information processing apparatus. The input accepting unit of the terminal device accepts input by the second person of the person identification information of the first person and the state information indicating the state of the first person. The input person identification information and state information are transmitted to the information processing apparatus by the transmission unit of the terminal apparatus. The image transmitted by the information processing device is received by the receiving unit of the terminal device. The image received by the receiving unit is displayed by the display unit of the terminal device.
したがって、第2の人物により選択された第1の人物の人物識別情報と、第2の人物により選択された第1の人物の状態を示す状態情報に対応する生体情報とに対応付けられている画像が記憶部から抽出されるので、第1の人物が興味を持った行動を特定することができるとともに、興味を持った行動を行っていた際の第1の人物の様子を示す画像を提供することができる。 Accordingly, the person identification information of the first person selected by the second person is associated with the biological information corresponding to the state information indicating the state of the first person selected by the second person. Since the image is extracted from the storage unit, it is possible to identify an action that the first person is interested in and provide an image that shows the state of the first person when the action was performed can do.
以下添付図面を参照しながら、本開示の実施の形態について説明する。なお、以下の実施の形態は、本開示を具体化した一例であって、本開示の技術的範囲を限定するものではない。 Hereinafter, embodiments of the present disclosure will be described with reference to the accompanying drawings. Note that the following embodiment is an example in which the present disclosure is embodied, and does not limit the technical scope of the present disclosure.
(実施の形態1)
図1は、本開示の実施の形態1に係る情報処理システムの構成の一例を示す図である。図1に示す情報処理システムは、サーバ1、カメラ2、複数の生体情報測定装置3及び端末装置4を備える。
(Embodiment 1)
FIG. 1 is a diagram illustrating an example of a configuration of an information processing system according to the first embodiment of the present disclosure. The information processing system shown in FIG. 1 includes a
なお、本実施の形態1では、幼稚園又は保育園において、保育者が子供を保育し、子供の保育日誌が作成される例について説明する。 In the first embodiment, an example in which a childcare person raises a child and a childcare diary is created in a kindergarten or a nursery school will be described.
サーバ1は、カメラ2、複数の生体情報測定装置3及び端末装置4のそれぞれとネットワーク5を介して互いに通信可能に接続されている。ネットワーク5は、例えばインターネットである。
The
カメラ2は、屋内又は屋外に設置され、保育対象である複数の子供を撮影する。なお、本実施の形態1における情報処理システムは、1つのカメラ2を備えるのではなく、複数のカメラ2を備えてもよい。
The
複数の生体情報測定装置3は、例えばスマートウォッチであり、複数の子供のそれぞれに装着される。複数の生体情報測定装置3のそれぞれは、子供の生体情報を測定する。
The plurality of biological
なお、本実施の形態1では、情報処理システムは、複数の生体情報測定装置3を備えているが、1つの生体情報測定装置3により複数の子供の生体情報を測定することが可能であれば、情報処理システムは、1つの生体情報測定装置3を備えてもよい。
In the first embodiment, the information processing system includes a plurality of biological
端末装置4は、例えば、スマートフォン、タブレット型コンピュータ又はパーソナルコンピュータであり、サーバ1から種々の情報を受信するとともに、サーバ1へ種々の情報を送信する。保育者(第2の人物)は、端末装置4を利用している。
The
図2は、本開示の実施の形態1における生体情報測定装置の構成を示す図である。図2に示す生体情報測定装置3は、生体情報測定部31、制御部32及び通信部33を備える。
FIG. 2 is a diagram illustrating a configuration of the biological information measurement device according to the first embodiment of the present disclosure. The biological
生体情報測定部31は、例えば、種々のセンサであり、子供(第1の人物)の生体情報を測定する。生体情報測定部31は、所定の時間間隔で子供の生体情報を測定する。生体情報は、例えば、子供の血流、心拍数、脈拍数、脳波、血圧、脳波、生体ガス、呼吸及び体温の少なくとも1つである。
The biological
制御部32は、例えばCPU(中央演算処理装置)であり、生体情報測定装置3全体を制御する。
The
通信部33は、生体情報測定部31によって測定された生体情報をサーバ1へ送信する。通信部33は、所定の時間間隔(例えば、1秒間隔)で定期的に生体情報をサーバ1へ送信する。このとき、通信部33は、測定対象である子供を識別するための人物識別情報を生体情報とともに送信する。
The
なお、本実施の形態1における情報処理システムは、接触型の生体情報測定装置3を備えているが、非接触型の生体情報測定装置3を備えてもよい。非接触型の生体情報測定装置3は、例えば高感度なスペクトラム拡散ミリ波レーダー等を用いて、非接触で子供の脈波を計測し、子供の心拍数及び心拍変動を検出する。
Although the information processing system according to the first embodiment includes the contact-type biological
図3は、本開示の実施の形態1におけるカメラの構成を示す図である。図3に示すカメラ2は、撮影部21、制御部22及び通信部23を備える。
FIG. 3 is a diagram illustrating a configuration of the camera according to the first embodiment of the present disclosure. The
撮影部21は、子供を撮影する。撮影部21は、所定の時間間隔(例えば、1秒間隔)で撮影する。カメラ2は、屋内であれば、子供がいる部屋の天井に設置され、屋外であれば、子供がいる場所を高所から撮影可能な位置に設置される。
The photographing
制御部22は、例えばCPUであり、カメラ2全体を制御する。
The
通信部23は、撮影部21によって撮影された撮影画像をサーバ1へ送信する。なお、本実施の形態1では、通信部23は、所定の時間間隔で撮影された静止画像をサーバ1へ所定の時間間隔(例えば、1秒間隔)で送信するが、本開示は特にこれに限定されず、動画像をサーバ1へ送信してもよい。
The
図4は、本開示の実施の形態1における端末装置の構成を示す図である。図4に示す端末装置4は、通信部41、制御部42、入力受付部43及び表示部44を備える。
FIG. 4 is a diagram illustrating a configuration of the terminal device according to the first embodiment of the present disclosure. The
入力受付部43は、例えば、タッチパネル、キーボード又はマウスなどであり、子供(第1の人物)とは異なる保育者(第2の人物)による情報の入力を受け付ける。入力受付部43は、子供を識別するための人物識別情報と、子供の状態を示す状態情報との保育者による入力を受け付ける。子供の保育日誌を作成する際、保育者は、保育日誌を作成する子供を指定するとともに、保育日誌に添付する画像を抽出するために必要な子供の状態を指定する。
The
通信部41は、保育日誌を作成するための保育日誌作成指示をサーバ1へ送信する。保育日誌作成指示は、入力受付部43によって入力された人物識別情報と状態情報とを含む。通信部41は、保育日誌作成指示をサーバ1へ送信することにより、入力受付部43によって入力された人物識別情報と状態情報とをサーバ1へ送信する。また、通信部41は、サーバ1によって送信された候補画像を受信する。
The communication unit 41 transmits a childcare diary creation instruction for creating a childcare diary to the
制御部42は、例えばCPUであり、端末装置4全体を制御する。
The
表示部44は、例えば液晶表示装置であり、通信部41によって受信された画像を表示する。なお、通信部41が複数の候補画像を受信した場合、表示部44は、受信された複数の候補画像を表示し、入力受付部43は、複数の候補画像の中から所望の候補画像の保育者による選択を受け付けてもよい。このとき、保育者は、複数の候補画像の中から、保育日誌に添付する1つの候補画像を選択してもよいし、保育日誌に添付する2つ以上の候補画像を選択してもよい。また、通信部41が1の候補画像を受信した場合、表示部44は、受信された1の候補画像を表示し、入力受付部43は、1の候補画像を保育日誌に添付するか否かの保育者による決定を受け付けてもよい。
The
通信部41は、入力受付部43によって選択された候補画像を特定するための画像選択情報をサーバ1へ送信する。また、通信部41は、サーバ1によって送信された日誌画像を受信する。
The communication unit 41 transmits image selection information for specifying the candidate image selected by the
図5は、本開示の実施の形態1におけるサーバの構成を示す図である。図5に示すサーバ1は、通信部11、制御部12及び記憶部13を備える。
FIG. 5 is a diagram illustrating a configuration of a server according to the first embodiment of the present disclosure. The
通信部11は、生体情報取得部111、撮影画像取得部112、日誌作成指示取得部113、候補画像送信部114、画像選択情報取得部115及び日誌画像送信部116を備える。制御部12は、例えば、CPUであり、特定部121、記憶実行部122、抽出部123及び日誌作成部124を備える。記憶部13は、例えば、半導体メモリであり、画像DB(データベース)131を備える。
The
生体情報取得部111は、子供(第1の人物)の生体情報を取得する。生体情報取得部111は、生体情報測定装置3によって送信された生体情報を所定の時間間隔(例えば、1秒間隔)で定期的に受信する。生体情報取得部111は、生体情報を受信した時刻を示すタイムスタンプとともに、受信した生体情報を記憶実行部122へ出力する。
The biometric
撮影画像取得部112は、生体情報の取得タイミングに同期して、子供(第1の人物)を撮影した撮影画像を取得する。撮影画像取得部112は、カメラ2によって送信された撮影画像を所定の時間間隔(例えば、1秒間隔)で定期的に受信する。なお、撮影画像が静止画像である場合、撮影画像取得部112は、生体情報の取得タイミングに同期して静止像を受信する。また、撮影画像が動画像である場合、撮影画像取得部112は、受信した動画像から、生体情報の取得タイミングに同期して静止画像を抽出する。撮影画像取得部112は、撮影画像を受信した時刻を示すタイムスタンプとともに、受信した撮影画像を特定部121へ出力する。
The captured
特定部121は、撮影画像取得部112によって取得された撮影画像に基づいて、子供(第1の人物)を識別するための人物識別情報を特定する。人物識別情報を有するコードが、子供(第1の人物)の表面に付されている。特定部121は、撮影画像内のコードを読み取ることにより、撮影画像内に含まれる人物識別情報を特定する。
The
なお、コードとしては、例えば、カラービット(登録商標)が用いられる。カラービットは、複数の色のセルを連続して配列したものであり、人物識別情報が所定の規格に基づいて変換されることにより生成される。特定部121は、撮影画像内のカラービットをデコードすることにより、人物識別情報を得る。カラービットの特徴としては、撮影画像内のカラービットの位置を特定することができるとともに、撮影画像内の複数のカラービットを一括して読み取ることができる。そのため、特定部121は、撮影画像内の複数のカラービットを同時に読み取ることにより、複数の子供の人物識別情報及び位置情報を同時に特定することができる。
For example, a color bit (registered trademark) is used as the code. A color bit is a sequence of cells of a plurality of colors, and is generated by converting person identification information based on a predetermined standard. The specifying
記憶実行部122は、特定部121によって特定された人物識別情報と、生体情報取得部111によって取得された生体情報と、撮影画像取得部112によって取得された撮影画像とを対応付けて記憶部13の画像DB131に記憶する。
The
図6は、本開示の実施の形態1における画像DBのデータ構造の一例を示す図である。図6の「子供ID−1」は、特定の子供の人物識別情報を表している。 FIG. 6 is a diagram illustrating an example of the data structure of the image DB according to the first embodiment of the present disclosure. “Child ID-1” in FIG. 6 represents person identification information of a specific child.
画像DB131は、人物識別情報毎に、撮影画像と、生体情報と、時刻とを対応付けて記憶している。撮影画像は、当該撮影画像が格納されているファイル名を表し、時刻は、撮影画像及び生体情報がサーバ1において取得された時刻を表している。なお、時刻は、カメラ2及び生体情報測定装置3が撮影画像及び生体情報をサーバ1に送信した時刻であってもよい。また、生体情報は、例えば、心拍数などの数値である。
The
記憶実行部122は、同一時刻に取得された生体情報と撮影画像とを対応付けて画像DB131に記憶する。
The
日誌作成指示取得部113は、子供(第1の人物)とは異なる保育者(第2の人物)により選択された子供(第1の人物)の人物識別情報と、保育者により選択された子供の状態を示す状態情報とを含む日誌作成指示を取得する。日誌作成指示取得部113は、端末装置4によって送信された日誌作成指示を受信する。
The diary creation
抽出部123は、日誌作成指示取得部113によって取得された人物識別情報と、日誌作成指示取得部113によって取得された状態情報に対応する生体情報とに対応付けられている撮影画像を記憶部13の画像DB131から抽出する。例えば、状態情報は、子供(第1の人物)の心理状態を示す心理状態情報を含む。心理状態は、例えば、興奮度が高い状態又は興奮度が低い状態である。興奮度が高い状態とは、例えば、生体情報である心拍数が第1の閾値以上である状態を表し、興奮度が低い状態とは、例えば、生体情報である心拍数が第1の閾値よりも低い第2の閾値以下である状態を表している。
The
そのため、状態情報が、子供の興奮度が高い状態である場合、抽出部123は、取得された人物識別情報に対応付けられている複数の撮影画像のうち、第1の閾値以上である心拍数に対応付けられている少なくとも1つの撮影画像を抽出する。また、状態情報が、子供の興奮度が低い状態である場合、抽出部123は、取得された人物識別情報に対応付けられている複数の撮影画像のうち、第2の閾値以下である心拍数に対応付けられている少なくとも1つの撮影画像を抽出する。
Therefore, when the state information is a state in which the degree of excitement of the child is high, the
また、例えば、状態情報が、子供の興奮度が高い状態である場合、抽出部123は、取得された人物識別情報に対応付けられている複数の撮影画像のうち、最も高い値から順に所定数の心拍数のそれぞれに対応付けられている撮影画像を抽出してもよい。また、例えば、状態情報が、子供の興奮度が低い状態である場合、抽出部123は、取得された人物識別情報に対応付けられている複数の撮影画像のうち、最も低い値から順に所定数の心拍数のそれぞれに対応付けられている撮影画像を抽出してもよい。所定数は、例えば、3つである。
Further, for example, when the state information is a state in which the degree of excitement of the child is high, the
なお、短い時間間隔の間に複数の撮影画像が抽出された場合、当該複数の撮影画像は、同じ遊びを行っていて興奮していたときに撮影された撮影画像であると推定される。そのため、所定の時間間隔内に複数の撮影画像が抽出された場合、抽出部123は、複数の撮影画像のうちの1の撮影画像のみを選択してもよい。そして、抽出部123は、選択した1の撮影画像に対応付けられている時刻を含む所定の時間間隔以外から、残りの撮影画像を抽出してもよい。
When a plurality of photographed images are extracted during a short time interval, the plurality of photographed images are estimated to be photographed images that were photographed when the same play was performed and the user was excited. Therefore, when a plurality of captured images are extracted within a predetermined time interval, the
また、興奮度が高い状態とは、例えば、生体情報である心拍数が最も高い状態を表してもよく、興奮度が低い状態とは、例えば、生体情報である心拍数が最も低い状態を表してもよい。そして、状態情報が、子供の興奮度が高い状態である場合、抽出部123は、取得された人物識別情報に対応付けられている複数の撮影画像のうち、最も高い心拍数に対応付けられている撮影画像を抽出してもよい。また、状態情報が、子供の興奮度が低い状態である場合、抽出部123は、取得された人物識別情報に対応付けられている複数の撮影画像のうち、最も低い心拍数に対応付けられている撮影画像を抽出してもよい。
Moreover, the state with a high excitement level may represent, for example, a state with the highest heart rate, which is biometric information, and the state with a low excitement level, for example, represents a state with the lowest heart rate, which is biometric information. May be. When the state information indicates a state in which the degree of excitement of the child is high, the
また、端末装置4から受信される状態情報は、例えば、興奮状態、嬉しい状態、リラックス状態、退屈状態、憂鬱状態、悲しい状態、恐怖状態又は怒り状態などの子供の感情を示す情報であってもよい。この場合、抽出部123は、画像DB131の人物識別情報に対応付けられている複数の生体情報のそれぞれを感情に変換してもよい。そして、抽出部123は、変換した感情のうち、日誌作成指示取得部113によって取得された状態情報で示される感情と同じ感情に対応付けられている撮影画像を抽出してもよい。なお、生体情報を感情に変換する方法については、例えば、国際公開第2016/170810号、特開2009−208727号公報及び特開2015−46065号公報に開示されている技術を用いることが可能である。これにより、子供の感情が例えば嬉しい状態などの保育者が所望する感情であったときの撮影画像を抽出することができる。
Further, the state information received from the
候補画像送信部114は、抽出部123によって抽出された撮影画像を候補画像として端末装置4へ送信する。
The candidate
画像選択情報取得部115は、保育者によって選択された候補画像を示す画像選択情報を取得する。画像選択情報取得部115は、端末装置4によって送信された画像選択情報を受信する。
The image selection
日誌作成部124は、画像選択情報取得部115によって取得された画像選択情報に基づいて、保育者によって選択された候補画像を所定の日誌テンプレートに嵌め込んだ日誌画像を作成する。なお、日誌テンプレートは、記憶部13に予め記憶されている。
Based on the image selection information acquired by the image selection
日誌画像送信部116は、日誌作成部124によって作成された日誌画像を端末装置4へ送信する。
The diary
続いて、本実施の形態1におけるサーバ1の動作について説明する。
Subsequently, the operation of the
図7は、本開示の実施の形態1におけるサーバの動作について説明するためのフローチャートである。 FIG. 7 is a flowchart for explaining the operation of the server according to the first embodiment of the present disclosure.
まず、ステップS1において、生体情報取得部111は、生体情報測定装置3から子供の生体情報を取得する。なお、本実施の形態1では、複数の生体情報測定装置3のそれぞれから生体情報を取得する。
First, in step S <b> 1, the biological
次に、ステップS2において、撮影画像取得部112は、カメラ2から子供がいる空間内を撮影した撮影画像を取得する。このとき、撮影画像取得部112は、生体情報の取得タイミングに同期して撮影画像を取得する。これにより、生体情報を取得する時刻と撮影画像を取得する時刻とを一致させることができる。
Next, in step S <b> 2, the photographed
次に、ステップS3において、特定部121は、撮影画像取得部112によって取得された撮影画像内のコードを読み取る。
Next, in step S <b> 3, the specifying
次に、ステップS4において、特定部121は、撮影画像内に含まれる人物識別情報を特定する。
Next, in step S4, the specifying
次に、ステップS5において、記憶実行部122は、生体情報取得部111によって取得された生体情報と、特定部121によって特定された人物識別情報と、撮影画像取得部112によって取得された撮影画像とを対応付けて記憶部13の画像DB131に記憶する。
Next, in step S <b> 5, the
なお、子供に付されたコードがカメラ2の死角にあるため、生体情報が取得されたものの、撮影画像内に含まれる人物識別情報が特定されない場合がある。そのため、記憶実行部122は、特定部121によって特定された人物識別情報と、特定された人物識別情報に対応する生体情報と、特定された人物識別情報が含まれる撮影画像と、撮影画像及び生体情報が取得された時刻とを対応付けて画像DB131に記憶することが好ましい。
Note that since the code attached to the child is in the blind spot of the
次に、ステップS6において、日誌作成指示取得部113は、保育者により選択された子供の人物識別情報と、保育者により選択された子供の状態を示す状態情報とを含む日誌作成指示を端末装置4から取得したか否かを判断する。ここで、日誌作成指示を端末装置4から取得していないと判断された場合(ステップS6でNO)、ステップS1に処理が戻る。
Next, in step S <b> 6, the diary creation
図8は、本開示の実施の形態1において、端末装置における日誌作成指示の入力画面の一例を示す図である。 FIG. 8 is a diagram illustrating an example of a diary creation instruction input screen in the terminal device according to the first embodiment of the present disclosure.
端末装置4の表示部44は、子供の人物識別情報と、子供の状態を示す状態情報との入力を保育者から受け付ける際に、図8に示す入力画面を表示する。図8に示す入力画面は、子供の人物識別情報の入力を受け付けるための第1入力受付領域441と、子供の状態を示す状態情報の入力を受け付けるための第2入力受付領域442とを含む。
The
第1入力受付領域441には、予め登録されている子供の人物識別情報と、当該子供の名前と、当該子供の顔画像とを含む少なくとも1つの子供画像が選択可能に表示される。保育者は、第1入力受付領域441に表示される少なくとも1つの子供画像の中から、日誌を作成する1つの子供画像を選択する。なお、保育者は、第1入力受付領域441に対してスワイプ操作を行うことにより、複数の子供画像を表示することが可能であり、所望の子供画像をタップすることにより、日誌を作成する子供の人物識別情報を選択することが可能である。入力受付部43は、第1入力受付領域441に対する保育者の入力操作を受け付ける。
In the first
また、第2入力受付領域442には、少なくとも1つの状態情報が選択可能に表示される。例えば、図8では、保育者は、興奮度が高い状態を示す状態情報、興奮度が低い状態を示す状態情報、嬉しい状態を示す状態情報及び悲しい状態を示す状態情報のうちの1つの状態情報を選択することが可能である。保育者は、第2入力受付領域442に表示される少なくとも1つの状態情報の中から、日誌に載せる撮影画像を抽出するために必要な子供の状態を示す1つの状態情報を選択する。なお、保育者は、所望の状態情報をタップすることにより、子供の状態情報を選択することが可能である。これにより、保育者によって指定された子供の状態に合致した撮影画像が抽出されることになる。入力受付部43は、第2入力受付領域442に対する保育者の入力操作を受け付ける。
In addition, in the second
図9は、本開示の実施の形態1において、端末装置における日誌作成指示の送信画面の一例を示す図である。 FIG. 9 is a diagram illustrating an example of a diary creation instruction transmission screen in the terminal device according to the first embodiment of the present disclosure.
端末装置4の表示部44は、子供の人物識別情報と、子供の状態を示す状態情報とを含む日誌作成指示をサーバ1へ送信する際に、図9に示す送信画面を表示する。図9に示す送信画面は、保育者によって選択された人物識別情報と、保育者によって選択された状態情報と、日誌作成指示をサーバ1へ送信するか否かの入力を受け付けるための送信ボタン443とを含む。例えば、図9では、「子供ID−2」に対応する人物識別情報が選択され、興奮度が高い状態を示す状態情報が選択されている。保育者は、表示される人物識別情報及び状態情報で問題なければ、送信ボタン443をタップする。入力受付部43は、送信ボタン443に対する保育者の入力操作を受け付ける。保育者により送信ボタン443がタップされると、通信部41は、保育者によって入力された人物識別情報及び状態情報を含む日誌作成指示をサーバ1へ送信する。
The
図7に戻って、日誌作成指示を端末装置4から取得したと判断された場合(ステップS6でYES)、ステップS7において、日誌作成指示取得部113は、取得した日誌作成指示に含まれる人物識別情報及び状態情報を抽出部123へ出力する。
Returning to FIG. 7, when it is determined that the diary creation instruction has been acquired from the terminal device 4 (YES in step S6), in step S7, the diary creation
次に、ステップS8において、抽出部123は、日誌作成指示取得部113によって取得された人物識別情報と、日誌作成指示取得部113によって取得された状態情報に対応する生体情報とに対応付けられている撮影画像を記憶部13の画像DB131から抽出する。例えば、取得した状態情報が、興奮度が高い状態を示す場合、抽出部123は、取得した人物識別情報に対応付けられている撮影画像のうち、生体情報である心拍数が閾値以上である撮影画像を抽出する。
Next, in step S8, the
図10は、本開示の実施の形態1において、抽出部によって抽出される撮影画像について説明するための図である。 FIG. 10 is a diagram for describing a captured image extracted by the extraction unit in the first embodiment of the present disclosure.
図10に示すグラフは、縦軸が、取得された人物識別情報に対応する子供の心拍数を表し、横軸が、取得された人物識別情報に対応する子供の保育開始時刻から保育終了時刻までの時間を表している。心拍数は、生体情報であり、所定のタイミングで取得される。また、撮影画像も、心拍数が取得されるタイミングに同期して取得される。図10では、時刻tp、時刻tq及び時刻trにおいて、心拍数は、閾値以上となっている。この場合、抽出部123は、取得した人物識別情報に対応付けられている複数の撮影画像のうち、心拍数が閾値以上であった時刻tp,tq,trにおける撮影画像p1,p2,p3を抽出する。
In the graph shown in FIG. 10, the vertical axis represents the heart rate of the child corresponding to the acquired person identification information, and the horizontal axis represents from the childcare start time to the childcare end time corresponding to the acquired person identification information. Represents the time. The heart rate is biological information and is acquired at a predetermined timing. Also, the captured image is acquired in synchronization with the timing at which the heart rate is acquired. In FIG. 10, the heart rate is equal to or higher than the threshold at time tp, time tq, and time tr. In this case, the
図7に戻って、次に、ステップS9において、候補画像送信部114は、抽出部123によって抽出された撮影画像を候補画像として端末装置4へ送信する。端末装置4の通信部41は、サーバ1によって送信された候補画像を受信する。表示部44は、通信部41によって受信された候補画像を表示する。
Returning to FIG. 7, next, in step S <b> 9, the candidate
図11は、本開示の実施の形態1において、端末装置における候補画像の選択を受け付ける選択画面の一例を示す図である。 FIG. 11 is a diagram illustrating an example of a selection screen that accepts selection of a candidate image in the terminal device in the first embodiment of the present disclosure.
サーバ1によって送信された候補画像が受信されると、端末装置4の表示部44は、図11に示す選択画面を表示する。図11に示す選択画面は、子供の名前と、子供の状態と、今日の日付と、少なくとも1つの候補画像と、各候補画像が取得された時刻と、子供がどの程度興奮していたかを示す興奮度レベルとを含む。
When the candidate image transmitted by the
図11では、「Bちゃん」という子供の名前と、興奮度が高いことを示す子供の状態と、「2018年2月23日」という日付と、候補画像p1,p2,p3と、時刻tp,tq,trと、興奮度レベルとが表示されている。興奮度レベルは、心拍数の値の大きさに応じて表示される。これらの情報は、候補画像とともにサーバ1から受信される。すなわち、候補画像送信部114は、人物識別情報に対応する子供の名前と、状態情報と、今日の日付と、少なくとも1つの候補画像と、各候補画像に対応付けられている時刻と、各候補画像に対応付けられている生体情報とを端末装置4へ送信する。端末装置4の通信部41は、サーバ1によって送信されたこれらの情報を受信する。
In FIG. 11, the name of the child “B”, the state of the child indicating a high degree of excitement, the date “February 23, 2018”, the candidate images p1, p2, p3, and the time tp, tq, tr and the excitement level are displayed. The excitement level is displayed according to the magnitude of the heart rate value. These pieces of information are received from the
保育者は、選択画面に表示される複数の候補画像p1,p2,p3のうち、所望の候補画像をタップすることにより、日誌に載せる候補画像を選択する。入力受付部43は、候補画像に対する保育者の選択操作を受け付ける。保育者により候補画像がタップされると、通信部41は、選択された候補画像を示す画像選択情報をサーバ1へ送信する。なお、画像選択情報は、選択された候補画像であってもよいし、選択された候補画像を特定するための情報であってもよい。
The childcare person selects a candidate image to be put on the diary by tapping a desired candidate image among the plurality of candidate images p1, p2, and p3 displayed on the selection screen. The
図7に戻って、次に、ステップS10において、画像選択情報取得部115は、端末装置4によって送信された画像選択情報を取得する。
Returning to FIG. 7, next, in step S <b> 10, the image selection
次に、ステップS11において、日誌作成部124は、画像選択情報取得部115によって取得された画像選択情報により示される保育者によって選択された候補画像を所定の日誌テンプレートに嵌め込んだ日誌画像を作成する。日誌画像は、例えば、日誌を作成した今日の日付、及び保育者によって選択された候補画像を含む。なお、日誌画像に含まれる情報は、上記に限定されず、日誌画像は、保育者により書き込み可能な文字入力欄を含んでもよい。また、日誌作成部124は、作成した日誌画像を記憶部13に記憶してもよい。
Next, in step S11, the
次に、ステップS12において、日誌画像送信部116は、日誌作成部124によって作成された日誌画像を端末装置4へ送信する。端末装置4の通信部41は、サーバ1によって送信された日誌画像を受信する。表示部44は、通信部41によって受信された日誌画像を表示する。
Next, in step S <b> 12, the diary
サーバ1によって送信された日誌画像が受信されると、端末装置4の表示部44は、日誌画像を表示する。日誌画像が文字入力欄を含む場合、保育者は、日誌画像に表示される文字入力欄に文字を入力する。入力受付部43は、文字入力欄に対する保育者の入力操作を受け付ける。保育者により文字が入力されると、制御部42は、文字入力欄に文字が入力された日誌画像を記憶部(不図示)に記憶する。なお、通信部41は、文字入力欄に文字が入力された日誌画像をサーバ1へ送信してもよい。この場合、サーバ1の通信部11は、端末装置4によって送信された日誌画像を受信し、受信した日誌画像を記憶部13に記憶してもよい。
When the diary image transmitted by the
なお、制御部42によって、文字入力欄に文字が入力された日誌画像が記憶部に記憶された後、表示部44は、他の子供の人物識別情報と、他の子供の状態を示す状態情報との入力を保育者から受け付けるための入力画面(図8)を表示する。これにより、他の子供の日誌を作成することができる。
In addition, after the diary image in which the character is input in the character input field is stored in the storage unit by the
次に、ステップS13において、日誌作成部124は、全ての人物識別情報の日誌画像を作成したか否かを判断する。ここで、全ての人物識別情報の日誌画像を作成したと判断された場合(ステップS13でYES)、処理が終了する。
Next, in step S13, the
一方、全ての人物識別情報の日誌画像を作成していないと判断された場合(ステップS13でNO)、ステップS6に処理が戻る。 On the other hand, when it is determined that the diary image of all the person identification information has not been created (NO in step S13), the process returns to step S6.
このように、本実施の形態1では、子供が興味を持った遊び行動を特定することができるとともに、興味を持った遊び行動を行っていた際の子供の様子を示す画像を提供することができる。その結果、保育者による日誌の作成を補助することができ、日誌を作成する作業の効率化を図り、日誌を作成する作業を軽減することができる。 As described above, in the first embodiment, it is possible to specify the play behavior in which the child is interested, and to provide an image showing the state of the child when the play behavior is in interest. it can. As a result, it is possible to assist the creation of the diary by the childcare person, to improve the efficiency of the work of creating the diary, and to reduce the work of creating the diary.
なお、本実施の形態1では、特定部121は、撮影画像内のコードを読み取ることにより、人物識別情報を特定しているが、本開示は特にこれに限定されず、特定部121は、撮影画像内の子供(第1の人物)の顔を認証することにより、人物識別情報を特定してもよい。この場合、記憶部13は、子供の顔画像と、人物識別情報とを対応付けて予め記憶する。
In the first embodiment, the
(実施の形態2)
実施の形態1では、生体情報に基づいて抽出された撮影画像を端末装置に提示しているが、実施の形態2では、生体情報に基づいて抽出された撮影画像とともに、過去に保育者によって選択された撮影画像を端末装置に提示する。
(Embodiment 2)
In the first embodiment, the photographed image extracted based on the biological information is presented to the terminal device, but in the second embodiment, the photographed image extracted based on the biological information is selected by the childcare provider in the past. The captured image is presented to the terminal device.
図12は、本開示の実施の形態2におけるサーバの構成を示す図である。なお、本実施の形態2における情報処理システムの構成は、実施の形態1における情報処理システムの構成と同じである。また、実施の形態2において、実施の形態1と同じ構成については、同じ符号を付し、説明を省略する。また、本実施の形態2では、幼稚園又は保育園において、保育者が子供を保育し、子供の保育日誌が作成される例について説明する。 FIG. 12 is a diagram illustrating a configuration of a server according to the second embodiment of the present disclosure. The configuration of the information processing system in the second embodiment is the same as the configuration of the information processing system in the first embodiment. In the second embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted. In the second embodiment, an example will be described in which a childcare person raises a child and a childcare diary is created in a kindergarten or a nursery school.
図12に示すサーバ1Aは、通信部11A、制御部12A及び記憶部13Aを備える。
A server 1A illustrated in FIG. 12 includes a
通信部11Aは、生体情報取得部111、撮影画像取得部112、日誌作成指示取得部113、候補画像送信部114A、画像選択情報取得部115及び日誌画像送信部116を備える。制御部12Aは、例えば、CPUであり、特定部121、記憶実行部122、抽出部123A、日誌作成部124及び履歴画像記憶実行部125を備える。記憶部13Aは、例えば、半導体メモリであり、画像DB131及び履歴画像DB132を備える。
The
履歴画像DB132は、過去の撮影画像と、撮影画像を取得した日付と、人物識別情報とを対応付けて記憶する。
The
履歴画像記憶実行部125は、抽出した撮影画像と、撮影画像を取得した日付と、日誌作成指示取得部113によって取得された人物識別情報とを対応付けて履歴画像DB132に記憶する。本実施の形態2では、履歴画像記憶実行部125は、抽出部123Aによって抽出された撮影画像のうち、端末装置4において選択された撮影画像、すなわち、画像選択情報取得部115によって取得された画像選択情報によって特定される候補画像と、当該候補画像を用いて日誌画像を作成した日付と、取得された人物識別情報とを対応付けて履歴画像DB132に記憶する。なお、履歴画像記憶実行部125は、抽出部123Aによって抽出された撮影画像を履歴画像DB132に記憶してもよい。
The history image
抽出部123Aは、日誌作成指示取得部113によって取得された人物識別情報と、日誌作成指示取得部113によって取得された状態情報に対応する生体情報とに対応付けられている撮影画像を記憶部13の画像DB131から抽出する。
The
また、抽出部123Aは、画像選択情報取得部115によって取得された人物識別情報に対応付けられている過去の候補画像を履歴画像として履歴画像DB132から抽出する。
The
候補画像送信部114Aは、抽出部123Aによって抽出された撮影画像を候補画像として端末装置4へ送信するとともに、抽出部123Aによって抽出された履歴画像を端末装置4へ送信する。
The candidate
続いて、本実施の形態2におけるサーバ1Aの動作について説明する。 Next, the operation of the server 1A in the second embodiment will be described.
図13は、本開示の実施の形態2におけるサーバの動作について説明するためのフローチャートである。 FIG. 13 is a flowchart for explaining the operation of the server according to the second embodiment of the present disclosure.
なお、ステップS21〜ステップS26の処理は、図7に示すステップS1〜ステップS6の処理と同じであるので説明を省略する。 In addition, since the process of step S21-step S26 is the same as the process of step S1-step S6 shown in FIG. 7, description is abbreviate | omitted.
日誌作成指示を端末装置4から取得したと判断された場合(ステップS26でYES)、ステップS27において、日誌作成指示取得部113は、取得した日誌作成指示に含まれる人物識別情報及び状態情報を抽出部123Aへ出力する。
When it is determined that a diary creation instruction has been acquired from the terminal device 4 (YES in step S26), in step S27, the diary creation
次に、ステップS28において、抽出部123Aは、日誌作成指示取得部113によって取得された人物識別情報と、日誌作成指示取得部113によって取得された状態情報に対応する生体情報とに対応付けられている撮影画像を記憶部13Aの画像DB131から抽出する。例えば、取得した状態情報が、興奮度が高い状態を示す場合、抽出部123Aは、取得した人物識別情報に対応付けられている撮影画像のうち、生体情報である心拍数が閾値以上である撮影画像を抽出する。
Next, in step S <b> 28, the
次に、ステップS29において、抽出部123Aは、画像選択情報取得部115によって取得された人物識別情報に対応付けられている過去の撮影画像を履歴画像として履歴画像DB132から抽出する。このとき、抽出部123Aは、例えば、過去の所定日数分の履歴画像を抽出する。所定日数は、例えば、3日である。抽出部123Aは、例えば、前日の履歴画像、2日前の履歴画像、及び3日前の履歴画像を抽出する。
Next, in step S29, the
次に、ステップS30において、候補画像送信部114Aは、抽出部123Aによって抽出された撮影画像を候補画像として端末装置4へ送信するとともに、抽出部123Aによって抽出された履歴画像を端末装置4へ送信する。端末装置4の通信部41は、サーバ1Aによって送信された候補画像及び履歴画像を受信する。表示部44は、通信部41によって受信された候補画像及び履歴画像を表示する。
Next, in step S30, the candidate
図14は、本開示の実施の形態2において、端末装置における候補画像の選択を受け付ける選択画面の一例を示す図である。 FIG. 14 is a diagram illustrating an example of a selection screen for accepting selection of a candidate image in the terminal device in the second embodiment of the present disclosure.
サーバ1Aによって送信された候補画像及び履歴画像が受信されると、端末装置4の表示部44は、図14に示す選択画面を表示する。図14に示す選択画面は、子供の名前と、子供の状態と、今日の日付と、少なくとも1つの候補画像と、各候補画像が取得された時刻と、子供がどの程度興奮していたかを示す興奮度レベルと、少なくとも1つの履歴画像とを含む。
When the candidate image and the history image transmitted by the server 1A are received, the
図14では、「Bちゃん」という子供の名前と、興奮度が高いことを示す子供の状態と、「2018年2月23日」という日付と、候補画像p1,p2,p3と、時刻tp,tq,trと、興奮度レベルとが表示されている。興奮度レベルは、心拍数の値の大きさに応じて表示される。また、図14では、履歴画像p20,p21,p22と、「2月20日」、「2月21日」及び「2月22日」という履歴画像p20,p21,p22が撮影された日付とが表示されている。これらの情報は、候補画像とともにサーバ1Aから受信される。すなわち、候補画像送信部114Aは、人物識別情報に対応する子供の名前と、状態情報と、今日の日付と、少なくとも1つの候補画像と、各候補画像に対応付けられている時刻と、各候補画像に対応付けられている生体情報と、少なくとも1つの履歴画像とを端末装置4へ送信する。端末装置4の通信部41は、サーバ1Aによって送信されたこれらの情報を受信する。
In FIG. 14, the name of the child “B-chan”, the state of the child indicating that the degree of excitement is high, the date “February 23, 2018”, the candidate images p1, p2, p3, and the time tp, tq, tr and the excitement level are displayed. The excitement level is displayed according to the magnitude of the heart rate value. In FIG. 14, the history images p20, p21, and p22 and the dates on which the history images p20, p21, and p22 of “February 20”, “February 21”, and “February 22” were taken are shown. It is displayed. These pieces of information are received from the server 1A together with the candidate images. That is, the candidate
保育者は、選択画面に表示される複数の候補画像p1,p2,p3のうち、所望の候補画像をタップすることにより、日誌に載せる候補画像を選択する。このとき、保育者は、履歴画像p20,p21,p22を確認することにより、過去の画像と重複しないように、所望の候補画像を選択することができる。入力受付部43は、候補画像に対する保育者の選択操作を受け付ける。保育者により候補画像がタップされると、通信部41は、選択された候補画像を示す画像選択情報をサーバ1Aへ送信する。なお、画像選択情報は、選択された候補画像であってもよいし、選択された候補画像を特定するための情報であってもよい。
The childcare person selects a candidate image to be put on the diary by tapping a desired candidate image among the plurality of candidate images p1, p2, and p3 displayed on the selection screen. At this time, the childcare person can select desired candidate images so as not to overlap with past images by confirming the history images p20, p21, and p22. The
図13に戻って、ステップS31〜ステップS33の処理は、図7に示すステップS10〜ステップS12の処理と同じであるので説明を省略する。 Returning to FIG. 13, the processing of step S31 to step S33 is the same as the processing of step S10 to step S12 shown in FIG.
次に、ステップS34において、履歴画像記憶実行部125は、取得された画像選択情報により示される保育者によって選択された候補画像と、当該候補画像を用いて日誌画像を作成した日付と、日誌作成指示取得部113によって取得された人物識別情報とを対応付けて履歴画像DB132に記憶する。
Next, in step S34, the history image
ステップS35の処理は、図7に示すステップS13の処理と同じであるので説明を省略する。 The process of step S35 is the same as the process of step S13 shown in FIG.
このように、本実施の形態2では、抽出された撮影画像が候補画像として端末装置4へ送信されるとともに、抽出された履歴画像が端末装置4へ送信され、日誌に載せる候補画像とともに、過去に選択された履歴画像が保育者に提示されるので、保育者は、履歴画像を確認することにより、過去の画像と重複しないように、所望の候補画像を選択することができる。その結果、保育者による日誌の作成を補助することができる。
As described above, in the second embodiment, the extracted captured image is transmitted as a candidate image to the
(実施の形態3)
実施の形態1では、生体情報に基づいて抽出された撮影画像を端末装置に提示しているが、実施の形態3では、生体情報に基づいて抽出された撮影画像とともに、当該撮影画像が撮影された際に子供が興味を持っていた遊具に関する情報を端末装置に提示する。
(Embodiment 3)
In
図15は、本開示の実施の形態3におけるサーバの構成を示す図である。なお、本実施の形態3における情報処理システムの構成は、実施の形態1における情報処理システムの構成と同じである。また、実施の形態3において、実施の形態1と同じ構成については、同じ符号を付し、説明を省略する。また、本実施の形態3では、幼稚園又は保育園において、保育者が子供を保育し、子供の保育日誌が作成される例について説明する。 FIG. 15 is a diagram illustrating a configuration of a server according to the third embodiment of the present disclosure. The configuration of the information processing system in the third embodiment is the same as the configuration of the information processing system in the first embodiment. In the third embodiment, the same components as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted. In the third embodiment, an example will be described in which a childcare person raises a child and a childcare diary is created in a kindergarten or nursery school.
図15に示すサーバ1Bは、通信部11B、制御部12B及び記憶部13Bを備える。
A server 1B illustrated in FIG. 15 includes a communication unit 11B, a
通信部11Bは、生体情報取得部111、撮影画像取得部112、日誌作成指示取得部113、候補画像送信部114B、画像選択情報取得部115及び日誌画像送信部116を備える。制御部12Bは、例えば、CPUであり、特定部121B、記憶実行部122B、抽出部123B及び日誌作成部124を備える。記憶部13Bは、例えば、半導体メモリであり、画像DB131Bを備える。
The communication unit 11B includes a biological
特定部121Bは、撮影画像取得部112によって取得された撮影画像に基づいて、子供を識別するための人物識別情報を特定する。特定部121Bは、撮影画像取得部112によって取得された撮影画像内の子供の顔を認証することにより、撮影画像内に含まれる人物識別情報を特定する。この場合、記憶部13Bは、子供の顔画像と、人物識別情報とを対応付けて予め記憶する。また、特定部121Bは、撮影画像内の子供(第1の人物)の位置をさらに特定する。例えば、特定部121Bは、撮影画像内において、認証された子供の顔が存在する位置座標を、撮影画像内の子供の位置として特定する。
The specifying
また、特定部121Bは、撮影画像取得部112によって取得された撮影画像に基づいて、遊具を識別するための遊具識別情報を特定する。遊具は、例えば、積み木、絵本又はブランコ等であり、子供と同じ空間内に存在している。遊具識別情報を有するコードが、遊具の表面に付されている。特定部121Bは、撮影画像内のコードを読み取ることにより、撮影画像内に含まれる遊具識別情報を特定する。また、特定部121Bは、撮影画像内の遊具の位置をさらに特定する。例えば、特定部121Bは、撮影画像内において、読み取られた遊具が存在する位置座標を、撮影画像内の遊具の位置として特定する。また、特定部121Bは、取得した現在の撮影画像よりも時間的に前に取得した過去の撮影画像内の遊具の位置をさらに特定する。
Further, the specifying
なお、コードとしては、例えば、上述のカラービットが用いられる。カラービットは、複数の色のセルを連続して配列したものであり、遊具識別情報が所定の規格に基づいて変換されることにより生成される。特定部121Bは、撮影画像内のカラービットをデコードすることにより、遊具識別情報を得る。カラービットの特徴としては、撮影画像内のカラービットの位置を特定することができるとともに、撮影画像内の複数のカラービットを一括して読み取ることができる。そのため、撮影画像内の複数のカラービットを読み取ることにより、複数の遊具の遊具識別情報及び位置情報を特定することができる。
As the code, for example, the above-described color bit is used. The color bit is a series of cells of a plurality of colors, and is generated by converting playground equipment identification information based on a predetermined standard. The specifying
また、本実施の形態3では、特定部121Bは、撮影画像内の子供の顔を認証することにより、撮影画像内に含まれる人物識別情報を特定しているが、本開示は特にこれに限定されず、遊具識別情報と同様に、人物識別情報を有するコードが、人物の表面に付されていてもよく、特定部121Bは、撮影画像内のコードを読み取ることにより、撮影画像内に含まれる人物識別情報を特定してもよい。
In the third embodiment, the identifying
さらに、本実施の形態3では、特定部121Bは、撮影画像内のコードを読み取ることにより、遊具識別情報を特定しているが、本開示は特にこれに限定されず、特定部121Bは、撮影画像内の遊具を画像認証することにより、遊具識別情報を特定してもよい。この場合、記憶部13Bは、遊具の画像と、遊具識別情報とを対応付けて予め記憶する。
Furthermore, in
記憶実行部122Bは、特定部121Bによって特定された人物識別情報と、生体情報取得部111によって取得された生体情報と、撮影画像取得部112によって取得された撮影画像と、特定部121Bによって特定された遊具識別情報とを対応付けて記憶部13Bの画像DB131Bに記憶する。
The
図16は、本開示の実施の形態3における画像DBのデータ構造の一例を示す図である。図16の「子供ID−1」は、特定の子供の人物識別情報を表している。 FIG. 16 is a diagram illustrating an example of a data structure of the image DB according to the third embodiment of the present disclosure. “Child ID-1” in FIG. 16 represents person identification information of a specific child.
画像DB131Bは、人物識別情報毎に、撮影画像と、生体情報と、時刻と、遊具識別情報とを対応付けて記憶している。撮影画像は、当該撮影画像が格納されているファイル名を表し、時刻は、撮影画像及び生体情報がサーバ1Bにおいて取得された時刻を表している。なお、時刻は、カメラ2及び生体情報測定装置3が撮影画像及び生体情報をサーバ1Bに送信した時刻であってもよい。また、生体情報は、例えば、心拍数などの数値である。遊具識別情報は、特定部121Bによって特定された遊具識別情報を表している。
The image DB 131B stores a captured image, biological information, time, and playground equipment identification information in association with each other for each person identification information. The photographed image represents the name of a file in which the photographed image is stored, and the time represents the time when the photographed image and the biological information are acquired in the server 1B. The time may be the time when the
記憶実行部122Bは、子供(第1の人物)の位置と遊具の位置との距離が所定の閾値より短く、かつ位置が移動している遊具の遊具識別情報と、人物識別情報と、生体情報と、撮影画像とを対応付けて画像DB131Bに記憶する。
The
ここで、子供がどの遊具に興味を持って遊んでいるのかを特定する必要がある。そのため、記憶実行部122Bは、撮影画像内における子供の位置と、撮影画像内における遊具の位置との距離が所定の閾値より短く、かつ位置が移動している遊具を、当該子供が興味を持って遊んでいる遊具として推定する。遊具の位置が移動しているか否かの判断は、現在の撮影画像内の遊具の位置と、現在の撮影画像よりも時間的に前に取得した過去の撮影画像内の遊具の位置とを比較することにより行われる。なお、記憶実行部122Bは、撮影画像内における子供の位置と、撮影画像内における遊具の位置との距離が最も短く、かつ位置が移動している遊具を、当該子供が興味を持って遊んでいる遊具として推定してもよい。このように、子供の近くに存在し、かつ位置が移動している遊具を、当該子供が興味を持って遊んでいる遊具として推定する。
Here, it is necessary to specify which play equipment the child is interested in. Therefore, the
また、記憶実行部122Bは、撮影画像内における子供の位置と、撮影画像内における遊具の位置との距離が所定の閾値より短い遊具を、当該子供が興味を持って遊んでいる遊具として推定してもよい。なお、記憶実行部122Bは、撮影画像内における子供の位置と、撮影画像内における遊具の位置との距離が最も短い遊具を、当該子供が興味を持って遊んでいる遊具として推定してもよい。このように、単に子供の近くに存在する遊具を、当該子供が興味を持って遊んでいる遊具として推定してもよい。
Further, the
さらに、特定部121Bによって1つの遊具識別情報のみが特定された場合、当該遊具識別情報で示される遊具を用いて子供が遊んでいると推定することができる。そのため、特定部121Bによって1つの遊具識別情報のみが特定された場合、記憶実行部122Bは、特定された1つの遊具識別情報と、人物識別情報と、生体情報と、撮影画像とを対応付けて画像DB131Bに記憶してもよい。
Furthermore, when only one playground equipment identification information is specified by the
抽出部123Bは、日誌作成指示取得部113によって取得された人物識別情報と、日誌作成指示取得部113によって取得された状態情報に対応する生体情報とに対応付けられている撮影画像及び遊具識別情報を記憶部13Bの画像DB131Bから抽出する。
The
候補画像送信部114Bは、抽出部123Bによって抽出された撮影画像を候補画像として端末装置4へ送信するとともに、撮影画像とともに抽出された遊具識別情報を端末装置4へ送信する。
The candidate
続いて、本実施の形態3におけるサーバ1Bの動作について説明する。 Subsequently, the operation of the server 1B in the third embodiment will be described.
図17は、本開示の実施の形態3におけるサーバの動作について説明するためのフローチャートである。 FIG. 17 is a flowchart for explaining the operation of the server according to the third embodiment of the present disclosure.
なお、ステップS41〜ステップS44の処理は、図7に示すステップS1〜ステップS4の処理と同じであるので説明を省略する。 In addition, since the process of step S41-step S44 is the same as the process of step S1-step S4 shown in FIG. 7, description is abbreviate | omitted.
次に、ステップS45において、特定部121Bは、撮影画像内に含まれる遊具識別情報を特定する。
Next, in step S45, the specifying
次に、ステップS46において、記憶実行部122Bは、生体情報取得部111によって取得された生体情報と、特定部121Bによって特定された人物識別情報と、撮影画像取得部112によって取得された撮影画像と、特定部121Bによって特定された遊具識別情報とを対応付けて記憶部13Bの画像DB131Bに記憶する。このとき、記憶実行部122Bは、子供の位置と遊具の位置との距離が所定の閾値より短く、かつ位置が移動している遊具の遊具識別情報と、人物識別情報と、生体情報と、撮影画像とを対応付けて画像DB131Bに記憶する。
Next, in step S46, the
ステップS47〜ステップS48の処理は、図7に示すステップS6〜ステップS7の処理と同じであるので説明を省略する。 Since the process of step S47-step S48 is the same as the process of step S6-step S7 shown in FIG. 7, description is abbreviate | omitted.
次に、ステップS49において、抽出部123Bは、日誌作成指示取得部113によって取得された人物識別情報と、日誌作成指示取得部113によって取得された状態情報に対応する生体情報とに対応付けられている撮影画像及び遊具識別情報を記憶部13Bの画像DB131Bから抽出する。例えば、取得した状態情報が、興奮度が高い状態を示す場合、抽出部123Bは、取得した人物識別情報に対応付けられている撮影画像及び遊具識別情報のうち、生体情報である心拍数が閾値以上である撮影画像及び遊具識別情報を抽出する。
Next, in step S49, the
次に、ステップS50において、候補画像送信部114Bは、抽出部123Bによって抽出された撮影画像を候補画像として端末装置4へ送信するとともに、抽出部123Bによって抽出された遊具識別情報を端末装置4へ送信する。端末装置4の通信部41は、サーバ1Bによって送信された候補画像及び遊具識別情報を受信する。表示部44は、通信部41によって受信された候補画像及び遊具識別情報を表示する。
Next, in step S50, the candidate image transmission unit 114B transmits the captured image extracted by the
図18は、本開示の実施の形態3において、端末装置における候補画像の選択を受け付ける選択画面の一例を示す図である。 FIG. 18 is a diagram illustrating an example of a selection screen that accepts selection of a candidate image in the terminal device in the third embodiment of the present disclosure.
サーバ1Bによって送信された候補画像及び遊具識別情報が受信されると、端末装置4の表示部44は、図18に示す選択画面を表示する。図18に示す選択画面は、子供の名前と、子供の状態と、今日の日付と、少なくとも1つの候補画像と、各候補画像が取得された時刻と、子供がどの程度興奮していたかを示す興奮度レベルと、各候補画像内で子供が利用している遊具を示す遊具識別情報とを含む。
When the candidate image and playground equipment identification information transmitted by the server 1B are received, the
図18では、「Bちゃん」という子供の名前と、興奮度が高いことを示す子供の状態と、「2018年2月23日」という日付と、候補画像p1,p2,p3と、時刻tp,tq,trと、興奮度レベルとが表示されている。興奮度レベルは、心拍数の値の大きさに応じて表示される。また、図18では、「積み木」、「絵本」及び「ブランコ」という遊具識別情報が、各候補画像p1,p2,p3の上部に表示されている。これらの情報は、候補画像とともにサーバ1Bから受信される。すなわち、候補画像送信部114Bは、人物識別情報に対応する子供の名前と、状態情報と、今日の日付と、少なくとも1つの候補画像と、各候補画像に対応付けられている時刻と、各候補画像に対応付けられている生体情報と、候補画像に対応付けられている遊具識別情報とを端末装置4へ送信する。端末装置4の通信部41は、サーバ1Bによって送信されたこれらの情報を受信する。
In FIG. 18, the name of the child “B-chan”, the state of the child indicating that the degree of excitement is high, the date “February 23, 2018”, the candidate images p1, p2, p3, and the time tp, tq, tr and the excitement level are displayed. The excitement level is displayed according to the magnitude of the heart rate value. Also, in FIG. 18, playground equipment identification information “building blocks”, “picture books”, and “swings” is displayed at the top of each candidate image p1, p2, p3. These pieces of information are received from the server 1B together with the candidate images. That is, the candidate image transmission unit 114B has a child name corresponding to the person identification information, state information, today's date, at least one candidate image, a time associated with each candidate image, and each candidate. The biometric information associated with the image and the playground equipment identification information associated with the candidate image are transmitted to the
保育者は、選択画面に表示される複数の候補画像p1,p2,p3のうち、所望の候補画像をタップすることにより、日誌に載せる候補画像を選択する。このとき、保育者は、表示される遊具識別情報により、子供がどのような遊具に興味を持っていたのかを確認しながら、所望の候補画像を選択することができる。入力受付部43は、候補画像に対する保育者の選択操作を受け付ける。保育者により候補画像がタップされると、通信部41は、選択された候補画像を示す画像選択情報をサーバ1Bへ送信する。なお、画像選択情報は、選択された候補画像であってもよいし、選択された候補画像を特定するための情報であってもよい。
The childcare person selects a candidate image to be put on the diary by tapping a desired candidate image among the plurality of candidate images p1, p2, and p3 displayed on the selection screen. At this time, the childcare worker can select a desired candidate image while confirming which playground equipment the child is interested in from the displayed playground equipment identification information. The
図17に戻って、ステップS51〜ステップS54の処理は、図7に示すステップS10〜ステップS13の処理と同じであるので説明を省略する。 Returning to FIG. 17, the processing of step S51 to step S54 is the same as the processing of step S10 to step S13 shown in FIG.
このように、本実施の形態3では、抽出された撮影画像が候補画像として端末装置4へ送信されるとともに、抽出された遊具識別情報が端末装置4へ送信され、日誌に載せる候補画像とともに、遊具識別情報が保育者に提示されるので、保育者は、子供が興味を持った遊具を確認しながら、所望の候補画像を選択することができる。その結果、保育者による日誌の作成を補助することができる。
Thus, in the third embodiment, the extracted captured image is transmitted as a candidate image to the
また、本実施の形態3に上記の実施の形態2を組み合わせてもよい。すなわち、本実施の形態3において、抽出された撮影画像が候補画像として端末装置4へ送信されるとともに、抽出された履歴画像及び遊具識別情報が端末装置4へ送信され、日誌に載せる候補画像とともに、過去に選択された履歴画像及び遊具識別情報が保育者に提示されてもよい。
Further, the second embodiment may be combined with the third embodiment. That is, in the third embodiment, the extracted captured image is transmitted as a candidate image to the
また、本実施の形態1〜3では、第1の人物が子供であり、第2の人物が保育者であり、幼稚園又は保育園において、保育者が子供を保育し、子供の保育日誌が作成される例について説明しているが、本開示は特にこれに限定されず、第1の人物が高齢者などの被介護者であり、第2の人物が介護者であり、デイサービスセンター又は老人ホーム等の福祉施設において、介護者が被介護者を介護し、被介護者の介護日誌が作成される例にも適用可能である。 In the first to third embodiments, the first person is a child, the second person is a childcare person, and the childcare person raises the child in the kindergarten or the daycare, and the childcare diary is created. However, the present disclosure is not particularly limited to this, and the first person is a care recipient such as an elderly person, the second person is a caregiver, and a day service center or a nursing home. The present invention can also be applied to an example in which a caregiver cares for a cared person and a care diary for the cared person is created in a welfare facility such as.
以上、本開示の装置について、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の一つまたは複数の態様の範囲内に含まれてもよい。 Although the device of the present disclosure has been described based on the embodiment, the present disclosure is not limited to this embodiment. Unless it deviates from the gist of the present disclosure, one or more of the present disclosure may be applied to various modifications conceived by those skilled in the art in the present embodiment, or forms configured by combining components in different embodiments. It may be included within the scope of the embodiments.
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 In each of the above embodiments, each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
本開示の実施の形態に係る装置の機能の一部又は全ては典型的には集積回路であるLSI(Large Scale Integration)として実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Part or all of the functions of the device according to the embodiments of the present disclosure are typically realized as an LSI (Large Scale Integration) that is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them. Further, the circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
また、本開示の実施の形態に係る装置の機能の一部又は全てを、CPU等のプロセッサがプログラムを実行することにより実現してもよい。 Moreover, you may implement | achieve part or all of the function of the apparatus which concerns on embodiment of this indication, when processors, such as CPU, run a program.
また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示は例示された数字に制限されない。 Moreover, all the numbers used above are illustrated for specifically explaining the present disclosure, and the present disclosure is not limited to the illustrated numbers.
また、上記フローチャートに示す各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、同様の効果が得られる範囲で上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。 Further, the order in which the steps shown in the flowchart are executed is for illustrating the present disclosure specifically, and may be in an order other than the above as long as the same effect can be obtained. . Also, some of the above steps may be executed simultaneously (in parallel) with other steps.
さらに、本開示の主旨を逸脱しない限り、本開示の各実施の形態に対して当業者が思いつく範囲内の変更を施した各種変形例も本開示に含まれる。 Furthermore, the present disclosure also includes various modifications in which the embodiments of the present disclosure are modified within the scope conceived by those skilled in the art without departing from the gist of the present disclosure.
本開示に係る情報処理方法、情報処理装置及び情報処理システムは、第1の人物が興味を持った行動を特定することができるとともに、興味を持った行動を行っていた際の第1の人物の様子を示す画像を提供することができ、所定の画像を抽出する情報処理方法、情報処理装置及び情報処理システムとして有用である。 The information processing method, the information processing apparatus, and the information processing system according to the present disclosure can identify an action that the first person is interested in, and the first person who is performing the action that is interested It is useful as an information processing method, an information processing apparatus, and an information processing system for extracting a predetermined image.
1,1A,1B サーバ
2 カメラ
3 生体情報測定装置
4 端末装置
5 ネットワーク
11,11A,11B 通信部
12,12A,12B 制御部
13,13A,13B 記憶部
21 撮影部
22 制御部
23 通信部
31 生体情報測定部
32 制御部
33 通信部
41 通信部
42 制御部
43 入力受付部
44 表示部
111 生体情報取得部
112 撮影画像取得部
113 日誌作成指示取得部
114,114A,114B 候補画像送信部
115 画像選択情報取得部
116 日誌画像送信部
121,121B 特定部
122,122B 記憶実行部
123,123A,123B 抽出部
124 日誌作成部
125 履歴画像記憶実行部
131,131B 画像DB
132 履歴画像DB
1, 1A,
132 History image DB
Claims (13)
第1の人物の生体情報を取得し、
前記生体情報の取得タイミングに同期して、前記第1の人物を撮影した画像を取得し、
前記画像に基づいて、前記第1の人物を識別するための人物識別情報を特定し、
特定した前記人物識別情報と、取得した前記生体情報と、取得した前記画像とを対応付けて記憶部に記憶し、
前記第1の人物とは異なる第2の人物により選択された前記第1の人物の前記人物識別情報と、前記第2の人物により選択された前記第1の人物の状態を示す状態情報とを取得し、
取得した前記人物識別情報と、取得した前記状態情報に対応する前記生体情報とに対応付けられている前記画像を前記記憶部から抽出する、
情報処理方法。 Computer
Obtaining biometric information of the first person,
In synchronization with the acquisition timing of the biometric information, obtain an image of the first person,
Identifying person identification information for identifying the first person based on the image;
The identified person identification information, the acquired biometric information, and the acquired image are associated with each other and stored in a storage unit,
The person identification information of the first person selected by a second person different from the first person, and state information indicating the state of the first person selected by the second person Acquired,
Extracting the image associated with the acquired person identification information and the biological information corresponding to the acquired state information from the storage unit;
Information processing method.
請求項1記載の情報処理方法。 The state information includes psychological state information indicating a psychological state of the first person.
The information processing method according to claim 1.
請求項1又は2記載の情報処理方法。 Further, the extracted image is transmitted to the terminal device used by the second person.
The information processing method according to claim 1 or 2.
さらに、取得した前記人物識別情報に対応付けられている過去の前記画像を履歴画像として前記記憶部から抽出する、
請求項1又は2記載の情報処理方法。 Further, the extracted image, the date when the image was acquired, and the acquired person identification information are associated with each other and stored in the storage unit,
Furthermore, the past image associated with the acquired person identification information is extracted from the storage unit as a history image.
The information processing method according to claim 1 or 2.
請求項4記載の情報処理方法。 Further, together with the extracted image, the extracted history image is transmitted to the terminal device used by the second person.
The information processing method according to claim 4.
前記人物識別情報の特定は、前記画像内の前記コードを読み取ることにより、前記人物識別情報を特定する、
請求項1〜5のいずれか1項に記載の情報処理方法。 A code having the person identification information is attached to a surface of the first person;
The identification of the person identification information identifies the person identification information by reading the code in the image.
The information processing method according to claim 1.
請求項1〜5のいずれか1項に記載の情報処理方法。 The identification of the person identification information is performed by identifying the person identification information by authenticating the face of the first person in the image.
The information processing method according to claim 1.
前記記憶は、前記人物識別情報と前記生体情報と前記画像と前記遊具識別情報とを対応付けて前記記憶部に記憶し、
前記抽出は、取得した前記人物識別情報と、取得した前記状態情報に対応する前記生体情報とに対応付けられている前記画像及び前記遊具識別情報を前記記憶部から抽出する、
請求項1〜7のいずれか1項に記載の情報処理方法。 Further, based on the image, the play equipment identification information for identifying the play equipment is specified,
The storage stores the person identification information, the biological information, the image, and the play equipment identification information in association with each other in the storage unit,
The extraction extracts the image and the playground equipment identification information associated with the acquired person identification information and the biological information corresponding to the acquired state information from the storage unit,
The information processing method according to claim 1.
前記遊具識別情報の特定は、前記画像内の前記コードを読み取ることにより、前記遊具識別情報を特定する、
請求項8記載の情報処理方法。 A code having the playground equipment identification information is attached to the surface of the playground equipment,
The specification of the playground equipment identification information specifies the playground equipment identification information by reading the code in the image.
The information processing method according to claim 8.
前記遊具識別情報の特定は、前記画像内の前記遊具の位置をさらに特定するとともに、取得した前記画像よりも時間的に前に取得した過去画像内の前記遊具の位置をさらに特定し、
前記記憶は、前記第1の人物の位置と前記画像内の前記遊具の位置との距離が所定の閾値より短く、かつ位置が移動している前記遊具の前記遊具識別情報と、前記人物識別情報と、前記生体情報と、前記画像とを対応付けて前記記憶部に記憶する、
請求項8又は9記載の情報処理方法。 The identification of the person identification information further specifies the position of the first person in the image,
The specification of the playground equipment identification information further specifies the position of the playground equipment in the image, and further specifies the position of the playground equipment in the past image acquired temporally before the acquired image,
The memory stores the play equipment identification information of the play equipment in which the distance between the position of the first person and the position of the play equipment in the image is shorter than a predetermined threshold and the position is moving, and the person identification information. And storing the biometric information and the image in the storage unit in association with each other.
The information processing method according to claim 8 or 9.
前記遊具識別情報の特定は、前記画像内の前記遊具の位置をさらに特定し、
前記記憶は、前記第1の人物の位置と前記遊具の位置との距離が所定の閾値より短い前記遊具の前記遊具識別情報と、前記人物識別情報と、前記生体情報と、前記画像とを対応付けて前記記憶部に記憶する、
請求項8又は9記載の情報処理方法。 The identification of the person identification information further specifies the position of the first person in the image,
The specification of the play equipment identification information further specifies the position of the play equipment in the image,
The memory associates the playground equipment identification information of the playground equipment, the person identification information, the biological information, and the image, wherein the distance between the position of the first person and the position of the playground equipment is shorter than a predetermined threshold. To store in the storage unit,
The information processing method according to claim 8 or 9.
プロセッサと、
メモリと、
を備え、
前記通信部が、第1の人物の生体情報を取得し、
前記通信部が、前記生体情報の取得タイミングに同期して、前記第1の人物を撮影した画像を取得し、
前記プロセッサが、前記画像に基づいて、前記第1の人物を識別するための人物識別情報を特定し、
前記プロセッサが、特定した前記人物識別情報と、取得した前記生体情報と、取得した前記画像とを対応付けて前記メモリに記憶し、
前記通信部が、前記第1の人物とは異なる第2の人物により選択された前記第1の人物の前記人物識別情報と、前記第2の人物により選択された前記第1の人物の状態を示す状態情報とを取得し、
前記プロセッサが、取得した前記人物識別情報と、取得した前記状態情報に対応する前記生体情報とに対応付けられている前記画像を前記メモリから抽出する、
情報処理装置。 A communication department;
A processor;
Memory,
With
The communication unit obtains biometric information of the first person;
The communication unit acquires an image obtained by photographing the first person in synchronization with the acquisition timing of the biological information,
The processor identifies person identification information for identifying the first person based on the image;
The processor stores the identified person identification information, the acquired biological information, and the acquired image in the memory in association with each other,
The communication unit displays the person identification information of the first person selected by a second person different from the first person, and the state of the first person selected by the second person. Status information
The processor extracts the image associated with the acquired person identification information and the biometric information corresponding to the acquired state information from the memory;
Information processing device.
前記カメラは、
第1の人物を撮影する撮影部と、
前記撮影部によって撮影された画像を前記情報処理装置へ送信する送信部と、
を備え、
前記生体情報測定装置は、
前記第1の人物の生体情報を測定する測定部と、
前記測定部によって測定された前記生体情報を前記情報処理装置へ送信する送信部と、
を備え、
前記情報処理装置は、
記憶部と、
前記生体情報測定装置によって送信された前記生体情報を取得する第1取得部と、
前記生体情報の取得タイミングに同期して、前記カメラによって送信された前記画像を取得する第2取得部と、
前記画像に基づいて、前記第1の人物を識別するための人物識別情報を特定する特定部と、
特定した前記人物識別情報と、取得した前記生体情報と、取得した前記画像とを対応付けて前記記憶部に記憶する記憶実行部と、
前記第1の人物とは異なる第2の人物により選択された前記第1の人物の前記人物識別情報と、前記第2の人物により選択された前記第1の人物の状態を示す状態情報とを前記端末装置から取得する第3取得部と、
取得された前記人物識別情報と、取得された前記状態情報に対応する前記生体情報とに対応付けられている前記画像を前記記憶部から抽出する抽出部と、
抽出された前記画像を前記端末装置へ送信する送信部と、
を備え、
前記端末装置は、
前記第1の人物の前記人物識別情報と、前記第1の人物の状態を示す前記状態情報との前記第2の人物による入力を受け付ける入力受付部と、
入力された前記人物識別情報と前記状態情報とを前記情報処理装置へ送信する送信部と、
前記情報処理装置によって送信された前記画像を受信する受信部と、
前記受信部によって受信された前記画像を表示する表示部と、
を備える、
情報処理システム。 An information processing system comprising a camera, a biological information measuring device, an information processing device, and a terminal device,
The camera
A photographing unit for photographing the first person;
A transmission unit that transmits an image captured by the imaging unit to the information processing apparatus;
With
The biological information measuring device includes:
A measuring unit for measuring biological information of the first person;
A transmission unit that transmits the biological information measured by the measurement unit to the information processing device;
With
The information processing apparatus includes:
A storage unit;
A first acquisition unit for acquiring the biological information transmitted by the biological information measuring device;
A second acquisition unit that acquires the image transmitted by the camera in synchronization with the acquisition timing of the biological information;
A specifying unit for specifying person identification information for identifying the first person based on the image;
A storage execution unit that stores the identified person identification information, the acquired biological information, and the acquired image in association with each other in the storage unit;
The person identification information of the first person selected by a second person different from the first person, and state information indicating the state of the first person selected by the second person A third acquisition unit that acquires from the terminal device;
An extraction unit that extracts the image associated with the acquired person identification information and the biological information corresponding to the acquired state information from the storage unit;
A transmission unit for transmitting the extracted image to the terminal device;
With
The terminal device
An input receiving unit that receives input by the second person of the person identification information of the first person and the state information indicating the state of the first person;
A transmission unit for transmitting the input person identification information and the state information to the information processing apparatus;
A receiving unit for receiving the image transmitted by the information processing apparatus;
A display unit for displaying the image received by the receiving unit;
Comprising
Information processing system.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018071841A JP7034808B2 (en) | 2018-04-03 | 2018-04-03 | Information processing method, information processing device and information processing system |
US16/284,506 US10952658B2 (en) | 2018-04-03 | 2019-02-25 | Information processing method, information processing device, and information processing system |
CN201910171151.6A CN110351326B (en) | 2018-04-03 | 2019-03-07 | Information processing method, information processing apparatus, and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018071841A JP7034808B2 (en) | 2018-04-03 | 2018-04-03 | Information processing method, information processing device and information processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019185188A true JP2019185188A (en) | 2019-10-24 |
JP7034808B2 JP7034808B2 (en) | 2022-03-14 |
Family
ID=68057538
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018071841A Active JP7034808B2 (en) | 2018-04-03 | 2018-04-03 | Information processing method, information processing device and information processing system |
Country Status (3)
Country | Link |
---|---|
US (1) | US10952658B2 (en) |
JP (1) | JP7034808B2 (en) |
CN (1) | CN110351326B (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021092945A (en) * | 2019-12-10 | 2021-06-17 | 株式会社ベネッセコーポレーション | Information processing device, program and information processing method |
US20230036375A1 (en) * | 2021-07-29 | 2023-02-02 | Fujifilm Corporation | Information processing apparatus, information processing method, and information processing program |
JP7507400B2 (en) | 2020-06-25 | 2024-06-28 | パナソニックIpマネジメント株式会社 | Target interest estimation system, target interest estimation device, target interest estimation method, and program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11232685B1 (en) * | 2018-12-04 | 2022-01-25 | Amazon Technologies, Inc. | Security system with dual-mode event video and still image recording |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004213623A (en) * | 2002-11-25 | 2004-07-29 | Eastman Kodak Co | Imaging method and system for health management and personal security |
JP2005039508A (en) * | 2003-07-14 | 2005-02-10 | Nec Corp | Child care monitoring system, method for monitoring child care and computer program |
JP2005305631A (en) * | 2004-03-25 | 2005-11-04 | Nec Corp | Robot and its controlling method |
JP2006051317A (en) * | 2004-08-13 | 2006-02-23 | Research Institute Of Human Engineering For Quality Life | Emotion transmission system |
JP2006080644A (en) * | 2004-09-07 | 2006-03-23 | Toshiba Tec Corp | Camera |
JP2014026428A (en) * | 2012-07-26 | 2014-02-06 | Hybridmom Llc | Supervising system |
WO2016202166A1 (en) * | 2015-06-16 | 2016-12-22 | 杭州萤石网络有限公司 | Smart home video monitoring method and device |
JP2017504153A (en) * | 2013-12-19 | 2017-02-02 | フィリップス ライティング ホールディング ビー ヴィ | Lighting control based on interaction with toys in playground |
JP2020502698A (en) * | 2016-10-11 | 2020-01-23 | アンファン テリブル デザイン アーベー | Monitoring system |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001125662A (en) * | 1999-08-18 | 2001-05-11 | Fujitsu Ltd | Extension device with authentication information input means for information processor, authentication information input unit, and information processor |
JP2004234355A (en) * | 2003-01-30 | 2004-08-19 | Toshiba Corp | Human body recognition device, human body recognition method and passing controller |
JP2006133937A (en) * | 2004-11-04 | 2006-05-25 | Fuji Xerox Co Ltd | Behavior identifying device |
JP2006209376A (en) * | 2005-01-27 | 2006-08-10 | Oki Electric Ind Co Ltd | Individual identification system for use at counter |
JP4624933B2 (en) * | 2005-03-16 | 2011-02-02 | 富士フイルム株式会社 | IMAGING DEVICE, IMAGING METHOD, ALBUM CREATION DEVICE, ALBUM CREATION METHOD, ALBUM CREATION SYSTEM, AND PROGRAM |
JP2006293912A (en) * | 2005-04-14 | 2006-10-26 | Toshiba Corp | Information display system, information display method and portable terminal device |
JP5172167B2 (en) * | 2006-02-15 | 2013-03-27 | 株式会社東芝 | Person recognition device and person recognition method |
JP5152570B2 (en) | 2008-03-06 | 2013-02-27 | 株式会社デンソー | Automotive user hospitality system |
DE102008040258A1 (en) * | 2008-07-08 | 2010-01-14 | Psylock Gmbh | Method and device for improving biometric identification systems |
JP2010146095A (en) * | 2008-12-16 | 2010-07-01 | Toyota Motor Corp | Biometric authentication system |
JP2010282148A (en) * | 2009-06-08 | 2010-12-16 | Brother Ind Ltd | Image display, image display method, and image display program |
JP2011090620A (en) * | 2009-10-26 | 2011-05-06 | Hitachi Omron Terminal Solutions Corp | Bio-information read unit and personal identification apparatus |
JP5549504B2 (en) * | 2010-09-27 | 2014-07-16 | ブラザー工業株式会社 | Image processing program and image processing apparatus |
JP5625692B2 (en) * | 2010-09-30 | 2014-11-19 | セイコーエプソン株式会社 | Biological motion information display processing device, biological motion information processing system, server device for biological information processing, biological motion information display device, and program |
WO2013161072A1 (en) * | 2012-04-27 | 2013-10-31 | トヨタ自動車株式会社 | Device for calculating amount of retained physical activity, method for calculating amount of retained physical activity and system for calculating amount of retained physical activity |
JP6040640B2 (en) * | 2012-08-29 | 2016-12-07 | 株式会社バッファロー | Image processing apparatus and program |
CN103413270A (en) * | 2013-08-15 | 2013-11-27 | 北京小米科技有限责任公司 | Method and device for image processing and terminal device |
JP5735592B2 (en) * | 2013-08-28 | 2015-06-17 | ヤフー株式会社 | Information processing apparatus, control method, and control program |
JP6281164B2 (en) | 2013-12-25 | 2018-02-21 | 株式会社国際電気通信基礎技術研究所 | Play action recognition system, play action recognition program, play action recognition method, and play action recognition apparatus |
JP6150019B2 (en) * | 2014-09-30 | 2017-06-21 | 日本電気株式会社 | Usage control system, personal information management system, and terminal device |
CN104361276B (en) * | 2014-11-18 | 2017-07-18 | 新开普电子股份有限公司 | A kind of multi-modal biological characteristic identity identifying method and system |
JP5991496B2 (en) * | 2014-11-21 | 2016-09-14 | 株式会社NttデータSms | Monitoring system, monitoring method, and program |
WO2016170810A1 (en) | 2015-04-23 | 2016-10-27 | ソニー株式会社 | Information processing device, control method, and program |
JP6815104B2 (en) * | 2015-12-28 | 2021-01-20 | 大和ハウス工業株式会社 | Video display device and video display method |
US10559142B2 (en) * | 2016-02-01 | 2020-02-11 | Allied Telesis Holdings K.K. | Information processing system |
KR102314241B1 (en) * | 2017-03-28 | 2021-10-20 | 삼성전자주식회사 | Method for adaptive authentication and electronic device supporting the same |
-
2018
- 2018-04-03 JP JP2018071841A patent/JP7034808B2/en active Active
-
2019
- 2019-02-25 US US16/284,506 patent/US10952658B2/en active Active
- 2019-03-07 CN CN201910171151.6A patent/CN110351326B/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004213623A (en) * | 2002-11-25 | 2004-07-29 | Eastman Kodak Co | Imaging method and system for health management and personal security |
JP2005039508A (en) * | 2003-07-14 | 2005-02-10 | Nec Corp | Child care monitoring system, method for monitoring child care and computer program |
JP2005305631A (en) * | 2004-03-25 | 2005-11-04 | Nec Corp | Robot and its controlling method |
JP2006051317A (en) * | 2004-08-13 | 2006-02-23 | Research Institute Of Human Engineering For Quality Life | Emotion transmission system |
JP2006080644A (en) * | 2004-09-07 | 2006-03-23 | Toshiba Tec Corp | Camera |
JP2014026428A (en) * | 2012-07-26 | 2014-02-06 | Hybridmom Llc | Supervising system |
JP2017504153A (en) * | 2013-12-19 | 2017-02-02 | フィリップス ライティング ホールディング ビー ヴィ | Lighting control based on interaction with toys in playground |
WO2016202166A1 (en) * | 2015-06-16 | 2016-12-22 | 杭州萤石网络有限公司 | Smart home video monitoring method and device |
JP2020502698A (en) * | 2016-10-11 | 2020-01-23 | アンファン テリブル デザイン アーベー | Monitoring system |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021092945A (en) * | 2019-12-10 | 2021-06-17 | 株式会社ベネッセコーポレーション | Information processing device, program and information processing method |
JP7577442B2 (en) | 2019-12-10 | 2024-11-05 | 株式会社ベネッセコーポレーション | Information processing device, program, and information processing method |
JP7507400B2 (en) | 2020-06-25 | 2024-06-28 | パナソニックIpマネジメント株式会社 | Target interest estimation system, target interest estimation device, target interest estimation method, and program |
US20230036375A1 (en) * | 2021-07-29 | 2023-02-02 | Fujifilm Corporation | Information processing apparatus, information processing method, and information processing program |
Also Published As
Publication number | Publication date |
---|---|
CN110351326A (en) | 2019-10-18 |
US20190298241A1 (en) | 2019-10-03 |
CN110351326B (en) | 2023-06-30 |
US10952658B2 (en) | 2021-03-23 |
JP7034808B2 (en) | 2022-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110780707B (en) | Information processing apparatus, information processing method, and computer readable medium | |
CN110351326B (en) | Information processing method, information processing apparatus, and information processing system | |
Zhong et al. | Regionspeak: Quick comprehensive spatial descriptions of complex images for blind users | |
CN105190480A (en) | Information processing device and information processing method | |
JP2007287014A (en) | Image processing apparatus and image processing method | |
JP2013157984A (en) | Method for providing ui and video receiving apparatus using the same | |
JP6649005B2 (en) | Robot imaging system and image management method | |
JP2019096328A (en) | Information processing device, information processing method, and program | |
Brandenburg et al. | The development and accuracy testing of CommFit™, an iPhone application for individuals with aphasia | |
EP2871606A1 (en) | Information communication method and information communication apparatus | |
US20230049225A1 (en) | Emotion tag assigning system, method, and program | |
JP2017080197A (en) | Information processing device, information processing method and program | |
JP2008269411A (en) | Image keyword editing system, image keyword provision server and image keyword editing device | |
JP2019093152A (en) | Information processing device, information processing method and program | |
JP6375597B2 (en) | Network system, server, program, and training support method | |
JP7206741B2 (en) | HEALTH CONDITION DETERMINATION SYSTEM, HEALTH CONDITION DETERMINATION DEVICE, SERVER, HEALTH CONDITION DETERMINATION METHOD, AND PROGRAM | |
JP6256738B2 (en) | Movie selection device, movie selection method and program | |
JP6958795B1 (en) | Information processing methods, computer programs and information processing equipment | |
JP2017080199A (en) | Information processing device, information processing method and program | |
JP6466032B2 (en) | Patient information providing system, patient information providing method and program | |
JP2003162188A5 (en) | ||
JP2012226085A (en) | Electronic apparatus, control method and control program | |
JP6324284B2 (en) | Group learning system | |
JP6063697B2 (en) | Apparatus, method and program for image display | |
JP2017080200A (en) | Information processing device, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201013 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211019 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220302 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7034808 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |