WO2017168545A1 - センサ表示装置、センサ表示方法及びプログラム - Google Patents
センサ表示装置、センサ表示方法及びプログラム Download PDFInfo
- Publication number
- WO2017168545A1 WO2017168545A1 PCT/JP2016/060040 JP2016060040W WO2017168545A1 WO 2017168545 A1 WO2017168545 A1 WO 2017168545A1 JP 2016060040 W JP2016060040 W JP 2016060040W WO 2017168545 A1 WO2017168545 A1 WO 2017168545A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- sensor
- graph
- display device
- time
- timing
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 226
- 230000007958 sleep Effects 0.000 claims description 39
- 230000000694 effects Effects 0.000 claims description 36
- 238000010586 diagram Methods 0.000 description 50
- 238000004891 communication Methods 0.000 description 33
- 230000001133 acceleration Effects 0.000 description 18
- 230000010365 information processing Effects 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 230000036387 respiratory rate Effects 0.000 description 3
- 230000004622 sleep time Effects 0.000 description 2
- 0 **C1=CC=CC1 Chemical compound **C1=CC=CC1 0.000 description 1
- GDOPTJXRTPNYNR-UHFFFAOYSA-N CC1CCCC1 Chemical compound CC1CCCC1 GDOPTJXRTPNYNR-UHFFFAOYSA-N 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 230000002503 metabolic effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/743—Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1116—Determining posture transitions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1118—Determining activity level
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/22—Ergometry; Measuring muscular strength or the force of a muscular blow
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4806—Sleep evaluation
- A61B5/4809—Sleep detection, i.e. determining whether a subject is asleep or not
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4806—Sleep evaluation
- A61B5/4812—Detecting sleep stages or cycles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
- A61B5/6804—Garments; Clothes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6898—Portable consumer electronic devices, e.g. music players, telephones, tablet computers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
Definitions
- the present invention relates to a technique for performing display based on a measurement result by a sensor.
- a certain patent document discloses a technique for calculating an activity index and a metabolic index using a device equipped with an electroencephalogram sensor and a body motion sensor, and displaying these indices as a graph of a time zone that goes back 25 hours from the present. ing.
- JP 2006-129877 A Japanese Patent Application Laid-Open No. 2008-6005
- An object of the present invention is, in one aspect, to provide a sensor display device, a sensor display method, and a program that perform an output that is easy to guess a user's situation up to a predetermined timing.
- a first specifying unit that specifies a sensor value within a predetermined time range retroactively from a timing, a second timing at which the user is scheduled to start work, or a third timing at which the user is scheduled to end work; and (B) A display device that displays the specified sensor value or the calculated value based on the specified sensor value in time series.
- FIG. 1 is a diagram illustrating a hardware configuration example of the sensor device.
- FIG. 2A is a diagram illustrating an example of a connection form.
- FIG. 2B is a diagram illustrating an example of a connection form.
- FIG. 3 is a diagram illustrating an example of a graph.
- FIG. 4 is a diagram illustrating a module configuration example of the information processing apparatus.
- FIG. 5 is a diagram illustrating an example of the first table.
- FIG. 6 is a diagram illustrating an example of the second table.
- FIG. 7 is a diagram illustrating an example of the third table.
- FIG. 8 is a diagram showing a main process (A) flow.
- FIG. 9 is a diagram illustrating an acquisition process (A) flow.
- FIG. 10 is a diagram showing an acquisition process (B) flow.
- FIG. 11 is a diagram showing a flow of the first specifying process (A).
- FIG. 12 is a diagram showing a first drawing processing (A) flow.
- FIG. 13 is a diagram illustrating an example of a graph in the second embodiment.
- FIG. 14 is a diagram showing a flow of the main process (B).
- FIG. 15 is a diagram showing a flow of the second specifying process (A).
- FIG. 16 is a diagram showing a flow of the first drawing process (B).
- FIG. 17 is a diagram illustrating an example of a graph in the third embodiment.
- FIG. 18 is a diagram illustrating an example of the first table in the third embodiment.
- FIG. 19 is a diagram showing a flow of the second specifying process (B).
- FIG. 20 is a diagram showing a first drawing process (C) flow.
- FIG. 21 is a diagram illustrating an example of a graph in the fourth embodiment.
- FIG. 22 is a diagram showing a flow of the first specifying process (B).
- FIG. 23 is a diagram illustrating an example of a graph according to the fourth embodiment.
- FIG. 24 is a diagram illustrating an example of a graph according to the fourth embodiment.
- FIG. 25 is a diagram illustrating an example of a graph according to the fifth embodiment.
- FIG. 26 is a diagram showing a first drawing process (D) flow.
- FIG. 27 is a diagram illustrating an example of a graph according to the sixth embodiment.
- FIG. 28 is a diagram showing a first drawing process (E) flow.
- FIG. 29 is a diagram illustrating an example of a graph according to the seventh embodiment.
- FIG. 29 is a diagram illustrating an example of a graph according to the seventh embodiment.
- FIG. 30 is a diagram showing a flow of the first specifying process (C).
- FIG. 31 is a diagram illustrating an example of a graph according to the seventh embodiment.
- FIG. 32 is a diagram illustrating an example of a graph according to the seventh embodiment.
- FIG. 33 is a diagram illustrating an example of a graph according to the eighth embodiment.
- FIG. 34 is a diagram showing a first drawing process (F) flow.
- FIG. 35 is a diagram illustrating an example of a graph according to the ninth embodiment.
- FIG. 36 is a diagram showing a first drawing process (G) flow.
- FIG. 37 is a diagram illustrating an example of a graph according to the tenth embodiment.
- FIG. 38 is a diagram showing a first drawing process (H) flow.
- FIG. 39 is a diagram illustrating an example of a graph according to the eleventh embodiment.
- FIG. 40 is a diagram showing a first drawing process (I) flow.
- FIG. 41 is a diagram illustrating an example of a graph according to the twelfth embodiment.
- FIG. 42 is a diagram showing a main process (C) flow.
- FIG. 43 is a diagram illustrating an example of a graph according to the thirteenth embodiment.
- FIG. 44 is a diagram showing a main processing (D) flow.
- FIG. 45 is a diagram illustrating an example of a graph according to the fourteenth embodiment.
- FIG. 46 is a diagram showing a main processing (E) flow.
- FIG. 47 is a diagram illustrating an example of a graph according to the fifteenth embodiment.
- FIG. 48 is a diagram showing a main processing (F) flow.
- FIG. 49 is a functional block diagram of a computer.
- FIG. 1 shows a hardware configuration example of the sensor device 101.
- the sensor device 101 measures acceleration.
- the sensor device 101 is attached to a belt or trousers and attached to the user's waist.
- the sensor device 101 may be mounted on other parts (head, neck, chest, abdomen, back, arms, legs, etc.).
- a wearable terminal or a mobile phone terminal may be used instead of the sensor device 101 shown in FIG.
- the sensor device 101 includes an arithmetic device 103, an acceleration sensor 105, a storage unit 107, a clock 109, and a communication interface device 111.
- the arithmetic device 103 performs various arithmetic processes.
- the acceleration sensor 105 measures acceleration.
- the storage unit 107 stores various data and programs.
- the clock 109 measures the date and time.
- the communication interface device 111 is, for example, a wireless IC (Integrated Circuit) tag or a USB (Universal Serial Bus) interface device.
- the communication interface device 111 may be an interface device related to other short-range wireless communication.
- the sensor device 101 accumulates acceleration data with the measurement date and time, that is, acceleration time-series data. Then, the acceleration time series data is output via the communication interface device 111.
- the sensor device 101 may calculate the amount of activity of the user based on the time series data of acceleration.
- the sensor device 101 may output time series data of the calculated activity amount via the communication interface device 111.
- the method for calculating the amount of activity is based on the prior art.
- the sensor device 101 may determine the posture of the user based on the time series data of acceleration.
- the sensor device 101 may output the time-series data of the determined posture via the communication interface device 111.
- the position determination method is based on the prior art.
- the sensor device 101 may be a sensor other than the acceleration sensor 105 as long as the sensor device 101 can measure a user's activity and sleep state.
- a radio wave sensor that can detect the movement of a body such as the heart or the lung, a sensor that can detect a pulse or a respiration, a radio wave sensor that can detect the movement of the body itself, an image sensor, and the like.
- the sensor device 101 may accumulate time series data related to heart rate, respiratory rate, and / or body movement, and may output the data via the communication interface device 111.
- the measured data may be output via the communication interface device 111, and the heart rate, respiratory rate and / or body movement may be detected by another computer and accumulated as time series data.
- the user wearing the sensor device 101 is, for example, a railway or automobile driver.
- the manager grasps the activity status of the driver who is going to be engaged in the operation, and makes the operation safe.
- FIG. 2A shows an example of a connection form.
- the information processing apparatus 201 reads data directly from the sensor apparatus 101.
- the sensor device 101 stores the read time.
- the connection form is as shown in FIG. 2B.
- Data stored in the sensor device 101 is once read by the user terminal 203, and the data is transferred from the user terminal 203 to the information processing device 201. Therefore, the user terminal 203 includes a reading device corresponding to the communication interface device 111 of the sensor device 101, and performs data transmission via the network.
- the network is, for example, the Internet, a dedicated line, or a LAN (Local Area Network).
- the user terminal 203 is, for example, a mobile phone terminal or a tablet terminal.
- the user terminal 203 stores the read time and transmits the time together with the data to be transferred.
- FIG. 2B shows an example in which the user terminal 203 and the information processing apparatus 201 are separate apparatuses, it is not necessary to limit to such a connection form.
- a function for executing this embodiment of the information processing apparatus 201 may be implemented in the user terminal 203.
- the information processing apparatus 201 When the information processing apparatus 201 receives an instruction to display a graph from the administrator, the information processing apparatus 201 displays a graph representing the amount of activity retroactive to 24 hours from the read time.
- the manager can later check the situation of the driving driver.
- the manager can later check the situation of the driver at the time of departure. If the data is read in the connection form shown in FIG. 2A when it arrives at the sales office, the manager can check the situation of the driver who is driving.
- Figure 3 shows an example of the graph.
- the right end corresponds to the reading time.
- the amount of activity from the time point that is 24 hours after the reading time point is represented by a bar graph 301. For example, if it departs at 12:00, the manager can know how the driver was working before the departure. On the other hand, if it arrives at 12:00, the manager can know at what timing the driver took a break on the way.
- a user such as a machine operator, a supervisor, or a medical worker may use the sensor device 101. This is the end of the description of the outline of the present embodiment.
- FIG. 4 shows a module configuration example of the information processing apparatus 201.
- the information processing apparatus 201 includes a detection unit 401, an acquisition unit 403, a first specification unit 405, a second specification unit 407, a drawing unit 409, a display processing unit 411, a first calculation unit 413, a second calculation unit 415, and a clock unit 417.
- the detection unit 401 detects the sensor device 101.
- the acquisition unit 403 acquires time series data.
- the first specifying unit 405 specifies the display period.
- the second specifying unit 407 specifies the sleep period.
- the drawing unit 409 draws a graph.
- the display processing unit 411 performs processing for displaying display parts such as graphs and boxes. By the display processing in the display processing unit 411, for example, an image of a graph stored in the image buffer 437 is displayed on the display device 455.
- the display processing unit 411 is an example of an output processing unit.
- the first calculation unit 413 calculates the length of the first period from the time when the user wakes up to the scheduled start time of work.
- the second calculation unit 415 calculates the length of the second period from the time when the user wakes up to the scheduled end time of work.
- the clock unit 417 measures the current time.
- the detection unit 401, the acquisition unit 403, the first specification unit 405, the second specification unit 407, the drawing unit 409, the display processing unit 411, the first calculation unit 413, the second calculation unit 415, and the clock unit 417 described above are hardware components. This is realized using a resource (for example, FIG. 49) and a program for causing a processor to execute processing described below.
- the first table storage unit 431 stores the first table.
- the first table will be described later with reference to FIG.
- the second table storage unit 433 stores the second table.
- the second table will be described later with reference to FIG.
- the third table storage unit 435 stores the third table.
- the third table will be described later with reference to FIG.
- the image buffer 437 stores an image of the drawn graph.
- first table storage unit 431, second table storage unit 433, third table storage unit 435, and image buffer 437 are realized using hardware resources (for example, FIG. 49).
- the communication interface device 451 communicates with the communication interface device 111 of the sensor device 101.
- the communication interface device 451 is, for example, a wireless IC tag reading device or a USB interface.
- the communication interface device 451 may be an interface device related to other short-range wireless communication.
- the network communication device 453 performs communication via a network.
- the display device 455 displays, for example, a graph or a box by display processing.
- the display device 455 has a normal function of displaying an image, and may be a general-purpose device.
- FIG. 5 shows an example of the first table.
- the first table in this example has a record corresponding to the acceleration measurement time.
- the record of the first table includes a field for storing date and time, a field for storing acceleration, a field for storing activity, a field for storing posture, a field for storing events, and a user status Are stored.
- the date and time specify the timing at which the acceleration was measured.
- the posture is, for example, a prone position, a supine position, a lateral position, and a standing position.
- the event is either falling asleep or awakening.
- the user's state is either an awake state or a sleep state.
- falling asleep means having switched from the awakening state to the sleeping state.
- Awakening means switching from a sleep state to an awake state.
- FIG. 6 shows an example of the second table.
- the 2nd table has a record corresponding to a user (for example, driver).
- the record of the second table has a field for storing a user ID and a field for storing a communication interface ID.
- the communication interface ID identifies the communication interface device 111 of the sensor device 101 used by the user. It is assumed that the second table is provided in advance before the processing of this embodiment is executed.
- FIG. 7 shows an example of the third table.
- the third table has a record corresponding to the user.
- the record in the third table has a field for storing a user ID, a field for storing a scheduled work start time, and a field for storing a scheduled work end time. It is assumed that the third table is provided in advance before the processing described below is executed.
- the third table is used in the fourth and subsequent embodiments.
- FIG. 8 shows a main process (A) flow.
- the detection unit 401 stands by, detects the sensor device 101, and identifies the user (S801). Specifically, the communication interface device 451 of the information processing device 201 communicates with the communication interface device 111 of the sensor device 101. Based on the second table, the detection unit 401 identifies the user ID corresponding to the ID of the communication interface device 111 received in the communication.
- the acquisition unit 403 executes an acquisition process (S803).
- acquisition process time series data used for analysis is obtained from the sensor device 101.
- FIG. 9 shows an acquisition process (A) flow.
- the acquisition process (A) is based on the premise that the sensor device 101 calculates the amount of activity and further determines the posture.
- the acquisition unit 403 acquires time-series data of the activity amount by the communication interface device 451 (S901). Further, the acquisition unit 403 acquires time-series data of the posture by the communication interface device 451 (S903).
- the display is performed based only on the time series data of the activity amount, the time series data of the body position may not be acquired.
- the acquisition process (A) is completed, the process returns to the caller's main process (A).
- the acquisition process (B) may be executed instead of the acquisition process (A) shown in FIG.
- the acquisition process (B) only time series data of acceleration is acquired. Therefore, the sensor device 101 does not have to calculate the amount of activity. Further, the sensor device 101 may not determine the posture.
- FIG. 10 shows an acquisition process (B) flow.
- the acquisition unit 403 acquires time series data of acceleration by the communication interface device 451 (S1001).
- the second specifying unit 407 calculates time-series data of activity based on the time-series data of acceleration (S1003).
- the method for calculating the amount of activity is based on the prior art.
- the second specifying unit 407 obtains time-series data of body posture based on the time-series data of acceleration (S1005).
- the position determination method is based on the prior art. When the analysis is performed based only on the time series data of the activity amount, the time series data of the body position may not be obtained.
- the acquisition process (B) is completed, the process returns to the caller's main process (A).
- the data acquired by the acquisition process (A) or the acquisition process (B) is stored in the first table storage unit 431 illustrated in FIG.
- the time series data and the reading time are received by the network communication device 453 in the acquisition process shown in S803.
- the acquisition form in S901 and S903 is data reception.
- the acquisition form in S1001 is data reception.
- the user is specified by receiving the user ID.
- the first specifying unit 405 executes the first specifying process (S805).
- the display period is specified.
- FIG. 11 shows a flow of the first specific process (A).
- the first specifying unit 405 sets the reading time as the end point of the display period (S1101).
- the first specifying unit 405 specifies the start point of the display period that is a predetermined time (24 hours in this example) from the end point of the display period (S1103).
- the process returns to the caller's main process (A).
- the display processing unit 411 displays a time scale from the start time to the end time in the time area on the display screen (S807). Specifically, the time scale is displayed on the display device 455.
- the drawing unit 409 executes the first drawing process (S809).
- drawing in the first graph area is performed.
- FIG. 12 shows a first drawing process (A) flow.
- the drawing unit 409 draws the bar graph 301 that represents the amount of activity in the display period in time series (S1201).
- the drawn graph is accumulated in the image buffer 437.
- the process returns to the caller's main process (A).
- the display processing unit 411 displays the drawn graph (S811).
- the bar graph 301 drawn in the first drawing process (A) is displayed on the display device 455. Then, the main process ends.
- each graph drawn in the first drawing process and the second drawing process described later is displayed in S811.
- the past activity amount can be expressed based on the time when the data is read regardless of the timing of displaying the graph.
- the sleep period is displayed as a band graph.
- FIG. 13 shows an example of the graph in the second embodiment.
- a band graph 1301 represents a sleep period.
- FIG. 14 shows a main process (B) flow.
- the processing from S801 to S805 is the same as in the case of FIG.
- the second specifying unit 407 executes the second specifying process (S1401). In the second specifying process, the sleep period is specified.
- FIG. 15 shows a second specific process (A) flow.
- the second specifying unit 407 determines, for each measurement time point, whether the sleep state or the awake state is based on the time-series data of the activity amount and / or the time-series data of the body position (S1501).
- specification part 407 is either a sleep state or a wakeful state from the time series data of a heart rate and / or a respiratory rate, and / or a body motion. It may be determined.
- specification part 407 specifies the sleep period when a sleep state continues (S1503).
- the second specifying process (A) is completed, the process returns to the caller's main process (B).
- the first drawing process (B) is executed instead of the first drawing process (A).
- FIG. 16 shows a first drawing process (B) flow.
- the drawing unit 409 draws the bar graph 301 representing the amount of activity in the display period in time series (S1601).
- the drawing unit 409 draws a band graph 1301 representing the sleep period included in the display period (S1603). All the drawn graphs are accumulated in the image buffer 437.
- the process returns to the caller's main process (B).
- step S811 the display processing unit 411 displays the drawn graph.
- the bar graph 301 and the band graph 1301 drawn in the first drawing process (B) are displayed on the display device 455.
- the display mode is distinguished according to the depth of sleep.
- FIG. 17 shows an example of the graph in the third embodiment.
- a band graph 1701 represents a shallow sleep time zone (hereinafter referred to as a first time zone).
- a band graph 1703 represents a deep sleep time period (hereinafter referred to as a second time period).
- FIG. 18 shows an example of the first table in the third embodiment.
- a sleep state is distinguished into a shallow sleep state and a deep sleep state.
- the main process (B) is executed.
- the first specifying process (A) is executed.
- the second specifying process (B) is executed instead of the second specifying process (A).
- FIG. 19 shows a flow of the second specifying process (B).
- the second specifying unit 407 determines, for each measurement time point, whether it is an awake state, a shallow sleep state, or a deep sleep state based on the time series data of activity and / or the time series data of body position (S1901). .
- specification part 407 specifies the 1st time slot
- the first drawing process (C) is executed in S809.
- FIG. 20 shows a first drawing process (C) flow.
- the drawing unit 409 draws the bar graph 301 that represents the amount of activity in the display period in time series (S2001).
- the drawing unit 409 draws a band graph 1701 representing the first time zone included in the display period and a band graph 1703 similarly representing the second time zone (S2003). All the drawn graphs are accumulated in the image buffer 437.
- the process returns to the caller's main process (B).
- step S811 the display processing unit 411 displays the drawn graph.
- the bar graph 301, the band graph 1701, and the band graph 1703 drawn in the first drawing process (C) are displayed on the display device 455.
- the past sleep state can be expressed based on the time when the data is read, regardless of the timing at which the graph is displayed.
- the graph is displayed based on the scheduled work start time. In the following embodiments, it is assumed that the user reads the data of the sensor device 101 before starting work.
- FIG. 21 shows an example of the graph in the fourth embodiment.
- the terminal on the right side corresponds to the scheduled work start time (in this example, 14:00).
- the amount of activity from the point of 24 hours after the scheduled work start time is represented by a bar graph 301.
- the manager can easily imagine the situation until the driver leaves.
- the main process (A) is executed. Then, in S805 shown in FIG. 8, the first specifying process (B) is executed.
- FIG. 22 shows the flow of the first specific process (B).
- the first specifying unit 405 reads the work schedule data of the user from the first table (S2201).
- the first specifying unit 405 sets the scheduled start time of work as the end point of the display period (S2203).
- the first specifying unit 405 specifies the start point of the display period that is a predetermined time back from the end point of the display period (S2205).
- the process returns to the caller's main process (A).
- the first drawing process (A) is executed in S809 shown in FIG.
- the display processing unit 411 displays the drawn graph.
- the bar graph 301 drawn in the first drawing process (A) is displayed on the display device 455.
- FIG. 23 shows the case where the first specifying process (B) is executed in S805, the second specifying process (A) is executed in S1401, and the first drawing process (B) is executed in S809 in the main process (B).
- An example of the graph is shown.
- FIG. 24 shows a case where the first specifying process (B) is executed in S805, the second specifying process (B) is executed in S1401, and the first drawing process (C) is executed in S809 in the main process (B). An example of the graph is shown.
- the waiting period until the start of work is represented by a band graph.
- FIG. 25 shows an example of the graph in the fifth embodiment.
- a band graph 2551 represents a standby period until the start of work (in this example, 12:00 to 14:00). If the waiting period is visualized, for example, the manager can easily imagine how the physical condition of the driver changes based on the scheduled departure time.
- the main process (B) is executed.
- the first specifying process (B) is executed, and in S1401, the second specifying process (A) is executed.
- the first drawing process (D) is executed.
- FIG. 26 shows a first drawing process (D) flow.
- the drawing unit 409 draws the bar graph 301 representing the amount of activity in the display period in time series (S2601).
- the drawing unit 409 draws a band graph 1301 representing the sleep period included in the display period (S2603).
- the drawing unit 409 draws a band graph 2551 representing the waiting period from the reading time to the scheduled work start time (S2605).
- the process returns to the caller main process (B).
- the display processing unit 411 displays the drawn graph.
- the bar graph 301, the band graph 1301, and the band graph 2551 drawn in the first drawing process (D) are displayed on the display device 455.
- the standby period is represented by a band graph, but the standby period may be displayed in another manner. For example, marks may be added at the beginning and end of the waiting period. Or you may draw the line which divides a waiting period.
- the present embodiment it is useful for predicting the influence of the waiting on the physical condition based on the waiting period of the user.
- FIG. 27 shows an example of a graph in the sixth embodiment.
- a band graph 1701 In addition to the bar graph 301, a band graph 1701, a band graph 1703, and a band graph 2551 are shown.
- the main process (B) is executed.
- the first specifying process (B) is executed, and in S1401, the second specifying process (B) is executed.
- the first drawing process (E) is executed.
- FIG. 28 shows a first drawing process (E) flow.
- the drawing unit 409 draws the bar graph 301 that represents the amount of activity in the display period in time series (S2801).
- the drawing unit 409 draws a band graph 1703 representing the second time zone as well as the band graph 1701 representing the first time zone included in the display period (S2803).
- the drawing unit 409 draws a band graph 2551 representing the waiting period from the reading time to the scheduled work start time (S2805).
- the display processing unit 411 displays the drawn graph.
- the bar graph 301, the band graph 1701, the band graph 1703, and the band graph 2551 drawn in the first drawing process (E) are displayed on the display device 455.
- the present embodiment it is possible to consider the depth of sleep when predicting the influence on the physical condition based on the waiting period of the user.
- the graph is displayed with reference to the scheduled work end time.
- FIG. 29 shows an example of the graph in the seventh embodiment.
- the right end corresponds to the scheduled end time of work (in this example, 18:00).
- the amount of activity from the time point that is 24 hours after the scheduled end time of work is represented by a bar graph 301.
- the manager can easily imagine the physical condition until the driver arrives at the destination.
- the main process (A) is executed.
- the first specifying process (C) is executed.
- FIG. 30 shows a first specific process (C) flow.
- specification part 405 reads a user's work schedule data (S3001).
- the first specifying unit 405 sets the scheduled end time of work as the end point of the display period (S3003).
- the first specifying unit 405 specifies the start point of the display period that is a predetermined time back from the end point of the display period (S3005).
- the process returns to the caller's main process (A).
- step S809 the first drawing process (A) is executed.
- the display processing unit 411 displays the drawn graph.
- the bar graph 301 drawn in the first drawing process (A) is displayed on the display device 455.
- FIG. 31 shows a case where the first specifying process (C) is executed in S805, the second specifying process (A) is executed in S1401, and the first drawing process (B) is executed in S809 in the main process (B).
- An example of the graph is shown.
- FIG. 32 shows a case where the first specifying process (C) is executed in S805, the second specifying process (B) is executed in S1401, and the first drawing process (C) is executed in S809 in the main process (B). An example of the graph is shown.
- the work period is represented by a band graph.
- FIG. 33 shows an example of the graph in the eighth embodiment.
- a band graph 3301 represents a working period (in this example, 14:00 to 18:00). If the working period is visualized, for example, the manager can easily imagine how the physical condition of the driver changes during driving.
- the main process (B) is executed.
- the first specifying process (C) is executed, and in S1401, the second specifying process (A) is executed.
- the first drawing process (F) is executed.
- FIG. 34 shows a first drawing process (F) flow.
- the drawing unit 409 draws the bar graph 301 representing the amount of activity within the display period in time series (S3401).
- the drawing unit 409 draws a band graph 1301 representing the sleep period included in the display period (S3403).
- the drawing unit 409 draws a band graph 3301 representing the work period from the scheduled work start time to the scheduled work end time (S3405).
- the process returns to the calling main process (B).
- the display processing unit 411 displays the drawn graph.
- the bar graph 301, the band graph 1301, and the band graph 3301 drawn in the first drawing process (F) are displayed on the display device 455.
- the working period is represented by a band graph, but the working period may be displayed in another manner. For example, you may make it attach
- This embodiment is useful for predicting a user's physical condition during work based on the user's work period.
- FIG. 35 shows an example of the graph in the ninth embodiment.
- a band graph 1701 In addition to the bar graph 301, a band graph 1701, a band graph 1703, and a band graph 3301 are shown.
- the main process (B) is executed.
- the first specifying process (C) is executed, and in S1401, the second specifying process (B) is executed.
- the first drawing process (G) is executed.
- FIG. 36 shows a first drawing process (G) flow.
- the drawing unit 409 draws the bar graph 301 representing the amount of activity in the display period in time series (S3601).
- the drawing unit 409 draws a band graph 1703 representing the second time zone as well as the band graph 1701 representing the first time zone included in the display period (S3603).
- the drawing unit 409 draws a band graph 3301 representing the work period from the scheduled work start time to the scheduled work end time (S3605).
- the display processing unit 411 displays the drawn graph.
- the bar graph 301, the band graph 1701, the band graph 1703, and the band graph 3301 drawn in the first drawing process (G) are displayed on the display device 455.
- the depth of sleep can be taken into account when predicting the physical condition of the user during work.
- the waiting period until the start of work is represented by a band graph 2551, and the work period is further represented by a band graph 3301.
- FIG. 37 shows an example of the graph in the tenth embodiment.
- a band graph 1301, a band graph 2551, and a band graph 3301 are shown.
- the main process (B) is executed.
- the first specifying process (C) is executed, and in S1401, the second specifying process (A) is executed.
- the first drawing process (H) is executed.
- FIG. 38 shows a first drawing process (H) flow.
- the drawing unit 409 draws the bar graph 301 representing the amount of activity in the display period in time series (S3801).
- the drawing unit 409 draws a band graph 1301 representing the sleep period within the display period (S3803).
- the drawing unit 409 draws a band graph 2551 representing the waiting period from the reading time to the scheduled work start time (S3805).
- the drawing unit 409 draws a band graph 3301 representing the work period from the scheduled work start time to the scheduled work end time (S3807).
- the display processing unit 411 displays the drawn graph.
- the bar graph 301, the band graph 1301, the band graph 2551, and the band graph 3301 drawn in the first drawing process (H) are displayed on the display device 455.
- This embodiment is useful for predicting the physical condition of the user during and on standby based on the user's standby period and work period.
- the first time zone and the second time zone are distinguished, and a standby period band graph 2551 and a work period band graph 3301 are represented.
- FIG. 39 shows an example of the graph in the eleventh embodiment.
- a band graph 1701 In addition to the bar graph 301, a band graph 1701, a band graph 1703, a band graph 2551, and a band graph 3301 are shown.
- the main process (B) is executed.
- the first specifying process (C) is executed, and in S1401, the second specifying process (B) is executed.
- the first drawing process (I) is executed.
- FIG. 40 shows a first drawing process (I) flow.
- the drawing unit 409 draws the bar graph 301 representing the amount of activity within the display period in time series (S4001).
- the drawing unit 409 draws a band graph 1703 representing the second time zone as well as the band graph 1701 representing the first time zone included in the display period (S4003).
- the drawing unit 409 draws a band graph 2551 representing the waiting period from the reading time to the scheduled work start time (S4005).
- the drawing unit 409 draws a band graph 3301 representing the work period from the scheduled work start time to the scheduled work end time (S4007).
- the display processing unit 411 displays the drawn graph.
- the bar graph 301, the band graph 1701, the band graph 1703, the band graph 2551, and the band graph 3301 drawn in the first drawing process (I) are displayed on the display device 455.
- the present embodiment it is possible to consider the depth of sleep when predicting the physical condition of the user during standby and during work.
- the posture of the user is represented by a band graph.
- FIG. 41 shows an example of the graph in the twelfth embodiment.
- a second graph region is provided above the first graph region.
- a band graph 4101 representing the posture of the user is displayed in the second graph area.
- FIG. 42 shows a main process (C) flow.
- the drawing unit 409 executes the second drawing process (S4201).
- a band graph 4101 indicating the posture in the display period is drawn in the second graph area.
- the display processing unit 411 also displays the graph drawn by the second drawing process together with the graph drawn by the first drawing process. Note that the time axis of the graph drawn in the first drawing process is the same as that of the graph drawn in the second drawing process.
- the second drawing process is added based on the main process (B), but the second drawing process may be added based on the main process (A). That is, this embodiment may be applied to any of the above-described embodiments.
- the user's situation can be estimated in more detail by combining the amount of activity and the posture.
- FIG. 43 shows an example of the graph in the thirteenth embodiment.
- a window 4301 indicating the first period is displayed together with the graph.
- a window 4301 is displayed near the scheduled work start time.
- the window 4301 may be displayed at another position.
- the first period may be displayed in a mode other than the window 4301.
- the main process (D) is executed.
- FIG. 44 shows a main process (D) flow.
- the main process (D) may be based on any of the main processes (A) to (C).
- the first calculation unit 413 calculates the length of the first period from the time when the user wakes up to the scheduled start time of work (S4401). The time when the user wakes up indicates the timing at which the user finally switched from the sleep state to the awake state.
- the display processing unit 411 displays a window 4301 indicating the length of the first period (S4403). Then, the main process (D) is finished.
- This embodiment is useful for predicting the physical condition at the start of work according to the time elapsed since the user woke up.
- FIG. 45 shows an example of the graph in the fourteenth embodiment.
- a window 4501 indicating the second period is displayed together with the graph.
- a window 4501 is displayed near the scheduled end time of work.
- the window 4501 may be displayed at another position.
- the second period may be displayed in a mode other than the window 4501.
- FIG. 46 shows a main process (E) flow.
- the main process (E) may be based on any of the main processes (A) to (C).
- the second calculation unit 415 calculates the length of the second period from the time when the user wakes up to the scheduled end time of work (S4601).
- the display processing unit 411 displays a window 4501 indicating the length of the second period (S4603). Then, the main process (E) is finished.
- This embodiment is useful for predicting the physical condition at the end of work according to the time elapsed since the user woke up.
- FIG. 47 shows an example of the graph in the fifteenth embodiment.
- a window 4301 indicating the first period and a window 4501 indicating the second period are displayed together with the graph.
- the positions of the window 4301 and the window 4501 are arbitrary.
- the main process (F) is executed.
- FIG. 48 shows a main process (F) flow.
- the main process (F) may be based on any of the main processes (A) to (C).
- the first calculation unit 413 calculates the length of the first period from the time when the user wakes up to the scheduled start time of work (S4401).
- the display processing unit 411 displays a window 4301 indicating the length of the first period (S4403).
- the second calculation unit 415 calculates the length of the second period from the time when the user wakes up to the scheduled end time of work (S4601).
- the display processing unit 411 displays a window 4501 indicating the length of the second period (S4603).
- the present embodiment it is useful for predicting the physical condition at the start of work and the end of work according to the time elapsed since the user woke up.
- each graph an example is shown in which a region is distinguished by a pattern to be filled.
- a region may be distinguished by a color to be filled.
- the present invention is not limited to this.
- the functional block configuration described above may not match the program module configuration.
- each storage area described above is an example, and the configuration as described above is not necessarily required. Further, in the processing flow, if the processing result does not change, the processing order may be changed or a plurality of processes may be executed in parallel.
- the information processing apparatus 201 described above is a computer apparatus, and as shown in FIG. 49, a memory 2501, a CPU (Central Processing Unit) 2503, a hard disk drive (HDD: Hard Disk Drive) 2505, and a display device.
- a display control unit 2507 connected to 2509, a drive device 2513 for the removable disk 2511, an input device 2515, and a communication control unit 2517 for connecting to a network are connected by a bus 2519.
- An operating system (OS: Operating System) and an application program for performing the processing in this embodiment are stored in the HDD 2505, and are read from the HDD 2505 to the memory 2501 when executed by the CPU 2503.
- OS Operating System
- the CPU 2503 controls the display control unit 2507, the communication control unit 2517, and the drive device 2513 according to the processing content of the application program, and performs a predetermined operation. Further, data in the middle of processing is mainly stored in the memory 2501, but may be stored in the HDD 2505.
- an application program for performing the above-described processing is stored in a computer-readable removable disk 2511 and distributed, and installed in the HDD 2505 from the drive device 2513. In some cases, the HDD 2505 may be installed via a network such as the Internet and the communication control unit 2517.
- Such a computer apparatus realizes various functions as described above by organically cooperating hardware such as the CPU 2503 and the memory 2501 described above and programs such as the OS and application programs. .
- the sensor display device when acquiring the sensor value stored in the storage unit from the wearable sensor that stores the acquired sensor value in the storage unit, via the reading device, A first specifying unit that automatically specifies a sensor value within a predetermined time range retroactively from the first timing, the second timing at which the user is scheduled to start work, or the third timing at which the user is scheduled to end work And (B) a display device that displays the specified sensor value or a calculated value based on the specified sensor value in time series.
- the sensor value or the calculated value may be time-series data regarding the activity state of the user wearing the wearable sensor.
- the sensor display device further includes a second specifying unit that specifies the user's sleep period based on the time-series data, and a drawing unit that draws the first graph indicating the activity state and the sleep period in a predetermined time width. And a display processing unit for displaying the first graph on the display device.
- the display processing unit may cause the display device to display the first graph that ends at the second timing.
- a display device that can display a screen that makes it easy to grasp the period going back from the start of work. According to such a screen, for example, it is easy to grasp the period from when the user wakes up to the start of work.
- the drawing unit may draw an image representing a period from the first timing to the second timing on the first graph.
- the display processing unit may cause the display device to display the first graph that ends at the third timing.
- a display device that can display a screen that makes it easy to grasp the period going back from the end of work. According to such a screen, for example, it is easy to grasp the period from when the user wakes up to the end of work.
- the drawing unit may draw an image representing a period from the second timing to the third timing on the first graph.
- the second specifying unit may specify a first time zone in which the user is sleeping lightly and a second time zone in which the user is sleeping deeply in the sleep period.
- the drawing unit may draw the first time zone and the second time zone in different manners in the first graph.
- the drawing unit draws a second graph representing the user's posture in time series
- the display processing unit displays the second graph on the display device in accordance with the time axis of the first graph. Good.
- the sensor display device may include a first calculation unit that calculates the length of the first period from the time when the user wakes up to the second timing.
- the display processing unit may display the length of the first period on the display device.
- the sensor display device may include a second calculation unit that calculates the length of the second period from the time when the user wakes up to the third timing.
- the display processing unit may display the length of the second period on the display device.
- the predetermined time width may be 24 hours.
- a program for causing a computer to perform the processing in the sensor display device described above can be created.
- the program can be read by a computer such as a flexible disk, a CD-ROM, a magneto-optical disk, a semiconductor memory, and a hard disk. It may be stored in a possible storage medium or storage device. Note that intermediate processing results are generally temporarily stored in a storage device such as a main memory.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- Dentistry (AREA)
- Physiology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Anesthesiology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Physical Education & Sports Medicine (AREA)
- Multimedia (AREA)
- Psychiatry (AREA)
- Psychology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
一態様に係るセンサ表示装置は、(A)取得したセンサ値を記憶部に記憶するウェアラブルセンサから記憶部に記憶されたセンサ値を読み取り装置を介して取得する際に、読み取りの際の第1タイミング、センサと対応づけられたユーザの勤務開始予定の第2タイミング、又はユーザの勤務終了予定の第3タイミングから遡って所定時間幅内のセンサ値を特定する第1特定部と、(B)特定したセンサ値又は特定したセンサ値に基づく算出値を時系列的に表示する表示装置とを備える。
Description
本発明は、センサによる計測結果に基づく表示を行う技術に関する。
或る特許文献には、脳波センサ及び体動センサを具備するデバイスを用いて活動指標及び代謝指標を算出し、これらの指標を現在から25時間遡った時間帯のグラフとして表示する技術が開示されている。
但し、このような技術を利用してユーザの状況を推測しようとする場合、必ずしも現在を基準として時系列データを表示することが適当であるとは限らない。
本発明の目的は、一側面では、所定タイミングに至るまでのユーザの状況を推測しやすい出力を行うセンサ表示装置、センサ表示方法及びプログラムを提供することである。
一態様に係るセンサ表示装置は、(A)取得したセンサ値を記憶部に記憶するウェアラブルセンサから記憶部に記憶されたセンサ値を読み取り装置を介して取得する際に、読み取りの際の第1タイミング、センサと対応づけられたユーザの勤務開始予定の第2タイミング、又はユーザの勤務終了予定の第3タイミングから遡って所定時間幅内のセンサ値を特定する第1特定部と、(B)特定したセンサ値又は特定したセンサ値に基づく算出値を時系列的に表示する表示装置とを備える。
一側面としては、所定タイミングに至るまでのユーザの状況を推測しやすい出力を行える。
[実施の形態1]
図1に、センサ装置101のハードウエア構成例を示す。ユーザがセンサ装置101を装着した状態で、センサ装置101は加速度を計測する。例えば、センサ装置101は、ベルトやズボンに取り付けられ、ユーザの腰の位置に装着される。但し、他の部位(頭部、首、胸、腹、背中、腕或いは足など)にセンサ装置101を装着するようにしてもよい。また、図1に示したセンサ装置101に代えて、ウエアラブル端末或いは携帯電話端末を用いるようにしてもよい。
図1に、センサ装置101のハードウエア構成例を示す。ユーザがセンサ装置101を装着した状態で、センサ装置101は加速度を計測する。例えば、センサ装置101は、ベルトやズボンに取り付けられ、ユーザの腰の位置に装着される。但し、他の部位(頭部、首、胸、腹、背中、腕或いは足など)にセンサ装置101を装着するようにしてもよい。また、図1に示したセンサ装置101に代えて、ウエアラブル端末或いは携帯電話端末を用いるようにしてもよい。
センサ装置101は、演算装置103、加速度センサ105、記憶部107、クロック109及び通信インターフェース装置111を有する。演算装置103は、各種の演算処理を行う。加速度センサ105は、加速度を計測する。記憶部107は、各種のデータやプログラムを記憶する。クロック109は、日時を計測する。通信インターフェース装置111は、例えば無線IC(Integrated Circuit)タグ又はUSB(Universal Serial Bus)インターフェース装置である。通信インターフェース装置111は、その他の近距離無線に係るインターフェース装置であってもよい。
センサ装置101は、計測日時を付した加速度のデータ、つまり加速度の時系列データを蓄積する。そして、通信インターフェース装置111を介して加速度の時系列データを出力する。
また、センサ装置101は、加速度の時系列データに基づいて、ユーザの活動量を算出するようにしてもよい。そして、センサ装置101は、算出した活動量の時系列データを、通信インターフェース装置111を介して出力するようにしてもよい。活動量の算出方法は、従来技術による。
また、センサ装置101は、加速度の時系列データに基づいて、ユーザの体位を判定するようにしてもよい。そして、センサ装置101は、判定した体位の時系列データを、通信インターフェース装置111を介して出力するようにしてもよい。体位の判定方法は、従来技術による。なお、センサ装置101は、ユーザの活動や睡眠の状態を計測できるセンサであれば、加速度センサ105以外のセンサであっても構わない。一例として、心臓や肺などの体の動きを検出できる電波センサ、脈拍または呼吸を検出できるセンサ、体そのものの動きを検出できる電波センサや画像センサ等が挙げられる。その場合、センサ装置101は、心拍数、呼吸数及び/又は体動に関する時系列データを蓄積し、通信インターフェース装置111を介して出力してもよい。もしくは、計測したデータを通信インターフェース装置111を介して出力し、他のコンピュータによって心拍数、呼吸数及び/又は体動が検出され、時系列データとして蓄積されても良い。
センサ装置101を装着するユーザは、例えば鉄道や自動車の運転手である。この例で、管理者は、操業に従事しようとしている運転手について活動状況を把握して、操業の安全を図る。
そのため、管理者が使用する情報処理装置は、センサ装置101に蓄積されたデータを読み取り、表示する。図2Aに、接続形態の例を示す。この例では、情報処理装置201が直接センサ装置101からデータを読み取る。センサ装置101は、読み取った時刻を記憶する。
一方、図2Bに示すような接続形態となることも考えられる。センサ装置101に蓄積されたデータを一旦ユーザ端末203に読み取らせ、ユーザ端末203から情報処理装置201へデータを転送する。そのため、ユーザ端末203は、センサ装置101の通信インターフェース装置111に応じた読み取り装置を備え、またネットワークを介してデータ伝送を行う。ネットワークは、例えばインターネット、専用回線或いはLAN(Local Area Network)である。ユーザ端末203は、例えば携帯電話端末やタブレット端末である。尚、ユーザ端末203は、読み取った時刻を記憶し、転送するデータと併せて当該時刻を送信する。なお、図2Bにおいては、ユーザ端末203と情報処理装置201とは別装置である例を示しているが、このような接続形態に限る必要は無い。例えば、情報処理装置201の本実施例を実行するための機能が、ユーザ端末203に実装されても良い。
情報処理装置201は、管理者からグラフ表示の指示を受け付けると、読み取った時刻から24時間遡った分の活動量を表したグラフを表示する。
例えば、運転手が勤務において営業所から目的地に向かう往路の場合、出発時点で図2Aに示した接続形態でデータを読み取っておけば、管理者は後に出発時点における運転手の状況をチェックすることができる。そして、目的地に到着した時点で、図2Bに示した接続形態でデータを読み取っておけば、管理者は後に運転中の運転手の状況をチェックすることができる。
一方、目的地から営業所に向かう復路の場合、出発時点で図2Bに示した接続形態でデータを読み取っておけば、管理者は後に出発時点における運転手の状況をチェックすることができる。そして、営業所に到着した時点で、図2Aに示した接続形態でデータを読み取っておけば、管理者は後に運転中の運転手の状況をチェックすることができる。
図3に、グラフの例を示す。右側の終端が読み取り時点に相当する。そして、読み取り時点から24時間遡った時点からの活動量が棒グラフ301で表される。例えば12:00に出発したとすれば、管理者は、運転手が出発以前にどのように活動していたかを知ることができる。一方、12:00に到着したとすれば、管理者は、運転手が途中どのタイミングで休憩をしたかを知ることができる。
運転手以外に、機械の操作者、監視者或いは医療従事者などのユーザがセンサ装置101を用いるようにしてもよい。以上で本実施の形態における概要の説明を終える。
以下、情報処理装置201の動作について説明する。図4に、情報処理装置201のモジュール構成例を示す。情報処理装置201は、検出部401、取得部403、第1特定部405、第2特定部407、描画部409、表示処理部411、第1算出部413、第2算出部415、時計部417、第1テーブル記憶部431、第2テーブル記憶部433、第3テーブル記憶部435、画像バッファ437、通信インターフェース装置451、ネットワーク通信装置453及び表示装置455を有する。
検出部401は、センサ装置101を検出する。取得部403は、時系列データを取得する。第1特定部405は、表示期間を特定する。第2特定部407は、睡眠期間を特定する。描画部409は、グラフを描画する。表示処理部411は、グラフやボックスなどの表示パーツを表示する処理を行う。表示処理部411における表示処理によって、例えば画像バッファ437に記憶されているグラフの画像が表示装置455に表示される。表示処理部411は、出力処理部の一例である。第1算出部413は、ユーザが目覚めた時点から勤務開始の予定時刻までの第1期間の長さを算出する。第2算出部415は、ユーザが目覚めた時点から勤務終了の予定時刻までの第2期間の長さを算出する。時計部417は、現在時刻を計測する。
上述した検出部401、取得部403、第1特定部405、第2特定部407、描画部409、表示処理部411、第1算出部413、第2算出部415及び時計部417は、ハードウエア資源(例えば、図49)と、以下で述べる処理をプロセッサに実行させるプログラムとを用いて実現される。
第1テーブル記憶部431は、第1テーブルを記憶する。第1テーブルについては、図5を用いて後述する。第2テーブル記憶部433は、第2テーブルを記憶する。第2テーブルについては、図6を用いて後述する。第3テーブル記憶部435は、第3テーブルを記憶する。第3テーブルについては、図7を用いて後述する。画像バッファ437は、描画されたグラフの画像を記憶する。
上述した第1テーブル記憶部431、第2テーブル記憶部433、第3テーブル記憶部435及び画像バッファ437は、ハードウエア資源(例えば、図49)を用いて実現される。
通信インターフェース装置451は、センサ装置101の通信インターフェース装置111との通信を行う。通信インターフェース装置451は、例えば無線ICタグの読み取り装置又はUSBインターフェースである。通信インターフェース装置451は、その他の近距離無線に係るインターフェース装置であってもよい。ネットワーク通信装置453は、ネットワークを介した通信を行う。表示装置455は、表示処理によって例えばグラフやボックスを表示する。表示装置455は、画像を表示する通常の機能を有するものであって、汎用の装置であってもよい。
図5に、第1テーブルの例を示す。この例における第1テーブルは、加速度の計測時点に対応するレコードを有している。第1テーブルのレコードは、日時が格納されるフィールドと、加速度が格納されるフィールドと、活動量が格納されるフィールドと、体位が格納されるフィールドと、事象が格納されるフィールドとユーザの状態が格納されるフィールドとを有している。
日時は、加速度が計測されたタイミングを特定する。体位は、例えば伏臥位、仰臥位、側臥位及び立位などである。事象は、入眠又は目覚めのいずれかである。ユーザの状態は、覚醒状態又は睡眠状態のいずれかである。尚、入眠は、覚醒状態から睡眠状態へ切り替わったことを意味する。目覚めは、睡眠状態から覚醒状態へ切り替わったことを意味する。
図6に、第2テーブルの例を示す。第2テーブルは、ユーザ(例えば、運転手)に対応するレコードを有している。第2テーブルのレコードは、ユーザIDが格納されるフィールドと、通信インターフェースIDが格納されるフィールドとを有している。通信インターフェースIDは、ユーザが使用するセンサ装置101の通信インターフェース装置111を識別する。本実施例の処理が実行される前に、第2テーブルは、予め設けられているものとする。
図7に、第3テーブルの例を示す。第3テーブルは、ユーザに対応するレコードを有している。第3テーブルのレコードは、ユーザIDが格納されるフィールドと、勤務開始の予定時刻が格納されるフィールドと、勤務終了の予定時刻が格納されるフィールドとを有している。以下で述べる処理が実行される前に、第3テーブルは、予め設けられているものとする。尚、第3テーブルは、実施の形態4以降において用いられる。
情報処理装置201の処理について説明する。図8に、メイン処理(A)フローを示す。まず、図2Aに示した接続形態の場合について説明する。検出部401は、待機して、センサ装置101を検出し、ユーザを特定する(S801)。具体的には、情報処理装置201の通信インターフェース装置451がセンサ装置101の通信インターフェース装置111との通信を行う。検出部401は、第2テーブルに基づいて、当該通信において受信した通信インターフェース装置111のIDに対応するユーザIDを特定する。
センサ装置101を検出すると、取得部403は取得処理を実行する(S803)。取得処理では、センサ装置101から分析に用いられる時系列データを得る。
図9に、取得処理(A)フローを示す。取得処理(A)は、センサ装置101において活動量を算出し、更に体位を判定していることを前提としている。取得部403は、通信インターフェース装置451によって活動量の時系列データを取得する(S901)。更に、取得部403は、通信インターフェース装置451によって体位の時系列データを取得する(S903)。活動量の時系列データのみに基づいて表示を行う場合には、体位の時系列データを取得しないようにしてもよい。取得処理(A)を終えると、呼び出し元のメイン処理(A)に復帰する。
図9に示した取得処理(A)に代えて、取得処理(B)を実行するようにしてもよい。取得処理(B)では、加速度の時系列データのみを取得する。従って、センサ装置101において活動量を算出しなくてもよい。また、センサ装置101において体位を判定しなくてもよい。
図10に、取得処理(B)フローを示す。取得部403は、通信インターフェース装置451によって加速度の時系列データを取得する(S1001)。第2特定部407は、加速度の時系列データに基づいて、活動量の時系列データを算出する(S1003)。活動量の算出方法は、従来技術による。更に、第2特定部407は、加速度の時系列データに基づいて、体位の時系列データを求める(S1005)。体位の判定方法は、従来技術による。活動量の時系列データのみに基づいて分析を行う場合には、体位の時系列データを求めないようにしてもよい。取得処理(B)を終えると、呼び出し元のメイン処理(A)に復帰する。取得処理(A)または取得処理(B)により取得されたデータが、図5に例示した第1テーブル記憶部431に格納される。
図8の説明に戻る。図2Aに示した接続形態の場合には、この時点で一旦待機状態に移る。そして、管理者からの指示を待って、S805以降の処理に移る。
続いて、図2Bに示した接続形態の場合について説明する。この場合は、S801の処理は、省かれる。管理者からの指示を受け付けた時点で、S803からの処理が起動される。
この場合、S803に示した取得処理で、ネットワーク通信装置453によって時系列データと読み取り時刻とを受信する。取得処理(A)の場合、S901及びS903における取得形態は、データ受信である。また、取得処理(B)の場合、S1001における取得形態は、データ受信である。このとき、例えばユーザIDを受信することによって、ユーザを特定する。
そして、そのまま図8に示したS805の処理に移る。S805以降の処理は、いずれの接続形態の場合も同様である。
第1特定部405は、第1特定処理を実行する(S805)。第1特定処理では、表示期間を特定する。
図11に、第1特定処理(A)フローを示す。第1特定部405は、読み取り時刻を表示期間の終了時点とする(S1101)。第1特定部405は、表示期間の終了時点から所定時間(この例では、24時間)遡った表示期間の開始時点を特定する(S1103)。第1特定処理を終えると、呼び出し元のメイン処理(A)に復帰する。
図8の説明に戻る。表示処理部411は、表示画面における時刻領域に開始時点から終了時点までの時刻目盛りを表示する(S807)。具体的には、当該時刻目盛りを表示装置455に表示させる。
描画部409は、第1描画処理を実行する(S809)。第1描画処理では、第1グラフ領域における描画を行う。
図12に、第1描画処理(A)フローを示す。描画部409は、表示期間内の活動量を時系列に表す棒グラフ301を描画する(S1201)。描画したグラフは、画像バッファ437に蓄積される。第1描画処理(A)を終えると、呼び出し元のメイン処理(A)に復帰する。
図8の説明に戻る。表示処理部411は、描画したグラフを表示する(S811)。本実施の形態では、第1描画処理(A)で描画した棒グラフ301を表示装置455に表示させる。そして、メイン処理を終える。尚、以降の実施の形態では、後述する第1描画処理及び第2描画処理で描画された各グラフを、S811において表示する。
本実施の形態によれば、グラフを表示させるタイミングに関わらず、データを読み取った時刻を基準として過去の活動量を表すことができる。
[実施の形態2]
本実施の形態では、睡眠期間を帯グラフで表示する。
本実施の形態では、睡眠期間を帯グラフで表示する。
図13に、実施の形態2におけるグラフの例を示す。帯グラフ1301は、睡眠期間を表している。
本実施の形態では、メイン処理(A)に代えて、メイン処理(B)を実行する。図14に、メイン処理(B)フローを示す。S801乃至S805の処理は、図8の場合と同様である。第2特定部407は、第2特定処理を実行する(S1401)。第2特定処理では、睡眠期間を特定する。
図15に、第2特定処理(A)フローを示す。第2特定部407は、各計測時点に関して、活動量の時系列データ及び/又は体位の時系列データに基づいて睡眠状態又は覚醒状態のいずれであるかを判別する(S1501)。なお、上述の通り加速度センサ以外のセンサを利用する場合は、第2特定部407は、心拍数および/または呼吸数および/または体動の時系列データから、睡眠状態又は覚醒状態のいずれであるかを判別してよい。第2特定部407は、睡眠状態が連続する睡眠期間を特定する(S1503)。第2特定処理(A)を終えると、呼び出し元のメイン処理(B)に復帰する。
図14の説明に戻る。本実施の形態では、S809において、第1描画処理(A)に代えて、第1描画処理(B)を実行する。
図16に、第1描画処理(B)フローを示す。描画部409は、表示期間内の活動量を時系列に表す棒グラフ301を描画する(S1601)。描画部409は、表示期間に含まれる睡眠期間を表す帯グラフ1301を描画する(S1603)。描画したグラフは、いずれも画像バッファ437に蓄積される。第1描画処理(B)を終えると、呼び出し元のメイン処理(B)に復帰する。
図14の説明に戻る。S811において、表示処理部411は、描画したグラフを表示する。本実施の形態では、第1描画処理(B)で描画した棒グラフ301及び帯グラフ1301を表示装置455に表示させる。
本実施の形態によれば、グラフを表示させるタイミングに関わらず、データを読み取った時刻を基準として過去の睡眠期間を表すことができる。
[実施の形態3]
本実施の形態では、睡眠の深さによって表示態様を区別する。
本実施の形態では、睡眠の深さによって表示態様を区別する。
図17に、実施の形態3におけるグラフの例を示す。帯グラフ1701は、浅い睡眠の時間帯(以下、第1時間帯という。)を表している。帯グラフ1703は、深い睡眠の時間帯(以下、第2時間帯という。)を表している。
図18に、実施の形態3における第1テーブルの例を示す。実施の形態3では、睡眠状態を浅い睡眠状態と深い睡眠状態とに区別する。
本実施の形態では、メイン処理(B)を実行する。S805では、第1特定処理(A)を実行する。そして、S1401において、第2特定処理(A)に代えて、第2特定処理(B)を実行する。
図19に、第2特定処理(B)フローを示す。第2特定部407は、各計測時点に関して、活動量の時系列データ及び/又は体位の時系列データに基づいて覚醒状態、浅い睡眠状態又は深い睡眠状態のいずれであるかを判別する(S1901)。第2特定部407は、浅い睡眠状態が連続する第1時間帯と深い睡眠が連続する第2時間帯とを特定する(S1903)。第2特定処理(B)を終えると、呼び出し元のメイン処理(B)に復帰する。
図14の説明に戻る。本実施の形態では、S809において、第1描画処理(C)を実行する。
図20に、第1描画処理(C)フローを示す。描画部409は、表示期間内の活動量を時系列に表す棒グラフ301を描画する(S2001)。描画部409は、表示期間に含まれる第1時間帯を表す帯グラフ1701と、同じく第2時間帯を表す帯グラフ1703とを描画する(S2003)。描画したグラフは、いずれも画像バッファ437に蓄積される。第1描画処理(C)を終えると、呼び出し元のメイン処理(B)に復帰する。
図14の説明に戻る。S811において、表示処理部411は、描画したグラフを表示する。本実施の形態では、第1描画処理(C)で描画した棒グラフ301、帯グラフ1701及び帯グラフ1703を表示装置455に表示させる。
本実施の形態によれば、グラフを表示させるタイミングに関わらず、データを読み取った時刻を基準として過去の睡眠状態を表すことができる。
[実施の形態4]
本実施の形態では、勤務開始の予定時刻を基準としてグラフを表示する。以降の実施の形態では、勤務開始よりも前に、ユーザがセンサ装置101のデータを読み取らせているものとする。
本実施の形態では、勤務開始の予定時刻を基準としてグラフを表示する。以降の実施の形態では、勤務開始よりも前に、ユーザがセンサ装置101のデータを読み取らせているものとする。
図21に、実施の形態4におけるグラフの例を示す。右側の終端が勤務開始の予定時刻(この例では、14:00)に相当する。そして、勤務開始の予定時刻から24時間遡った時点からの活動量が棒グラフ301で表される。例えば、管理者は、運転手が出発するまでの状況を想像しやすい。
本実施の形態では、メイン処理(A)を実行する。そして、図8に示したS805において、第1特定処理(B)を実行する。
図22に、第1特定処理(B)フローを示す。第1特定部405は、第1テーブルからユーザの勤務予定データを読み取る(S2201)。第1特定部405は、勤務開始の予定時刻を表示期間の終了時点とする(S2203)。第1特定部405は、表示期間の終了時点から所定時間遡った表示期間の開始時点を特定する(S2205)。第1特定処理(B)を終えると、呼び出し元のメイン処理(A)に復帰する。
図8に示したS809で第1描画処理(A)を実行する。また、S811において、表示処理部411は、描画したグラフを表示する。本実施の形態では、第1描画処理(A)で描画した棒グラフ301を表示装置455に表示させる。
他のグラフの例を示す。図23は、メイン処理(B)において、S805で第1特定処理(B)を実行し、S1401で第2特定処理(A)を実行し、S809で第1描画処理(B)を実行した場合のグラフの例を示している。
図24は、メイン処理(B)において、S805で第1特定処理(B)を実行し、S1401で第2特定処理(B)を実行し、S809で第1描画処理(C)を実行した場合のグラフの例を示している。
本実施の形態によれば、勤務開始から遡る期間を把握しやすい。例えば、ユーザが目覚めた時点から勤務開始までの期間を把握しやすい。
[実施の形態5]
本実施の形態では、勤務開始までの待機期間を帯グラフで表す。
本実施の形態では、勤務開始までの待機期間を帯グラフで表す。
図25に、実施の形態5におけるグラフの例を示す。帯グラフ2551は、勤務開始までの待機期間(この例では、12:00~14:00)を表している。待機期間を可視化すれば、例えば、管理者は、出発予定時刻を基準として、どのように運転手の体調が変化するかを想像しやすい。
本実施の形態では、メイン処理(B)を実行する。また、S805で第1特定処理(B)を実行し、S1401で第2特定処理(A)を実行する。そして、S809では、第1描画処理(D)を実行する。
図26に、第1描画処理(D)フローを示す。描画部409は、表示期間内の活動量を時系列に表す棒グラフ301を描画する(S2601)。描画部409は、表示期間に含まれる睡眠期間を表す帯グラフ1301を描画する(S2603)。描画部409は、読み取り時刻から勤務開始の予定時刻までの待機期間を表す帯グラフ2551を描画する(S2605)。第1描画処理(D)を終えると、呼び出し元のメイン処理(B)に復帰する。
S811において、表示処理部411は、描画したグラフを表示する。本実施の形態では、第1描画処理(D)で描画した棒グラフ301、帯グラフ1301及び帯グラフ2551を表示装置455に表示させる。
ここでは、待機期間を帯グラフで表す例を示したが、待機期間を他の態様によって表示するようにしてもよい。例えば、待機期間の初めと終わりとにマークを付するようにしてもよい。或いは、待機期間を区切る線を描いてもよい。
本実施の形態によれば、ユーザの待機期間に基づいて、当該待機による体調への影響を予測することに役立つ。
[実施の形態6]
本実施の形態では、第1時間帯と第2時間帯とを区別すると共に、勤務開始までの待機期間を帯グラフ2551で表す。
本実施の形態では、第1時間帯と第2時間帯とを区別すると共に、勤務開始までの待機期間を帯グラフ2551で表す。
図27に、実施の形態6におけるグラフの例を示す。棒グラフ301の他に、帯グラフ1701、帯グラフ1703及び帯グラフ2551を表している。
本実施の形態では、メイン処理(B)を実行する。また、S805で第1特定処理(B)を実行し、S1401で第2特定処理(B)を実行する。そして、S809では、第1描画処理(E)を実行する。
図28に、第1描画処理(E)フローを示す。描画部409は、表示期間内の活動量を時系列に表す棒グラフ301を描画する(S2801)。描画部409は、表示期間に含まれる第1時間帯を表す帯グラフ1701と同じく第2時間帯を表す帯グラフ1703とを描画する(S2803)。描画部409は、読み取り時刻から勤務開始の予定時刻までの待機期間を表す帯グラフ2551を描画する(S2805)。第1描画処理(E)を終えると、呼び出し元のメイン処理(B)に復帰する。
S811において、表示処理部411は、描画したグラフを表示する。本実施の形態では、第1描画処理(E)で描画した棒グラフ301、帯グラフ1701、帯グラフ1703及び帯グラフ2551を表示装置455に表示させる。
本実施の形態によれば、ユーザの待機期間に基づいて体調への影響を予測する際に、睡眠の深さを考慮できる。
[実施の形態7]
本実施の形態では、勤務終了の予定時刻を基準としてグラフを表示する。
本実施の形態では、勤務終了の予定時刻を基準としてグラフを表示する。
図29に、実施の形態7におけるグラフの例を示す。右側の終端が勤務終了の予定時刻(この例では、18:00)に相当する。そして、勤務終了の予定時刻から24時間遡った時点からの活動量が棒グラフ301で表される。例えば、管理者は、運転手が目的地に到着するまでの体調を想像しやすい。
本実施の形態では、メイン処理(A)を実行する。S805では、第1特定処理(C)を実行する。
図30に、第1特定処理(C)フローを示す。第1特定部405は、ユーザの勤務予定データを読み取る(S3001)。第1特定部405は、勤務終了の予定時刻を表示期間の終了時点とする(S3003)。第1特定部405は、表示期間の終了時点から所定時間遡った表示期間の開始時点を特定する(S3005)。第1特定処理(C)を終えると、呼び出し元のメイン処理(A)に復帰する。
そして、S809では、第1描画処理(A)を実行する。
S811において、表示処理部411は、描画したグラフを表示する。本実施の形態では、第1描画処理(A)で描画した棒グラフ301を表示装置455に表示させる。
他のグラフの例を示す。図31は、メイン処理(B)において、S805で第1特定処理(C)を実行し、S1401で第2特定処理(A)を実行し、S809で第1描画処理(B)を実行した場合のグラフの例を示している。
図32は、メイン処理(B)において、S805で第1特定処理(C)を実行し、S1401で第2特定処理(B)を実行し、S809で第1描画処理(C)を実行した場合のグラフの例を示している。
本実施の形態によれば、勤務終了から遡る期間を把握しやすい。例えば、ユーザが目覚めた時点から勤務終了までの期間を把握しやすい。
[実施の形態8]
本実施の形態では、勤務期間を帯グラフで表す。
本実施の形態では、勤務期間を帯グラフで表す。
図33に、実施の形態8におけるグラフの例を示す。帯グラフ3301は、勤務期間(この例では、14:00~18:00)を表している。勤務期間を可視化すれば、例えば、管理者は、運転手の体調が運転中にどのように変化するかを想像しやすい。
本実施の形態では、メイン処理(B)を実行する。また、S805で第1特定処理(C)を実行し、S1401で第2特定処理(A)を実行する。そして、S809では、第1描画処理(F)を実行する。
図34に、第1描画処理(F)フローを示す。描画部409は、表示期間内の活動量を時系列に表す棒グラフ301を描画する(S3401)。描画部409は、表示期間に含まれる睡眠期間を表す帯グラフ1301を描画する(S3403)。描画部409は、勤務開始の予定時刻から勤務終了の予定時刻までの勤務期間を表す帯グラフ3301を描画する(S3405)。第1描画処理(F)を終えると、呼び出し元のメイン処理(B)に復帰する。
S811において、表示処理部411は、描画したグラフを表示する。本実施の形態では、第1描画処理(F)で描画した棒グラフ301、帯グラフ1301及び帯グラフ3301を表示装置455に表示させる。
ここでは、勤務期間を帯グラフで表す例を示したが、勤務期間を他の態様によって表示するようにしてもよい。例えば、勤務期間の初めと終わりとにマークを付するようにしてもよい。或いは、勤務期間を区切る線を描いてもよい。
本実施の形態によれば、ユーザの勤務期間に基づいて、勤務中におけるユーザの体調を予測することに役立つ。
[実施の形態9]
本実施の形態では、第1時間帯と第2時間帯とを区別すると共に、勤務期間を帯グラフ3301で表す。
本実施の形態では、第1時間帯と第2時間帯とを区別すると共に、勤務期間を帯グラフ3301で表す。
図35に、実施の形態9におけるグラフの例を示す。棒グラフ301の他に、帯グラフ1701、帯グラフ1703及び帯グラフ3301を表している。
本実施の形態では、メイン処理(B)を実行する。また、S805で第1特定処理(C)を実行し、S1401で第2特定処理(B)を実行する。そして、S809では、第1描画処理(G)を実行する。
図36に、第1描画処理(G)フローを示す。描画部409は、表示期間内の活動量を時系列に表す棒グラフ301を描画する(S3601)。描画部409は、表示期間に含まれる第1時間帯を表す帯グラフ1701と同じく第2時間帯を表す帯グラフ1703とを描画する(S3603)。描画部409は、勤務開始の予定時刻から勤務終了の予定時刻までの勤務期間を表す帯グラフ3301を描画する(S3605)。第1描画処理(G)を終えると、呼び出し元のメイン処理(B)に復帰する。
S811において、表示処理部411は、描画したグラフを表示する。本実施の形態では、第1描画処理(G)で描画した棒グラフ301、帯グラフ1701、帯グラフ1703及び帯グラフ3301を表示装置455に表示させる。
本実施の形態によれば、勤務中におけるユーザの体調を予測する際に、睡眠の深さを考慮できる。
[実施の形態10]
本実施の形態では、勤務開始までの待機期間を帯グラフ2551で表し、更に勤務期間を帯グラフ3301で表す。
本実施の形態では、勤務開始までの待機期間を帯グラフ2551で表し、更に勤務期間を帯グラフ3301で表す。
図37に、実施の形態10におけるグラフの例を示す。棒グラフ301の他に、帯グラフ1301、帯グラフ2551及び帯グラフ3301を表している。
本実施の形態では、メイン処理(B)を実行する。また、S805で第1特定処理(C)を実行し、S1401で第2特定処理(A)を実行する。そして、S809では、第1描画処理(H)を実行する。
図38に、第1描画処理(H)フローを示す。描画部409は、表示期間内の活動量を時系列に表す棒グラフ301を描画する(S3801)。描画部409は、表示期間内の睡眠期間を表す帯グラフ1301を描画する(S3803)。描画部409は、読み取り時刻から勤務開始の予定時刻までの待機期間を表す帯グラフ2551を描画する(S3805)。描画部409は、勤務開始の予定時刻から勤務終了の予定時刻までの勤務期間を表す帯グラフ3301を描画する(S3807)。第1描画処理(H)を終えると、呼び出し元のメイン処理(B)に復帰する。
S811において、表示処理部411は、描画したグラフを表示する。本実施の形態では、第1描画処理(H)で描画した棒グラフ301、帯グラフ1301、帯グラフ2551及び帯グラフ3301を表示装置455に表示させる。
本実施の形態によれば、ユーザの待機期間と勤務期間とに基づいて、待機中及び勤務中におけるユーザの体調を予測することに役立つ。
[実施の形態11]
本実施の形態では、第1時間帯と第2時間帯とを区別すると共に、待機期間の帯グラフ2551と勤務期間の帯グラフ3301とを表す。
本実施の形態では、第1時間帯と第2時間帯とを区別すると共に、待機期間の帯グラフ2551と勤務期間の帯グラフ3301とを表す。
図39に、実施の形態11におけるグラフの例を示す。棒グラフ301の他に、帯グラフ1701、帯グラフ1703、帯グラフ2551及び帯グラフ3301を表している。
本実施の形態では、メイン処理(B)を実行する。また、S805で第1特定処理(C)を実行し、S1401で第2特定処理(B)を実行する。そして、S809では、第1描画処理(I)を実行する。
図40に、第1描画処理(I)フローを示す。描画部409は、表示期間内の活動量を時系列に表す棒グラフ301を描画する(S4001)。描画部409は、表示期間に含まれる第1時間帯を表す帯グラフ1701と同じく第2時間帯を表す帯グラフ1703とを描画する(S4003)。描画部409は、読み取り時刻から勤務開始の予定時刻までの待機期間を表す帯グラフ2551を描画する(S4005)。描画部409は、勤務開始の予定時刻から勤務終了の予定時刻までの勤務期間を表す帯グラフ3301を描画する(S4007)。第1描画処理(I)を終えると、呼び出し元のメイン処理(B)に復帰する。
S811において、表示処理部411は、描画したグラフを表示する。本実施の形態では、第1描画処理(I)で描画した棒グラフ301、帯グラフ1701、帯グラフ1703、帯グラフ2551及び帯グラフ3301を表示装置455に表示させる。
本実施の形態によれば、待機中及び勤務中におけるユーザの体調を予測する際に、睡眠の深さを考慮できる。
[実施の形態12]
本実施の形態では、ユーザの体位を帯グラフで表す。
本実施の形態では、ユーザの体位を帯グラフで表す。
図41に、実施の形態12におけるグラフの例を示す。第1グラフ領域の上側に第2グラフ領域が設けられている。第2グラフ領域には、ユーザの体位を表す帯グラフ4101が表示される。
本実施の形態では、メイン処理(C)を実行する。図42に、メイン処理(C)フローを示す。描画部409は、第2描画処理を実行する(S4201)。第2描画処理では、第2グラフ領域に表示期間における体位を示す帯グラフ4101を描画する。S811で、表示処理部411は、第1描画処理で描画したグラフに併せて、第2描画処理で描画したグラフも表示する。尚、第1描画処理で描画したグラフと第2描画処理で描画したグラフは、時間軸が一致する。
尚、図41のグラフは、S805で第1特定処理(A)を実行し、S1401で第2特定処理(B)を実行し、S809で、第1描画処理(C)を実行する場合の例を示している。
メイン処理(C)は、メイン処理(B)をベースとして第2描画処理を加えたが、メイン処理(A)をベースとして第2描画処理を加えるようにしてもよい。つまり、上述したいずれの実施の形態に、本実施の形態を適用してもよい。
本実施の形態によれば、活動量と体位との組み合わせによってユーザの状況をより詳しく推測できる。
[実施の形態13]
本実施の形態では、ユーザが目覚めた時点から勤務開始の予定時刻までの第1期間の長さを表示する。
本実施の形態では、ユーザが目覚めた時点から勤務開始の予定時刻までの第1期間の長さを表示する。
図43に、実施の形態13におけるグラフの例を示す。本実施の形態では、グラフと共に、第1期間を示すウィンドウ4301を表示する。この例では、勤務開始の予定時刻付近にウィンドウ4301を表示する。但し、他の位置にウィンドウ4301を表示してもよい。また、ウィンドウ4301以外の態様で第1期間を表示してもよい。
本実施の形態では、メイン処理(D)を実行する。図44に、メイン処理(D)フローを示す。メイン処理(D)は、メイン処理(A)乃至(C)のいずれを前提としてもよい。S811の処理に続いて、第1算出部413は、ユーザが目覚めた時点から勤務開始の予定時刻までの第1期間の長さを算出する(S4401)。ユーザが目覚めた時点は、最後に睡眠状態から覚醒状態へ切り替わったタイミングを指す。表示処理部411は、第1期間の長さを示すウィンドウ4301を表示する(S4403)。そして、メイン処理(D)を終える。
尚、図43のグラフは、S805で第1特定処理(B)を実行し、S1401で第2特定処理(A)を実行し、S809で、第1描画処理(B)を実行する場合の例を示している。但し、上述した実施の形態1乃至実施の形態12のいずれに、本実施の形態を適用するようにしてもよい。
本実施の形態によれば、ユーザが目覚めた時点から経つ時間に応じて、勤務開始時点における体調を予測することに役立つ。
[実施の形態14]
本実施の形態では、ユーザが目覚めた時点から勤務終了の予定時刻までの第2期間の長さを表示する。
本実施の形態では、ユーザが目覚めた時点から勤務終了の予定時刻までの第2期間の長さを表示する。
図45に、実施の形態14におけるグラフの例を示す。本実施の形態では、グラフと共に、第2期間を示すウィンドウ4501を表示する。この例では、勤務終了の予定時刻付近にウィンドウ4501を表示する。但し、他の位置にウィンドウ4501を表示してもよい。また、ウィンドウ4501以外の態様で第2期間を表示してもよい。
本実施の形態では、メイン処理(E)を実行する。図46に、メイン処理(E)フローを示す。メイン処理(E)は、メイン処理(A)乃至(C)のいずれを前提としてもよい。S811の処理に続いて、第2算出部415は、ユーザが目覚めた時点から勤務終了の予定時刻までの第2期間の長さを算出する(S4601)。表示処理部411は、第2期間の長さを示すウィンドウ4501を表示する(S4603)。そして、メイン処理(E)を終える。
尚、図45のグラフは、S805で第1特定処理(C)を実行し、S1401で第2特定処理(A)を実行し、S809で、第1描画処理(B)を実行する場合の例を示している。但し、上述した実施の形態1乃至実施の形態12のいずれに、本実施の形態を適用するようにしてもよい。
本実施の形態によれば、ユーザが目覚めた時点から経つ時間に応じて、勤務終了時点における体調を予測することに役立つ。
[実施の形態15]
本実施の形態では、第1期間の長さ及び第2期間の長さを表示する。
本実施の形態では、第1期間の長さ及び第2期間の長さを表示する。
図47に、実施の形態15におけるグラフの例を示す。本実施の形態では、グラフと共に、第1期間を示すウィンドウ4301及び第2期間を示すウィンドウ4501を表示する。ウィンドウ4301及びウィンドウ4501の位置は任意である。
本実施の形態では、メイン処理(F)を実行する。図48に、メイン処理(F)フローを示す。メイン処理(F)は、メイン処理(A)乃至(C)のいずれを前提としてもよい。S811の処理に続いて、第1算出部413は、ユーザが目覚めた時点から勤務開始の予定時刻までの第1期間の長さを算出する(S4401)。表示処理部411は、第1期間の長さを示すウィンドウ4301を表示する(S4403)。
更に、第2算出部415は、ユーザが目覚めた時点から勤務終了の予定時刻までの第2期間の長さを算出する(S4601)。表示処理部411は、第2期間の長さを示すウィンドウ4501を表示する(S4603)。
尚、図47のグラフは、S805で第1特定処理(C)を実行し、S1401で第2特定処理(A)を実行し、S809で第1描画処理(B)を実行する場合の例を示している。但し、上述した実施の形態1乃至実施の形態12のいずれに、本実施の形態を適用するようにしてもよい。
本実施の形態によれば、ユーザが目覚めた時点から経つ時間に応じて、勤務開始時点及び勤務終了時点における体調を予測することに役立つ。
各グラフの図では、塗りつぶす模様によって領域を区別する例を示したが、塗りつぶす色によって領域を区別するようにしてもよい。
以上本発明の実施の形態を説明したが、本発明はこれに限定されるものではない。例えば、上述の機能ブロック構成はプログラムモジュール構成に一致しない場合もある。
また、上で説明した各記憶領域の構成は一例であって、上記のような構成でなければならないわけではない。さらに、処理フローにおいても、処理結果が変わらなければ、処理の順番を入れ替えることや複数の処理を並列に実行させるようにしても良い。
なお、上で述べた情報処理装置201は、コンピュータ装置であって、図49に示すように、メモリ2501とCPU(Central Processing Unit)2503とハードディスク・ドライブ(HDD:Hard Disk Drive)2505と表示装置2509に接続される表示制御部2507とリムーバブル・ディスク2511用のドライブ装置2513と入力装置2515とネットワークに接続するための通信制御部2517とがバス2519で接続されている。オペレーティング・システム(OS:Operating System)及び本実施例における処理を実施するためのアプリケーション・プログラムは、HDD2505に格納されており、CPU2503により実行される際にはHDD2505からメモリ2501に読み出される。CPU2503は、アプリケーション・プログラムの処理内容に応じて表示制御部2507、通信制御部2517、ドライブ装置2513を制御して、所定の動作を行わせる。また、処理途中のデータについては、主としてメモリ2501に格納されるが、HDD2505に格納されるようにしてもよい。本発明の実施例では、上で述べた処理を実施するためのアプリケーション・プログラムはコンピュータ読み取り可能なリムーバブル・ディスク2511に格納されて頒布され、ドライブ装置2513からHDD2505にインストールされる。インターネットなどのネットワーク及び通信制御部2517を経由して、HDD2505にインストールされる場合もある。このようなコンピュータ装置は、上で述べたCPU2503、メモリ2501などのハードウエアとOS及びアプリケーション・プログラムなどのプログラムとが有機的に協働することにより、上で述べたような各種機能を実現する。
以上述べた本発明の実施の形態をまとめると、以下のようになる。
本実施の形態に係るセンサ表示装置は、(A)取得したセンサ値を記憶部に記憶するウェアラブルセンサから記憶部に記憶されたセンサ値を読み取り装置を介して取得する際に、読み取りの際の第1タイミング、センサと対応づけられたユーザの勤務開始予定の第2タイミング、又はユーザの勤務終了予定の第3タイミングから遡って所定時間幅内のセンサ値を自動的に特定する第1特定部と、(B)特定したセンサ値又は特定したセンサ値に基づく算出値を時系列的に表示する表示装置とを備える。
このようにすれば、所定タイミングに至るまでのユーザの状況を推測しやすい画面を表示可能な表示装置を提供できる。
センサ値又は算出値は、ウェアラブルセンサを装着したユーザの活動状態に関する時系列のデータであってもよい。そして、センサ表示装置は、更に、上記時系列のデータに基づいて、ユーザの睡眠期間を特定する第2特定部と、所定時間幅における活動状態及び睡眠期間を表す第1グラフを描画する描画部と、第1グラフを表示装置に表示させる表示処理部とを備えるようにしてもよい。
このようにすれば、ユーザの体調を推測しやすい画面を表示可能な表示装置を提供できる。
更に、表示処理部は、第2タイミングを終端とした第1グラフを表示装置に表示させるようにしてもよい。
このようにすれば、勤務開始から遡る期間を把握しやすい画面を表示可能な表示装置を提供できる。このような画面によれば、例えば、ユーザが目覚めた時点から勤務開始までの期間を把握しやすい。
更に、描画部は、第1タイミングから第2タイミングまでの期間を表す画像を第1グラフに描画するようにしてもよい。
このようにすれば、ユーザの待機期間に基づいて、当該待機による体調への影響を予測しやすい画面を表示可能な表示装置を提供できる。
更に、表示処理部は、第3タイミングを終端とした第1グラフを表示装置に表示させるようにしてもよい。
このようにすれば、勤務終了から遡る期間を把握しやすい画面を表示可能な表示装置を提供できる。このような画面によれば、例えば、ユーザが目覚めた時点から勤務終了までの期間を把握しやすい。
更に、描画部は、第2タイミングから第3タイミングまでの期間を表す画像を第1グラフに描画するようにしてもよい。
このようにすれば、ユーザの勤務期間に基づいて、勤務中における体調の予測しやすい画面を表示可能な表示装置を提供できる。
更に、第2特定部は、睡眠期間のうち、ユーザが浅く睡眠している第1時間帯と当該ユーザが深く睡眠している第2時間帯とを特定するようにしてもよい。描画部は、第1グラフにおいて第1時間帯と第2時間帯とを異なる態様で描画するようにしてもよい。
このようにすれば、ユーザの睡眠状態を把握しやすい画面を表示可能な表示装置を提供できる。
更に、描画部は、ユーザの体位を時系列的に表す第2グラフを描画し、表示処理部は、第1グラフの時間軸に合わせて、第2グラフを表示装置に表示させるようにしてもよい。
このようにすれば、活動状態と体位との組み合わせによってユーザの状況をより詳しく推測しやすい画面を表示可能な表示装置を提供できる。
更に、センサ表示装置は、ユーザが目覚めた時点から第2タイミングまでの第1期間の長さを算出する第1算出部を備えるようにしてもよい。表示処理部は、第1期間の長さを表示装置に表示させるようにしてもよい。
このようにすれば、ユーザが目覚めた時点から経つ時間に応じて、勤務開始時点における体調を予測しやすい画面を表示可能な表示装置を提供できる。
更に、センサ表示装置は、ユーザが目覚めた時点から第3タイミングまでの第2期間の長さを算出する第2算出部を備えるようにしてもよい。表示処理部は、第2期間の長さを表示装置に表示させるようにしてもよい。
このようにすれば、ユーザが目覚めた時点から経つ時間に応じて、勤務中における体調を予測しやすい画面を表示可能な表示装置を提供できる。
更に、所定時間幅は、24時間であってもよい。
このようにすれば、1日のサイクルに基づく体調の分析を行いやすい。完全な徹夜をしていない限り、24時間の内に睡眠期間が含まれると見込まれる。
なお、上で述べたセンサ表示装置における処理をコンピュータに行わせるためのプログラムを作成することができ、当該プログラムは、例えばフレキシブルディスク、CD-ROM、光磁気ディスク、半導体メモリ、ハードディスク等のコンピュータ読み取り可能な記憶媒体又は記憶装置に格納されるようにしてもよい。尚、中間的な処理結果は、一般的にメインメモリ等の記憶装置に一時保管される。
Claims (13)
- 取得したセンサ値を記憶部に記憶するウェアラブルセンサから前記記憶部に記憶された前記センサ値を読み取り装置を介して取得する際に、読み取りの際の第1タイミング、前記センサと対応づけられたユーザの勤務開始予定の第2タイミング、又は前記ユーザの勤務終了予定の第3タイミングから遡って所定時間幅内のセンサ値を特定する第1特定部と、
特定した前記センサ値又は特定した前記センサ値に基づく算出値を時系列的に表示する表示装置と、
を備えたことを特徴とするセンサ表示装置。 - 前記センサ値又は前記算出値は、前記ウェアラブルセンサを装着した前記ユーザの活動状態に関する時系列のデータであり、
前記センサ表示装置は、更に、
前記時系列のデータに基づいて、前記ユーザの睡眠期間を特定する第2特定部と、
前記所定時間幅における前記活動状態及び前記睡眠期間を表す第1グラフを描画する描画部と、
前記第1グラフを前記表示装置に表示させる表示処理部と
を備えることを特徴とする請求項1記載のセンサ表示装置。 - 前記表示処理部は、前記第2タイミングを終端とした前記第1グラフを前記表示装置に表示させる
ことを特徴とする請求項2記載のセンサ表示装置。 - 前記描画部は、前記第1タイミングから前記第2タイミングまでの期間を表す画像を前記第1グラフに描画する
ことを特徴とする請求項2又は3記載のセンサ表示装置。 - 前記表示処理部は、前記第3タイミングを終端とした前記第1グラフを前記表示装置に表示させる
ことを特徴とする請求項2記載のセンサ表示装置。 - 前記描画部は、前記第2タイミングから前記第3タイミングまでの期間を表す画像を前記第1グラフに描画する
ことを特徴とする請求項2又は5記載のセンサ表示装置。 - 前記第2特定部は、前記睡眠期間のうち、前記ユーザが浅く睡眠している第1時間帯と当該ユーザが深く睡眠している第2時間帯とを特定し、
前記描画部は、前記第1グラフにおいて前記第1時間帯と前記第2時間帯とを異なる態様で描画する
ことを特徴とする請求項2乃至6のいずれか1つ記載のセンサ表示装置。 - 前記描画部は、前記ユーザの体位を時系列的に表す第2グラフを描画し、
前記表示処理部は、前記第1グラフの時間軸に合わせて、前記第2グラフを前記表示装置に表示させる
ことを特徴とする請求項2乃至7のいずれか1つ記載のセンサ表示装置。 - 前記センサ表示装置は、更に、
前記ユーザが目覚めた時点から前記第2タイミングまでの第1期間の長さを算出する第1算出部
を備え、
前記表示処理部は、前記第1期間の長さを前記表示装置に表示させる
ことを特徴とする請求項2乃至8のいずれか1つ記載のセンサ表示装置。 - 前記センサ表示装置は、更に、
前記ユーザが目覚めた時点から前記第3タイミングまでの第2期間の長さを算出する第2算出部
を備え、
前記表示処理部は、前記第2期間の長さを前記表示装置に表示させる
ことを特徴とする請求項2乃至9のいずれか1つ記載のセンサ表示装置。 - 前記所定時間幅は、24時間である
ことを特徴とする請求項1乃至10のいずれか1つ記載のセンサ表示装置。 - 取得したセンサ値を記憶部に記憶するウェアラブルセンサから前記記憶部に記憶された前記センサ値を読み取り装置を介して取得する際に、読み取りの際の第1タイミング、前記センサと対応づけられたユーザの勤務開始予定の第2タイミング、又は前記ユーザの勤務終了予定の第3タイミングから遡って所定時間幅内のセンサ値を自動的に特定し、
表示装置に、特定した前記センサ値又は特定した前記センサ値に基づく算出値を時系列的に表示させる
処理を含み、コンピュータにより実行されることを特徴とするセンサ表示方法。 - 取得したセンサ値を記憶部に記憶するウェアラブルセンサから前記記憶部に記憶された前記センサ値を読み取り装置を介して取得する際に、読み取りの際の第1タイミング、前記センサと対応づけられたユーザの勤務開始予定の第2タイミング、又は前記ユーザの勤務終了予定の第3タイミングから遡って所定時間幅内のセンサ値を自動的に特定し、
表示装置に、特定した前記センサ値又は特定した前記センサ値に基づく算出値を時系列的に表示させる
処理をコンピュータに実行させることを特徴とするプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/060040 WO2017168545A1 (ja) | 2016-03-29 | 2016-03-29 | センサ表示装置、センサ表示方法及びプログラム |
JP2018507865A JP6614336B2 (ja) | 2016-03-29 | 2016-03-29 | センサ表示装置、センサ表示方法及びプログラム |
US16/106,403 US20180353141A1 (en) | 2016-03-29 | 2018-08-21 | Sensor display device, sensor display method, and computer-readable recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/060040 WO2017168545A1 (ja) | 2016-03-29 | 2016-03-29 | センサ表示装置、センサ表示方法及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US16/106,403 Continuation US20180353141A1 (en) | 2016-03-29 | 2018-08-21 | Sensor display device, sensor display method, and computer-readable recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017168545A1 true WO2017168545A1 (ja) | 2017-10-05 |
Family
ID=59963623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2016/060040 WO2017168545A1 (ja) | 2016-03-29 | 2016-03-29 | センサ表示装置、センサ表示方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20180353141A1 (ja) |
JP (1) | JP6614336B2 (ja) |
WO (1) | WO2017168545A1 (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014170263A (ja) * | 2013-03-01 | 2014-09-18 | Omron Healthcare Co Ltd | 睡眠および活動量表示プログラム、装置、システムおよび方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5768517B2 (ja) * | 2011-06-13 | 2015-08-26 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
WO2015107681A1 (ja) * | 2014-01-17 | 2015-07-23 | 任天堂株式会社 | 情報処理システム、情報処理サーバ、情報処理プログラム、および情報提供方法 |
-
2016
- 2016-03-29 WO PCT/JP2016/060040 patent/WO2017168545A1/ja active Application Filing
- 2016-03-29 JP JP2018507865A patent/JP6614336B2/ja active Active
-
2018
- 2018-08-21 US US16/106,403 patent/US20180353141A1/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014170263A (ja) * | 2013-03-01 | 2014-09-18 | Omron Healthcare Co Ltd | 睡眠および活動量表示プログラム、装置、システムおよび方法 |
Also Published As
Publication number | Publication date |
---|---|
US20180353141A1 (en) | 2018-12-13 |
JP6614336B2 (ja) | 2019-12-04 |
JPWO2017168545A1 (ja) | 2019-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3809227A1 (en) | Driving assistance apparatus and driving assistance method | |
US20150119726A1 (en) | Electronic apparatus and communication control method | |
US20180338717A1 (en) | Information processing device, information processing method, and recording medium | |
US11051753B2 (en) | Information processing method and information processing apparatus | |
JP5421179B2 (ja) | 動物活動計測装置 | |
US10993656B2 (en) | Measuring and estimating sleep quality | |
US9576500B2 (en) | Training supporting apparatus and system for supporting training of walking and/or running | |
WO2015028918A1 (en) | Fishing and sailing activity detection | |
US8874195B2 (en) | Apparatus and method for health care | |
EP4218555B1 (en) | Biological signal collection method, apparatus, and system and electronic device | |
WO2018084157A1 (ja) | 生体情報測定装置、生体情報測定装置の制御方法、制御装置、および制御プログラム | |
EP3242115B1 (en) | Basal body temperature measurement system and basal body temperature measurement device | |
JP6614336B2 (ja) | センサ表示装置、センサ表示方法及びプログラム | |
JP7339005B2 (ja) | 生体情報監視システム | |
WO2019130993A1 (ja) | 運転支援装置、および運転支援方法 | |
JP7084526B2 (ja) | 端末装置、出力方法及びコンピュータプログラム | |
US20210228152A1 (en) | Measuring and estimating alertness | |
CN204428042U (zh) | 智能胎动记录仪 | |
EP3213671A1 (en) | State display method, program, and state display device | |
JP4515142B2 (ja) | 生体情報測定装置 | |
JP5751162B2 (ja) | 呼吸検出装置 | |
JP2017083929A (ja) | 印刷システム、測定装置、印刷装置並びに印刷方法 | |
KR20160103707A (ko) | 졸음운전 방지 시스템 및 방법 | |
JP7268928B1 (ja) | 呼吸数推定システム、呼吸数推定サーバ、呼吸数推定方法、及び呼吸数推定プログラム | |
JP6736975B2 (ja) | 生体情報測定装置、通信システム及び通信方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WWE | Wipo information: entry into national phase |
Ref document number: 2018507865 Country of ref document: JP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16896765 Country of ref document: EP Kind code of ref document: A1 |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 16896765 Country of ref document: EP Kind code of ref document: A1 |