Nothing Special   »   [go: up one dir, main page]

WO2016139824A1 - 画面情報処理装置、画面情報処理方法および画面情報処理プログラム - Google Patents

画面情報処理装置、画面情報処理方法および画面情報処理プログラム Download PDF

Info

Publication number
WO2016139824A1
WO2016139824A1 PCT/JP2015/070508 JP2015070508W WO2016139824A1 WO 2016139824 A1 WO2016139824 A1 WO 2016139824A1 JP 2015070508 W JP2015070508 W JP 2015070508W WO 2016139824 A1 WO2016139824 A1 WO 2016139824A1
Authority
WO
WIPO (PCT)
Prior art keywords
screen
sensor
icons
icon
display
Prior art date
Application number
PCT/JP2015/070508
Other languages
English (en)
French (fr)
Inventor
満 平川
Original Assignee
住友電気工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 住友電気工業株式会社 filed Critical 住友電気工業株式会社
Priority to US15/037,761 priority Critical patent/US20160378301A1/en
Publication of WO2016139824A1 publication Critical patent/WO2016139824A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/06Arrangements for sorting, selecting, merging, or comparing data on individual record carriers
    • G06F7/08Sorting, i.e. grouping record carriers in numerical or other ordered sequence according to the classification of at least some of the information they carry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Definitions

  • the present invention relates to a screen information processing apparatus, a screen information processing method, and a screen information processing program, and more particularly to a screen information processing apparatus, a screen information processing method, and a screen information processing program that display icons.
  • Patent Document 1 discloses the following technique. That is, the air flow distribution device is an air flow distribution device for use in a data center, wherein at least one air flow sensor coupled to a plurality of fans in at least one server in the data center; A controller coupled to one air flow sensor and configured to monitor air flow for the plurality of fans and to control cooling in the data center in response to the sensed air flow. It is characterized by that.
  • the arrangement of sensors in the predetermined area may be displayed on the screen.
  • a plurality of sensors are arranged in a concentrated manner, a plurality of icons respectively indicating the plurality of sensors are overlapped or densely arranged on the screen, resulting in poor visibility.
  • This invention was made in order to solve the above-mentioned subject, and the purpose is a screen information processor which can improve visibility in the composition which displays the icon which shows the sensor in a predetermined area on a screen, A screen information processing method and a screen information processing program are provided.
  • the screen information processing apparatus is configured to display each of the icons on the screen when a plurality of icons indicating the positions of the plurality of sensors are to be displayed on the screen
  • An evaluation unit that evaluates the degree of overlap or density of the icons
  • a display control unit that performs control to display an auxiliary icon, which is another icon in which the icons are grouped according to the evaluation content by the evaluation unit, on the screen.
  • a screen information processing method is a screen information processing method in a screen information processing apparatus, and displays a plurality of icons respectively indicating positions of a plurality of sensors.
  • the icon is scheduled to be displayed on the screen, a step of evaluating the degree of overlap or density of the icons on the screen, and another icon that summarizes the icons according to the evaluation of the degree of overlap or density Controlling to display an auxiliary icon on the screen.
  • a screen information processing program is a screen information processing program used in a screen information processing apparatus, and indicates the positions of a plurality of sensors to a computer, respectively.
  • the step of evaluating the degree of overlap or density of the icons on the screen, and the icons are grouped according to the evaluation content of the degree of overlap or density
  • a step of performing a control to display an auxiliary icon as another icon on the screen is a screen information processing program used in a screen information processing apparatus, and indicates the positions of a plurality of sensors to a computer, respectively.
  • visibility can be improved in a configuration in which an icon indicating the position of a sensor in a predetermined area is displayed on the screen.
  • FIG. 1 is a diagram showing a configuration of a monitoring system according to the first embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an example of a screen displayed on the display in the comparative example of the monitoring system according to the first embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an example of a screen displayed on the display in the monitoring system according to the first embodiment of the present invention.
  • FIG. 4 is a diagram showing another example of the screen displayed on the display in the monitoring system according to the first embodiment of the present invention.
  • FIG. 5 is a diagram showing another example of a screen displayed on the display in the monitoring system according to the first embodiment of the present invention.
  • FIG. 6 is a diagram showing another example of the screen displayed on the display in the monitoring system according to the first embodiment of the present invention.
  • FIG. 7 is a diagram showing another example of a screen displayed on the display in the monitoring system according to the first embodiment of the present invention.
  • FIG. 8 is a diagram showing another example of a screen displayed on the display in the monitoring system according to the first embodiment of the present invention.
  • FIG. 9 is a diagram showing a configuration of the screen information processing apparatus in the monitoring system according to the first embodiment of the present invention.
  • FIG. 10 is a flowchart showing an example of display processing by the screen information processing apparatus according to the first embodiment of the present invention.
  • FIG. 11 is a flowchart showing another example of display processing by the screen information processing apparatus according to the first embodiment of the present invention.
  • FIG. 12 is a diagram showing an example of a screen displayed on the display in the monitoring system according to the second embodiment of the present invention.
  • FIG. 13 is a diagram showing the configuration of the screen information processing apparatus according to the second embodiment of the present invention.
  • FIG. 14 is a diagram illustrating an example of a screen displayed on the display in the comparative example of the monitoring system according to the third embodiment of the present invention.
  • FIG. 15 is a diagram illustrating an example of a screen displayed on the display in the monitoring system according to the third embodiment of the present invention.
  • the screen information processing apparatus intends to display a plurality of icons respectively indicating the positions of a plurality of sensors on the screen, the overlapping degree or density of the icons on the screen
  • An evaluation unit that evaluates the degree
  • a display control unit that performs control to display an auxiliary icon, which is another icon in which the icons are grouped according to the evaluation content of the evaluation unit, on the screen.
  • a plurality of icons concentrated on a screen showing the predetermined area can be collectively displayed as different icons.
  • it can display so that icons may not overlap, or the distance between icons can be secured to some extent. Therefore, visibility can be improved in the configuration in which the icon indicating the position of the sensor in the predetermined area is displayed on the screen.
  • the screen information processing apparatus further includes an acquisition unit that acquires sensor information indicating a measurement result of the sensor, and the display control unit is configured to display the icon when the icon is specified on the screen. Control to display the sensor information corresponding to the icon on the screen is performed.
  • an icon is designated on the screen means that an icon is designated by an operation input using a GUI (Graphical User Interface) such as a click operation with a mouse or a tap operation on a touch panel. Means.
  • GUI Graphic User Interface
  • the display control unit performs control to display the auxiliary icons with the number of the icons collected.
  • the display control unit displays an enlarged view of an arrangement area of each sensor corresponding to the auxiliary icon together with the corresponding icon when the auxiliary icon is designated on the screen. I do.
  • the user can confirm the icons arranged in the auxiliary icons in the above enlarged view, so that the detailed position of each icon can be recognized.
  • the display control unit arranges each sensor corresponding to the auxiliary icon.
  • the side view is displayed together with the corresponding icons.
  • the display control unit performs control to display a list of information of each sensor corresponding to the auxiliary icon.
  • the user can list information on a plurality of sensors corresponding to the auxiliary icons.
  • the display control unit selectively displays or selectively displays the icon corresponding to the sensor of the type specified on the screen. Do not control.
  • the screen information processing method is a screen information processing method in the screen information processing apparatus, and a plurality of icons indicating the positions of a plurality of sensors are scheduled to be displayed on the screen.
  • a step of evaluating the degree of overlap or density of the icons on the screen, and an auxiliary icon that is another icon in which the icons are grouped according to the evaluation of the degree of overlap or the density on the screen are provided on the screen. And performing control to display.
  • a plurality of icons concentrated on a screen showing the predetermined area can be collectively displayed as different icons.
  • it can display so that icons may not overlap, or the distance between icons can be secured to some extent. Therefore, visibility can be improved in the configuration in which the icon indicating the position of the sensor in the predetermined area is displayed on the screen.
  • a screen information processing program is a screen information processing program used in a screen information processing apparatus, and displays a plurality of icons respectively indicating the positions of a plurality of sensors on a screen. And a step of evaluating the degree of overlap or density of the icons on the screen and an auxiliary icon that is a collection of the icons according to the evaluation of the degree of overlap or density And a step of performing a control of displaying an icon on the screen.
  • a plurality of icons concentrated on a screen showing the predetermined area can be collectively displayed as different icons.
  • it can display so that icons may not overlap, or the distance between icons can be secured to some extent. Therefore, visibility can be improved in the configuration in which the icon indicating the position of the sensor in the predetermined area is displayed on the screen.
  • FIG. 1 is a diagram showing a configuration of a monitoring system according to the first embodiment of the present invention.
  • the monitoring system 101 includes a plurality of sensors 11, a screen information processing device 12, and a display 13.
  • Each sensor 11 is a temperature sensor, a humidity sensor, an infrared sensor, or the like, and is arranged in a monitoring target area such as a factory, a hospital, or a store.
  • the monitoring target area may be indoors or outdoors.
  • each sensor 11 measures, for example, the temperature and humidity of the production facility.
  • the sensor 11 transmits sensor information indicating the measurement result and its own ID to the screen information processing apparatus 12.
  • the screen information processing apparatus 12 is connected to each sensor 11 by wire or wireless, and receives sensor information from each sensor 11.
  • the screen information processing apparatus 12 can display the content of the received sensor information on the display 13.
  • FIG. 2 is a diagram showing an example of a screen displayed on the display in the comparative example of the monitoring system according to the first embodiment of the present invention.
  • the screen includes a display area D11 and a display area D12.
  • a plan view of a factory which is a monitoring target area is displayed.
  • an outline of a plurality of production facilities arranged in the monitoring target area and an icon indicating the sensor 11 (hereinafter also referred to as a sensor icon) are displayed.
  • the display area D11 includes the outlines of production lines A to D, the outlines of production facilities A to C, temperature sensor sensor icons T1 to T15, and humidity sensor sensor icons H1 to H11.
  • Infrared sensor icons R1 to R20 are displayed.
  • the sensor icon has a different shape for each type of sensor 11, that is, a temperature sensor, a humidity sensor, or an infrared sensor.
  • the display area D12 In the display area D12, the correspondence between the type of sensor icon displayed in the display area D11 and the type of sensor 11 is displayed.
  • the user can display the content of the sensor information of the sensor 11 corresponding to the sensor icon on the screen by performing a click operation on the sensor icon displayed in the display area D11 using, for example, a mouse. .
  • the sensors 11 are arranged at a certain position in the height direction and concentrated in the horizontal direction. For this reason, the sensor icons are displayed overlapping or densely in the portions Ph1 to Ph3 of the screen.
  • the sensors 11 are arranged at substantially the same position in the horizontal direction and at different positions in the height direction. For this reason, in the portions Pv1 to Pv3 of the screen, the sensor icons are displayed overlapping or densely.
  • the monitoring system according to the first embodiment of the present invention solves such a problem by the following processing.
  • FIG. 3 is a diagram showing an example of a screen displayed on the display in the monitoring system according to the first embodiment of the present invention.
  • the screen includes a display area D1 and a display area D2.
  • the display content of the screen shown in FIG. 3 is the same as the display content of the screen shown in FIG. 2 except for the content described below.
  • auxiliary icons E1, E2, E3 are displayed instead of the sensor icons included in the portions Ph1, Ph2, Ph3, respectively.
  • auxiliary icons V1, V2, and V3 are displayed in place of the sensor icons included in the portions Pv1, Pv2, and Pv3, respectively.
  • the sensor icons included in the portions Ph1, Ph2, and Ph3 on the screen shown in FIG. 2 are grouped into auxiliary icons E1, E2, and E3 on the screen shown in FIG.
  • auxiliary icons V1, V2, and V3 in the screen shown in FIG. 2 are grouped into auxiliary icons V1, V2, and V3 in the screen shown in FIG.
  • a sensor group in which the sensors 11 corresponding to the sensor icons included in the part Ph1 are combined a sensor group in which the sensors 11 corresponding to the sensor icons included in the part Ph2 are combined, and each sensor icon included in the part Ph3.
  • the sensor groups in which the corresponding sensors 11 are collected are also referred to as sensor groups Ge1, Ge2, and Ge3, respectively.
  • Auxiliary icons E1, E2, and E3 indicate sensor groups Ge1, Ge2, and Ge3, respectively.
  • the sensors 11 included in each of the sensor groups Ge1 to Ge3 are arranged at the same position in the height direction to some extent and concentrated in the horizontal direction.
  • the sensor group corresponding to each sensor icon included in the part Pv1 the sensor group corresponding to each sensor icon included in the part Pv2, the sensor group corresponding to each sensor icon included in the part Pv2, and the sensor icon included in the part Pv3.
  • the sensor groups in which the sensors 11 to be integrated are also referred to as sensor groups Gv1, Gv2, and Gv3, respectively.
  • Auxiliary icons V1, V2, and V3 indicate sensor groups Gv1, Gv2, and Gv3, respectively.
  • the sensors 11 included in each of the sensor groups Gv1 to Gv3 are arranged at substantially the same position in the horizontal direction and at different positions in the height direction.
  • the sensor group Ge such as the sensor groups Ge1 to Ge3 and the sensor group Gv such as the sensor groups Gv1 to Gv3 are distinguished from each other by different types of auxiliary icons. Thereby, the various positional relationships of the sensors 11 corresponding to the auxiliary icons can be distinguished and recognized by the user.
  • the auxiliary icon E1 is an auxiliary icon in which six sensor icons of sensor icons H3 to H5 and sensor icons T4 to T6 are collected. For this reason, “6” is attached to the auxiliary icon E1.
  • the auxiliary icon E2 is an auxiliary icon in which eight sensor icons of sensor icons H6 and H7, sensor icons T9 to T11, and sensor icons R12 to R14 are collected. For this reason, “8” is attached to the auxiliary icon E2.
  • the auxiliary icon E3 is an auxiliary icon in which four sensor icons, sensor icons T7 and T8 and sensor icons R10 and R11, are collected. For this reason, “4” is attached to the auxiliary icon E3.
  • the auxiliary icon V1 is an auxiliary icon in which four sensor icons, sensor icons R18 and 19 and sensor icons H9 and H10, are collected. For this reason, “4” is attached to the auxiliary icon V1.
  • auxiliary icon V2 is an auxiliary icon in which two sensor icons of the sensor icon T12 and the sensor icon R20 are collected. For this reason, “2” is attached to the auxiliary icon V2.
  • auxiliary icon V3 is an auxiliary icon in which three sensor icons of the sensor icons R16, 17 and the sensor icon T14 are collected. For this reason, “3” is attached to the auxiliary icon V3.
  • the correspondence relationship between the type of auxiliary icon and the type of sensor group is further displayed.
  • FIG. 4 is a diagram showing another example of the screen displayed on the display in the monitoring system according to the first embodiment of the present invention.
  • the screen includes a display area D1, a display area D2, and a display area W10.
  • the display area W10 is displayed over the display area D1.
  • the display area W10 is a window displayed when the user performs an operation such as clicking on the auxiliary icon E1, for example.
  • information of the sensors 11 corresponding to the sensor icons collected by the auxiliary icon E1 that is, the information of the sensors 11 corresponding to the auxiliary icon E1 is displayed in a list.
  • the “type”, “name”, and “measurement result” of each sensor 11 are displayed in the display area W10.
  • FIG. 5 is a diagram showing another example of the screen displayed on the display in the monitoring system according to the first embodiment of the present invention.
  • the screen includes a display area D1, a display area D2, and a display area W11.
  • the display area W11 is displayed over the display area D1.
  • the display area W11 is a window displayed when, for example, the user performs a click operation on the auxiliary icon E1 on the screen shown in FIG.
  • an enlarged view of the arrangement area of each sensor 11 corresponding to the auxiliary icon E1 is displayed together with each sensor icon corresponding to the auxiliary icon E1.
  • FIG. 6 is a diagram showing another example of the screen displayed on the display in the monitoring system according to the first embodiment of the present invention.
  • the screen includes a display area D1, a display area D2, and a display area W12.
  • the display area W12 is displayed over the display area D1.
  • the display area W12 is, for example, a window displayed when the user performs a click operation on the auxiliary icon V1 on the screen shown in FIG.
  • a side view of the arrangement area of each sensor 11 corresponding to the auxiliary icon V1 is displayed together with each sensor icon corresponding to the auxiliary icon V1.
  • the user registers the production equipment arranged in the monitoring target area in the screen information processing apparatus 12. Specifically, for example, the user draws the outline of the production facility viewed in plan on the screen using a mouse, and inputs the height of the production facility to the screen information processing apparatus 12. The user can also input details of the shape of each production facility. And a user arrange
  • FIG. 7 is a diagram showing another example of a screen displayed on the display in the monitoring system according to the first embodiment of the present invention.
  • FIG. 7 shows how the user places sensor icons on the screen.
  • the screen includes a display area D21 and a display area D22.
  • the display area D21 the registered outline of the production facility and the arranged sensor icons are displayed.
  • the user confirms the location and type of the sensor 11 actually arranged in the monitoring target area, and arranges the sensor icon according to the confirmed content. Specifically, for example, the user drags the sensor icon of the infrared sensor displayed in the display area D22 to a desired position P1 in the display area D21 and drops it at the position P1. Thereby, the user can arrange
  • FIG. 8 is a diagram showing another example of the screen displayed on the display in the monitoring system according to the first embodiment of the present invention.
  • FIG. 8 shows how the user places sensor icons on the screen.
  • the screen includes a display area D21, a display area D22, and a display area W23.
  • the display area W23 is displayed over the display area D21.
  • the user can display an enlarged view of the area where each sensor 11 is arranged on the screen.
  • the display area W23 an enlarged view of the area where the sensors 11 are concentrated is displayed.
  • the user drags the sensor icon of the humidity sensor displayed in the display area D22 to a desired position P2 in the display area W23 and drops it at the position P2.
  • the user can arrange
  • the sensor icon arranged in the display area W23 is also reflected in the display area D21.
  • the user for example, after placing a sensor icon on the screen, inputs the placement height and name of the sensor 11 corresponding to the sensor icon in the monitoring target area to the screen information processing apparatus 12.
  • the user associates the arranged sensor icon with the sensor 11 actually arranged in the monitoring target area.
  • the screen information processing apparatus 12 receives the operation by the user and creates correspondence information indicating the correspondence between the sensor icon on the screen and the sensor 11.
  • the screen information processing device 12 is based on the correspondence information, the placement height and name of each sensor 11 in the monitoring target area input by the user, and the coordinates and type of each sensor icon placed on the screen. Create sensor setting information.
  • the sensor setting information indicates the name, type, placement position, placement height, and corresponding sensor icon of each sensor 11 in the monitoring target area.
  • the screen information processing apparatus 12 creates equipment registration information indicating the registration contents of the production equipment by the user.
  • the facility registration information indicates the outer shape and height of the production facility in plan view, the arrangement position in the monitoring target area, and the like.
  • the screen information processing apparatus 12 may be configured to acquire the facility registration information from another apparatus.
  • FIG. 9 is a diagram showing a configuration of the screen information processing apparatus in the monitoring system according to the first embodiment of the present invention.
  • the screen information processing apparatus 12 includes an acquisition unit 21, a processing unit 22, an evaluation unit 23, a display control unit 24, a receiving unit 25, and a storage unit 26.
  • the storage unit 26 stores, for example, sensor setting information and facility registration information created based on an initial setting by a user.
  • the acquisition unit 21 acquires sensor information indicating measurement results from each sensor 11 regularly or irregularly, and outputs the acquired sensor information to the processing unit 22.
  • the processing unit 22 stores the sensor information received from the acquisition unit 21 in the storage unit 26.
  • the evaluation unit 23 When the evaluation unit 23 intends to display a plurality of sensor icons respectively indicating the positions of the plurality of sensors 11 on the screen, the evaluation unit 23 evaluates the overlapping degree or the density of the sensor icons on the screen.
  • the evaluation unit 23 creates temporary screen information that is information on a screen in which the sensor icons are not collected, based on the sensor setting information and facility registration information stored in the storage unit 26. Based on the created provisional screen information, the evaluation unit 23 detects a portion where sensor icons overlap or are densely displayed, such as portions Ph1 to Ph3 and portions Pv1 to Pv3 in FIG. Then, the evaluation unit 23 evaluates the degree of overlap or density of sensor icons for the detected part.
  • the evaluation unit 23 evaluates the degree of overlap based on the area of the overlapping portion of the sensor icons on the screen indicated by the temporary screen information.
  • the evaluation unit 23 evaluates the density of sensor icons based on the number of sensor icons per unit area on the screen indicated by the temporary screen information.
  • the evaluation unit 23 may express the evaluation content by a numerical value or a level, for example.
  • the evaluation unit 23 outputs the evaluation content of the degree of overlap of the sensor icons and the temporary screen information to the processing unit 22.
  • evaluation unit 23 may simply evaluate the degree of overlap based on whether or not the sensor icons overlap.
  • the display control unit 24 performs control to display on the screen auxiliary icons in which the sensor icons are grouped according to the evaluation contents by the evaluation unit 23. For example, the display control unit 24 performs control to display auxiliary icons with the number of sensor icons collected.
  • the processing unit 22 determines whether or not the sensor icons that are displayed overlapping or densely should be combined into auxiliary icons. To do.
  • the processing unit 22 determines that the sensor icons that are the target of the evaluation content are collected into auxiliary icons.
  • the processing unit 22 determines which type of auxiliary icon to use based on the sensor setting information stored in the storage unit 26.
  • the processing unit 22 determines whether the auxiliary icon E such as the auxiliary icons E1 to E3 or the auxiliary icon V such as the auxiliary icons V1 to V3 is used as the auxiliary icon.
  • the processing unit 22 determines that the auxiliary icon E is used as the auxiliary icon.
  • the processing unit 22 determines that the auxiliary icon V is used as the auxiliary icon.
  • the processing unit 22 creates, for example, screen information G that is screen information shown in FIG. 3 based on the sensor setting information and the facility registration information stored in the storage unit 26 and the contents of its own determination.
  • the auxiliary icon E and the auxiliary icon V are assigned the number of sensor icons collected using each of them.
  • the display control unit 24 displays the auxiliary icon on the screen of the display 13 by transmitting the screen information G received from the processing unit 22 to the display 13.
  • the display control unit 24 performs control to display sensor information corresponding to the sensor icon on the screen.
  • the receiving unit 25 receives an operation performed by the user on the screen of the display 13. For example, when the user performs a click operation C on the sensor icon T1 on the screen illustrated in FIG. 3, the receiving unit 25 receives the click operation C on the sensor icon T1 and displays operation information indicating the received content as a processing unit. 22 to output.
  • the processing unit 22 When the processing unit 22 receives the operation information from the receiving unit 25, the processing unit 22 acquires sensor setting information from the storage unit 26, for example. Then, the processing unit 22 acquires the sensor information of the sensor 11 corresponding to the sensor icon T1 from the storage unit 26 based on the acquired sensor setting information, and outputs the acquired sensor information to the display control unit 24.
  • the display control unit 24 When the display control unit 24 receives the sensor information from the processing unit 22, the display control unit 24 performs control to additionally display the content of the sensor information on the screen already displayed on the display 13.
  • Display list Further, for example, when an auxiliary icon is designated by a click operation or the like on the screen, the display control unit 24 performs control to display a list of sensor information corresponding to the auxiliary icon.
  • the accepting unit 25 performs the click operation C1 on the auxiliary icon E1.
  • the operation information indicating the received content and the received content is output to the processing unit 22.
  • the processing unit 22 When the processing unit 22 receives the operation information from the receiving unit 25, the processing unit 22 acquires sensor information and sensor setting information from each sensor 11 corresponding to the auxiliary icon E1 from the storage unit 26. Then, the processing unit 22 creates list information that lists information on each sensor 11 corresponding to the auxiliary icon E1 based on the acquired sensor information and sensor setting information. For example, the list information includes the type, name, and measurement result of each sensor 11 corresponding to the auxiliary icon E1. The processing unit 22 outputs the created list information to the display control unit 24.
  • the display control unit 24 When the display control unit 24 receives the list information from the processing unit 22, for example, the display control unit 24 performs control to additionally display the contents of the list information on the screen already displayed on the display 13.
  • the display control unit 24 when receiving the list information from the processing unit 22, the display control unit 24 performs control to display the display area W10 shown in FIG. 4 on the screen shown in FIG.
  • the display control unit 24 displays an enlarged view of the arrangement area of each sensor 11 corresponding to the auxiliary icon as the auxiliary icon. Control to display with each corresponding sensor icon.
  • a click operation C2 on the auxiliary icon E1 that is, an operation different from the click operation C1
  • a double click of the left button of the mouse on the screen shown in FIG. Then, a click operation C2 on the auxiliary icon E1 is received, and operation information indicating the received content is output to the processing unit 22.
  • the processing unit 22 When the processing unit 22 receives the operation information from the receiving unit 25, the processing unit 22 acquires sensor setting information and facility registration information from the storage unit 26. And the process part 22 respond
  • the display control unit 24 when receiving the screen information Iz from the processing unit 22, the display control unit 24 performs control to additionally display the screen information Iz on the screen already displayed on the display 13, for example.
  • the display control unit 24 when receiving the screen information Iz, performs control to display the display area W11 shown in FIG. 5 on the screen shown in FIG.
  • the user performs an operation different from the click operation C3, that is, the click operation C1 and the click operation C2, for example, the mouse operation on the auxiliary icon V1.
  • the accepting unit 25 accepts a click operation C3 for the auxiliary icon V1 and outputs operation information indicating the accepted content to the processing unit 22.
  • the processing unit 22 When the processing unit 22 receives the operation information from the receiving unit 25, the processing unit 22 acquires sensor setting information and facility registration information from the storage unit 26. Then, based on the acquired sensor setting information and facility registration information, the processing unit 22 displays the side view of the arrangement area of each sensor 11 corresponding to the auxiliary icon V1 and the auxiliary icon V1 arranged on the side view. Screen information Is indicating each corresponding sensor icon is created. The processing unit 22 outputs the created screen information Is to the display control unit 24.
  • the display control unit 24 when receiving the screen information Is from the processing unit 22, the display control unit 24 performs control to additionally display the screen information Is on the screen already displayed on the display 13, for example.
  • the display control unit 24 when receiving the screen information Is, performs control to display the display area W12 shown in FIG. 6 on the screen shown in FIG.
  • Each device in the monitoring system 101 includes a computer, and an arithmetic processing unit such as a CPU in the computer reads and executes a program including a part or all of each step of the following flowchart from a memory (not shown).
  • an arithmetic processing unit such as a CPU in the computer reads and executes a program including a part or all of each step of the following flowchart from a memory (not shown).
  • Each of the programs of the plurality of apparatuses can be installed from the outside.
  • the programs of the plurality of apparatuses are distributed while being stored in a recording medium.
  • FIG. 10 is a flowchart showing an example of display processing by the screen information processing apparatus according to the first embodiment of the present invention.
  • step S21 when the screen information processing apparatus 12 first plans to display a plurality of sensor icons respectively indicating the positions of the plurality of sensors 11 on the screen, The degree of congestion is evaluated (step S21).
  • the screen information processing apparatus 12 displays the overlapping degree or the denseness of sensor icons that are displayed overlapping or densely when the sensor icons are displayed as they are without being collected as in the screen shown in FIG. Assess degree.
  • the screen information processing apparatus 12 performs control to display auxiliary icons, which are a collection of sensor icons, on the screen according to the contents of the evaluation. Specifically, the screen information processing apparatus 12 determines whether or not sensor icons displayed in a superimposed or dense manner are combined into auxiliary icons based on the evaluation content of the degree of overlap or the density (step S22). .
  • the screen information processing apparatus 12 determines that sensor icons that are overlapped or densely displayed are combined into auxiliary icons (YES in step S22), the screen information processing apparatus 12 is based on the sensor setting information and facility registration information stored by itself. For example, as shown in FIG. 3, screen information G that is information of a screen in which sensor icons are collected into auxiliary icons is created, and control is performed to display the created screen information G on the display 13 (step S23).
  • step S24 if the screen information processing apparatus 12 determines that the sensor icons that are overlapped or densely displayed are not combined into the auxiliary icons based on the evaluation content of the overlapping degree or the denseness (NO in step S22), the auxiliary information processing apparatus 12 Screen information Q that does not display an icon is created, and control for displaying the screen information Q on the display 13 is performed (step S24).
  • FIG. 11 is a flowchart showing another example of display processing by the screen information processing apparatus according to the first embodiment of the present invention.
  • screen information processing apparatus 12 first waits until receiving an operation from the user (NO in step S13).
  • the screen information processing apparatus 12 checks whether or not the operation by the user is a click operation C1 for the auxiliary icon E or the auxiliary icon V (step S14). ).
  • step S14 when the operation by the user is the click operation C1 on the auxiliary icon E or the auxiliary icon V (YES in step S14), the screen information processing apparatus 12 performs the auxiliary icon E or the auxiliary icon V on which the click operation C1 is performed. Control for displaying a list of sensor information corresponding to the above, that is, list information is performed (step S15).
  • the screen information processing apparatus 12 performs control to display the display area W10 shown in FIG. 4 on the screen shown in FIG.
  • step S14 the screen information processing apparatus 12 determines whether the operation is the click operation C2 for the auxiliary icon E. Confirm (step S16).
  • the screen information processing apparatus 12 displays an enlarged view of the arrangement area of each sensor 11 corresponding to the auxiliary icon E. Then, control is performed to display together with each sensor icon corresponding to the auxiliary icon E (step S17).
  • the screen information processing apparatus 12 performs control to display the display area W11 illustrated in FIG. 5 on the screen illustrated in FIG.
  • the screen information processing apparatus 12 checks whether the operation is the click operation C3 for the auxiliary icon V (step S16). S18).
  • step S18 when the operation by the user is a click operation C3 on the auxiliary icon V (YES in step S18), the screen information processing apparatus 12 displays a side view of the arrangement area of each sensor 11 corresponding to the auxiliary icon V, Control to display together with each sensor icon corresponding to the auxiliary icon V is performed (step S19).
  • the display control unit 24 performs control to display the display area W12 shown in FIG. 6 on the screen shown in FIG.
  • the display control unit 24 when the display control unit 24 receives the list information from the processing unit 22, for example, the list information is displayed on the screen already displayed on the display 13.
  • the present invention is not limited to this.
  • the display control unit 24 may be configured to perform control to switch the screen currently displayed on the display 13 to a new screen displaying the list information.
  • the display control unit 24 when the display control unit 24 receives the screen information Iz from the processing unit 22, the screen information Iz is displayed on the screen already displayed on the display 13.
  • the present invention is not limited to this.
  • the display control unit 24 may be configured to perform control to switch the screen currently displayed on the display 13 to a new screen displaying the screen information Iz. .
  • the display control unit 24 when the display control unit 24 receives the screen information Is from the processing unit 22, the display control unit 24 adds the screen information Is to the screen already displayed on the display 13.
  • the configuration is such that the display control is performed, the present invention is not limited to this.
  • the display control unit 24 may be configured to perform control to switch the screen currently displayed on the display 13 to a new screen displaying the screen information Is. .
  • the screen information processing apparatus 12 is configured to accept the designation of the sensor icon and the auxiliary icon by a click operation, the present invention is not limited to this.
  • the screen information processing apparatus 12 may be configured to accept designation of a sensor icon and an auxiliary icon by a user tap on the display 13 or the like.
  • the screen information processing apparatus 12 is configured to create list information in response to a click operation by the user, the present invention is not limited to this.
  • the list information may be created by another device or may be stored in advance in a memory.
  • the arrangement of sensors in the predetermined area may be displayed on the screen.
  • a plurality of sensors are arranged in a concentrated manner, a plurality of icons respectively indicating the plurality of sensors are overlapped or densely arranged on the screen, resulting in poor visibility.
  • the evaluation unit 23 displays a plurality of sensor icons respectively indicating the positions of the plurality of sensors 11 on the screen. The degree of overlap or the density of the sensor icons on the screen is evaluated.
  • the display control unit 24 performs control to display on the screen an auxiliary icon that is another icon in which the sensor icons are gathered according to the evaluation content by the evaluation unit 23.
  • the plurality of sensor icons concentrated on the screen showing the predetermined area are collectively displayed as different icons.
  • it can display so that sensor icons may not overlap, and the distance between sensor icons can be secured to some extent.
  • the acquisition unit 21 acquires sensor information indicating the measurement result of the sensor 11.
  • the display control unit 24 performs control to display sensor information corresponding to the sensor icon on the screen.
  • the user can easily confirm the sensor information of the desired sensor 11.
  • the display control unit 24 performs control to display auxiliary icons with the number of sensor icons collected.
  • the display control unit 24 enlarges the arrangement area of each sensor 11 corresponding to the auxiliary icon. Control is performed to display the figure together with corresponding sensor icons.
  • the user can confirm each sensor icon collected in the auxiliary icon in the above enlarged view, so that the detailed position of each sensor icon can be recognized.
  • the display control unit 24 is configured such that when an auxiliary icon is designated on the screen on which the plan view of the arrangement area of each sensor 11 is displayed, Control is performed to display a side view of the arrangement area of each sensor 11 corresponding to the auxiliary icon together with each corresponding sensor icon.
  • the display control unit 24 displays a list of information of each sensor 11 corresponding to the auxiliary icon when the auxiliary icon is designated on the screen. Control.
  • the user can list information on the plurality of sensors 11 corresponding to the auxiliary icons.
  • the embodiment of the present invention relates to a monitoring system in which the display content of the screen is different from that of the monitoring system according to the first embodiment.
  • FIG. 12 is a diagram showing an example of a screen displayed on the display in the monitoring system according to the second embodiment of the present invention.
  • the screen includes a display area D11 and a display area D12.
  • a plan view of a factory which is a monitoring target area is displayed.
  • the display area D31 displays the outlines of a plurality of production facilities arranged in the monitoring target area and sensor icons.
  • the display area D11 displays the outlines of the lines A to D, which are production lines, the outlines of the production facilities A to C, and sensor icons T1 to T15 of the temperature sensor.
  • the display area D12 In the display area D12, the correspondence between the type of sensor icon displayed in the display area D11 and the type of sensor 11 is displayed.
  • the user performs a click operation C10 on the sensor icon of the temperature sensor among the sensor icons displayed in the display area D12, for example, double-clicking the right button of the mouse. This is the screen displayed.
  • sensor icons T1 to T15 which are sensor icons of the temperature sensor are displayed in the display area D11.
  • the sensor icons H1 to H11 of the humidity sensor and the sensor icons R1 to R20 of the infrared sensor are not displayed.
  • FIG. 13 is a diagram showing a configuration of a screen information processing apparatus according to the second embodiment of the present invention.
  • the screen information processing apparatus 12 includes an acquisition unit 21, an evaluation unit 23, a storage unit 26, a processing unit 122, a display control unit 124, and a receiving unit 125.
  • a processing unit 122, a display control unit 124, and a receiving unit 125, each capable of performing an operation, are provided.
  • the display control unit 124 performs control to selectively display sensor icons corresponding to the types of sensors 11 designated on the screen.
  • the processing unit 122 When the processing unit 122 receives the operation information from the receiving unit 25, the processing unit 122 creates, for example, screen information G2 that is screen information illustrated in FIG.
  • the processing unit 122 when the processing unit 122 receives the operation information, the sensor 122 has the same type of sensor icon as the sensor icon on which the click operation C10 is performed among the plurality of types of sensor icons displayed in the display area D11 on the current screen.
  • Screen information G2 which is information on a screen on which icons are selectively displayed, is created. Then, the processing unit 122 outputs the created screen information G2 to the display control unit 124.
  • the display control unit 124 performs control to selectively display the sensor icon of the temperature sensor by transmitting the screen information G2 received from the processing unit 122 to the display 13.
  • the display control unit 124 performs control to selectively display sensor icons corresponding to the types of sensors 11 specified on the screen.
  • the present invention is not limited to this.
  • the display control unit 124 may be configured to perform control so that a sensor icon corresponding to the type of sensor 11 designated on the screen is not selectively displayed.
  • the display control unit 124 detects the sensor icon T1 that is the sensor icon of the temperature sensor in the display area D11. Control for displaying sensor icons H1 to H11 of the humidity sensor and sensor icons R1 to R20 of the infrared sensor may be performed without displaying T15.
  • the display control unit 24 selectively displays the sensor icon corresponding to the type of sensor 11 designated on the screen, Or control not to selectively display.
  • the types of sensor icons displayed on the screen can be limited, so that the visibility is further improved. Can do.
  • the embodiment of the present invention relates to a monitoring system in which one type of auxiliary icon is displayed on the screen as compared with the monitoring system according to the first embodiment.
  • FIG. 14 is a diagram showing an example of a screen displayed on the display in the comparative example of the monitoring system according to the third embodiment of the present invention.
  • the screen includes a display area D11 and a display area D12.
  • a plan view of a factory which is a monitoring target area is displayed.
  • the display area D ⁇ b> 11 displays the outline of a plurality of production facilities arranged in the monitoring target area and a sensor icon indicating the sensor 11.
  • the display area D11 includes the outlines of production lines A to D, the outlines of production facilities A to C, temperature sensor sensor icons T1 to T15, and humidity sensor sensor icons H1 to H11.
  • Infrared sensor icons R1 to R20 are displayed.
  • the sensor icon has a different shape for each type of sensor 11, that is, a temperature sensor, a humidity sensor, or an infrared sensor.
  • the display area D12 In the display area D12, the correspondence between the type of sensor icon displayed in the display area D11 and the type of sensor 11 is displayed.
  • the user can display the content of the sensor information of the sensor 11 corresponding to the sensor icon on the screen by performing a click operation on the sensor icon displayed in the display area D11 using, for example, a mouse. .
  • the sensors 11 are concentrated when viewed from above. For this reason, the sensor icons are displayed overlapping or densely on the portions Ph1 to Ph6 of the screen.
  • Each sensor 11 may be arranged at the same position to some extent in the height direction, or may be arranged at a different position in the height direction.
  • FIG. 15 is a diagram illustrating an example of a screen displayed on the display in the monitoring system according to the third embodiment of the present invention.
  • the screen includes a display area D1 and a display area D2.
  • the display content of the screen shown in FIG. 15 is the same as the display content of the screen shown in FIG. 14 except for the content described below.
  • auxiliary icons E1, E2, E3, E4, E5, E6 instead of the sensor icons included in the portions Ph1, Ph2, Ph3, Ph4, Ph5, Ph6. are displayed.
  • the sensors 11 corresponding to each of the auxiliary icons E1, E2, E3, E4, E5, and E6 are concentrated when viewed from above.
  • Each auxiliary icon E has the number of sensor icons put together.
  • the auxiliary icon E1 is an auxiliary icon in which six sensor icons of sensor icons H3 to H5 and sensor icons T4 to T6 are collected. For this reason, “6” is attached to the auxiliary icon E1.
  • the auxiliary icon E2 is an auxiliary icon in which eight sensor icons of sensor icons H6 and H7, sensor icons T9 to T11, and sensor icons R12 to R14 are collected. For this reason, “8” is attached to the auxiliary icon E2.
  • the auxiliary icon E3 is an auxiliary icon in which four sensor icons, sensor icons T7 and T8 and sensor icons R10 and R11, are collected. For this reason, “4” is attached to the auxiliary icon E3.
  • auxiliary icon E4 is an auxiliary icon in which four sensor icons of sensor icons R18 and 19 and sensor icons H9 and H10 are collected. For this reason, “4” is attached to the auxiliary icon E4.
  • auxiliary icon E5 is an auxiliary icon in which two sensor icons of the sensor icon T12 and the sensor icon R20 are collected. For this reason, “2” is attached to the auxiliary icon E5.
  • auxiliary icon E6 is an auxiliary icon in which three sensor icons of the sensor icons R16 and 17 and the sensor icon T14 are collected. For this reason, “3” is attached to the auxiliary icon E6.
  • the screen information processing apparatus 12 displays a list of sensor information corresponding to the auxiliary icon E, that is, list information Control.
  • the screen information processing apparatus 12 performs control to display the display area W10 shown in FIG. 4 on the screen shown in FIG.
  • the screen information processing apparatus 12 corresponds to the auxiliary icon E.
  • Control for displaying an enlarged view of the arrangement area of each sensor 11 together with each sensor icon corresponding to the auxiliary icon E is performed.
  • the screen information processing apparatus 12 performs control to display the display area W11 shown in FIG. 5 on the screen shown in FIG.
  • the auxiliary information E Control is performed to display a side view of an arrangement area of each sensor 11 corresponding to the icon E together with each sensor icon corresponding to the auxiliary icon E.
  • the screen information processing apparatus 12 performs control to display the display area W12 shown in FIG. 6 on the screen shown in FIG.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)

Abstract

 所定エリアにおけるセンサの位置を示すアイコンを画面に表示する構成において、視認性を向上させることが可能な画面情報処理装置、画面情報処理方法および画面情報処理プログラムを提供する。画面情報処理装置は、複数のセンサの位置をそれぞれ示す複数のアイコンを画面に表示する予定である場合に、前記画面における各前記アイコンの重なり度合いまたは密集度を評価する評価部と、前記評価部による評価内容に応じて前記各アイコンをまとめた別のアイコンである補助アイコンを前記画面に表示する制御を行う表示制御部とを備える。

Description

画面情報処理装置、画面情報処理方法および画面情報処理プログラム
 本発明は、画面情報処理装置、画面情報処理方法および画面情報処理プログラムに関し、特に、アイコンの表示を行う画面情報処理装置、画面情報処理方法および画面情報処理プログラムに関する。
 所定エリアにおける監視対象の状態をモニタするための技術が各種開発されている。たとえば、特開2006-208000号公報(特許文献1)には、以下のような技術が開示されている。すなわち、空気流分配装置は、データセンタ内で使用する空気流分配装置であって、前記データセンタ内の少なくとも1つのサーバにおける複数のファンに結合されている少なくとも1つの空気流センサと、前記少なくとも1つの空気流センサに結合されるとともに、前記複数のファンについて空気流を監視するとともに、検知された空気流に応じて前記データセンタ内での冷却を制御するように構成されるコントローラとを備えることを特徴とする。
特開2006-208000号公報
 所定エリアにおける監視対象の状態をモニタするために、当該所定エリアにおけるセンサの配置を画面に表示する場合がある。このような場合において、複数のセンサが集中して配置されていると、当該複数のセンサをそれぞれ示す複数のアイコンが画面上で重なり合ったり、密集したりするため、視認性が悪くなってしまう。
 この発明は、上述の課題を解決するためになされたもので、その目的は、所定エリアにおけるセンサを示すアイコンを画面に表示する構成において、視認性を向上させることが可能な画面情報処理装置、画面情報処理方法および画面情報処理プログラムを提供することである。
 (1)上記課題を解決するために、この発明のある局面に係る画面情報処理装置は、複数のセンサの位置をそれぞれ示す複数のアイコンを画面に表示する予定である場合に、前記画面における各前記アイコンの重なり度合いまたは密集度を評価する評価部と、前記評価部による評価内容に応じて前記各アイコンをまとめた別のアイコンである補助アイコンを前記画面に表示する制御を行う表示制御部とを備える。
 (8)上記課題を解決するために、この発明のある局面に係る画面情報処理方法は、画面情報処理装置における画面情報処理方法であって、複数のセンサの位置をそれぞれ示す複数のアイコンを画面に表示する予定である場合に、前記画面における各前記アイコンの重なり度合いまたは密集度を評価するステップと、前記重なり度合いまたは前記密集度の評価内容に応じて前記各アイコンをまとめた別のアイコンである補助アイコンを前記画面に表示する制御を行うステップとを含む。
 (9)上記課題を解決するために、この発明のある局面に係る画面情報処理プログラムは、画面情報処理装置において用いられる画面情報処理プログラムであって、コンピュータに、複数のセンサの位置をそれぞれ示す複数のアイコンを画面に表示する予定である場合に、前記画面における各前記アイコンの重なり度合いまたは密集度を評価するステップと、前記重なり度合いまたは前記密集度の評価内容に応じて前記各アイコンをまとめた別のアイコンである補助アイコンを前記画面に表示する制御を行うステップとを実行させるためのプログラムである。
 本発明によれば、所定エリアにおけるセンサの位置を示すアイコンを画面に表示する構成において、視認性を向上させることができる。
図1は、本発明の第1の実施の形態に係る監視システムの構成を示す図である。 図2は、本発明の第1の実施の形態に係る監視システムの比較例において、ディスプレイに表示された画面の一例を示す図である。 図3は、本発明の第1の実施の形態に係る監視システムにおいて、ディスプレイに表示された画面の一例を示す図である。 図4は、本発明の第1の実施の形態に係る監視システムにおいて、ディスプレイに表示された画面の他の例を示す図である。 図5は、本発明の第1の実施の形態に係る監視システムにおいて、ディスプレイに表示された画面の他の例を示す図である。 図6は、本発明の第1の実施の形態に係る監視システムにおいて、ディスプレイに表示された画面の他の例を示す図である。 図7は、本発明の第1の実施の形態に係る監視システムにおいて、ディスプレイに表示された画面の他の例を示す図である。 図8は、本発明の第1の実施の形態に係る監視システムにおいて、ディスプレイに表示された画面の他の例を示す図である。 図9は、本発明の第1の実施の形態に係る監視システムにおける画面情報処理装置の構成を示す図である。 図10は、本発明の第1の実施の形態に係る画面情報処理装置による表示処理の一例を示すフローチャートである。 図11は、本発明の第1の実施の形態に係る画面情報処理装置による表示処理の他の例を示すフローチャートである。 図12は、本発明の第2の実施の形態に係る監視システムにおいて、ディスプレイに表示された画面の一例を示す図である。 図13は、本発明の第2の実施の形態に係る画面情報処理装置の構成を示す図である。 図14は、本発明の第3の実施の形態に係る監視システムの比較例において、ディスプレイに表示された画面の一例を示す図である。 図15は、本発明の第3の実施の形態に係る監視システムにおいて、ディスプレイに表示された画面の一例を示す図である。
 最初に、本発明の実施の形態の内容を列記して説明する。
 (1)本発明の実施の形態に係る画面情報処理装置は、複数のセンサの位置をそれぞれ示す複数のアイコンを画面に表示する予定である場合に、前記画面における各前記アイコンの重なり度合いまたは密集度を評価する評価部と、前記評価部による評価内容に応じて前記各アイコンをまとめた別のアイコンである補助アイコンを前記画面に表示する制御を行う表示制御部とを備える。
 このような構成により、たとえば、所定エリアにおける複数のセンサが集中して配置されるような場合に、当該所定エリアを示す画面において集中する複数のアイコンをまとめて別のアイコンとして表示することができる。これにより、たとえば、アイコン同士が重ならないように表示したり、アイコン同士の距離をある程度確保したりすることができる。したがって、所定エリアにおけるセンサの位置を示すアイコンを画面に表示する構成において、視認性を向上させることができる。
 (2)好ましくは、前記画面情報処理装置は、さらに、前記センサの計測結果を示すセンサ情報を取得する取得部を備え、前記表示制御部は、前記画面において前記アイコンが指定された場合に前記アイコンに対応する前記センサ情報を前記画面に表示する制御を行う。
 このような構成により、ユーザは、所望するセンサのセンサ情報を容易に確認することができる。
 本実施形態において、「画面においてアイコンが指定される」とは、例えば、マウスによるクリック操作、或いは、タッチパネルに対するタップ操作など、GUI(Graphical User Interface)を用いた操作入力よってアイコンが指定されることを意味する。
 (3)好ましくは、前記表示制御部は、まとめた前記アイコンの数を付した前記補助アイコンを表示する制御を行う。
 このような構成により、ユーザは、どれくらいの数のアイコンが補助アイコンにまとめられたのかを特別な操作を行うことなく一見して認識することができる。
 (4)好ましくは、前記表示制御部は、前記画面において前記補助アイコンが指定された場合に、前記補助アイコンに対応する各前記センサの配置エリアの拡大図を対応の各前記アイコンとともに表示する制御を行う。
 このような構成により、ユーザは、補助アイコンにまとめられた各アイコンを上記拡大図において確認することができるため、各アイコンの詳細な位置を認識することができる。
 (5)好ましくは、前記表示制御部は、各前記センサの配置エリアの平面図が表示された前記画面において前記補助アイコンが指定された場合に、前記補助アイコンに対応する各前記センサの配置エリアの側面図を対応の各前記アイコンとともに表示する制御を行う。
 このような構成により、たとえば、水平方向において略同じ位置に、かつ高さ方向において異なる位置に配置されている複数のセンサに対応するアイコンが補助アイコンにまとめられているような場合において、ユーザは、補助アイコンにまとめられた各アイコンを上記側面図において確認することができるため、各アイコンの詳細な位置を認識することができる。
 (6)好ましくは、前記表示制御部は、前記画面において前記補助アイコンが指定された場合に、前記補助アイコンに対応する各前記センサの情報のリストを表示する制御を行う。
 このような構成により、ユーザは、補助アイコンに対応する複数のセンサに関する情報を一覧することができる。
 (7)より好ましくは、前記センサの種類は複数存在し、前記表示制御部は、前記画面において指定された種類の前記センサに対応する前記アイコンを選択的に表示するか、または選択的に表示しない制御を行う。
 このような構成により、たとえば、複数種類のアイコンが互いに重なったり密集したりしている場合に、画面上に表示されるアイコンの種類を限定することができるため、視認性をより高めることができる。
 (8)本発明の実施の形態に係る画面情報処理方法は、画面情報処理装置における画面情報処理方法であって、複数のセンサの位置をそれぞれ示す複数のアイコンを画面に表示する予定である場合に、前記画面における各前記アイコンの重なり度合いまたは密集度を評価するステップと、前記重なり度合いまたは前記密集度の評価内容に応じて前記各アイコンをまとめた別のアイコンである補助アイコンを前記画面に表示する制御を行うステップとを含む。
 このような構成により、たとえば、所定エリアにおける複数のセンサが集中して配置されるような場合に、当該所定エリアを示す画面において集中する複数のアイコンをまとめて別のアイコンとして表示することができる。これにより、たとえば、アイコン同士が重ならないように表示したり、アイコン同士の距離をある程度確保したりすることができる。したがって、所定エリアにおけるセンサの位置を示すアイコンを画面に表示する構成において、視認性を向上させることができる。
 (9)本発明の実施の形態に係る画面情報処理プログラムは、画面情報処理装置において用いられる画面情報処理プログラムであって、コンピュータに、複数のセンサの位置をそれぞれ示す複数のアイコンを画面に表示する予定である場合に、前記画面における各前記アイコンの重なり度合いまたは密集度を評価するステップと、前記重なり度合いまたは前記密集度の評価内容に応じて前記各アイコンをまとめた別のアイコンである補助アイコンを前記画面に表示する制御を行うステップとを実行させるためのプログラムである。
 このような構成により、たとえば、所定エリアにおける複数のセンサが集中して配置されるような場合に、当該所定エリアを示す画面において集中する複数のアイコンをまとめて別のアイコンとして表示することができる。これにより、たとえば、アイコン同士が重ならないように表示したり、アイコン同士の距離をある程度確保したりすることができる。したがって、所定エリアにおけるセンサの位置を示すアイコンを画面に表示する構成において、視認性を向上させることができる。
 以下、本発明の実施の形態について図面を用いて説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰り返さない。また、以下に記載する実施形態の少なくとも一部を任意に組み合わせてもよい。
 <第1の実施の形態>
 [構成および基本動作]
 図1は、本発明の第1の実施の形態に係る監視システムの構成を示す図である。
 図1を参照して、監視システム101は、複数のセンサ11と、画面情報処理装置12と、ディスプレイ13とを備える。
 各センサ11は、温度センサ、湿度センサおよび赤外線センサ等であり、工場、病院または店舗等の監視対象エリアに配置される。監視対象エリアは、屋内であってもよいし、屋外であってもよい。
 監視対象エリアが工場である場合、各センサ11は、たとえば、生産設備の温度および湿度等を計測する。センサ11は、計測結果および自己のIDを示すセンサ情報を画面情報処理装置12へ送信する。
 画面情報処理装置12は、各センサ11と有線または無線により接続されており、各センサ11からセンサ情報を受信する。画面情報処理装置12は、受信したセンサ情報の内容をディスプレイ13に表示することができる。
 図2は、本発明の第1の実施の形態に係る監視システムの比較例において、ディスプレイに表示された画面の一例を示す図である。
 図2を参照して、画面は、表示エリアD11と、表示エリアD12とを含む。表示エリアD11には、監視対象エリアである工場の平面図が表示されている。具体的には、表示エリアD11には、監視対象エリアに配置された複数の生産設備の外形、およびセンサ11を示すアイコン(以下、センサアイコンとも称する。)が表示されている。
 詳細には、表示エリアD11には、生産ラインであるラインA~Dの外形と、生産設備A~Cの外形と、温度センサのセンサアイコンT1~T15と、湿度センサのセンサアイコンH1~H11と、赤外線センサのセンサアイコンR1~R20とが表示されている。センサアイコンは、温度センサ、湿度センサまたは赤外線センサの別すなわちセンサ11の種類ごとに異なる形状を有している。
 表示エリアD12には、表示エリアD11において表示されているセンサアイコンの種類と、センサ11の種類との対応関係が表示されている。
 ユーザは、表示エリアD11に表示されたセンサアイコンに対して、たとえば、マウスを用いてクリック操作を行うことにより、当該センサアイコンに対応するセンサ11のセンサ情報の内容を画面に表示させることができる。
 ここで、表示エリアD11において点線で示す部分Ph1~Ph3および部分Pv1~Pv3では、複数のセンサアイコンが重なってまたは密集して表示されている。
 具体的には、画面の部分Ph1~Ph3にそれぞれ該当する監視対象エリアにおける場所では、各センサ11は、高さ方向においてある程度同じ位置に、かつ水平方向において集中して配置されている。このため、画面の部分Ph1~Ph3では各センサアイコンが重なってまたは密集して表示されている。
 また、画面の部分Pv1~Pv3にそれぞれ該当する監視対象エリアにおける場所では、各センサ11は、水平方向において略同じ位置に、かつ高さ方向において異なる位置に配置されている。このため、画面の部分Pv1~Pv3では、各センサアイコンが重なってまたは密集して表示されている。
 複数のセンサアイコンが重なってまたは密集して表示されている場合、ユーザは、各センサアイコンの位置関係および種類を正確に認識することが困難な場合がある。また、ユーザは、センサアイコンが重なってまたは密集して表示されていることにより、所望のセンサアイコンに対して的確にクリック操作を行うことが困難な場合がある。
 そこで、本発明の第1の実施の形態に係る監視システムでは、以下のような処理により、このような課題を解決する。
 図3は、本発明の第1の実施の形態に係る監視システムにおいて、ディスプレイに表示された画面の一例を示す図である。
 図3を参照して、画面は、表示エリアD1と、表示エリアD2とを含む。図3に示す画面の表示内容は、以下に説明する内容以外は、図2に示す画面の表示内容と同様である。
 表示エリアD1では、図2における表示エリアD11と比較して、部分Ph1,Ph2,Ph3に含まれる各センサアイコンの代わりに補助アイコンE1,E2,E3がそれぞれ表示されている。
 また、部分Pv1,Pv2,Pv3に含まれる各センサアイコンの代わりに補助アイコンV1,V2,V3がそれぞれ表示されている。
 つまり、図2に示す画面における部分Ph1,Ph2,Ph3に含まれる各センサアイコンは、図3に示す画面では、補助アイコンE1,E2,E3にそれぞれまとめられている。
 また、図2に示す画面における部分Pv1,Pv2,Pv3に含まれる各センサアイコンは、図3に示す画面では、補助アイコンV1,V2,V3にそれぞれまとめられている。
 ここで、部分Ph1に含まれる各センサアイコンに対応するセンサ11をまとめたセンサグループ、部分Ph2に含まれる各センサアイコンに対応するセンサ11をまとめたセンサグループおよび部分Ph3に含まれる各センサアイコンに対応するセンサ11をまとめたセンサグループをそれぞれセンサグループGe1,Ge2,Ge3とも称する。
 補助アイコンE1,E2,E3は、センサグループGe1,Ge2,Ge3をそれぞれ示している。センサグループGe1~Ge3の各々に含まれる各センサ11は、高さ方向においてある程度同じ位置に、かつ水平方向において集中して配置されている。
 また、部分Pv1に含まれる各センサアイコンに対応するセンサ11をまとめたセンサグループ、部分Pv2に含まれる各センサアイコンに対応するセンサ11をまとめたセンサグループおよび部分Pv3に含まれる各センサアイコンに対応するセンサ11をまとめたセンサグループをそれぞれセンサグループGv1,Gv2,Gv3とも称する。
 補助アイコンV1,V2,V3は、センサグループGv1,Gv2,Gv3をそれぞれ示している。センサグループGv1~Gv3の各々に含まれる各センサ11は、水平方向において略同じ位置に、かつ高さ方向において異なる位置に配置されている。
 センサグループGe1~Ge3等のセンサグループGeと、センサグループGv1~Gv3等のセンサグループGvとは、異なる種類の補助アイコンによって区別して表示されている。これにより、補助アイコンに対応する各センサ11の各種位置関係をユーザに区別して認識させることができる。
 補助アイコンには、まとめられたセンサアイコンの数が付されている。具体的には、たとえば、補助アイコンE1は、センサアイコンH3~H5およびセンサアイコンT4~T6の6つのセンサアイコンをまとめた補助アイコンである。このため、補助アイコンE1には、「6」が付されている。
 補助アイコンE2は、センサアイコンH6,H7、センサアイコンT9~T11およびセンサアイコンR12~R14の8つのセンサアイコンをまとめた補助アイコンである。このため、補助アイコンE2には、「8」が付されている。
 また、補助アイコンE3は、センサアイコンT7,T8およびセンサアイコンR10,R11の4つのセンサアイコンをまとめた補助アイコンである。このため、補助アイコンE3には、「4」が付されている。
 また、補助アイコンV1は、センサアイコンR18,19およびセンサアイコンH9,H10の4つのセンサアイコンをまとめた補助アイコンである。このため、補助アイコンV1には、「4」が付されている。
 また、補助アイコンV2は、センサアイコンT12およびセンサアイコンR20の2つのセンサアイコンをまとめた補助アイコンである。このため、補助アイコンV2には、「2」が付されている。
 また、補助アイコンV3は、センサアイコンR16,17およびセンサアイコンT14の3つのセンサアイコンをまとめた補助アイコンである。このため、補助アイコンV3には、「3」が付されている。
 表示エリアD2には、図2における表示エリアD12と比較して、さらに、補助アイコンの種類とセンサグループの種類との対応関係が表示されている。
 図4は、本発明の第1の実施の形態に係る監視システムにおいて、ディスプレイに表示された画面の他の例を示す図である。
 図4を参照して、画面は、表示エリアD1と、表示エリアD2と、表示エリアW10とを含む。表示エリアW10は、表示エリアD1上に重ねて表示されている。
 表示エリアW10は、たとえば、ユーザが補助アイコンE1に対してクリック等の操作を行ったことにより表示されたウィンドウである。表示エリアW10には、補助アイコンE1によってまとめられた各センサアイコンに対応するセンサ11、つまり補助アイコンE1に対応するセンサ11の情報がリスト化されて表示されている。
 具体的には、表示エリアW10には、各センサ11の「種類」、「名称」および「計測結果」が表示されている。
 図5は、本発明の第1の実施の形態に係る監視システムにおいて、ディスプレイに表示された画面の他の例を示す図である。
 図5を参照して、画面は、表示エリアD1と、表示エリアD2と、表示エリアW11とを含む。表示エリアW11は、表示エリアD1上に重ねて表示されている。
 表示エリアW11は、たとえば、図3に示す画面において、ユーザが補助アイコンE1に対してクリック操作等を行ったことにより表示されたウィンドウである。表示エリアW11には、補助アイコンE1に対応する各センサ11の配置エリアの拡大図が、補助アイコンE1に対応する各センサアイコンとともに表示されている。
 図6は、本発明の第1の実施の形態に係る監視システムにおいて、ディスプレイに表示された画面の他の例を示す図である。
 図6を参照して、画面は、表示エリアD1と、表示エリアD2と、表示エリアW12とを含む。表示エリアW12は、表示エリアD1上に重ねて表示されている。
 表示エリアW12は、たとえば、図3に示す画面において、ユーザが補助アイコンV1に対してクリック操作等を行ったことにより表示されたウィンドウである。表示エリアW12には、補助アイコンV1に対応する各センサ11の配置エリアの側面図が、補助アイコンV1に対応する各センサアイコンとともに表示されている。
 [画面情報処理装置の初期設定]
 以下、画面情報処理装置12の初期設定の一例について説明する。
 ユーザは、まず、監視対象エリアに配置されている生産設備を画面情報処理装置12に登録する。具体的には、たとえば、ユーザは、マウスを用いて、平面視した生産設備の外形を画面上に描き、当該生産設備の高さを画面情報処理装置12に入力する。ユーザは、各生産設備の形状の詳細を入力することも可能である。そして、ユーザは、生産設備が表示された画面にセンサアイコンを配置する。
 図7は、本発明の第1の実施の形態に係る監視システムにおいて、ディスプレイに表示された画面の他の例を示す図である。
 図7は、ユーザが画面にセンサアイコンを配置する様子を示している。図7を参照して、画面は、表示エリアD21と、表示エリアD22とを含む。表示エリアD21には、登録された生産設備の外形、および配置済みのセンサアイコンが表示されている。
 ユーザは、監視対象エリアにおいて実際に配置されているセンサ11の場所および種類を確認し、確認した内容に従ってセンサアイコンを配置する。具体的には、たとえば、ユーザは、表示エリアD22に表示された赤外線センサのセンサアイコンを、表示エリアD21における所望の位置P1へドラッグし、位置P1においてドロップする。これにより、ユーザは、センサアイコンを画面において配置することができる。
 図8は、本発明の第1の実施の形態に係る監視システムにおいて、ディスプレイに表示された画面の他の例を示す図である。
 図8は、ユーザが画面にセンサアイコンを配置する様子を示している。図8を参照して、画面は、表示エリアD21と、表示エリアD22と、表示エリアW23とを含む。表示エリアW23は、表示エリアD21上に重ねて表示されている。
 ユーザは、たとえば、集中して配置されている各センサ11に対応するセンサアイコンを画面に配置する場合、各センサ11の配置されているエリアの拡大図を画面に表示することができる。
 表示エリアW23には、センサ11が集中して配置されているエリアの拡大図が表示されている。ユーザは、たとえば、表示エリアD22に表示された湿度センサのセンサアイコンを、表示エリアW23における所望の位置P2へドラッグし、位置P2においてドロップする。これにより、ユーザは、集中して配置されているセンサ11に対応するセンサアイコンを画面において配置することができる。表示エリアW23において配置されたセンサアイコンは、表示エリアD21にも反映される。
 ユーザは、たとえば、画面にセンサアイコンを配置した後、当該センサアイコンに対応するセンサ11の、監視対象エリアにおける配置高さおよび名称を画面情報処理装置12に入力する。
 また、ユーザは、配置したセンサアイコンと、監視対象エリアにおいて実際に配置されているセンサ11とを対応付ける。
 具体的には、たとえば、画面情報処理装置12は、ユーザによる操作を受けて、画面上のセンサアイコンとセンサ11との対応関係を示す対応情報を作成する。
 また、画面情報処理装置12は、対応情報と、ユーザによって入力された監視対象エリアにおける各センサ11の配置高さおよび名称と、画面に配置された各センサアイコンの座標および種類とに基づいて、センサ設定情報を作成する。
 センサ設定情報は、各センサ11の、名称、種類、監視対象エリアにおける配置位置、配置高さおよび対応するセンサアイコンを示す。
 また、画面情報処理装置12は、ユーザによる生産設備の登録内容を示す設備登録情報を作成する。設備登録情報は、生産設備の、平面視した場合の外形、高さ、および監視対象エリアにおける配置位置等を示す。なお、画面情報処理装置12は、設備登録情報を他の装置から取得する構成であってもよい。
 図9は、本発明の第1の実施の形態に係る監視システムにおける画面情報処理装置の構成を示す図である。
 図9を参照して、画面情報処理装置12は、取得部21と、処理部22と、評価部23と、表示制御部24と、受付け部25と、記憶部26とを備える。
 記憶部26には、たとえば、ユーザによる初期設定に基づいて作成されたセンサ設定情報および設備登録情報が保存されている。
 取得部21は、定期的または不定期に各センサ11から計測結果を示すセンサ情報を取得し、取得した各センサ情報を処理部22へ出力する。処理部22は、取得部21から受けたセンサ情報を記憶部26に保存する。
 評価部23は、複数のセンサ11の位置をそれぞれ示す複数のセンサアイコンを画面に表示する予定である場合に、当該画面における各センサアイコンの重なり度合いまたは密集度を評価する。
 具体的には、評価部23は、記憶部26に保存されているセンサ設定情報および設備登録情報に基づいて、各センサアイコンをまとめていない画面の情報である仮画面情報を作成する。評価部23は、作成した仮画面情報に基づいて、たとえば図2における部分Ph1~Ph3および部分Pv1~Pv3のようにセンサアイコンが重なってまたは密集して表示される部分を検出する。そして、評価部23は、検出した部分についてセンサアイコンの重なり度合いまたは密集度を評価する。
 たとえば、評価部23は、仮画面情報の示す画面における、センサアイコン同士の重なり部分の面積等に基づいて重なり度合いを評価する。
 また、たとえば、評価部23は、仮画面情報の示す画面における単位面積当たりのセンサアイコンの数に基づいて、センサアイコンの密集度の評価を行う。
 評価部23は、評価内容をたとえば数値で表してもよいし、レベルで表してもよい。評価部23は、たとえば、センサアイコンの重なり度合いの評価内容および仮画面情報を処理部22へ出力する。
 なお、評価部23は、単に、センサアイコン同士の重なりの有無に基づいて、重なり度合いを評価してもよい。
 表示制御部24は、評価部23による評価内容に応じて各センサアイコンをまとめた補助アイコンを画面に表示する制御を行う。また、たとえば、表示制御部24は、まとめたセンサアイコンの数を付した補助アイコンを表示する制御を行う。
 詳細には、処理部22は、たとえば、評価部23から受けた評価内容および仮画面情報に基づいて、重なってまたは密集して表示される各センサアイコンを補助アイコンにまとめるべきか否かを判断する。
 たとえば、処理部22は、評価部23から受けた評価内容の示す値が所定の閾値より大きい場合、当該評価内容の対象である各センサアイコンを補助アイコンにまとめると判断する。
 処理部22は、各センサアイコンを補助アイコンにまとめると判断した場合、記憶部26に保存されているセンサ設定情報に基づいて、どの種類の補助アイコンを用いるかを判断する。
 具体的には、処理部22は、補助アイコンとして、補助アイコンE1~E3等の補助アイコンEを用いるか、または補助アイコンV1~V3等の補助アイコンVを用いるかを判断する。
 たとえば、1つの補助アイコンにまとめるべき各センサアイコンに対応するセンサ11が、いずれも同程度の配置高さを有する場合、処理部22は、補助アイコンとして補助アイコンEを用いると判断する。
 また、たとえば、1つの補助アイコンにまとめるべき各センサアイコンに対応するセンサ11の配置高さが、ある程度ばらついている場合、処理部22は、補助アイコンとして補助アイコンVを用いると判断する。
 処理部22は、記憶部26に保存されているセンサ設定情報および設備登録情報ならびに自己の判断内容に基づいて、たとえば図3に示す画面の情報である画面情報Gを作成する。当該画面において、補助アイコンEおよび補助アイコンVには、各々を用いてまとめられたセンサアイコンの数が付される。
 表示制御部24は、処理部22から受けた画面情報Gをディスプレイ13へ送信することにより、補助アイコンをディスプレイ13の画面に表示する。
 表示制御部24は、たとえば、画面においてセンサアイコンがクリック操作等により指定された場合に、当該センサアイコンに対応するセンサ情報を画面に表示する制御を行う。
 詳細には、受付け部25は、ユーザがディスプレイ13の画面に対して行った操作を受け付ける。たとえば、図3に示す画面において、ユーザがセンサアイコンT1に対してクリック操作Cを行った場合、受付け部25は、センサアイコンT1に対するクリック操作Cを受け付け、受け付けた内容を示す操作情報を処理部22へ出力する。
 処理部22は、受付け部25から当該操作情報を受けると、たとえば、センサ設定情報を記憶部26から取得する。そして、処理部22は、取得したセンサ設定情報に基づいて、センサアイコンT1に対応するセンサ11のセンサ情報を記憶部26から取得し、取得したセンサ情報を表示制御部24へ出力する。
 表示制御部24は、処理部22からセンサ情報を受けると、既にディスプレイ13に表示されている画面に当該センサ情報の内容を追加表示する制御を行う。
 [リストの表示]
 また、表示制御部24は、たとえば、画面において、クリック操作等により補助アイコンが指定された場合に、当該補助アイコンに対応するセンサの情報のリストを表示する制御を行う。
 詳細には、たとえば、図3に示す画面において、ユーザが補助アイコンE1に対してクリック操作C1たとえばマウスの左ボタンのシングルクリックを行った場合、受付け部25は、補助アイコンE1に対するクリック操作C1を受け付け、受け付けた内容を示す操作情報を処理部22へ出力する。
 処理部22は、受付け部25から当該操作情報を受けると、補助アイコンE1に対応する各センサ11からのセンサ情報およびセンサ設定情報を記憶部26から取得する。そして、処理部22は、取得したセンサ情報およびセンサ設定情報に基づいて、補助アイコンE1に対応する各センサ11の情報をリスト化したリスト情報を作成する。たとえば、リスト情報は、補助アイコンE1に対応する各センサ11の、種類、名称および計測結果を含む。処理部22は、作成したリスト情報を表示制御部24へ出力する。
 表示制御部24は、処理部22からリスト情報を受けると、たとえば、既にディスプレイ13に表示されている画面にリスト情報の内容を追加表示する制御を行う。
 具体的には、たとえば、表示制御部24は、処理部22からリスト情報を受けると、図3に示す画面に図4に示す表示エリアW10を重ねて表示する制御を行う。
 [拡大表示] また、表示制御部24は、たとえば、画面において補助アイコンがクリック操作等により指定された場合に、当該補助アイコンに対応する各センサ11の配置エリアの拡大図を、当該補助アイコンに対応する各センサアイコンとともに表示する制御を行う。
 詳細には、たとえば、ユーザが図3に示す画面において、補助アイコンE1に対してクリック操作C2すなわちクリック操作C1とは異なる操作、たとえばマウスの左ボタンのダブルクリックを行った場合、受付け部25は、補助アイコンE1に対するクリック操作C2を受け付け、受け付けた内容を示す操作情報を処理部22へ出力する。
 処理部22は、受付け部25から当該操作情報を受けると、センサ設定情報および設備登録情報を記憶部26から取得する。そして、処理部22は、取得したセンサ設定情報および設備登録情報に基づいて、補助アイコンE1に対応する各センサ11の配置エリアの拡大図、および当該拡大図において配置された、補助アイコンE1に対応する各センサアイコンを示す画面情報Izを作成する。処理部22は、作成した画面情報Izを表示制御部24へ出力する。
 具体的には、表示制御部24は、処理部22から画面情報Izを受けると、たとえば、既にディスプレイ13に表示されている画面に画面情報Izを追加表示する制御を行う。
 より具体的には、たとえば、表示制御部24は、画面情報Izを受けると、図3に示す画面に、図5に示す表示エリアW11を重ねて表示する制御を行う。
 [側面図の表示]
 また、表示制御部24は、たとえば、各センサ11の配置エリアの平面図が表示された画面において補助アイコンがクリック操作等により指定された場合に、当該補助アイコンに対応する各センサ11の配置エリアの側面図を対応の各センサアイコンとともに表示する制御を行う。
 詳細には、たとえば、監視対象エリアの平面図が表示された図3に示す画面において、ユーザが補助アイコンV1に対してクリック操作C3すなわちクリック操作C1およびクリック操作C2とは異なる操作、たとえばマウスの右ボタンのシングルクリックを行った場合、受付け部25は、補助アイコンV1に対するクリック操作C3を受け付け、受け付けた内容を示す操作情報を処理部22へ出力する。
 処理部22は、受付け部25から当該操作情報を受けると、センサ設定情報および設備登録情報を記憶部26から取得する。そして、処理部22は、取得したセンサ設定情報および設備登録情報に基づいて、補助アイコンV1に対応する各センサ11の配置エリアの側面図、および当該側面図上に配置された、補助アイコンV1に対応する各センサアイコンを示す画面情報Isを作成する。処理部22は、作成した画面情報Isを表示制御部24へ出力する。
 具体的には、表示制御部24は、処理部22から画面情報Isを受けると、たとえば、既にディスプレイ13に表示されている画面に画面情報Isを追加表示する制御を行う。
 より具体的には、たとえば、表示制御部24は、画面情報Isを受けると、図3に示す画面に、図6に示す表示エリアW12を重ねて表示する制御を行う。
 [動作]
 次に、本発明の第1の実施の形態に係る画面情報処理装置による表示処理について説明する。
 監視システム101における各装置は、コンピュータを備え、当該コンピュータにおけるCPU等の演算処理部は、以下のフローチャートの各ステップの一部または全部を含むプログラムを図示しないメモリから読み出して実行する。これら複数の装置のプログラムは、それぞれ、外部からインストールすることができる。これら複数の装置のプログラムは、それぞれ、記録媒体に格納された状態で流通する。
 図10は、本発明の第1の実施の形態に係る画面情報処理装置による表示処理の一例を示すフローチャートである。
 図10を参照して、画面情報処理装置12は、まず、複数のセンサ11の位置をそれぞれ示す複数のセンサアイコンを画面に表示する予定である場合に、当該画面における各センサアイコンの重なり度合いまたは密集度の評価を行う(ステップS21)。
 具体的には、画面情報処理装置12は、図2に示す画面のように各センサアイコンをまとめずにそのまま表示した場合における、重なってまたは密集して表示されるセンサアイコンについて、重なり度合いまたは密集度を評価する。
 次に、画面情報処理装置12は、上記評価の内容に応じて各センサアイコンをまとめた補助アイコンを画面に表示する制御を行う。具体的には、画面情報処理装置12は、重なり度合いまたは密集度の評価内容に基づいて、重なってまたは密集して表示されるセンサアイコンを補助アイコンにまとめるか否かを判断する(ステップS22)。
 そして、画面情報処理装置12は、重なってまたは密集して表示されるセンサアイコンを補助アイコンにまとめると判断した場合(ステップS22でYES)、自己の記憶するセンサ設定情報および設備登録情報に基づいて、たとえば図3に示す、センサアイコンを補助アイコンにまとめた画面の情報である画面情報Gを作成し、作成した画面情報Gをディスプレイ13に表示する制御を行う(ステップS23)。
 一方、画面情報処理装置12は、重なり度合いまたは密集度の評価内容に基づいて、重なってまたは密集して表示されるセンサアイコンを補助アイコンにまとめないと判断した場合(ステップS22でNO)、補助アイコンを表示しない画面情報Qを作成し、画面情報Qをディスプレイ13に表示する制御を行う(ステップS24)。
 図11は、本発明の第1の実施の形態に係る画面情報処理装置による表示処理の他の例を示すフローチャートである。
 図11を参照して、画面情報処理装置12は、まず、ユーザから操作を受けるまで待機する(ステップS13でNO)。
 次に、画面情報処理装置12は、ユーザから操作を受けた場合(ステップS13でYES)、ユーザによる操作が補助アイコンEまたは補助アイコンVに対するクリック操作C1であるか否かを確認する(ステップS14)。
 次に、画面情報処理装置12は、ユーザによる操作が補助アイコンEまたは補助アイコンVに対するクリック操作C1であった場合(ステップS14でYES)、クリック操作C1の行われた補助アイコンEまたは補助アイコンVに対応するセンサの情報のリストすなわちリスト情報を表示する制御を行う(ステップS15)。
 具体的には、たとえば、画面情報処理装置12は、図3に示す画面に図4に示す表示エリアW10を重ねて表示する制御を行う。
 また、画面情報処理装置12は、ユーザによる操作が補助アイコンEまたは補助アイコンVに対するクリック操作C1でなかった場合(ステップS14でNO)、当該操作が補助アイコンEに対するクリック操作C2であったか否かを確認する(ステップS16)。
 次に、画面情報処理装置12は、ユーザによる操作が補助アイコンEに対するクリック操作C2であった場合、(ステップS16でYES)、当該補助アイコンEに対応する各センサ11の配置エリアの拡大図を、当該補助アイコンEに対応する各センサアイコンとともに表示する制御を行う(ステップS17)。
 具体的には、たとえば、画面情報処理装置12は、図3に示す画面に、図5に示す表示エリアW11を重ねて表示する制御を行う。
 また、画面情報処理装置12は、ユーザによる操作が補助アイコンEに対するクリック操作C2でなかった場合(ステップS16でNO)、当該操作が補助アイコンVに対するクリック操作C3であったか否かを確認する(ステップS18)。
 次に、画面情報処理装置12は、ユーザによる操作が補助アイコンVに対するクリック操作C3であった場合(ステップS18でYES)、当該補助アイコンVに対応する各センサ11の配置エリアの側面図を、当該補助アイコンVに対応する各センサアイコンとともに表示する制御を行う(ステップS19)。
 具体的には、たとえば、表示制御部24は、図3に示す画面に、図6に示す表示エリアW12を重ねて表示する制御を行う。
 また、本発明の第1の実施の形態に係る画面情報処理装置12において、表示制御部24は、処理部22からリスト情報を受けると、たとえば、既にディスプレイ13に表示されている画面にリスト情報の内容を追加表示する制御を行う構成であるとしたが、これに限定するものではない。
 たとえば、表示制御部24は、処理部22からリスト情報を受けると、現在ディスプレイ13に表示されている画面を、リスト情報を表示した新たな画面に切り替える制御を行う構成であってもよい。
 また、本発明の第1の実施の形態に係る画面情報処理装置12において、表示制御部24は、処理部22から画面情報Izを受けると、既にディスプレイ13に表示されている画面に画面情報Izを追加表示する制御を行う構成であるとしたが、これに限定するものではない。
 たとえば、表示制御部24は、処理部22から画面情報Izを受けると、現在ディスプレイ13に表示されている画面を、画面情報Izを表示した新たな画面に切り替える制御を行う構成であってもよい。
 また、本発明の第1の実施の形態に係る監視システム101において、表示制御部24は、処理部22から画面情報Isを受けると、既にディスプレイ13に表示されている画面に画面情報Isを追加表示する制御を行う構成であるとしたが、これに限定するものではない。
 たとえば、表示制御部24は、処理部22から画面情報Isを受けると、現在ディスプレイ13に表示されている画面を、画面情報Isを表示した新たな画面に切り替える制御を行う構成であってもよい。
 また、本発明の第1の実施の形態に係る画面情報処理装置12は、クリック操作によりセンサアイコンおよび補助アイコンの指定を受け付ける構成であるとしたが、これに限定するものではない。たとえば、ディスプレイ13がタッチパネルを含む場合、画面情報処理装置12は、ユーザのディスプレイ13へのタップ等によりセンサアイコンおよび補助アイコンの指定を受け付ける構成であってもよい。
 また、本発明の第1の実施の形態に係る画面情報処理装置12は、ユーザによるクリック操作等を受けてリスト情報を作成する構成であるとしたが、これに限定するものではない。たとえば、リスト情報は、他の装置によって作成されてもよいし、メモリに予め保存されていてもよい。
 ところで、所定エリアにおける監視対象の状態をモニタするために、当該所定エリアにおけるセンサの配置を画面に表示する場合がある。このような場合において、複数のセンサが集中して配置されていると、当該複数のセンサをそれぞれ示す複数のアイコンが画面上で重なり合ったり、密集したりするため、視認性が悪くなってしまう。
 これに対して、本発明の第1の実施の形態に係る画面情報処理装置では、評価部23は、複数のセンサ11の位置をそれぞれ示す複数のセンサアイコンを画面に表示する予定である場合に、当該画面における各センサアイコンの重なり度合いまたは密集度を評価する。表示制御部24は、評価部23による評価内容に応じて各センサアイコンをまとめた別のアイコンである補助アイコンを画面に表示する制御を行う。
 このような構成により、たとえば、所定エリアにおける複数のセンサ11が集中して配置されるような場合に、当該所定エリアを示す画面において集中する複数のセンサアイコンをまとめて別のアイコンとして表示することができる。これにより、たとえば、センサアイコン同士が重ならないように表示したり、センサアイコン同士の距離をある程度確保したりすることができる。
 したがって、本発明の第1の実施の形態に係る画面情報処理装置では、所定エリアにおけるセンサの位置を示すアイコンを画面に表示する構成において、視認性を向上させることができる。
 また、本発明の第1の実施の形態に係る画面情報処理装置では、取得部21は、センサ11の計測結果を示すセンサ情報を取得する。表示制御部24は、画面においてセンサアイコンが指定された場合に当該センサアイコンに対応するセンサ情報を画面に表示する制御を行う。
 このような構成により、ユーザは、所望するセンサ11のセンサ情報を容易に確認することができる。
 また、本発明の第1の実施の形態に係る画面情報処理装置では、表示制御部24は、まとめたセンサアイコンの数を付した補助アイコンを表示する制御を行う。
 このような構成により、ユーザは、どれくらいの数のセンサアイコンが補助アイコンにまとめられたのかを特別な操作を行うことなく一見して認識することができる。
 また、本発明の第1の実施の形態に係る画面情報処理装置では、表示制御部24は、画面において補助アイコンが指定された場合に、当該補助アイコンに対応する各センサ11の配置エリアの拡大図を対応の各センサアイコンとともに表示する制御を行う。
 このような構成により、ユーザは、補助アイコンにまとめられた各センサアイコンを上記拡大図において確認することができるため、各センサアイコンの詳細な位置を認識することができる。
 また、本発明の第1の実施の形態に係る画面情報処理装置では、表示制御部24は、各センサ11の配置エリアの平面図が表示された画面において補助アイコンが指定された場合に、当該補助アイコンに対応する各センサ11の配置エリアの側面図を対応の各センサアイコンとともに表示する制御を行う。
 このような構成により、たとえば、水平方向において略同じ位置に、かつ高さ方向において異なる位置に配置されている複数のセンサ11に対応するセンサアイコンが補助アイコンにまとめられているような場合において、ユーザは、当該補助アイコンにまとめられた各センサアイコンを上記側面図において確認することができるため、各センサアイコンの詳細な位置を認識することができる。
 また、本発明の第1の実施の形態に係る画面情報処理装置では、表示制御部24は、画面において補助アイコンが指定された場合に、補助アイコンに対応する各センサ11の情報のリストを表示する制御を行う。
 このような構成により、ユーザは、補助アイコンに対応する複数のセンサ11に関する情報を一覧することができる。
 次に、本発明の他の実施の形態について図面を用いて説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰り返さない。
 <第2の実施の形態>
 本発明の実施の形態は、第1の実施の形態に係る監視システムと比べて、画面の表示内容が異なる監視システムに関する。
 [構成および基本動作]
 図12は、本発明の第2の実施の形態に係る監視システムにおいて、ディスプレイに表示された画面の一例を示す図である。
 図12を参照して、画面は、表示エリアD11と、表示エリアD12とを含んでいる。表示エリアD11には、監視対象エリアである工場の平面図が表示されている。具体的には、表示エリアD31には、監視対象エリアに配置された複数の生産設備の外形、およびセンサアイコンが表示されている。
 詳細には、表示エリアD11には、生産ラインであるラインA~Dの外形と、生産設備A~Cの外形と、温度センサのセンサアイコンT1~T15とが表示されている。
 表示エリアD12には、表示エリアD11において表示されているセンサアイコンの種類と、センサ11の種類との対応関係が表示されている。
 図12に示す画面は、たとえば図2に示す画面において、表示エリアD12に表示されたセンサアイコンのうち、温度センサのセンサアイコンに対してユーザがクリック操作C10たとえばマウスの右ボタンのダブルクリックを行ったことにより表示された画面である。
 表示エリアD12に表示されたセンサアイコンのうちのいずれかに対してユーザがクリック操作C10を行った場合、表示エリアD11において、クリック操作C10の行われたセンサアイコンの種類と異なる種類のセンサアイコンは非表示となる。言い換えれば、表示エリアD11において、指定された種類のセンサ11に対応するセンサアイコンが選択的に表示される。
 ここでは、表示エリアD12に表示された温度センサのセンサアイコンに対してクリック操作C10が行われたため、表示エリアD11には、温度センサのセンサアイコンであるセンサアイコンT1~T15が表示されており、かつ湿度センサのセンサアイコンH1~H11および赤外線センサのセンサアイコンR1~R20は表示されていない。
 図13は、本発明の第2の実施の形態に係る画面情報処理装置の構成を示す図である。
 図13を参照して、画面情報処理装置12は、取得部21と、評価部23と、記憶部26と、処理部122と、表示制御部124と、受付け部125とを備える。
 すなわち、画面情報処理装置12は、本発明の第1の実施の形態に係る画面情報処理装置12と比べて、処理部22、表示制御部24および受付け部25の代わりに、さらに以下に説明する動作を行うことが可能な処理部122、表示制御部124および受付け部125をそれぞれ備えている。
 表示制御部124は、画面において指定された種類のセンサ11に対応するセンサアイコンを選択的に表示する制御を行う。
 詳細には、たとえば、図2に示す画面において、表示エリアD12に表示されたセンサアイコンのうち、温度センサのセンサアイコンに対してユーザがクリック操作C10を行った場合、受付け部125は、当該センサアイコンに対するクリック操作C10を受け付け、受け付けた内容を示す操作情報を処理部122へ出力する。
 処理部122は、受付け部25から当該操作情報を受けると、たとえば図12に示す画面の情報である画面情報G2を作成する。
 具体的には、処理部122は、当該操作情報を受けると、現在の画面における表示エリアD11に表示された複数種類のセンサアイコンのうち、クリック操作C10の行われたセンサアイコンと同じ種類のセンサアイコンを選択的に表示した画面の情報である画面情報G2を作成する。そして、処理部122は、作成した画面情報G2を表示制御部124へ出力する。
 表示制御部124は、処理部122から受けた画面情報G2をディスプレイ13へ送信することにより、温度センサのセンサアイコンを選択的に表示する制御を行う。
 なお、本発明の第2の実施の形態に係る画面情報処理装置12において、表示制御部124は、画面において指定された種類のセンサ11に対応するセンサアイコンを選択的に表示する制御を行う構成であるとしたが、これに限定するものではない。たとえば、表示制御部124は、画面において指定された種類のセンサ11に対応するセンサアイコンを選択的に表示しない制御を行う構成であってもよい。
 具体的には、たとえば、図2に示す画面において、D12に表示された温度センサのセンサアイコンが指定された場合、表示制御部124は、表示エリアD11において温度センサのセンサアイコンであるセンサアイコンT1~T15を表示せず、かつ湿度センサのセンサアイコンH1~H11および赤外線センサのセンサアイコンR1~R20を表示する制御を行ってもよい。
 以上のように、本発明の第2の実施の形態に係る画面情報処理装置では、表示制御部24は、画面において指定された種類のセンサ11に対応するセンサアイコンを選択的に表示するか、または選択的に表示しない制御を行う。
 このような構成により、たとえば、複数種類のセンサアイコンが互いに重なったり密集したりしている場合に、画面上に表示されるセンサアイコンの種類を限定することができるため、視認性をより高めることができる。
 その他の構成および動作は第1の実施の形態に係る画面情報処理装置と同様であるため、ここでは詳細な説明を繰り返さない。
 次に、本発明の他の実施の形態について図面を用いて説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰り返さない。
 <第3の実施の形態>
 本発明の実施の形態は、第1の実施の形態に係る監視システムと比べて、画面に表示される補助アイコンが1種類である監視システムに関する。
 図14は、本発明の第3の実施の形態に係る監視システムの比較例において、ディスプレイに表示された画面の一例を示す図である。
 図14を参照して、画面は、表示エリアD11と、表示エリアD12とを含む。表示エリアD11には、監視対象エリアである工場の平面図が表示されている。具体的には、表示エリアD11には、監視対象エリアに配置された複数の生産設備の外形、およびセンサ11を示すセンサアイコンが表示されている。
 詳細には、表示エリアD11には、生産ラインであるラインA~Dの外形と、生産設備A~Cの外形と、温度センサのセンサアイコンT1~T15と、湿度センサのセンサアイコンH1~H11と、赤外線センサのセンサアイコンR1~R20とが表示されている。センサアイコンは、温度センサ、湿度センサまたは赤外線センサの別すなわちセンサ11の種類ごとに異なる形状を有している。
 表示エリアD12には、表示エリアD11において表示されているセンサアイコンの種類と、センサ11の種類との対応関係が表示されている。
 ユーザは、表示エリアD11に表示されたセンサアイコンに対して、たとえば、マウスを用いてクリック操作を行うことにより、当該センサアイコンに対応するセンサ11のセンサ情報の内容を画面に表示させることができる。
 ここで、表示エリアD11において点線で示す部分Ph1~Ph6では、複数のセンサアイコンが重なってまたは密集して表示されている。
 具体的には、画面の部分Ph1~Ph3にそれぞれ該当する監視対象エリアにおける場所では、各センサ11は、上方から見た場合に集中して配置されている。このため、画面の部分Ph1~Ph6では各センサアイコンが重なってまたは密集して表示されている。なお、各センサ11は、高さ方向においてある程度同じ位置に配置されていてもよいし、高さ方向において異なる位置に配置されていてもよい。
 図15は、本発明の第3の実施の形態に係る監視システムにおいて、ディスプレイに表示された画面の一例を示す図である。
 図15を参照して、画面は、表示エリアD1と、表示エリアD2とを含む。図15に示す画面の表示内容は、以下に説明する内容以外は、図14に示す画面の表示内容と同様である。
 表示エリアD1では、図14における表示エリアD11と比較して、部分Ph1,Ph2,Ph3,Ph4,Ph5,Ph6に含まれる各センサアイコンの代わりに補助アイコンE1,E2,E3,E4,E5,E6がそれぞれ表示されている。
 補助アイコンE1,E2,E3,E4,E5,E6の各々に対応する各センサ11は、上方から見た場合に集中して配置されている。
 各補助アイコンEには、まとめられたセンサアイコンの数が付されている。具体的には、たとえば、補助アイコンE1は、センサアイコンH3~H5およびセンサアイコンT4~T6の6つのセンサアイコンをまとめた補助アイコンである。このため、補助アイコンE1には、「6」が付されている。
 補助アイコンE2は、センサアイコンH6,H7、センサアイコンT9~T11およびセンサアイコンR12~R14の8つのセンサアイコンをまとめた補助アイコンである。このため、補助アイコンE2には、「8」が付されている。
 また、補助アイコンE3は、センサアイコンT7,T8およびセンサアイコンR10,R11の4つのセンサアイコンをまとめた補助アイコンである。このため、補助アイコンE3には、「4」が付されている。
 また、補助アイコンE4は、センサアイコンR18,19およびセンサアイコンH9,H10の4つのセンサアイコンをまとめた補助アイコンである。このため、補助アイコンE4には、「4」が付されている。
 また、補助アイコンE5は、センサアイコンT12およびセンサアイコンR20の2つのセンサアイコンをまとめた補助アイコンである。このため、補助アイコンE5には、「2」が付されている。
 また、補助アイコンE6は、センサアイコンR16,17およびセンサアイコンT14の3つのセンサアイコンをまとめた補助アイコンである。このため、補助アイコンE6には、「3」が付されている。
 たとえば、画面情報処理装置12は、ユーザが補助アイコンEに対してクリック操作C1たとえばマウスの左ボタンのシングルクリックを行った場合、当該補助アイコンEに対応するセンサの情報のリストすなわちリスト情報を表示する制御を行う。
 具体的には、たとえば、画面情報処理装置12は、図15に示す画面に図4に示す表示エリアW10を重ねて表示する制御を行う。
 また、画面情報処理装置12は、たとえば、ユーザが補助アイコンEに対してクリック操作C2すなわちクリック操作C1とは異なる操作、たとえばマウスの左ボタンのダブルクリックを行った場合、当該補助アイコンEに対応する各センサ11の配置エリアの拡大図を、当該補助アイコンEに対応する各センサアイコンとともに表示する制御を行う。
 具体的には、たとえば、画面情報処理装置12は、図15に示す画面に、図5に示す表示エリアW11を重ねて表示する制御を行う。
 また、画面情報処理装置12は、たとえば、ユーザが補助アイコンEに対してクリック操作C3すなわちクリック操作C1およびクリック操作C2とは異なる操作、たとえばマウスの右ボタンのシングルクリックを行った場合、当該補助アイコンEに対応する各センサ11の配置エリアの側面図を、当該補助アイコンEに対応する各センサアイコンとともに表示する制御を行う。
 具体的には、たとえば、画面情報処理装置12は、図15に示す画面に、図6に示す表示エリアW12を重ねて表示する制御を行う。
 その他の構成および動作は第1の実施の形態に係る画面情報処理装置と同様であるため、ここでは詳細な説明を繰り返さない。
 上記実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記説明ではなく請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 以上の説明は、以下に付記する特徴を含む。
 [付記]
 複数のセンサの位置をそれぞれ示す複数のアイコンを画面に表示する予定である場合に、前記画面における各前記アイコンの重なり度合いまたは密集度を評価する評価部と、
 前記評価部による評価内容に応じて前記各アイコンをまとめた別のアイコンである補助アイコンを前記画面に表示する制御を行う表示制御部とを備え、
 前記アイコンの前記画面における配置は、所定エリアにおける対応の前記センサの配置を示し、
 前記表示制御部は、複数の種類の補助アイコンを表示する制御を行うことが可能であり、
 前記表示制御部は、高さ方向において略同じ位置に、かつ水平方向において集中して配置されている各前記センサに対応する前記アイコンをまとめた補助アイコンを表示する場合と、水平方向において略同じ位置に、かつ高さ方向において異なる位置に配置されている各前記センサに対応する前記アイコンをまとめた補助アイコンを表示する場合とで、異なる種類の補助アイコンを表示する制御を行う、画面情報処理装置。
 11 センサ
 12 画面情報処理装置
 13 ディスプレイ
 21 取得部
 22 処理部
 23 評価部
 24 表示制御部
 25 受付け部
 26 記憶部
 101 監視システム
 122 処理部
 124 表示制御部
 125 受付け部
 D1,D2,D11,D12,D21,D22,D31,W10~W12,W23 表示エリア
 E1~E6,V1~V3 補助アイコン
 T1~T15,H1~H11,R1~R20 センサアイコン

Claims (9)

  1.  複数のセンサの位置をそれぞれ示す複数のアイコンを画面に表示する予定である場合に、前記画面における各前記アイコンの重なり度合いまたは密集度を評価する評価部と、
     前記評価部による評価内容に応じて前記各アイコンをまとめた別のアイコンである補助アイコンを前記画面に表示する制御を行う表示制御部とを備える、画面情報処理装置。
  2.  前記画面情報処理装置は、さらに、
     前記センサの計測結果を示すセンサ情報を取得する取得部を備え、
     前記表示制御部は、前記画面において前記アイコンが指定された場合に前記アイコンに対応する前記センサ情報を前記画面に表示する制御を行う、請求項1に記載の画面情報処理装置。
  3.  前記表示制御部は、まとめた前記アイコンの数を付した前記補助アイコンを表示する制御を行う、請求項1または請求項2に記載の画面情報処理装置。
  4.  前記表示制御部は、前記画面において前記補助アイコンが指定された場合に、前記補助アイコンに対応する各前記センサの配置エリアの拡大図を対応の各前記アイコンとともに表示する制御を行う、請求項1から請求項3のいずれか1項に記載の画面情報処理装置。
  5.  前記表示制御部は、各前記センサの配置エリアの平面図が表示された前記画面において前記補助アイコンが指定された場合に、前記補助アイコンに対応する各前記センサの配置エリアの側面図を対応の各前記アイコンとともに表示する制御を行う、請求項1から請求項4のいずれか1項に記載の画面情報処理装置。
  6.  前記表示制御部は、前記画面において前記補助アイコンが指定された場合に、前記補助アイコンに対応する各前記センサの情報のリストを表示する制御を行う、請求項1から請求項5のいずれか1項に記載の画面情報処理装置。
  7.  前記センサの種類は複数存在し、
     前記表示制御部は、前記画面において指定された種類の前記センサに対応する前記アイコンを選択的に表示するか、または選択的に表示しない制御を行う、請求項2に記載の画面情報処理装置。
  8.  画面情報処理装置における画面情報処理方法であって、
     複数のセンサの位置をそれぞれ示す複数のアイコンを画面に表示する予定である場合に、前記画面における各前記アイコンの重なり度合いまたは密集度を評価するステップと、
     前記重なり度合いまたは前記密集度の評価内容に応じて前記各アイコンをまとめた別のアイコンである補助アイコンを前記画面に表示する制御を行うステップとを含む、画面情報処理方法。
  9.  画面情報処理装置において用いられる画面情報処理プログラムであって、コンピュータに、
     複数のセンサの位置をそれぞれ示す複数のアイコンを画面に表示する予定である場合に、前記画面における各前記アイコンの重なり度合いまたは密集度を評価するステップと、
     前記重なり度合いまたは前記密集度の評価内容に応じて前記各アイコンをまとめた別のアイコンである補助アイコンを前記画面に表示する制御を行うステップとを実行させるための、画面情報処理プログラム。
PCT/JP2015/070508 2015-03-03 2015-07-17 画面情報処理装置、画面情報処理方法および画面情報処理プログラム WO2016139824A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/037,761 US20160378301A1 (en) 2015-03-03 2015-07-17 Screen information processing apparatus, screen information processing method, and screen information processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015040826A JP6507719B2 (ja) 2015-03-03 2015-03-03 画面情報処理装置、画面情報処理方法および画面情報処理プログラム
JP2015-040826 2015-03-03

Publications (1)

Publication Number Publication Date
WO2016139824A1 true WO2016139824A1 (ja) 2016-09-09

Family

ID=56847044

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/070508 WO2016139824A1 (ja) 2015-03-03 2015-07-17 画面情報処理装置、画面情報処理方法および画面情報処理プログラム

Country Status (3)

Country Link
US (1) US20160378301A1 (ja)
JP (1) JP6507719B2 (ja)
WO (1) WO2016139824A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017115145A1 (en) * 2015-12-31 2017-07-06 Delta Faucet Company Water sensor
JP7058558B2 (ja) * 2018-05-30 2022-04-22 三菱電機株式会社 監視画面作成装置および監視画面作成方法
JP2020166366A (ja) * 2019-03-28 2020-10-08 株式会社メルカリ 情報処理プログラム、情報処理方法、及び情報処理装置
US12118774B2 (en) 2021-05-31 2024-10-15 Mitsubishi Electric Corporation Information processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0895740A (ja) * 1994-09-26 1996-04-12 Sumitomo Electric Ind Ltd データ量表示装置
JP2002340588A (ja) * 2001-03-16 2002-11-27 Alpine Electronics Inc ナビゲーション装置及びpoiアイコン表示方法
JP2012213123A (ja) * 2011-03-31 2012-11-01 Secom Co Ltd 監視装置およびプログラム

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3563889B2 (ja) * 1996-10-15 2004-09-08 キヤノン株式会社 カメラ制御システムおよびカメラ制御システムの制御方法
US6128016A (en) * 1996-12-20 2000-10-03 Nec Corporation Graphic user interface for managing a server system
US20070008099A1 (en) * 1999-09-01 2007-01-11 Nettalon Security Systems, Inc. Method and apparatus for remotely monitoring a site
WO2006009955A2 (en) * 2004-06-23 2006-01-26 Cognio, Inc Self-calibrated path loss position estimation process, device and system
US7277018B2 (en) * 2004-09-17 2007-10-02 Incident Alert Systems, Llc Computer-enabled, networked, facility emergency notification, management and alarm system
US8395664B2 (en) * 2006-09-13 2013-03-12 Smartvue Corp. Wireless surveillance system and method for 3-D visualization and user-controlled analytics of captured data
US20060168975A1 (en) * 2005-01-28 2006-08-03 Hewlett-Packard Development Company, L.P. Thermal and power management apparatus
US8099178B2 (en) * 2005-08-22 2012-01-17 Trane International Inc. Building automation system facilitating user customization
US7652571B2 (en) * 2006-07-10 2010-01-26 Scott Technologies, Inc. Graphical user interface for emergency apparatus and method for operating same
US7971143B2 (en) * 2006-10-31 2011-06-28 Microsoft Corporation Senseweb
WO2008094864A2 (en) * 2007-01-29 2008-08-07 Johnson Controls Technology Company System and method for filter creation and use for building automation systems
US8671355B2 (en) * 2007-10-05 2014-03-11 Mapquest, Inc. Methods and systems for decluttering icons representing points of interest on a map
US20090216438A1 (en) * 2008-02-21 2009-08-27 Microsoft Corporation Facility map framework
US9786164B2 (en) * 2008-05-23 2017-10-10 Leverage Information Systems, Inc. Automated camera response in a surveillance architecture
US20110161875A1 (en) * 2009-12-29 2011-06-30 Nokia Corporation Method and apparatus for decluttering a mapping display
US9602776B2 (en) * 2010-02-02 2017-03-21 Verizon Patent And Licensing Inc. Accessing web-based cameras arranged by category
US9697751B2 (en) * 2010-03-09 2017-07-04 Microsoft Technology Licensing, Llc Interactive representation of clusters of geographical entities
KR101753141B1 (ko) * 2010-09-07 2017-07-04 삼성전자 주식회사 디스플레이장치 및 그 컨텐츠 표시방법
US8823508B2 (en) * 2011-01-31 2014-09-02 Honeywell International Inc. User interfaces for enabling information infusion to improve situation awareness
US8681022B2 (en) * 2011-02-02 2014-03-25 Mapquest, Inc. Systems and methods for generating electronic map displays with points-of-interest based on density thresholds
US20120317507A1 (en) * 2011-06-13 2012-12-13 Adt Security Services Inc. Method and database to provide a security technology and management portal
US9632671B2 (en) * 2011-08-19 2017-04-25 Albright Holdings, Inc. Systems and methods for providing information pertaining to physical infrastructure of a building or property
US20130239063A1 (en) * 2012-03-06 2013-09-12 Apple Inc. Selection of multiple images
WO2013136447A1 (ja) * 2012-03-13 2013-09-19 パイオニア株式会社 表示情報生成装置、表示情報生成方法及び表示情報生成用プログラム並びに情報記録媒体
US9552129B2 (en) * 2012-03-23 2017-01-24 Microsoft Technology Licensing, Llc Interactive visual representation of points of interest data
US8464181B1 (en) * 2012-07-03 2013-06-11 Google Inc. Floor selection on an interactive digital map
US8947433B2 (en) * 2012-12-28 2015-02-03 International Business Machines Corporation Spatiotemporal visualization of sensor data
US9652115B2 (en) * 2013-02-26 2017-05-16 Google Inc. Vertical floor expansion on an interactive digital map
US20150248275A1 (en) * 2013-05-23 2015-09-03 Allied Telesis Holdings Kabushiki Kaisha Sensor Grouping for a Sensor Based Detection System
US9779183B2 (en) * 2014-05-20 2017-10-03 Allied Telesis Holdings Kabushiki Kaisha Sensor management and sensor analytics system
US20150339594A1 (en) * 2014-05-20 2015-11-26 Allied Telesis Holdings Kabushiki Kaisha Event management for a sensor based detecton system
US9672006B2 (en) * 2013-06-10 2017-06-06 Honeywell International Inc. Frameworks, devices and methods configured for enabling a multi-modal user interface configured to display facility information
US20140365891A1 (en) * 2013-06-10 2014-12-11 Honeywell International Inc. Frameworks, devices and methods configured for enabling touch/gesture controlled display for facility information and content with content and controls based on user attributes
US9619124B2 (en) * 2013-06-10 2017-04-11 Honeywell International Inc. Frameworks, devices and methods configured for enabling gesture-based controlled display for facility information and content in respect of a multi-level facility
US10114537B2 (en) * 2013-06-10 2018-10-30 Honeywell International Inc. Frameworks, devices and methods configured for enabling touch/gesture controlled display for facility information and content with resolution dependent display and persistent content positioning
CN105324727A (zh) * 2014-05-30 2016-02-10 三菱电机株式会社 报警位置显示装置以及报警位置显示方法
US9756491B2 (en) * 2014-11-14 2017-09-05 Zen-Me Labs Oy System and method for social sensor platform based private social network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0895740A (ja) * 1994-09-26 1996-04-12 Sumitomo Electric Ind Ltd データ量表示装置
JP2002340588A (ja) * 2001-03-16 2002-11-27 Alpine Electronics Inc ナビゲーション装置及びpoiアイコン表示方法
JP2012213123A (ja) * 2011-03-31 2012-11-01 Secom Co Ltd 監視装置およびプログラム

Also Published As

Publication number Publication date
US20160378301A1 (en) 2016-12-29
JP2016162250A (ja) 2016-09-05
JP6507719B2 (ja) 2019-05-08

Similar Documents

Publication Publication Date Title
US12093520B2 (en) Robotic floor-cleaning system manager
WO2016139824A1 (ja) 画面情報処理装置、画面情報処理方法および画面情報処理プログラム
US20190176321A1 (en) Robotic floor-cleaning system manager
US10556337B2 (en) Method of and apparatus for managing behavior of robot
JP7248177B2 (ja) 情報処理システム、情報処理方法、およびプログラム
US20170176208A1 (en) Method for providing map information and electronic device for supporing the same
US20130024025A1 (en) Autonomous Robot and A Positioning Method Thereof
US20210219150A1 (en) Signal distribution interface
JP2023100850A (ja) オブジェクト検出装置、オブジェクト検出方法およびプログラム
JP2016520893A5 (ja)
JP2017533487A (ja) 医療処置の実施と医療関連情報のアクセスおよび/または操作のための方法およびシステム
JP6197827B2 (ja) センサ管理装置、センサ管理方法およびセンサ管理プログラム
JP6761158B1 (ja) プログラム作成装置、プログラム作成方法、及びプログラム
EP2775408A1 (en) Mobile device for identifying devices for technical maintenance
CN109077672A (zh) 一种扫地机器人选择区块的方法及装置
US20160224209A1 (en) Video monitoring system and video display method
US9940005B2 (en) Interactive control of the curvature of links
TWI715546B (zh) 顯示裝置、監視系統、顯示方法及顯示程式
JP6160622B2 (ja) 配置スコア算出システム、方法およびプログラム
JP2022510016A (ja) 作業設備の作業経路の設定方法及び制御設備
JP6328042B2 (ja) 施設監視制御装置および施設監視制御方法
JP2013054685A (ja) プラント作業支援装置およびプラント作業支援方法
US20160085227A1 (en) Device for managing and configuring field devices in an automation installation
JP4791569B2 (ja) 作図支援方法及びcadプログラムを記憶してなる媒体
JP6328041B2 (ja) 施設監視制御装置および施設監視制御方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 15037761

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15883990

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15883990

Country of ref document: EP

Kind code of ref document: A1