Nothing Special   »   [go: up one dir, main page]

WO2013114761A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2013114761A1
WO2013114761A1 PCT/JP2012/083150 JP2012083150W WO2013114761A1 WO 2013114761 A1 WO2013114761 A1 WO 2013114761A1 JP 2012083150 W JP2012083150 W JP 2012083150W WO 2013114761 A1 WO2013114761 A1 WO 2013114761A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
attribute information
image sensor
control target
target device
Prior art date
Application number
PCT/JP2012/083150
Other languages
English (en)
French (fr)
Inventor
榎原 孝明
和美 長田
周平 野田
馬場 賢二
西村 信孝
Original Assignee
株式会社東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝 filed Critical 株式会社東芝
Priority to SG2013049986A priority Critical patent/SG192567A1/en
Priority to EP12856581.9A priority patent/EP2811451A4/en
Priority to US13/820,034 priority patent/US9442553B2/en
Priority to CN201280004384.3A priority patent/CN103339650B/zh
Publication of WO2013114761A1 publication Critical patent/WO2013114761A1/ja
Priority to US15/226,100 priority patent/US9829955B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • H05B47/125Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/155Coordinated control of two or more light sources
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • H05B47/198Grouping of control procedures or address assignation to light sources
    • H05B47/1985Creation of lighting zones or scenes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Definitions

  • Embodiments described herein relate generally to an information processing apparatus, an information processing method, and a program.
  • An information processing apparatus is a plurality of image sensors that capture the periphery of a control target device that is a target of power control, an information processing apparatus that is communicably connected, and includes attribute information generation means, management means, Is provided.
  • the attribute information generation unit generates attribute information related to the control target device placed under the jurisdiction of the image sensor, using an image captured by each of the image sensors.
  • the management unit manages the attribute information of the control target device generated by the attribute information generation unit in association with the control target device and the image sensor having jurisdiction over the control target device.
  • FIG. 1 is a diagram illustrating a configuration example of an image sensor system according to an embodiment.
  • FIG. 2 is a diagram schematically illustrating an installation example of an image sensor and an electric device.
  • FIG. 3 is a block diagram illustrating a hardware configuration example of the management terminal according to the embodiment.
  • FIG. 4 is a diagram illustrating a data configuration example of the sensor DB.
  • FIG. 5 is a diagram illustrating a data configuration example of the device DB.
  • FIG. 6 is a diagram schematically illustrating an example of layout information.
  • FIG. 7 is a block diagram illustrating a functional configuration example of the management terminal according to the embodiment.
  • FIG. 8 is a diagram illustrating an example of an image captured by the image sensor.
  • FIG. 1 is a diagram illustrating a configuration example of an image sensor system according to an embodiment.
  • FIG. 2 is a diagram schematically illustrating an installation example of an image sensor and an electric device.
  • FIG. 3 is a block diagram illustrating a hardware configuration example of the
  • FIG. 9 is a diagram illustrating a state example of the sensor DB after processing by the sensor attribute generation unit.
  • FIG. 10 is a diagram illustrating an example of an image captured by the image sensor.
  • FIG. 11 is a diagram illustrating an example of classification of detection areas.
  • FIG. 12 is a diagram illustrating a state example of the sensor DB after processing by the device attribute generation unit.
  • FIG. 13 is a diagram illustrating a state example of the device DB after processing by the device attribute generation unit.
  • FIG. 14 is a diagram for explaining the operation of the installation position specifying unit.
  • FIG. 15 is a diagram illustrating a state example of the sensor DB after processing by the installation position specifying unit.
  • FIG. 16 is a diagram illustrating a state example of the device DB after processing by the installation position specifying unit.
  • FIG. 17 is a diagram illustrating another example of the sensor DB.
  • FIG. 18 is a diagram illustrating another example of the device DB.
  • FIG. 19 is a diagram schematically illustrating an example of a layout of an image sensor and an electric device.
  • FIG. 20 is a diagram illustrating an example of a sensor DB to which overlap information is added.
  • FIG. 21 is a flowchart illustrating an example of DB generation processing performed by the management terminal according to the present embodiment.
  • FIG. 22 is a diagram schematically illustrating an example of the layout of the image sensor and the electric device.
  • FIG. 23 is a diagram schematically illustrating an example of a layout of an image sensor and an electric device.
  • FIG. 1 is a diagram illustrating a configuration example of an image sensor system 100 according to the present embodiment.
  • the image sensor system 100 includes an image sensor 10, various electric devices 20, and a management terminal 30.
  • the management terminal 30 is detachably connected to each of the image sensors 10 or a line to which each of the image sensors 10 is connected, and transmits and receives various information to and from each image sensor 10.
  • the management terminal 30 is detachably connected to each of the electrical devices 20 or a line to which each of the electrical devices 20 is connected, and controls the power on / off, the output value, and the like of each electrical device 20.
  • the numbers of the image sensor 10 and the electric device 20 are not particularly limited.
  • the image sensor 10 has a camera unit (not shown) including an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) (not shown).
  • the space where is installed is imaged.
  • the image sensor 10 includes a computer configuration such as a CPU (Central Processing Unit), ROM (Read Only Memory), and RAM (Random Access Memory), a non-volatile storage unit that stores various information, and an external device such as a management terminal 30.
  • a communication unit (not shown) that detects the presence / absence of a person by sensing the acquired image and outputs the detection result to an external device (management terminal 30).
  • the electric device 20 is a control target device that is a target of power control, and examples thereof include an electric device such as a lighting device and an air conditioner.
  • FIG. 2 is a diagram schematically illustrating an installation example of the image sensor 10 and the electric device 20.
  • the electric device 20 a lighting device L installed on the ceiling is shown.
  • the image sensor 10 is installed in a ceiling part similarly to the electric equipment 20, and images the space around the electric equipment 20 from the ceiling part.
  • FIG. 2 shows an example in which two desks D are installed as objects existing in the room.
  • the power control of the electric device 20 is performed by the demand control unit 316 described later using the sensing result of the image sensor 10.
  • the control is performed such that the electrical device 20 (the lighting device L or the like) is turned on in an area where a person exists such as around the desk D, and the electrical device 20 is turned off (or the output is reduced) in an area where no person exists.
  • the density or activity amount of a person is output as the sensing result of the image sensor 10
  • control is performed such that the dimming rate of the lighting device is changed according to the value and the air volume of the air conditioner is changed. Is called.
  • a publicly known technique shall be used for calculation of a human density and activity amount.
  • the image sensor 10 when performing the above power control, it is necessary to set various types of information in advance for each of the image sensor 10 and the electric device 20.
  • a sensor ID that can identify each of the image sensors 10, an IP address, an installation position in the building, information on the electric device 20 placed under the jurisdiction of the image sensor 10, and the like can be given.
  • the electrical device 20 a device ID that identifies and stores each of the electrical devices 20, an installation position in the building, information on the image sensor 10 that has jurisdiction over the electrical device 20, and the like. These pieces of information are stored in a database or the like and used for power control of the electric device 20.
  • the attribute relating to the power control described above that associates the image sensor 10 with the electric device 20 placed under the jurisdiction of the image sensor 10 from the image captured by each of the image sensors 10.
  • the attribute information setting work can be made more efficient.
  • the management terminal 30 will be described.
  • FIG. 3 is a block diagram illustrating a hardware configuration example of the management terminal 30.
  • the management terminal 30 is an information processing device such as a PC (Personal Computer) or a server device, and as shown in FIG. 3, a CPU 31, a ROM 32, a RAM 33, a storage unit 34, an operation unit 35, and a display unit. 36 and a communication unit 37.
  • a PC Personal Computer
  • FIG. 3 a block diagram illustrating a hardware configuration example of the management terminal 30.
  • the management terminal 30 is an information processing device such as a PC (Personal Computer) or a server device, and as shown in FIG. 3, a CPU 31, a ROM 32, a RAM 33, a storage unit 34, an operation unit 35, and a display unit. 36 and a communication unit 37.
  • PC Personal Computer
  • the CPU 31 comprehensively controls the operation of each unit of the management terminal 30 by developing and executing a predetermined program stored in the ROM 32 or the storage unit 34 in the RAM 33.
  • the CPU 31 realizes each functional unit described later by expanding and executing a predetermined program stored in the ROM 32 or the storage unit 34 in the RAM 33.
  • the ROM 32 stores various programs executed by the CPU 31 and setting information.
  • the RAM 33 is a main storage device and is used as a work memory for the management terminal 30.
  • the storage unit 34 is an auxiliary storage device such as an HDD (Hard Disk Drive) and stores various programs executed by the CPU 31 and setting information.
  • the storage unit 34 stores a sensor DB (Data Base) 341 that holds information related to the image sensor 10, a device DB 342 that holds information related to the electrical device 20, and layout information 343.
  • FIG. 4 is a diagram illustrating a data configuration example of the sensor DB 341.
  • the sensor DB 341 has an item field for storing information such as sensor ID, IP address, installation position, detection area, jurisdiction target device as attribute information of the image sensor 10 related to power control.
  • an identifier capable of identifying each image sensor 10 is registered in the “sensor ID” column, and an IP address assigned to each image sensor 10 is registered in the “IP address” column.
  • the installation position of the image sensor 10 in the building is registered.
  • the “detection area” column areas (areas) to be sensed by each image sensor 10 are registered, and in the “jurisdiction target device” column, the electric devices 20 placed under the jurisdiction in the detection area.
  • Identifier device ID
  • FIG. 5 is a diagram illustrating a data configuration example of the device DB 342.
  • the device DB 342 has item fields for storing information such as device ID, installation position, jurisdiction sensor, and detection area as attribute information of the electric device 20 related to power control.
  • an identifier capable of identifying each electric device 20 is registered in the “device ID” column, and an installation position of the electric device 20 in the building is registered in the “installation position” column.
  • the sensor ID of the image sensor 10 having jurisdiction over each electric device 20 is registered in the “jurisdiction sensor” column, and the electric device 20 in the image sensor 10 having jurisdiction over the electric device 20 is registered in the “detection area” column.
  • the detection area where is placed is registered.
  • the attribute information registered in the sensor DB 341 and the device DB 342 is automatically generated by the function of each function unit (sensor attribute generation unit 312, device attribute generation unit 313, and installation position specifying unit 314: see FIG. 7) described later. And registered in the corresponding item column.
  • FIG. 6 is a diagram schematically showing an example of the layout information 343.
  • the layout information 343 is information such as CAD (Computer Aided Design) data indicating the layout (plan view) of each room in which the image sensor 10 and the electric device 20 (lighting device L) are installed.
  • the layout information includes the layout of the image sensor 10, the electric device 20, and various objects (walls, windows, doors, desks D, etc.) arranged in the room, and position information (for example, the absolute position in the building) (Floor number, room number, position code, coordinates), etc. are held.
  • the operation unit 35 is an input device such as a keyboard and a mouse, and outputs an operation input received from the user of the management terminal 30 to the CPU 31.
  • the display unit 36 is a display device such as an LCD (Liquid Crystal Display), and displays characters, images, and the like under the control of the CPU 31.
  • the communication unit 37 is a network interface, and exchanges various information with the image sensor 10 connected through a network such as a LAN (Local Area Network) under the control of the CPU 31.
  • FIG. 7 is a block diagram illustrating a functional configuration example of the management terminal 30.
  • the management terminal 30 includes an image acquisition unit 311, a sensor attribute generation unit 312, a device attribute generation unit 313, and a function unit realized by cooperation of the CPU 31 and a predetermined program.
  • the position specifying unit 314, the layout analysis unit 315, and the demand control unit 316 are provided.
  • the image acquisition unit 311 sequentially acquires images taken by each of the image sensors 10 via a network (not shown).
  • the IP address used for communication with the image sensor 10 may be assigned to each image sensor 10 in advance, or may be assigned to each image sensor 10 using a technique such as DHCP. .
  • the sensor attribute generation unit 312 recognizes a character string representing attribute information from the image by analyzing the image of each image sensor 10 acquired by the image acquisition unit 311. In addition, the sensor attribute generation unit 312 registers the recognized character string as attribute information in the corresponding item field of the sensor DB 341.
  • FIG. 8 is a diagram illustrating an example of an image captured by the image sensor 10.
  • the sensor attribute generation unit 312 analyzes the image of FIG. 8, and converts the character string “sensor ID: 1001” and “IP address: 192.168.0.1” described in the marker M in the image into the attribute. Recognized as a character string representing information.
  • the description method and description content in the marker are not particularly limited, but it is preferable that the item name (sensor ID, IP address, etc.) of the attribute information and the content thereof are described as a set. Character recognition uses a known technique.
  • the sensor attribute generation unit 312 registers the character strings “sensor ID: 1001” and “IP address: 192.168.0.1” recognized from the image of FIG. 8 in the corresponding item column of the sensor DB 341. Specifically, “1001” is registered in the “sensor ID” column of the sensor DB 341, and “192.168.0.1” is registered in the “IP address” column.
  • FIG. 9 is a diagram illustrating a state example of the sensor DB 341 after processing by the sensor attribute generation unit 312.
  • the sensor attribute generation unit 312 registers a sensor ID and an IP address. Accordingly, the sensor ID and the IP address are registered in association with each other for the same image sensor 10.
  • the IP address recognized from the image is registered in the sensor DB 341.
  • an IP address obtained during communication with the image sensor 10 may be registered in the sensor DB 341.
  • an IP address may be used as the sensor ID.
  • the IP address allocated to the image sensor 10 and the IP address described in the marker are different, the IP address described in the marker may be updated.
  • the attribute information described in the marker is not limited to the above items, and other items may be described. Further, when the sensor attribute generation unit 312 has a decoding function of a code symbol such as a bar code or a two-dimensional code, a code symbol holding attribute information is presented instead of a marker describing characters. Also good.
  • the device attribute generation unit 313 detects an image having changed from the image of each image sensor 10 obtained when the electric device 20 is operated, and operates the image sensor 10 that has captured the image. It identifies as the jurisdiction image sensor of the made electric equipment 20. Further, the device attribute generation unit 313 registers the relationship between the image sensor 10 and the electric device 20 placed under the jurisdiction of the image sensor 10 as attribute information in the sensor DB 341 and the device DB 342.
  • the device attribute generation unit 313 turns on the power of the electrical devices 20 installed in the building one by one via a control line (not shown) and is specific to the electrical device 20 that is the target of the on operation. Assign a device ID.
  • the device attribute generation unit 313 detects an image that has changed due to the turning on of the electric device 20 from the images captured by each of the image sensors 10. Then, when the device attribute generation unit 313 detects the image in which the change has occurred, the device attribute generation unit 313 determines that the electric device 20 whose power is turned on is under the jurisdiction of the image sensor 10 that has captured the image.
  • the device attribute generation unit 313 detects a change in luminance in the image by comparing the images before and after the target lighting device is turned on, and the amount of change is a predetermined amount. An image that exceeds the threshold is detected.
  • the device attribute generation unit 313 shakes the wind blow from the image after the target air conditioner is turned on by adding a wind blower or the like to the air outlet of the air conditioner. A motion is detected, and an image in which the amount of motion exceeds a predetermined threshold is specified. Note that the device attribute generation unit 313 detects the changed image, turns off the electric device 20 that is turned on, and shifts to the next processing of the electric device 20.
  • the device attribute generation unit 313 identifies the relative positional relationship of the electrical device 20 that is turned on with respect to the image sensor 10 from the state of change in the detected image.
  • the device attribute generation unit 313 analyzes the light distribution (luminance distribution) in the image to thereby illuminate the lighting device L with respect to the image sensor 10.
  • the relative positional relationship is specified.
  • FIG. 10 is a diagram illustrating an example of an image captured by the image sensor 10.
  • the device attribute generation unit 313 specifies that the target electric device 20 exists at a position of 6 m in the direction of 10:00 with respect to the installation position of the image sensor 10 (indicated by a broken line in the figure). To do.
  • the device attribute generation unit 313 has a relative positional relationship (distance and direction) of the air conditioner with respect to the image sensor 10 from a position where a windsock added to the air conditioner shakes. Can be specified.
  • the device attribute generation unit 313 divides the detection area of the image sensor 10 based on the relative positional relationship with respect to the image sensor 10 specified for each of the electric devices 20, and assigns an area number to each of the divided detection areas. assign.
  • FIG. 11 is a diagram illustrating an example of classification of detection areas.
  • the device attribute generation unit 313 allocates the device ID of each electric device 20 that is turned on to the corresponding detection area, and associates the device ID with the sensor ID of the image sensor 10 having jurisdiction over the electric device 20 in the sensor DB 341. sign up.
  • the device attribute generation unit 313 registers the device ID assigned to each electric device 20 in the device DB 342, and associates the device ID with the device ID, the sensor ID of the image sensor 10 having jurisdiction over the electric device 20, and the electric The area number assigned to the device 20 is registered in the device DB 342.
  • FIG. 12 is a diagram illustrating a state example of the sensor DB 341 after processing by the device attribute generation unit 313.
  • the processing of the device attribute generation unit 313 associates the sensor ID of each image sensor 10 with each detection area (area number) of the image sensor 10 and controls the electric device 20 to be controlled.
  • the device ID is registered in the “jurisdiction target device” column.
  • FIG. 13 is a diagram illustrating a state example of the device DB 342 after processing by the device attribute generation unit 313.
  • the processing of the device attribute generation unit 313 associates the device ID of each electrical device 20 with the sensor ID of the image sensor 10 having jurisdiction over the electrical device 20 and detects that the electrical device 20 exists. Areas (area numbers) are registered in the “jurisdiction sensor” column and the “detection area” column, respectively.
  • the detection area of the image sensor 10 is divided into a plurality of regions.
  • the present invention is not limited to this, and a configuration in which no division is performed may be employed.
  • generation part 313 performed the power supply on / off of the electric equipment 20, it was good not only this but the form which an operator performs manually.
  • the installation position specifying unit 314 recognizes objects such as walls, windows, doors, and desks from images captured by the image sensors 10, and acquires the arrangement relationship (layout) of these objects.
  • the object recognition method is not particularly limited, and a known technique can be used.
  • an object identification model is generated by collecting images obtained by capturing images of a general office space, and learning based on the images, and using this object identification model, an object is recognized from the actually captured image. It is good also as a form to do. Moreover, it is good also as a form which recognizes the arrangement
  • the installation position specifying unit 314 uses the layout acquired from the image of the image sensor 10 and the relative positional relationship of the electrical device 20 specified by the device attribute generation unit 313 with respect to the image sensor 10.
  • the room layout information 343 is collated, and layout information having a similar layout is searched.
  • the similarity search is performed by, for example, extracting the arrangement relationship between the indoor objects and the electrical devices 20 indicated in the layout information as feature amounts, calculating the similarity based on the extracted feature amounts, and obtaining the highest similarity. Get high layout information.
  • it is good also as a form which shows a layout information with high similarity to an operator, and the said operator selects what corresponds to an actual.
  • the installation position specifying unit 314 uses the combination of layouts shown in FIGS. 14 and 11 as a search condition, and searches for layout information corresponding to (similar to) the search condition.
  • generation part 313 acquires the layout information of FIG. 6 applicable to the said search conditions.
  • the installation position specifying unit 314 specifies the installation positions of the image sensor 10 and the electric device 20 installed in the room from the acquired layout information
  • the installation position of the image sensor 10 is stored in the sensor DB 341. While registering in association with the corresponding sensor ID, the installation position of the identified electrical device 20 is registered in association with the corresponding device ID in the device DB 342.
  • FIG. 15 is a diagram illustrating a state example of the sensor DB 341 after processing by the installation position specifying unit 314.
  • the installation position specifying unit 314 registers the installation position of the image sensor 10 in the “installation position” column in association with the sensor ID of each image sensor 10.
  • FIG. 16 is a diagram illustrating a state example of the device DB 342 after processing by the installation position specifying unit 314. As shown in the figure, the installation position specifying unit 314 registers the installation position of the electrical device 20 in the “installation position” column in association with the device ID of the electrical device 20.
  • the attribute information of the sensor DB 341 and the device DB 342 is generated by the functions of the image acquisition unit 311, the sensor attribute generation unit 312, the device attribute generation unit 313, and the installation position specification unit 314.
  • information registered in the sensor DB 341 and the device DB 342 is not limited to the attribute information described above, and may include items that are input manually.
  • a threshold value related to sensing of the image sensor 10, an output level of the electrical device 20, and the like may be registered as setting information related to the control of the image sensor 10 and the electrical device 20.
  • FIG. 17 is a diagram illustrating another example of the sensor DB 341, in which setting information of each image sensor 10 is integrated.
  • the setting information of the image sensor 10 an example in which various parameters (detection parameters 1 and 2) such as a mask region and a threshold value relating to sensing are registered is shown.
  • the mask area indicates an area to be excluded from the sensing target in the detection area of the image sensor 10. For example, when the mask area is rectangular, as shown in FIG. The coordinates of corner points are registered.
  • FIG. 18 is a diagram showing another example of the device DB 342, in which setting information of each electric device 20 is integrated.
  • the figure shows an example in which various parameters (output parameters 1, 2, and 3) such as a normal output value, a lower limit output value, and an upper limit output value are registered as setting information of the electrical device 20.
  • Such setting information is used in power control of the electric device 20.
  • the layout analysis unit 315 refers to the sensor DB 341, and based on the identity of the device ID associated with the detection area of each image sensor 10, whether the detection area overlaps among the plurality of image sensors 10. Determine whether or not.
  • FIG. 19 shows that among the detection areas A11 to A14 of the image sensor 10a and the detection areas A21 to A24 of the image sensor 10b, the detection areas A13 and A22 overlap with the detection areas A14 and A21. (See hatched area).
  • the layout analysis unit 315 determines that the detection areas overlap, the layout analysis unit 315 distributes the device IDs of the electrical devices 20 associated with the detection areas to the image sensors 10 that are in an overlapping relationship, and the distribution result is the sensor DB 341. And by reflecting in apparatus DB342, duplication is eliminated.
  • the distribution method of the electric equipment 20 is not particularly limited. For example, in the state shown in FIG. 19, among the illumination devices L11 to L22, the image sensors 10a close to the detection areas A13 (A22) and A14 (A21) are located.
  • the illumination devices L15 and L16 are under the jurisdiction of the image sensor 10a, and the illumination devices L17 and L18 near the image sensor 10b are under the jurisdiction of the image sensor 10b. Further, all the L15 to L18 existing in the overlapping detection area may be controlled by any one of the image sensors 10.
  • the overlapping detection areas may be left as they are, and the detection of the overlapping detection areas may be performed between the image sensors 10a and 10b.
  • the detection result is adopted.
  • the layout analysis unit 315 instructs the overlap detection area to overlap information in the sensor DB 341 in order to instruct that it is a target of the control. Is added (see FIG. 20).
  • FIG. 20 is a diagram illustrating an example of the sensor DB 341 to which overlap information is added.
  • the sensor ID of the image sensor 10a shown in FIG. 19 is “1001”
  • the sensor ID of the image sensor 10b is “1002”.
  • overlap information OL is added to each of detection areas A13 and A22 and detection areas A14 and A21 that are in an overlapping relationship among the detection areas of these image sensors 10a and 10b. Show.
  • the layout analysis unit 315 determines whether or not the detection areas overlap between the image sensors 10 based on the identity of the device IDs associated with the detection areas of the image sensors 10.
  • the present invention is not limited to this.
  • the image sensor 10 having the adjacent relationship may be specified from the layout information 343, and the overlap of the detection areas may be determined for the image sensor 10 having the adjacent relationship.
  • the demand control unit 316 refers to the sensor DB 341 and the device DB 342, and performs power control according to the sensing result input from each of the image sensors 10.
  • the electric device 20 under the jurisdiction of the image sensor 10. Apply to each of the. Specifically, when the sensing result is input from the image sensor 10, the demand control unit 316 identifies which detection area the sensing result relates to, and the device ID of the electric device 20 associated with the detection area. Are extracted from the sensor DB 341. Further, the demand control unit 316 controls the output of the electric device 20 corresponding to the extracted device ID according to the sensing result of the image sensor 10.
  • the sensing result of the other image sensor 10 to which this overlap information is added is taken in, and the target is based on the set of both sensing results. It is assumed that the electric device 20 is controlled.
  • FIG. 21 is a flowchart illustrating an example of a DB generation process performed by the management terminal 30.
  • the image acquisition unit 311 sequentially acquires images captured by each of the image sensors 10 (step S11).
  • the process of step S11 is continuously executed during the subsequent steps S12 to S25.
  • the sensor attribute generation unit 312 recognizes a character string representing attribute information from the image acquired by the image acquisition unit 311 (step S12). Next, the sensor attribute generation unit 312 registers the character string recognized in step S12 as attribute information in the corresponding item column of the sensor DB 341 (step S13).
  • the sensor attribute generation unit 312 determines whether or not the processing of steps S12 and S13 has been executed for all installed image sensors 10 (step S14). If there is an unprocessed image sensor 10 (step S14; No), the process returns to step S12 again. If it is determined that the processes of steps S12 and S13 have been executed for all the image sensors 10 (step S14; Yes), the process proceeds to step S15.
  • step S15 the device attribute generation unit 313 sequentially turns on the power of the electric device 20 (step S15).
  • the device attribute generation unit 313 detects an image that has changed due to the processing in step S15 from the images acquired by the image acquisition unit 311, the image sensor 10 that has captured the image has turned on the electric device. 20 jurisdiction image sensors are determined (step S16).
  • the device attribute generation unit 313 identifies the relative positional relationship of the electrical device 20 that is turned on with respect to the image sensor 10 from the state of change in the image detected in step S16 (step S17). Next, the device attribute generation unit 313 registers the attribute information generated based on the processing results of steps S16 and S17 in the corresponding item fields of the sensor DB 341 and the device DB 342 (step S18).
  • the device attribute generation unit 313 determines whether or not the processing of steps S16 to S18 has been executed for all the electrical devices 20 (step S19).
  • the unprocessed electric equipment 20 exists (step S19; No)
  • step S20 the installation position specifying unit 314 recognizes the layout of the object from each image acquired by the image acquisition unit 311 (step S20). Subsequently, the installation position specifying unit 314 collates with the layout information 343 using a set of the layout recognized from each image and the relative positional relationship of the electric device 20 with respect to the image sensor 10 of the image, and similar layouts are obtained. The layout information having is searched (step S21). Next, when the installation position specifying unit 314 specifies the installation position of the image sensor 10 and the electric device 20 based on similar layout information that is the search result (step S22), the installation position is set as attribute information and the sensor DB 341 and Registration is made in the corresponding item column of the device DB 342 (step S23).
  • the layout analysis unit 315 identifies detection areas that overlap between the image sensors 10 based on the identity of the device IDs associated with the detection areas of the image sensors 10 (step S24). Then, the layout analysis unit 315 resolves the duplication by distributing the device IDs of the electric devices 20 associated with the duplicated detection areas among the image sensors 10 having the duplication relationship (step S25), and performs this processing. finish. In the case of a configuration in which overlap information is added, it is assumed that overlap information is added to the overlapped detection area in step S25 instead of elimination of overlap.
  • the image sensor 10 and the electrical device 20 placed under the jurisdiction of the image sensor 10 are associated with each other using the image captured by each of the image sensors 10. Attribute information is generated and registered in the corresponding item fields of the sensor DB 341 and the device DB 342. Thereby, the attribute information related to the power control of the electric device 20 can be automatically generated from the image captured by the image sensor 10, so that the attribute information can be set efficiently.
  • the illumination devices La and Lb are installed outside the room where the image sensor 10 (10a, 10b) is installed (for example, a passage), the illumination devices La and Lb Even when the power is turned on, no change in the image is confirmed.
  • the device attribute generation unit 313 replaces the illumination devices La and Lb that have not been confirmed on the image after the generation of the attribute information for each of the image sensors 10 with a sensor device other than the image sensor 10.
  • Infrared sensors 41a, 41b, 41c are registered in the sensor DB 341 and the device DB 342 in association with the sensor IDs of the infrared sensors 41a, 41b, 41c and the device IDs of the illumination devices La, Lb. To do.
  • the registration of the infrared sensors 41a, 41b, and 41c in the sensor DB 341 may be performed in advance or may be performed each time by manual input by the operator.
  • the sensor IDs and IP addresses of the infrared sensors 41a, 41b, and 41c may be automatically assigned by the device attribute generation unit 313 or may be set manually by an operator.
  • attribute information is sequentially generated for each of the image sensor 10 and the electric device 20 and registered in the sensor DB 341 and the device DB 342.
  • the present invention is not limited to this, and the image sensor 10 and the electric device 20 are not limited thereto.
  • the attribute information for the other image sensor 10 and the electric device 20 may be generated using the attribute information.
  • this embodiment will be described as a modification of the above embodiment with reference to FIG. 19 and FIG.
  • the installation position specifying unit 314 uses the layout of the room in which the image sensors 10a and 10b and the lighting devices L11 to L22 are installed to search for layout information 343 of other rooms similar to the layout.
  • layout information 343 having the layout is searched.
  • the installation position specifying unit 314 diverts the attribute information of the image sensor 10 and the electric device 20 included in the layout information of FIG. 23 using the attribute information of the image sensors 10a and 10b and the lighting devices L11 to L22 of FIG. Generate.
  • the image sensor 10a in FIG. 19 corresponds to the image sensor 10c
  • the image sensor 10b in FIG. 19 corresponds to the image sensor 10d
  • the illumination devices L31 to L42 in FIG. 23 correspond to the illumination devices L11 to L22 in FIG. 19, respectively. Therefore, the installation position specifying unit 314 diverts the attribute information of the image sensors 10a and 10b to generate the attribute information of the image sensors 10c and 10d, and diverts the attribute information of the lighting devices L11 to L22, and the lighting device L31. ⁇ L42 attribute information is generated. Then, the installation position specifying unit 314 registers the attribute information generated for the image sensors 10c and 10d and the lighting devices L31 to L42 in the sensor DB 341 and the device DB 342.
  • the attribute information generated for the image sensor 10 and the electric device 20 having the specific layout is used to generate the attribute information of the image sensor 10 and the electric device 20 having another layout similar to the layout. Therefore, attribute information can be generated efficiently.
  • the IDs and IP addresses of the image sensors 10c and 10d and the illumination devices L31 to L42 are assigned values different from those assigned to the image sensors 10a and 10b and the illumination devices L11 to L22. Further, when setting information has already been registered for the image sensors 10a and 10b and the lighting devices L11 to L22, the setting information may be used for the image sensors 10c and 10d and the lighting devices L31 to L42.
  • the management terminal 30 includes the sensor DB 341 and the device DB 342.
  • the configuration is not limited thereto, and external devices (for example, a DB server) accessible by the management terminal 30 are the sensor DB 341 and the device DB 342. It is good also as a structure provided with.
  • the management terminal 30 was set as the structure provided with the demand control part 316 which performs electric power control of the electric equipment 20, it is good not only as this but a structure with which an external device is provided.
  • the program executed by the management terminal 30 according to the above embodiment is provided by being incorporated in advance in a storage medium (ROM 32 or storage unit 34) provided in the management terminal 30.
  • a storage medium ROM 32 or storage unit 34
  • an executable file may be recorded on a computer-readable recording medium such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versatile Disk).
  • the storage medium is not limited to a medium independent of a computer or an embedded system, but also includes a storage medium in which a program transmitted via a LAN, the Internet, or the like is downloaded and stored or temporarily stored.
  • the program executed by the management terminal 30 of the above embodiment may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. It may be configured to be provided or distributed via.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Remote Monitoring And Control Of Power-Distribution Networks (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)
  • Power Sources (AREA)

Abstract

 電力制御の対象となる制御対象機器(20)周辺を撮像する複数の画像センサ(10)と、通信可能に接続される情報処理装置(30)であって、前記画像センサ(10)の各々が撮像した画像を用いて、当該画像センサ(10)の管轄下に置かれる前記制御対象機器(20)に関する属性情報を生成する属性情報生成手段(313)と、前記属性情報生成手段(313)が生成した前記制御対象機器(20)の属性情報を、当該制御対象機器(20)と当該制御対象機器(20)を管轄する前記画像センサ(10)とに対応付けて管理する管理手段(341、342)と、を備える。

Description

情報処理装置、情報処理方法及びプログラム
 本発明の実施形態は、情報処理装置、情報処理方法及びプログラムに関する。
 近時、オフィスビルやテナントビル等の建物では、人の存否等のセンシング結果を画像センサで撮像された画像を用いて取得し、そのセンシング結果に応じて、照明や空調等の電気機器の電力制御が行われている。係る電力制御を行う場合、制御対象となる電気機器と当該電気機器を管轄する画像センサとを対応付けて各種の設定を行う必要であるが、電気機器や画像センサが増加するにつれてその作業は煩雑となる。そこで、従来、無線信号の受信レベルで設置位置を検出する位置検出機器を用いて、天井面に設置された機器(照明)の設置位置を検出する技術が提案されている。
特開2008-243806号公報
 しかしながら、従来の技術では、設置位置特定のための専用の装置を用意する必要があり、設定作業の効率化の点で改善の余地があった。
 実施の形態の情報処理装置は、電力制御の対象となる制御対象機器周辺を撮像する複数の画像センサと、通信可能に接続された情報処理装置であって、属性情報生成手段と、管理手段とを備える。属性情報生成手段は、前記画像センサの各々が撮像した画像を用いて、当該画像センサの管轄下に置かれる前記制御対象機器に関する属性情報を生成する。管理手段は、属性情報生成手段が生成した制御対象機器の属性情報を、当該制御対象機器と当該制御対象機器を管轄する画像センサとに対応付けて管理する。
図1は、実施形態に係る画像センサシステムの構成例を示す図である。 図2は、画像センサ及び電気機器の設置例を模式的に示す図である。 図3は、実施形態に係る管理端末のハードウェア構成例を示すブロック図である。 図4は、センサDBのデータ構成例を示す図である。 図5は、機器DBのデータ構成例を示す図である。 図6は、レイアウト情報の一例を模式的に示す図である。 図7は、実施形態に係る管理端末の機能構成例を示すブロック図である。 図8は、画像センサで撮像された画像例を示す図である。 図9は、センサ属性生成部による処理後のセンサDBの状態例を示す図である。 図10は、画像センサで撮像された画像例を示す図である。 図11は、検知エリアの区分例を示す図である。 図12は、機器属性生成部による処理後のセンサDBの状態例を示す図である。 図13は、機器属性生成部による処理後の機器DBの状態例を示す図である。 図14は、設置位置特定部の動作を説明するための図である。 図15は、設置位置特定部による処理後のセンサDBの状態例を示す図である。 図16は、設置位置特定部による処理後の機器DBの状態例を示す図である。 図17は、センサDBの他の例を示す図である。 図18は、機器DBの他の例を示す図である。 図19は、画像センサ及び電気機器のレイアウトの一例を模式的に示す図。 図20は、オーバーラップ情報が付加されたセンサDBの一例を示す図である。 図21は、本実施形態の管理端末が行うDB生成処理の一例を示すフローチャートである。 図22は、画像センサ及び電気機器のレイアウトの一例を模式的に示す図である。 図23は、画像センサ及び電気機器のレイアウトの一例を模式的に示す図である。
 以下に添付図面を参照して、この発明に係る画像センサシステムの実施形態を詳細に説明する。以下の実施形態では、この発明に係る画像センサシステムを、オフィスビル等の建物に適用した例について説明する。
 図1は、本実施形態に係る画像センサシステム100の構成例を示す図である。同図に示すように、画像センサシステム100は、画像センサ10と、各種の電気機器20と、管理端末30とを有する。ここで、管理端末30は、画像センサ10の各々又は画像センサ10の各々が接続される回線に着脱可能に接続されており、各画像センサ10との間で種々の情報の送受信を行う。また、管理端末30は、電気機器20の各々又は電気機器20の各々が接続される回線に着脱可能に接続されており、各電気機器20の電源のオン/オフや出力値等を制御する。なお、画像センサ10及び電気機器20の個数は、特に問わないものとする。
 画像センサ10は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサ等で構成されるカメラ部を有し(何れも図示せず)、このカメラ部を用いて電気機器20が設置された空間を撮像する。また、画像センサ10は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等のコンピュータ構成、各種情報を記憶する不揮発性の記憶部、管理端末30等の外部装置と通信を行う通信部を備え(何れも図示せず)、取得した画像をセンシングすることで人の在/不在等を検知し、その検知結果を外部装置(管理端末30)に出力する。
 また、電気機器20は、電力制御の対象となる制御対象機器であり、例えば、照明装置や空調装置等の電気機器が挙げられる。
 図2は、画像センサ10及び電気機器20の設置例を模式的に示す図である。同図では、電気機器20として、天井部に設置された照明装置Lを示している。また、画像センサ10は、電気機器20と同様に天井部に設置され、当該天井部から電気機器20周辺の空間を撮像する。なお、図2では、室内に存在する物体として二つのデスクDが設置された例を示している。
 ここで、画像センサシステム100では、画像センサ10でのセンシング結果を用いて、後述するデマンド制御部316により、電気機器20の電力制御が行われる。例えば、デスクD周辺等の人が存在するエリアでは電気機器20(照明装置L等)をオン、人が存在しないエリアでは電気機器20をオフ(或いは出力を下げる)とする制御が行われる。また、画像センサ10のセンシング結果として、人の密度や活動量が出力される場合には、その値に応じて照明装置の調光率を変化させ、空調装置の風量を変化させるといった制御が行われる。なお、人の密度や活動量の算出については、公知の技術を用いるものとする。
 ところで、上記の電力制御を行う場合には、画像センサ10及び電気機器20の各機器について、各種の情報を事前に設定しておく必要がある。例えば、画像センサ10については、画像センサ10の各々を識別可能なセンサIDや、IPアドレス、建物内での設置位置、画像センサ10の管轄下に置かれる電気機器20に関する情報等が挙げられる。また、電気機器20については、電気機器20の各々を識別格納な機器IDや、建物内での設置位置、その電気機器20を管轄する画像センサ10に関する情報等が挙げられる。これらの情報は、データベース等に記憶され電気機器20の電力制御に利用される。
 しかしながら、上記の情報を手作業でデータベースに登録することは煩雑である。特に、画像センサ10や電気機器20の設置位置を登録する際には、現物を目視で確認しながらレイアウト図面との対応付けを行う作業が発生するため、多くの時間を要し非効率的であるという問題があった。
 そこで、本実施形態の管理端末30では、画像センサ10の各々が撮像する画像から、画像センサ10と当該画像センサ10の管轄下に置かれる電気機器20とを対応付ける、上記の電力制御に係る属性情報を自動で生成し、所定のデータベースへ登録を行うことで、当該属性情報の設定作業の効率化を図る。以下、管理端末30について説明する。
 図3は、管理端末30のハードウェア構成例を示すブロック図である。管理端末30は、PC(Personal Computer)やサーバ装置等の情報処理装置であって、図3に示すように、CPU31と、ROM32と、RAM33と、記憶部34と、操作部35と、表示部36と、通信部37とを備えている。
 CPU31は、ROM32や記憶部34に記憶された所定のプログラムをRAM33に展開して実行することで、管理端末30の各部の動作を統括的に制御する。また、CPU31は、ROM32や記憶部34に記憶された所定のプログラムをRAM33に展開して実行することで、後述する各機能部を実現する。
 ROM32は、CPU31が実行する各種プログラムや設定情報を記憶している。RAM33は、主記憶装置であり、管理端末30のワークメモリとして用いられる。
 記憶部34は、HDD(Hard Disk Drive)等の補助記憶装置であって、CPU31が実行する各種プログラムや設定情報を記憶している。また、記憶部34は、画像センサ10に関する情報を保持するセンサDB(Data Base)341と、電気機器20に関する情報を保持する機器DB342と、レイアウト情報343とを記憶している。
 図4は、センサDB341のデータ構成例を示す図である。同図に示すように、センサDB341は、電力制御に係る画像センサ10の属性情報として、センサID、IPアドレス、設置位置、検知エリア、管轄対象機器等の情報を格納する項目欄を有している。ここで、“センサID”欄には、各画像センサ10を識別可能な識別子が登録され、“IPアドレス”欄には、各画像センサ10に割り当てられたIPアドレスが登録され、“設置位置”欄には、建物内での画像センサ10の設置位置が登録される。また、“検知エリア”欄には、各画像センサ10でのセンシングの対象となる領域(エリア)が登録され、“管轄対象機器”欄には、その検知エリアにおいて管轄下に置かれる電気機器20の識別子(機器ID)が登録される。
 図5は、機器DB342のデータ構成例を示す図である。同図に示すように、機器DB342には、電力制御に係る電気機器20の属性情報として、機器ID、設置位置、管轄センサ、検知エリア等の情報を格納する項目欄を有している。ここで、“機器ID”欄には、各電気機器20を識別可能な識別子が登録され、“設置位置”欄には、建物内での電気機器20の設置位置が登録される。また、“管轄センサ”欄には、各電気機器20を管轄する画像センサ10のセンサIDが登録され、“検知エリア”欄には、電気機器20を管轄する画像センサ10において、当該電気機器20が置かれた検知エリアが登録される。
 なお、センサDB341及び機器DB342に登録される属性情報は、後述する各機能部(センサ属性生成部312、機器属性生成部313及び設置位置特定部314:図7参照)の機能により自動的に生成され、該当する項目欄に登録される。
 また、図6は、レイアウト情報343の一例を模式的に示す図である。同図に示すように、レイアウト情報343は、画像センサ10及び電気機器20(照明装置L)が設置された各室のレイアウト(見取り図)を示したCAD(Computer Aided Design)データ等の情報である。なお、レイアウト情報には、画像センサ10、電気機器20及び室内に配置された各種物体(壁、窓、ドア、デスクD等)のレイアウトや、建物内での絶対位置を示す位置情報(例えば、階番号、部屋番号、位置コード、座標)等が保持されているものとする。
 図3に戻り、操作部35は、キーボードやマウス等の入力デバイスであって、管理端末30のユーザから受け付けた操作入力をCPU31に出力する。表示部36は、LCD(Liquid Crystal Display)等の表示デバイスであって、CPU31の制御に従い文字や画像等を表示する。また、通信部37は、ネットワークインタフェースであり、CPU31の制御の下、LAN(Local Area Network)等のネットワークを介して接続された画像センサ10との間で各種情報の授受を行う。
 次に、管理端末30の機能構成について説明する。図7は、管理端末30の機能構成例を示すブロック図である。同図に示すように、管理端末30は、CPU31と所定のプログラムとの協働により実現される機能部として、画像取得部311と、センサ属性生成部312と、機器属性生成部313と、設置位置特定部314と、レイアウト分析部315と、デマンド制御部316とを備える。
 画像取得部311は、図示しないネットワークを介して、画像センサ10の各々で撮像された画像を順次取得する。なお、画像センサ10との通信に用いるIPアドレスは、各画像センサ10に予め割り振られている形態としてもよいし、DHCP等の技術を用いて各画像センサ10にIPアドレスを割り振る形態としてもよい。
 センサ属性生成部312は、画像取得部311が取得した各画像センサ10の画像を解析することで、属性情報を表す文字列を画像から認識する。また、センサ属性生成部312は、認識した文字列を属性情報として、センサDB341の対応する項目欄に登録する。
 以下、図8及び図9を参照して、センサ属性生成部312の動作について説明する。まず、設定の対象となった画像センサ10の撮像範囲(例えば画像センサ10の真下)において、当該画像センサ10のセンサIDやIPアドレス等を記載したマーカが提示される。このとき、画像センサ10は、撮像範囲を撮像することで、図8に示すようにマーカMを含んだ画像を取得する。ここで、図8は、画像センサ10で撮像された画像例を示す図である。
 センサ属性生成部312は、図8の画像を解析することで、画像中のマーカMに記載された文字列「センサID:1001」及び「IPアドレス:192.168.0.1」を、属性情報を表す文字列として認識する。なお、マーカへの記述方法及び記述内容は特に問わないものとするが、属性情報の項目名(センサID、IPアドレス等)と、その内容とが組として記述されることが好ましい。また、文字認識は公知の技術を用いるものとする。
 そして、センサ属性生成部312は、図8の画像から認識した文字列「センサID:1001」及び「IPアドレス:192.168.0.1」を、センサDB341の対応する項目欄に登録する。具体的には、センサDB341の“センサID”欄に「1001」を登録し、“IPアドレス”欄に「192.168.0.1」を登録する。
 図9は、センサ属性生成部312による処理後のセンサDB341の状態例を示す図である。同図に示すように、センサ属性生成部312により、センサIDと、IPアドレスとが登録される。これにより、同一の画像センサ10について、センサIDとIPアドレスとが対応付けて登録される。
 なお、本例では、画像から認識したIPアドレスを、センサDB341に登録したが、画像センサ10との通信時に得られるIPアドレスをセンサDB341に登録する形態としてもよい。また、センサIDとしてIPアドレスを用いる形態としてもよい。また、画像センサ10に割り振られているIPアドレスと、マーカに記述されたIPアドレスとが異なる場合には、このマーカに記述されたIPアドレスに更新する形態としてもよい。
 また、マーカに記述する属性情報が上記の項目に限らず、他の項目を記述する形態としてもよい。また、センサ属性生成部312が、バーコードや二次元コード等のコードシンボルのデコード機能を有する場合には、文字を記載したマーカの代わりに、属性情報を保持させたコードシンボルを提示する形態としてもよい。
 図7に戻り、機器属性生成部313は、電気機器20を動作させた時に得られる各画像センサ10の画像から、変化の生じた画像を検出し、当該画像を撮像した画像センサ10を、動作させた電気機器20の管轄画像センサとして特定する。また、機器属性生成部313は、画像センサ10と当該画像センサ10の管轄下に置かれた電気機器20との関係を、センサDB341及び機器DB342に属性情報として登録する。
 以下、図10~図13を参照して、機器属性生成部313の動作について説明する。まず、機器属性生成部313は、図示しない制御線を介し、建物内に設置された電気機器20の電源を一つずつオンとするとともに、このオン操作の対象となった電気機器20に固有の機器IDを割り当てる。また、機器属性生成部313は、画像センサ10の各々で撮像された画像の中から、電気機器20のオンにより変化の生じた画像を検出する。そして、機器属性生成部313は、変化の生じた画像を検出すると、電源をオンとした電気機器20が、この画像を撮像した画像センサ10の管轄下にあると判断する。
 例えば、電気機器20が照明装置の場合、機器属性生成部313は、対象の照明装置をオンとした前後の画像を比較することで、画像中の輝度の変化を検出し、この変化量が所定の閾値を上回った画像を検出する。また、電気機器20が空調装置の場合、空調装置の吹き出し口に吹き流し等を付加しておくことで、機器属性生成部313は、対象の空調装置をオンとした後の画像から、吹き流しの揺れる動きを検出し、この動き量が所定の閾値を上回った画像を特定する。なお、機器属性生成部313は、変化の生じた画像を検出後、電源をオンとした電気機器20をオフとし、次の電気機器20の処理に移行するものとする。
 また、機器属性生成部313は、検出した画像内での変化の状況から、電源をオンとした電気機器20の画像センサ10に対する相対的な位置関係を特定する。
 例えば、図10に示したように、電気機器20が照明装置Lの場合、機器属性生成部313は、画像中の光の分布(輝度分布)を分析することで、画像センサ10に対する照明装置Lの相対的な位置関係(距離及び方向)を特定する。ここで、図10は、画像センサ10で撮像された画像例を示す図である。同図の場合、例えば、機器属性生成部313は、画像センサ10の設置位置(図中破線で表記)に対し、10時の方向で且つ距離6mの位置に対象の電気機器20が存在すると特定する。
 なお、電気機器20が空調装置の場合には、機器属性生成部313は、当該空調装置に付加された吹き流しが揺れる位置から、画像センサ10に対する空調装置の相対的な位置関係(距離及び方向)を特定することができる。
 また、機器属性生成部313は、電気機器20の各々について特定した画像センサ10に対する相対的な位置関係に基づいて、当該画像センサ10の検知エリアを区分けし、区分けした各検知エリアにエリア番号を割り当てる。
 例えば、図11に示すように、画像センサ10に対して、左上のエリアに2つの照明装置Lが存在し、右上に2つの照明装置Lが存在し、右下に1つの照明装置Lが存在し、左下に1つの照明装置Lが存在するような場合、機器属性生成部313は、破線で示す4つの検知エリアに区分けし、区分けしたそれぞれの検知エリアにエリア番号(A11~A14)を割り当てる。ここで、図11は、検知エリアの区分例を示す図である。
 そして、機器属性生成部313は、電源をオンとした各電気機器20の機器IDを、対応する検知エリアに振り分け、当該電気機器20を管轄する画像センサ10のセンサIDと対応付けてセンサDB341に登録する。また、機器属性生成部313は、各電気機器20に割り当てた機器IDを機器DB342に登録するとともに、当該機器IDに対応付けて、その電気機器20を管轄する画像センサ10のセンサIDと、電気機器20に振り分けたエリア番号とを機器DB342に登録する。
 ここで、図12は、機器属性生成部313による処理後のセンサDB341の状態例を示す図である。同図に示すように、機器属性生成部313の処理により、各画像センサ10のセンサIDと対応付けて、当該画像センサ10の検知エリア(エリア番号)毎に、管轄対象となる電気機器20の機器IDが“管轄対象機器”欄に登録される。
 また、図13は、機器属性生成部313による処理後の機器DB342の状態例を示す図である。同図に示すように、機器属性生成部313の処理により、各電気機器20の機器IDと対応付けて、当該電気機器20を管轄する画像センサ10のセンサIDと、電気機器20が存在する検知エリア(エリア番号)とが、“管轄センサ”欄及び“検知エリア”欄にそれぞれ登録される。
 なお、本実施形態では、画像センサ10の検知エリアを複数の領域に区分けする形態としたが、これに限らず、区分けを行わない形態としてもよい。また、本実施形態では、電気機器20の電源オン/オフを機器属性生成部313が行う形態としたが、これに限らず、作業員が手動で行う形態としてもよい。
 設置位置特定部314は、画像センサ10の各々で撮像された画像から、壁や窓、ドア、デスク等の物体を認識し、それら物体の配置関係(レイアウト)を取得する。ここで、物体の認識方法は特に問わず、公知の技術を用いることが可能である。例えば、一般的なオフィス空間を撮像した画像を収集し、それらを基に学習を行うことで物体識別モデルを生成しておき、この物体識別モデルを用いることで実際に撮像した画像から物体を認識する形態としてもよい。また、画像からエッジ検出を行い、建物の壁と床、天井の境界を抽出することで、それら物体の配置関係を認識する形態としてもよい。
 また、設置位置特定部314は、画像センサ10の画像から取得したレイアウトと、当該画像センサ10に対して機器属性生成部313が特定した電気機器20の相対的な位置関係とを用いて、各室のレイアウト情報343と照合し、類似するレイアウトを有したレイアウト情報を検索する。
 ここで、類似検索は、例えば、レイアウト情報に示された室内の物体や電気機器20の配置関係を特徴量として抽出し、この抽出した特徴量を基に類似度を算出し、類似性の最も高いレイアウト情報を取得する。なお、類似性の高いレイアウト情報を作業者に提示し、実際と合致するものを当該作業者が選択する形態としてもよい。
 例えば、画像から取得されたレイアウトが、図14に示すデスクDのレイアウトであったとし、この画像を撮像した画像センサ10と当該画像センサ10の管轄下に置かれた電気機器20との相対的な位置関係が、図11に示す状態であったとする。この場合、設置位置特定部314は、これら図14と図11が表すレイアウトの組を検索条件とし、この検索条件に該当(類似)するレイアウト情報を検索する。そして、機器属性生成部313は、上記検索条件に該当する図6のレイアウト情報を取得する。
 また、設置位置特定部314は、取得したレイアウト情報から、その部屋内に設置された画像センサ10及び電気機器20各々の設置位置を特定すると、特定した画像センサ10の設置位置を、センサDB341の対応するセンサIDに対応付けて登録するとともに、特定した電気機器20の設置位置を、機器DB342の対応する機器IDに対応付けて登録する。
 ここで、図15は、設置位置特定部314による処理後のセンサDB341の状態例を示す図である。同図に示すように、設置位置特定部314の処理により、各画像センサ10のセンサIDと対応付けて、当該画像センサ10の設置位置が“設置位置”欄に登録される。
 また、図16は、設置位置特定部314による処理後の機器DB342の状態例を示す図である。同図に示すように、設置位置特定部314の処理により、電気機器20の機器IDと対応付けて、当該電気機器20の設置位置が“設置位置”欄に登録される。
 このように、画像取得部311、センサ属性生成部312、機器属性生成部313及び設置位置特定部314の機能により、センサDB341及び機器DB342の属性情報が生成される。なお、センサDB341及び機器DB342に登録される情報は上記の属性情報に限らず、手入力により入力される項目を有してもよい。例えば、画像センサ10及び電気機器20各々の制御に係る設定情報として、画像センサ10のセンシングに係る閾値や、電気機器20の出力レベル等を登録する形態としてもよい。
 ここで、図17は、センサDB341の他の例を示す図であって、各画像センサ10の設定情報を統合したものとなっている。同図では、画像センサ10の設定情報として、マスク領域、センシングに係る閾値等の各種パラメータ(検知パラメータ1、2)等を登録した例を示している。なお、マスク領域とは、画像センサ10の検知エリアのうち、センシングの対象から除外する領域を指示するものであり、例えば、マスク領域が矩形の場合、図17に示すように、当該矩形の対角点の座標が登録される。
 また、図18は、機器DB342の他の例を示す図であって、各電気機器20の設定情報を統合したものとなっている。同図では、電気機器20の設定情報として、通常出力値、下限出力値、上限出力値等の各種パラメータ(出力パラメータ1、2、3)等を登録した例を示している。これらの設定情報は、電気機器20の電力制御の際に用いられる。
 図7に戻り、レイアウト分析部315は、センサDB341を参照し、各画像センサ10の検知エリアに関連付けられた機器IDの同一性に基づき、複数の画像センサ10間で検知エリアが重複しているか否かを判定する。
 例えば、図19に示したように、複数の画像センサ10(10a、10b)を同一フロア内に配置した場合には、隣接する画像センサ10a、10bの間で検知エリアが重なる場合がある。図19では、画像センサ10aの検知エリアA11~A14及び画像センサ10bの検知エリアA21~A24のうち、検知エリアA13とA22とが、検知エリアA14とA21とが重複していることを示している(ハッチング領域参照)。
 レイアウト分析部315は、検知エリアが重複していると判定した場合、その検知エリアに関連付けられた電気機器20の機器IDを、重複関係にある画像センサ10に分配し、その分配結果をセンサDB341及び機器DB342に反映することで、重複を解消する。なお、電気機器20の分配方法は特に問わず、例えば、図19の状態であれば、照明装置L11~22のうち、検知エリアA13(A22)及びA14(A21)に存在する、画像センサ10a寄りの照明装置L15、L16を画像センサ10aの管轄とし、画像センサ10b寄りの照明装置L17、L18を画像センサ10bの管轄とする形態とてもよい。また、重複した検知エリアに存在する全てのL15~L18を何れか一方の画像センサ10に管轄させる形態としてもよい。
 また、重複した検知エリアをそのままとすることで、両画像センサ10a、10b同士で、重複した検知エリアのセンシングを行う形態としてもよい。この場合、何れか一方の画像センサ10で人の存在が検知された場合に、その検知結果を採用することになるが、両画像センサ10において人の存在が検知された場合に、その結果を採用するよう構成としてもよい。なお、両センシング結果の組に基づき電気機器20の制御を行う場合には、当該制御の対象であることを指示するため、レイアウト分析部315は、センサDB341において、重複した検知エリアにオーバーラップ情報を付加するものとする(図20参照)。
 ここで、図20は、オーバーラップ情報が付加されたセンサDB341の一例を示す図である。同図では、図19に示した画像センサ10aのセンサIDを“1001”、画像センサ10bのセンサIDを“1002”として例を示している。同図に示すように、これら画像センサ10a、10bの検知エリアのうち、重複関係にある検知エリアA13及びA22、検知エリアA14及びA21の夫々に、オーバーラップ情報OLを付加した例を模式的に示している。
 なお、本実施形態では、レイアウト分析部315は、各画像センサ10の検知エリアに関連付けられた機器IDの同一性に基づき、画像センサ10間で検知エリアが重複しているか否かを判定する形態としたが、これに限らず、例えばレイアウト情報343から隣接関係にある画像センサ10を特定し、これら隣接関係にある画像センサ10について、検知エリアの重複を判定する形態としてもよい。
 図7に戻り、デマンド制御部316は、センサDB341及び機器DB342を参照し、画像センサ10の各々から入力されるセンシング結果に応じた電力制御を、当該画像センサ10の管轄下にある電気機器20の各々に施す。具体的に、デマンド制御部316は、画像センサ10からセンシング結果が入力されると、このセンシング結果が何れの検知エリアに関するものかを特定し、当該検知エリアに関連付けられた電気機器20の機器IDをセンサDB341から抽出する。また、デマンド制御部316は、画像センサ10のセンシング結果に応じて、抽出した機器IDに対応する電気機器20の出力を制御する。
 なお、特定した検知エリアにオーバーラップ情報が付加されている場合には、このオーバーラップ情報が付加された他の画像センサ10のセンシング結果を取り込み、両センシング結果の組に基づいて、対象となった電気機器20の制御を行うものとする。
 次に、図21を参照して、管理端末30の動作を説明する。ここで、図21は、管理端末30が行うDB生成処理の一例を示すフローチャートである。
 まず、画像取得部311は、画像センサ10の各々で撮像された画像を順次取得する(ステップS11)。なお、ステップS11の処理は、続くステップS12~S25の間継続して実行される。
 センサ属性生成部312は、画像取得部311が取得した画像から属性情報を表す文字列を認識する(ステップS12)。次いで、センサ属性生成部312は、ステップS12で認識した文字列を属性情報として、センサDB341の対応する項目欄に登録する(ステップS13)。
 続いて、センサ属性生成部312は、設置された全ての画像センサ10について、ステップS12、S13の処理を実行したか否かを判定する(ステップS14)。ここで、未処理の画像センサ10が存在する場合(ステップS14;No)、ステップS12に再び戻る。また、全ての画像センサ10についてステップS12、S13の処理を実行したと判定した場合(ステップS14;Yes)、ステップS15に移行する。
 続くステップS15において、機器属性生成部313は、電気機器20の電源を順次オンとする(ステップS15)。機器属性生成部313は、画像取得部311が取得した画像の中から、ステップS15の処理により変化の生じた画像を検出すると、この画像を撮像した画像センサ10が、電源をオンとした電気機器20の管轄画像センサであると決定する(ステップS16)。
 また、機器属性生成部313は、ステップS16で検出した画像内での変化の状況から、電源をオンとした電気機器20の画像センサ10に対する相対的な位置関係を特定する(ステップS17)。次いで、機器属性生成部313は、ステップS16及びS17の処理結果に基づき生成した属性情報を、センサDB341及び機器DB342の対応する項目欄に登録する(ステップS18)。
 続いて、機器属性生成部313は、全ての電気機器20について、ステップS16~S18の処理を実行したか否かを判定する(ステップS19)。ここで、未処理の電気機器20が存在する場合(ステップS19;No)、ステップS16に再び戻る。また、全ての電気機器20についてステップS16~S18の処理を実行したと判定した場合(ステップS19;Yes)、ステップS20に移行する。
 続くステップS20において、設置位置特定部314は、画像取得部311が取得した各画像から物体のレイアウトを認識する(ステップS20)。続いて、設置位置特定部314は、各画像から認識したレイアウトと、当該画像の画像センサ10に対する電気機器20の相対的な位置関係との組を用いてレイアウト情報343と照合し、類似するレイアウトを有したレイアウト情報を検索する(ステップS21)。次いで、設置位置特定部314は、検索結果となる類似したレイアウト情報に基づいて、画像センサ10及び電気機器20の設置位置を特定すると(ステップS22)、この設置位置を属性情報として、センサDB341及び機器DB342の対応する項目欄に登録する(ステップS23)。
 続いて、レイアウト分析部315は、各画像センサ10の検知エリアに関連付けられた機器IDの同一性に基づき、画像センサ10間で重複する検知エリアを特定する(ステップS24)。そして、レイアウト分析部315は、重複した検知エリアに関連付けられた電気機器20の機器IDを、重複関係にある画像センサ10間で分配することで、重複を解消し(ステップS25)、本処理を終了する。なお、オーバーラップ情報を付加する構成の場合には、重複の解消に代えて、重複した検知エリアにオーバーラップ情報をステップS25で付加するものとする。
 以上のように、本実施形態の管理端末30によれば、画像センサ10の各々で撮像された画像を用いて、画像センサ10と当該画像センサ10の管轄下に置かれる電気機器20とを対応付ける属性情報を生成し、センサDB341及び機器DB342の該当する項目欄に登録する。これにより、電気機器20の電力制御に係る属性情報を、画像センサ10が撮像した画像から自動的に生成することができるため、当該属性情報の設定を効率的に行うことができる。
 なお、上記のDB生成処理において、電気機器20の電源オンにより、画像の変化が確認できない場合には、その電気機器20が画像センサ10の管轄外にあると判断し、当該電気機器20の周辺にある他のセンサ装置に関連付ける形態としてもよい。
 例えば、図22に示すように、画像センサ10(10a、10b)が設置された部屋の外(例えば通路等)に、照明装置La、Lbが設置されている場合、これら照明装置La、Lbの電源をオンとしても、画像上の変化は確認されない。
 このような場合、機器属性生成部313は、画像センサ10の各々について属性情報の生成が完了した後、画像上の変化は確認されなかった照明装置La、Lbを、画像センサ10以外のセンサ装置(赤外線センサ41a、41b、41c)の管轄下にあるとし、当該赤外線センサ41a、41b、41cのセンサIDと、照明装置La、Lbの機器IDとを対応付けて、センサDB341及び機器DB342に登録する。
 なお、この場合、赤外線センサ41a、41b、41cのセンサDB341への登録は、予め行われている形態としてもよいし、操作者の手入力によりその都度行われる形態としてもよい。また、赤外線センサ41a、41b、41cのセンサIDやIPアドレスについては、機器属性生成部313が自動で割り当てる形態としてもよいし、操作者の手入力により設定される形態としてもよい。
 以上、本発明の実施形態を説明したが、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。上記実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、追加等を行うことができる。また、上記実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
 例えば、上記実施形態では、画像センサ10及び電気機器20の各々について、属性情報を順次生成し、センサDB341及び機器DB342に登録する形態としたが、これに限らず、画像センサ10及び電気機器20の一部について属性情報が登録された段階で、この属性情報を用いて、他の画像センサ10及び電気機器20についての属性情報を生成する形態としてもよい。以下、図19及び図23を参照し、この形態を上記実施形態の変形例として説明する。
 図19に示す、画像センサ10(10a、10b)及び電気機器20(照明装置L11~L22)について、センサDB341及び機器DB342に属性情報が登録されたとする。この場合、設置位置特定部314は、画像センサ10a、10b及び照明装置L11~L22が設置された部屋のレイアウトを用いて、そのレイアウトに類似する他の部屋のレイアウト情報343を検索する。ここで、図19の場合、画像センサ10a、10b各々の周辺に、机が2個、照明装置が8個(うち重複4個)存在するため、このレイアウトに類似した、図23に示すようなレイアウトを有するレイアウト情報343を検索する。そして、設置位置特定部314は、図23のレイアウト情報に含まれる画像センサ10及び電気機器20の属性情報を、図19の画像センサ10a、10b及び照明装置L11~L22の属性情報を流用して生成する。
 具体的に、図23に示すレイアウトの場合、図19の画像センサ10aは、画像センサ10cに対応し、図19の画像センサ10bは、画像センサ10dに対応する。また、図23の照明装置L31~L42は、図19の照明装置L11~L22にそれぞれ対応する。そのため、設置位置特定部314は、画像センサ10a、10bの属性情報を流用し、画像センサ10c、10dの属性情報を生成するとともに、照明装置L11~L22の属性情報を流用して、照明装置L31~L42の属性情報を生成する。そして、設置位置特定部314は、画像センサ10c、10d及び照明装置L31~L42について生成した属性情報を、センサDB341及び機器DB342に登録する。
 このように、本変形例では、特定のレイアウトの画像センサ10及び電気機器20について生成した属性情報を用いて、当該レイアウトに類似する他のレイアウトの画像センサ10及び電気機器20の属性情報を生成することができるため、属性情報を効率的に生成することができる。
 なお、画像センサ10c、10d及び照明装置L31~L42の識別IDやIPアドレスについては、画像センサ10a、10b及び照明装置L11~L22に割り当てられた値とは異なる値を割り当てるものとする。また、画像センサ10a、10b及び照明装置L11~L22について、設定情報が登録済みの場合には、この設定情報を画像センサ10c、10d及び照明装置L31~L42に流用する形態としてもよい。
 また、上記実施形態では、管理端末30が、センサDB341及び機器DB342を備え構成としたが、これに限らず、管理端末30がアクセス可能な外部装置(例えばDBサーバ等)がセンサDB341及び機器DB342を備える構成としてもよい。また、上記実施形態では、管理端末30が、電気機器20の電力制御を行うデマンド制御部316を備える構成としたが、これに限らず、外部装置が備える構成としてもよい。
 また、上記実施形態の管理端末30で実行されるプログラムは、管理端末30が備える記憶媒体(ROM32又は記憶部34)に予め組み込んで提供するものとするが、これに限らず、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。さらに、記憶媒体は、コンピュータ或いは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶又は一時記憶した記憶媒体も含まれる。
 また、上記実施形態の管理端末30で実行されるプログラムをインターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよく、インターネット等のネットワーク経由で提供又は配布するように構成してもよい。
 100 画像センサシステム
 10、10a、10b、10c、10d 画像センサ
 20 電気機器
 30 管理端末
 31 CPU
 311 画像取得部
 312 センサ属性生成部
 313 機器属性生成部
 314 設置位置特定部
 315 レイアウト分析部
 316 デマンド制御部
 32 ROM
 33 RAM
 34 記憶部
 341 センサDB
 342 機器DB
 35 操作部
 36 表示部
 37 通信部
 41 赤外線センサ
 L 照明装置
 D デスク

Claims (13)

  1.  電力制御の対象となる制御対象機器周辺を撮像する複数の画像センサと、通信可能に接続される情報処理装置であって、
     前記画像センサの各々が撮像した画像を用いて、当該画像センサの管轄下に置かれる前記制御対象機器に関する属性情報を生成する属性情報生成手段と、
     前記属性情報生成手段が生成した前記制御対象機器の属性情報を、当該制御対象機器と当該制御対象機器を管轄する前記画像センサとに対応付けて管理する管理手段と、
     を備える情報処理装置。
  2.  前記属性情報生成手段は、前記画像センサが撮像した画像に含まれる所定の文字列を認識し、当該認識した文字列を前記属性情報として生成する請求項1に記載の情報処理装置。
  3.  前記属性情報生成手段は、前記制御対象機器の電源オンに伴い変化の生じた画像を、前記画像センサの各々で撮像された画像から検出し、当該画像を撮像した画像センサと前記電源オンとした電気機器とを対応付ける属性情報を生成する請求項1又は2に記載の情報処理装置。
  4.  前記属性情報生成手段は、前記検出した画像内での変化の状態から、電源オンとした前記制御対象機器の前記画像センサに対する相対的な位置関係を特定し、当該位置関係を表した情報を前記属性情報として生成する請求項3に記載の情報処理装置。
  5.  前記属性情報生成手段は、前記特定した相対的な位置関係に基づいて、前記画像センサの撮像範囲を区分けし、区分けした各検知エリアと当該検知エリアに属する前記制御対象機器とを対応付けた属性情報を生成する請求項4に記載の情報処理装置。
  6.  前記画像センサの検知エリアに関連付けられた前記制御対象機器の同一性に基づいて、複数の画像センサ間で前記検知エリアが重複しているか否かを判定する判定手段を更に備える請求項5に記載の情報処理装置。
  7.  前記判定手段が重複と判定した前記検知エリアに属する制御対象機器を、当該検知エリアに係る前記画像センサ間で割り振る重複解消手段を更に備える請求項6に記載の情報処理装置。
  8.  前記判定手段が重複と判定した各画像センサの前記検知エリアに、重複を指示する指報情報を付加する付加手段を更に備える請求項6に記載の情報処理装置。
  9.  各室内に設けられた前記制御対象機器及び前記画像センサを含む各物体の配置位置及びレイアウトを示したレイアウト情報を記憶する記憶手段を更に備え、
     前記属性情報生成手段は、前記センサが撮像した画像から、当該画像内に含まれた物体のレイアウトを認識し、当該レイアウトに類似する前記レイアウト情報から特定した前記制御対象機器及び前記画像センサの配置位置を、前記属性情報として生成する請求項1~8の何れか一項に記載の情報処理装置。
  10.  前記属性情報生成手段は、特定のレイアウトの制御対象機器及び画像センサについて生成した属性情報を用いて、当該レイアウトに類似するレイアウトを有した他の制御対象機器及び画像センサの属性情報を生成する請求項9に記載の情報処理装置。
  11.  前記属性情報生成手段は、前記制御対象機器の電源オン時において、前記画像センサの各々で撮像された画像から変化を検出できない場合に、前記画像センサの各々に関する属性情報の生成が完了した後、前記制御対象機器を他のセンサ装置に対応付けた属性情報を生成する請求項3に記載の情報処理装置。
  12.  電力制御の対象となる制御対象機器周辺を撮像する複数の画像センサと、通信可能に接続される情報処理装置で実行される情報処理方法であって、
     属性情報生成手段が、前記画像センサの各々が撮像した画像を用いて、当該画像センサの管轄下に置かれる前記制御対象機器に関する属性情報を生成する属性情報生成工程と、
     管理手段が、前記属性情報生成手段が生成した前記制御対象機器の属性情報を、当該制御対象機器と当該制御対象機器を管轄する前記画像センサとに対応付けて管理する管理工程と、
     を含む情報処理方法。
  13.  電力制御の対象となる制御対象機器周辺を撮像する複数の画像センサと、通信可能に接続される情報処理装置のコンピュータを、
     前記画像センサの各々が撮像した画像を用いて、当該画像センサの管轄下に置かれる前記制御対象機器に関する属性情報を生成する属性情報生成手段と、
     前記属性情報生成手段が生成した前記制御対象機器の属性情報を、当該制御対象機器と当該制御対象機器を管轄する前記画像センサとに対応付けて管理する管理手段と、
     して機能させるためのプログラム。
PCT/JP2012/083150 2012-01-30 2012-12-20 情報処理装置、情報処理方法及びプログラム WO2013114761A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
SG2013049986A SG192567A1 (en) 2012-01-30 2012-12-20 Information processing apparatus, information processing method, and program
EP12856581.9A EP2811451A4 (en) 2012-01-30 2012-12-20 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM THEREFOR
US13/820,034 US9442553B2 (en) 2012-01-30 2012-12-20 Information processing apparatus, method, and computer readable medium to control a target device based on detection of people in the vicinity of the target device
CN201280004384.3A CN103339650B (zh) 2012-01-30 2012-12-20 信息处理装置、信息处理方法及程序
US15/226,100 US9829955B2 (en) 2012-01-30 2016-08-02 Information processing apparatus and method to control a target device based on detection of people in the vicinity of the target device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012017145A JP5872306B2 (ja) 2012-01-30 2012-01-30 情報処理装置、情報処理方法及びプログラム
JP2012-017145 2012-01-30

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/820,034 A-371-Of-International US9442553B2 (en) 2012-01-30 2012-12-20 Information processing apparatus, method, and computer readable medium to control a target device based on detection of people in the vicinity of the target device
US15/226,100 Continuation US9829955B2 (en) 2012-01-30 2016-08-02 Information processing apparatus and method to control a target device based on detection of people in the vicinity of the target device

Publications (1)

Publication Number Publication Date
WO2013114761A1 true WO2013114761A1 (ja) 2013-08-08

Family

ID=48904819

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/083150 WO2013114761A1 (ja) 2012-01-30 2012-12-20 情報処理装置、情報処理方法及びプログラム

Country Status (6)

Country Link
US (2) US9442553B2 (ja)
EP (1) EP2811451A4 (ja)
JP (1) JP5872306B2 (ja)
CN (2) CN106102283A (ja)
SG (1) SG192567A1 (ja)
WO (1) WO2013114761A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015039035A1 (en) 2013-09-13 2015-03-19 Cooper Technologies Company System and method for auto-commissioning based on smart sensors
JP2016095560A (ja) * 2014-11-12 2016-05-26 セイコーソリューションズ株式会社 電子機器、オーダーエントリーシステム、及びプログラム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016095787A (ja) * 2014-11-17 2016-05-26 株式会社リコー 情報処理装置、情報処理システム、情報処理方法および情報処理プログラム
WO2016169060A1 (zh) * 2015-04-24 2016-10-27 华为技术有限公司 一种存储m2m设备的位置信息的方法、m2m平台、设备及终端
JPWO2017038364A1 (ja) * 2015-09-03 2018-06-21 日本電気株式会社 情報出力装置、情報出力方法、及び、プログラム
KR102502449B1 (ko) * 2015-10-05 2023-02-22 삼성전자주식회사 조명을 디스플레이하는 방법 및 장치
US9818031B2 (en) * 2016-01-06 2017-11-14 Orcam Technologies Ltd. Crowd-sourced vision-based information collection
KR20170087690A (ko) 2016-01-21 2017-07-31 삼성전자주식회사 영상캡쳐장치 및 그 제어방법
JP6692047B2 (ja) 2016-04-21 2020-05-13 パナソニックIpマネジメント株式会社 照明制御システム
JP6750430B2 (ja) * 2016-09-26 2020-09-02 東芝ライテック株式会社 監視装置および照明システム
JP6676828B2 (ja) * 2016-10-03 2020-04-08 シグニファイ ホールディング ビー ヴィSignify Holding B.V. 照明制御構成
EP3545728B1 (en) * 2016-11-25 2020-06-24 Signify Holding B.V. Lighting control
JP7021428B2 (ja) * 2017-05-15 2022-02-17 ダイキン工業株式会社 製品の情報生成システム
JP6451904B1 (ja) * 2017-06-06 2019-01-16 オムロン株式会社 スコア算出ユニット、検索装置、スコア算出方法、およびスコア算出プログラム
JP7228796B2 (ja) * 2018-01-26 2023-02-27 パナソニックIpマネジメント株式会社 機器管理システム及び機器管理方法
JP2021068370A (ja) * 2019-10-28 2021-04-30 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002289373A (ja) * 2001-03-27 2002-10-04 Matsushita Electric Works Ltd 照明システムおよび照明システムのid設定方法
JP2008243749A (ja) * 2007-03-29 2008-10-09 Doshisha 照明システムにおける機器設定方法および機器設定装置
JP2009238526A (ja) * 2008-03-26 2009-10-15 Panasonic Electric Works Co Ltd 照明システム
JP2011228174A (ja) * 2010-04-21 2011-11-10 Panasonic Electric Works Co Ltd 照明システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5586254A (en) * 1992-02-13 1996-12-17 Hitachi Software Engineering Co., Ltd. System for managing and operating a network by physically imaging the network
JPH11304221A (ja) * 1998-04-27 1999-11-05 Tokyo Electric Power Co Inc:The 室内環境制御装置
JP4536299B2 (ja) * 2001-08-29 2010-09-01 パナソニック株式会社 イベント映像記録・再生システム、イベント管理装置、およびローカル記録装置
CN1838848A (zh) * 2006-01-20 2006-09-27 大连水产学院 基于图象识别技术的教室节电系统
JP2008243806A (ja) 2007-03-01 2008-10-09 Toshiba Lighting & Technology Corp 照明制御システム及びこの照明制御システムに用いられる位置検出方法
JP2010039157A (ja) 2008-08-05 2010-02-18 Kyocera Mita Corp 折り返しミラー及びこれを備えた光走査装置、画像形成装置
JP5209512B2 (ja) 2009-01-16 2013-06-12 株式会社マキタ 電動工具用バッテリ監視システム、電動工具用バッテリパック、及び電動工具用充電器
ES2700870T3 (es) 2009-04-15 2019-02-19 Univ Cornell Nanopartículas de sílice fluorescentes mejoradas a través de densificación de sílice
JP5388350B2 (ja) 2009-11-17 2014-01-15 イリソ電子工業株式会社 電気接続用端子及びこれを用いたコネクタ
JP5406683B2 (ja) * 2009-11-25 2014-02-05 パナソニック株式会社 照明制御装置、照明制御システムおよび点灯制御装置
WO2011073933A2 (en) 2009-12-18 2011-06-23 Koninklijke Philips Electronics N.V. Lighting tool for creating light scenes
JP2012028015A (ja) * 2010-07-20 2012-02-09 Toshiba Corp 照明制御システムおよび照明制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002289373A (ja) * 2001-03-27 2002-10-04 Matsushita Electric Works Ltd 照明システムおよび照明システムのid設定方法
JP2008243749A (ja) * 2007-03-29 2008-10-09 Doshisha 照明システムにおける機器設定方法および機器設定装置
JP2009238526A (ja) * 2008-03-26 2009-10-15 Panasonic Electric Works Co Ltd 照明システム
JP2011228174A (ja) * 2010-04-21 2011-11-10 Panasonic Electric Works Co Ltd 照明システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2811451A4 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015039035A1 (en) 2013-09-13 2015-03-19 Cooper Technologies Company System and method for auto-commissioning based on smart sensors
CN105723809A (zh) * 2013-09-13 2016-06-29 库珀技术公司 用于基于智能传感器进行自动调试的系统和方法
EP3045019A1 (en) * 2013-09-13 2016-07-20 Cooper Technologies Company System and method for auto-commissioning based on smart sensors
EP3045019A4 (en) * 2013-09-13 2017-05-10 Cooper Technologies Company System and method for auto-commissioning based on smart sensors
AU2014318427B2 (en) * 2013-09-13 2018-09-27 Eaton Intelligent Power Limited System and method for auto-commissioning based on smart sensors
US10117307B2 (en) 2013-09-13 2018-10-30 Cooper Technologies Company System and method for auto-commissioning based on smart sensors
US10575383B2 (en) 2013-09-13 2020-02-25 Eaton Intelligent Power Limited System and method for auto-commissioning based on smart sensors
JP2016095560A (ja) * 2014-11-12 2016-05-26 セイコーソリューションズ株式会社 電子機器、オーダーエントリーシステム、及びプログラム

Also Published As

Publication number Publication date
US9829955B2 (en) 2017-11-28
JP5872306B2 (ja) 2016-03-01
CN103339650B (zh) 2016-09-07
CN106102283A (zh) 2016-11-09
JP2013156853A (ja) 2013-08-15
US9442553B2 (en) 2016-09-13
US20140333766A1 (en) 2014-11-13
US20160342190A1 (en) 2016-11-24
CN103339650A (zh) 2013-10-02
EP2811451A4 (en) 2016-06-08
EP2811451A1 (en) 2014-12-10
SG192567A1 (en) 2013-09-30

Similar Documents

Publication Publication Date Title
JP5872306B2 (ja) 情報処理装置、情報処理方法及びプログラム
US10565788B2 (en) Automatic three-dimensional solid modeling method and program based on two-dimensional drawing
US9942521B2 (en) Automatic configuration of cameras in building information modeling
US10045424B2 (en) Lighting control system
US20170118374A1 (en) Information processing system, terminal device and method of processing data
CN107113544A (zh) 物联网设备的3d映射
JP6104143B2 (ja) 機器制御システム、および、機器制御方法
JP2015095164A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
US10433119B2 (en) Position determination device, position determining method, and storage medium
US9854148B2 (en) Micro-location of devices within a wireless network using room boundary images
CN106462922B (zh) 控制系统、终端以及信息设定方法
CN113110095A (zh) 基于扫地机器人的HomeMap构建方法及构建系统
US10134064B2 (en) Lighting audit and LED lamp retrofit
JP2014106597A (ja) 自律移動体、物体情報取得装置、および物体情報取得方法
JP2014139745A (ja) 機器管理システム、機器管理装置、機器管理方法及びプログラム
JP7019967B2 (ja) 表示制御プログラム、表示制御方法及び表示制御装置
KR101767743B1 (ko) 센서 영상에 기반한 실내측위 장치 및 실내측위 방법
KR20160066292A (ko) 사물 인터넷 기기 제어 시스템 및 방법
CN110298527B (zh) 信息输出方法、系统及设备
CN113711263A (zh) 基于图像分析确定光单元的布置
US20220004264A1 (en) Information processing apparatus, information processing method and control system
CN113253623B (zh) 基于HomeMap的空气环境视觉化控制方法及系统
JP6734961B1 (ja) プログラム、情報処理方法、及び情報処理装置
CN118382881A (zh) 用于IoT控制的上下文感知对象识别
JP6760483B2 (ja) 物体検知システム、物体検知方法およびプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 13820034

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2012856581

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12856581

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE