Nothing Special   »   [go: up one dir, main page]

KR20240123442A - Mobile sterilization-robot with human pose estimation - Google Patents

Mobile sterilization-robot with human pose estimation Download PDF

Info

Publication number
KR20240123442A
KR20240123442A KR1020230015276A KR20230015276A KR20240123442A KR 20240123442 A KR20240123442 A KR 20240123442A KR 1020230015276 A KR1020230015276 A KR 1020230015276A KR 20230015276 A KR20230015276 A KR 20230015276A KR 20240123442 A KR20240123442 A KR 20240123442A
Authority
KR
South Korea
Prior art keywords
sterilization
unit
mode
module
detected
Prior art date
Application number
KR1020230015276A
Other languages
Korean (ko)
Inventor
노준필
Original Assignee
주식회사 디앤씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디앤씨 filed Critical 주식회사 디앤씨
Priority to KR1020230015276A priority Critical patent/KR20240123442A/en
Publication of KR20240123442A publication Critical patent/KR20240123442A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L9/00Disinfection, sterilisation or deodorisation of air
    • A61L9/16Disinfection, sterilisation or deodorisation of air using physical phenomena
    • A61L9/18Radiation
    • A61L9/20Ultraviolet radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L9/00Disinfection, sterilisation or deodorisation of air
    • A61L9/16Disinfection, sterilisation or deodorisation of air using physical phenomena
    • A61L9/22Ionisation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Veterinary Medicine (AREA)
  • Epidemiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Fuzzy Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Electromagnetism (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)

Abstract

본 발명은 자율주행을 통해 제균이 필요한 장소인 제균-필요구역으로 이동함과 동시에 제균-필요구역 도착 시, 인체를 감지하여 인체감지여부에 따라 UVC 제균유닛, UVA 제균유닛 및 플라즈마 이온 유닛을 사용하여 제균작업을 수행하며, PoseNet 모델이 적용된 HPE(Human Pose Estimation)를 이용하여 감지객체의 포즈를 검출한 후, 검출된 포즈에 따라 감지객체를 ‘임시모드’ 또는 ‘방문모드’로 분류하여 분류된 결과에 따라 다른 장소로 이동하거나 또는 대기할지를 결정하도록 구성됨으로써 인간이 개입하지 않아도, 넓은 장소의 제균 효과 및 효율성을 극대화할 뿐만 아니라 인체감지 정확성을 높여 인체 유해성을 최소화하며, 바이러스 및 세균의 확산을 효과적으로 방지할 수 있으며, 임계치 이상의 방문객이 밀집된 공간에서도 살균 효과를 지속시킬 수 있는 자세인시기술이 적용된 이동형 제균-로봇에 관한 것이다.The present invention relates to a mobile sterilization robot with applied posture recognition technology, which moves to a sterilization-required area, which is a place requiring sterilization, through autonomous driving, and at the same time, upon arrival at the sterilization-required area, detects a human body and performs sterilization work using a UVC sterilization unit, a UVA sterilization unit, and a plasma ion unit depending on whether a human body is detected, and detects the pose of a detection object using HPE (Human Pose Estimation) to which a PoseNet model is applied, and classifies the detection object into ‘temporary mode’ or ‘visit mode’ based on the detected pose and determines whether to move to another place or wait based on the classification result, thereby maximizing the sterilization effect and efficiency of a wide area without human intervention, and minimizing human harm by increasing the accuracy of human body detection, and effectively preventing the spread of viruses and bacteria, and capable of maintaining the sterilization effect even in a space densely populated with a critical number of visitors.

Description

자세인식기술이 적용된 이동형 제균-로봇{Mobile sterilization-robot with human pose estimation}{Mobile sterilization-robot with human pose estimation}

본 발명은 자세인식기술이 적용된 이동형 제균-로봇에 관한 것으로서, 상세하게로는 자율주행을 통해 제균이 필요한 장소인 제균-필요구역으로 이동함과 동시에 제균-필요구역 도착 시, 인체를 감지하여 인체감지여부에 따라 UVC 제균유닛, UVA 제균유닛 및 플라즈마 이온 유닛을 사용하여 제균작업을 수행하며, PoseNet 모델이 적용된 HPE(Human Pose Estimation)를 이용하여 감지객체의 포즈를 검출한 후, 검출된 포즈에 따라 감지객체를 ‘임시모드’ 또는 ‘방문모드’로 분류하여 분류된 결과에 따라 다른 장소로 이동하거나 또는 대기할지를 결정하도록 구성됨으로써 인간이 개입하지 않아도, 넓은 장소의 제균 효과 및 효율성을 극대화할 뿐만 아니라 인체감지 정확성을 높여 인체 유해성을 최소화하며, 바이러스 및 세균의 확산을 효과적으로 방지할 수 있으며, 임계치 이상의 방문객이 밀집된 공간에서도 살균 효과를 지속시킬 수 있는 이동형 제균-로봇에 관한 것이다.The present invention relates to a mobile sterilization robot to which posture recognition technology is applied, and more specifically, to a mobile sterilization robot that autonomously moves to a sterilization-required area, which is a place requiring sterilization, and at the same time, upon arrival at the sterilization-required area, detects a human body and performs sterilization work using a UVC sterilization unit, a UVA sterilization unit, and a plasma ion unit, and detects the pose of a detection object using HPE (Human Pose Estimation) to which a PoseNet model is applied, and classifies the detection object into a ‘temporary mode’ or a ‘visit mode’ according to the detected pose, and determines whether to move to another place or wait according to the classification result, thereby maximizing the sterilization effect and efficiency of a wide area without human intervention, and minimizing harm to the human body by increasing the accuracy of human body detection, and effectively preventing the spread of viruses and bacteria, and is capable of maintaining a sterilization effect even in a space densely populated with a critical number of visitors.

일반적으로, 이동로봇은 우리가 생활하는 공간 내에서 힘들고 어려운 일을 대신하거나 도와줄 수 있는 서비스 로봇이다. 예를 들면, 이동로봇은 사용자의 조작 없이도 각종 센서를 통해 구역 내에 설치된 장애물과의 거리를 판별하고, 스스로 방향을 전환하면서 주어진 작업을 수행한다.In general, mobile robots are service robots that can replace or help with difficult and hard work in the space we live in. For example, mobile robots determine the distance to obstacles installed in the area through various sensors without user intervention, and change direction on their own to perform given tasks.

즉 이동로봇은 구조가 복잡하고, 사용자가 직접 수행하기에는 위험한 작업을 수행하는데 널리 활용되고 있고, 그 수요도가 점차 증가할 것으로 예측된다.In other words, mobile robots are widely used to perform tasks that are complex in structure and dangerous for users to perform directly, and the demand for them is expected to gradually increase.

한편, 최근 들어 코로나 19(Corona 19), 중동 호흡기 증후군(MERS, Middle East Respiratory Syndrome), 중증 급성 호흡기 증후군(SARS, Severe Acute Respiratory Syndrome), 조류 인플루엔자(AI) 등과 같이 인체 또는 가축 등을 통해 전염되는 감염성 질환이 다양하게 나타남에 따라, 감염성 질환의 전파를 예방하기 위한 방역시스템에 대한 관심이 급증하고 있다.Meanwhile, as various infectious diseases that can be transmitted through humans or livestock, such as COVID-19, Middle East Respiratory Syndrome (MERS), Severe Acute Respiratory Syndrome (SARS), and avian influenza (AI), have recently appeared, interest in quarantine systems to prevent the spread of infectious diseases is rapidly increasing.

이러한 감염성 질환은 다양한 감염경로로 주변인들에게 전파되게 되나, 그 중 호흡기를 통한 감염이 주된 경로를 갖게 된다.These infectious diseases can spread to people around them through various infection routes, but the main route of infection is through the respiratory tract.

특히 실내 공간은 밀폐된 구역에서 다양한 사람들의 거주 및 방문이 이루어지기 때문에 바이러스, 박테리아 및 세균 등의 전파에 취약한 단점을 갖는다.In particular, indoor spaces have the disadvantage of being vulnerable to the spread of viruses, bacteria, and germs because they are enclosed areas where various people reside and visit.

이에 따라 실내 공간의 내부 공기를 주기적으로 제균 및 살균시키기 위한 다양한 연구가 진행되고 있고, 그 중 하나의 방법으로 이동로봇을 이용한 연구가 활발하게 이루어지고 있다.Accordingly, various studies are being conducted to periodically sterilize and disinfect the internal air of indoor spaces, and research using mobile robots is actively being conducted as one of the methods.

도 1은 국내등록특허 제10-1742489호(발명의 명칭 : 자외선 살균 이동로봇 장치 및 시스템)에 개시된 자외선 살균 이동로봇을 나타내는 블록도이다.Figure 1 is a block diagram showing an ultraviolet sterilizing mobile robot disclosed in domestically registered patent No. 10-1742489 (Title of invention: Ultraviolet sterilizing mobile robot device and system).

도 1의 자외선 살균 이동로봇(이하 종래기술이라고 함)(100)은 외부장비로부터 제어신호를 수신하는 통신부(110)와, 외부 지형 및 외부 물체와의 거리를 감지하는 센서부(120)와, 전원을 공급하는 전원부(130)와, 외부로 자외선을 조사하는 자외선 살균부(150)와, 현재 상태를 표시하는 디스플레이부(160)와, 외부 전원으로부터 전원을 충전하는 전원 충전부(170)와, 센서부(120)에서 감지된 데이터를 이용하여 이동경로를 제어하고 자외선 살균부(150)의 자외선 살균을 제어하는 제어부(140)로 이루어진다.The ultraviolet sterilizing mobile robot (hereinafter referred to as “prior art”) (100) of Fig. 1 is composed of a communication unit (110) that receives a control signal from an external device, a sensor unit (120) that detects external terrain and a distance from an external object, a power unit (130) that supplies power, an ultraviolet sterilizing unit (150) that irradiates ultraviolet rays to the outside, a display unit (160) that displays the current status, a power charging unit (170) that charges power from an external power source, and a control unit (140) that controls the movement path using data detected by the sensor unit (120) and controls ultraviolet sterilization of the ultraviolet sterilizing unit (150).

제어부(140)는 자외선 살균부(150)의 구동이 정지된 상태 중 센서부(120)가 생물체를 감지하지 못하면, 자외선 살균부(150)의 구동을 재가동시키되, 자외선 살균부(150)의 구동이 정지된 상태 중 센서부(120)가 생물체를 일정시간 감지하면, 생물체가 감지되지 않는 구역으로 이동경로 변경을 지시한다.If the sensor unit (120) does not detect a living organism while the operation of the ultraviolet sterilization unit (150) is stopped, the control unit (140) restarts the operation of the ultraviolet sterilization unit (150). However, if the sensor unit (120) detects a living organism for a certain period of time while the operation of the ultraviolet sterilization unit (150) is stopped, the control unit (140) instructs a change in the movement path to an area where the living organism is not detected.

이와 같이 구성되는 종래기술(100)은 인체의 감지여부에 따라 자외선 조사가 결정됨에 따라 사람들에게 자외선 노출을 미연에 방지하여, 안전성을 높일 수 있는 장점을 갖는다.The prior art (100) configured in this way has the advantage of increasing safety by preventing people from being exposed to ultraviolet rays in advance since ultraviolet irradiation is determined based on whether or not the human body is detected.

그러나 종래기술(100)은 센서부(120)가 PIR(Passive infrared) 센서, 마이크로웨이브 모션센서 등과 같은 공지된 인체감지센서가 적용되므로, 단순히 인체감지여부만을 판별하지 못하는 구조적 한계를 갖는다.However, since the sensor unit (120) of the prior art (100) uses a known human body detection sensor such as a PIR (Passive infrared) sensor or a microwave motion sensor, it has a structural limitation in that it cannot simply determine whether a human body has been detected.

일반적으로, 실내 장소는, 거주자 또는 방문자의 수가 적은 경우, 인체감지여부만으로 자외선 살균을 하도록 구성되는 것은 효율적이나, 거주자 또는 방문자의 수가 많은 경우, 감지된 인체가 해당 구역을 일시적으로 방문한 사람들과 해당 구역에서 일정 시간 이상 동안 머무를 사람들이 혼합되는 특성을 갖는다.In general, indoor spaces, if the number of residents or visitors is small, are efficiently configured to perform ultraviolet sterilization only by detecting human bodies. However, if the number of residents or visitors is large, the detected human bodies have the characteristic of being mixed between people who have temporarily visited the area and people who will stay in the area for a certain period of time.

즉 실내 장소의 특성을 감안하여, 감지된 객체가 해당 구역을 일시적으로 방문한 사람들이라고 판단되는 경우, 다른 구역으로 이동하지 않고, 인체가 감지되지 않을 때까지 대기한 후, 제균 작업을 수행할 수 있으나, 종래기술(100)은 이러한 실내 장소의 특성을 전혀 감안하지 않았기 때문에 거주자 또는 방문객이 밀집되는 실내 장소인 경우, 이동하는 구역마다 인체가 감지되어, 살균작업을 수행하지 못하는 구조적 한계를 갖는다.That is, considering the characteristics of an indoor location, if it is determined that the detected object is a person who has temporarily visited the area, the sterilization operation can be performed after waiting until no human bodies are detected without moving to another area, but since the prior art (100) does not consider the characteristics of such indoor locations at all, in the case of an indoor location where residents or visitors are densely packed, there is a structural limitation in that a human body is detected in every area moved to, making it impossible to perform the sterilization operation.

본 발명은 이러한 문제를 해결하기 위한 것으로, 본 발명의 해결과제는 인간이 개입하지 않아도 자율주행을 통해 제균이 필요한 장소로 이동하여 제균-작업을 진행함으로써 제균 효과 및 효율성을 극대화할 뿐만 아니라 불필요한 인력소모를 절감시킬 수 있는 이동형 제균-로봇을 제공하기 위한 것이다.The present invention is intended to solve such problems, and the solution of the present invention is to provide a mobile sterilization robot that can maximize sterilization effects and efficiency by moving to a place requiring sterilization and performing sterilization work autonomously without human intervention, thereby reducing unnecessary manpower consumption.

또한 본 발명의 다른 해결과제는 목적지인 구역(S’)으로 이동한 후, 인체가 감지되면 제균-작업을 진행하지 않되, 인체가 감지되지 않는 경우에만 제균-작업을 진행하도록 구성됨으로써 제균 작업이 인체에 노출되지 않아, 서비스 안전성 및 신뢰도를 높일 수 있는 이동형 제균-로봇을 제공하기 위한 것이다.In addition, another problem of the present invention is to provide a mobile sterilization robot configured to perform sterilization work only when a human body is not detected, after moving to a destination area (S’), without performing sterilization work, thereby preventing exposure of the human body to the sterilization work, thereby enhancing service safety and reliability.

또한 본 발명의 또 다른 해결과제는 제균유닛이 UVC유닛, UVA유닛, 및 플라즈마 이온 유닛을 포함하여 다양한 기능의 제균 기능을 제공함으로써 동일 제균-작업시간 대비 제균 효과 및 효율성을 더욱 높일 수 있는 이동형 제균-로봇을 제공하기 위한 것이다.In addition, another problem solved by the present invention is to provide a mobile sterilization robot that can further increase the sterilization effect and efficiency compared to the same sterilization working time by providing sterilization functions of various functions including a UVC unit, a UVA unit, and a plasma ion unit.

또한 본 발명의 다른 해결과제는 컨트롤러의 HPE 기반 분석부가 단순히 인체를 감지할 뿐만 아니라 감지된 인체의 포즈를 검출한 후, 상태-모드를 ‘임시모드’ 또는 ‘방문모드’로 설정하고, 대기 여부 판단부가 감지된 객체가 존재하더라도, 감지된 객체의 상태-모드에 따라, 대기 또는 이동을 결정하도록 구성됨으로써 실내 장소에 사람이 밀집할 때, 제균-작업이 이루어질 수 없는 종래의 문제점을 획기적으로 해결할 수 있는 이동형 제균-로봇을 제공하기 위한 것이다.In addition, another problem of the present invention is to provide a mobile sterilization robot that can dramatically solve the conventional problem of sterilization work not being possible when people are crowded in an indoor space, by configuring that the HPE-based analysis unit of the controller not only detects a human body, but also detects the pose of the detected human body, and then sets the state mode to ‘temporary mode’ or ‘visit mode’, and the standby or not determination unit determines whether to standby or move according to the state mode of the detected object even if the detected object exists.

상기 과제를 해결하기 위한 본 발명의 해결수단은 카메라와, 제균모듈, 이동부, 컨트롤러를 포함하며, 실내 공간(S)의 구역(S’)들로 자율주행한 후, 이동한 구역(S’)의 공기를 제균시키는 이동형 제균로봇에 있어서: 상기 컨트롤러는 자기 위치를 추정하며, 맵 상에서 상기 이동형 제균-로봇의 위치를 검출하여 주행 경로를 생성한 후, 생성된 주행 경로에 따라 이동하도록 상기 이동부를 제어하는 자율주행부; 상기 자율주행부에 의해 이동이 완료되면, 상기 카메라를 동작시켜, 상기 카메라의 촬영에 의해 획득된 영상을 수집하는 영상 수집부; 상기 영상 수집부에 의해 수집된 영상을 분석하여 인체(객체)를 감지하는 HPE 기반 분석부; 상기 HPE 기반 분석부에서 1)감지된 객체가 ‘0’이면, 제균-작업을 진행하여도 무방하다고 판단하되, 2)감지된 객체가 ‘1’ 이상이면, 제균-작업을 진행할 수 없다고 판단하는 제균-작업 판단부; 상기 제균-작업 판단부에서 제균-작업을 진행하여도 무방하다고 판단할 때 실행되며, 상기 제균모듈을 구동시켜 제균-작업을 진행하는 제균-작업 운영부를 포함하는 것이다.The present invention provides a solution for the above-described problem, comprising: a camera, a sterilization module, a moving unit, and a controller, wherein the mobile sterilization robot autonomously moves to areas (S’) of an indoor space (S) and sterilizes the air in the area (S’) to which it has moved; wherein the controller estimates its own position, detects the position of the mobile sterilization robot on a map to generate a driving path, and controls the moving unit to move along the generated driving path; an image collection unit that operates the camera when the movement by the autonomous driving unit is completed, and collects an image acquired by the shooting of the camera; an HPE-based analysis unit that analyzes the image collected by the image collection unit to detect a human body (object); and a sterilization-work determination unit that determines that it is okay to proceed with the sterilization work if 1) the detected object in the HPE-based analysis unit is ‘0’, but 2) determines that the sterilization work cannot be performed if the detected object is ‘1’ or more. It is executed when the above sterilization-work judgment unit determines that it is okay to proceed with the sterilization work, and includes a sterilization-work operation unit that operates the sterilization module to proceed with the sterilization work.

또한 본 발명에서 상기 HPE 기반 분석부는 상기 영상 수집부에 의해 수집된 영상을 분석하여 인체(객체)를 감지함과 동시에 기 학습된 포즈검출 알고리즘을 이용하여 감지된 객체의 포즈를 검출하며, 검출된 객체의 포즈의 상태-모드를 ‘임시모드’ 또는 ‘방문모드’로 결정하고, 상기 컨트롤러는 상기 제균-작업 판단부에서 제균-작업을 진행할 수 없다고 판단될 때 실행되며, 감지된 객체들 중 1)상태-모드가 ‘방문모드’인 객체가 존재하면, 제균-작업을 진행하지 않는 것으로 최종 결정하되, 2)상태-모드가 ‘방문모드’인 객체가 존재하지 않으면, 대기할 것으로 결정한 후, 기 설정된 대기시간(t)이 경과하면, 상기 영상 수집부, 상기 HPE 기반 분석부 및 상기 제균-작업 판단부를 재가동시키는 대기 여부 판단부를 더 포함하는 것이 바람직하다.In addition, in the present invention, the HPE-based analysis unit analyzes the image collected by the image collection unit to detect a human body (object) and at the same time detects the pose of the detected object using a pre-learned pose detection algorithm, determines the status mode of the pose of the detected object as ‘temporary mode’ or ‘visit mode’, and the controller is executed when the sterilization-work determination unit determines that the sterilization work cannot be performed, and if 1) there is an object whose status mode is ‘visit mode’ among the detected objects, it is finally determined not to perform the sterilization work, but 2) if there is no object whose status mode is ‘visit mode’, it is determined to wait, and when a preset waiting time (t) has elapsed, it is preferable to further include a standby determination unit that restarts the image collection unit, the HPE-based analysis unit, and the sterilization-work determination unit.

또한 본 발명에서 상기 대기 여부 판단부는 상기 HPE 기반 분석부로부터 각 객체의 상태-모드 정보를 입력받는 상태-모드 입력모듈; 상기 상태-모드 입력모듈을 통해 입력된 각 객체의 상태-모드 정보를 탐색하여, 객체들 중 상태-모드가 방문모드인 객체가 존재하는지를 탐색하는 방문모드 객체 탐색모듈; 상기 방문모드 객체 탐색모듈에서, 객체들 중, 방문모드의 상태-모드를 갖는 객체가 존재할 때 실행되며, 상기 이동형 제균로봇이 해당 구역(S’)에서 대기하지 않고, 다음 구역으로 이동하기로 결정한 후, 상기 자율주행부로 이동명령신호를 출력하는 이동 결정모듈; 상기 방문모드 객체 탐색모듈에서, 객체들 중, 방문모드의 상태-모드를 갖는 객체가 존재하지 않을 때 실행되며, 상기 이동형 제균로봇이 해당 구역(S’)에서 기 설정된 대기시간(t) 동안 대기하기로 결정하는 대기 결정모듈; 상기 대기 결정모듈에서 대기하는 것으로 결정할 때 실행되며, 타이머를 이용하여 경과시간(△t)을 측정하는 경과시간 측정모듈; 상기 대기 결정모듈에서 대기하는 것으로 결정할 때 실행되며, 알람정보를 외부로 표출하는 알람표출모듈; 상기 경과시간 측정모듈에 의해 측정된 경과시간(△t)이, 대기시간(t)을 경과하는지를 비교하며, 경과시간(△t)이 대기시간(t)이 되면, 영상 수집부(34)로 제어신호를 출력하는 대기시간 경과 확인모듈을 포함하고, 상기 영상 수집부는 상기 대기시간 경과 확인모듈로부터 제어신호를 입력받으면, 이전 과정을 반복하고, 상기 자율주행부는 상기 이동 결정모듈로부터 이동명령신호를 입력받으면, 다음 구역(S’)을 선택한 후, 상기 이동부를 제어하여 다음 구역(S’)으로 이동하는 것이 바람직하다.In addition, in the present invention, the standby determination unit includes: a state-mode input module that receives state-mode information of each object from the HPE-based analysis unit; a visit mode object search module that searches for the state-mode information of each object input through the state-mode input module to search whether an object whose state-mode is a visit mode exists among the objects; a movement decision module that is executed when an object having a state-mode of the visit mode exists among the objects in the visit mode object search module, and after the mobile sterilization robot decides not to wait in the corresponding area (S’) but to move to the next area, outputs a movement command signal to the autonomous driving unit; a standby decision module that is executed when an object having a state-mode of the visit mode does not exist among the objects in the visit mode object search module, and determines that the mobile sterilization robot will wait for a preset standby time (t) in the corresponding area (S’); an elapsed time measurement module that is executed when the standby decision module determines to wait, and measures an elapsed time (△t) using a timer; An alarm display module that is executed when the above-mentioned standby decision module determines to wait and displays alarm information to the outside; a standby time elapsed confirmation module that compares whether the elapsed time (△t) measured by the above-mentioned elapsed time measurement module has elapsed the standby time (t) and outputs a control signal to the image collection unit (34) when the elapsed time (△t) becomes the standby time (t), and when the image collection unit receives a control signal from the standby time elapsed confirmation module, it is preferable that the image collection unit repeats the previous process, and when the above-mentioned autonomous driving unit receives a movement command signal from the above-mentioned movement decision module, it selects the next zone (S’) and then controls the movement unit to move to the next zone (S’).

또한 본 발명에서 상기 컨트롤러는 ‘임시모드’에 속하는 포즈종류들과 ‘방문모드’에 속하는 포즈종류들이 매칭된 매칭정보가 저장되는 메모리를 더 포함하고, 상기 HPE 기반 분석부는 상기 영상 수집부에 의해 수집된 영상을 분석하는 영상분석모듈; 상기 영상분석모듈에 의해 검출된 분석데이터를 활용하여, 영상 내 인체들을 감지하는 인체감지모듈; 상기 인제감지모듈에 의해 감지된 각 객체의 이미지를 PoseNet 모델의 입력데이터로 하여, 각 객체의 관절포인트들을 출력하는 PoseNet 기반 객체 관절검출모듈; 상기 PoseNet 기반 객체 관절검출모듈에 의해 검출된 각 객체의 관절포인트 들을 분석하여, 각 객체의 포즈를 검출하는 객체별 포즈 검출모듈; 상기 메모리에 저장된 매칭정보와, 상기 객체별 포즈 검출모듈에 의해 검출된 각 객체의 포즈 정보를 참조하여, 각 개체의 상태-모드가 ‘임시모드’인지 또는 ‘방문모드’인지를 설정하는 상태-모드 설정모듈을 포함하는 것이 바람직하다.In addition, in the present invention, the controller further includes a memory storing matching information in which pose types belonging to the 'temporary mode' and pose types belonging to the 'visit mode' are matched, and it is preferable that the HPE-based analysis unit includes an image analysis module that analyzes an image collected by the image collection unit; a human body detection module that detects human bodies in an image by utilizing analysis data detected by the image analysis module; a PoseNet-based object joint detection module that uses the image of each object detected by the human body detection module as input data of a PoseNet model and outputs joint points of each object; an object-specific pose detection module that analyzes the joint points of each object detected by the PoseNet-based object joint detection module and detects the pose of each object; and a state-mode setting module that sets whether the state-mode of each object is the 'temporary mode' or the 'visit mode' by referring to the matching information stored in the memory and the pose information of each object detected by the object-specific pose detection module.

또한 본 발명에서 상기 제균모듈은 흡입된 공기의 이동 경로 상에 설치되어 플라즈마 이온을 발생시키는 플라즈마 이온 유닛; 흡입된 공기의 이동 경로 상에 설치되어 UVA를 조사하는 UVA 제균유닛; 해당 구역(S‘)으로 UVC를 조사하는 UVC 제균유닛을 포함하는 것이 바람직하다.In addition, in the present invention, it is preferable that the sterilizing module includes a plasma ion unit installed on the path of the inhaled air and generating plasma ions; a UVA sterilizing unit installed on the path of the inhaled air and irradiating UVA; and a UVC sterilizing unit irradiating UVC to the corresponding area (S’).

상기 과제와 해결수단을 갖는 본 발명에 따르면 인간이 개입하지 않아도 자율주행을 통해 제균이 필요한 장소로 이동하여 제균-작업을 진행함으로써 제균 효과 및 효율성을 극대화할 뿐만 아니라 불필요한 인력소모를 절감시킬 수 있게 된다.According to the present invention having the above-mentioned tasks and solutions, the sterilization work can be performed autonomously to a location requiring sterilization without human intervention, thereby maximizing the sterilization effect and efficiency, and reducing unnecessary manpower consumption.

또한 본 발명에 의하면 목적지인 구역(S’)으로 이동한 후, 인체가 감지되면 제균-작업을 진행하지 않되, 인체가 감지되지 않는 경우에만 제균-작업을 진행하도록 구성됨으로써 제균 작업이 인체에 노출되지 않아, 서비스 안전성 및 신뢰도를 높일 수 있다.In addition, according to the present invention, after moving to the destination area (S’), if a human body is detected, the sterilization operation is not performed, but is performed only if a human body is not detected, so that the sterilization operation is not exposed to the human body, thereby increasing service safety and reliability.

또한 본 발명에 의하면 제균유닛이 UVC유닛, UVA유닛, 및 플라즈마 이온 유닛을 포함하여 다양한 기능의 제균 기능을 제공함으로써 동일 제균-작업시간 대비 제균 효과 및 효율성을 더욱 높일 수 있게 된다.In addition, according to the present invention, the sterilization unit provides sterilization functions of various functions including a UVC unit, a UVA unit, and a plasma ion unit, thereby further increasing the sterilization effect and efficiency compared to the same sterilization-working time.

또한 본 발명에 의하면 컨트롤러의 HPE 기반 분석부가 단순히 인체를 감지할 뿐만 아니라 감지된 인체의 포즈를 검출한 후, 상태-모드를 ‘임시모드’ 또는 ‘방문모드’로 설정하고, 대기 여부 판단부가 감지된 객체가 존재하더라도, 감지된 객체의 상태-모드에 따라, 대기 또는 이동을 결정하도록 구성됨으로써 실내 장소에 사람이 밀집할 때, 제균-작업이 이루어질 수 없는 종래의 문제점을 획기적으로 해결할 수 있다.In addition, according to the present invention, the HPE-based analysis unit of the controller not only detects a human body, but also detects the pose of the detected human body, and then sets the status mode to ‘temporary mode’ or ‘visit mode,’ and the standby or not determination unit is configured to determine whether to standby or move based on the status mode of the detected object even if the detected object exists, thereby dramatically resolving the conventional problem of sterilization work not being possible when people are crowded in an indoor space.

도 1은 국내등록특허 제10-1742489호(발명의 명칭 : 자외선 살균 이동로봇 장치 및 시스템)에 개시된 자외선 살균 이동로봇을 나타내는 블록도이다.
도 2는 본 발명의 일실시예인 자세인식기술이 적용된 이동형 제균-로봇을 나타내는 블록도이다.
도 3은 도 2를 나타내는 예시도이다.
도 4는 도 3의 다른 예시도이다.
도 5는 도 2의 컨트롤러를 나타내는 블록도이다.
도 6은 도 5의 HPE 기반 분석부를 나타내는 블록도이다.
도 7은 도 6에 적용되는 HPE를 설명하기 위한 개념도이다.
도 8은 도 7의 HPE에 적용되는 PoseNet 모델을 나타내는 개념도이다.
도 9는 도 5의 대기 여부 판단부를 나타내는 블록도이다.
Figure 1 is a block diagram showing an ultraviolet sterilizing mobile robot disclosed in domestically registered patent No. 10-1742489 (Title of invention: Ultraviolet sterilizing mobile robot device and system).
Figure 2 is a block diagram showing a mobile sterilization robot to which posture recognition technology, which is an embodiment of the present invention, is applied.
Figure 3 is an example diagram showing Figure 2.
Figure 4 is another example of Figure 3.
Figure 5 is a block diagram showing the controller of Figure 2.
Figure 6 is a block diagram showing the HPE-based analysis unit of Figure 5.
Figure 7 is a conceptual diagram explaining HPE applied to Figure 6.
Figure 8 is a conceptual diagram showing the PoseNet model applied to HPE of Figure 7.
Figure 9 is a block diagram showing the standby judgment unit of Figure 5.

이하, 첨부된 도면을 참조하여 본 발명의 일실시예를 설명한다.Hereinafter, an embodiment of the present invention will be described with reference to the attached drawings.

도 2는 본 발명의 일실시예인 자세인식기술이 적용된 이동형 제균-로봇을 나타내는 블록도이고, 도 3은 도 2를 나타내는 예시도이고, 도 4는 도 3의 다른 예시도이다.FIG. 2 is a block diagram showing a mobile sterilization robot to which posture recognition technology, which is an embodiment of the present invention, is applied, FIG. 3 is an exemplary diagram showing FIG. 2, and FIG. 4 is another exemplary diagram of FIG. 3.

도 2 내지 4의 본 발명의 일실시예인 자세인식기술이 적용된 이동형 제균-로봇(1)은 자율주행을 통해 제균이 필요한 장소인 제균-필요구역으로 이동함과 동시에 제균-필요구역 도착 시, 인체를 감지하여 인체감지여부에 따라 UVC 제균유닛, UVA 제균유닛 및 플라즈마 이온 유닛을 사용하여 제균작업을 수행하며, PoseNet 모델이 적용된 HPE(Human Pose Estimation)를 이용하여 감지객체의 포즈를 검출한 후, 검출된 포즈에 따라 감지객체를 ‘임시모드’ 또는 ‘방문모드’로 분류하여 분류된 결과에 따라 다른 장소로 이동하거나 또는 대기할지를 결정하도록 구성됨으로써 인간이 개입하지 않아도, 넓은 장소의 제균 효과 및 효율성을 극대화할 뿐만 아니라 인체감지 정확성을 높여 인체 유해성을 최소화하며, 바이러스 및 세균의 확산을 효과적으로 방지할 수 있으며, 임계치 이상의 방문객이 밀집된 공간에서도 살균 효과를 지속시키기 위한 것이다.The mobile sterilization robot (1) to which the posture recognition technology of one embodiment of the present invention of FIGS. 2 to 4 is applied moves to a sterilization-required area, which is a place requiring sterilization, through autonomous driving, and at the same time, upon arrival at the sterilization-required area, detects a human body and performs sterilization work using a UVC sterilization unit, a UVA sterilization unit, and a plasma ion unit, and detects the pose of a detection object using HPE (Human Pose Estimation) to which a PoseNet model is applied, and then classifies the detection object into a ‘temporary mode’ or a ‘visit mode’ according to the detected pose and determines whether to move to another place or wait according to the classification result, thereby maximizing the sterilization effect and efficiency of a wide area without human intervention, and minimizing harmfulness to the human body by increasing the accuracy of human body detection, and effectively preventing the spread of viruses and bacteria, and maintaining the sterilization effect even in a space where a critical number of visitors are densely packed.

또한 본 발명의 자세인식기술이 적용된 이동형 제균-로봇(1)은 도 2 내지 4에 도시된 바와 같이, 컨트롤러(3)와, 흡입팬(11), 배기팬(12), 플라즈마 이온 유닛(13), UVA 제균유닛(14), UVC 제균유닛(15), 필터부(16), 센서부(17), 디스플레이 패널(18), 공기질 센서(19), 이동부(20)로 이루어진다.In addition, the mobile sterilization robot (1) to which the posture recognition technology of the present invention is applied is composed of a controller (3), a suction fan (11), an exhaust fan (12), a plasma ion unit (13), a UVA sterilization unit (14), a UVC sterilization unit (15), a filter unit (16), a sensor unit (17), a display panel (18), an air quality sensor (19), and a moving unit (20), as shown in FIGS. 2 to 4.

흡입팬(11)은 이동형 제균-로봇(1)이 이동한 구역(S’)의 공기인 외기를 몸체(10)의 내부로 흡입한다.The suction fan (11) sucks outside air, which is air from the area (S’) through which the mobile sterilization robot (1) has moved, into the interior of the body (10).

배기팬(12)은 흡입팬(11)을 통해 몸체(10)의 내부로 흡입된 후, 플라즈마 이온 유닛(13), UVA 제균유닛(14), UVC 제균유닛(15) 및 필터부(16)에 의해 제균된 공기인 내기를 외부로 배출한다.The exhaust fan (12) sucks in air into the interior of the body (10) through the suction fan (11) and then discharges the air, which is sterilized by the plasma ion unit (13), UVA sterilization unit (14), UVC sterilization unit (15) and filter unit (16), to the outside.

플라즈마 이온 유닛(13)은 흡입된 공기의 이동 경로 상에 설치되어 플라즈마 이온을 발생시켜 유입된 공기를 제균시킨다.The plasma ion unit (13) is installed on the path of the inhaled air and generates plasma ions to sterilize the inhaled air.

UVA 제균유닛(14)은 공기 이동 경로 상에 설치되어 UVA를 조사하여 이동 중인 공기를 제균시킨다.The UVA sterilization unit (14) is installed on the air movement path and sterilizes the moving air by irradiating it with UVA.

UVC 제균유닛(15)은 구역(S’)으로 UVC를 조사한다.The UVC sterilization unit (15) irradiates UVC to the area (S’).

필터부(16)는 공기 이동 경로 상에 설치되어 유입된 공기를 필터링하며, 상세하게로는 프리필터, 헤파필터 및 활성탄필터를 구성되는 것이 바람직하다.The filter unit (16) is installed on the air movement path to filter the inflowing air, and more specifically, it is preferable to consist of a pre-filter, a HEPA filter, and an activated carbon filter.

센서부(17)는 고해상도 영상을 획득하는 카메라로 구성된다. 이때 센서부(17)인 카메라의 촬영에 의해 획득된 영상은 후술되는 도 5의 컨트롤러(3)에서 객체 감지와, 감지 객체의 포즈를 추정하는데 활용된다.The sensor unit (17) is composed of a camera that acquires high-resolution images. At this time, the images acquired by shooting by the camera, which is the sensor unit (17), are used to detect objects and estimate the pose of the detected object in the controller (3) of Fig. 5 described later.

디스플레이 패널(18)은 몸체(10)의 전면에 설치되어, 현재 공기질 상태, 제균작업 상태, 안내 문구 및 경고문구 등을 디스플레이 한다.The display panel (18) is installed on the front of the body (10) and displays the current air quality status, sterilization operation status, guidance text, and warning text.

공기질 센서(19)는 이동한 구역(S’)의 내부 공기의 공기질을 센싱하며, 감지된 측정값을 컨트롤러(3)로 출력한다.The air quality sensor (19) senses the air quality of the internal air of the moved area (S’) and outputs the detected measurement value to the controller (3).

이동부(20)는 몸체(10)의 하부에 설치되며, 컨트롤러(3)의 제어에 따라 몸체(10)를 수평 방향으로 이동시킨다.The moving part (20) is installed at the lower part of the body (10) and moves the body (10) in a horizontal direction under the control of the controller (3).

도 5는 도 2의 컨트롤러를 나타내는 블록도이다.Figure 5 is a block diagram showing the controller of Figure 2.

도 5의 컨트롤러(3)는 이동형 제균-로봇(1)의 몸체(10)의 내부에 설치되며, 전술하였던 구성수단(11), (12), (13), (14), (15), (16), (17), (18), (19), (20)들의 동작을 관리 및 제어한다.The controller (3) of Fig. 5 is installed inside the body (10) of the mobile sterilization robot (1) and manages and controls the operations of the aforementioned components (11), (12), (13), (14), (15), (16), (17), (18), (19), and (20).

또한 컨트롤러(3)는 도 5에 도시된 바와 같이, 제어부(30)와, 메모리(31), 통신인터페이스부(32), 자율주행부(33), 영상 수집부(34), HPE 기반 분석부(35), 제균-작업 판단부(36), 대기 여부 판단부(37), 제균-작업 운영부(38), 제균-작업정보 생성부(39), 디스플레이부(40)로 이루어진다.In addition, the controller (3) is composed of a control unit (30), a memory (31), a communication interface unit (32), an autonomous driving unit (33), an image collection unit (34), an HPE-based analysis unit (35), a sterilization-work judgment unit (36), a standby judgment unit (37), a sterilization-work operation unit (38), a sterilization-work information generation unit (39), and a display unit (40), as shown in FIG. 5.

제어부(30)는 컨트롤러(3)의 O.S(Operating System)이며, 제어대상(31), (32), (33), (34), (35), (36), (37), (38), (39), (40)들의 동작을 관리 및 제어한다.The control unit (30) is an O.S (Operating System) of the controller (3) and manages and controls the operations of the control targets (31), (32), (33), (34), (35), (36), (37), (38), (39), and (40).

또한 제어부(30)는 자율주행부(33)에 의해 목적지로 이동하면, 영상 수집부(34)를 실행시킨다.In addition, when the control unit (30) moves to the destination by the autonomous driving unit (33), it executes the image collection unit (34).

또한 제어부(30)는 제균-작업 판단부(36)에서 1)제균-작업을 진행하여도 무방하다고 판단되면, 제균-작업 운영부(38)를 실행시키되, 2)제균-작업을 진행할 수 없다고 판단되면, 대기 여부 판단부(37)를 실행시킨다.In addition, the control unit (30) executes the sterilization operation unit (38) if the sterilization operation judgment unit (36) determines that 1) the sterilization operation can proceed, but executes the standby judgment unit (37) if 2) the sterilization operation cannot proceed.

또한 제어부(30)는 제균-작업 운영부(38)에 의해 제균-작업이 완료되면, 제균-작업정보 생성부(39)를 실행시키고, 제균-작업정보 생성부(39)에서 제균-작업정보가 생성되면, 생성된 제균-작업정보를 메모리(31)에 저장한다.In addition, when the sterilization operation is completed by the sterilization operation operation unit (38), the control unit (30) executes the sterilization operation information generation unit (39), and when the sterilization operation information is generated by the sterilization operation information generation unit (39), the generated sterilization operation information is stored in the memory (31).

메모리(31)에는 이동형 제균-로봇(1)이 설치되는 실내 장소(S)의 위치정보와, 실내 장소(S)를 구성하는 각 구역(S’)의 위치정보가 기 설정되어 저장된다.In the memory (31), the location information of the indoor location (S) where the mobile sterilization robot (1) is installed and the location information of each zone (S’) constituting the indoor location (S) are preset and stored.

또한 메모리(31)에는 해당 실내 장소(S)에 대응하는 전자지도인 실내-맵이 기 제작되어 저장된다.In addition, an indoor map, which is an electronic map corresponding to the indoor location (S), is created and stored in the memory (31).

또한 메모리(31)에는 기 학습된 PoseNet 모델이 저장된다.Additionally, the pre-trained PoseNet model is stored in memory (31).

이때 PoseNet 모델은 입력된 영상이미지를 분석하여, 관절(스켈레톤) 데이터를 출력하는 알고리즘이다.At this time, the PoseNet model is an algorithm that analyzes the input video image and outputs joint (skeleton) data.

또한 메모리(31)에는 자율주행부(33)에서 생성된 목적지 정보가 임시 저장된다.Additionally, destination information generated by the autonomous driving unit (33) is temporarily stored in the memory (31).

또한 메모리(31)에는 제균-작업정보 생성부(39)에서 생성된 제균-작업정보가 저장된다.In addition, the memory (31) stores the sterilization-operation information generated by the sterilization-operation information generation unit (39).

자율주행부(33)는 각종 센서에 의해 생성된 스캐닝 정보와, 기 제작된 실내-맵을 활용하여, 이동형 제균-로봇(1)의 위치와, 실내-맵 상에서 이동형 제균-로봇(1)의 위치정보에 따라, 자율주행이 이루어지도록 이동부(20)를 제어한다.The autonomous driving unit (33) controls the moving unit (20) so that autonomous driving is performed based on the location of the mobile sterilization robot (1) and the location information of the mobile sterilization robot (1) on the indoor map by utilizing scanning information generated by various sensors and a previously produced indoor map.

이때 자율주행부(33)는 각종 센서를 통해 획득되는 감지데이터 및 스캐닝 정보를 분석 및 활용하여, SLAM(Simultaneous localization and mapping) 기술을 통해 실내-맵을 생성하고 자기 위치를 추정하며, 실내-맵 상에서 이동형 제균-로봇(1)의 위치를 검출하여 주행 경로를 생성한 후, 생성된 주행 경로에 따라 이동부(20)를 제어한다.At this time, the autonomous driving unit (33) analyzes and utilizes detection data and scanning information acquired through various sensors, generates an indoor map through SLAM (Simultaneous localization and mapping) technology, estimates its own location, detects the location of the mobile sterilization robot (1) on the indoor map, generates a driving path, and then controls the moving unit (20) according to the generated driving path.

이때 SLAM이란 AI로봇(1)의 상대 위치 값과 주변 환경을 이용하여 자신의 공간상 절대 위치를 예측하는 방법을 의미한다.At this time, SLAM refers to a method of predicting the absolute position of an AI robot (1) in space by using its relative position value and the surrounding environment.

또한 자율주행부(33)는 목적지인 구역(S’)으로의 이동이 완료되면, 영상 수집부(34)로 제어신호를 출력한다.In addition, when the autonomous driving unit (33) completes moving to the destination area (S’), it outputs a control signal to the image collection unit (34).

영상 수집부(34)는 자율주행부(33)에 의해 이동형 제균-로봇(1)이 목적된 구역(S’)으로 이동될 때 실행되며, 센서부(17)가 동작하도록 센서부(17)를 제어한다.The image collection unit (34) is executed when the mobile sterilization robot (1) is moved to the target area (S’) by the autonomous driving unit (33), and controls the sensor unit (17) so that the sensor unit (17) operates.

또한 영상 수집부(34)는 센서부(17)인 카메라에 의해 획득된 고해상도 영상을 수집한다.Additionally, the image collection unit (34) collects high-resolution images acquired by the camera, which is the sensor unit (17).

이때 영상 수집부(34)에 의해 수집된 고해상도 영상은 제어부(30)의 제어에 따라 HPE 기반 분석부(35)로 입력된다.At this time, the high-resolution image collected by the image collection unit (34) is input to the HPE-based analysis unit (35) under the control of the control unit (30).

도 6은 도 5의 HPE 기반 분석부를 나타내는 블록도이고, 도 7은 도 6에 적용되는 HPE를 설명하기 위한 개념도이고, 도 8은 도 7의 HPE에 적용되는 PoseNet 모델을 나타내는 개념도이다.FIG. 6 is a block diagram showing the HPE-based analysis unit of FIG. 5, FIG. 7 is a conceptual diagram explaining the HPE applied to FIG. 6, and FIG. 8 is a conceptual diagram showing the PoseNet model applied to the HPE of FIG. 7.

도 6의 HPE 기반 분석부(35)는 센서부(17)의 촬영에 의해 획득된 고해상도 영상을 분석하여, 인체(객체)를 감지함과 동시에 감지된 객체의 포즈를 추정하며, 추정된 포즈에 따라 감지된 객체를 ‘임시모드’ 또는 ‘방문모드’로 분류하는 프로세서이다.The HPE-based analysis unit (35) of Fig. 6 is a processor that analyzes a high-resolution image acquired by shooting of the sensor unit (17), detects a human body (object), estimates the pose of the detected object at the same time, and classifies the detected object into ‘temporary mode’ or ‘visit mode’ according to the estimated pose.

또한 HPE 기반 분석부(35)는 도 6에 도시된 바와 같이, 영상분석모듈(351)과, 인체감지모듈(352), PoseNet 기반 제1 객체 관절검출모듈(353-1), ..., PoseNet 기반 제N 객체 관절검출모듈(353-N), 객체별 포즈 검출모듈(354), 상태-모드 설정모듈(355)로 이루어진다.In addition, the HPE-based analysis unit (35) is composed of an image analysis module (351), a human body detection module (352), a PoseNet-based first object joint detection module (353-1), ..., a PoseNet-based Nth object joint detection module (353-N), an object-specific pose detection module (354), and a state-mode setting module (355), as illustrated in FIG. 6.

영상분석모듈(351)은 영상 수집부(34)에 의해 수집된 영상을 분석하고, 인체감지모듈(352)은 영상분석모듈(351)에 의해 검출된 분석데이터를 활용하여, 영상 내 인체(1, ..., N)들을 감지한다.The image analysis module (351) analyzes the image collected by the image collection unit (34), and the human body detection module (352) detects human bodies (1, ..., N) in the image by utilizing the analysis data detected by the image analysis module (351).

이때 제어부(30)는 인체감지모듈(352)에서 1)감지된 인체가 ‘0’이면, HPE 기반 분석부(35)의 동작을 종료하고 제균-작업 판단부(36)를 실행시키되, 2)감지된 인체가 ‘1’ 이상이면, PoseNet 기반 제1 객체 관절검출모듈(353-1), ..., PoseNet 기반 제N 객체 관절검출모듈(353-N)들을 실행시킨다.At this time, the control unit (30) terminates the operation of the HPE-based analysis unit (35) and executes the sterilization-work judgment unit (36) if 1) the detected human body is ‘0’ in the human body detection module (352), but 2) if the detected human body is ‘1’ or higher, executes the PoseNet-based first object joint detection module (353-1), ..., PoseNet-based Nth object joint detection module (353-N).

PoseNet 기반 제1 객체 관절검출모듈(353-1)은 인제감지모듈(352)에 의해 감지된 제1 객체의 이미지를 PoseNet 모델의 입력데이터로 하여, 제1 객체의 관절포인트들을 출력한다.The first object joint detection module (353-1) based on PoseNet uses the image of the first object detected by the human detection module (352) as input data of the PoseNet model and outputs joint points of the first object.

일반적으로, HPE(Human Pose Estimation)는, 이미지 또는 영상으로부터 사람의 관절(스켈레톤)을 예측하는 모델을 의미하고, 도 7의 (a)에 도시된 바와 같이, 우선 인체 이미지를 먼저 추출한 후, 도 7의 (b)에 도시된 바와 같이, 추출된 인체 이미지로부터 관절을 추정하는 Top-down 방식으로 운영된다.In general, HPE (Human Pose Estimation) refers to a model that predicts human joints (skeletons) from images or videos, and as shown in (a) of Fig. 7, it operates in a top-down manner by first extracting a human image, and then estimating joints from the extracted human image, as shown in (b) of Fig. 7.

이때 PoseNet은 ResNet과 MobileNet model을 이용하여 구현될 수 있고, ResNet은 mobileNet에 비하여 CNN model의 크기가 크므로, 보다 정확한 포즈 추정의 결과를 기대할 수 있으나, page load time/inference time이 지체되어 실시간으로 동작하기에는 적합하지 않을 수 있기 때문에 mobileNet을 통해 실시간 구현이 가능하도록 하였다.At this time, PoseNet can be implemented using ResNet and MobileNet models. Since ResNet has a larger CNN model size than mobileNet, more accurate pose estimation results can be expected. However, it may not be suitable for real-time operation due to the delay in page load time/inference time. Therefore, real-time implementation was made possible through mobileNet.

또한 PoseNet model은 입력 이미지의 크기를 변형시키지 않고, 원본 이미지(입력 이미지)와 동일한 크기의 output 이미지를 획득하되, 도 8에 도시된 바와 같이, output stride라는 hyperparameter를 이용하여 입력 이미지를 얼마나 정밀하게 볼 것인지를 정할 수 있다.In addition, the PoseNet model obtains an output image of the same size as the original image (input image) without changing the size of the input image, and as shown in Figure 8, it can determine how precisely to view the input image by using a hyperparameter called output stride.

PoseNet 기반 제N 객체 관절검출모듈(353-N)은 인제감지모듈(352)에 의해 감지된 제N 객체의 이미지를 PoseNet 모델의 입력데이터로 하여, 제N 객체의 관절포인트들을 출력한다.The PoseNet-based Nth object joint detection module (353-N) uses the image of the Nth object detected by the human detection module (352) as input data for the PoseNet model and outputs joint points of the Nth object.

객체별 포즈 검출모듈(354)은 PoseNet 기반 제1 객체 관절검출모듈(353-1), ..., PoseNet 기반 제N 객체 관절검출모듈(353-N)에 의해 검출된 각 객체의 관절포인트들을 분석하여, 각 객체의 포즈를 검출한다.The object-specific pose detection module (354) analyzes the joint points of each object detected by the PoseNet-based first object joint detection module (353-1), ..., PoseNet-based Nth object joint detection module (353-N) to detect the pose of each object.

이때 객체별 포즈 검출모듈(354)은 기 설정된 포즈들 각각에 따른 관절포인트들의 위치정보가 매칭된 기준테이블을 활용하여, 각 객체의 포즈를 결정할 수 있다.At this time, the object-specific pose detection module (354) can determine the pose of each object by utilizing a reference table in which the position information of joint points for each preset pose is matched.

상태-모드 설정모듈(355)은 객체별 포즈 검출모듈(354)에 의해 검출된 각 객체의 포즈 정보를 참조하여, 각 개체의 상태-모드가 ‘임시모드’인지 또는 ‘방문모드’인지를 설정한다.The state-mode setting module (355) sets whether the state-mode of each object is ‘temporary mode’ or ‘visit mode’ by referring to the pose information of each object detected by the object-specific pose detection module (354).

이때 임시모드는 해당 구역(S’)을 임시적으로 방문하였다고 판단할 수 있는 포즈들을 의미하고, 방문모드는 해당 구역(S’)을 소정 시간 이상 머물 것으로 판단할 수 있는 포즈들을 의미한다.At this time, the temporary mode refers to poses that can be judged to have temporarily visited the area (S’), and the visit mode refers to poses that can be judged to have stayed in the area (S’) for a certain period of time or longer.

또한 상태-모드 설정모듈(355)은 ‘임시모드’에 속하는 포즈종류들과, ‘방문모드’에 속하는 포즈종류들이 매칭된 매칭정보를 활용하여, 각 객체의 상태-모드를 설정할 수 있다.In addition, the state-mode setting module (355) can set the state-mode of each object by utilizing matching information in which pose types belonging to the ‘temporary mode’ and pose types belonging to the ‘visit mode’ are matched.

다시 도 5로 돌아가서, 제균-작업 판단부(36)를 살펴보면, 제균-작업 판단부(36)는 1)HPE 기반 분석부(35)에서 감지된 인체가 ‘0’이면, 제균-작업을 진행하여도 무방하다고 판단하며, 2)HPE 기반 분석부(35)에서 감지된 인체가 ‘1’ 이상이면, 제균-작업을 진행할 수 없다고 판단한다.Returning to Fig. 5 again, looking at the sterilization-work judgment unit (36), the sterilization-work judgment unit (36) determines that 1) if the human body detected by the HPE-based analysis unit (35) is ‘0’, it is okay to proceed with the sterilization-work, and 2) if the human body detected by the HPE-based analysis unit (35) is ‘1’ or higher, it determines that the sterilization-work cannot be performed.

이때 제어부(30)는 제균-작업 판단부(36)에서 1)제균-작업을 진행하여도 무방하다고 판단되면, 제균-작업 운영부(38)를 실행시키되, 2)제균-작업을 진행할 수 없다고 판단되면, 대기 여부 판단부(37)를 실행시킨다.At this time, the control unit (30) executes the sterilization operation unit (38) if the sterilization operation judgment unit (36) determines that 1) the sterilization operation can proceed, but executes the standby judgment unit (37) if 2) the sterilization operation cannot proceed.

즉 제균-작업 판단부(36)는 우선 방문 구역(S’) 내 인체가 감지되면, 제균-작업을 수행하지 않도록 판단함으로써 인체에 유해한 UVC로 인한 피해 및 안전사고를 사전에 방지할 수 있게 된다.In other words, the sterilization-work judgment unit (36) determines not to perform sterilization work when a human body is detected within the visit area (S’), thereby preventing in advance any damage or safety accidents caused by UVC that is harmful to the human body.

도 9는 도 5의 대기 여부 판단부를 나타내는 블록도이다.Figure 9 is a block diagram showing the standby judgment unit of Figure 5.

도 9의 대기 여부 판단부(37)는 제균-작업 판단부(36)에서 제균-작업을 진행할 수 없다고 판단될 때, 제어부(30)의 제어에 따라 실행된다.The standby judgment unit (37) of Fig. 9 is executed under the control of the control unit (30) when the sterilization operation judgment unit (36) determines that the sterilization operation cannot be performed.

또한 대기 여부 판단부(37)는 도 9에 도시된 바와 같이, 상태-모드 입력모듈(371)과, 방문모드 객체 탐색모듈(372), 이동 결정모듈(373), 대기 결정모듈(374), 경과시간 측정모듈(375), 알람표출모듈(376), 대기시간 경과 확인모듈(377)로 이루어진다.In addition, the standby judgment unit (37) is composed of a state-mode input module (371), a visit mode object search module (372), a movement decision module (373), a standby decision module (374), an elapsed time measurement module (375), an alarm display module (376), and a standby time elapsed confirmation module (377), as illustrated in FIG. 9.

상태-모드 입력모듈(371)은 전술하였던 도 6의 상태-모드 설정모듈(355)에서 설정된 각 객체의 상태-모드 정보를 입력받는다.The state-mode input module (371) receives the state-mode information of each object set in the state-mode setting module (355) of Fig. 6 described above.

방문모드 객체 탐색모듈(372)은 상태-모드 입력모듈(371)을 통해 입력된 각 객체의 상태-모드 정보를 탐색하며, 상세하게로는 객체들 중 방문모드의 상태-모드를 갖는 객체가 존재하는지를 탐색한다.The visit mode object search module (372) searches for the state-mode information of each object input through the state-mode input module (371), and more specifically, searches for whether an object having the state-mode of the visit mode exists among the objects.

이때 제어부(30)는 방문모드 객체 탐색모듈(372)에서 1)객체들 중 방문모드의 상태-모드를 갖는 객체가 존재하면, 이동 결정모듈(373)을 실행시키되, 2)객체들 중 방문모드의 상태-모드를 갖는 객체가 존재하지 않으면, 대기 결정모듈(374)을 실행시킨다.At this time, the control unit (30) executes the movement decision module (373) in the visit mode object search module (372) if 1) an object having the visit mode status-mode exists among the objects, but 2) if an object having the visit mode status-mode does not exist among the objects, it executes the standby decision module (374).

이동 결정모듈(373)은 방문모드 객체 탐색모듈(372)에서, 객체들 중, 방문모드의 상태-모드를 갖는 객체가 존재할 때 실행되며, 이동형 제균로봇(1)이 해당 구역(S’)에서 대기하지 않고, 다음 구역으로 이동하기로 결정하며, 자율주행부(33)로 이동명령신호를 출력한다.The movement decision module (373) is executed when an object having a visit mode status-mode exists among the objects in the visit mode object search module (372), and the mobile sterilization robot (1) decides not to wait in the corresponding area (S’) but to move to the next area, and outputs a movement command signal to the autonomous driving unit (33).

이때 자율주행부(33)는 이동 결정모듈(373)로부터 이동명령신호를 입력받으면, 다음 구역(S’)을 선택한 후, 이동부(20)를 제어하여 다음 구역(S’)으로 이동하도록 한다.At this time, when the autonomous driving unit (33) receives a movement command signal from the movement decision module (373), it selects the next zone (S’) and then controls the movement unit (20) to move to the next zone (S’).

대기 결정모듈(374)은 방문모드 객체 탐색모듈(372)에서, 객체들 중, 방문모드의 상태-모드를 갖는 객체가 존재하지 않을 때 실행되며, 이동형 제균로봇(1)이 해당 구역(S’)에서 기 설정된 대기시간(t) 동안 대기하기로 결정한다.The standby decision module (374) is executed when, among the objects in the visit mode object search module (372), there is no object with a visit mode status-mode, and the mobile sterilization robot (1) decides to wait for a preset standby time (t) in the corresponding area (S’).

경과시간 측정모듈(375)은 대기 결정모듈(374)에서 이동형 제균로봇(1)을 대기하는 것으로 결정할 때 실행되며, 타이머를 이용하여 경과시간(△t)을 측정한다.The elapsed time measurement module (375) is executed when the standby decision module (374) determines that the mobile sterilization robot (1) is to standby, and measures the elapsed time (△t) using a timer.

알람표출모듈(376)은 대기 결정모듈(374)에서 이동형 제균로봇(1)을 대기하는 것으로 결정할 때 실행되며, 디스플레이 패널(18), 스피커(미도시) 및 LED(미도시) 등을 이용하여, 알람정보를 외부로 표출함으로써 해당 구역(S’)에 위치한 사람들이 알람정보를 통해 곧이어 제균작업이 수행됨을 인지하도록 한다.The alarm display module (376) is executed when the standby decision module (374) determines to put the mobile sterilization robot (1) on standby, and uses a display panel (18), a speaker (not shown), and an LED (not shown) to display alarm information externally so that people located in the corresponding area (S’) are aware that sterilization work will be performed soon through the alarm information.

대기시간 경과 확인모듈(377)은 경과시간 측정모듈(374)에 의해 측정된 경과시간(△t)이, 대기시간(t)을 경과하는지를 비교하며, 경과시간(△t)이 대기시간(t)이 되면, 대기시간을 경과하였음을 확인한 후, 영상 수집부(34)로 제어신호를 출력한다.The waiting time elapsed confirmation module (377) compares whether the elapsed time (△t) measured by the elapsed time measuring module (374) has elapsed the waiting time (t), and if the elapsed time (△t) becomes the waiting time (t), it confirms that the waiting time has elapsed and then outputs a control signal to the image collection unit (34).

이때 대기시간 경과 확인모듈(377)에 의해 영상 수집부(34)로 제어신호가 입력되면, 영상 수집부(34), HPE 기반 분석부(35), 제균-작업 판단부(36), 대기여부 판단부(37)가 반복하여 실행된다.At this time, when a control signal is input to the image collection unit (34) by the waiting time elapsed confirmation module (377), the image collection unit (34), HPE-based analysis unit (35), sterilization-work judgment unit (36), and waiting judgment unit (37) are repeatedly executed.

제균-작업 운영부(38)는 제균-작업 판단부(36)가 HPE 기반 분석부(35)에서 감지된 인체가 ‘0’임에 따라, 제균-작업을 진행하여도 무방하다고 판단할 때, 제어부(30)의 제어에 따라 실행된다.The sterilization operation unit (38) is executed under the control of the control unit (30) when the sterilization operation judgment unit (36) determines that it is okay to proceed with the sterilization operation because the human body detected by the HPE-based analysis unit (35) is ‘0’.

또한 제균-작업 운영부(38)는 전술하였던 도 2의 흡입팬(11), 배기팬(12), 플라즈마 이온 유닛(13), UVA 제균유닛(14), UVC 제균유닛(15) 및 필터부(16)를 구동시킴으로써 해당 구역(S’)의 제균-작업이 이루어지도록 한다.In addition, the sterilization operation unit (38) operates the suction fan (11), exhaust fan (12), plasma ion unit (13), UVA sterilization unit (14), UVC sterilization unit (15) and filter unit (16) of Fig. 2 described above to perform sterilization operation in the corresponding area (S’).

디스플레이부(40)는 디스플레이 패널(18)을 통해 제균-작업 상태, 공기질 상태, 알람정보, 안내문구 등을 디스플레이 한다.The display section (40) displays sterilization operation status, air quality status, alarm information, guidance text, etc. through the display panel (18).

이와 같이 본 발명의 일실시예인 이동형 제균-로봇(1)은 인간이 개입하지 않아도 자율주행을 통해 제균이 필요한 장소로 이동하여 제균-작업을 진행함으로써 제균 효과 및 효율성을 극대화할 뿐만 아니라 불필요한 인력소모를 절감시킬 수 있게 된다.In this way, the mobile sterilization robot (1), which is one embodiment of the present invention, can move to a place requiring sterilization and perform sterilization work autonomously without human intervention, thereby maximizing the sterilization effect and efficiency, and reducing unnecessary labor consumption.

또한 본 발명의 이동형 제균-로봇(1)은 목적지인 구역(S’)으로 이동한 후, 인체가 감지되면 제균-작업을 진행하지 않되, 인체가 감지되지 않는 경우에만 제균-작업을 진행하도록 구성됨으로써 제균 작업이 인체에 노출되지 않아, 서비스 안전성 및 신뢰도를 높일 수 있다.In addition, the mobile sterilization robot (1) of the present invention is configured to not perform sterilization work when a human body is detected after moving to the destination area (S’), but to perform sterilization work only when a human body is not detected, thereby preventing exposure of the human body during sterilization work, thereby increasing service safety and reliability.

또한 본 발명의 이동형 제균-로봇(1)은 제균유닛이 UVC유닛, UVA유닛, 및 플라즈마 이온 유닛을 포함하여 다양한 기능의 제균 기능을 제공함으로써 동일 제균-작업시간 대비 제균 효과 및 효율성을 더욱 높일 수 있게 된다.In addition, the mobile sterilization robot (1) of the present invention provides sterilization functions of various functions including a sterilization unit, a UVC unit, a UVA unit, and a plasma ion unit, thereby further increasing the sterilization effect and efficiency compared to the same sterilization working time.

또한 본 발명의 이동형 제균-로봇(1)은 컨트롤러의 HPE 기반 분석부가 단순히 인체를 감지할 뿐만 아니라 감지된 인체의 포즈를 검출한 후, 상태-모드를 ‘임시모드’ 또는 ‘방문모드’로 설정하고, 대기 여부 판단부가 감지된 객체가 존재하더라도, 감지된 객체의 상태-모드에 따라, 대기 또는 이동을 결정하도록 구성됨으로써 실내 장소에 사람이 밀집할 때, 제균-작업이 이루어질 수 없는 종래의 문제점을 획기적으로 해결할 수 있다.In addition, the mobile sterilization robot (1) of the present invention is configured so that the HPE-based analysis section of the controller not only detects a human body, but also detects the pose of the detected human body, and then sets the status mode to ‘temporary mode’ or ‘visit mode’, and the standby or not determination section determines whether to standby or move according to the status mode of the detected object even if a detected object exists, thereby dramatically resolving the conventional problem of sterilization work not being able to be performed when people are crowded in an indoor space.

1:자세인식기술이 적용된 이동형 제균-로봇
3:컨트롤러 10:몸체
11:흡입팬 12:배기팬
13:플라즈마 이온 유닛 14:UVA 제균유닛
15:UVC 제균유닛 16:필터부
17:센서부 18:디스플레이 패널
19:공기질 센서 20:이동부
30:제어부 31:메모리
32:통신인터페이스부 33:자율주행부
34:영상 수집부 35:HPE 기반 분석부
36:제균-작업 판단부 37:대기 여부 판단부
38:제균-작업 운영부 39:제균-작업정보 생성부
40:디스플레이부 351:영상분석모듈
352:인체감지모듈
353-1:PoseNet 기반 제1 객체 관절검출모듈
353-N:PoseNet 기반 제N 객체 관절검출모듈
354:객체별 포즈 검출모듈 355:상태-모드 설정모듈
371:상태-모드 입력모듈 372:방문모드 객체 탐색모듈
373:이동 결정모듈 374:대기 결정모듈
375:경과시간 측정모듈 376:알람표출모듈
377:대기시간 경과 확인모듈
1: Mobile sterilization robot with posture recognition technology
3:Controller 10:Body
11: Suction fan 12: Exhaust fan
13: Plasma ion unit 14: UVA sterilization unit
15: UVC sterilization unit 16: Filter unit
17: Sensor section 18: Display panel
19: Air quality sensor 20: Moving part
30:Control unit 31:Memory
32: Communication interface section 33: Autonomous driving section
34: Image collection unit 35: HPE-based analysis unit
36: Sterilization-Work Decision Department 37: Standby Decision Department
38: Sterilization-Work Operation Department 39: Sterilization-Work Information Generation Department
40: Display section 351: Image analysis module
352: Human detection module
353-1: PoseNet-based first object joint detection module
353-N:PoseNet-based Nth object joint detection module
354: Object-specific pose detection module 355: State-mode setting module
371: State-mode input module 372: Visit mode object search module
373:Movement Decision Module 374:Standby Decision Module
375: Elapsed time measurement module 376: Alarm display module
377: Waiting time elapsed check module

Claims (5)

카메라와, 제균모듈, 이동부, 컨트롤러를 포함하며, 실내 공간(S)의 구역(S’)들로 자율주행한 후, 이동한 구역(S’)의 공기를 제균시키는 이동형 제균로봇에 있어서:
상기 컨트롤러는
자기 위치를 추정하며, 맵 상에서 상기 이동형 제균-로봇의 위치를 검출하여 주행 경로를 생성한 후, 생성된 주행 경로에 따라 이동하도록 상기 이동부를 제어하는 자율주행부;
상기 자율주행부에 의해 이동이 완료되면, 상기 카메라를 동작시켜, 상기 카메라의 촬영에 의해 획득된 영상을 수집하는 영상 수집부;
상기 영상 수집부에 의해 수집된 영상을 분석하여 인체(객체)를 감지하는 HPE 기반 분석부;
상기 HPE 기반 분석부에서 1)감지된 객체가 ‘0’이면, 제균-작업을 진행하여도 무방하다고 판단하되, 2)감지된 객체가 ‘1’ 이상이면, 제균-작업을 진행할 수 없다고 판단하는 제균-작업 판단부;
상기 제균-작업 판단부에서 제균-작업을 진행하여도 무방하다고 판단할 때 실행되며, 상기 제균모듈을 구동시켜 제균-작업을 진행하는 제균-작업 운영부를 포함하는 것을 특징으로 하는 이동형-제균로봇.
A mobile sterilization robot comprising a camera, a sterilization module, a moving part, and a controller, which autonomously moves to areas (S') in an indoor space (S) and sterilizes the air in the area (S') to which it has moved:
The above controller
An autonomous driving unit that estimates its own location, detects the location of the mobile sterilization robot on a map, generates a driving path, and then controls the moving unit to move along the generated driving path;
When movement is completed by the autonomous driving unit, an image collection unit that operates the camera and collects images obtained by filming by the camera;
An HPE-based analysis unit that analyzes images collected by the above image collection unit to detect a human body (object);
In the HPE-based analysis unit above, 1) if the detected object is '0', it is determined that it is okay to proceed with the sterilization operation, but 2) if the detected object is '1' or higher, the sterilization operation judgment unit determines that the sterilization operation cannot be performed;
A mobile sterilization robot characterized by including a sterilization operation unit that is executed when the sterilization operation judgment unit determines that it is okay to proceed with the sterilization operation and operates the sterilization module to proceed with the sterilization operation.
제1항에 있어서, 상기 HPE 기반 분석부는
상기 영상 수집부에 의해 수집된 영상을 분석하여 인체(객체)를 감지함과 동시에 기 학습된 포즈검출 알고리즘을 이용하여 감지된 객체의 포즈를 검출하며, 검출된 객체의 포즈의 상태-모드를 ‘임시모드’ 또는 ‘방문모드’로 결정하고,
상기 컨트롤러는
상기 제균-작업 판단부에서 제균-작업을 진행할 수 없다고 판단될 때 실행되며, 감지된 객체들 중 1)상태-모드가 ‘방문모드’인 객체가 존재하면, 제균-작업을 진행하지 않는 것으로 최종 결정하되, 2)상태-모드가 ‘방문모드’인 객체가 존재하지 않으면, 대기할 것으로 결정한 후, 기 설정된 대기시간(t)이 경과하면, 상기 영상 수집부, 상기 HPE 기반 분석부 및 상기 제균-작업 판단부를 재가동시키는 대기 여부 판단부를 더 포함하는 것을 특징으로 하는 이동형 제균-로봇.
In the first paragraph, the HPE-based analysis unit
By analyzing the image collected by the above image collection unit, a human body (object) is detected, and at the same time, the pose of the detected object is detected using a previously learned pose detection algorithm, and the state-mode of the pose of the detected object is determined as 'temporary mode' or 'visit mode'.
The above controller
A mobile sterilization robot characterized in that it further includes a standby judgment unit that is executed when it is determined that the sterilization operation cannot be performed in the sterilization operation judgment unit, and 1) if there is an object whose status mode is 'visit mode' among the detected objects, it is finally determined not to perform the sterilization operation, but 2) if there is no object whose status mode is 'visit mode', it is determined to wait, and when a preset standby time (t) has elapsed, it restarts the image collection unit, the HPE-based analysis unit, and the sterilization operation judgment unit.
제2항에 있어서, 상기 대기 여부 판단부는
상기 HPE 기반 분석부로부터 각 객체의 상태-모드 정보를 입력받는 상태-모드 입력모듈;
상기 상태-모드 입력모듈을 통해 입력된 각 객체의 상태-모드 정보를 탐색하여, 객체들 중 상태-모드가 방문모드인 객체가 존재하는지를 탐색하는 방문모드 객체 탐색모듈;
상기 방문모드 객체 탐색모듈에서, 객체들 중, 방문모드의 상태-모드를 갖는 객체가 존재할 때 실행되며, 상기 이동형 제균로봇이 해당 구역(S’)에서 대기하지 않고, 다음 구역으로 이동하기로 결정한 후, 상기 자율주행부로 이동명령신호를 출력하는 이동 결정모듈;
상기 방문모드 객체 탐색모듈에서, 객체들 중, 방문모드의 상태-모드를 갖는 객체가 존재하지 않을 때 실행되며, 상기 이동형 제균로봇이 해당 구역(S’)에서 기 설정된 대기시간(t) 동안 대기하기로 결정하는 대기 결정모듈;
상기 대기 결정모듈에서 대기하는 것으로 결정할 때 실행되며, 타이머를 이용하여 경과시간(△t)을 측정하는 경과시간 측정모듈;
상기 대기 결정모듈에서 대기하는 것으로 결정할 때 실행되며, 알람정보를 외부로 표출하는 알람표출모듈;
상기 경과시간 측정모듈에 의해 측정된 경과시간(△t)이, 대기시간(t)을 경과하는지를 비교하며, 경과시간(△t)이 대기시간(t)이 되면, 영상 수집부(34)로 제어신호를 출력하는 대기시간 경과 확인모듈을 포함하고,
상기 영상 수집부는
상기 대기시간 경과 확인모듈로부터 제어신호를 입력받으면, 이전 과정을 반복하고,
상기 자율주행부는
상기 이동 결정모듈로부터 이동명령신호를 입력받으면, 다음 구역(S’)을 선택한 후, 상기 이동부를 제어하여 다음 구역(S’)으로 이동하는 것을 특징으로 하는 이동형 제균-로봇.
In the second paragraph, the waiting or not judging unit
A state-mode input module that receives state-mode information of each object from the above HPE-based analysis unit;
A visit mode object search module that searches for the state-mode information of each object input through the above state-mode input module and searches whether there is an object among the objects whose state-mode is visit mode;
In the above-mentioned visit mode object search module, when an object having a visit mode status-mode exists among the objects, a movement decision module that outputs a movement command signal to the autonomous driving unit after the mobile sterilization robot decides not to wait in the corresponding area (S') but to move to the next area;
In the above visit mode object search module, when there is no object among the objects having the visit mode status-mode, a wait decision module that determines that the mobile sterilization robot will wait in the corresponding area (S') for a preset wait time (t);
An elapsed time measurement module that is executed when the above-mentioned waiting decision module decides to wait and measures the elapsed time (△t) using a timer;
An alarm display module that is executed when the above-mentioned standby decision module decides to wait and displays alarm information externally;
It includes a waiting time elapsed confirmation module that compares whether the elapsed time (△t) measured by the above elapsed time measurement module has elapsed the waiting time (t), and outputs a control signal to the image collection unit (34) when the elapsed time (△t) becomes the waiting time (t).
The above video collection unit
When a control signal is received from the above waiting time elapsed confirmation module, the previous process is repeated.
The above autonomous driving part
A mobile sterilization robot characterized in that, when a movement command signal is input from the above movement decision module, the next zone (S') is selected and the moving part is controlled to move to the next zone (S').
제3항에 있어서, 상기 컨트롤러는
'임시모드'에 속하는 포즈종류들과 ‘방문모드’에 속하는 포즈종류들이 매칭된 매칭정보가 저장되는 메모리를 더 포함하고,
상기 HPE 기반 분석부는
상기 영상 수집부에 의해 수집된 영상을 분석하는 영상분석모듈;
상기 영상분석모듈에 의해 검출된 분석데이터를 활용하여, 영상 내 인체들을 감지하는 인체감지모듈;
상기 인제감지모듈에 의해 감지된 각 객체의 이미지를 PoseNet 모델의 입력데이터로 하여, 각 객체의 관절포인트들을 출력하는 PoseNet 기반 객체 관절검출모듈;
상기 PoseNet 기반 객체 관절검출모듈에 의해 검출된 각 객체의 관절포인트들을 분석하여, 각 객체의 포즈를 검출하는 객체별 포즈 검출모듈;
상기 메모리에 저장된 매칭정보와, 상기 객체별 포즈 검출모듈에 의해 검출된 각 객체의 포즈 정보를 참조하여, 각 개체의 상태-모드가 ‘임시모드’인지 또는 ‘방문모드’인지를 설정하는 상태-모드 설정모듈을 포함하는 것을 특징으로 하는 이동형 제균-로봇.
In the third paragraph, the controller
It further includes a memory in which matching information is stored between pose types belonging to the 'temporary mode' and pose types belonging to the 'visit mode'.
The above HPE-based analytics unit
An image analysis module that analyzes images collected by the above image collection unit;
A human body detection module that detects human bodies in an image by utilizing analysis data detected by the above image analysis module;
A PoseNet-based object joint detection module that uses the image of each object detected by the above-mentioned object detection module as input data for the PoseNet model and outputs joint points of each object;
An object-specific pose detection module that analyzes the joint points of each object detected by the above PoseNet-based object joint detection module and detects the pose of each object;
A mobile sterilization robot characterized by including a state-mode setting module that sets whether the state-mode of each object is a 'temporary mode' or a 'visit mode' by referring to the matching information stored in the above memory and the pose information of each object detected by the object-specific pose detection module.
제4항에 있어서, 상기 제균모듈은
흡입된 공기의 이동 경로 상에 설치되어 플라즈마 이온을 발생시키는 플라즈마 이온 유닛;
흡입된 공기의 이동 경로 상에 설치되어 UVA를 조사하는 UVA 제균유닛;
해당 구역(S‘)으로 UVC를 조사하는 UVC 제균유닛을 포함하는 것을 특징으로 하는 이동형 제균-로봇.
In the fourth paragraph, the sterilizing module
A plasma ion unit installed on the path of inhaled air and generating plasma ions;
UVA sterilization unit installed on the path of inhaled air and irradiating UVA;
A mobile sterilization robot characterized by including a UVC sterilization unit that irradiates UVC to a corresponding area (S').
KR1020230015276A 2023-02-06 2023-02-06 Mobile sterilization-robot with human pose estimation KR20240123442A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230015276A KR20240123442A (en) 2023-02-06 2023-02-06 Mobile sterilization-robot with human pose estimation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230015276A KR20240123442A (en) 2023-02-06 2023-02-06 Mobile sterilization-robot with human pose estimation

Publications (1)

Publication Number Publication Date
KR20240123442A true KR20240123442A (en) 2024-08-14

Family

ID=92418560

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230015276A KR20240123442A (en) 2023-02-06 2023-02-06 Mobile sterilization-robot with human pose estimation

Country Status (1)

Country Link
KR (1) KR20240123442A (en)

Similar Documents

Publication Publication Date Title
JP6403008B2 (en) Ion spray device, ion spray system, and ion spray method
US20220040356A1 (en) Space cleaning system and space cleaning method
US20210362320A1 (en) Mobile epidemic prevention and disinfection robot and its working method
TWI791996B (en) Method of controlling a mobile robot
Li et al. Robot semantic mapping through wearable sensor-based human activity recognition
KR20190104937A (en) Mobile robot for avoiding non-driving area and method for avoiding non-driving area of mobile robot
US10205891B2 (en) Method and system for detecting occupancy in a space
TWI592175B (en) Intelligently automatic detection disinfection robot
KR102366329B1 (en) Mobile robot with IoT-based space intelligence and control method for mobile robot
SA521421552B1 (en) Airborne Organic Matter Detection System and Method
KR20210122962A (en) Moving Robot and controlling method
KR20240123442A (en) Mobile sterilization-robot with human pose estimation
Marques et al. Environmental monitoring with mobile robots
KR20180133064A (en) An Intelligent Type of a Managing System for Preventing an Infection Based on an Internet of Things
US11281899B2 (en) Method and system for determining occupancy from images
CN217113336U (en) Intelligent epidemic prevention robot
US20210353818A1 (en) System and method for protecting a workspace from airborne contaminants
Joo et al. Autonomous navigation with active SLAM for disinfecting robot
JP2017090796A (en) Map creation method
KR20210137744A (en) A robot cleaner a control method thereof
Abd Rahim et al. CovidSense: A Heterogeneous Robot System for Indoor Area for COVID-19 Mitigation using Deep Learning Techniques
Wada et al. Building human motion map for mobile robot in the indoor dynamic environment
Sadewa et al. Wall Following and Obstacle Avoidance Control in Roisc-v1. 0 (Robotic Disinfectant) using Behavior Based Control
Gowri et al. Performance analysis of autonomous UV disinfecting robot (UV bot) using Taguchi method
KR20190046749A (en) An Intelligent Type of a Managing System for Preventing an Infection Based on an Internet of Things