KR20240110157A - Digital twin based-site management server and site management method for monitoring safefy acctident in industrial site - Google Patents
Digital twin based-site management server and site management method for monitoring safefy acctident in industrial site Download PDFInfo
- Publication number
- KR20240110157A KR20240110157A KR1020230001514A KR20230001514A KR20240110157A KR 20240110157 A KR20240110157 A KR 20240110157A KR 1020230001514 A KR1020230001514 A KR 1020230001514A KR 20230001514 A KR20230001514 A KR 20230001514A KR 20240110157 A KR20240110157 A KR 20240110157A
- Authority
- KR
- South Korea
- Prior art keywords
- accident
- sub
- management server
- site
- data
- Prior art date
Links
- 238000007726 management method Methods 0.000 title claims abstract description 93
- 238000012544 monitoring process Methods 0.000 title abstract description 15
- 238000004891 communication Methods 0.000 claims abstract description 36
- 230000002265 prevention Effects 0.000 claims description 21
- 238000004458 analytical method Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 description 15
- 238000000034 method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 206010063746 Accidental death Diseases 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/006—Controls for manipulators by means of a wireless system for controlling one or several manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Manipulator (AREA)
Abstract
안전사고 관리를 위한 디지털 트윈 기반의 산업현장 모니터링 시스템 및 현장 관리 방법이 개시된다. 본 발명에 따른 현장 관리 서버는 산업현장 모니터링 시스템에 포함되는 것으로서, 산업현장에 배치된 복수의 카메라로부터의 2D 영상 및 상기 산업현장에 배치된 1 이상의 이동 로봇으로부터의 로그 데이터 - 상기 로그 데이터는 시간의 흐름에 따른 상기 이동 로봇의 위치, 경로, 방향 및 충돌 레벨을 포함함 - 를 수집하는 데이터 통신부, 상기 2D 영상 및 상기 로그 데이터를 누적 기록하는 데이터 기록부 및 상기 데이터 통신부 및 상기 데이터 기록부에 동작 가능하게 결합되는 프로세서를 포함한다. 상기 프로세서는, 상기 2D 영상 및 상기 로그 데이터를 기초로, 상기 산업현장 내에서의 사고 이벤트의 발생을 검출하고, 상기 사고 이벤트가 발생된 시각 및 위치를 나타내는 사고 설명 정보를 사고 이력으로서 상기 데이터 기록부에 저장하도록 구성된다.A digital twin-based industrial site monitoring system and site management method for safety accident management is launched. The field management server according to the present invention is included in an industrial site monitoring system, and includes 2D images from a plurality of cameras deployed at the industrial site and log data from one or more mobile robots deployed at the industrial site - the log data is time-sensitive. Includes the location, path, direction and collision level of the mobile robot according to the flow of - a data communication unit that collects, a data recording unit that cumulatively records the 2D image and the log data, and can operate on the data communication unit and the data recording unit. It includes a processor that is tightly coupled. The processor detects the occurrence of an accident event in the industrial site based on the 2D image and the log data, and stores accident description information indicating the time and location at which the accident event occurred as an accident history in the data recorder. It is configured to be stored in .
Description
본 발명은 디지털 트윈 기반의 현장 관리 서버 및 현장 관리 방법에 관한 것으로, 보다 상세하게는 산업현장 내에 배치된 다수의 카메라와 1 이상의 이동 로봇으로부터 수집한 현장 데이터를 분석하여 산업현장에서의 안전 사고 발생 여부를 즉각적으로 파악하고, 카메라 영상과 로봇 데이터 간의 상호 보완을 통해 산업현장 내 존재하는 사각지대를 최소화하여 사고 발생 원인을 규명하며, 향후의 안전 사고를 예방하기 위한 안전 대책(조치)를 자동적으로 수립 및 실행하는 기술에 관한 것이다.The present invention relates to a digital twin-based field management server and field management method. More specifically, the present invention relates to a field management server and field management method based on digital twins, and more specifically, to analyze field data collected from multiple cameras and one or more mobile robots placed within an industrial site to prevent safety accidents at industrial sites. Immediately determine whether or not the accident occurs, minimize blind spots that exist in industrial sites through mutual complementation between camera images and robot data, identify the cause of accidents, and automatically implement safety measures (measures) to prevent future safety accidents. It is about establishing and implementing techniques.
산업현장의 각종 안정사고를 줄이고 관련자들의 경각심을 높이기 위한 취지로 2022년 1월부터 중대재해처벌법이 시행됨에 따라, 산업현장에서의 안전사고를 미연에 방지하고 부득이 안전사고가 발생한 경우에는 해당 사고의 원인을 정확하고 신속하게 파악하는 것이 더욱 중요해졌다.As the Serious Accident Punishment Act comes into effect from January 2022 with the purpose of reducing various safety accidents at industrial sites and raising awareness of those involved, safety accidents at industrial sites will be prevented in advance and, if a safety accident unavoidably occurs, the relevant accident It has become more important to accurately and quickly identify the cause.
특허문헌 1에 따른 산업시설 관리 시스템은 복합 기술을 통한 전국의 산업 시설물을 원격으로 감시 제어하고 데이터베이스 구축을 통해 산업시설 및 자원의 최적화 운전을 지원한다. 또한, 특허문헌 2에 따르면 공정데이터 추적이 가능한 미들웨어를 이용한 공정관리 시스템은 시스템을 구축하는데 시간과 비용을 절감할 수 있으며, 공장에서 사용되는 모든 장치의 데이터를 습득할 수 있어 생산계획을 구상하는데 도움을 준다. 또한, 특허문헌 3에 따르면 대규모 데이터 세트들을 갖는 산업 사물 인터넷 데이터 수집 환경에서의 검출을 위한 방법들 및 시스템들은 산업 환경에서의 모니터링, 원격 제어, 자율 액션, 및 다른 활동을 위해 수집된 데이터를 활용한다.The industrial facility management system according to Patent Document 1 remotely monitors and controls industrial facilities across the country through complex technology and supports optimized operation of industrial facilities and resources through database construction. In addition, according to Patent Document 2, a process management system using middleware capable of tracking process data can save time and cost in building a system, and can acquire data from all devices used in the factory, helping to plan production. Helpful. Additionally, according to Patent Document 3, methods and systems for detection in an industrial Internet of Things data collection environment with large data sets utilize collected data for monitoring, remote control, autonomous action, and other activities in the industrial environment. do.
도 1은 종래기술에 따른 산업현장의 모식도로서, 다수의 설비가 배치된 산업현장 내부에서 각각 고유의 인지 범위를 가지는 이동 로봇(AGV)과 작업자(U)가 각자 맡은 역할을 수행하는 도중에 설비나 기타 구조물 등으로 인해 인지 범위가 제한됨으로 인해 미쳐 상대를 발견하여 회피하는 데에 실패함에 따라 충돌 사고가 발생할 수 있다.Figure 1 is a schematic diagram of an industrial site according to the prior art. Inside an industrial site where a large number of facilities are deployed, a mobile robot (AGV) and a worker (U), each with a unique cognitive range, touch equipment or equipment while performing their respective roles. As the cognitive range is limited due to other structures, etc., collision accidents may occur as a result of failure to detect and avoid the opponent.
그런데, 종래기술이 적용된 산업현장에는 극히 제한된 일부 공간에 대한 촬영을 통해 획득된 영상 확인만이 가능하여서 부주의나 작업 미숙 내지는 시스템 에러 등으로 인해 발생 가능한 각종 안전 사고가 실제가 일어났는지 즉각적으로든 사후적으로든 검출해내기에는 미흡한 측면이 있다. 더욱이, 일단 안전 사고가 발생해버린 경우, 산업현장 내 곳곳에 형성된 사각지대로 인해 해당 안전 사고가 언제 어떤 이유로 얼마나 심하게 일어났는지 규명해내기 쉽지 않을 뿐만 아니라 향후에 동종의 안전 사고의 재발 방지를 위한 일종의 가이드를 제공하지 못한다.However, in industrial sites where conventional technology is applied, it is only possible to check images acquired through filming in a very limited space, so it is not possible to determine immediately or after the fact whether various safety accidents that may occur due to carelessness, poor workmanship, or system errors have actually occurred. However, there are some aspects that are insufficient to detect it. Moreover, once a safety accident has occurred, it is not easy to determine when, why, and how seriously the safety accident occurred due to blind spots formed throughout the industrial site, as well as to prevent recurrence of similar safety accidents in the future. It does not provide any kind of guide.
본 발명은 다양한 각도로 촬영된 2D 영상을 입력하고, 단말기가 통제하는 이동 로봇의 현장 장치에 대한 로그 데이터를 기록하고, 2D 영상을 3D 영상으로 렌더링 변환하고, 동기화된 장치 상태, 뉴럴 렌더링 이미지 모델을 수행하여 이동 로봇과 작업자의 충돌 사고를 예측하고, 방지하는 산업현장 모니터링 시스템을 제공하는 것을 목적으로 한다.The present invention inputs 2D images taken at various angles, records log data about the field device of the mobile robot controlled by the terminal, renders and converts the 2D images into 3D images, synchronized device status, and neural rendering image model. The purpose is to provide an industrial site monitoring system that predicts and prevents collision accidents between mobile robots and workers.
또한, 본 발명은 3D 영상에서 사고 발생을 예측하고, 이동 로봇과 작업자에게 가이드를 제공해서 사고 재발을 방지하는 산업현장 모니터링 시스템을 제공하는 것을 또 다른 목적으로 한다.Another purpose of the present invention is to provide an industrial site monitoring system that predicts the occurrence of accidents in 3D images and provides guidance to mobile robots and workers to prevent recurrence of accidents.
본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허청구범위에 나타난 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood from the following description, and will be more clearly understood by practicing the present invention. In addition, it will be readily apparent that the objects and advantages of the present invention can be realized by means and combinations thereof indicated in the claims.
본 발명의 일 측면에 따른 현장 관리 서버는 산업현장 모니터링 시스템에 포함되는 것으로서, 산업현장에 배치된 복수의 카메라로부터의 2D 영상 및 상기 산업현장에 배치된 1 이상의 이동 로봇으로부터의 로그 데이터 - 상기 로그 데이터는 시간의 흐름에 따른 상기 이동 로봇의 위치, 경로, 방향 및 충돌 레벨을 포함함 - 를 수집하는 데이터 통신부, 상기 2D 영상 및 상기 로그 데이터를 누적 기록하는 데이터 기록부 및 상기 데이터 통신부 및 상기 데이터 기록부에 동작 가능하게 결합되는 프로세서를 포함한다. 상기 프로세서는, 상기 2D 영상 및 상기 로그 데이터를 기초로, 상기 산업현장 내에서의 사고 이벤트의 발생을 검출하고, 상기 사고 이벤트가 발생된 시각 및 위치를 나타내는 사고 설명 정보를 사고 이력으로서 상기 데이터 기록부에 저장하도록 구성된다.The field management server according to one aspect of the present invention is included in an industrial site monitoring system, and includes 2D images from a plurality of cameras deployed at an industrial site and log data from one or more mobile robots deployed at the industrial site - the log Data includes the location, path, direction, and collision level of the mobile robot over time - a data communication unit that collects, a data recording unit that cumulatively records the 2D image and the log data, and the data communication unit and the data recording unit. It includes a processor operably coupled to. The processor detects the occurrence of an accident event in the industrial site based on the 2D image and the log data, and stores accident description information indicating the time and location at which the accident event occurred as an accident history in the data recorder. It is configured to be stored in .
상기 프로세서는, 상기 사고 이벤트의 발생이 검출되는 경우, 상기 사고 이벤트의 사고 설명 정보를 기초로, 상기 2D 영상을 3D 영상으로 렌더링하여 상기 산업현장의 적어도 일부분에 대한 사고 재현 영상을 생성하도록 구성될 수 있다.The processor, when the occurrence of the accident event is detected, renders the 2D image into a 3D image based on the accident description information of the accident event to generate an accident reproduction image for at least a portion of the industrial site. You can.
상기 프로세서는, 상기 사고 이벤트의 사고 설명 정보를 원인 분석 모델에 입력할 수 있다. 상기 원인 분석 모델은 상기 사고 설명 정보를 서로 다른 사고 원인에 맵핑된 복수의 클러스터 중 어느 하나로 분류하도록 미리 학습된 것일 수 있다. 상기 프로세서는, 상기 사고 설명 정보에 대해 상기 원인 분석 모델에 의해 분류된 어느 한 클러스터에 맵핑된 사고 원인에 기 부여된 사고 분류 코드를 상기 사고 이벤트에 맵핑하도록 구성될 수 있다.The processor may input accident description information of the accident event into a cause analysis model. The cause analysis model may be trained in advance to classify the accident explanation information into one of a plurality of clusters mapped to different accident causes. The processor may be configured to map an accident classification code previously assigned to an accident cause mapped to a cluster classified by the cause analysis model with respect to the accident description information to the accident event.
상기 프로세서는, 상기 산업현장의 사고 발생 가능 공간에 대해 가상 분할된 다수의 하위 영역 중에서 상기 사고 이벤트가 발생한 하위 영역의 사고 가이드 정보를 갱신할 수 있다. 상기 프로세서는, 상기 다수의 하위 영역 각각의 사고 가이드 정보를 기초로, 하위 영역별 사고 위험도를 산출하며, 상기 하위 영역별 사고 위험도를 기초로, 하위 영역별로 사고 방지 규칙을 할당할 수 있다.The processor may update accident guide information of a sub-area where the accident event occurred among a plurality of sub-areas virtually divided into a space where an accident may occur in the industrial site. The processor may calculate an accident risk for each sub-area based on accident guide information for each of the plurality of sub-areas, and assign accident prevention rules to each sub-area based on the accident risk for each sub-area.
상기 프로세서는, 상기 로그 데이터를 기초로, 상기 다수의 하위 영역 중 상기 이동 로봇이 현재 위치하는 하위 영역을 식별하고, 상기 식별된 하위 영역에 할당된 사고 방지 규칙에 따라, 상기 이동 로봇을 원격 제어하도록 구성될 수 있다.The processor identifies a sub-area in which the mobile robot is currently located among the plurality of sub-areas based on the log data, and remotely controls the mobile robot according to an accident prevention rule assigned to the identified sub-area. It can be configured to do so.
상기 프로세서는, 상기 다수의 하위 영역 각각의 사고 위험도를, 복수의 구간 중 어느 하나로 등급화하고, 상기 복수의 구간에 일대일 대응하는 복수의 안전 거리 중 어느 하나를 하위 영역별로 설정하고, 상기 식별된 하위 영역으로부터 상기 식별된 하위 영역에 설정된 안전 거리 이내에 다른 이동 로봇이나 작업자가 위치하는 것을 조건으로, 상기 식별된 하위 영역에 할당된 사고 방지 규칙에 따라, 상기 이동 로봇을 원격 제어하도록 구성될 수 있다.The processor grades the accident risk of each of the plurality of sub-areas into one of a plurality of sections, sets one of a plurality of safety distances corresponding one-to-one to the plurality of sections for each sub-area, and sets the identified It may be configured to remotely control the mobile robot from the sub-area according to accident prevention rules assigned to the identified sub-area, provided that another mobile robot or worker is located within a safety distance set in the identified sub-area. .
상기 프로세서는, 상기 데이터 통신부에 의해 수집된 상기 2D 영상 및 상기 산업현장 내에 위치하는 작업자의 통신 단말기로부터 수집된 위치 신호를 기초로, 상기 작업자의 현 위치를 식별하고, 상기 다수의 하위 영역 중 상기 작업자가 현재 위치하는 하위 영역을 식별하고, 상기 식별된 하위 영역에 할당된 사고 방지 규칙에 따라, 상기 작업자의 통신 단말기를 원격 제어하도록 구성될 수 있다.The processor identifies the current location of the worker based on the 2D image collected by the data communication unit and the location signal collected from the worker's communication terminal located within the industrial site, and selects the worker's current location among the plurality of sub-areas. It may be configured to identify the sub-area in which the worker is currently located and remotely control the worker's communication terminal according to accident prevention rules assigned to the identified sub-area.
본 발명의 다른 측면에 따른 현장 관리 방법은 상기 현장 관리 서버에 의해 실행 가능한 것으로서, 상기 산업현장에 배치된 복수의 카메라로부터의 2D 영상 및 상기 산업현장에 배치된 1 이상의 이동 로봇으로부터의 로그 데이터 - 상기 로그 데이터는 시간의 흐름에 따른 상기 이동 로봇의 위치, 경로, 방향 및 충돌 레벨을 포함함 - 를 수집하는 단계, 상기 2D 영상 및 상기 로그 데이터를 누적 기록하는 단계, 상기 2D 영상 및 상기 로그 데이터를 기초로, 상기 산업현장 내에서의 사고 이벤트의 발생을 검출하는 단계 및 상기 사고 이벤트가 발생된 시각 및 위치를 나타내는 사고 설명 정보를 사고 이력으로서 상기 데이터 기록부에 저장하는 단계를 포함한다.A site management method according to another aspect of the present invention is executable by the site management server, and includes 2D images from a plurality of cameras deployed at the industrial site and log data from one or more mobile robots deployed at the industrial site - The log data includes the location, path, direction and collision level of the mobile robot over time - collecting, cumulatively recording the 2D image and the log data, the 2D image and the log data Based on this, it includes detecting the occurrence of an accident event within the industrial site and storing accident description information indicating the time and location at which the accident event occurred in the data recorder as an accident history.
본 발명의 실시예들 중 적어도 하나에 의하면, 다양한 각도로 촬영된 고화질 현장 스냅샷 이미지를 입력하고, 단말기가 통제하는 이동 로봇의 현장 장치에 대한 로그 데이터를 기록하고, 스냅샷 이미지를 3D 영상으로 렌더링 변환하고, 동기화된 장치 상태, 뉴럴 렌더링 이미지 모델을 수행하여 이동 로봇과 작업자의 충돌 사고를 예측하고, 방지함으로써 카메라와 이동 로봇에서 얻은 데이터로 현장의 상태를 정확히 파악하고, 원격으로 자세히 상황을 볼 수 있고, 지속적으로 데이터를 얻음으로써 현재의 상황 뿐만 아니라 미래에 일어날 상황에 대해 대비도 가능한 효과를 가질 수 있다.According to at least one of the embodiments of the present invention, high-definition field snapshot images taken at various angles are input, log data for the field device of the mobile robot controlled by the terminal is recorded, and the snapshot image is converted into a 3D image. By performing rendering conversion, synchronized device status, and neural rendering image model to predict and prevent collision accidents between mobile robots and workers, the status of the site can be accurately identified using data obtained from cameras and mobile robots, and the situation can be monitored in detail remotely. By being able to see and continuously obtain data, you can have the effect of being able to prepare not only for the current situation but also for situations that will occur in the future.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 3D 영상에서 사고 발생을 예측하고, 이동 로봇과 작업자에게 가이드를 제공해서 사고 재발을 방지함으로써 만약 사고사 일어난다면 사고의 정확한 원인 파악과 당시 상황을 정확히 이해할 수 있게 될 것이고, 이로 인해 미래에 같은 사고가 일어나는 것을 방지하고, 3D 디지털 트윈을 이용하여 직원을 상대로 원격 교육을 진행할 수 있고, 현장과 같은 모델을 통한 교육으로 산업현장의 효율성을 높이는 효과를 가질 수 있다.In addition, according to at least one of the embodiments of the present invention, the occurrence of an accident is predicted from a 3D image, and guidance is provided to mobile robots and workers to prevent recurrence of accidents, so that if an accidental death occurs, the exact cause of the accident is identified and the situation at the time is determined. You will be able to understand accurately, thereby preventing similar accidents from occurring in the future, conducting remote training for employees using 3D digital twins, and increasing efficiency in industrial sites through training through models similar to those in the field. You can have
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.
본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술되는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 산업현장에서의 사고 상황을 예시한다.
도 2는 본 발명의 일 실시예에 따른 산업현장 모니터링 시스템의 구성을 개략적으로 나타낸 모식도이다.
도 3은 도 1에 도시된 산업현장 모니터링 시스템이 적용되는 산업현장의 예시적인 내부 모습을 설명하는 데에 참조되는 도면이다.
도 4는 도 3에 도시된 산업현장에서 발생된 사고 상황을 3차원 형태로 재현한 영상을 예시한다.
도 5는 도 2에 도시된 현장 관리 서버의 구성을 예시적으로 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 현장 관리 방법을 예시적으로 설명하기 위한 순서도이다.
도 7은 본 발명의 다른 실시예에 따른 현장 관리 방법을 예시적으로 설명하기 위한 순서도이다.
도 8은 본 발명의 또 다른 실시예에 따른 현장 관리 방법을 예시적으로 설명하기 위한 순서도이다.The following drawings attached to this specification illustrate preferred embodiments of the present invention, and serve to further understand the technical idea of the present invention together with the detailed description of the invention described later, so the present invention includes the matters described in such drawings. It should not be interpreted as limited to only .
Figure 1 illustrates an accident situation at an industrial site.
Figure 2 is a schematic diagram schematically showing the configuration of an industrial site monitoring system according to an embodiment of the present invention.
FIG. 3 is a diagram referenced to explain an exemplary internal appearance of an industrial site to which the industrial site monitoring system shown in FIG. 1 is applied.
Figure 4 illustrates an image that reproduces the accident situation that occurred at the industrial site shown in Figure 3 in three-dimensional form.
FIG. 5 is a diagram illustrating the configuration of the field management server shown in FIG. 2.
Figure 6 is a flowchart illustrating an on-site management method according to an embodiment of the present invention.
Figure 7 is a flowchart illustrating an on-site management method according to another embodiment of the present invention.
Figure 8 is a flowchart illustrating an on-site management method according to another embodiment of the present invention.
본 발명의 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 명세서에 첨부된 도면에 의거한 이하의 상세한 설명에 의해 보다 명확하게 이해될 것이다. 첨부된 도면을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다.Details regarding the purpose and technical configuration of the present invention and its operational effects will be more clearly understood by the following detailed description based on the drawings attached to the specification of the present invention. Embodiments according to the present invention will be described in detail with reference to the attached drawings.
본 명세서에서 개시되는 실시예들은 본 발명의 범위를 한정하는 것으로 해석되거나 이용되지 않아야 할 것이다. 이 분야의 통상의 기술자에게 본 명세서의 실시예를 포함한 설명은 다양한 응용을 갖는다는 것이 당연하다. 따라서, 본 발명의 상세한 설명에 기재된 임의의 실시예들은 본 발명을 보다 잘 설명하기 위한 예시적인 것이며 본 발명의 범위가 실시예들로 한정되는 것을 의도하지 않는다.The embodiments disclosed herein should not be construed or used as limiting the scope of the present invention. It is obvious to those skilled in the art that the description, including embodiments, of this specification has various applications. Accordingly, any embodiments described in the detailed description of the present invention are illustrative to better explain the present invention and are not intended to limit the scope of the present invention to the embodiments.
도면에 표시되고 아래에 설명되는 기능 블록들은 가능한 구현의 예들일 뿐이다. 다른 구현들에서는 상세한 설명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능 블록들이 사용될 수 있다. 또한, 본 발명의 하나 이상의 기능 블록이 개별 블록들로 표시되지만, 본 발명의 기능 블록들 중 하나 이상은 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합일 수 있다.The functional blocks shown in the drawings and described below are only examples of possible implementations. Other functional blocks may be used in other implementations without departing from the spirit and scope of the detailed description. Additionally, although one or more functional blocks of the present invention are shown as individual blocks, one or more of the functional blocks of the present invention may be a combination of various hardware and software components that perform the same function.
제1, 제2 등과 같이 서수를 포함하는 용어들은, 다양한 구성요소들 중 어느 하나를 나머지와 구별하는 목적으로 사용되는 것이고, 그러한 용어들에 의해 구성요소들을 한정하기 위해 사용되는 것은 아니다.Terms containing ordinal numbers, such as first, second, etc., are used for the purpose of distinguishing one of the various components from the rest, and are not used to limit the components by such terms.
또한, 어떤 구성요소들을 포함한다는 표현은 "개방형"의 표현으로서 해당 구성요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성요소들을 배제하는 것으로 이해되어서는 안 된다.In addition, the expression including certain components is an “open” expression and simply refers to the presence of the corresponding components, and should not be understood as excluding additional components.
나아가 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급될 때에는, 그 다른 구성요소에 직접적으로 연결 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다.Furthermore, when a component is referred to as being “connected” or “connected” to another component, it should be understood that although it may be directly connected or connected to the other component, other components may exist in between. do.
도 2는 본 발명의 일 실시예에 따른 산업현장 모니터링 시스템의 구성을 개략적으로 나타낸 모식도이다.Figure 2 is a schematic diagram schematically showing the configuration of an industrial site monitoring system according to an embodiment of the present invention.
도 2를 참조하면, 산업현장 모니터링 시스템(100)은, 카메라(C), 이동 로봇(AGV), 현장 관리 서버(200) 및 통신 단말기(T)를 포함한다. 여기서, 카메라(C), 이동 로봇(AGV) 및 통신 단말기(T)는 각각 다수일 수 있다.Referring to FIG. 2, the industrial site monitoring system 100 includes a camera (C), a mobile robot (AGV), a site management server 200, and a communication terminal (T). Here, there may be multiple cameras (C), mobile robots (AGV), and communication terminals (T).
산업현장에는 다수의 설비(E)가 정해진 위치에 배치되며, 산업현장의 건물 구조물과 다수의 설비(E)에 의해 정의되는 통로 등의 작업 공간을 통해 이동 로봇(AGV)과 작업자(U)(64)가 이동하면서 산업현장의 목적에 부합하는 공정, 임무 또는 작업이 이루어진다.In industrial sites, multiple facilities (E) are placed at designated locations, and mobile robots (AGVs) and workers (U) ( As 64) moves, processes, tasks, or tasks that meet the purpose of the industrial site are carried out.
카메라(C)는 단안 카메라, 스테레오 카메라, 적외선 카메라 또는 CCTV 중 하나 또는 둘 이상의 조합이 이용될 수 있다. The camera C may be one or a combination of two or more of a monocular camera, a stereo camera, an infrared camera, or a CCTV.
각 이동 로봇(AGV)은 무인 운반차, 모바일 로봇 또는 AGV(Automated Guided Vehicle)이라고 칭해질 수 있다. 이동 로봇(AGV)은 자체적인 주행 기능을 제공하는 구동부(예, 전기 모터와 휠), 통신 회로, 적어도 1종의 공간 인식 센서 및 상황 감지 센서(예, 충격 센서, 속도계, 자이로스코프, GPS 모듈)를 포함하고, 완전 자율 주행, 부분 자율 주행 또는 완전 통제 주행을 통해 자신에게 할당된 임무(작업)를 수행하도록 제공된다.Each mobile robot (AGV) may be referred to as an automated guided vehicle, a mobile robot, or an automated guided vehicle (AGV). A mobile robot (AGV) includes a driving unit that provides its own driving functions (e.g., electric motors and wheels), a communication circuit, and at least one type of spatial awareness sensor and situation detection sensor (e.g., shock sensor, speedometer, gyroscope, GPS module). ), and is provided to perform tasks (tasks) assigned to it through fully autonomous driving, partially autonomous driving, or fully controlled driving.
현장 관리 서버(200)는 산업현장의 내부나 외부에 구비되어 다수의 카메라(C) 및 이동 로봇(AGV)과 유무선 통신 네트워크를 통해 상호 작용할 수 있도록 제공된다.The field management server 200 is installed inside or outside the industrial site and is provided to interact with multiple cameras (C) and mobile robots (AGV) through a wired or wireless communication network.
현장 관리 서버(200)는 산업현장 내부의 곳곳에 위치하는 다수의 카메라(C) 및 이동 로봇(AGV)의 동작을 원격으로 제어할 수 있고, 카메라(C)별로 획득되는 2D 영상과 이동 로봇(AGV)의 동작 상태를 나타내는 로그 데이터를 수집할 수 있다. 현장 관리 서버(200)는 수집된 데이터를 그 자체에 마련된 저장소(222)나 외부의 클라우드에 보관할 수 있다. 클라우드 저장소는 현장 관리 서버(200)로부터 전달받은 로그 데이터를 이용하여 현장 관리 서버(200)의 동작 이상을 모니터링하고, 현장 관리 서버(200)가 이상 동작하지 않도록 이상 발생에 대응한다. 로그 데이터는 이동 로봇(AGV)의 위치, 충돌 레벨, 이동 경로, 속도, 가속도, 방향, 자세, 2D 영상(이동 로봇에 의해 취득된 것)을 포함한다.The field management server 200 can remotely control the operation of multiple cameras (C) and mobile robots (AGV) located throughout the industrial site, and displays 2D images acquired for each camera (C) and mobile robots (C). Log data indicating the operating status of the AGV can be collected. The field management server 200 may store the collected data in its
현장 관리 서버(200)는 카메라(C)로 촬영된 2D 영상을 3D 영상으로 변환할 수 있다. 이때, 2D 영상으로부터 3D 영상으로의 변환에는, Instant NeRF 등과 같은 인공지능 기반의 렌더링 알고리즘이 이용될 수 있다. The field management server 200 can convert the 2D image captured by the camera C into a 3D image. At this time, an artificial intelligence-based rendering algorithm such as Instant NeRF may be used to convert a 2D image into a 3D image.
현장 관리 서버(200)는 2D 영상, 3D 영상 및 로그 데이터 중 적어도 하나를 기초로 산업현장 내의 사고 발생 여부 및/또는 사고 발생 가능성을 연산할 수 있고, 나아가서는 이동 로봇(AGV) 및 작업자(U) 중 적어도 하나를 대상으로 사고 발생 방지를 위한 가이드나 원격 제어를 실시할 수도 있다. 또한, 현장 관리 서버(200)는 부득이 안전 사고가 실제로 발생한 경우에는, 해당 사고의 발생 시각과 원인을 자동 파악하고, 동종 사고의 재발 방지 대책을 수립한 다음, 그 결과를 작업자(U)가 확인 가능한 형태로 반환할 수 있다.The site management server 200 can calculate whether and/or the possibility of an accident occurring in an industrial site based on at least one of 2D images, 3D images, and log data, and further calculates the probability of an accident occurring at an industrial site, and further calculates the likelihood of an accident occurring at an industrial site based on at least one of 2D images, 3D images, and log data. ), guidance or remote control may be provided to prevent accidents from occurring for at least one of the following. In addition, if a safety accident actually occurs unavoidably, the field management server 200 automatically determines the time and cause of the accident, establishes measures to prevent recurrence of the same accident, and then has the worker (U) confirm the results. It can be returned in any possible form.
일 예로, 현장 관리 서버(200)는 이동 로봇(AGV)에서 수집된 로그 데이터가 일정 레벨 이상의 충돌 레벨을 포함하는 경우, 해당 충돌 레벨의 시간 코드를 기초로 사고 발생 시각을 식별(추정)할 수 있으며, 사고 발생 시각을 포함하는 시간 구간에 걸쳐 촬영된 2D 영상을 특정하여 3D 영상으로 변환할 수 있다. 이때, 상기 시간 구간의 길이는, 충돌 레벨의 크기에 비례하도록 설정될 수 있다. 즉, 충돌 레벨이 크가는 것은 사고의 심각성이 높다는 것을 의미하므로, 심한 충돌이 발생한 것으로 파악되는 경우에는 그 사고의 전후 상황을 정밀하게 파악하기 위한 일환으로서 3D 영상을 확보하고자 하는 시간 구간의 길이를 그만큼 증가시키는 것이다.As an example, when log data collected from a mobile robot (AGV) includes a collision level above a certain level, the field management server 200 can identify (estimate) the time of accident based on the time code of the collision level. In addition, 2D images captured over a time period including the time of the accident can be identified and converted into 3D images. At this time, the length of the time section may be set to be proportional to the size of the collision level. In other words, an increasing collision level means that the severity of the accident is increasing, so if it is determined that a severe collision has occurred, the length of the time section for which 3D images are to be secured is determined as part of a detailed understanding of the circumstances before and after the accident. It increases that much.
물론, 현장 관리 서버(200)는 2D 영상 또는 3D 영상에 대한 객체 인식 알고리즘의 적용을 통해 로그 데이터 없이도 이동 로봇(AGV) 간, 이동 로봇(AGV)과 작업자(U) 간, 이동 로봇(AGV)과 시설(E) 간 또는 작업자(U) 간의 사고가 언제 어느 위치에서 얼마나 큰 세기로 발생하였는지 검출 및 기록할 수도 있다. Of course, the on-site management server 200 applies object recognition algorithms to 2D images or 3D images to enable recognition between mobile robots (AGVs), between mobile robots (AGVs) and workers (U), and between mobile robots (AGVs) without log data. It is also possible to detect and record when, where, and with what severity an accident occurred between the user and the facility (E) or between the worker (U).
현장 관리 서버(200)는 산업현장 내에서의 사고 발생 여부와는 무관하게 카메라(C)별로 수집되는 2D 영상을 실시간 또는 준실시간적으로 3D 영상으로 변환할 수 있으며, 이로써 산업현장에 대한 디지털 트윈이 생성될 수 있다. The field management server 200 can convert 2D images collected by each camera (C) into 3D images in real time or near real time, regardless of whether an accident occurs within the industrial site, thereby creating a digital twin for the industrial site. This can be created.
3D 영상 포맷을 가진 디지털 트윈은 다수의 카메라(C)에 의해 촬영되는 산업현장의 전체 또는 적어도 일부분을 실시간 또는 준실시간으로 시각화한 것이거나, 1 이상의 카메라(C)에 의해 촬영되는 산업현장의 일부분만을 실시간 또는 준실시간으로 시각화한 것일 수 있다.A digital twin with a 3D video format is a real-time or near-real-time visualization of the entire or at least part of an industrial site captured by multiple cameras (C), or a portion of an industrial site captured by one or more cameras (C). It may be visualized in real time or near real time.
현장 관리 서버(200)는 상기 시간 구간 즉, 사고 발생 시간대에서의 3D 영상 구간을 사고 재현 영상으로서 별도로 관리할 수도 있다. 이러한 사고 재현 영상은 3D 형태로 렌더링된 것인바, 작업자(U)의 통신 단말기(T)(예, AR 글라스, 헤드 마운트 디스플레이, 스마트폰, 퍼스널 컴퓨터 등)에서 반복 재생은 물론 터치 조작이나 제스쳐 등을 통해 각도 전환/확대/축소된 뷰로 표시 가능하다.The on-site management server 200 may separately manage the above-mentioned time section, that is, the 3D image section in the accident occurrence time zone, as an accident reproduction image. This accident reproduction video is rendered in 3D form, and can be played repeatedly on the worker's (U) communication terminal (T) (e.g., AR glasses, head-mounted display, smartphone, personal computer, etc.) as well as through touch operations or gestures. It can be displayed as an angle-switched/enlarged/reduced view.
한편, 산업현장은 전술된 바와 같이 다수의 설비(E)이 배치되어 이동 로봇(AGV)과 작업자(U)의 이동이 불가한 공간과 그 외의 나머지 공간 즉, 이동 로봇(AGV)과 작업자(U)의 이동이 가능한 공간으로 구분될 수 있다. 이동 로봇(AGV)과 작업자(U)의 이동이 가능한 공간은 사고 발생 가능 공간으로 현장 관리 서버(200)에 설정될 수 있고, 사고 발생 가능 공간만을 대상으로 모니터링함으로써 한정된 하드웨어 및 소프트웨어 자원을 효율적으로 운용할 수 있다.On the other hand, in industrial sites, as described above, a large number of facilities (E) are placed so that the mobile robot (AGV) and the worker (U) cannot move, and the remaining space, that is, the mobile robot (AGV) and the worker (U) ) can be divided into spaces where movement is possible. The space where the mobile robot (AGV) and the worker (U) can move can be set in the field management server 200 as a space where accidents can occur, and limited hardware and software resources can be used efficiently by monitoring only the spaces where accidents can occur. It can be operated.
사고 발생 가능 공간을 정의하는 버드 뷰(탑뷰)가 사전 제작되어 현장 관리 서버(200)에 저장될 수 있다. 이러한 버드 뷰의 대상 영역은 격자 등과 같은 소정 사이즈의 다수의 하위 영역으로 가상 분할될 수 있고, 각 하위 영역에는 고유의 식별 코드가 미리 부여될 수 있다. 만약 어떠한 사고가 산업현장 내에서 발생한 경우, 현장 관리 서버(200)는 해당 사고가 발생한 각 하위 영역의 식별 코드에 해당 사고의 사고 가이드 정보를 맵핑하여 저장할 수 있다. 이로써, 산업현장의 어느 위치에서 어느 시간대에 어떤 유형의 사고가 빈번히 발생하는지를 나타내는 사고 이력이 정밀하게 누적 관리될 수 있고, 사고 유형별 발생 가능성을 예측할 수 있을 뿐만 아니라 사고 유형별 방지 대책의 수립이 가능하다. 또한, 작업자(U)의 통신 단말기(T)로부터 특정 유형의 사고 이력이 요청되는 경우, 해당 유형에 대응하는 것으로 기록된 사고 이력만을 선별하여 즉각적으로 피드백 가능하다는 장점 또는 있다.A bird view (top view) defining a space where an accident can occur may be pre-produced and stored in the field management server 200. The target area of this bird view can be virtually divided into a number of sub-areas of a predetermined size, such as a grid, and each sub-area can be assigned a unique identification code in advance. If an accident occurs within an industrial site, the site management server 200 can map and store the accident guide information for the accident to the identification code of each sub-area where the accident occurred. As a result, accident history, which indicates which types of accidents frequently occur at which locations and at what times in industrial sites, can be precisely accumulated and managed, and not only can the probability of occurrence by accident type be predicted, but it is also possible to establish prevention measures for each accident type. . In addition, when a specific type of accident history is requested from the worker's (U) communication terminal (T), there is an advantage that only the recorded accident history corresponding to the corresponding type can be selected and immediate feedback is possible.
현장 관리 서버(200)는 사고 이벤트, 가이드를 포함하는 과거 사고 이력 정보를 기초로 이동 로봇(AGV)의 현 동작 상태에 따른 사고 가능성을 예측하고, 사고 가능성이 높을 경우(일정 임계치를 초과할 경우) 이동 로봇(AGV)이 안전하게 사고를 회피하도록 원격 제어할 수 있다. 현장 관리 서버(200)는 그에 의해 원격 통제 가능한 이동 로봇(AGV)의 사고 가능성을 모니터링하고, 사고 가능성이 높을 경우(일정 임계치를 초과할 경우) 현장 관리 서버(200)에 이동 로봇(AGV)의 원격 제어를 명령할 수 있다.The field management server 200 predicts the possibility of an accident according to the current operating state of the mobile robot (AGV) based on past accident history information including accident events and guides, and when the possibility of an accident is high (when it exceeds a certain threshold) ) Mobile robots (AGVs) can be remotely controlled to safely avoid accidents. The field management server 200 monitors the possibility of an accident of the remotely controllable mobile robot (AGV), and if the possibility of an accident is high (exceeds a certain threshold), the field management server 200 reports the possibility of an accident of the mobile robot (AGV) that can be remotely controlled. You can command remote control.
현장 관리 서버(200)에 의해 수집된 로그 데이터는 사고 당시는 물론 사고 전 일정 시간과 사고 후 일정 시간에 걸친 이동 로봇(AGV)의 동작과 주변 상황을 직간접적으로 설명하고 있다. 예를 들어, 사고 유형이 설비(E)에 의한 사각 지대에 해당하는 통로의 코너 부근에서의 이동 로봇(AGV)과 작업자(U) 간의 충돌이라면, 이동 로봇(AGV)이 코너로 인한 사각 지대를 확인하지 못하여 속도를 미리 감소시키지 못한 것이 사고 원인으로 식별된다. 이동 로봇(AGV)의 관점에서의 산업현장 내의 사각 지대란, 이동 로봇(AGV) 자체에 구비된 센서들(예, 카메라(C), 라이다, 레이더, 초음파 센서 등)의 본래 센싱 범위가 산업현장의 설비(E)나 기타 장애물 등으로 인해 제한(차단)되는 영역 내지는 공간을 의미한다.The log data collected by the on-site management server 200 directly or indirectly describes the operation and surrounding situation of the mobile robot (AGV) not only at the time of the accident, but also for a certain period of time before and after the accident. For example, if the accident type is a collision between a mobile robot (AGV) and a worker (U) near a corner of an aisle that corresponds to a blind spot caused by equipment (E), the mobile robot (AGV) avoids the blind spot caused by the corner. Failure to check and reduce speed in advance is identified as the cause of the accident. A blind spot in an industrial site from the perspective of a mobile robot (AGV) refers to the original sensing range of the sensors (e.g. camera (C), lidar, radar, ultrasonic sensor, etc.) installed on the mobile robot (AGV) itself. It refers to an area or space that is restricted (blocked) by on-site facilities (E) or other obstacles.
현장 관리 서버(200)의 주요 기능은 크게 사고 재현 기능, 사고 원인 식별 기능 및 사고 방지 기능을 포함하며, 각 기능에 대해서는 이하에서 도면들을 참고하여 보다 상세히 설명하기로 한다.The main functions of the field management server 200 largely include an accident reproduction function, an accident cause identification function, and an accident prevention function, and each function will be described in more detail with reference to the drawings below.
도 3은 도 1에 도시된 산업현장 모니터링 시스템이 적용되는 산업현장의 예시적인 내부 모습을 설명하는 데에 참조되는 도면이다.FIG. 3 is a diagram referenced to explain an exemplary internal appearance of an industrial site to which the industrial site monitoring system shown in FIG. 1 is applied.
도 3을 참조하면, 산업현장에는 다수의 설비(E)가 미리 정해진 위치에 자리잡고 있다. 4개의 카메라(C)가 산업현장 내의 서로 다른 위치에 설치되어, 각각 고유의 촬영 범위에 대한 2D 영상을 생성한다. 설명의 편의를 위해, 이동 로봇(AGV)과 작업자(U)가 각각 하나씩 도시하였다. 도 1과 비교할 때 도 3에서는 카메라(C)가 다수 배치되어 있으며, 이로써 산업현장 내에서 사고 발생이 가능한 공간이 빠짐없이 영상물로 기록될 수 있다.Referring to Figure 3, in an industrial site, a number of facilities (E) are located at predetermined locations. Four cameras (C) are installed at different locations within the industrial site, each generating 2D images for a unique shooting range. For convenience of explanation, one mobile robot (AGV) and one worker (U) are shown. Compared to FIG. 1, in FIG. 3, a large number of cameras (C) are arranged, so that all spaces where accidents can occur within an industrial site can be recorded as video.
4개의 카메라(C)에 의해 이동 로봇(AGV)과 작업자(U) 각각의 이동 경로, 위치, 방향 등이 촬영되고, 현장 관리 서버(200)는 카메라(C)별로 취득되는 2D 영상을 처리(예, 작업자(U)와 로봇을 객체로 검출)하여 이동 로봇(AGV)과 작업자(U)의 충돌 사고 시점은 물론 사고 전후의 시간대에서의 산업현장 내 물리적 상황을 인식할 수 있다. The movement path, location, and direction of each mobile robot (AGV) and worker (U) are captured by four cameras (C), and the field management server 200 processes the 2D images acquired for each camera (C) ( For example, by detecting the worker (U) and the robot as objects, it is possible to recognize the time of the collision accident between the mobile robot (AGV) and the worker (U), as well as the physical situation in the industrial site in the time period before and after the accident.
충돌 사고 직전에 이동 로봇(AGV)은 이동 로봇(AGV) 자체의 제한적인 센싱 범위로 인해 반대편 코너 근처에서 접근하는 작업자(U)나 다른 이동 로봇(AGV)을 감지하기 어려워서 계속 이동한다. 충돌 사고의 가능성에도 불구하고 이동 로봇(AGV)의 사각지대로 인해 이동 로봇(AGV)이 계속 코너를 향하여 이동함으로 인해 코너 근처에서 이동 로봇(AGV)가 작업자(U)와 충돌하는 사고가 발생할 수 있다.Just before a collision, the AGV continues to move because it is difficult to detect a worker (U) or another AGV approaching near the opposite corner due to the limited sensing range of the AGV itself. Despite the possibility of a collision accident, the AGV continues to move toward the corner due to the blind spot of the AGV, which may cause an accident where the AGV collides with the worker (U) near the corner. there is.
도 4는 도 3에 도시된 산업현장에서 발생된 사고 상황을 3차원 형태로 재현한 영상을 예시한다.Figure 4 illustrates an image that reproduces the accident situation that occurred at the industrial site shown in Figure 3 in three-dimensional form.
도 4를 참조하면, 현장 관리 서버(200)는 2D 영상을 3D 영상으로 변환할 수 있으며, 도 3의 하단 상황과 같이 이동 로봇(AGV)이 설비(E) 사이를 이동하는 중 코너 근처에서 이동 로봇(AGV)과 작업자(U)간에 충돌 사고가 발생한 상황을 보여주고 있다. Referring to FIG. 4, the field management server 200 can convert a 2D image into a 3D image, and as in the bottom situation of FIG. 3, a mobile robot (AGV) moves near a corner while moving between facilities (E). It shows a situation where a collision accident occurred between a robot (AGV) and a worker (U).
본 발명에 따른 산업현장 모니터링 시스템(100)은 산업현장의 전체 공간 중에서 사고가 발생한 영역에 대한 3D 영상만을 특정적으로 추출할 수 있고, 향후에 동종의 사고 발생을 방지하기 위한 목적으로, 특정 유형의 사고 가능성이 임계치를 초과하는 경우에는 이동 로봇(AGV)과 작업자(U) 중 적어도 하나에게 가이드를 제공해서 사고 재발을 방지한다.The industrial site monitoring system 100 according to the present invention is capable of specifically extracting only the 3D image of the area where the accident occurred out of the entire space of the industrial site, and for the purpose of preventing the occurrence of the same type of accident in the future, If the possibility of an accident exceeds the threshold, guidance is provided to at least one of the mobile robot (AGV) and the worker (U) to prevent recurrence of the accident.
현장 관리 서버(200)는 카메라(C)별로 취득되는 2D 영상 대신 그를 변환하여 얻은 3D 영상을 처리(예, 작업자(U)와 로봇을 객체로 검출)하여 이동 로봇(AGV)과 작업자(U)의 충돌 사고 시점은 물론 사고 전후의 시간대에서의 산업현장 내 물리적 상황을 인식할 수도 있다.The field management server 200 processes the 3D image obtained by converting the 2D image obtained for each camera (C) (e.g., detects the worker (U) and the robot as objects) to identify the mobile robot (AGV) and the worker (U). It is possible to recognize the physical situation within the industrial site at the time of the collision as well as before and after the accident.
도 5는 도 2에 도시된 현장 관리 서버(200)의 구성을 예시적으로 나타낸 도면이다.FIG. 5 is a diagram illustrating the configuration of the field management server 200 shown in FIG. 2.
도 5를 참조하면, 현장 관리 서버(200)는 데이터 통신부(210) 및 컨트롤러(220)를 포함한다.Referring to FIG. 5, the field management server 200 includes a data communication unit 210 and a
데이터 통신부(210)는 2 이상의 카메라(C)에 의해 다양한 각도(촬영 범위)로 촬영된 2D 영상(예, 스냅샷 이미지)을 입력받는다. 이때, 카메라(C)로부터 수집되는 2D 영상은 일정 레벨 이상의 해상도를 갖는 고화질 영상일 수 있다.The data communication unit 210 receives 2D images (eg, snapshot images) captured at various angles (capturing ranges) by two or more cameras (C). At this time, the 2D image collected from the camera C may be a high-definition image with a resolution of a certain level or higher.
컨트롤러(220)는, 입출력 인터페이스(221), 데이터 기록부(222) 및 프로세서(223)와, 이들을 통신 가능하도록 접속하는 데이터 버스(224)(134)를 포함한다.The
입출력 인터페이스(221)는, 데이터 통신부(210)로부터 수집된 산업현장의 센싱 정보를 데이터 버스(224)를 통해 데이터 기록부(222) 및/또는 프로세서(223)에 전달하고, 프로세서(223)가 후술된 방법들을 실행함으로써 생성된 신호, 데이터, 정보 및/또는 명령을 입출력 인터페이스(221)에 전달한다. The input/
데이터 기록부(222)는 하드웨어적으로 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory) 중 적어도 하나 또는 둘 이상의 타입의 저장매체를 포함할 수 있다. 데이터 기록부(222)는 후술된 현장 관리 방법을 실행하는 명령어가 기록된 컴퓨터 프로그램이 저장된 저장매체를 포함할 수 있다.The
데이터 기록부(222)는, 본 발명에 따른 산업현장 관리에 요구되는 학습 모델, 컴퓨터 프로그램 및/또는 데이터를 저장하고 있다. 또한, 데이터 기록부(222)는 카메라(C) 별 2D 영상은 물론 자율 주행하거나 또는 현장 관리 서버(200)에 의해 통제되는 이동 로봇(AGV)으로부터 수집된 로그 데이터를 기록한다. 또한, 데이터 기록부(222)는 데이터 통신부(210)에 의해 수집되는 작업자(U)별 통신 단말기(T)의 위치 신호를 비롯한 로그 데이터 역시도 기록할 수 있다.The
프로세서(223)는, 입출력 인터페이스(221) 및 데이터 기록부(222)에 동작 가능하게 결합되어, 현장 관리 서버(200)의 전체적인 동작을 제어한다. 프로세서(223)는 하드웨어적으로, ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 마이크로 프로세서(223)(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 포함할 수 있다.The
프로세서(223)는 기능 블록으로서 주 제어부(231), 원인 분석부(232) 및 사고 방지부(233)를 포함할 수 있다.The
주 제어부(231)는 2D 영상을 3D 영상으로 변환할 뿐만 아니라, 카메라(C) 및 이동 로봇(AGV)의 시간 기준을 동기화한다. 아울러, 주 제어부(231)는 사고 재현 영상을 추출하고, 사고 발생 시마다 데이터 기록부(222)에 기록된 사고 이력을 갱신할 수 있다.The
원인 분석부(232)는 로그 데이터, 2D 영상 및 3D 영상 중 적어도 하나를 기초로, 이동 로봇(AGV) 및/또는 작업자(U)에게 발생된 유형별 사고(사고 이벤트)의 발생 여부 및/또는 가능성을 판단하고, 기 발생된 사고 이벤트의 원인을 추정(식별)할 수 있다.The
사고 방지부(233)는 산업현장 내에서 과거에 발생된 사고(들)의 이력 정보를 토대로 향후에 발생 가능한 사고를 미연에 방지하기 위한 선제적인 가이드(안전 조치)를 이동 로봇(AGV)과 작업자(U) 중 적어도 하나에게 제공할 수 있다.The accident prevention department (233) provides preemptive guidance (safety measures) to mobile robots (AGVs) and workers to prevent accidents that may occur in the future based on history information of past accident(s) within the industrial site. It can be provided to at least one of (U).
도 6은 본 발명의 일 실시예에 따른 현장 관리 방법을 예시적으로 설명하기 위한 순서도이다. 도 6의 방법은 현장 관리 서버(200)의 사고 재현 기능의 실행을 위한 것일 수 있다. 도 6의 방법의 각 단계는 프로세서(223)에 의해 실행될 수 있다.Figure 6 is a flowchart illustrating an on-site management method according to an embodiment of the present invention. The method of FIG. 6 may be for executing the accident reproduction function of the field management server 200. Each step of the method of FIG. 6 may be executed by the
도 6을 참조하면, 단계 S610에서, 현장 관리 서버(200)는 산업현장에 대한 센싱 정보를 수집한다. 수집된 센싱 정보는 현장 관리 서버(200) 내부 및/또는 외부에 구비된 저장소에 기록될 수 있다. 여기서, 센싱 정보는, 기본적으로 카메라(C) 별 2D 영상을 포함하고, 이동 로봇(AGV) 별 로그 데이터 및/또는 통신 단말기(T) 별 로그 데이터를 더 포함할 수 있다.Referring to FIG. 6, in step S610, the site management server 200 collects sensing information about the industrial site. The collected sensing information may be recorded in a storage provided inside and/or outside the field management server 200. Here, the sensing information basically includes 2D images for each camera (C) and may further include log data for each mobile robot (AGV) and/or log data for each communication terminal (T).
단계 S620에서, 현장 관리 서버(200)는 센싱 정보를 기초로, 산업현장 내의 사고 발생 여부를 판정한다. 단계 S620의 값이 "예"인 경우, 도 6의 방법은 단계 S630으로 진행한다.In step S620, the site management server 200 determines whether an accident has occurred in the industrial site based on the sensing information. If the value of step S620 is “Yes,” the method of FIG. 6 proceeds to step S630.
단계 S630에서, 현장 관리 서버(200)는 센싱 정보로부터 사고 설명 정보를 추출한다. 사고 설명 정보는, 단계 S620에 발생한 것으로 판정된 사고의 대상, 시각, 위치, 세기(예, 충돌 세기), 타입(예, 이동 로봇(AGV) 단독 사고, 작업자(U) 단독 사고, 이동 로봇(AGV) 간의 사고 등) 등을 나타내는 정보일 수 있다.In step S630, the field management server 200 extracts accident description information from the sensing information. The accident description information includes the object, time, location, intensity (e.g., collision intensity), and type (e.g., mobile robot (AGV)-only accident, operator (U)-only accident, mobile robot ( This may be information indicating accidents between AGVs, etc.
단계 S640에서, 현장 관리 서버(200)는 사고 설명 정보를 기초로, 사고 재현 영상을 생성한다. 구체적으로, 현장 관리 서버(200)는 사고 설명 정보가 나타내는 사고 시각에 대응하는 2D 영상 구간을 특정한 다음, 특정된 2D 영상을 3D 영상으로 변환한다. 추가적으로, 3D 영상에서 사고 위치에 대응하는 부분을 추출함으로써 사고 재현 영상의 생성이 완료될 수 있다.In step S640, the field management server 200 generates an accident reproduction image based on the accident description information. Specifically, the on-site management server 200 specifies the 2D image section corresponding to the accident time indicated by the accident description information, and then converts the specified 2D image into a 3D image. Additionally, the creation of an accident reproduction image can be completed by extracting the part corresponding to the accident location from the 3D image.
단계 S650에서, 현장 관리 서버(200)는 단계 S620에 발생한 것으로 판정된 사고의 사고 설명 정보를 이용하여 산업현장에서의 사고 이력을 갱신한다.In step S650, the field management server 200 updates the accident history at the industrial site using the accident description information of the accident determined to have occurred in step S620.
도 6에서는 단계 S650이 단계 S640에 후행하는 것으로 도시되어 있으나, 이는 하나의 예시에 불과하며, 단계 S640이 단계 S650보다 후행하거나 두 단계 중 어느 하나가 실행 중에 다른 하나가 병렬적으로 실행될 수도 있다.In FIG. 6, step S650 is shown to follow step S640, but this is only an example, and step S640 may follow step S650, or one of the two steps may be executed in parallel while the other is executed.
도 7은 본 발명의 다른 실시예에 따른 현장 관리 방법을 예시적으로 설명하기 위한 순서도이다. 도 7의 방법은 현장 관리 서버(200)의 사고 원인 식별 기능의 실행을 위한 것일 수 있다. 도 7의 방법의 각 단계는 프로세서(223)에 의해 실행될 수 있다.Figure 7 is a flowchart illustrating an on-site management method according to another embodiment of the present invention. The method of FIG. 7 may be for executing the accident cause identification function of the field management server 200. Each step of the method of FIG. 7 may be executed by the
도 7을 참조하면, 단계 S710에서, 현장 관리 서버(200)는 데이터 기록부(222)에 저장된 사고 이력에 정렬된 사고 이벤트 목록 중에서 원인 식별 대상을 설정한다. 예컨대, 현장 관리 서버(200)는 산업현장 내에서 과거에 발생한 바 있는 사고들을 소정 기준(예, 발생 시각)에 따라 리스트화하여 작업자(U)의 통신 단말기(T)에 제공할 수 있고, 작업자(U)거 사고 리스트에서 특정 사고를 선택하면, 통신 단말기(T)은 선택된 특정 사고를 원인 식별 대상으로 현장 관리 서버(200)에 통지할 수 있다.Referring to FIG. 7, in step S710, the field management server 200 sets a cause identification target from the accident event list sorted in the accident history stored in the
단계 S720에서, 현장 관리 서버(200)는 단계 S710에서 원인 식별 대상으로 설정된 사고 이벤트의 사고 설명 정보를 데이터 기록부(222)로부터 획득한다.In step S720, the field management server 200 obtains accident description information of the accident event set as the cause identification target in step S710 from the
단계 S730에서, 현장 관리 서버(200)는 단계 S720에서 획득된 사고 설명 정보(추가적으로 2D 영상 또는 3D 영상이 함께 활용될 수 있음)를 원인 분석 모델에 입력하여, 원인 분석 모델로부터 원인 식별 대상이 되는 사고 이벤트의 사고 원인을 식별할 수 있다. 여기서, 원인 분석 모델은, 대량의 학습 데이터 셋을 통해 사전 학습된 딥러닝 모델일 수 있고, 서로 다른 사고 원인에 맵핑된 복수의 클러스터를 가지며, 어떤 사고 설명 정보가 입력 데이터로 수신되는 경우, 해당 입력 데이터를 상기 복수의 클러스터 중에서 어느 한 클러스터로 분류한다. 현장 관리 서버(200)는 원인 분석 모델의 동작에 의해 분류된 어느 한 클러스터에 맵핑된 사고 원인을 단계 S720에서 획득된 사고 설명 정보에 대한 정답으로서 출력하는 것이다. 일 예로, 사고 설명 정보가 (i)특정 이동 로봇(AGV)이 특정 시각에 코너 부근에서 임계치 이상의 충돌을 센싱한 것, (ii)동일 시각에 동기화된 2D 영상에서 작업자(U)와 특정 이동 로봇(AGV)이 소정 거리 내에 위치하는 것으로 객체 인식되는 것 및 (iii)작업자(U)와 특정 이동 로봇(AGV) 중 적어도 하나의 속도가 동일 시각에서 소정치 이상 급감하는 것을 나타내는 경우, 해당 사고 이벤트는 코너 부근의 사각지대로 인해 특정 이동 로봇(AGV)이 미리 속도를 감소시키지 못한 채로 주행한 것이 원인이라고 식별될 수 있다.In step S730, the field management server 200 inputs the accident description information (additionally 2D images or 3D images may be used together) obtained in step S720 into the cause analysis model to identify the cause from the cause analysis model. The accident cause of an accident event can be identified. Here, the cause analysis model may be a deep learning model pre-trained through a large learning data set, has multiple clusters mapped to different accident causes, and when any accident explanation information is received as input data, the corresponding Input data is classified into one cluster among the plurality of clusters. The field management server 200 outputs the cause of the accident mapped to a cluster classified by the operation of the cause analysis model as the correct answer to the accident explanation information obtained in step S720. As an example, the accident explanation information is (i) a specific mobile robot (AGV) sensed a collision exceeding a threshold near a corner at a specific time, (ii) a worker (U) and a specific mobile robot in a 2D image synchronized at the same time. If the (AGV) is recognized as an object located within a predetermined distance and (iii) the speed of at least one of the operator (U) and the specific mobile robot (AGV) rapidly decreases by more than a predetermined value at the same time, the corresponding accident event It can be identified that the cause is that a specific mobile robot (AGV) ran without reducing its speed in advance due to a blind spot near a corner.
단계 S740에서, 현장 관리 서버(200)는 원인 식별 대상으로 설정된 사고 이벤트에 단계 S730에서 식별된 사고 원인에 기 부여된 사고 분류 코드를 맵핑할 수 있다. 각각의 사고 원인은 몇가지 카테고리로 범주화될 수 있고, 카테고리별로 고유의 사고 분류 코드가 부여됨으로써, 사후적으로 관리자에 의한 사고 이벤트별 사고 원인의 관리와 검색의 용이성을 도모할 수 있다.In step S740, the field management server 200 may map the accident classification code previously assigned to the accident cause identified in step S730 to the accident event set as the cause identification target. Each accident cause can be categorized into several categories, and a unique accident classification code is assigned to each category, thereby facilitating the management and search of accident causes for each accident event by managers.
도 8은 본 발명의 또 다른 실시예에 따른 현장 관리 방법을 예시적으로 설명하기 위한 순서도이다. 도 8의 방법은 현장 관리 서버(200)의 사고 방지 기능의 실행을 위한 것일 수 있다. 사고 방지 기능은, 과거의 사고 이력을 토대로 미래에 동일 타입의 사고가 발생하지 않도록 소정의 안전 조치를 취하는 것이다. 도 8의 방법의 각 단계는 프로세서(223)에 의해 실행될 수 있다.Figure 8 is a flowchart illustrating an on-site management method according to another embodiment of the present invention. The method of FIG. 8 may be for executing the accident prevention function of the field management server 200. The accident prevention function takes certain safety measures to prevent the same type of accident from occurring in the future based on past accident history. Each step of the method of FIG. 8 may be executed by the
도 8을 참조하면, 단계 S810에서, 현장 관리 서버(200)는 데이터 기록부(222)에 저장된 사고 이력을 기초로, 산업현장 내에 미리 정의된 사고 발생 가능 공간의 하위 영역별로 맵핑된 사고 가이드 정보를 획득한다. Referring to FIG. 8, in step S810, the site management server 200 provides accident guide information mapped for each sub-area of the space where accidents can occur predefined within the industrial site, based on the accident history stored in the
임의의 하위 영역의 사고 가이드 정보는, 해당 하위 영역에서 사고 이벤트가 발생할 때마다 갱신될 수 있다. 임의의 하위 영역에 맵핑된 사고 가이드 정보는, 해당 하위 영역에서 과거에 발생한 적이 있는 사고의 총 횟수와 사고별 유형(예, 로봇 간의 충돌, 작업자(U) 간의 충돌, 로봇과 작업자(U) 간의 충돌, 로봇과 시설 간의 충돌, 작업자(U)와 시설 간의 충돌) 및 발생 시각 및 심각도(예, 충돌 강도, 손상 수준) 중 적어도 한 가지 이상을 나타내는 것일 수 있다. 만약 임의의 하위 영역에 맵핑된 사고 가이드 정보는, 로봇에 연관된 유형에 해당하는 사고의 발생 시각을 기준으로 과거 소정 시간에 걸친 이동 로봇(AGV)의 동작 이력(예, 속도, 이동 경로 등)을 추가적으로 나타낼 수 있다. 아울러, 임의의 하위 영역에 맵핑된 사고 가이드 정보는, 해당 하위 영역에서 발생된 사고별 사고 원인을 더 나타낼 수 있다.Accident guide information in any sub-area may be updated whenever an accident event occurs in the corresponding sub-area. Accident guide information mapped to an arbitrary sub-area includes the total number of accidents that have occurred in the past in that sub-area and the type of accident (e.g., collision between robots, collision between workers (U), collision between robots and workers (U)). It may indicate at least one of collision, collision between robot and facility, collision between worker (U) and facility) and occurrence time and severity (e.g., collision intensity, level of damage). If the accident guide information mapped to an arbitrary sub-area is the motion history (e.g. speed, movement path, etc.) of the mobile robot (AGV) over a certain period of time in the past based on the time of occurrence of the accident corresponding to the type related to the robot. It can be expressed additionally. In addition, the accident guide information mapped to an arbitrary sub-area may further indicate the cause of each accident that occurred in the corresponding sub-area.
단계 S820에서, 현장 관리 서버(200)는 사고 발생 가능 공간의 하위 영역별로 맵핑된 사고 가이드 정보를 기초로, 하위 영역별 사고 위험도를 산출한다. 여기서, 사고 위험도는 사고 가이드 정보가 나타내는 항목별 점수의 총 합에 대응(예, 비례, 양의 상관관계 보유)할 수 있다. 예컨대, 어떤 하위 영역에서의 항목들(예, 사고 총 횟수, 사고별 유형, 사고별 발생 시각 및 사고별 심각도)은 각각 미리 주어진 연산 로직(예, 함수 등)을 통해 점수화될 수 있고, 모든 항목들의 점수를 합산함으로써 해당 하위 영역의 사고 위험도가 결정될 수 있다. 상기 연산 로직은, 여러 사고 유형들 중 관리자(사람)가 사고 당사자가 되는 유형은 그렇지 않은 유형의 사고보다 높은 점수가 할당되도록 설계된 것일 수 있다. 또한, 상기 연산 로직은, 야간 등과 같이 사람의 집중력이 상대적으로 저하되거나 관리자의 수가 적어 즉각적인 안전 대처가 이루어지기 어려운 것으로 미리 정해진 시간대에 속하는 시각에 발생된 사고에 대해서는 그 외의 시각에 발생된 사고보다 높은 점수가 할당되도록 설계된 것일 수 있다.In step S820, the field management server 200 calculates the accident risk for each sub-area based on the accident guide information mapped for each sub-area of the space where an accident can occur. Here, the accident risk may correspond to the total score for each item indicated by the accident guide information (e.g., has a proportional, positive correlation). For example, items in a certain sub-domain (e.g., total number of accidents, type of accident, occurrence time of each accident, and severity of each accident) can each be scored through pre-given calculation logic (e.g., function, etc.), and all items By adding up the scores, the accident risk of that sub-area can be determined. The calculation logic may be designed so that, among various accident types, the type in which a manager (person) is a party to the accident is assigned a higher score than the type of accident in which a manager (person) is not a party to the accident. In addition, the above calculation logic makes it difficult to take immediate safety measures due to a relatively low concentration of people or a small number of managers, such as at night, so accidents that occur at times within a predetermined time zone are more likely to occur than accidents that occur at other times. It may be designed to result in high scores being assigned.
단계 S830에서, 현장 관리 서버(200)는 하위 영역별 사고 위험도를 기초로, 하위 영역별로 사고 방지 규칙을 할당한다. 예컨대, 사고 위험도의 전체 범위가 3개의 구간(예, 저, 중, 고)으로 구분(등급화)된 경우, 현장 관리 서버(200)는 '저' 구간에 해당하는 하위 영역에 대해서는 별도의 제한을 두지 않는 한편, '중' 구간에 해당하는 하위 영역에 대해서는 제1 사고 방지 규칙(예, 최고 속도 제한)을 부여하며, '상' 구간에 해당하는 하위 영역에 대해서는 제2 사고 방지 규칙(예, 위험 경고, 경로 회피, 타경로 탐색)을 부여할 수 있다. 3개 구간으로의 등급화는 하나의 예시에 불과하며, 2개 구간 이상이면 무방하다.In step S830, the field management server 200 assigns accident prevention rules to each sub-area based on the accident risk for each sub-area. For example, if the entire range of accident risk is divided (graded) into three sections (e.g., low, medium, high), the field management server 200 sets separate restrictions for the sub-area corresponding to the 'low' section. On the other hand, the first accident prevention rule (e.g. maximum speed limit) is given to the lower area corresponding to the 'medium' section, and the second accident prevention rule (e.g. , danger warning, route avoidance, and search for other routes) can be given. Grading into three sections is only an example, and two or more sections are acceptable.
단계 S840에서, 현장 관리 서버(200)는 단계 S830에서 하위 영역별로 할당된 사고 방지 규칙을 이용하여, 이동 로봇(AGV) 및 통신 단말기(T) 중 적어도 하나를 원격 제어한다. 이를 위해, 현장 관리 서버(200)는 각 이동 로봇(AGV)의 현 위치가 다수의 하위 영역 중 어느 영역인지 지속 추적(식별)하고, 추가적으로 각 작업자(U)의 현 위치도 지속 추적할 수 있다.In step S840, the field management server 200 remotely controls at least one of the mobile robot (AGV) and the communication terminal (T) using the accident prevention rules assigned to each sub-area in step S830. To this end, the field management server 200 continuously tracks (identifies) which of the plurality of sub-areas the current location of each mobile robot (AGV) is, and additionally continuously tracks the current location of each worker (U). .
일 예로, 현장 관리 서버(200)는 이동 로봇(AGV)의 로그 데이터, 2D 영상 및 3D 영상 중 적어도 하나를 기초로 이동 로봇(AGV)이 '저' 구간에 해당하는 하위 영역으로부터 '중' 구간에 해당하는 하위 영역에 진입한 것으로 확인되는 경우, 제1 사고 방지 규칙에 따라 이동 로봇(AGV)의 최고 속도를 1m/s에서 0.3m/s로 하향시킬 수 있다.As an example, the field management server 200 determines that the mobile robot (AGV) moves from the lower area corresponding to the 'low' section to the 'medium' section based on at least one of the log data, 2D image, and 3D image of the mobile robot (AGV). If it is confirmed that it has entered the corresponding sub-area, the maximum speed of the mobile robot (AGV) can be lowered from 1 m/s to 0.3 m/s according to the first accident prevention rule.
다른 예로, 현장 관리 서버(200)는 이동 로봇(AGV)의 로그 데이터, 2D 영상 및 3D 영상 중 적어도 하나를 기초로 작업자(U)가 '저' 또는 '중' 구간에 해당하는 하위 영역으로부터 '상' 구간에 해당하는 하위 영역에 진입한 것으로 확인되는 경우, 제2 사고 방지 규칙에 따라 해당 작업자(U)의 통신 단말기(T)에 경고 메시지를 전송할 수 있다. 경고 메시지를 수신한 통신 단말기(T)는 소정 음압 이상의 알람음을 발생시킴과 동시에 현재의 하위 영역에서 '저' 구간에 해당하는 하위 영역으로 이동을 유도하기 위한 경로 안내 화면을 출력할 수 있다. 여기서, 작업자(U)가 어느 하위 영역에 위치하고 있는지는 2D 영상이나 3D 영상 대신, 해당 작업자(U)가 소지한 통신 단말기(T)의 위치 신호(예, GPS 신호)에 기초하여 파악될 수 있다.As another example, the on-site management server 200 allows the operator (U) to move from a sub-area corresponding to the 'low' or 'medium' section based on at least one of the log data, 2D image, and 3D image of the mobile robot (AGV). If it is confirmed that the lower area corresponding to the 'upper' section has been entered, a warning message can be sent to the communication terminal (T) of the worker (U) in accordance with the second accident prevention rule. The communication terminal (T) that has received the warning message can generate an alarm sound above a predetermined negative pressure and simultaneously output a route guidance screen to encourage movement from the current lower area to the lower area corresponding to the 'low' section. Here, the sub-area in which the worker (U) is located can be determined based on the location signal (e.g., GPS signal) of the communication terminal (T) carried by the worker (U) instead of the 2D image or 3D image.
다른 예로, 현장 관리 서버(200)는 이동 로봇(AGV)의 로그 데이터, 2D 영상 및 3D 영상 중 적어도 하나를 기초로 이동 로봇(AGV)이 '중' 구간에 해당하는 하위 영역으로부터 '상' 구간에 해당하는 하위 영역에 진입한 것으로 확인되는 경우, 해당 이동 로봇(AGV)의 목적지를 확인한 다음, 제2 사고 방지 규칙에 따라 현 위치로부터 목적지까지 이동하기 위해 거칠 수 있는 여러 경로 중에서 '저' 구간, '중' 구간 또는 이 둘의 조합에 의한 최단 경로를 탐색하고, 탐색된 최단 경로로 해당 이동 로봇(AGV)이 주행하도록 원격 제어할 수 있다. 참고로, 각각의 이동 로봇(AGV)은 고유의 임무를 부여받아 산업현장 내를 주행하는 바, 이동 로봇(AGV)은 자신의 임무에 따른 목적지를 로그 데이터에 포함시켜 현장 관리 서버(200)에 전송할 수 있다.As another example, the field management server 200 determines that the mobile robot (AGV) moves from the lower area corresponding to the 'middle' section to the 'upper' section based on at least one of the log data, 2D image, and 3D image of the mobile robot (AGV). If it is confirmed that it has entered the sub-area corresponding to , the shortest path through the 'medium' section or a combination of the two can be searched, and the mobile robot (AGV) can be remotely controlled to run on the discovered shortest path. For reference, each mobile robot (AGV) is assigned a unique mission and drives within the industrial site. The mobile robot (AGV) includes the destination according to its mission in the log data and records it on the site management server 200. Can be transmitted.
한편, 단계 S840에서 실행되는 이동 로봇(AGV) 및 통신 단말기(T) 중 적어도 하나를 원격 제어는, 하위 영역별로 할당된 사고 방지 규칙에 따라 무조건적으로 실행되는 대신, 두 이동 로봇(AGV) 간, 두 작업자(U) 간 및 이동 로봇(AGV)과 작업자(U) 간의 거리가 소정의 안전 거리 이하인 것을 조건으로 실행될 수 있다. 예컨대, 이동 로봇(AGV)이 '상' 구간에 해당하는 하위 영역에 위치하더라도, 해당 이동 로봇(AGV)에 가장 가까운 작업자(U)가 해당 이동 로봇(AGV)으로부터 상기 안전 거리 이상 이격된 위치에 있는 경우, 해당 이동 로봇(AGV)은 기본적인 규정 속도(예, 최대 1m/s)로 별도 제한없이 주행하면서 임무를 수행할 수 있다. Meanwhile, the remote control of at least one of the mobile robot (AGV) and the communication terminal (T) executed in step S840 is performed between the two mobile robots (AGV) instead of being unconditionally executed according to the accident prevention rules assigned for each sub-area. It can be executed under the condition that the distance between two workers (U) and between the mobile robot (AGV) and the worker (U) is less than or equal to a predetermined safety distance. For example, even if the mobile robot (AGV) is located in the lower area corresponding to the 'up' section, the worker (U) closest to the mobile robot (AGV) is located at a position more than the above safety distance from the mobile robot (AGV). If present, the mobile robot (AGV) can perform its mission while traveling without any restrictions at the basic specified speed (e.g., up to 1 m/s).
이때, 현장 관리 서버(200)는 다수의 하위 영역 각각의 사고 위험도에 대응하는 안전 거리를 하위 영역별로 설정할 수 있다. 예컨대, '상' 구간에 해당하는 하위 영역에 설정되는 안전 거리는 '중' 구간에 해당하는 하위 영역에 설정되는 안전 거리 이상일 수 있다. 사고 위험도에 따른 구간(등급)별 안전 거리는 룩업테이블 등의 형태로 데이터 기록부(222)에 미리 저장되어 있을 수 있다.At this time, the field management server 200 may set a safety distance for each sub-area corresponding to the accident risk of each of the plurality of sub-areas. For example, the safety distance set in the lower area corresponding to the 'high' section may be greater than the safety distance set in the lower area corresponding to the 'middle' section. The safety distance for each section (grade) according to the accident risk may be stored in advance in the
통신 단말기(T)는 현장 관리 서버(200)로부터 1 이상의 사고 이벤트에 관련된 정보를 수신하고, 수신된 정보를 그래픽 인터페이스로 표시할 수 있다. 이에 따라, 산업현장에서 현재까지 발생된 모든 사고 이벤트 중에서 작업자나 관리자가 요청하는 특정 사고 이벤트의 사고 재현 영상이 통신 단말기(T)에 표시되어, 작업자들을 대상으로 한 원격 안전 교육에도 활용 가능하다는 장점이 있다.The communication terminal T may receive information related to one or more accident events from the field management server 200 and display the received information on a graphic interface. Accordingly, among all accident events that have occurred to date in industrial sites, accident reproduction images of specific accident events requested by workers or managers are displayed on the communication terminal (T), which has the advantage of being able to be used for remote safety training for workers. There is.
본 발명은 상술한 특정의 실시예 및 응용예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 구별되어 이해되어서는 안 될 것이다.The present invention is not limited to the specific embodiments and application examples described above, and various modifications can be made by those skilled in the art without departing from the gist of the invention as claimed in the claims. Of course, these modified implementations should not be understood separately from the technical idea or outlook of the present invention.
특히, 본 명세서에 첨부된 도면에 도시된 블록도와 순서도에 포함된 본 발명의 기술적 특징을 실행하는 구성들은 상기 구성들 사이의 논리적인 경계를 의미한다. 그러나 소프트웨어나 하드웨어의 실시 예에 따르면, 도시된 구성들과 그 기능들은 독립형 소프트웨어 모듈, 모놀리식 소프트웨어 구조, 코드, 서비스 및 이들을 조합한 형태로 실행되며, 저장된 프로그램 코드, 명령어 등을 실행할 수 있는 프로세서를 구비한 컴퓨터에서 실행 가능한 매체에 저장되어 그 기능들이 구현될 수 있으므로 이러한 모든 실시 예 역시 본 발명의 권리범위 내에 속하는 것으로 보아야 할 것이다.In particular, configurations that implement the technical features of the present invention included in the block diagram and flow chart shown in the drawings attached to this specification represent logical boundaries between the configurations. However, according to an embodiment of the software or hardware, the depicted configurations and their functions are executed in the form of stand-alone software modules, monolithic software structures, codes, services, and combinations thereof, and can execute stored program code, instructions, etc. Since the functions can be implemented by being stored in a medium executable on a computer equipped with a processor, all of these embodiments should also be regarded as falling within the scope of the present invention.
따라서, 첨부된 도면과 그에 대한 기술은 본 발명의 기술적 특징을 설명하기는 하나, 이러한 기술적 특징을 구현하기 위한 소프트웨어의 특정 배열이 분명하게 언급되지 않는 한, 단순히 추론되어서는 안 된다. 즉, 이상에서 기술한 다양한 실시 예들이 존재할 수 있으며, 그러한 실시 예들이 본 발명과 동일한 기술적 특징을 보유하면서 일부 변형될 수 있으므로, 이 역시 본 발명의 권리범위 내에 속하는 것으로 보아야 할 것이다. Accordingly, although the attached drawings and their descriptions illustrate the technical features of the present invention, they should not be simply inferred unless a specific arrangement of software for implementing these technical features is clearly stated. In other words, various embodiments described above may exist, and since such embodiments may be partially modified while retaining the same technical features as the present invention, these should also be regarded as falling within the scope of the present invention.
또한, 순서도의 경우 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 가장 바람직한 결과를 얻기 위하여 도시된 것으로서, 도시된 특정한 순서나 순차적인 순서대로 그러한 동작들을 반드시 실행되어야 한다거나 모든 도시된 동작들이 반드시 실행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티 태스킹과 병렬 프로세싱이 유리할 수 있다. 아울러, 이상에서 기술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다.In addition, in the case of a flowchart, operations are depicted in the drawing in a specific order, but this is shown to obtain the most desirable results, and such operations must be executed in the specific order or sequential order shown, or all illustrated operations must be executed. It should not be understood as something that must be done. In certain cases, multitasking and parallel processing may be advantageous. Additionally, the separation of various system components in the embodiments described above should not be construed as requiring such separation in all embodiments, and the program components and systems described are generally integrated together into a single software product or integrated into multiple software products. It should be understood that it can be packaged.
100: 산업현장 모니터링 시스템
C: 카메라 AGV: 이동 로봇
U: 작업자 T: 통신 단말기
E: 설비
200: 현장 관리 서버
210: 데이터 통신부 220: 컨트롤러
221: 입출력 인터페이스 222: 데이터 기록부
223: 프로세서100: Industrial site monitoring system
C: Camera AGV: Mobile robot
U: worker T: communication terminal
E: Equipment
200: On-site management server
210: data communication unit 220: controller
221: input/output interface 222: data recorder
223: processor
Claims (8)
상기 2D 영상 및 상기 로그 데이터를 누적 기록하는 데이터 기록부; 및
상기 데이터 통신부 및 상기 데이터 기록부에 동작 가능하게 결합되는 프로세서를 포함하되,
상기 프로세서는,
상기 2D 영상 및 상기 로그 데이터를 기초로, 상기 산업현장 내에서의 사고 이벤트의 발생을 검출하고,
상기 사고 이벤트가 발생된 시각 및 위치를 나타내는 사고 설명 정보를 사고 이력으로서 상기 데이터 기록부에 저장하도록 구성되는 것을 특징으로 하는, 현장 관리 서버.
2D images from a plurality of cameras deployed at an industrial site and log data from one or more mobile robots deployed at the industrial site - the log data records the location, path, direction, and collision level of the mobile robot over time. Includes - Data and communications department that collects;
a data recording unit that cumulatively records the 2D image and the log data; and
A processor operably coupled to the data communication unit and the data recording unit,
The processor,
Based on the 2D image and the log data, detect the occurrence of an accident event within the industrial site,
Characterized in that the on-site management server is configured to store accident description information indicating the time and location at which the accident event occurred in the data recorder as an accident history.
상기 프로세서는,
상기 사고 이벤트의 발생이 검출되는 경우, 상기 사고 이벤트의 사고 설명 정보를 기초로, 상기 2D 영상을 3D 영상으로 렌더링하여 상기 산업현장의 적어도 일부분에 대한 사고 재현 영상을 생성하도록 구성되는 것을 특징으로 하는, 현장 관리 서버.
According to paragraph 1,
The processor,
When the occurrence of the accident event is detected, the 2D image is rendered into a 3D image based on the accident description information of the accident event, and is configured to generate an accident reproduction image for at least a portion of the industrial site. , field management server.
상기 프로세서는,
상기 사고 이벤트의 사고 설명 정보를 원인 분석 모델에 입력하되, 상기 원인 분석 모델은 상기 사고 설명 정보를 서로 다른 사고 원인에 맵핑된 복수의 클러스터 중 어느 하나로 분류하도록 미리 학습된 것이고,
상기 사고 설명 정보에 대해 상기 원인 분석 모델에 의해 분류된 어느 한 클러스터에 맵핑된 사고 원인에 기 부여된 사고 분류 코드를 상기 사고 이벤트에 맵핑하도록 구성되는 것을 특징으로 하는, 현장 관리 서버.
According to paragraph 1,
The processor,
Input the accident explanation information of the accident event into a cause analysis model, wherein the cause analysis model is pre-trained to classify the accident explanation information into one of a plurality of clusters mapped to different accident causes,
Characterized in that the on-site management server is configured to map an accident classification code previously assigned to an accident cause mapped to a cluster classified by the cause analysis model with respect to the accident explanation information to the accident event.
상기 프로세서는,
상기 산업현장의 사고 발생 가능 공간에 대해 가상 분할된 다수의 하위 영역 중에서 상기 사고 이벤트가 발생한 하위 영역의 사고 가이드 정보를 갱신하고,
상기 다수의 하위 영역 각각의 사고 가이드 정보를 기초로, 하위 영역별 사고 위험도를 산출하며,
상기 하위 영역별 사고 위험도를 기초로, 하위 영역별로 사고 방지 규칙을 할당하는 것을 특징으로 하는, 현장 관리 서버.
According to paragraph 1,
The processor,
Update the accident guide information of the sub-area where the accident event occurred among a plurality of sub-areas virtually divided into the space where an accident may occur in the industrial site,
Based on the accident guide information for each of the multiple sub-areas, the accident risk for each sub-area is calculated,
An on-site management server characterized in that it assigns accident prevention rules to each sub-area based on the accident risk for each sub-area.
상기 프로세서는,
상기 로그 데이터를 기초로, 상기 다수의 하위 영역 중 상기 이동 로봇이 현재 위치하는 하위 영역을 식별하고,
상기 식별된 하위 영역에 할당된 사고 방지 규칙에 따라, 상기 이동 로봇을 원격 제어하도록 구성되는 것을 특징으로 하는, 현장 관리 서버.
According to clause 4,
The processor,
Based on the log data, identify a sub-area in which the mobile robot is currently located among the plurality of sub-areas,
An on-site management server, characterized in that it is configured to remotely control the mobile robot according to accident prevention rules assigned to the identified sub-area.
상기 프로세서는,
상기 다수의 하위 영역 각각의 사고 위험도를, 복수의 구간 중 어느 하나로 등급화하고,
상기 복수의 구간에 일대일 대응하는 복수의 안전 거리 중 어느 하나를 하위 영역별로 설정하고,
상기 식별된 하위 영역으로부터 상기 식별된 하위 영역에 설정된 안전 거리 이내에 다른 이동 로봇이나 작업자가 위치하는 것을 조건으로, 상기 식별된 하위 영역에 할당된 사고 방지 규칙에 따라, 상기 이동 로봇을 원격 제어하도록 구성되는 것을 특징으로 하는, 현장 관리 서버.
According to clause 5,
The processor,
The accident risk of each of the plurality of sub-areas is graded into one of a plurality of sections,
Setting one of a plurality of safety distances corresponding one-to-one to the plurality of sections for each sub-area,
configured to remotely control the mobile robot from the identified sub-area according to accident prevention rules assigned to the identified sub-area, provided that another mobile robot or worker is located within a safety distance set in the identified sub-area. An on-site management server, characterized in that
상기 프로세서는,
상기 데이터 통신부에 의해 수집된 상기 2D 영상 및 상기 산업현장 내에 위치하는 작업자의 통신 단말기로부터 수집된 위치 신호를 기초로, 상기 작업자의 현 위치를 식별하고,
상기 다수의 하위 영역 중 상기 작업자가 현재 위치하는 하위 영역을 식별하고,
상기 식별된 하위 영역에 할당된 사고 방지 규칙에 따라, 상기 작업자의 통신 단말기를 원격 제어하도록 구성되는 것을 특징으로 하는, 현장 관리 서버.
According to clause 4,
The processor,
Identifying the current location of the worker based on the 2D image collected by the data communication unit and the location signal collected from the worker's communication terminal located in the industrial site,
Identifying the sub-area in which the worker is currently located among the plurality of sub-areas,
An on-site management server, characterized in that it is configured to remotely control the worker's communication terminal according to accident prevention rules assigned to the identified sub-area.
상기 산업현장에 배치된 복수의 카메라로부터의 2D 영상 및 상기 산업현장에 배치된 1 이상의 이동 로봇으로부터의 로그 데이터 - 상기 로그 데이터는 시간의 흐름에 따른 상기 이동 로봇의 위치, 경로, 방향 및 충돌 레벨을 포함함 - 를 수집하는 단계;
상기 2D 영상 및 상기 로그 데이터를 누적 기록하는 단계;
상기 2D 영상 및 상기 로그 데이터를 기초로, 상기 산업현장 내에서의 사고 이벤트의 발생을 검출하는 단계; 및
상기 사고 이벤트가 발생된 시각 및 위치를 나타내는 사고 설명 정보를 사고 이력으로서 상기 데이터 기록부에 저장하는 단계;
를 포함하는 것을 특징으로 하는, 현장 관리 방법.In the field management method executable by the field management server according to any one of claims 1 to 8,
2D images from a plurality of cameras deployed at the industrial site and log data from one or more mobile robots deployed at the industrial site - the log data includes the location, path, direction, and collision level of the mobile robot over time Includes - collecting;
Accumulatingly recording the 2D image and the log data;
Detecting the occurrence of an accident event within the industrial site based on the 2D image and the log data; and
Storing accident description information indicating the time and location at which the accident event occurred in the data recorder as an accident history;
An on-site management method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230001514A KR20240110157A (en) | 2023-01-05 | 2023-01-05 | Digital twin based-site management server and site management method for monitoring safefy acctident in industrial site |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230001514A KR20240110157A (en) | 2023-01-05 | 2023-01-05 | Digital twin based-site management server and site management method for monitoring safefy acctident in industrial site |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240110157A true KR20240110157A (en) | 2024-07-15 |
Family
ID=91949898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230001514A KR20240110157A (en) | 2023-01-05 | 2023-01-05 | Digital twin based-site management server and site management method for monitoring safefy acctident in industrial site |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240110157A (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100448668B1 (en) | 2001-09-06 | 2004-09-13 | 주식회사 케이디파워 | A management system for industrial facilities |
KR101724557B1 (en) | 2015-12-16 | 2017-04-07 | 컨트롤코리아 주식회사 | Process management system using middleware capable of tracking process data |
KR20200037816A (en) | 2017-08-02 | 2020-04-09 | 스트롱 포스 아이오티 포트폴리오 2016, 엘엘씨 | Methods and systems for detection in an industrial Internet of Things data collection environment with large data sets |
-
2023
- 2023-01-05 KR KR1020230001514A patent/KR20240110157A/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100448668B1 (en) | 2001-09-06 | 2004-09-13 | 주식회사 케이디파워 | A management system for industrial facilities |
KR101724557B1 (en) | 2015-12-16 | 2017-04-07 | 컨트롤코리아 주식회사 | Process management system using middleware capable of tracking process data |
KR20200037816A (en) | 2017-08-02 | 2020-04-09 | 스트롱 포스 아이오티 포트폴리오 2016, 엘엘씨 | Methods and systems for detection in an industrial Internet of Things data collection environment with large data sets |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12045056B2 (en) | Information processing apparatus, information processing method, and medium | |
US11394933B2 (en) | System and method for gate monitoring during departure or arrival of an autonomous vehicle | |
US9875648B2 (en) | Methods and systems for reducing false alarms in a robotic device by sensor fusion | |
EP3867889B1 (en) | Perimeter breach warning system | |
EP3051810B1 (en) | Surveillance | |
CN105094005A (en) | Integration of optical area monitoring with industrial machine control | |
CN102712317A (en) | Combining driver and environment sensing for vehicular safety systems | |
KR102724007B1 (en) | Situational awareness monitoring | |
JP2022548009A (en) | object movement system | |
KR102585665B1 (en) | Risk Situation Analysis and Hazard Object Detection System | |
EP3885972A1 (en) | Context based perception method and system for managing environmental safety in a computing environment | |
KR20240110157A (en) | Digital twin based-site management server and site management method for monitoring safefy acctident in industrial site | |
CN115981344B (en) | Automatic driving method and device | |
KR102138006B1 (en) | Method for controlling a security robot, apparatus for supporting the same | |
US20240112568A1 (en) | Vehicular Emergency Detection System, Method, and Computer Program Product | |
KR101516672B1 (en) | Method for detecting video that utilize smarter video control center using the same system | |
CN111352128B (en) | Multi-sensor fusion sensing method and system based on fusion point cloud | |
KR101961800B1 (en) | Emergency accident rescue system using drones | |
KR102710722B1 (en) | Self-driving unmanned robot with artificial intelligence-based smart guidance service | |
EP4047435A1 (en) | System and method for anomaly management in facility | |
EP4422167A1 (en) | Information processing device, information processing method, and program | |
US20240171935A1 (en) | System and method for intelligent industrial safety monitoring | |
CN115908549A (en) | Real-time dynamic safety protection method for mobile robot | |
KR20230074479A (en) | Information processing system and information processing method | |
CN116740890A (en) | Monitoring and early warning method and device for port unmanned operation area |