KR102719530B1 - Transpotation robot system and control method thereof - Google Patents
Transpotation robot system and control method thereof Download PDFInfo
- Publication number
- KR102719530B1 KR102719530B1 KR1020220110138A KR20220110138A KR102719530B1 KR 102719530 B1 KR102719530 B1 KR 102719530B1 KR 1020220110138 A KR1020220110138 A KR 1020220110138A KR 20220110138 A KR20220110138 A KR 20220110138A KR 102719530 B1 KR102719530 B1 KR 102719530B1
- Authority
- KR
- South Korea
- Prior art keywords
- worker
- processor
- obstacle
- robot system
- transport robot
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000012545 processing Methods 0.000 claims description 11
- 238000004458 analytical method Methods 0.000 claims description 8
- 230000033001 locomotion Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 230000032258 transport Effects 0.000 description 60
- 230000036544 posture Effects 0.000 description 20
- 238000004891 communication Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009313 farming Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
- B25J13/089—Determining the position of the robot with reference to its environment
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/026—Acoustical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0009—Constructional details, e.g. manipulator supports, bases
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/12—Target-seeking control
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Acoustics & Sound (AREA)
- Electromagnetism (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
운송 로봇 시스템 및 그 제어 방법이 개시된다. 본 발명의 일 측면에 따른 운송 로봇 시스템은, 촬영장치, 바퀴를 구동시키는 구동모듈, 및 촬영장치를 통해 획득된 영상 데이터에 기초하여 주변 환경 정보를 인식하고, 주변 환경 정보에 기초하여 주행 가능 영역을 구분하며, 주행 가능 영역을 이용하여 작업자 위치까지의 주행 경로를 생성하고, 주행 경로를 따라 주행하도록 구동모듈을 제어함으로써, 작업자를 추종하도록 하는 프로세서를 포함한다. A transport robot system and a control method thereof are disclosed. The transport robot system according to one aspect of the present invention includes a camera device, a driving module for driving wheels, and a processor for recognizing surrounding environment information based on image data acquired through the camera device, distinguishing a drivable area based on the surrounding environment information, generating a driving path to a worker's location using the drivable area, and controlling the driving module to drive along the driving path, thereby following the worker.
Description
본 발명은 운송 로봇 시스템 및 그 제어 방법에 관한 것으로서, 보다 상세하게는 농작물 및 물류 등을 이송시키고, 로봇과 작업자 사이에 장애물이 위치하여도 로봇이 작업자를 용이하게 추종할 수 있도록 하는 운송 로봇 시스템 및 그 제어 방법에 관한 것이다.The present invention relates to a transport robot system and a control method thereof, and more specifically, to a transport robot system and a control method thereof that transports crops, logistics, etc., and enables the robot to easily follow a worker even when an obstacle is located between the robot and the worker.
최근에는 다양한 분야에서 인력으로 수행되던 작업들이 로봇 또는 기계를 통해 수행하는 것으로 점차 대체되고 있다. 이와 같이 현재까지 많은 분야에서 로봇이 적용되고 있으나, 일부 분야에서는 이러한 로봇의 도입이 늦어지고 있다.In recent years, tasks that were previously performed by humans in various fields are gradually being replaced by those performed by robots or machines. Although robots are currently being used in many fields, the introduction of these robots is being delayed in some fields.
대표적으로, 농업 분야는 이와 같은 로봇화가 더디게 이루어지고 있는 분야로서, 아직까지 농사 과정의 대부분의 작업은 인력을 통해 수행되고 있으며, 또한 작업기계들 역시 사람이 수동으로 직접 조종하는 형태로 운전되고 있다.A representative example is the agricultural sector, where robotization is progressing slowly. Most of the work in the farming process is still performed by humans, and work machines are also operated manually by people.
이에 최근에는 농업 분야 역시 밭에 필요한 작업을 자동으로 수행하며 주행하는 로봇에 대한 연구가 지속적으로 이루어지고 있는 추세이다.Accordingly, in the agricultural field as well, research is continuously being conducted on robots that automatically perform necessary tasks in the fields.
하지만, 이러한 노력에도 밭의 작업은 자갈이나 모래 등에 의해 지형이 평탄하지 않기 때문에 기계가 주행하면서 진동이 발생하게 되며, 이는 정교한 작업에 방해가 되는 문제가 있다.However, despite these efforts, there is a problem in that the terrain in the field is not flat due to gravel or sand, so vibrations occur when the machine runs, which interferes with precise work.
한편, 사람을 추종하는 로봇 기술과 관련해서는 대한민국 공개특허 제10-2011-0119438호 등에 나타나 있다.Meanwhile, technology for robots that follow humans is disclosed in Korean Patent Publication No. 10-2011-0119438, etc.
이러한 추종 로봇 기술에서는, 초음파, 적외선, 비젼, 레이저 등을 사용하여 로봇이 사람을 추종하도록 하고 있다. In this type of tracking robot technology, ultrasonic waves, infrared rays, vision, lasers, etc. are used to make robots follow people.
그러나, 종래의 추종 로봇은 사람과 로봇 사이에 장애물이 있는 경우 추종을 하는데 있어서 매우 취약하다. 예를 들면, 추종 로봇을 농작물, 물류 등의 운송에 사용할 경우, 사람과 로봇 사이에 장애물이 위치하게 되면, 로봇이 사람 즉, 작업자를 용이하게 추종하지 못하게 되는 문제점이 발생될 수 있다.However, conventional follower robots are very vulnerable to following when there is an obstacle between the person and the robot. For example, when a follower robot is used for transporting crops, logistics, etc., if there is an obstacle between the person and the robot, a problem may occur in which the robot cannot easily follow the person, i.e. the worker.
본 발명의 배경기술은 대한민국 공개특허공보 제10-2011-0119438호(2011.11.02. 공개)의 '인간 작업자 추종 이동 로봇'에 개시되어 있다.The background technology of the present invention is disclosed in Korean Patent Publication No. 10-2011-0119438 (published on November 2, 2011) titled ‘Human worker following mobile robot.’
본 발명은 전술한 문제점을 개선하기 위하여 안출된 것으로, 본 발명의 목적은 농작물 및 물류 등을 이송시키고, 로봇과 작업자 사이에 장애물이 위치하여도 로봇이 작업자를 용이하게 추종할 수 있도록 하는 운송 로봇 시스템 및 그 제어 방법을 제공하는 것이다. The present invention has been made to improve the aforementioned problems, and an object of the present invention is to provide a transport robot system and a control method thereof that transports crops and logistics, and enables the robot to easily follow a worker even when an obstacle is located between the robot and the worker.
본 발명의 다른 목적은 작업자의 다양한 자세(포즈)로 운송 로봇 시스템을 원격에서 제어할 수 있도록 하는 운송 로봇 시스템 및 그 제어 방법을 제공하는 것이다. Another object of the present invention is to provide a transport robot system and a control method thereof that enable a worker to remotely control the transport robot system in various poses.
본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problem(s) mentioned above, and other problem(s) not mentioned will be clearly understood by those skilled in the art from the description below.
본 발명의 일 측면에 따른 운송 로봇 시스템은, 촬영장치, 바퀴를 구동시키는 구동모듈, 및 상기 촬영장치를 통해 획득된 영상 데이터에 기초하여 주변 환경 정보를 인식하고, 상기 주변 환경 정보에 기초하여 주행 가능 영역을 구분하며, 상기 주행 가능 영역을 이용하여 작업자 위치까지의 주행 경로를 생성하고, 상기 주행 경로를 따라 주행하도록 상기 구동모듈을 제어함으로써, 작업자를 추종하도록 하는 프로세서를 포함한다. A transport robot system according to one aspect of the present invention includes a camera device, a driving module for driving wheels, and a processor for recognizing surrounding environment information based on image data acquired through the camera device, distinguishing a drivable area based on the surrounding environment information, generating a driving path to a worker's location using the drivable area, and controlling the driving module to drive along the driving path, thereby following the worker.
본 발명에서 상기 프로세서는, 상기 영상 데이터에 객체 인식 모델을 적용하여 주변 환경 정보를 인식하고, 상기 주변 환경 정보는 작업자, 노면, 장애물 중 적어도 하나를 포함할 수 있다. In the present invention, the processor recognizes surrounding environment information by applying an object recognition model to the image data, and the surrounding environment information may include at least one of a worker, a road surface, and an obstacle.
본 발명에서 상기 프로세서는, 상기 주변 환경 정보에서 노면을 추출하고, 상기 추출된 노면에서 주행 가능 영역을 구분하며, 상기 주행 가능 영역 상의 장애물을 검출하고, 상기 장애물을 회피하여 작업자 위치까지의 주행 경로를 생성할 수 있다. In the present invention, the processor can extract a road surface from the surrounding environment information, divide a drivable area from the extracted road surface, detect an obstacle on the drivable area, and generate a driving path to the worker's location by avoiding the obstacle.
본 발명은 장애물을 처리하기 위한 작업모듈을 더 포함하고, 상기 프로세서는, 상기 주행 가능 영역에서 장애물의 회피가 불가능한 영역이 존재하는 경우, 해당 영역에 존재하는 장애물에 대한 분석을 수행하여, 상기 작업모듈을 통해 장애물 처리 가능 여부를 판단하고, 장애물 처리가 가능한 경우, 상기 작업모듈을 이용하여 상기 장애물을 처리하고, 장애물이 처리된 영역을 주행 경로 생성시 이용하며, 상기 작업모듈은 장애물을 들어서 이동시키는 작업을 위한 제1 처리장치, 노면을 고르게 하는 작업을 위한 제2 처리장치, 장애물을 자르는 작업을 위한 제3 처리장치 중 적어도 하나를 포함할 수 있다. The present invention further includes a work module for processing an obstacle, wherein the processor, if there is an area in the drivable area where obstacle avoidance is impossible, analyzes the obstacle existing in the area to determine whether the obstacle can be processed through the work module, and if the obstacle can be processed, processes the obstacle using the work module, and uses the area where the obstacle has been processed when generating a driving path, and the work module may include at least one of a first processing device for lifting and moving an obstacle, a second processing device for leveling a road surface, and a third processing device for cutting the obstacle.
본 발명에서 상기 프로세서는, 상기 촬영장치와 연관된 복수의 파라미터들을 이용하여 상기 영상 데이터의 픽셀과 월드 좌표계(world coordinate system) 상의 좌표를 대응시킴으로써, 상기 작업자 또는 장애물의 위치를 추정할 수 있다. In the present invention, the processor can estimate the position of the worker or obstacle by corresponding pixels of the image data to coordinates in a world coordinate system using a plurality of parameters associated with the photographing device.
본 발명은 상기 로봇의 하우징 높이를 조절하는 액추에이터를 더 포함하고, 상기 프로세서는, 상기 주행경로를 따라 주행 중, 돌발 장애물이 나타나는 경우, 상기 촬영장치를 통해 획득된 영상 데이터에 기초하여 상기 돌발 장애물에 대한 높이 및 폭 분석을 수행하여, 상기 하우징의 높이를 조절하여 돌발 장애물의 통과 여부를 판단하고, 통과 가능한 경우, 상기 액추에이터를 제어하여 상기 하우징의 높이를 조절할 수 있다. The present invention further includes an actuator for adjusting the height of the housing of the robot, and the processor, when an unexpected obstacle appears while driving along the driving path, performs height and width analysis on the unexpected obstacle based on image data acquired through the photographing device, thereby adjusting the height of the housing to determine whether the unexpected obstacle can be passed, and if it can be passed, controls the actuator to adjust the height of the housing.
본 발명에서 상기 프로세서는, 상기 영상 데이터에 기초하여 상기 작업자의 자세를 인식하고, 상기 인식된 자세가 수신호 명령을 나타내는 경우, 해당 수신호 명령에 대응하는 동작을 수행하도록 제어할 수 있다. In the present invention, the processor can recognize the posture of the worker based on the image data, and, if the recognized posture indicates a hand signal command, control to perform an operation corresponding to the hand signal command.
본 발명은 물품을 적재하는 적재부, 및 상기 적재부에 적재된 물품의 무게를 측정하는 무게센서를 더 포함하고, 상기 프로세서는, 상기 주행 경로를 따라 이동하는 중에, 상기 무게센서를 통해 측정된 무게값이 초기 무게값보다 기 설정된 일정값 이상 작은 경우, 물품이 노면에 떨어졌다는 것을 상기 작업자 또는 미리 설정된 관리자에게 알릴 수 있다. The present invention further includes a loading unit for loading an article, and a weight sensor for measuring the weight of the article loaded on the loading unit, and the processor can notify the worker or a preset manager that the article has fallen on the road if the weight value measured by the weight sensor is less than the initial weight value by a preset value or more while moving along the driving path.
본 발명은 음성 명령을 입력받는 마이크를 더 포함하고, 상기 프로세서는, 상기 마이크를 통해 입력된 음성 명령이 상기 작업자의 음성인 경우, 상기 음성 명령에 대응하는 동작을 수행하도록 제어할 수 있다. The present invention further includes a microphone for receiving a voice command, and the processor can control, if the voice command input through the microphone is the voice of the worker, to perform an operation corresponding to the voice command.
본 발명에서 상기 프로세서는, 상기 작업자가 소지한 원격 제어 장치에서 발생되는 자기장의 강도를 측정하고, 상기 자기장의 강도에 기초하여 상기 작업자와 미리 설정된 일정 거리를 유지하도록 이동 속도를 제어할 수 있다. In the present invention, the processor can measure the intensity of a magnetic field generated from a remote control device carried by the worker, and control a movement speed to maintain a preset distance from the worker based on the intensity of the magnetic field.
본 발명의 다른 측면에 따른 운송 로봇 시스템의 제어 방법은, 프로세서가 촬영장치를 통해 획득된 영상 데이터에 기초하여 주변 환경 정보를 인식하는 단계, 상기 프로세서가 상기 주변 환경 정보에 기초하여 주행 가능 영역을 구분하고, 상기 주행 가능 영역을 이용하여 작업자 위치까지의 주행 경로를 생성하는 단계, 및 상기 프로세서가 상기 주행 경로를 따라 주행하도록 구동모듈을 제어함으로써, 작업자를 추종하도록 하는 단계를 포함한다. A control method for a transport robot system according to another aspect of the present invention includes a step in which a processor recognizes surrounding environment information based on image data acquired through a photographing device, a step in which the processor divides a drivable area based on the surrounding environment information and generates a driving path to a worker's location using the drivable area, and a step in which the processor controls a driving module to drive along the driving path, thereby following the worker.
본 발명은 상기 주행 경로를 생성하는 단계에서, 상기 프로세서는, 상기 주변 환경 정보에서 노면을 추출하고, 상기 추출된 노면에서 주행 가능 영역을 구분하며, 상기 주행 가능 영역 상의 장애물을 검출하고, 상기 장애물을 회피하여 작업자 위치까지의 주행 경로를 생성할 수 있다. In the step of generating the driving path of the present invention, the processor can extract a road surface from the surrounding environment information, divide a driving area from the extracted road surface, detect an obstacle on the driving area, and generate a driving path to the worker's location by avoiding the obstacle.
본 발명은 상기 작업자를 추종하도록 하는 단계에서, 상기 주행 경로를 따라 주행 중, 돌발 장애물이 나타나는 경우, 상기 프로세서는 상기 촬영장치를 통해 획득된 영상 데이터에 기초하여 상기 돌발 장애물에 대한 높이 및 폭 분석을 수행하여, 상기 하우징의 높이를 조절하여 돌발 장애물의 통과 여부를 판단하고, 통과 가능한 경우, 액추에이터를 제어하여 상기 하우징의 높이를 조절할 수 있다. In the present invention, in the step of following the worker, if an unexpected obstacle appears while driving along the driving path, the processor performs a height and width analysis of the unexpected obstacle based on image data acquired through the photographing device, and adjusts the height of the housing to determine whether the unexpected obstacle can be passed, and if it can be passed, controls the actuator to adjust the height of the housing.
본 발명은 상기 작업자를 추종하도록 하는 단계 이후, 상기 프로세서가, 상기 영상 데이터에 기초하여 상기 작업자의 자세를 인식하고, 상기 인식된 자세가 수신호 명령을 나타내는 경우, 해당 수신호 명령에 대응하는 동작을 수행하도록 제어하는 단계를 더 포함할 수 있다. The present invention may further include, after the step of following the worker, a step of controlling the processor to recognize the posture of the worker based on the image data and, if the recognized posture indicates a hand signal command, perform an operation corresponding to the hand signal command.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램이 더 제공될 수 있다.In addition, other methods for implementing the present invention, other systems and computer programs for executing the methods may be further provided.
본 발명의 일 실시예에 따른 운송 로봇 시스템 및 그 제어 방법은, 촬영장치를 통해 획득된 영상 데이터에 기초하여 인식되는 주변 환경 정보에 기초하여 작업자 위치까지의 주행 경로를 생성함으로써, 농작물 및 물류 등을 이송시키고, 로봇과 작업자 사이에 장애물이 위치하여도 로봇이 작업자를 용이하게 추종할 수 있다. A transport robot system and a control method thereof according to one embodiment of the present invention generate a driving path to a worker's location based on surrounding environment information recognized based on image data acquired through a photographing device, thereby transporting crops, logistics, etc., and enabling the robot to easily follow the worker even when an obstacle is located between the robot and the worker.
본 발명의 일 실시예에 따른 운송 로봇 시스템 및 그 제어 방법은, 작업자의 다양한 자세(포즈)와 각 자세(포즈)에 대한 수신호 명령을 설정함으로써, 작업자의 다양한 자세(포즈)로 운송 로봇 시스템을 원격에서 제어할 수 있다. A transport robot system and a control method thereof according to one embodiment of the present invention can remotely control a transport robot system in various postures of a worker by setting various postures of a worker and hand signal commands for each posture.
한편, 본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다. Meanwhile, the effects of the present invention are not limited to the effects mentioned above, and various effects may be included within a range obvious to those skilled in the art from the contents described below.
도 1은 본 발명의 일 실시예에 따른 운송 로봇 시스템을 개략적으로 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 운동 로봇 시스템의 사시도이다.
도 3은 본 발명의 일 실시예에 따른 운송 로봇 시스템이 작업자를 추종하는 방법을 설명하기 위한 예시도이다.
도 4는 본 발명의 일 실시예에 따른 수신호 명령에 대한 자세를 설명하기 위한 예시도이다.
도 5는 본 발명의 일 실시예에 따른 운송 로봇 시스템의 제어 방법을 설명하기 위한 흐름도이다.FIG. 1 is a block diagram schematically illustrating a transport robot system according to one embodiment of the present invention.
FIG. 2 is a perspective view of a motion robot system according to one embodiment of the present invention.
FIG. 3 is an exemplary diagram illustrating a method for a transport robot system according to one embodiment of the present invention to follow a worker.
FIG. 4 is an exemplary diagram for explaining details of a receiving signal command according to one embodiment of the present invention.
FIG. 5 is a flowchart for explaining a control method of a transport robot system according to one embodiment of the present invention.
이하, 첨부된 도면들을 참조하여 본 발명의 일 실시예에 따른 운송 로봇 시스템 및 그 제어 방법을 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. Hereinafter, a transport robot system and a control method thereof according to one embodiment of the present invention will be described with reference to the attached drawings. In this process, the thickness of lines and the size of components illustrated in the drawings may be exaggerated for the sake of clarity and convenience of explanation.
또한, 본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍 가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.Furthermore, the implementations described herein may be implemented as, for example, a method or process, an apparatus, a software program, a data stream or a signal. Even if discussed in the context of only a single form of implementation (e.g., discussed only as a method), the implementation of the discussed features may also be implemented in other forms (e.g., as an apparatus or a program). The apparatus may be implemented as suitable hardware, software, firmware, and the like. The method may be implemented in a device such as a processor, which generally refers to a processing device including, for example, a computer, a microprocessor, an integrated circuit, or a programmable logic device. A processor also includes a communication device such as a computer, a cell phone, a personal digital assistant ("PDA"), and other devices that facilitate communication of information between end-users.
또한, 본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In addition, the terminology used herein is only used to describe specific embodiments and is not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly indicates otherwise. In this application, it should be understood that the terms "comprise" or "have" and the like are intended to specify the presence of a feature, number, step, operation, component, part or combination thereof described in the specification, but do not exclude in advance the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts or combinations thereof. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
이하, 본 발명에 따른 실시 예들을 첨부된 도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the attached drawings. When describing with reference to the attached drawings, identical or corresponding components are assigned the same drawing numbers and redundant descriptions thereof are omitted.
도 1은 본 발명의 일 실시예에 따른 운송 로봇 시스템을 개략적으로 나타낸 블록도, 도 2는 본 발명의 일 실시예에 따른 운동 로봇 시스템의 사시도, 도 3은 본 발명의 일 실시예에 따른 운송 로봇 시스템이 작업자를 추종하는 방법을 설명하기 위한 예시도, 도 4는 본 발명의 일 실시예에 따른 수신호 명령에 대한 자세를 설명하기 위한 예시도이다. FIG. 1 is a block diagram schematically showing a transport robot system according to one embodiment of the present invention, FIG. 2 is a perspective view of a locomotion robot system according to one embodiment of the present invention, FIG. 3 is an exemplary diagram explaining a method for a transport robot system according to one embodiment of the present invention to follow a worker, and FIG. 4 is an exemplary diagram explaining a posture for a hand signal command according to one embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 운송 로봇 시스템(100)은, 하우징(101), 통신모듈(110), 촬영장치(120), 메모리(130), 구동모듈(140), 프로세서(160), 적재부(170) 및 센서(180)를 포함한다. Referring to FIG. 1, a transport robot system (100) according to one embodiment of the present invention includes a housing (101), a communication module (110), a photographing device (120), a memory (130), a driving module (140), a processor (160), a loading unit (170), and a sensor (180).
하우징(101)은 직사각형 등의 다양한 형상으로 형성되어 내부에 통신모듈(110), 메모리(130), 구동모듈(140), 프로세서(160) 및 센서(180) 등이 장착될 수 있는 공간이 마련될 수 있다. 이때, 하우징(101)의 형상이나 재질은 다양하게 변형될 수 있다. 또한, 하우징(101)의 상부에는 촬영장치(120)가 장착될 수 있고, 하우징(101)의 하부에는 바퀴(150)가 장착될 수 있다. The housing (101) may be formed in various shapes such as a rectangle, and a space may be provided inside in which a communication module (110), a memory (130), a driving module (140), a processor (160), and a sensor (180) may be mounted. At this time, the shape or material of the housing (101) may be modified in various ways. In addition, a photographing device (120) may be mounted on the upper part of the housing (101), and a wheel (150) may be mounted on the lower part of the housing (101).
하우징(101)은 외부 환경의 변화, 예컨데 비 등의 날씨 변화에 대응할 수 있도록 방수 처리된 형태를 유지할 수 있다.The housing (101) can maintain a waterproof form so as to be able to respond to changes in the external environment, such as weather changes such as rain.
통신모듈(110)은 통신망과 연동하여 운송 로봇 시스템(100)과 원격 제어 장치(미도시) 송수신 신호를 패킷 데이터 형태로 제공하는 데 필요한 통신 인터페이스를 제공할 수 있다. 특히, 통신모듈(110)은 원격 제어 장치로부터 제어 명령을 수신할 수 있다. 여기서 통신망이라 함은, 운송 로봇 시스템(100)과 원격 제어 장치를 연결하는 역할을 수행하는 매개체일 수 있다. 또한 통신모듈(110)은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. 또한, 통신모듈(110)은 근거리 통신모듈, 무선 통신모듈, 이동통신 모듈, 유선 통신모듈 등 다양한 형태로 구현될 수 있다.The communication module (110) may provide a communication interface necessary to provide a transmission/reception signal between the transport robot system (100) and a remote control device (not shown) in the form of packet data by linking with a communication network. In particular, the communication module (110) may receive a control command from the remote control device. Here, the communication network may be a medium that performs a role of connecting the transport robot system (100) and the remote control device. In addition, the communication module (110) may be a device including hardware and software necessary to transmit/receive signals such as a control signal or a data signal through a wired/wireless connection with another network device. In addition, the communication module (110) may be implemented in various forms such as a short-range communication module, a wireless communication module, a mobile communication module, and a wired communication module.
메모리(130)는 운송 로봇 시스템(100)의 동작과 관련된 데이터들을 저장하는 구성이다. 특히, 메모리(130)에는 영상 데이터에 기초하여 주변 환경 정보를 인식하고, 주변 환경 정보에 기초하여 주행 가능 영역을 구분하며, 주행 가능 영역을 이용하여 작업자 위치까지의 주행 경로를 생성하고, 주행 경로를 따라 주행하도록 하는 어플리케이션(프로그램 또는 애플릿) 등이 저장될 수 있으며, 저장되는 정보들은 필요에 따라 프로세서(160)에 의해 취사 선택될 수 있다. 즉, 메모리(130)에는 운송 로봇 시스템(100)의 구동을 위한 운영 체제나 농작물 재배 게임 어플리케이션(프로그램 또는 애플릿)의 실행 과정에서 발생되는 여러 종류가 데이터가 저장된다. 이때, 메모리(130)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장장치를 통칭하는 것이다. 또한, 메모리(130)는 프로세서(160)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행할 수 있다. 여기서, 메모리(130)는 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장장치 외에 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The memory (130) is a configuration that stores data related to the operation of the transport robot system (100). In particular, the memory (130) may store applications (programs or applets) that recognize surrounding environment information based on image data, divide a drivable area based on the surrounding environment information, generate a driving path to the worker's location using the drivable area, and drive along the driving path, and the stored information may be selectively selected by the processor (160) as needed. That is, the memory (130) stores various types of data generated during the execution of an operating system for driving the transport robot system (100) or an agricultural crop cultivation game application (program or applet). At this time, the memory (130) collectively refers to a nonvolatile storage device that maintains stored information even when power is not supplied and a volatile storage device that requires power to maintain stored information. In addition, the memory (130) may perform a function of temporarily or permanently storing data processed by the processor (160). Here, the memory (130) may include a magnetic storage media or a flash storage media in addition to a volatile storage device that requires power to maintain stored information, but the scope of the present invention is not limited thereto.
촬영장치(120)는 영상 데이터를 획득하여 프로세서(160)로 전송할 수 있다. 촬영장치(120)는 전방을 촬영할 수 있는 화각을 가지도록 설치될 수 있다. The photographing device (120) can obtain image data and transmit it to the processor (160). The photographing device (120) can be installed to have a field of view that can photograph the front.
이러한 촬영장치(120)는 카메라, RGB카메라, 딥러닝카메라, Depth카메라, 비전 카메라, 스테레오 카메라 등을 포함할 수 있다. These photographing devices (120) may include cameras, RGB cameras, deep learning cameras, depth cameras, vision cameras, stereo cameras, etc.
센서(180)는 위치센서(182) 및 무게센서(184)를 포함한다. The sensor (180) includes a position sensor (182) and a weight sensor (184).
위치센서(182)는 운송 로봇 시스템(100)의 위치 정보를 수집하여 프로세서(160)로 전송할 수 있다. 이러한 위치센서(182)는 GPS, Glonass, Galileo 등을 포함할 수 있다. The position sensor (182) can collect position information of the transport robot system (100) and transmit it to the processor (160). The position sensor (182) can include GPS, Glonass, Galileo, etc.
무게센서(184)는 운송 로봇 시스템(100)이 운송하기 위해 적재부(170)에 적재한 물건의 무게를 측정할 수 있다.The weight sensor (184) can measure the weight of an object loaded on the loading section (170) for transport by the transport robot system (100).
본 발명에 따른 센서(180)는 거리 측정 센서(미도시)를 더 포함할 수 있다. 거리측정센서는 작업자(10)의 후방에서 작업자(10)를 인식할 수 있도록 한다. 거리측정센서는 레이저 스캐너 또는 초음파 센서 중 하나일 수 있으나 이에 대해 한정하는 것은 아니다. 레이저 스캐너는 0°~ 180°의 범위 내에서 4m 이내의 객체의 거리를 감지할 수 있다.The sensor (180) according to the present invention may further include a distance measuring sensor (not shown). The distance measuring sensor enables the worker (10) to be recognized from behind the worker (10). The distance measuring sensor may be one of a laser scanner or an ultrasonic sensor, but is not limited thereto. The laser scanner can detect the distance of an object within 4 m within a range of 0° to 180°.
구동모듈(140)은 전원부(미도시)로부터 공급되는 전력을 이용하여 운송 로봇 시스템(100)을 이동시키는 역할을 하며, 운송 로봇 시스템(100)에 구비된 바퀴(150)를 구동시키는 모터 구동 드라이버일 수 있다. 구동모듈(140)은 바퀴(150)에 구동력을 제공하는 모터를 포함하고, 모터에 의해 생성되는 구동력에 따라 운송 로봇 시스템(100)을 구동시킬 수 있다.The drive module (140) moves the transport robot system (100) using power supplied from a power supply (not shown), and may be a motor drive driver that drives a wheel (150) provided in the transport robot system (100). The drive module (140) includes a motor that provides driving force to the wheel (150), and can drive the transport robot system (100) according to the driving force generated by the motor.
바퀴(150)는 하우징(101)의 하부에 설치되어 운송 로봇 시스템(100)을 이동시킬 수 있다. 운송 로봇 시스템(100)은 도 3에 도시된 바와 같이 작업자(10)를 추종하면서 실외의 노지를 주행하는 바, 바퀴(150)는 우천 등의 환경에서도 원활한 주행을 보장하도록 구성될 수 있다. The wheel (150) is installed at the bottom of the housing (101) and can move the transport robot system (100). As shown in FIG. 3, the transport robot system (100) follows the worker (10) while driving on an outdoor road, and the wheel (150) can be configured to ensure smooth driving even in environments such as rain.
적재부(170)는 운송 로봇 시스템(100)을 이용하여 운송하고자 하는 물품이 적재될 수 있다. 예컨대, 적재부(170)에는 농작물, 물류 등이 적재될 수 있다.The loading section (170) can be loaded with items to be transported using the transport robot system (100). For example, crops, logistics, etc. can be loaded into the loading section (170).
적재부(170)는 하우징(101)의 상부에 형성될 수 있고, 하우징(101)의 내부에 형성될 수도 있다. 또한, 적재부(170)는 물품을 수납하는 저장공간(미도시)과 저장공간의 일측에 설치된 도어(미도시)로 구성될 수 있다. 도어에 의해 개폐되는 저장공간을 설치하면, 운반 중 물품 도난이나 충돌에 의한 파손을 방지할 수 있는 이점이 있다. 또한, 적재부(170)는 물품을 자동으로 싣고 내리는 역할을 수행하는 컨베이어(미도시)를 더 포함할 수 있다. The loading section (170) may be formed on the upper part of the housing (101) or may be formed inside the housing (101). In addition, the loading section (170) may be composed of a storage space (not shown) for storing items and a door (not shown) installed on one side of the storage space. If a storage space that opens and closes by a door is installed, there is an advantage in that theft of items or damage due to collision can be prevented during transport. In addition, the loading section (170) may further include a conveyor (not shown) that automatically loads and unloads items.
프로세서(160)는 촬영장치(120)를 통해 획득된 영상 데이터에 기초하여 주변 환경 정보를 인식하고, 주변 환경 정보에 기초하여 주행 가능 영역을 구분하며, 주행 가능 영역을 이용하여 작업자 위치까지의 주행 경로를 생성하고, 주행 경로를 따라 주행하도록 구동모듈(140)을 제어함으로써, 작업자(10)를 추종하도록 할 수 있다. The processor (160) recognizes surrounding environment information based on image data acquired through the photographing device (120), divides a drivable area based on the surrounding environment information, generates a driving path to the worker's location using the drivable area, and controls the driving module (140) to drive along the driving path, thereby enabling the worker (10) to be followed.
이하, 프로세서(160)의 동작에 대해 구체적으로 설명하기로 한다.Below, the operation of the processor (160) will be described in detail.
프로세서(160)는 영상 데이터에 객체 인식 모델(주행 환경 인지 모델)을 적용하여 주변 환경 정보를 인식할 수 있다. 객체 인식 모델(주행 환경 인지 모델)은 영상 데이터로부터 주행 환경 정보를 검출하기 위한 딥러닝 모델로서, 영상 기반 객체 검출 모델이다. 여기서, 주변 환경 정보는 객체, 노면 등을 포함할 수 있고, 객체는 작업자(10), 장애물 등을 포함할 수 있다. 예를 들면, 프로세서(160)는 YOLO, Fast R-CNN 등 객체 인식 알고리즘을 이용하여 영상 데이터에서 객체를 검출할 수 있다. The processor (160) can recognize surrounding environment information by applying an object recognition model (driving environment recognition model) to image data. The object recognition model (driving environment recognition model) is a deep learning model for detecting driving environment information from image data, and is an image-based object detection model. Here, the surrounding environment information can include objects, road surfaces, etc., and the objects can include workers (10), obstacles, etc. For example, the processor (160) can detect objects from image data using an object recognition algorithm such as YOLO or Fast R-CNN.
프로세서(160)는 객체 인식 모델을 이용하여 통합적으로 주행 환경 정보를 검출하는 멀티태스크(Multi-Task)를 동시에 수행할 수 있다. 예를 들어 프로세서(160)는 객체 인식 모델을 실행하여 영상 데이터로부터 작업자(10)를 검출하는 태스크, 노면을 검출하는 태스크 등을 동시에 수행할 수 있다. 프로세서(160)는 작업자(10)가 검출되면, 작업자(10)와 다른 객체들을 구분하기 위해 작업자(10)와 다른 객체(장애물)들 각각에 ID를 부여하여 라벨링을 수행할 수 있다. The processor (160) can simultaneously perform a multi-task of detecting driving environment information in an integrated manner using an object recognition model. For example, the processor (160) can simultaneously perform a task of detecting a worker (10) from image data, a task of detecting a road surface, etc. by executing an object recognition model. When the worker (10) is detected, the processor (160) can perform labeling by assigning an ID to each of the worker (10) and other objects (obstacles) to distinguish them from the worker (10).
주변 환경 정보가 검출되면, 프로세서(160)는 주변 환경 정보에서 노면을 추출하고, 추출된 노면에서 주행 가능 영역을 구분하며, 주행 가능 영역 상의 장애물을 검출하고, 장애물을 회피하여 작업자 위치까지의 주행 경로를 생성할 수 있다. When the surrounding environment information is detected, the processor (160) can extract a road surface from the surrounding environment information, divide a drivable area from the extracted road surface, detect obstacles on the drivable area, and generate a driving path to the worker's location by avoiding the obstacles.
구체적으로, 프로세서(160)는 이미지 세그멘테이션을 통해 도로, 바닥, 평지 등의 노면을 구분하여 주행 가능 영역을 검출하고, 주행 가능 영역 상의 객체 인식을 통해 장애물의 유무 및 장애물의 위치에 따라 주행 가능 여부를 판단할 수 있다. 즉, 주행 가능 영역에 장애물이 존재하지 않으면, 프로세서(160)는 해당 영역을 주행 가능한 것으로 판단하여 주행 경로 생성시 이용할 수 있다. Specifically, the processor (160) can detect a drivable area by distinguishing a road surface such as a road, a ground, or a flat surface through image segmentation, and determine whether drivability is possible based on the presence or absence of an obstacle and the location of the obstacle through object recognition on the drivable area. That is, if there is no obstacle in the drivable area, the processor (160) can determine that the area is drivable and use it when generating a driving path.
만약, 주행 가능 영역에 장애물이 존재하면, 프로세서(160)는 장애물의 위치를 파악할 수 있다. 이때, 프로세서(160)는 촬영장치(120)와 연관된 복수의 파라미터들을 이용하여 영상 데이터의 픽셀과 월드 좌표계(world coordinate system) 상의 좌표를 대응시킴으로써, 장애물(객체)의 위치를 추정할 수 있다. If an obstacle exists in the drivable area, the processor (160) can identify the location of the obstacle. At this time, the processor (160) can estimate the location of the obstacle (object) by corresponding the pixels of the image data to the coordinates on the world coordinate system using a plurality of parameters associated with the photographing device (120).
즉, 프로세서(160)는 촬영장치(120) 관련 파라미터를 기반으로, 실제 위치 정보를 산출할 수 있다. 여기서, 실제 위치 정보는 현실 좌표와 연관된 위치일 수 있고, 월드 좌표계(WCS: World Coordinate System)와 연계된 좌표에 기반한 위치라고 할 수 있다. 이는 기본적으로 촬영장치(120)로부터의 상대적인 현실 거리로 산출된다. 즉, x=-2, y=1라면, 촬영장치(120)로부터 1미터 앞에 있으면서, 2미터 왼쪽에 있는 위치를 가리킬 수 있다. 촬영장치 관련 파라미터는 촬영장치(120)의 지면으로부터의 높이, 수직방향으로의 기울기(지면으로의 기울기), 수평방향으로의 기울기, 촬영장치(120)의 초점 거리, 틸트 각도, 수평/수직 촬영범위 등을 포함할 수 있다. 이러한 파라미터를 통해 프로세서(160)는 촬영 영역의 월드 좌표계 상의 위치(카메라로부터의 상대적인 위치)를 산출할 수 있고, 나아가 촬영 영상 내에서, 작업자(10)의 위치를 상대적 거리로 정밀하게 특정할 수 있다. That is, the processor (160) can calculate actual location information based on parameters related to the photographing device (120). Here, the actual location information can be a location related to real coordinates, and can be said to be a location based on coordinates linked to the World Coordinate System (WCS). This is basically calculated as a relative real distance from the photographing device (120). That is, if x=-2, y=1, it can indicate a location 1 meter in front of the photographing device (120) and 2 meters to the left. The photographing device-related parameters can include the height of the photographing device (120) from the ground, the vertical inclination (the inclination toward the ground), the horizontal inclination, the focal length of the photographing device (120), the tilt angle, the horizontal/vertical photographing range, etc. Through these parameters, the processor (160) can calculate the position in the world coordinate system of the shooting area (relative position from the camera), and further, can precisely specify the position of the worker (10) in the shooting image as a relative distance.
다시 말하면, 프로세서(160)는 촬영장치(120)를 통해 획득된 영상 데이터에서 대상 객체(작업자(10), 장애물 등)의 영상 내 좌표를 확인할 수 있다. 이때, 프로세서(160)는 기존의 영상 내 객체를 인식하는 간단한 영상 인식 기술을 활용하여, 촬영장치(120)가 촬영한 영상 데이터에서 대상 객체(예: 작업자(10), 장애들 등)의 영상 내 좌표를 확인할 수 있다. 그런 후, 프로세서(160)는 촬영장치 관련 파라미터를 근거로, 객체의 영상 내 좌표를 수직 촬영범위의 각도 비율이 반영된 촬영영상의 실제 촬영공간에 대한 공간 내 좌표로 변환할 수 있다. In other words, the processor (160) can confirm the coordinates of the target object (worker (10), obstacle, etc.) in the image data acquired through the photographing device (120). At this time, the processor (160) can use a simple image recognition technology for recognizing an object in an existing image to confirm the coordinates of the target object (e.g., worker (10), obstacles, etc.) in the image data captured by the photographing device (120). Then, the processor (160) can convert the coordinates of the object in the image into spatial coordinates for the actual shooting space of the captured image in which the angular ratio of the vertical shooting range is reflected based on parameters related to the photographing device.
예를 들면, 프로세서(160)는 촬영장치(120)의 설치 높이, 틸트 각도, 수직 촬영범위를 근거로, 촬영영상의 영상 내 y 좌표를 이용하여 수직 촬영범위의 각도 비율이 반영된 수직 촬영각도를 계산하고, 계산된 수직 촬영각도를 이용하여 영상 내 y 좌표와 매칭되는 촬영공간의 공간 내 y 좌표를 계산할 수 있다.For example, the processor (160) may calculate a vertical shooting angle that reflects the angular ratio of the vertical shooting range by using the y coordinate within the image of the shooting image based on the installation height, tilt angle, and vertical shooting range of the shooting device (120), and may calculate a y coordinate within the shooting space that matches the y coordinate within the image by using the calculated vertical shooting angle.
촬영장치(120)를 통해 획득된 영상 데이터는 디지털 영상으로서 픽셀(Pixel) 단위로 표현되는데, 프로세서(160)는 영상 데이터 및 이와 대응되는 실제 촬영공간의 형태가 다르다는 점을 반영하여, 영상 데이터 내 각 픽셀 단위의 위치를 실제 촬영공간의 실제 위치와 매핑시켜 변환할 수 있다. Image data acquired through a shooting device (120) is expressed as a digital image in pixel units, and the processor (160) can convert the location of each pixel unit in the image data by mapping it to the actual location of the actual shooting space, reflecting the fact that the image data and the corresponding actual shooting space have different shapes.
만약, 촬영장치(120)의 절대적인 위치, 즉, GIS(geographic information system) 상의 위경도 위치를 알고 있다면, 프로세서(160)는 촬영장치 좌표계와 월드 좌표계를 대응시키는 방법을 통해, 촬영영역의 촬영장치(120)로부터의 상대적인 위치를 산출할 수 있고, 산출된 위치를 절대적인 촬영장치 위치와 합산함에 의해, 촬영영역의 절대적인 위치를 산출할 수 있다.If the absolute position of the photographing device (120), i.e., the latitude and longitude position on a GIS (geographic information system), is known, the processor (160) can calculate the relative position of the photographing area from the photographing device (120) by a method of corresponding the photographing device coordinate system and the world coordinate system, and can calculate the absolute position of the photographing area by adding the calculated position to the absolute photographing device position.
주행 가능 영역에 존재하는 장애물의 위치가 파악되면, 프로세서(160)는 현재 위치부터 작업자 위치까지 도달하는 주행 경로를 직선 또는 장애물을 회피하는 경로로 생성할 수 있다. Once the location of an obstacle in the drivable area is identified, the processor (160) can generate a driving path from the current location to the worker's location as a straight line or a path that avoids the obstacle.
한편, 주행 가능 영역에서 장애물의 회피는 불가능하지만, 그 장애물을 운송 로봇 시스템(100)이 처리하여 주행 경로로 이용할 수도 있다. Meanwhile, although avoidance of obstacles in the drivable area is impossible, the transport robot system (100) may process the obstacles and use them as a driving path.
이를 위해, 운송 로봇 시스템(100)은 장애물을 처리하기 위한 작업모듈(미도시)을 더 포함할 수 있다. 작업모듈은 제한 없이 운송 관련 작업을 수행하기 위한 다양한 장치일 수 있다. 이러한 작업모듈은 장애물을 들어서 다른 곳으로 이동시키는 작업을 위한 제1 처리장치(미도시), 노면을 고르게 하는 작업을 위한 제2 처리장치(미도시), 장애물을 자르는 작업을 위한 제3 처리장치(미도시) 등을 포함할 수 있다. To this end, the transport robot system (100) may further include a work module (not shown) for handling obstacles. The work module may be a variety of devices for performing transport-related tasks without limitation. The work module may include a first processing device (not shown) for lifting an obstacle and moving it to another location, a second processing device (not shown) for leveling a road surface, a third processing device (not shown) for cutting an obstacle, etc.
작업모듈이 구비되고, 주행 가능 영역에서 장애물의 회피가 불가능한 영역이 존재하는 경우, 프로세서(160)는 장애물에 대한 분석을 수행하여, 작업모듈을 통해 장애물의 처리가 가능한지를 판단할 수 있다. 작업모듈을 통해 처리가 가능한 장애물의 경우, 프로세서(160)는 작업모듈을 이용하여 해당 장애물을 처리하고, 그 영역을 주행 경로 생성시 이용할 수 있다. 만약, 장애물 처리가 가능하지 않은 경우 프로세서(160)는 장애물로 인한 이동 불가능 정보를 작업자(10)에게 알릴 수 있다. If a work module is provided and there is an area in the drivable area where avoidance of an obstacle is impossible, the processor (160) can perform an analysis on the obstacle and determine whether the obstacle can be processed through the work module. In the case of an obstacle that can be processed through the work module, the processor (160) can process the obstacle using the work module and use the area when generating a driving path. If the obstacle cannot be processed, the processor (160) can inform the worker (10) of information about the impossibility of movement due to the obstacle.
또한, 운송 로봇 시스템(100)이 주행경로를 따라 주행하는 중에 돌발 장애물이 나타날 수 있다. 여기서, 돌발 장애물은 돌, 새, 고양이, 강아지 등을 포함할 수 있다. 주행 경로상에 돌발 장애물이 나타나는 경우, 운송 로봇 시스템(100)은 돌발 장애물을 회피하기 위해 하우징(101)(몸체) 높이를 조절하는 액추에이터(미도시)를 더 포함할 수 있다. 액추에이터는 프로세서(160)의 제어에 따라 하우징(101)을 수직 방향으로 신장 또는 수축시킴으로써, 장애물을 통과할 수 있도록 할 수 있다. In addition, an unexpected obstacle may appear while the transport robot system (100) is driving along the driving path. Here, the unexpected obstacle may include a stone, a bird, a cat, a dog, etc. When an unexpected obstacle appears on the driving path, the transport robot system (100) may further include an actuator (not shown) that adjusts the height of the housing (101) (body) to avoid the unexpected obstacle. The actuator may expand or contract the housing (101) in the vertical direction under the control of the processor (160), thereby enabling the robot to pass through the obstacle.
주행경로를 따라 주행 중, 돌발 장애물이 나타나면, 프로세서(160)는 촬영장치(120)를 통해 획득된 영상 데이터에 기초하여 돌발 장애물에 대한 높이 분석 및 폭 분석을 수행하여, 하우징(101)(몸체)의 높이를 조절하여 돌발 장애물의 통과 여부를 판단하고, 통과 가능한 경우, 액추에이터를 제어하여 하우징(101)(몸체)의 높이를 조절할 수 있다. 하우징(101)의 높이를 조절함으로써, 운송 로봇 시스템(100)은 돌발 장애물을 극복하고 주행 경로를 따라 주행할 수 있다. When an unexpected obstacle appears while driving along a driving path, the processor (160) performs a height analysis and a width analysis on the unexpected obstacle based on image data acquired through the photographing device (120), and determines whether the unexpected obstacle can be passed by adjusting the height of the housing (101) (body), and if it can be passed, the height of the housing (101) (body) can be adjusted by controlling the actuator. By adjusting the height of the housing (101), the transport robot system (100) can overcome the unexpected obstacle and drive along the driving path.
한편, 상기와 같이 구성된 운송 로봇 시스템(100)의 경우, 작업자(10)가 운송 로봇 시스템(100)과 일정 거리 이상 떨어져 있어 운송 로봇 시스템(100)의 직접 조작이 어려울 수 있다. 또한, 작업자(10)가 장갑이나 물건을 들고 있어, 운송 로봇 시스템(100)을 스위치나 리모컨 등으로 조작하기 어려울 수 있다. 또한, 작업자(10)는 원거리에서 운송 로봇 시스템(100)을 특정 수신호 명령으로 제어하고 싶을 수 있다. 이러한 경우, 프로세서(160)는 촬영장치(120)를 통해 획득한 영상 데이터를 분석하여 작업자(10)의 자세를 인식하고, 인식된 자세가 수신호 명령을 나타낸 경우, 해당 수신호 명령에 대응하는 동작을 수행하도록 제어할 수 있다. 이때, 메모리(130)에는 다양한 자세(포즈)와 각 자세(포즈)에 대한 수신호 명령이 저장되어 있다. 예를 들면, 도 4의 (a)에 도시된 자세의 경우, "정지"를 나타내는 수신호 명령일 수 있다. 도 4의 (b)에 도시된 자세는 "이동"을 나타내는 수신호 명령일 수 있다. Meanwhile, in the case of the transport robot system (100) configured as described above, the worker (10) may have difficulty in directly operating the transport robot system (100) because the worker (10) is a certain distance away from the transport robot system (100). In addition, the worker (10) may have difficulty in operating the transport robot system (100) using a switch or remote control because the worker (10) is holding gloves or an object. In addition, the worker (10) may want to control the transport robot system (100) from a distance with a specific hand signal command. In this case, the processor (160) may analyze the image data acquired through the photographing device (120) to recognize the posture of the worker (10), and if the recognized posture indicates a hand signal command, control to perform an operation corresponding to the hand signal command. At this time, various postures (poses) and hand signal commands for each posture (pose) are stored in the memory (130). For example, in the case of the posture shown in (a) of FIG. 4, it may be a hand signal command indicating "stop". The posture shown in (b) of Fig. 4 may be a hand signal command indicating “move.”
촬영장치(120)를 통해 획득된 영상 데이터에는 다수의 사용자가 존재할 수 있다. 이 경우, 프로세서(160)는 다수의 사용자 중에서 작업자(10)를 검출하고, 검출된 작업자(10)의 자세를 인식해야 한다. 이에, 프로세서(160)는 얼굴 인식 알고리즘을 이용하여 각 사용자의 얼굴 이미지를 획득하고, 얼굴 이미지를 메모리(130)에 저장된 작업자 얼굴과 비교하여 작업자(10)를 검출할 수 있다. There may be multiple users in the image data acquired through the camera (120). In this case, the processor (160) must detect the worker (10) among the multiple users and recognize the posture of the detected worker (10). Accordingly, the processor (160) may acquire the face image of each user using a face recognition algorithm and detect the worker (10) by comparing the face image with the worker's face stored in the memory (130).
또한, 운송 로봇 시스템(100)은 수신호 명령뿐만 아니라, 음성으로도 제어 명령을 수신할 수 있다. 이 경우, 운송 로봇 시스템(100)은 음성 명령을 입력받는 마이크(미도시)를 더 포함할 수 있다. 마이크로 통해 음성이 입력되면, 프로세서(160)는 마이크를 통해 입력된 음성 명령이 기 설정된 작업자(10)의 음성인지를 판단할 수 있다. 판단결과, 작업자(10)의 음성인 경우, 프로세서(160)는 음성 명령에 대응하는 동작을 수행하도록 제어할 수 있다. In addition, the transport robot system (100) can receive control commands not only by hand signal commands but also by voice. In this case, the transport robot system (100) can further include a microphone (not shown) for receiving voice commands. When a voice is input through the microphone, the processor (160) can determine whether the voice command input through the microphone is the voice of a preset worker (10). If the determination result is that it is the voice of the worker (10), the processor (160) can control to perform an operation corresponding to the voice command.
주행 경로를 따라 이동하는 중에, 무게센서(184)를 통해 측정된 무게값이 초기 무게값보다 기 설정된 일정값 이상 작은 경우, 프로세서(160)는 작업자(10) 또는 미리 설정된 관리자에게 알릴 수 있다. 즉, 무게센서(184)를 통해 측정된 무게값이 초기 무게값보다 일정값 이상 작으면, 물품이 노면으로 떨어진 것으로 판단할 수 있다. 이에, 프로세서(160)는 물품이 노면이 떨어졌다는 것을 작업자(10) 또는 관리자에게 알릴 수 있다. 이때, 프로세서(160)는 소리, 문자 메시지 등을 이용하여 물품이 노면이 떨어졌음을 알릴 수 있다. While moving along the driving path, if the weight value measured by the weight sensor (184) is less than the initial weight value by a preset value or more, the processor (160) can notify the worker (10) or a preset manager. That is, if the weight value measured by the weight sensor (184) is less than the initial weight value by a preset value or more, it can be determined that the item has fallen on the road surface. Accordingly, the processor (160) can notify the worker (10) or manager that the item has fallen on the road surface. At this time, the processor (160) can notify that the item has fallen on the road surface by using a sound, a text message, or the like.
작업자(10)가 운송 로봇 시스템(100)을 원격에서 제어하는 원격 제어 장치를 가지고 이동하는 경우, 프로세서(160)는 원격 제어 장치에서 발생된 자기장의 강도를 측정하고, 자기장의 강도를 기초로 운송 로봇 시스템(100)이 작업자(10)와 미리 설정된 일정 거리를 유지하도록 운송 로봇 시스템(100)의 방향 또는 속도를 제어할 수 있다. 예를 들면, 자기장 강도를 미리 설정된 기준자기장값과 비교하여 오차가 커지면, 프로세서(160)는 운송 로봇 시스템(100)의 이동속도를 증가시킬 수 있다. 자기장 강도가 미기 기준자기장값과의 설정 허용 오차보다 낮아지게 되면, 프로세서(160)는 직전에 이동하던 방향으로 이송로봇을 계속하여 이동시킬 수 있다. When the worker (10) moves with a remote control device that remotely controls the transport robot system (100), the processor (160) can measure the intensity of the magnetic field generated by the remote control device and control the direction or speed of the transport robot system (100) so that the transport robot system (100) maintains a preset distance from the worker (10) based on the intensity of the magnetic field. For example, when the magnetic field intensity is compared with a preset reference magnetic field value and the error increases, the processor (160) can increase the moving speed of the transport robot system (100). When the magnetic field intensity becomes lower than the set allowable error with respect to the micro reference magnetic field value, the processor (160) can continue to move the transport robot in the direction in which it was moving just before.
운송 로봇 시스템(100)이 자동으로 작업자(10)와 일정한 거리를 유지하도록 함으로써, 작업자(10)가 농작물 등을 수확한 위치에서 운송 로봇 시스템(100)에 쉽게 적재하여 이송시킬 수 있다.By automatically allowing the transport robot system (100) to maintain a certain distance from the worker (10), the worker (10) can easily load and transport crops, etc. from the location where they were harvested onto the transport robot system (100).
도 5는 본 발명의 일 실시예에 따른 운송 로봇 시스템의 제어 방법을 설명하기 위한 흐름도이다. FIG. 5 is a flowchart for explaining a control method of a transport robot system according to one embodiment of the present invention.
도 5를 참조하면, 프로세서(160)는 촬영장치(120)를 통해 영상 데이터를 획득하고(S502), 획득된 영상 데이터에 기초하여 주변 환경 정보를 인식한다(S504). 이때, 프로세서(160)는 영상 데이터에 객체 인식 모델(주행 환경 인지 모델)을 적용하여 주변 환경 정보를 인식할 수 있다. 주변 환경 정보는 객체, 노면 등을 포함할 수 있고, 객체는 작업자(10), 장애물 등을 포함할 수 있다.Referring to FIG. 5, the processor (160) acquires image data through the photographing device (120) (S502) and recognizes surrounding environment information based on the acquired image data (S504). At this time, the processor (160) can recognize surrounding environment information by applying an object recognition model (driving environment recognition model) to the image data. The surrounding environment information can include objects, road surfaces, etc., and the objects can include workers (10), obstacles, etc.
S504 단계가 수행되면, 프로세서(160)는 주변 환경 정보에 기초하여 주행 가능 영역을 구분하고(S506), 주행 가능 영역을 이용하여 작업자(10) 위치까지 주행 경로를 생성한다(S508). 즉, 프로세서(160)는 이미지 세그멘테이션을 통해 도로, 바닥, 평지 등의 노면을 구분하여 주행 가능 영역을 검출하고, 주행 가능 영역 상의 객체 인식을 통해 장애물의 유무 및 장애물의 위치에 따라 주행 가능 여부를 판단할 수 있다. 주행 가능 영역에 장애물이 존재하지 않으면, 프로세서(160)는 해당 영역을 주행 가능한 것으로 판단하여 주행 경로 생성시 이용할 수 있다. 만약, 주행 가능 영역에 장애물이 존재하면, 프로세서(160)는 장애물의 위치를 파악할 수 있다. 이때, 프로세서(160)는 촬영장치(120)와 연관된 복수의 파라미터들을 이용하여 영상 데이터의 픽셀과 월드 좌표계(world coordinate system) 상의 좌표를 대응시킴으로써, 장애물(객체)의 위치를 추정할 수 있다. 주행 가능 영역에 존재하는 장애물의 위치가 파악되면, 프로세서(160)는 현재 위치부터 작업자 위치까지 도달하는 주행 경로를 직선 또는 장애물을 회피하는 경로로 생성할 수 있다. When step S504 is performed, the processor (160) divides a drivable area based on the surrounding environment information (S506) and generates a driving path to the position of the worker (10) using the drivable area (S508). That is, the processor (160) detects a drivable area by distinguishing a road surface such as a road, a floor, or a flat surface through image segmentation, and determines whether driving is possible based on the presence or absence of an obstacle and the location of the obstacle through object recognition on the drivable area. If there is no obstacle in the drivable area, the processor (160) determines the area as drivable and can use it when generating a driving path. If there is an obstacle in the drivable area, the processor (160) can identify the location of the obstacle. At this time, the processor (160) can estimate the location of the obstacle (object) by corresponding the pixels of the image data with the coordinates on the world coordinate system using a plurality of parameters associated with the photographing device (120). Once the location of an obstacle in the drivable area is identified, the processor (160) can generate a driving path from the current location to the worker's location as a straight line or a path that avoids the obstacle.
S508 단계가 수행되면, 프로세서(160)는 주행 경로를 따라 주행하도록 제어한다(S510). 주행 경로가 생성되면, 프로세서(160)는 주행 경로를 따라 주행하도록 구동모듈(140)을 제어함으로써, 운송 로봇 시스템(100)이 작업자(10)를 추종하도록 할 수 있다. When step S508 is performed, the processor (160) controls driving along a driving path (S510). When a driving path is generated, the processor (160) controls the driving module (140) to drive along the driving path, thereby allowing the transport robot system (100) to follow the worker (10).
S510 단계를 수행하는 중에, 작업자(10)의 수신호 명령이 감지되면(S512), 프로세서(160)는 수신호 명령에 대응하는 동작을 수행한다(S514). 이때, 프로세서(160)는 촬영장치(120)를 통해 획득한 영상 데이터를 분석하여 작업자(10)의 자세를 인식하고, 인식된 자세가 수신호 명령을 나타낸 경우, 해당 수신호 명령에 대응하는 동작을 수행하도록 제어할 수 있다. During the execution of step S510, if a hand signal command from the worker (10) is detected (S512), the processor (160) performs an operation corresponding to the hand signal command (S514). At this time, the processor (160) analyzes the image data acquired through the photographing device (120) to recognize the posture of the worker (10), and if the recognized posture indicates a hand signal command, it can control to perform an operation corresponding to the hand signal command.
상술한 바와 같이 본 발명의 일 실시예에 따른 운송 로봇 시스템 및 그 제어 방법은, 촬영장치를 통해 획득된 영상 데이터에 기초하여 인식되는 주변 환경 정보에 기초하여 작업자 위치까지의 주행 경로를 생성함으로써, 농작물 및 물류 등을 이송시키고, 로봇과 작업자 사이에 장애물이 위치하여도 로봇이 작업자를 용이하게 추종할 수 있다. As described above, the transport robot system and its control method according to one embodiment of the present invention generate a driving path to a worker's location based on surrounding environment information recognized based on image data acquired through a photographing device, thereby transporting crops, logistics, etc., and enabling the robot to easily follow the worker even when an obstacle is located between the robot and the worker.
본 발명의 일 실시예에 따른 운송 로봇 시스템 및 그 제어 방법은, 작업자의 다양한 자세(포즈)와 각 자세(포즈)에 대한 수신호 명령을 설정함으로써, 작업자의 다양한 자세(포즈)로 운송 로봇 시스템을 원격에서 제어할 수 있다. A transport robot system and a control method thereof according to one embodiment of the present invention can remotely control a transport robot system in various postures of a worker by setting various postures of a worker and hand signal commands for each posture.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, these are merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention should be defined by the following patent claims.
100 : 운송 로봇 시스템
101 : 하우징
110 : 통신모듈
120 : 촬영장치
130 : 메모리
140 : 구동모듈
150 : 바퀴
160 : 프로세서
170 : 적재부
180 : 센서 100 : Transport Robot System
101 : Housing
110 : Communication module
120 : Camera device
130 : Memory
140 : Drive module
150 : Wheel
160 : Processor
170 : Loading section
180 : Sensor
Claims (14)
바퀴를 구동시키는 구동모듈; 및
상기 촬영장치를 통해 획득된 영상 데이터에 기초하여 주변 환경 정보를 인식하고, 상기 주변 환경 정보에 기초하여 주행 가능 영역을 구분하며, 상기 주행 가능 영역을 이용하여 작업자 위치까지의 주행 경로를 생성하고, 상기 주행 경로를 따라 주행하도록 상기 구동모듈을 제어함으로써, 작업자를 추종하도록 하는 프로세서를 포함하고,
물품을 적재하는 적재부; 및
상기 적재부에 적재된 물품의 무게를 측정하는 무게센서를 더 포함하고,
상기 프로세서는,
상기 주행 경로를 따라 이동하는 중에, 상기 무게센서를 통해 측정된 무게값이 초기 무게값보다 기 설정된 일정값 이상 작은 경우, 물품이 노면에 떨어졌다는 것을 상기 작업자 또는 미리 설정된 관리자에게 알리는 것을 특징으로 하는 운송 로봇 시스템.
filming device;
A driving module that drives the wheels; and
A processor is included that recognizes surrounding environment information based on image data acquired through the above-mentioned photographing device, divides a drivable area based on the surrounding environment information, generates a driving path to the worker's location using the drivable area, and controls the driving module to drive along the driving path, thereby following the worker.
A loading section for loading goods; and
Further comprising a weight sensor for measuring the weight of the goods loaded on the above loading section,
The above processor,
A transport robot system characterized in that, while moving along the above driving path, if the weight value measured by the weight sensor is less than the initial weight value by a preset value or more, it notifies the worker or a preset manager that the item has fallen on the road surface.
상기 프로세서는,
상기 영상 데이터에 객체 인식 모델을 적용하여 주변 환경 정보를 인식하고,
상기 주변 환경 정보는 작업자, 노면, 장애물 중 적어도 하나를 포함하는 것을 특징으로 하는 운송 로봇 시스템.
In the first paragraph,
The above processor,
By applying an object recognition model to the above image data, we recognize the surrounding environment information,
A transport robot system, characterized in that the above-mentioned surrounding environment information includes at least one of a worker, a road surface, and an obstacle.
상기 프로세서는,
상기 주변 환경 정보에서 노면을 추출하고, 상기 추출된 노면에서 주행 가능 영역을 구분하며, 상기 주행 가능 영역 상의 장애물을 검출하고, 상기 장애물을 회피하여 작업자 위치까지의 주행 경로를 생성하는 것을 특징으로 하는 운송 로봇 시스템.
In the first paragraph,
The above processor,
A transport robot system characterized by extracting a road surface from the above-mentioned surrounding environment information, dividing a drivable area from the extracted road surface, detecting obstacles on the drivable area, and generating a driving path to a worker's location by avoiding the obstacles.
장애물을 처리하기 위한 작업모듈을 더 포함하고,
상기 프로세서는,
상기 주행 가능 영역에서 장애물의 회피가 불가능한 영역이 존재하는 경우, 해당 영역에 존재하는 장애물에 대한 분석을 수행하여, 상기 작업모듈을 통해 장애물 처리 가능 여부를 판단하고, 장애물 처리가 가능한 경우, 상기 작업모듈을 이용하여 상기 장애물을 처리하고, 장애물이 처리된 영역을 주행 경로 생성시 이용하며,
상기 작업모듈은,
장애물을 들어서 이동시키는 작업을 위한 제1 처리장치, 노면을 고르게 하는 작업을 위한 제2 처리장치, 장애물을 자르는 작업을 위한 제3 처리장치 중 적어도 하나를 포함하는 것을 특징으로 하는 운송 로봇 시스템.
In the third paragraph,
Including additional task modules for handling obstacles,
The above processor,
If there is an area in the above-mentioned drivable area where obstacle avoidance is impossible, an analysis is performed on the obstacle in the area, and whether the obstacle can be processed is determined through the above-mentioned work module. If the obstacle can be processed, the obstacle is processed using the above-mentioned work module, and the area where the obstacle is processed is used when generating a driving path.
The above working module is,
A transport robot system characterized by including at least one of a first processing device for lifting and moving an obstacle, a second processing device for leveling a road surface, and a third processing device for cutting the obstacle.
상기 프로세서는,
상기 촬영장치와 연관된 복수의 파라미터들을 이용하여 상기 영상 데이터의 픽셀과 월드 좌표계(world coordinate system) 상의 좌표를 대응시킴으로써, 상기 작업자 또는 장애물의 위치를 추정하는 것을 특징으로 하는 운송 로봇 시스템.
In the third paragraph,
The above processor,
A transport robot system characterized in that the position of the worker or obstacle is estimated by corresponding the pixels of the image data to coordinates in a world coordinate system using a plurality of parameters associated with the photographing device.
상기 로봇의 하우징 높이를 조절하는 액추에이터를 더 포함하고,
상기 프로세서는,
상기 주행경로를 따라 주행 중, 돌발 장애물이 나타나는 경우, 상기 촬영장치를 통해 획득된 영상 데이터에 기초하여 상기 돌발 장애물에 대한 높이 및 폭 분석을 수행하여, 상기 하우징의 높이를 조절하여 돌발 장애물의 통과 여부를 판단하고, 통과 가능한 경우, 상기 액추에이터를 제어하여 상기 하우징의 높이를 조절하는 것을 특징으로 하는 운송 로봇 시스템.
In the first paragraph,
Further comprising an actuator for adjusting the housing height of the robot;
The above processor,
A transport robot system characterized in that, when an unexpected obstacle appears while driving along the above driving path, a height and width analysis of the unexpected obstacle is performed based on image data acquired through the above photographing device, the height of the housing is adjusted to determine whether the unexpected obstacle can be passed, and if passage is possible, the actuator is controlled to adjust the height of the housing.
상기 프로세서는,
상기 영상 데이터에 기초하여 상기 작업자의 자세를 인식하고, 상기 인식된 자세가 수신호 명령을 나타내는 경우, 해당 수신호 명령에 대응하는 동작을 수행하도록 제어하는 것을 특징으로 하는 운송 로봇 시스템.
In the first paragraph,
The above processor,
A transport robot system characterized in that it recognizes the posture of the worker based on the image data, and if the recognized posture indicates a hand signal command, it controls to perform an action corresponding to the hand signal command.
음성 명령을 입력받는 마이크를 더 포함하고,
상기 프로세서는,
상기 마이크를 통해 입력된 음성 명령이 상기 작업자의 음성인 경우, 상기 음성 명령에 대응하는 동작을 수행하도록 제어하는 것을 특징으로 하는 운송 로봇 시스템.
In the first paragraph,
It further includes a microphone for receiving voice commands,
The above processor,
A transport robot system characterized in that, if a voice command input through the microphone is the voice of the worker, it is controlled to perform an action corresponding to the voice command.
상기 프로세서는,
상기 작업자가 소지한 원격 제어 장치에서 발생되는 자기장의 강도를 측정하고, 상기 자기장의 강도에 기초하여 상기 작업자와 미리 설정된 일정 거리를 유지하도록 이동 속도를 제어하는 것을 특징으로 하는 운송 로봇 시스템.
In the first paragraph,
The above processor,
A transport robot system characterized in that it measures the intensity of a magnetic field generated from a remote control device carried by the worker and controls the movement speed to maintain a preset distance from the worker based on the intensity of the magnetic field.
상기 프로세서가 상기 주변 환경 정보에 기초하여 주행 가능 영역을 구분하고, 상기 주행 가능 영역을 이용하여 작업자 위치까지의 주행 경로를 생성하는 단계; 및
상기 프로세서가 상기 주행 경로를 따라 주행하도록 구동모듈을 제어함으로써, 작업자를 추종하도록 하는 단계를 포함하고,
상기 작업자를 추종하도록 하는 단계에서,
상기 프로세서는, 무게센서로부터 적재부에 적재된 물품의 무게값을 수신하고, 상기 주행 경로를 따라 이동하는 중에, 상기 물품의 무게값이 초기 무게값보다 기 설정된 일정값 이상 작은 경우, 물품이 노면에 떨어졌다는 것을 상기 작업자 또는 미리 설정된 관리자에게 알리는 것을 특징으로 하는 운송 로봇 시스템의 제어 방법.
A step in which a processor recognizes surrounding environment information based on image data acquired through a photographing device;
A step in which the processor divides a drivable area based on the surrounding environment information and generates a driving path to the worker's location using the drivable area; and
Including a step of controlling the driving module so that the processor follows the worker by driving along the driving path,
At the stage of following the above worker,
The above processor receives the weight value of the item loaded on the loading unit from the weight sensor, and while moving along the driving path, if the weight value of the item is less than the initial weight value by a preset value or more, the control method of the transport robot system is characterized in that it notifies the worker or a preset manager that the item has fallen on the road surface.
상기 주행 경로를 생성하는 단계에서,
상기 프로세서는, 상기 주변 환경 정보에서 노면을 추출하고, 상기 추출된 노면에서 주행 가능 영역을 구분하며, 상기 주행 가능 영역 상의 장애물을 검출하고, 상기 장애물을 회피하여 작업자 위치까지의 주행 경로를 생성하는 것을 특징으로 하는 운송 로봇 시스템의 제어 방법.
In Article 11,
In the step of generating the above driving route,
A control method for a transport robot system, characterized in that the processor extracts a road surface from the surrounding environment information, divides a drivable area from the extracted road surface, detects an obstacle on the drivable area, and generates a driving path to a worker's location by avoiding the obstacle.
상기 작업자를 추종하도록 하는 단계에서,
상기 주행 경로를 따라 주행 중, 돌발 장애물이 나타나는 경우, 상기 프로세서는 상기 촬영장치를 통해 획득된 영상 데이터에 기초하여 상기 돌발 장애물에 대한 높이 및 폭 분석을 수행하여, 하우징의 높이를 조절하여 돌발 장애물의 통과 여부를 판단하고, 통과 가능한 경우, 액추에이터를 제어하여 상기 하우징의 높이를 조절하는 것을 특징으로 하는 운송 로봇 시스템의 제어 방법.
In Article 11,
At the stage of following the above worker,
A control method for a transport robot system, characterized in that when an unexpected obstacle appears while driving along the driving path, the processor performs a height and width analysis of the unexpected obstacle based on image data acquired through the photographing device, determines whether the unexpected obstacle can be passed by adjusting the height of the housing, and if it can be passed, controls an actuator to adjust the height of the housing.
상기 작업자를 추종하도록 하는 단계 이후,
상기 프로세서가, 상기 영상 데이터에 기초하여 상기 작업자의 자세를 인식하고, 상기 인식된 자세가 수신호 명령을 나타내는 경우, 해당 수신호 명령에 대응하는 동작을 수행하도록 제어하는 단계를 더 포함하는 것을 특징으로 하는 운송 로봇 시스템의 제어 방법.
In Article 11,
After the step of following the above worker,
A control method for a transport robot system, characterized in that the processor further includes a step of recognizing the posture of the worker based on the image data, and, if the recognized posture indicates a hand signal command, controlling the processor to perform an operation corresponding to the hand signal command.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220110138A KR102719530B1 (en) | 2022-08-31 | 2022-08-31 | Transpotation robot system and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220110138A KR102719530B1 (en) | 2022-08-31 | 2022-08-31 | Transpotation robot system and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20240030733A KR20240030733A (en) | 2024-03-07 |
KR102719530B1 true KR102719530B1 (en) | 2024-10-21 |
Family
ID=90271570
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220110138A KR102719530B1 (en) | 2022-08-31 | 2022-08-31 | Transpotation robot system and control method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102719530B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102227167B1 (en) * | 2019-11-13 | 2021-03-12 | 한국로봇융합연구원 | Terrian sensing variable agricultural robot with variable height |
-
2022
- 2022-08-31 KR KR1020220110138A patent/KR102719530B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102227167B1 (en) * | 2019-11-13 | 2021-03-12 | 한국로봇융합연구원 | Terrian sensing variable agricultural robot with variable height |
Also Published As
Publication number | Publication date |
---|---|
KR20240030733A (en) | 2024-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3803734B1 (en) | Tracking vehicles in a warehouse environment | |
CN108290294B (en) | Mobile robot and control method thereof | |
CN107992052B (en) | Target tracking method and device, mobile device and storage medium | |
EP3347875B1 (en) | Localization of a robot in an environment using detected edges of a camera image from a camera of the robot and detected edges derived from a three-dimensional model of the environment | |
US7277559B2 (en) | Mobile apparatus | |
US11703334B2 (en) | Mobile robots to generate reference maps for localization | |
EP2952993A1 (en) | Method for building a map of probability of one of absence and presence of obstacles for an autonomous robot | |
US10384346B2 (en) | Collision detection, estimation, and avoidance | |
KR20110011424A (en) | Method for recognizing position and controlling movement of a mobile robot, and the mobile robot using the same | |
CN112740274A (en) | System and method for VSLAM scale estimation on robotic devices using optical flow sensors | |
KR102719530B1 (en) | Transpotation robot system and control method thereof | |
CN113994291A (en) | Mobile body, control method, and program | |
KR100906991B1 (en) | Method for detecting invisible obstacle of robot | |
KR100590210B1 (en) | Method for mobile robot localization and navigation using RFID, and System for thereof | |
KR100581086B1 (en) | Method and apparatus for mobile robot localization using led of rfid tag | |
KR100587572B1 (en) | System and method for extracting corner point in space using pixel information on camera, robot including the system | |
KR20240069227A (en) | Movable object based on autonomous driving and control method thereof | |
WO2019202878A1 (en) | Recording medium, information processing apparatus, and information processing method | |
KR102701968B1 (en) | Motion recognition-based autonomous driving robot control systems and autonomous driving robot contol method using the same | |
US20240377843A1 (en) | Location based change detection within image data by a mobile robot | |
Choophutthakan et al. | Cascaded Deep Search: Achieving High Object Localization Precision for Roughly Positioned Autonomous Mobile Manipulator | |
KR20240154734A (en) | Service robot and method for providing delivery service thereof | |
WO2024201254A1 (en) | Map-less localization and autonomous navigation of mobile robots | |
WO2018119907A1 (en) | A method, apparatus and computer program product for determining a stopping position of a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |