Nothing Special   »   [go: up one dir, main page]

JP2022166717A - Loading vehicle system - Google Patents

Loading vehicle system Download PDF

Info

Publication number
JP2022166717A
JP2022166717A JP2021072120A JP2021072120A JP2022166717A JP 2022166717 A JP2022166717 A JP 2022166717A JP 2021072120 A JP2021072120 A JP 2021072120A JP 2021072120 A JP2021072120 A JP 2021072120A JP 2022166717 A JP2022166717 A JP 2022166717A
Authority
JP
Japan
Prior art keywords
cargo handling
handling vehicle
sensor
external sensor
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021072120A
Other languages
Japanese (ja)
Inventor
和也 杉本
Kazuya Sugimoto
誠也 伊藤
Seiya Ito
達矢 小野
Tatsuya Ono
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2021072120A priority Critical patent/JP2022166717A/en
Publication of JP2022166717A publication Critical patent/JP2022166717A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Forklifts And Lifting Vehicles (AREA)

Abstract

To solve a problem in which an operation (work) executed by a loading vehicle could not have been realized conventionally in a minimum number of sensor configurations.SOLUTION: A loading vehicle 100 of a loading vehicle system 300 comprises a sensor jig movement mechanism 120 provided at each of external sensors 105 and capable of moving the external sensor 105 along a guide rail part and a sensor jig drive part 325 driving the sensor jig movement mechanism 120 on the basis of a control command. An on-vehicle controller 108 controlling an operation of the loading vehicle 100 of the loading vehicle system 300 decides a target viewpoint of the external sensor 105 on the basis of an operation content executed by the loading device 100 and target viewpoint position information of the external sensor 105 linked to the operation content and generating the control command to the sensor jig drive part 325 on the basis of the target viewpoint.SELECTED DRAWING: Figure 3

Description

本発明は、無人運転走行する荷役車両システムに関する。 The present invention relates to an unmanned cargo handling vehicle system.

近年では、少子高齢化による労働力不足やE-コマース市場拡大による物流件数の増加に伴い、物流倉庫内の省人化や作業効率の向上が課題となっている。この課題を解決するために、無人で動作可能な無人産業車両の導入が進められている。 In recent years, due to labor shortages due to the declining birthrate and aging population and an increase in the number of distributions due to the expansion of the e-commerce market, labor saving and improvement of work efficiency in distribution warehouses have become issues. In order to solve this problem, the introduction of unmanned industrial vehicles that can operate unmanned is underway.

中でも、倉庫内での荷の運搬作業には、フォークリフト等の荷役車両が利用されている。荷役車両の特徴としては、荷を載せたパレット(荷台)の開口部に荷受部材(いわゆるフォーク)の先端を差し入れて持ち上げる「荷積み動作」、荷受部材上に積載した荷を所定の位置に移動して下ろし荷受部材を抜く「荷下ろし動作」などが存在する。 In particular, cargo handling vehicles such as forklifts are used to transport cargo in warehouses. Cargo handling vehicles are characterized by a "loading operation" in which the tip of a load-receiving member (so-called fork) is inserted into the opening of a pallet on which a load is placed and lifted, and the load loaded on the load-receiving member is moved to a specified position. There is a "unloading operation" in which the unloading load receiving member is pulled out.

そのため、荷役車両の無人走行システムを実現する場合、荷役車両は、走行及び停車のみならず、スピンターン(その場旋回)に加え、上記荷積み及び荷下ろしに伴う移載装置(例えばインナマスト)の昇降動作、荷受部材の前後移動といった複数の作業を自動で実行することが求められる。 Therefore, when realizing an unmanned traveling system for a cargo handling vehicle, the cargo handling vehicle not only travels and stops, but also spins (turns in place), and also operates a transfer device (e.g., inner mast) associated with the above-mentioned loading and unloading. It is required to automatically perform a plurality of tasks such as lifting operation and forward/rearward movement of the load receiving member.

上記複数の作業を、安全かつ効率よく自動で実現するために、カメラやLiDAR(Light Detection and Ranging)をはじめとした外界センサを用いた各種検知機能が用いられている。例えば、荷役車両の走行やスピンターンに焦点を当てた場合、走行及びスピンターン中に自車の走行を阻害する障害物(棚、壁、作業員など)を検知する障害物検知機能や、自身が倉庫内のどこを走行しているのかを検知する自己位置推定機能が必要となる。 Various detection functions using external sensors such as cameras and LiDAR (Light Detection and Ranging) are used in order to safely, efficiently and automatically perform the above multiple tasks. For example, when focusing on traveling and spin turns of cargo handling vehicles, an obstacle detection function that detects obstacles (shelves, walls, workers, etc.) A self-position estimation function is required to detect where the robot is running in the warehouse.

また、荷役車両の荷積み動作に焦点を当てた場合、自身が積載しているパレットが存在する棚フレームの位置や姿勢を検知する棚認識機能が必要となる。また、荷役車両の荷下ろし動作に焦点を当てた場合、自身が積載するパレットの姿勢を検知するパレット姿勢検知機能や、自身が積載する荷の形状(幅、奥行、高さ)を検知する荷形状検知機能などが必要となる。この際、倉庫環境によっては、積載するパレットの大きさ(縦×横の種類)も様々存在し、パレットに置かれた積荷の形状も様々である。 In addition, when focusing on the loading operation of a cargo handling vehicle, a shelf recognition function is required to detect the position and orientation of the shelf frame on which the pallet being loaded is located. In addition, when focusing on the unloading operation of cargo handling vehicles, a pallet posture detection function that detects the posture of the pallet it loads and a load shape (width, depth, height) that detects the shape (width, depth, height) of the load it loads. A shape detection function is required. At this time, depending on the warehouse environment, there are various sizes of pallets to be loaded (types of length and width), and the shape of the cargo placed on the pallet also varies.

以上のような荷役車両の多種多様な走行形態を有し、かつ、積載物の形状も倉庫環境によって変動する車両を対象にする場合、実行すべき各作業に対し、外界センサを1台ずつ設置すると、多数のセンサ台数となる。センサ台数が増えると、車載コントローラの処理負荷増加、車体価格、エンジニアリングコストの増加につながる。 When dealing with cargo handling vehicles that have a wide variety of driving modes as described above and the shape of the load changes depending on the warehouse environment, one external sensor is installed for each task to be performed. Then, the number of sensors becomes large. An increase in the number of sensors leads to an increase in the processing load on the in-vehicle controller, vehicle body price, and engineering cost.

そこで、上記問題を解決するために、例えば特許文献1では、走行路面を俯瞰してレーザー光を照射可能とする外界センサを、移載装置より前方に延びるアーム上に設置する発明が提案されている。より具体的には、マストに沿って昇降する昇降部であるリフトブラケットに対し、昇降自在に支持され、リフトブラケットより前方に延びる支持部に支持された外界センサを備えている。 Therefore, in order to solve the above problem, for example, Patent Document 1 proposes an invention in which an external sensor that can irradiate a laser beam with a bird's eye view of the road surface is installed on an arm that extends forward from the transfer device. there is More specifically, the external sensor is supported by a lift bracket, which is a lifting part that moves up and down along the mast, so that it can be moved up and down, and supported by a support part that extends forward from the lift bracket.

特許文献1に記載の構成により、フォークリフトが実施する複数の動作を一台の外界センサで実現可能としている。具体的には、アーム先端部に設置された一台の外界センサのみで、上述したパレット及び荷の形状や姿勢検知、並びに車体前面の障害物検知が対応可能となる。以上より、特許文献1の技術を活用することで、車載コントローラの処理負荷を低減することができる。 With the configuration described in Patent Literature 1, a single external sensor can realize a plurality of operations performed by a forklift. Specifically, only one external sensor installed at the tip of the arm can detect the shape and attitude of the pallet and load, as well as detect obstacles on the front of the vehicle body. As described above, the processing load of the in-vehicle controller can be reduced by utilizing the technology disclosed in Patent Document 1.

また、例えば非特許文献1では、移載装置の側面に設置したガイドレールに対し、外界センサ(LiDAR)を備える構成が提案されている。上記ガイドレールに対し、ガイドレールに沿って昇降するセンサ支持機構を設けることで、外界センサが計測する高さを変化可能としている。 Further, for example, Non-Patent Document 1 proposes a configuration in which an external sensor (LiDAR) is provided for a guide rail installed on the side surface of a transfer device. By providing a sensor support mechanism that moves up and down along the guide rail, the height measured by the external sensor can be changed.

非特許文献1に記載の構成により、例えば所定の位置と比較し、ずれを伴い設置されているパレットなどに対しても、上記外界センサを昇降させ、荷及びパレットの形状を上部から下部まで計測する。これにより、パレットのフォーク差し込み口を正確に計測でき、より精度の高い荷積み動作が実現できる。 With the configuration described in Non-Patent Document 1, for example, compared to a predetermined position, even for a pallet that is installed with a deviation, the external sensor is moved up and down to measure the shape of the load and pallet from the top to the bottom. do. This makes it possible to accurately measure the fork insertion openings of the pallets and achieve more accurate loading operations.

特開2020-83520号公報JP-A-2020-83520

株式会社ZMP、“無人フォークリフト パレット認識機能「ForkEye(フォークアイ)」”、[online]、株式会社ZMPのホームページ、[令和 3年 1月22日検索]、インターネット<URL:https://www.zmp.co.jp/carriro/carriro-fork/tech/forkeye>ZMP Co., Ltd., “Unmanned forklift pallet recognition function “ForkEye””, [online], ZMP Co., Ltd. homepage, [searched on January 22, 2021], Internet <URL: https://www .zmp.co.jp/carriro/carriro-fork/tech/forkeye>

しかし、特許文献1では、移載装置前方に設置した外界センサから走行路面に向けてレーザー光を照射するため、例えば、走行中の障害物検知においては車体側面が死角となり検知ができない。また、リフトブラケットより延びたアームの構造によっては車体長も増加してしまうため、アーム自体の他の環境物体との接触を検知する追加の外界センサ及び検知機能が必要となる。したがって、特許文献1は、荷役車両が行う全ての動作を実現可能な構成ではなく、また、走行環境によっては、追加の検知機能が必要となる。 However, in Patent Document 1, an external sensor installed in front of the transfer device irradiates a laser beam toward the traveling road surface. In addition, depending on the structure of the arm extending from the lift bracket, the length of the vehicle body will also increase, so an additional external sensor and detection function for detecting contact of the arm itself with other environmental objects will be required. Therefore, Patent Document 1 does not have a configuration capable of realizing all operations performed by the cargo handling vehicle, and an additional detection function is required depending on the traveling environment.

また、非特許文献1では、センサ昇降時の計測対象が、荷積み動作時の荷及びパレットに限定されており、センサ昇降量(昇降開始位置及び昇降終了位置)も一定である。一方で、先述したとおり、荷役車両の無人走行システムを実現する場合、荷役車両は、荷積み動作のみならず、荷下ろしや、走行動作及び旋回動作も自動で実施する必要がある。この際、各動作の自動実行を実現するためには、計測対象の特徴を捉える外界センサの最適な視点が動作ごとに存在する。したがって、非特許文献1は、荷役車両が行う全動作を対象とした外界センサの昇降動作及び昇降量を計算していない。 Further, in Non-Patent Document 1, the object to be measured during the sensor elevation is limited to the load and the pallet during the loading operation, and the sensor elevation amount (lifting start position and lifting end position) is also constant. On the other hand, as described above, when realizing an unmanned traveling system for a cargo handling vehicle, the cargo handling vehicle needs to automatically perform not only the loading operation but also the unloading operation, traveling operation, and turning operation. At this time, in order to realize automatic execution of each motion, there is an optimum viewpoint of the external sensor that captures the characteristics of the measurement target for each motion. Therefore, Non-Patent Document 1 does not calculate the lifting motion and the lifting amount of the external sensor for all the motions performed by the cargo handling vehicle.

上記の状況から、荷役車両が行う複数の動作(作業)を最小台数のセンサ構成により実現する荷役車両システムを提供することを目的とする In view of the above situation, the object is to provide a cargo handling vehicle system that realizes multiple operations (work) performed by the cargo handling vehicle with a minimum number of sensor configurations.

上記課題を解決するために、本発明の一態様の荷役車両システムは、荷役車両と、当該荷役車両の動作を制御する車載コントローラとから構成される荷役車両システムである。
荷役車両は、走行及び旋回自在な車両本体と、当該車両本体の格納部から出退可能な荷受部材と、当該荷受部材に昇降自在に設けられた移載装置と、当該移載装置の側面に設置された高さ方向に延在するガイドレール部と、当該ガイドレール部に外界センサ支持部材を介して備えられた、周囲の情報を取得する少なくとも1台の外界センサと、荷受部材及び移載装置が備えるモータを駆動する荷受部材・移載装置駆動部とを含む。
さらに、荷役車両は、外界センサごとにセンサ支持部材をガイドレール部に沿って移動可能に構成されたセンサ治具移動機構と、制御指令に基づいて、当該センサ治具移動機構を駆動するセンサ治具駆動部とを備える。
また、車載コントローラは、荷役車両の位置に応じて当該荷役車両が実施する動作内容を判定する動作判定部と、荷役車両の動作内容と外界センサの目標視点位置情報を紐づけて管理するセンサ視点管理部と、動作判定部により判定された動作内容、及びセンサ視点管理部の目標視点位置情報に基づいて、外界センサの目標視点を決定するセンサ視点変換部と、当該センサ視点変換部で決定された目標視点に基づいて、センサ治具駆動部に対する制御指令を生成する制御指令生成部と、を備える。
In order to solve the above problems, a cargo handling vehicle system according to one aspect of the present invention is a cargo handling vehicle system including a cargo handling vehicle and an on-vehicle controller that controls the operation of the cargo handling vehicle.
The cargo handling vehicle includes a vehicle body that can travel and turn freely, a load receiving member that can move in and out of a storage section of the vehicle body, a transfer device that is provided on the load receiving member so that it can move up and down, and a side surface of the transfer device. An installed guide rail portion extending in a height direction, at least one external sensor for acquiring surrounding information provided on the guide rail portion via an external sensor support member, a load receiving member, and a transfer It includes a load receiving member/transfer device driving section that drives a motor provided in the device.
Further, the cargo handling vehicle includes a sensor jig moving mechanism configured to be able to move a sensor support member along the guide rail portion for each external sensor, and a sensor jig driving the sensor jig moving mechanism based on a control command. and a tool drive.
In addition, the in-vehicle controller includes a motion determination unit that determines the details of the motion to be performed by the cargo handling vehicle according to the position of the cargo handling vehicle, and a sensor viewpoint that links and manages the details of the motion of the cargo handling vehicle and the target viewpoint position information of the external sensor. a management unit; a sensor viewpoint conversion unit that determines the target viewpoint of the external sensor based on the motion content determined by the motion determination unit and the target viewpoint position information of the sensor viewpoint management unit; a control command generating unit that generates a control command for the sensor jig driving unit based on the target viewpoint.

本発明の荷役車両システムの少なくとも一態様によれば、荷役車両は実行すべき動作(作業)を自動で判定し、その判定結果に基づいて外界センサの視点を自動で切替えることができる。そのため、荷役車両システムは、荷役車両が行う複数の動作(作業)を最小台数のセンサ構成で実現可能となる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
According to at least one aspect of the cargo handling vehicle system of the present invention, the cargo handling vehicle can automatically determine the action (work) to be performed, and automatically switch the viewpoint of the external sensor based on the determination result. Therefore, the cargo handling vehicle system can realize a plurality of operations (work) performed by the cargo handling vehicle with a minimum number of sensors.
Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.

本発明の第1の実施形態に係る荷役車両の例を示す側面図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a side view which shows the example of the cargo handling vehicle which concerns on the 1st Embodiment of this invention. 図2Aは、第1の実施形態に係る荷役車両の例を示す上面図である。図2Bは、センサ治具移動機構の例を示す概略図である。2A is a top view showing an example of a cargo handling vehicle according to the first embodiment; FIG. FIG. 2B is a schematic diagram showing an example of a sensor jig moving mechanism. 本発明の第1の実施形態に係る荷役車両システム全体の機能構成例を示すブロック図である。It is a block diagram showing an example of functional composition of the whole material handling vehicle system concerning a 1st embodiment of the present invention. 本発明の第1の実施形態に係る荷役車両システムにおける、走行ノードと棚へのアプローチ経路とを示した概念図である。1 is a conceptual diagram showing travel nodes and approach routes to racks in the cargo handling vehicle system according to the first embodiment of the present invention; FIG. 本発明の第1の実施形態に係る荷役車両システムにおける、荷役車両が実施する作業の一覧と各作業に対する外界センサの地上高とを示すテーブルである。4 is a table showing a list of works performed by the cargo handling vehicle and the ground height of the external sensor for each work in the cargo handling vehicle system according to the first embodiment of the present invention; 本発明の第1の実施形態に係る荷役車両システムにおける、車載コントローラのハードウェア構成例を示すブロック図である。FIG. 2 is a block diagram showing a hardware configuration example of an in-vehicle controller in the cargo handling vehicle system according to the first embodiment of the present invention; 本発明の第1の実施形態に係る荷役車両システムの処理の手順例を示したフローチャートである。It is the flowchart which showed the procedure example of the process of the cargo handling vehicle system which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る荷役車両システムにおける、走行ノード位置に対する外界センサの視点変換の様子を示した概念図である。FIG. 4 is a conceptual diagram showing a state of viewpoint conversion of an external sensor with respect to a traveling node position in the cargo handling vehicle system according to the first embodiment of the present invention; 本発明の第2の実施形態に係る荷役車両システム全体の機能構成例を示すブロック図である。It is a block diagram showing an example of functional composition of the whole cargo handling vehicle system concerning a 2nd embodiment of the present invention. 図10Aは、本発明の第2の実施形態に係る荷役車両システムにおける荷役車両の荷積み動作を示した概念図である。図10Bは、荷がパレットからはみ出ている状態を示す上面図である。図10Cは、不定形の荷を示す上面図である。FIG. 10A is a conceptual diagram showing the loading operation of the cargo handling vehicle in the cargo handling vehicle system according to the second embodiment of the present invention. FIG. 10B is a top view showing a state in which the load protrudes from the pallet. FIG. 10C is a top view showing an irregularly shaped load. 本発明の第2の実施形態に係る荷役車両システムの処理の手順例を示したフローチャートである。It is the flowchart which showed the procedure example of the process of the cargo handling vehicle system which concerns on the 2nd Embodiment of this invention. 図12Aは、本発明の第2の実施形態に係る荷役車両システムにおける荷役車両の荷積み動作の例を示した右側面図である。図12Bは、本発明の第2の実施形態に係る荷役車両システムにおける荷役車両の荷積み動作の例を示した左側面図である。FIG. 12A is a right side view showing an example of loading operation of the cargo handling vehicle in the cargo handling vehicle system according to the second embodiment of the present invention. FIG. 12B is a left side view showing an example of loading operation of the cargo handling vehicle in the cargo handling vehicle system according to the second embodiment of the present invention. 本発明の第2の実施形態に係る荷役車両システムにおける、パレット・荷形状検知部の検知結果(点群)の例を示した概念図である。FIG. 9 is a conceptual diagram showing an example of detection results (point cloud) of a pallet/cargo shape detection unit in the cargo handling vehicle system according to the second embodiment of the present invention. 本発明の第3の実施形態に係る荷役車両システム全体の機能構成例を示すブロック図である。FIG. 11 is a block diagram showing an example of the functional configuration of the entire cargo handling vehicle system according to the third embodiment of the present invention; 本発明の第3の実施形態に係る荷役車両システムにおける、荷役車両の荷下ろし動作を示した概念図(正面図)である。FIG. 11 is a conceptual diagram (front view) showing unloading operation of the cargo handling vehicle in the cargo handling vehicle system according to the third embodiment of the present invention; 本発明の第3の実施形態に係る荷役車両システムにおける、荷役車両の荷下ろし動作を示した概念図(上面図)である。FIG. 11 is a conceptual diagram (top view) showing unloading operation of the cargo handling vehicle in the cargo handling vehicle system according to the third embodiment of the present invention; 本発明の第3の実施形態に係る荷役車両システムの処理の手順例を示したフローチャートである。It is the flowchart which showed the procedure example of the process of the cargo handling vehicle system which concerns on the 3rd Embodiment of this invention. 本発明の第4の実施形態に係る荷役車両システム全体の機能構成例を示すブロック図である。FIG. 12 is a block diagram showing an example of the functional configuration of the entire cargo handling vehicle system according to the fourth embodiment of the present invention; 図19Aは、本発明の第4の実施形態に係る荷役車両システムにおける荷役車両の走行動作の例(外界センサ地上高がパレットと同じ)を示した概念図である。図19Bは、本発明の第4の実施形態に係る荷役車両システムにおける荷役車両の走行動作の他の例(外界センサ地上高がパレットよりも下方)を示した概念図である。FIG. 19A is a conceptual diagram showing an example of the traveling operation of the cargo handling vehicle in the cargo handling vehicle system according to the fourth embodiment of the present invention (where the ground height of the external sensor is the same as that of the pallet). FIG. 19B is a conceptual diagram showing another example of the traveling operation of the cargo handling vehicle in the cargo handling vehicle system according to the fourth embodiment of the present invention (the ground clearance of the external sensor is below the pallet). 本発明の第4の実施形態に係る荷役車両システムの処理の手順例を示したフローチャートである。It is the flowchart which showed the procedure example of the process of the cargo handling vehicle system which concerns on the 4th Embodiment of this invention. 図21Aは、パレット姿勢を加味しない場合の障害物検知部の障害物検知範囲を示した概念図である。図21Bは、パレット姿勢を加味した場合の障害物検知部の障害物検知範囲を示した概念図である。FIG. 21A is a conceptual diagram showing the obstacle detection range of the obstacle detection unit when the pallet attitude is not considered. FIG. 21B is a conceptual diagram showing the obstacle detection range of the obstacle detection unit when the pallet attitude is taken into account. 本発明の第4の実施形態に係る荷役車両システムにおける、障害物検知部が備える障害物検知範囲、障害物検知範囲内に存在する障害物、及び障害物の側面を計測した際に得られた点群情報を示した概念図(上面図)である。In the cargo handling vehicle system according to the fourth embodiment of the present invention, obtained when measuring the obstacle detection range provided by the obstacle detection unit, the obstacle existing within the obstacle detection range, and the side surface of the obstacle FIG. 3 is a conceptual diagram (top view) showing point group information;

以下、本発明を実施するための形態の例について、添付図面を参照して説明する。本明細書及び添付図面において実質的に同一の機能又は構成を有する構成要素については、同一の符号を付して重複する説明を省略する。 Hereinafter, examples of embodiments for carrying out the present invention will be described with reference to the accompanying drawings. In this specification and the accompanying drawings, constituent elements having substantially the same function or configuration are denoted by the same reference numerals, and overlapping descriptions are omitted.

<第1の実施形態>
まず、本発明の第1の実施形態に係る荷役車両システムについて図1~図8を参照して説明する。本発明の荷役車両システムで用いられる荷役車両は、無人運転が可能な荷役車両を想定している。
<First embodiment>
First, a cargo handling vehicle system according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 8. FIG. The cargo handling vehicle used in the cargo handling vehicle system of the present invention is assumed to be a cargo handling vehicle capable of unmanned operation.

[荷役車両]
まず、本発明が適用される無人運転が可能な荷役車両について図1及び図2を用いて説明する。
図1は、荷役車両の例を示す側面図(右側)である。
図2Aは、荷役車両の例を示す上面図である。図2Bは、センサ治具移動機構の例を示す概略図である。
[cargo handling vehicle]
First, an unmanned cargo handling vehicle to which the present invention is applied will be described with reference to FIGS. 1 and 2. FIG.
FIG. 1 is a side view (right side) showing an example of a cargo handling vehicle.
FIG. 2A is a top view of an example cargo handling vehicle. FIG. 2B is a schematic diagram showing an example of a sensor jig moving mechanism.

図1には、荷役車両100としてフォークリフトの例が示されている。荷役車両100には、バンパ110を備えた車両フレーム101(車両本体)と、車両フレーム101に昇降自在に設けられた移載装置102(例えばインナマスト)と、移載装置102から出退可能な荷受部材103(いわゆるフォーク)が具備されている。 FIG. 1 shows an example of a forklift as the cargo handling vehicle 100 . The cargo handling vehicle 100 includes a vehicle frame 101 (vehicle body) provided with a bumper 110, a transfer device 102 (for example, an inner mast) provided on the vehicle frame 101 so as to be able to move up and down, and a cargo receiver capable of advancing and retreating from the transfer device 102. A member 103 (a so-called fork) is provided.

図1に示す二点鎖線は、移載装置102を上昇させた際の移載装置102及び外界センサ105Aの状態を示している。上昇後の外界センサ105Aを、外界センサ105A-1と記載している。本明細書では、進行方向に対し荷受部材103を前にして走行する場合を後進、バンパ110側を前にして走行する場合を前進と定義する。 A two-dot chain line shown in FIG. 1 indicates the state of the transfer device 102 and the external sensor 105A when the transfer device 102 is raised. The external sensor 105A after the ascent is described as the external sensor 105A-1. In this specification, traveling with the load receiving member 103 forward is defined as backward travel, and traveling with the bumper 110 side forward is defined as forward travel.

本実施形態では、パレット、及びパレット上に設置された荷を安全かつ効率的に処理するため、2台の視点変換可能な外界センサを用いて、提案する荷役車両システムを構成する。図1、図2A及び図2Bに示すように、荷役車両100は、移載装置102の側面にガイドレール部104A及びガイドレール部104Bを備えている。ガイドレール部104Aに、センサ支持部材106Aを介し、荷役車両100の周囲にある物体の位置情報を取得する外界センサ105Aが設置されている。同様に、移載装置102のガイドレール部104Aとは反対側に設置されたガイドレール部104Bに、センサ支持部材106Bを介し、外界センサ105Bが設置されている。 In this embodiment, in order to safely and efficiently handle pallets and cargo placed on the pallets, the proposed cargo handling vehicle system is configured using two external sensors capable of viewpoint conversion. As shown in FIGS. 1, 2A and 2B, the cargo handling vehicle 100 includes a guide rail portion 104A and a guide rail portion 104B on the side surface of the transfer device 102. As shown in FIGS. An external sensor 105A that acquires position information of an object around the cargo handling vehicle 100 is installed on the guide rail portion 104A via a sensor support member 106A. Similarly, an external sensor 105B is installed via a sensor support member 106B on a guide rail portion 104B installed on the opposite side of the transfer device 102 from the guide rail portion 104A.

本明細書において、外界センサ105Aを「外界センサA」、及び、外界センサ105Bを「外界センサB」と称することがある。また、外界センサ105Aと外界センサ105Bを特に区別しない場合又はまとめて呼ぶ場合には、外界センサ105と記載する。同様に、ガイドレール部104Aとガイドレール部104Bを特に区別しない場合には、ガイドレール部104と記載する。さらに、センサ支持部材106Aとセンサ支持部材106Bを特に区別しない場合には、センサ支持部材106と記載する。 In this specification, the external sensor 105A may be called "external sensor A", and the external sensor 105B may be called "external sensor B". Moreover, when the external sensor 105A and the external sensor 105B are not distinguished from each other or collectively referred to, they are referred to as the external sensor 105 . Similarly, the guide rail portion 104A and the guide rail portion 104B are referred to as the guide rail portion 104 when they are not distinguished from each other. Further, the sensor support member 106A and the sensor support member 106B are referred to as the sensor support member 106 when they are not distinguished from each other.

図2Bに示すように、ガイドレール部104Aには、外界センサ105Aを昇降させるセンサ治具移動機構120が形成されている。センサ治具移動機構120では、ガイドレール部104Aの内部に、ガイドレール部104Aのガイド方向と平行にボールねじ121が取り付けられている。ボールねじ121の一端には、回転モータ122の回転軸が連結されている。回転モータ122が回転することでボールねじ121が回転し、ボールねじ121と係合するセンサ支持部材106Aが上下方向に移動する。これにより、センサ支持部材106Aに支持された外界センサ105Aが昇降する。回転モータ122には、回転軸の回転を検出するエンコーダ123が搭載されている。 As shown in FIG. 2B, the guide rail portion 104A is provided with a sensor jig moving mechanism 120 for raising and lowering the external sensor 105A. In the sensor jig moving mechanism 120, a ball screw 121 is attached inside the guide rail portion 104A in parallel with the guide direction of the guide rail portion 104A. A rotary shaft of a rotary motor 122 is connected to one end of the ball screw 121 . As the rotary motor 122 rotates, the ball screw 121 rotates, and the sensor support member 106A engaged with the ball screw 121 moves vertically. As a result, the external sensor 105A supported by the sensor support member 106A moves up and down. The rotary motor 122 is equipped with an encoder 123 that detects the rotation of the rotary shaft.

同様に、ガイドレール部104B側にもセンサ治具移動機構120が構成されている。なお、図2Bの例では、センサ治具移動機構120をボールねじ121と回転モータ122を用いて構成したが、センサ治具移動機構120をラックバーと、回転モータに連結したピニオンギヤとを用いて構成してもよい。 Similarly, a sensor jig moving mechanism 120 is also configured on the guide rail portion 104B side. In the example of FIG. 2B, the sensor jig moving mechanism 120 is configured using the ball screw 121 and the rotary motor 122, but the sensor jig moving mechanism 120 is configured using a rack bar and a pinion gear connected to the rotary motor. may be configured.

外界センサ105A及び外界センサ105Bは、外界センサ周囲すなわち荷役車両100の周囲の情報を取得するセンサである。本実施形態では、一例として、外界センサ105A及び外界センサ105Bともに、LiDARを用いる。LiDARは、水平方向に360度の測距範囲を有し、例えば、レーザー光の照射方向を予め定めた所定の角度、例えば0.5度毎に徐々に変化させることで、荷役車両100の周囲にある物体の形状に関する情報を点群として検出する。 The external sensor 105A and the external sensor 105B are sensors that acquire information around the external sensor, that is, around the cargo handling vehicle 100 . In this embodiment, as an example, both the external sensor 105A and the external sensor 105B use LiDAR. The LiDAR has a horizontal range of 360 degrees, and for example, by gradually changing the irradiation direction of the laser light by a predetermined angle, for example, every 0.5 degrees, the surroundings of the cargo handling vehicle 100 can be detected. Detect information about the shape of an object in a point cloud.

本実施形態で提言する視点変換とは、外界センサ105(例えばLiDAR)の光軸の位置と姿勢を変化させることを指す。具体的には、視点変換は、図1に示すとおり、外界センサ105A及び外界センサ105Bを、ガイドレール部104A及びガイドレール部104Bに沿って昇降させることにより、各外界センサの地上高を変化させることである。視点変換によって、より高い位置の、荷役車両100の周囲にある物体の形状情報を検出することが可能となる。 Viewpoint conversion proposed in this embodiment refers to changing the position and orientation of the optical axis of the external sensor 105 (for example, LiDAR). Specifically, as shown in FIG. 1, the viewpoint conversion is performed by moving the external sensor 105A and the external sensor 105B up and down along the guide rail portion 104A and the guide rail portion 104B, thereby changing the ground height of each external sensor. That is. Viewpoint conversion makes it possible to detect shape information of objects around the cargo handling vehicle 100 at higher positions.

ただし、第1の実施形態の概要に記載したとおり、視点変換可能とする外界センサは1台でもよい。一例として、荷役車両100の作業内容が固定されている場合は、視点変換可能とする外界センサは1台でよいと考える。例えば、荷役車両100は任意の通路のみを走行し、通路には左右いずれかにしか棚がなく、荷の形状もある程度固定されている場合には、視点変換可能とする外界センサは1台で十分である。 However, as described in the overview of the first embodiment, only one external sensor may be used to enable viewpoint conversion. As an example, when the work content of the cargo handling vehicle 100 is fixed, it is considered that only one external sensor capable of viewpoint conversion is sufficient. For example, if the cargo handling vehicle 100 travels only in an arbitrary aisle, the aisle has shelves on either the left or the right side, and the shape of the cargo is fixed to some extent, only one external sensor is required to change the viewpoint. It is enough.

また、荷受部材103は、積荷の質量(荷重)を計測する荷重センサ(圧力センサ)107が搭載されている。本実施形態では、荷重センサ107は、荷受部材103の前後方向に間隔をあけて6台設置されるが、1台のみでも構わない。また、6台以外の複数台であってもよい。さらに、傾斜角度を検出する傾斜センサが荷重センサ107と併設され、積荷の鉛直方向の重心位置をより高精度に求める構成にしても構わない。 Moreover, the load receiving member 103 is equipped with a load sensor (pressure sensor) 107 for measuring the mass (load) of the load. In this embodiment, six load sensors 107 are installed at intervals in the front-rear direction of the load receiving member 103, but only one may be installed. In addition, the number of units other than six may be sufficient. Further, an inclination sensor for detecting an inclination angle may be provided together with the load sensor 107 so that the position of the center of gravity of the load in the vertical direction may be obtained with higher accuracy.

また、車両フレーム101の上面には、車載コントローラ108が搭載されている。車載コントローラ108は、後述する荷役車両100の自律制御を実現するための演算を実施する。本実施形態では、車載コントローラ108は1台のみ設置されるが、本発明においては、車載コントローラ108は1台に限定されない。例えば、荷役車両システムは、処理ごとに使用する車載コントローラを区別するように複数台で構成されても構わない。 An in-vehicle controller 108 is mounted on the upper surface of the vehicle frame 101 . The in-vehicle controller 108 performs calculations for implementing autonomous control of the cargo handling vehicle 100, which will be described later. Although only one vehicle-mounted controller 108 is installed in this embodiment, the number of vehicle-mounted controllers 108 is not limited to one in the present invention. For example, the cargo handling vehicle system may be configured with a plurality of onboard controllers to be used for each process.

[荷役車両システムの機能構成]
図3は、第1の実施形態に係る荷役車両システム300全体の機能構成例を示すブロック図である。図3には、センサ視点変換部314を含む荷役車両システム300を実現する機能ブロックの一例が示されている。図3において、矢印付きの実線はデータの流れを表している。本実施形態に係るセンサ視点変換部314は、荷役車両100上に搭載された車載コントローラ108に実装される。
[Functional configuration of cargo handling vehicle system]
FIG. 3 is a block diagram showing a functional configuration example of the entire cargo handling vehicle system 300 according to the first embodiment. FIG. 3 shows an example of functional blocks that implement the cargo handling vehicle system 300 including the sensor viewpoint conversion unit 314 . In FIG. 3, solid lines with arrows represent data flow. The sensor viewpoint conversion unit 314 according to this embodiment is mounted on the onboard controller 108 mounted on the cargo handling vehicle 100 .

荷役車両システム300は大きく分けると、交通管制部301と、荷役車両100に設置された車載コントローラ108とから構成され、以降では、双方が有する機能の詳細を記載する。荷役車両100と車載コントローラ108は、本発明の荷役車両システム300を構成する最少の構成要素である。 The cargo handling vehicle system 300 is roughly divided into a traffic control unit 301 and an in-vehicle controller 108 installed in the cargo handling vehicle 100. Hereinafter, the details of the functions of both will be described. The cargo handling vehicle 100 and the in-vehicle controller 108 are the minimum components constituting the cargo handling vehicle system 300 of the present invention.

[交通管制部]
交通管制部301は、倉庫内等の作業現場を走行する複数の荷役車両100に対する運行管理及び指示を行う。本発明の場合、交通管制部301は、運行管理部302と、経路地図生成部303と、経路地図管理部304と、通信装置305から構成される。なお、本実施形態では、荷役車両100が倉庫内を走行する例を説明するが、荷役車両100が導入される作業現場はこの例に限られないことは勿論である。
[Traffic Control Department]
The traffic control unit 301 performs operation management and instructions for a plurality of cargo handling vehicles 100 traveling in a work site such as a warehouse. In the case of the present invention, the traffic control section 301 is composed of an operation management section 302 , a route map generation section 303 , a route map management section 304 and a communication device 305 . In this embodiment, an example in which the cargo handling vehicle 100 travels in a warehouse will be described, but the work site to which the cargo handling vehicle 100 is introduced is of course not limited to this example.

運行管理部302は、荷役車両100が実行するタスク指令を決定し、経路地図生成部303に指令を送信する。 The operation management unit 302 determines a task command to be executed by the cargo handling vehicle 100 and transmits the command to the route map generation unit 303 .

経路地図管理部304は、例えば荷役車両100が備える外界センサ105A及び外界センサ105Bから取得した荷役車両100が走行中の点群データを入力とし、SLAM(Simultaneous Localization and Mapping)を用いて作成した倉庫内環境の2次元地図を管理する。2次元地図上には、荷役車両100が走行可能な経路情報が付与されている。 The route map management unit 304 receives, for example, point cloud data obtained from the external sensor 105A and the external sensor 105B of the cargo handling vehicle 100 while the cargo handling vehicle 100 is traveling, and stores a warehouse created using SLAM (Simultaneous Localization and Mapping). It manages a two-dimensional map of the internal environment. Route information along which the cargo handling vehicle 100 can travel is provided on the two-dimensional map.

ここで、経路情報の概要について図4を参照して説明する。
図4は、荷役車両システム300における、走行ノードと棚へのアプローチ経路とを示した概念図である。図4には、荷役車両100が荷積み予定の荷が置かれている棚421及びパレット422に対するアプローチ経路の例が示されている。経路情報は、リンク403と、その両端の走行ノード401及び走行ノード402とで構成される。各走行ノードは、基準座標系400に対する座標値、目標速度、及び図5に示す荷役車両100が実施する作業を示す作業IDを含むデータ(視点管理テーブル500)を備えている。基準座標系400において、荷役車両100が走行する直線状のアプローチ経路に平行な方向を座標軸Y、座標軸Yに直交する方向を座標軸Xとしている。
Here, an outline of route information will be described with reference to FIG.
FIG. 4 is a conceptual diagram showing travel nodes and approach routes to racks in the cargo handling vehicle system 300. As shown in FIG. FIG. 4 shows an example of an approach route to a shelf 421 and a pallet 422 on which cargo to be loaded by the cargo handling vehicle 100 is placed. The route information consists of a link 403 and running nodes 401 and 402 at both ends thereof. Each traveling node has data (viewpoint management table 500) including coordinate values with respect to the reference coordinate system 400, target speeds, and work IDs indicating the work to be performed by the cargo handling vehicle 100 shown in FIG. In the reference coordinate system 400, the direction parallel to the linear approach route along which the cargo handling vehicle 100 travels is the coordinate axis YG , and the direction orthogonal to the coordinate axis YG is the coordinate axis XG .

例えば、図4に示す経路では、棚421の手前が終端ノード404であり、荷役車両100は終端ノード404に到着後に荷役動作(この場合は荷積み動作)を実行する。経路情報は、複数又は単一のリンクを備えたセグメント405により構成される。 For example, in the route shown in FIG. 4 , the end node 404 is before the shelf 421 , and the cargo handling vehicle 100 performs a cargo handling operation (loading operation in this case) after arriving at the terminal node 404 . The route information consists of segments 405 with multiple or single links.

[視点管理テーブル]
図5に、荷役車両100が実施する作業の一覧と各作業に対する外界センサの地上高とを示す視点管理テーブル500の例を示す。図示する視点管理テーブル500は、荷役車両100が実施する作業の一覧を列挙しており、各作業に対応した外界センサ105A,105Bの目標の視点地上高[mm]を記載している。視点管理テーブル500は、「作業ID」、「メインタスク」、「積載状態」、「サブタスク」、「外界センサAの視点地上高」、及び「外界センサBの視点地上高」の各項目を有する。
[Viewpoint management table]
FIG. 5 shows an example of a viewpoint management table 500 showing a list of work performed by the cargo handling vehicle 100 and the ground clearance of the external sensor for each work. The illustrated viewpoint management table 500 lists a list of works performed by the cargo handling vehicle 100, and describes the target viewpoint ground clearance [mm] of the external sensors 105A and 105B corresponding to each work. The viewpoint management table 500 has items of “work ID”, “main task”, “loading state”, “subtask”, “viewpoint ground clearance of external sensor A”, and “viewpoint ground clearance of external sensor B”. .

作業IDは、荷役車両100が実施する作業を含むデータレコードを一意に特定する識別情報を示す項目である。
メインタスクは、荷役車両100が主として実施する作業を示す項目である。
積載状態は、荷受部材103の荷の積載状態を示す項目である。
サブタスクは、荷役車両100が主な作業に伴って実施する副次的な作業を示す項目である。
外界センサAの視点地上高は、荷役車両100が該当作業を実施する際の外界センサ105Aの目標視点地上高[mm]を示す項目である。
外界センサBの視点地上高は、荷役車両100が該当作業を実施する際の外界センサ105Bの目標視点地上高[mm]を示す項目である。
The work ID is an item that indicates identification information that uniquely identifies a data record that includes work performed by the cargo handling vehicle 100 .
The main task is an item that indicates the work that the cargo handling vehicle 100 mainly performs.
The loading state is an item that indicates the loading state of the load on the load receiving member 103 .
A subtask is an item that indicates a secondary work that the cargo handling vehicle 100 performs along with the main work.
The visual point ground clearance of the external sensor A is an item indicating the target visual point ground clearance [mm] of the external sensor 105A when the cargo handling vehicle 100 performs the corresponding work.
The visual point ground clearance of the external sensor B is an item indicating the target visual point ground clearance [mm] of the external sensor 105B when the cargo handling vehicle 100 performs the corresponding work.

主に、荷役車両100の作業(動作)は、走行動作と荷役動作(正対、荷積み、荷下ろし)に大別され、各作業は作業IDにより管理される。本実施形態で扱う正対動作とは、図4に示す経路のように、棚421や床に対し荷役車両100が並行に進行し、荷積み又は荷下ろしする場所の手前でその場で旋回する動作を示す。図4には書かれていないが、棚が経路の左右に存在するような狭路環境では、本正対動作を用いて荷積み又は荷下ろしが実現される。 The work (movement) of the cargo handling vehicle 100 is mainly divided into traveling movement and cargo handling movement (facing, loading, unloading), and each work is managed by a work ID. The facing operation handled in this embodiment means that the cargo handling vehicle 100 advances parallel to the shelf 421 and the floor as shown in the route shown in FIG. Show action. Although not shown in FIG. 4, in a narrow alley environment where shelves exist on the left and right sides of the path, loading or unloading is accomplished using this head-to-head motion.

図5の視点管理テーブル500には、荷役動作に関して、荷受部材103を正面から見たときに、荷役車両100に対し右側への荷積み、及び荷下ろしを対象とした際の外界センサ105A,105Bの目標位置(地上高)が記載されている。 In the viewpoint management table 500 of FIG. 5, external sensors 105A and 105B for loading and unloading on the right side of the cargo handling vehicle 100 when the cargo receiving member 103 is viewed from the front. target position (ground clearance) is described.

経路情報を構成する各走行ノードには、視点管理テーブル500に登録されたこれらの作業IDが付与されている。本実施形態で例示する動作は、図4に示す棚421に対する正対動作(空荷)である。例えば空荷走行から正対動作への変更は、視点管理テーブル500内では、作業として、空荷走行を示す作業ID2から作業ID5への変更に相当する。 These work IDs registered in the viewpoint management table 500 are assigned to each travel node that constitutes the route information. The operation exemplified in this embodiment is a direct facing operation (empty) with respect to the shelf 421 shown in FIG. For example, a change from running without a load to running straight ahead corresponds to a change from work ID 2 indicating running without a load to work ID 5 in the viewpoint management table 500 .

経路地図生成部303は、運行管理部302と経路地図管理部304の情報を入力とし、運行管理部302から入力されたタスク指令を実現するための移動経路、ここでは、図4に示す終端ノード404に到着するまでのセグメント405が内包する走行ノード群を作成する。そして、経路地図生成部303は、交通管制部301側の通信装置305、不図示のネットワーク、及び車載コントローラ108側の通信装置306を介して、車載コントローラ108の自己位置姿勢算出部310に、走行ノード群を送信する。自己位置姿勢算出部310の処理内容に関しては後述する。 The route map generation unit 303 receives information from the operation management unit 302 and the route map management unit 304, and generates a moving route for realizing the task command input from the operation management unit 302, here, a terminal node shown in FIG. A traveling node group that includes segment 405 until reaching 404 is created. Then, the route map generation unit 303 sends the travel information to the self-position/orientation calculation unit 310 of the in-vehicle controller 108 via the communication device 305 on the traffic control unit 301 side, a network (not shown), and the communication device 306 on the in-vehicle controller 108 side. Send nodes. The processing contents of the self-position/orientation calculation unit 310 will be described later.

[車載コントローラ]
続いて、車載コントローラ108の内部構成について説明する。以降では、車載コントローラ108内部に実装される各機能ブロックの詳細について説明する。車載コントローラ108は、自己位置姿勢算出部310、最近傍ノード算出部311、積載荷重算出部312、作業判定部313、センサ視点変換部314、センサ視点管理部315、制御指令生成部320、及び各種駆動部321~325を備える。
[In-vehicle controller]
Next, the internal configuration of the in-vehicle controller 108 will be described. Hereinafter, details of each functional block implemented inside the in-vehicle controller 108 will be described. The in-vehicle controller 108 includes a self-position/orientation calculation unit 310, a nearest neighbor node calculation unit 311, a load calculation unit 312, a work determination unit 313, a sensor viewpoint conversion unit 314, a sensor viewpoint management unit 315, a control command generation unit 320, and various Drive units 321-325 are provided.

以下、図4を参照して、自己位置姿勢算出部310の処理内容に関して説明する。自己位置姿勢算出部310は、外界センサ105A,105Bが取得したLiDARの点群情報と、経路地図管理部304が備える事前に取得した倉庫内環境の2次元地図を用いて、倉庫内に設定された基準座標系400における荷役車両100の自己位置411及び自己姿勢412(図4参照)を取得する。自己姿勢412は、基準座標系400の座標軸X,Yに対する荷役車両100の姿勢(座標軸X,Y)のずれ量(角度)を表す情報と言える。 Processing contents of the self-position/orientation calculation unit 310 will be described below with reference to FIG. 4 . The self-position/orientation calculation unit 310 uses the LiDAR point cloud information acquired by the external sensors 105A and 105B and the two-dimensional map of the warehouse environment acquired in advance provided by the route map management unit 304, and is set in the warehouse. The self-position 411 and the self-orientation 412 (see FIG. 4) of the cargo handling vehicle 100 in the reference coordinate system 400 are acquired. The self-attitude 412 can be said to be information representing the amount of deviation (angle) of the attitude (coordinate axes X V , Y V ) of the cargo handling vehicle 100 with respect to the coordinate axes X G , Y G of the reference coordinate system 400 .

自己位置姿勢の算出手段はこれに限らず、他の手段を用いてもよい。例えば、荷役車両100は、荷役車両100の車輪の回転速度を検出することが可能なエンコーダから得られる情報と、タイヤ半径等の情報とを併用し、より高精度な自己位置411及び自己姿勢412を検出してもよい。この際、計測された自己位置411及び自己姿勢412の情報は、最近傍ノード算出部311に送信される。 The self-position/orientation calculation means is not limited to this, and other means may be used. For example, the cargo handling vehicle 100 uses both information obtained from an encoder capable of detecting the rotational speed of the wheels of the cargo handling vehicle 100 and information such as the tire radius to obtain a more accurate self-position 411 and self-orientation 412 . may be detected. At this time, information on the measured self-position 411 and self-orientation 412 is sent to the nearest neighbor node calculator 311 .

最近傍ノード算出部311は、動作を開始すると、荷役車両100の自己位置411に対する、経路情報が備える走行ノードのうちの最近傍の走行ノードを取得する。具体的には、最近傍ノード算出部311は、自己位置411を入力とし、経路情報が備える各走行ノードと自己位置411との距離(差分)の最小値を算出することで、荷役車両100に対する最近傍の走行ノード(最近傍ノード)を探索し、これを“現在ノード”(図4では走行ノード401)とする。本明細書では、現在ノードを、最近傍ノードに該当する走行ノードの符号を用いて表わす。 Upon starting operation, the nearest neighbor node calculation unit 311 acquires the closest travel node of the travel nodes included in the route information with respect to the self-position 411 of the cargo handling vehicle 100 . Specifically, the nearest neighbor node calculation unit 311 receives the self-position 411 as an input and calculates the minimum value of the distance (difference) between each traveling node included in the route information and the self-position 411, thereby The closest running node (nearest neighbor node) is searched for and set as the "current node" (running node 401 in FIG. 4). In this specification, the current node is represented using the code of the running node corresponding to the nearest neighbor node.

また、最近傍ノード算出部311は、得られた現在ノード401に対し、荷役車両100の前方に存在する、リンク403で接続された走行ノード402を“目標ノード”とする。また、現在ノード401と目標ノード402とを結ぶリンク403を“目標リンク”とする。現在ノード401及び目標ノード402、目標リンク403の情報は、最近傍ノード算出部311から作業判定部313に送信される。 In addition, the nearest neighbor node calculation unit 311 determines the travel node 402 connected to the obtained current node 401 by the link 403, which exists in front of the cargo handling vehicle 100, as a "target node". A link 403 connecting the current node 401 and the target node 402 is defined as a "target link". Information on the current node 401 , the target node 402 , and the target link 403 is transmitted from the nearest neighbor node calculation unit 311 to the work determination unit 313 .

積載荷重算出部312は、荷重センサ107を用いて積荷の質量(荷重)を取得する。積載荷重算出部312は、取得した積荷の質量を作業判定部313に送信する。 The load calculation unit 312 uses the load sensor 107 to acquire the mass (load) of the load. The load calculation unit 312 transmits the acquired mass of the load to the work determination unit 313 .

作業判定部313は、荷役車両100の現在の作業を判定する。具体的には、作業判定部313は、最近傍ノード算出部311が取得した現在ノード401で実施する作業内容と、目標ノード402が備える作業内容を比較する。そして、作業判定部313は、積載荷重算出部312により取得した荷重を踏まえ、荷役車両100が目標ノード402で実施する作業内容を判定する。作業判定部313は、判定結果を制御指令生成部320に出力する。作業判定部313の判定処理の詳細については後述する。 The work determination unit 313 determines the current work of the cargo handling vehicle 100 . Specifically, the work determination unit 313 compares the work content to be performed by the current node 401 acquired by the nearest neighbor node calculation unit 311 with the work content of the target node 402 . Based on the load acquired by the load calculation unit 312 , the work determination unit 313 determines the content of the work to be performed by the cargo handling vehicle 100 at the target node 402 . Work determination unit 313 outputs the determination result to control command generation unit 320 . The details of the determination processing of the work determination unit 313 will be described later.

センサ視点変換部314は、作業判定部313の判定結果を取得し、現在ノード401に対し目標ノード402の作業内容が異なる場合は、変更後の作業内容に対応する外界センサ105A,105Bの視点位置を決定する。そして、センサ視点変換部314は、制御指令生成部320を介し、センサ治具駆動部325に指令値を出力して外界センサ105A,105Bの視点位置を制御(変換)する。なお、各作業に対応した外界センサ105A,105Bの目標の視点位置(目標視点地上高)は、センサ視点管理部315に予め管理されている。センサ視点変換部314及びセンサ視点管理部315の詳細については後述する。 The sensor viewpoint conversion unit 314 acquires the judgment result of the work judgment unit 313, and if the work content of the target node 402 differs from that of the current node 401, the viewpoint positions of the external sensors 105A and 105B corresponding to the work content after the change. to decide. Then, the sensor viewpoint conversion unit 314 outputs a command value to the sensor jig driving unit 325 via the control command generation unit 320 to control (convert) the viewpoint positions of the external sensors 105A and 105B. Note that the target viewpoint positions (target viewpoint ground height) of the external sensors 105A and 105B corresponding to each task are managed in advance by the sensor viewpoint management unit 315 . Details of the sensor viewpoint conversion unit 314 and the sensor viewpoint management unit 315 will be described later.

制御指令生成部320は、目標ノード402が有する荷役車両100の目標速度を入力とし、この目標速度を実現するように制御する。例えば、制御指令生成部320は、走行モータを制御する場合には、走行モータ駆動部322に対して駆動輪のモータトルク指令値を生成し、現在のモータトルク指令値とモータトルク応答値との差をフィードバックしてその差を小さくする速度制御を実施する。 The control command generation unit 320 receives the target speed of the cargo handling vehicle 100 of the target node 402 and performs control to achieve the target speed. For example, when controlling the travel motor, the control command generation unit 320 generates a motor torque command value for the drive wheels for the travel motor drive unit 322, and calculates the current motor torque command value and the motor torque response value. Speed control is performed to reduce the difference by feeding back the difference.

また、制御指令生成部320は、目標リンク403が有する荷役車両100の目標進行方向を入力とし、この目標進行方向を実現するように制御する。例えば、制御指令生成部320は、操舵角駆動部321に対して操舵角指令値を生成し、現在の操舵角指令値と操舵角応答値との差をフィードバックしてその差を小さくする操舵角制御を実施する。 Further, the control command generation unit 320 receives as input the target traveling direction of the cargo handling vehicle 100 of the target link 403, and performs control so as to realize this target traveling direction. For example, the control command generation unit 320 generates a steering angle command value for the steering angle driving unit 321, and feeds back the difference between the current steering angle command value and the steering angle response value to reduce the difference. Enforce controls.

また、制御指令生成部320は、目標ノード402が有する荷役車両100の作業内容を入力とし、目標ノード402に停止指令が存在している場合には、ブレーキ駆動部323に対してブレーキ指令を生成する。 Further, the control command generation unit 320 receives as input the work content of the cargo handling vehicle 100 that the target node 402 has, and generates a brake command to the brake drive unit 323 when the target node 402 has a stop command. do.

また、制御指令生成部320は、目標ノード402が有する荷役車両100の作業内容を入力とし、目標ノード402に荷積み作業又は荷下ろし作業が存在する場合には、対象となる積荷が載せられたパレット422に形成された孔に荷受部材103を挿入する制御を行う。制御指令生成部320は、荷受部材・移載装置駆動部324に対して、移載装置102の昇降指令値及び荷受部材103の前後動作指令値を生成する。 In addition, the control command generation unit 320 receives as input the work content of the cargo handling vehicle 100 that the target node 402 has. Control is performed to insert the load receiving member 103 into the hole formed in the pallet 422 . The control command generation unit 320 generates a lift command value for the transfer device 102 and a forward/backward movement command value for the load receiving member 103 for the load receiving member/transfer device driving unit 324 .

そして、制御指令生成部320は、上記生成した各制御指令(モータトルク指令値、操舵角指令値、ブレーキ指令、移載装置102の昇降指令値、荷受部材103の前後動作指令値)を、それぞれの駆動部321~325へ出力する。各駆動部321~325は、それぞれのアクチュエータの応答値や、荷受部材103、移載装置102及び外界センサ105A、105Bに取り付けられた不図示のセンサの出力値を制御指令生成部320へフィードバックする。 Then, the control command generator 320 converts the generated control commands (motor torque command value, steering angle command value, brake command, lifting command value of the transfer device 102, forward/backward motion command value of the load receiving member 103) to to drive units 321-325. Each drive unit 321 to 325 feeds back the response value of each actuator, the output value of the sensor (not shown) attached to the load receiving member 103, the transfer device 102, and the external sensors 105A and 105B to the control command generation unit 320. .

操舵角駆動部321は、制御指令生成部320から入力された操舵角指令値に従い、荷役車両100が備える転舵輪に動力を伝達する操舵モータを駆動する。 The steering angle drive unit 321 drives a steering motor that transmits power to the steered wheels of the cargo handling vehicle 100 according to the steering angle command value input from the control command generation unit 320 .

走行モータ駆動部322は、制御指令生成部320から入力されたモータトルク指令値を入力とし、荷役車両100が備える駆動輪に動力を伝達する走行モータを駆動する。 The travel motor drive unit 322 receives the motor torque command value input from the control command generation unit 320 and drives the travel motor that transmits power to the drive wheels of the cargo handling vehicle 100 .

ブレーキ駆動部323は、荷役車両100が備える駆動輪の回転を制動するため、例えばブレーキパッドを駆動輪に押し当てる動作を実現する油圧ポンプに動力を伝達する油圧モータを駆動する。 In order to brake the rotation of the drive wheels of the cargo handling vehicle 100, the brake drive unit 323 drives, for example, a hydraulic motor that transmits power to a hydraulic pump that presses the brake pads against the drive wheels.

荷受部材・移載装置駆動部324は、制御指令生成部320から入力された昇降指令値及び前後動作指令値に従い、荷役車両100が備える移載装置102及び荷受部材103を制御する油圧ポンプ等に動力を伝達する油圧モータを駆動する。 The load receiving member/transfer device drive unit 324 drives a hydraulic pump or the like for controlling the load receiving device 102 and the load receiving member 103 included in the cargo handling vehicle 100 according to the up/down command value and the forward/backward movement command value input from the control command generation unit 320 . It drives a hydraulic motor that transmits power.

センサ治具駆動部325は、外界センサ105を支持するセンサ支持部材106を移動させるセンサ治具移動機構120が備える回転モータ122に対し、制御指令生成部320から入力されたモータトルク指令値を入力とし回転モータ122を駆動する。センサ治具駆動部325は、モータトルク指令値に基づいて回転モータ122に駆動信号を供給し、センサ支持部材106をガイドレール部104のボールねじ121の軸方向に移動させることで、外界センサ105の視点(地上高)を変更する。本実施形態のセンサ治具駆動部325は、外界センサ105A,105Bのそれぞれに対応するセンサ治具移動機構120が備える回転モータ122に対し、モータトルク指令値を出力する。図2Bにおいて説明したように、回転モータ122にはエンコーダ123が搭載されている。回転モータ122の回転数(回転速度)を制御指令生成部320にフィードバックすることで、制御指令生成部320が、外界センサ105に対して指定された昇降量の移動制御を実現することができる。 The sensor jig drive unit 325 inputs the motor torque command value input from the control command generation unit 320 to the rotation motor 122 included in the sensor jig moving mechanism 120 that moves the sensor support member 106 that supports the external sensor 105. to drive the rotary motor 122. The sensor jig drive section 325 supplies a drive signal to the rotary motor 122 based on the motor torque command value, and moves the sensor support member 106 in the axial direction of the ball screw 121 of the guide rail section 104, so that the external sensor 105 change the viewpoint (ground clearance). The sensor jig driving section 325 of the present embodiment outputs a motor torque command value to the rotary motor 122 provided in the sensor jig moving mechanism 120 corresponding to each of the external sensors 105A and 105B. As described with reference to FIG. 2B, rotary motor 122 is equipped with encoder 123 . By feeding back the number of revolutions (rotational speed) of the rotary motor 122 to the control command generation unit 320 , the control command generation unit 320 can control the movement of the external sensor 105 for the designated lift amount.

車載コントローラ108は、上述した自己位置姿勢算出部310からセンサ治具駆動部325までの演算を実施する。 The in-vehicle controller 108 performs calculations from the self-position/orientation calculation unit 310 to the sensor jig driving unit 325 described above.

以上が荷役車両100側で実施する処理である。また、以上が荷役車両システム300と荷役車両システム300を構成する最小要素の概要である。 The above is the processing performed on the cargo handling vehicle 100 side. The above is an outline of the cargo handling vehicle system 300 and the minimum elements that constitute the cargo handling vehicle system 300 .

[車載コントローラのハードウェア構成]
次に、車載コントローラ108のハードウェア構成について図6を参照して説明する。
図6は、荷役車両システム300における、車載コントローラ108のハードウェア構成例を示すブロック図である。図6において、図3と重複する要素については説明を省略する。
[Hardware configuration of in-vehicle controller]
Next, the hardware configuration of the in-vehicle controller 108 will be described with reference to FIG.
FIG. 6 is a block diagram showing a hardware configuration example of the onboard controller 108 in the cargo handling vehicle system 300. As shown in FIG. In FIG. 6, descriptions of the elements overlapping those in FIG. 3 are omitted.

車載コントローラ108は、CPU(Central Processing Unit)601、ROM(Read Only Memory)602、RAM(Random Access Memory)603、及び不揮発性ストレージ604を有している。また、車載コントローラ108は、入出力インターフェース605、通信インターフェース607、及び駆動部321~325を備える。車載コントローラ108内の各ブロックは、システムバスを介して相互にデータの送受信が可能に接続されている。 The in-vehicle controller 108 has a CPU (Central Processing Unit) 601 , a ROM (Read Only Memory) 602 , a RAM (Random Access Memory) 603 and a non-volatile storage 604 . The in-vehicle controller 108 also includes an input/output interface 605, a communication interface 607, and driving units 321-325. Each block in the in-vehicle controller 108 is connected via a system bus so as to be able to transmit and receive data to and from each other.

CPU601、ROM602、及びRAM603は制御装置を構成する。この制御装置は、車載コントローラ108の各ブロックの動作を制御するコンピューターの一例として用いられる。CPU601は、本実施形態に係る車載コントローラ108の各機能を実現するソフトウェアのプログラムをROM602から読み出し、該プログラムをRAM603に展開して実行する。 CPU601, ROM602, and RAM603 comprise a control apparatus. This control device is used as an example of a computer that controls the operation of each block of the in-vehicle controller 108 . The CPU 601 reads from the ROM 602 a software program that implements each function of the in-vehicle controller 108 according to this embodiment, expands the program in the RAM 603, and executes it.

ROM602は、不揮発性メモリ(記録媒体)の一例として用いられる。ROM602には、OS(Operating System)、各種のパラメータ、車載コントローラ108を機能させるためのプログラム等が記録される。ROM602は、EEPROM(Electrically Erasable and Programmable Read Only Memory)等の書換え可能な不揮発メモリでもよい。RAM603は、揮発性メモリの一例として用いられる。RAM603には、CPU601の演算処理の過程で発生した変数やパラメータ等が一時的に書き込まれる。演算処理装置としてCPU601に代えて、GPU(Graphics Processing Unit)等の他のプロセッサを用いてもよい。 A ROM 602 is used as an example of a nonvolatile memory (recording medium). The ROM 602 stores an OS (Operating System), various parameters, a program for causing the in-vehicle controller 108 to function, and the like. The ROM 602 may be a rewritable non-volatile memory such as EEPROM (Electrically Erasable and Programmable Read Only Memory). RAM 603 is used as an example of volatile memory. In the RAM 603, variables, parameters, and the like generated in the course of arithmetic processing by the CPU 601 are temporarily written. Other processors such as a GPU (Graphics Processing Unit) may be used as the arithmetic processing device instead of the CPU 601 .

不揮発性ストレージ604は、記録媒体の一例であり、プログラムが使用するデータやプログラムを実行して得られたデータなどを保存することが可能である。例えば、不揮発性ストレージ604には、車載コントローラ108が交通管制部301から取得した経路地図データ、外界センサ105の計測結果、荷重センサ107の計測結果等が保存される。また、センサ視点管理部315が管理する視点管理テーブル500は、不揮発性ストレージ604を用いて構成される。不揮発性ストレージ604に、OSや、CPU601が実行するプログラムを記録してもよい。不揮発性ストレージ604としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気や光を利用するディスク装置、又は不揮発性の半導体メモリ等が用いられる。なお、プログラムは、ローカルエリアネットワーク(LAN)、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供されてもよい。 The nonvolatile storage 604 is an example of a recording medium, and can store data used by programs, data obtained by executing programs, and the like. For example, the non-volatile storage 604 stores route map data acquired by the in-vehicle controller 108 from the traffic control unit 301, measurement results of the external sensor 105, measurement results of the load sensor 107, and the like. Also, the viewpoint management table 500 managed by the sensor viewpoint management unit 315 is configured using the nonvolatile storage 604 . The OS and programs executed by the CPU 601 may be recorded in the nonvolatile storage 604 . As the nonvolatile storage 604, a HDD (Hard Disk Drive), an SSD (Solid State Drive), a disk device using magnetism or light, a nonvolatile semiconductor memory, or the like is used. Note that the program may be provided via a wired or wireless transmission medium such as a local area network (LAN), the Internet, or digital satellite broadcasting.

入出力インターフェース605は、荷役車両100が備えるモータ等のアクチュエータや各種センサとの間で、信号の入出力を行うためのインターフェースとして機能する。入出力インターフェース605は、アナログ-デジタル変換機能を備えていてもよい。また、駆動部321~325は、入出力インターフェース605を介して、アクチュエータや各種センサとの間で信号の入出力を行う構成としてもよい。 The input/output interface 605 functions as an interface for inputting/outputting signals between actuators such as motors and various sensors provided in the cargo handling vehicle 100 . Input/output interface 605 may include analog-to-digital conversion functionality. Further, the drive units 321 to 325 may be configured to input/output signals to/from actuators and various sensors via the input/output interface 605 .

通信インターフェース607は、例えばNIC(Network Interface Card)やモデム等が用いられる。通信インターフェース607は、端子が接続されたLANやインターネット等の通信ネットワーク又は専用線等を介して、交通管制部301等の外部装置との間で各種のデータを送受信することが可能に構成されている。 For the communication interface 607, for example, a NIC (Network Interface Card), a modem, or the like is used. The communication interface 607 is configured to be able to transmit and receive various data to and from an external device such as the traffic control unit 301 via a communication network such as a LAN or the Internet to which terminals are connected, or a dedicated line. there is

なお、交通管制部301は、図6に示した入出力インターフェース605及び駆動部321~325を除いたハードウェア(コンピューター)により構成することができる。 The traffic control unit 301 can be configured by hardware (computer) excluding the input/output interface 605 and the driving units 321 to 325 shown in FIG.

[荷役車両システムの処理]
以下、第1の実施形態に係る荷役車両システム300の処理について図7を参照して説明する。特に、車載コントローラ108が備える作業判定部313、センサ視点変換部314、及びセンサ視点管理部315の処理を詳細に説明する。
[Processing of cargo handling vehicle system]
Processing of the cargo handling vehicle system 300 according to the first embodiment will be described below with reference to FIG. In particular, the processing of the work determination unit 313, the sensor viewpoint conversion unit 314, and the sensor viewpoint management unit 315 provided in the vehicle-mounted controller 108 will be described in detail.

図7は、第1の実施形態に係る荷役車両システム300の処理の手順例を示したフローチャートである。CPU601がROM602に格納されたプログラムを実行することにより、図7に示すフローチャートの処理が実現される。図7のフローチャートに加え、図4、図5及び図8を参照して、より具体的な事例を交え処理の流れを説明する。ここでは、図8に示すとおり、荷役車両100をバンパ110側から見たときに、荷役車両100に対し右側(外界センサ105B側)に存在する棚421の下から2段目に存在するパレット422及び荷の荷積み動作を対象とする。 FIG. 7 is a flowchart showing an example of a procedure of processing of the cargo handling vehicle system 300 according to the first embodiment. When the CPU 601 executes the program stored in the ROM 602, the processing of the flowchart shown in FIG. 7 is realized. 4, 5 and 8 in addition to the flowchart of FIG. 7, the flow of processing will be described with more specific examples. Here, as shown in FIG. 8, when the cargo handling vehicle 100 is viewed from the bumper 110 side, the pallet 422 present on the second stage from the bottom of the shelf 421 present on the right side of the cargo handling vehicle 100 (the side of the external sensor 105B). and cargo loading operations.

まず、図4を用いて荷役車両100の動作を説明する。ここでは、図4の荷役車両100-1に示すように、空荷走行から棚421に対する正対動作に作業が移行する場合を対象とする。本明細書では、荷役車両100が移動した場合に、ある時点での位置と異なる位置にいる荷役車両100に対し、荷役車両100-1のように異なる符号を付与して区別する。なお、図4では、理解しやすいように荷役車両100と走行経路を重ねずに記載したが、実際には荷役車両100は自己位置を計測しながら走行経路の上を走行すると考えて差し支えない。 First, the operation of the cargo handling vehicle 100 will be described with reference to FIG. Here, as shown in the cargo handling vehicle 100-1 in FIG. 4, the object is the case where the work shifts from traveling without cargo to directly facing the shelf 421. FIG. In this specification, when the cargo handling vehicle 100 moves, the cargo handling vehicle 100 at a position different from the position at a certain point in time is given a different reference numeral such as the cargo handling vehicle 100-1 to distinguish it. In FIG. 4, the cargo handling vehicle 100 and the travel route are not overlapped for easy understanding, but in reality, the cargo handling vehicle 100 can be considered to travel on the travel route while measuring its own position.

作業判定部313は動作を開始すると、図7に示すステップS701の処理を実施する。作業判定部313は、最近傍ノード算出部311により算出した荷役車両100-1に対する最近傍ノードとして現在ノード401-1を取得するとともに、目標ノード402-1を取得する(S701)。その後、処理をステップS702に移行する。 When the work determination unit 313 starts to operate, it performs the processing of step S701 shown in FIG. The work determination unit 313 acquires the current node 401-1 as the nearest neighbor node to the cargo handling vehicle 100-1 calculated by the nearest neighbor node calculation unit 311, and acquires the target node 402-1 (S701). After that, the process proceeds to step S702.

次に、作業判定部313は、現在ノード401-1に割り当てられた作業内容(図5に示す作業ID)と目標ノード402-1に割り当てられた作業内容が異なるかどうかを確認する(S702)。もし、現在ノード401-1と目標ノード402-1のそれぞれの作業IDが異なる場合には(S702のYes)、ステップS703に移行し、他方、両ノードの作業IDが同じであれば(S702のNo)、本フローチャートの処理を終了する。目標ノード402-1の手前の走行ノードまでは各走行ノードに対する作業として走行が割り当てられているため、荷役車両100は走行を継続し、現状ノードと目標ノードが順次更新される。図4に示す例の場合は、荷役車両100の動作が走行から荷役(正対)へ変更するため、ステップS703に移行する。 Next, the work determination unit 313 checks whether the work content (work ID shown in FIG. 5) assigned to the current node 401-1 and the work content assigned to the target node 402-1 are different (S702). . If the work IDs of the current node 401-1 and the target node 402-1 are different (Yes in S702), the process proceeds to step S703. No), the processing of this flowchart is terminated. Since traveling is assigned as work to each traveling node up to the traveling node before the target node 402-1, the cargo handling vehicle 100 continues traveling, and the current node and the target node are sequentially updated. In the case of the example shown in FIG. 4, the operation of the cargo handling vehicle 100 is changed from traveling to cargo handling (directly facing), so the process proceeds to step S703.

次いで、作業判定部313は、積載荷重算出部312より取得した現在の積荷の質量を基に、荷役車両100の積荷状態を取得する(S703)。「積荷状態」とは、荷役車両100が積荷を積んでいるか、また積んでいる場合はどの程度の質量であるかといった情報である。積荷の有無は、荷重センサ107の精度にもよるが、例えば作業判定部313は、算出された質量が10kg未満であるならば積荷無しと判断する。その後、処理をステップS704に移行する。図4に示す例の場合は、棚421への正対後の荷積みを対象とするため、荷無し(空荷)と判定される。 Next, the work determination unit 313 acquires the loading state of the cargo handling vehicle 100 based on the current mass of the cargo acquired from the load calculation unit 312 (S703). The “loading state” is information as to whether or not the cargo handling vehicle 100 is loaded with cargo, and if so, how much mass it is. Whether or not there is a cargo depends on the accuracy of the load sensor 107, but for example, the work determining unit 313 determines that there is no cargo if the calculated mass is less than 10 kg. After that, the process proceeds to step S704. In the case of the example shown in FIG. 4, it is determined that there is no load (empty load) because the object is loading after the shelf 421 is directly faced.

次いで、作業判定部313は、荷役車両100-1が目標ノード402-1に到達するまで、制御指令生成部320を介して継続して走行モータ駆動部322に前進指令を送信する(S704)。その後、処理をステップS705に移行する。 Next, the work determining unit 313 continuously transmits a forward command to the traveling motor driving unit 322 via the control command generating unit 320 until the cargo handling vehicle 100-1 reaches the target node 402-1 (S704). After that, the process proceeds to step S705.

次いで、作業判定部313は、荷役車両100-1の自己位置411に対し、目標ノード402-1(次ノード)までの距離が事前に設定した距離L[m]未満か否かを判断する(S705)。当該距離がL[m]未満の場合(S705のYes)は、ステップS706に移行する。他方、当該距離がL[m]以上の場合は(S705のNo)、ステップS704に戻り、作業判定部313は、継続して荷役車両100-1に前進指令を送信する。なお、距離L[m]は、図5に示す作業(作業ID)ごとに変更してもよい。図4に示す例の場合は、一例として、L=0.1m以内とする。 Next, the work determination unit 313 determines whether or not the distance to the target node 402-1 (next node) is less than the preset distance L [m] with respect to the self-position 411 of the cargo handling vehicle 100-1 ( S705). If the distance is less than L[m] (Yes in S705), the process proceeds to step S706. On the other hand, if the distance is equal to or greater than L [m] (No in S705), the process returns to step S704, and the work determination unit 313 continues to transmit the advance command to the cargo handling vehicle 100-1. Note that the distance L [m] may be changed for each work (work ID) shown in FIG. In the case of the example shown in FIG. 4, as an example, L=0.1 m or less.

次いで、作業判定部313は、荷役車両100-1に対し停止指令を送信して停止を要求する(S706)。目標ノード402-1には、作業内容として正対動作が付与されているため、荷役車両100-1はここで減速する必要がある。停止指令により、制御指令生成部320は、走行モータ駆動部322に対し、速度0[km/h]に減速するモータトルク指令を送信した後、ブレーキ駆動部323に、ブレーキ指令を送信する構成が考えられる。その後、処理をステップS707に移行する。 Next, the work determining unit 313 transmits a stop command to the cargo handling vehicle 100-1 to request it to stop (S706). Since the target node 402-1 is given a facing motion as the work content, the cargo handling vehicle 100-1 needs to decelerate here. In response to the stop command, the control command generation unit 320 transmits a motor torque command for decelerating to 0 [km/h] to the traveling motor drive unit 322, and then transmits a brake command to the brake drive unit 323. Conceivable. After that, the process proceeds to step S707.

次いで、制御指令生成部320は、荷役車両100-1の車両速度が予め設定した速度 V[km/h]未満か否かを判断する(S707)。車両速度が速度V[km/h]未満の場合(S707のYes)は、処理をステップS708に移行する。他方、車両速度が速度V[km/h]以上の場合は(S707のNo)、荷役車両100は停止に向けて継続して減速させるため、制御指令生成部320は、ステップS706に戻って荷役車両100に対し継続して停止指令を送信する。図4に示す例の場合は、一例として、V=0.3[km/h]以内とする。なお、以降の説明が、センサ視点変換部314及びセンサ視点管理部315の詳細となる。 Next, the control command generator 320 determines whether or not the vehicle speed of the cargo handling vehicle 100-1 is less than the preset speed V [km/h] (S707). If the vehicle speed is less than the speed V [km/h] (Yes in S707), the process proceeds to step S708. On the other hand, if the vehicle speed is equal to or higher than the speed V [km/h] (No in S707), the cargo handling vehicle 100 continues to decelerate toward a stop. A stop command is continuously transmitted to the vehicle 100 . In the case of the example shown in FIG. 4, as an example, V is within 0.3 [km/h]. Note that the following description will be the details of the sensor viewpoint conversion unit 314 and the sensor viewpoint management unit 315 .

次いで、センサ視点変換部314は、視点管理テーブル500から目標ノード402-1に付与された作業に応じた外界センサ105の目標視点位置(地上高)を取得し、必要に応じて外界センサ105の視点(地上高)の切り替えを要求する(S708)。この際、作業に応じた外界センサ105の目標視点位置(以下「センサ配置」とも称する)は、センサ視点管理部315において管理されている。 Next, the sensor viewpoint conversion unit 314 acquires the target viewpoint position (ground height) of the external world sensor 105 according to the work given to the target node 402-1 from the viewpoint management table 500, A request is made to switch the viewpoint (ground clearance) (S708). At this time, the target viewpoint position (hereinafter also referred to as “sensor arrangement”) of the external sensor 105 according to the work is managed by the sensor viewpoint management unit 315 .

上述したように本実施形態で説明する動作は、図4に示す棚421に対する正対動作(空荷)である。作業としては、視点管理テーブル500内では、空荷走行を示す作業ID2のセンサ配置から作業ID5のセンサ配置へ変更となる。センサ視点変換部314は、視点管理テーブル500からセンサ配置の情報を取得後、処理をステップS709に移行する。 As described above, the operation to be described in this embodiment is the direct facing operation (empty load) with respect to the shelf 421 shown in FIG. As for the work, in the viewpoint management table 500, the sensor arrangement of work ID2 indicating empty traveling is changed to the sensor arrangement of work ID5. After acquiring the sensor arrangement information from the viewpoint management table 500, the sensor viewpoint conversion unit 314 shifts the process to step S709.

次いで、センサ視点変換部314は、外界センサ105の視点切り替えを行う(S709)。具体的には、センサ視点変換部314は、外界センサ105の視点をステップS708で決定された地上高に変換するように、制御指令生成部320を介し、センサ治具駆動部325へ指令値を入力する。ステップS709の処理後、本フローチャートの処理を終了する。 Next, the sensor viewpoint conversion unit 314 switches the viewpoint of the external sensor 105 (S709). Specifically, the sensor viewpoint conversion unit 314 sends a command value to the sensor jig driving unit 325 via the control command generation unit 320 so as to convert the viewpoint of the external sensor 105 to the ground height determined in step S708. input. After the processing of step S709, the processing of this flowchart ends.

図8は、荷役車両システム300における、走行ノード位置に対する外界センサ105Bの視点変換の様子を示した概念図である。基準座標系400において、荷役車両100の高さ方向を座標軸Z、座標軸Zに直交する方向を座標軸Xとしている。 FIG. 8 is a conceptual diagram showing how the viewpoint of the external sensor 105B is changed with respect to the traveling node position in the cargo handling vehicle system 300. As shown in FIG. In the reference coordinate system 400, the height direction of the cargo handling vehicle 100 is the coordinate axis ZG , and the direction orthogonal to the coordinate axis ZG is the coordinate axis XG .

具体的には、図8に示すとおり、外界センサ105Bを外界センサ105B-1の位置に昇降する。具体的な昇降量は荷役車両100自身が荷積みする棚421の段数、及び間口の底面の地上高H(図8の符号800)による。センサ視点変換部314は、地上高Hの情報を、荷役車両100は終端ノード404に到着後、交通管制部301の運行管理部302から通信装置305及び通信装置306を介して受け取ってもよい。また、予め終端ノード404に荷役車両100が荷積みする棚421の段数又は地上高の情報を付与しても構わない。また、センサ視点変換部314が外界センサ105Bの昇降中に取得した点群データを処理することで、棚421の空き状況を検出し、荷下ろし可能な段数を自動で検出する構成にしても構わない。 Specifically, as shown in FIG. 8, the external sensor 105B is moved up and down to the position of the external sensor 105B-1. A specific lifting amount depends on the number of stages of the shelf 421 loaded by the cargo handling vehicle 100 itself and the ground clearance H of the bottom surface of the frontage (reference numeral 800 in FIG. 8). The sensor viewpoint conversion unit 314 may receive the information on the ground clearance H from the operation management unit 302 of the traffic control unit 301 via the communication device 305 and the communication device 306 after the cargo handling vehicle 100 arrives at the terminal node 404 . In addition, information on the number of shelves 421 to be loaded by the cargo handling vehicle 100 or the ground clearance may be given to the terminal node 404 in advance. Further, the sensor viewpoint conversion unit 314 may process the point cloud data acquired while the external sensor 105B is ascending and descending, thereby detecting the vacant status of the shelves 421 and automatically detecting the number of steps that can be unloaded. do not have.

以上がセンサ視点変換部314及びセンサ視点管理部315の詳細である。また、以上が、本発明の特徴であるセンサ視点変換部314を備えた荷役車両システム300を実現する第1の実施形態である。 The details of the sensor viewpoint conversion unit 314 and the sensor viewpoint management unit 315 have been described above. The above is the first embodiment for realizing the cargo handling vehicle system 300 including the sensor viewpoint conversion unit 314, which is a feature of the present invention.

以上のとおり、第1の実施形態に係る荷役車両システム(荷役車両システム300)は、荷役車両(荷役車両100)と、当該荷役車両の動作を制御する車載コントローラ(車載コントローラ108)を備える。
荷役車両(荷役車両100)は、走行及び旋回自在な車両本体(車両フレーム101)と、当該車両本体の格納部から出退可能な荷受部材(荷受部材103)と、当該荷受部材に昇降自在に設けられた移載装置(移載装置102)と、当該移載装置の側面に設置された高さ方向に延在するガイドレール部(ガイドレール部104)と、ガイドレール部に外界センサ支持部材を介して備えられた、周囲の情報を取得する少なくとも1台の外界センサ(外界センサ105)と、荷受部材及び移載装置が備えるモータを駆動する荷受部材・移載装置駆動部(荷受部材・移載装置駆動部324)と、を含む。
また、荷役車両(荷役車両100)は、外界センサごとにセンサ支持部材をガイドレール部に沿って移動可能に構成されたセンサ治具移動機構(センサ治具移動機構120)と、制御指令に基づいて、センサ治具移動機構を駆動するセンサ治具駆動部(センサ治具駆動部325)と、を備える。
車載コントローラ(車載コントローラ108)は、荷役車両の位置に応じて当該荷役車両が実施する動作内容を判定する動作判定部(作業判定部313)と、荷役車両の動作内容と外界センサの目標視点位置情報を紐づけて管理するセンサ視点管理部(センサ視点管理部315)と、動作判定部により判定された荷役車両の動作内容、及びセンサ視点管理部の目標視点位置情報に基づいて、外界センサの目標視点を決定するセンサ視点変換部(センサ視点変換部314)と、当該センサ視点変換部で決定された目標視点に基づいて、センサ治具駆動部に対する制御指令を生成する制御指令生成部(制御指令生成部320)と、を備えて構成される。
As described above, the cargo handling vehicle system (cargo handling vehicle system 300) according to the first embodiment includes the cargo handling vehicle (cargo handling vehicle 100) and the onboard controller (onboard controller 108) that controls the operation of the cargo handling vehicle.
A cargo handling vehicle (cargo handling vehicle 100) includes a vehicle body (vehicle frame 101) that can travel and turn, a load receiving member (load receiving member 103) that can move in and out of a storage section of the vehicle body, and a load receiving member that can move up and down. A transfer device (transfer device 102) provided, a guide rail portion (guide rail portion 104) installed on the side surface of the transfer device and extending in the height direction, and an external sensor support member on the guide rail portion At least one external sensor (external sensor 105) that acquires information about the surroundings, and a load receiving member / transfer device driving unit (load receiving member / transfer device drive unit 324).
In addition, the cargo handling vehicle (cargo handling vehicle 100) includes a sensor jig moving mechanism (sensor jig moving mechanism 120) configured to be able to move a sensor support member along a guide rail for each external sensor, and a sensor jig moving mechanism (sensor jig moving mechanism 120). and a sensor jig driving section (sensor jig driving section 325) that drives the sensor jig moving mechanism.
The in-vehicle controller (in-vehicle controller 108) includes a motion determination unit (work determination unit 313) that determines the details of the operation to be performed by the cargo handling vehicle according to the position of the cargo handling vehicle, and a target viewpoint position of the cargo handling vehicle and the external sensor. Based on the sensor viewpoint management unit (sensor viewpoint management unit 315) that links and manages information, the operation content of the cargo handling vehicle determined by the operation determination unit, and the target viewpoint position information of the sensor viewpoint management unit, A sensor viewpoint conversion unit (sensor viewpoint conversion unit 314) that determines a target viewpoint, and a control command generation unit (control and a command generator 320).

[第1の実施形態の効果]
上述のように構成された本実施形態の荷役車両システム300(車載コントローラ108)では、荷役車両100は実行すべき動作(作業)を自動で判定し、その判定結果に基づいて外界センサ105の視点を自動で切替えることができる。そして、このような構成により、荷役車両システム300は、荷役車両100が行う複数の動作(例えば、荷受部材103周囲の障害物検知、パレット422及び荷の状態検知(大きさ、姿勢))を最小台数のセンサ構成で実現可能となる。したがって、荷役車両システム300は、車載コントローラ108の処理負荷、荷役車両の価格、及び現場のエンジニアリングコストの低減を実現できる。
[Effects of the first embodiment]
In the cargo handling vehicle system 300 (in-vehicle controller 108) of the present embodiment configured as described above, the cargo handling vehicle 100 automatically determines the operation (work) to be performed, and based on the determination result, the viewpoint of the external sensor 105 is detected. can be switched automatically. With such a configuration, the cargo handling vehicle system 300 minimizes a plurality of operations performed by the cargo handling vehicle 100 (for example, detection of obstacles around the cargo receiving member 103, detection of the state (size, posture) of the pallet 422 and cargo). It can be realized by configuring a number of sensors. Therefore, the cargo handling vehicle system 300 can reduce the processing load of the onboard controller 108, the price of the cargo handling vehicle, and the engineering cost on site.

また、本実施形態に係る荷役車両システム300では、荷役車両(荷役車両100)は、ガイドレール部として、移載装置(移載装置102)の側面に第1のガイドレール部(ガイドレール部104A)及び第2のガイドレール部(ガイドレール部104B)、を備える。さらに、荷役車両(荷役車両100)は、外界センサとして、第1のガイドレール部に対応する第1の外界センサ(外界センサ105A)、及び第2のガイドレール部に対応する第2の外界センサ(外界センサ105B)、を備える。
また、車載コントローラ(車載コントローラ108A)が備えるセンサ視点変換部(センサ視点変換部314)は、第1の外界センサ及び第2の外界センサそれぞれの目標視点を決定する。
Further, in the cargo handling vehicle system 300 according to the present embodiment, the cargo handling vehicle (cargo handling vehicle 100) has a first guide rail portion (guide rail portion 104A) on the side surface of the transfer device (transfer device 102) as a guide rail portion. ) and a second guide rail portion (guide rail portion 104B). Furthermore, the cargo handling vehicle (cargo handling vehicle 100) has, as external sensors, a first external sensor (external sensor 105A) corresponding to the first guide rail portion and a second external sensor corresponding to the second guide rail portion. (external sensor 105B).
Further, the sensor viewpoint conversion unit (sensor viewpoint conversion unit 314) provided in the vehicle-mounted controller (the vehicle-mounted controller 108A) determines target viewpoints for each of the first external sensor and the second external sensor.

また、本実施形態に係る荷役車両システム300では、車載コントローラ(車載コントローラ108)が備えるセンサ視点変換部(センサ視点変換部314)は、荷役車両が実施する動作の種類ごとに外界センサ(外界センサ105A,105B)の目標視点位置情報を紐づけて記録した視点管理テーブル(視点管理テーブル500)を備える。 In addition, in the cargo handling vehicle system 300 according to the present embodiment, the sensor viewpoint conversion unit (sensor viewpoint conversion unit 314) provided in the vehicle controller (vehicle controller 108) has an external sensor (external sensor) for each type of operation performed by the cargo handling vehicle. 105A, 105B) in which the target viewpoint position information is linked and recorded (viewpoint management table 500).

<第2の実施形態>
次に、本発明の第2の実施形態に係る荷役車両システムについて図9~図13を参照して説明する。
<Second embodiment>
Next, a cargo handling vehicle system according to a second embodiment of the present invention will be described with reference to FIGS. 9 to 13. FIG.

[荷役車両システムの機能構成]
図9は、第2の実施形態に係る荷役車両システム全体の機能構成例を示すブロック図である。本実施形態の荷役車両システム300Aは、第1の実施形態の荷役車両システム300と比較すると、車載コントローラ108が備えるセンサ視点変換部314の後段に、センサデータ記憶部901、及びパレット・荷形状検知部902が追加されている。荷役車両システム300Aについて、荷役車両システム300と異なる部分を中心に説明する。
[Functional configuration of cargo handling vehicle system]
FIG. 9 is a block diagram showing a functional configuration example of the entire cargo handling vehicle system according to the second embodiment. Compared with the cargo handling vehicle system 300 of the first embodiment, the cargo handling vehicle system 300A of the present embodiment includes a sensor data storage unit 901 and a pallet/cargo shape detection in the rear stage of the sensor viewpoint conversion unit 314 provided in the on-vehicle controller 108. Section 902 has been added. The cargo handling vehicle system 300A will be described mainly with respect to parts different from the cargo handling vehicle system 300. FIG.

センサデータ記憶部901は、センサ視点変換に伴う各外界センサ105の昇降時に、各外界センサ105が取得したセンサデータ(例えば点群データ)を保存する。
パレット・荷形状検知部902は、センサ視点変換部314から入力されるセンサ視点情報とセンサデータ記憶部901に保存されたセンサデータを用いて、荷役車両100が積載するパレット422及び荷の形状を計測する。パレット422及び荷の形状の計測結果は、制御指令生成部320に入力される。
上記センサデータ記憶部901、及びパレット・荷形状検知部902の詳細は後述する。
The sensor data storage unit 901 stores sensor data (for example, point cloud data) acquired by each external sensor 105 when the external sensor 105 moves up and down due to sensor viewpoint conversion.
The pallet/load shape detection unit 902 uses the sensor viewpoint information input from the sensor viewpoint conversion unit 314 and the sensor data stored in the sensor data storage unit 901 to detect the shape of the pallet 422 and load loaded by the cargo handling vehicle 100 . measure. The measurement results of the shape of the pallet 422 and the cargo are input to the control command generator 320 .
Details of the sensor data storage unit 901 and the pallet/package shape detection unit 902 will be described later.

図10Aは、荷役車両システム300Aにおける荷役車両100の荷積み動作を示した概念図である。図10Bは、荷(網掛け表示)がパレット422からはみ出ている状態を示す上面図である。図10Cは、不定形の荷(網掛け表示)を示す上面図である。 FIG. 10A is a conceptual diagram showing the loading operation of the cargo handling vehicle 100 in the cargo handling vehicle system 300A. FIG. 10B is a top view showing a state in which the load (shaded) protrudes from the pallet 422. FIG. FIG. 10C is a top view showing an irregular-shaped load (shading).

本実施形態では、図10A~図10Cに示す、棚421に設置されたパレット422及び荷を積載する際の荷積み動作を対象とする。本実施形態は第1の実施形態と同様に、2台の外界センサ105A及び外界センサ105B(いずれもLiDAR)を、ガイドレール部104A及びガイドレール部104Bに沿って昇降させることで、各外界センサ105の地上高を変化させる構成を備える。 In this embodiment, the pallet 422 placed on the shelf 421 and the loading operation for loading the cargo shown in FIGS. 10A to 10C are targeted. In this embodiment, as in the first embodiment, two external sensors 105A and 105B (both LiDAR) are moved up and down along the guide rail portion 104A and the guide rail portion 104B. It has a configuration that changes the ground clearance of 105.

また、本実施形態の構成を実現することで、図10Aに示すとおり、荷役車両100がパレット422及び荷に正対後、2台の外界センサ105A,105Bが左右双方向からパレット422及び荷に対しレーザー光を照射可能となる。そのため、本実施形態の荷役車両システム300Aの効果としては、図10Bに示す、荷がパレット422からはみ出ている状態を示すオーバーハング状態を検知できることが挙げられる。オーバーハングが発生していると、パレット422上の荷が隣のパレットに積まれた荷と接触して破損する可能性があるため、荷積み前に荷の状態を検知することが重要である。 Further, by realizing the configuration of this embodiment, as shown in FIG. 10A, after the cargo handling vehicle 100 directly faces the pallet 422 and the cargo, the two external sensors 105A and 105B are applied to the pallet 422 and the cargo from both left and right directions. It becomes possible to irradiate a laser beam to the surface. Therefore, as an effect of the cargo handling vehicle system 300A of the present embodiment, it is possible to detect an overhang state indicating a state in which cargo protrudes from the pallet 422 shown in FIG. 10B. If an overhang occurs, the load on the pallet 422 may come into contact with the load on the adjacent pallet and be damaged, so it is important to detect the condition of the load before loading. .

また、本実施形態の荷役車両システム300Aは、図10Cに示すような直方体以外の不定形の荷に対しても、精度よく荷形状を検知することが可能となる。そのため、例えば、荷積みを実施した荷役車両100の荷重重心を精度よく検出でき、荷役車両100の走行制御性能(例えば目標経路に対する追従性能)が向上する。 In addition, the cargo handling vehicle system 300A of the present embodiment can accurately detect the shape of a cargo having an irregular shape other than a rectangular parallelepiped as shown in FIG. 10C. Therefore, for example, the center of gravity of the loaded cargo handling vehicle 100 can be accurately detected, and the travel control performance (for example, the performance of following the target route) of the cargo handling vehicle 100 is improved.

なお、図5に示す視点管理テーブル500において、本実施形態の対象となる動作は作業ID5に示されている。 In addition, in the viewpoint management table 500 shown in FIG. 5, the operation targeted by the present embodiment is shown in work ID5.

[荷役車両システムの処理]
以下、第2の実施形態に係る荷役車両システム300Aの処理について図11を参照して説明する。
[Processing of cargo handling vehicle system]
Processing of the cargo handling vehicle system 300A according to the second embodiment will be described below with reference to FIG.

図11は、第2の実施形態に係る荷役車両システム300Aの処理の手順例を示したフローチャートである。図11に示すフローチャートに沿って、特に、車載コントローラ108Aが備えるセンサ視点変換部314、センサ視点管理部315、新規に追加されたセンサデータ記憶部901、及びパレット・荷形状検知部902の内容に関して説明する。 FIG. 11 is a flow chart showing a procedure example of processing of the cargo handling vehicle system 300A according to the second embodiment. According to the flowchart shown in FIG. 11, the contents of the sensor viewpoint conversion unit 314, the sensor viewpoint management unit 315, the newly added sensor data storage unit 901, and the pallet/packaging shape detection unit 902, which are provided in the vehicle-mounted controller 108A. explain.

本実施形態では、積荷走行動作(図5の作業ID1)からパレット及び荷に対する積荷正対動作(作業ID3)に作業を移行し、作業ID3に対応するセンサ位置に外界センサ105A及び外界センサ105Bの視点を変換する。 In the present embodiment, the work is shifted from the load traveling operation (work ID1 in FIG. 5) to the load facing operation for the pallet and the load (work ID3), and the external sensor 105A and the external sensor 105B are moved to the sensor position corresponding to the work ID3. Transform your point of view.

作業判定部313の処理は、第1の実施形態(図7)において示した作業判定部313の処理と同じである。具体的には、図11に示すフローチャートのステップS701からステップS707までの処理は、第1の実施形態に記載した処理と同じである。 The processing of the work determination unit 313 is the same as the processing of the work determination unit 313 shown in the first embodiment (FIG. 7). Specifically, the processing from step S701 to step S707 in the flowchart shown in FIG. 11 is the same as the processing described in the first embodiment.

ステップS707において荷役車両100の停止後(車両速度<速度V)、センサ視点変換部314は、視点管理テーブル500から作業に応じた各外界センサ105の目標視点位置(地上高)を取得し、各外界センサ105の視点の切り替えを要求する(S1100)。この際、センサ視点変換部314では、2台の外界センサである外界センサ105A及び外界センサ105Bを、移載装置102の昇降動作と連動して昇降させる。この処理は、ステップS708と対応する。 After the cargo handling vehicle 100 stops (vehicle speed<velocity V) in step S707, the sensor viewpoint conversion unit 314 acquires the target viewpoint position (ground height) of each external sensor 105 according to the work from the viewpoint management table 500, and A request is made to switch the viewpoint of the external sensor 105 (S1100). At this time, the sensor viewpoint conversion unit 314 raises and lowers the external sensor 105A and the external sensor 105B, which are two external sensors, in conjunction with the lifting operation of the transfer device 102 . This process corresponds to step S708.

本実施形態の荷役車両100では、第1の実施形態に示したとおり、移載装置102の側面にガイドレール部104A,104Bを設置し、外界センサ105A,105Bの視点変換(昇降動作)を独立で行えるようにしている。そこで、センサ視点変換部314はセンサ治具駆動部325に対し、外界センサ105A及び外界センサ105Bが同一の昇降量になるように指令を与える。その後、処理をステップS1101に移行する。外界センサ105A及び外界センサ105Bが同一の昇降量となるように制御した場合、外界センサ105A及び外界センサ105Bで収集したセンサデータの高さ情報を調整する処理が不要となる。 In the cargo handling vehicle 100 of this embodiment, as shown in the first embodiment, the guide rail portions 104A and 104B are installed on the side surfaces of the transfer device 102, and the viewpoint conversion (lifting operation) of the external sensors 105A and 105B is performed independently. so that it can be done in Therefore, the sensor viewpoint conversion unit 314 gives a command to the sensor jig driving unit 325 so that the external sensor 105A and the external sensor 105B have the same amount of elevation. After that, the process proceeds to step S1101. When the external sensor 105A and the external sensor 105B are controlled to have the same amount of elevation, there is no need to adjust the height information of the sensor data collected by the external sensor 105A and the external sensor 105B.

次いで、センサ視点変換部314は、後述するパレット・荷形状検知部902の計算負荷を低減するため、荷が存在する棚421の位置によって、外界センサ105A及び外界センサ105Bの視点位置(高さ)を所定の地上高H未満に絞り込む(S1101)。この処理を図12A及び図12Bを用いて説明する。 Next, in order to reduce the calculation load of the pallet/load shape detection unit 902, which will be described later, the sensor viewpoint conversion unit 314 determines the viewpoint positions (heights) of the external sensor 105A and the external sensor 105B according to the position of the shelf 421 where the load is present. is narrowed down to less than a predetermined ground clearance H (S1101). This processing will be described with reference to FIGS. 12A and 12B.

図12Aは、荷役車両システム300Aにおける荷役車両100の荷積み動作の例を示した右側面図である。図12Bは、荷役車両システム300Aにおける荷役車両100の荷積み動作の例を示した左側面図である。図12A及び図12Bには、外界センサ105A,105Bを、棚421の下から2段目の荷に対してレーザー光を照射できる外界センサ105A-1,105B-1の位置に移動する例が示されている。 FIG. 12A is a right side view showing an example of loading operation of the cargo handling vehicle 100 in the cargo handling vehicle system 300A. FIG. 12B is a left side view showing an example of loading operation of the cargo handling vehicle 100 in the cargo handling vehicle system 300A. 12A and 12B show an example in which the external sensors 105A and 105B are moved from the bottom of the shelf 421 to the positions of the external sensors 105A-1 and 105B-1 that can irradiate laser beams to the cargo on the second stage. It is

ここで、図12Aに示す荷役車両100が荷を積載する、棚421に形成された間口の底面の地上高をH[m](図12Aの符号1201)とする。センサ視点変換部314は、昇降動作中の外界センサ105A及び外界センサ105Bの地上高がH未満の場合は(S1101のYes)、ステップS1100に戻り、センサ治具駆動部325に対し、継続して各外界センサ105の昇降指令(図12の例では上昇指令)を与える。他方、外界センサ105A及び外界センサ105Bの地上高がH以上の場合は(S1101のNo)、センサ視点変換部314は、継続して各外界センサ105の昇降指令を与えつつ、処理をステップS1102に移行する。 Here, the ground clearance of the bottom surface of the frontage formed in the shelf 421 where the cargo handling vehicle 100 shown in FIG. 12A loads is assumed to be H [m] (reference numeral 1201 in FIG. 12A). When the ground height of the external sensor 105A and the external sensor 105B during the up/down operation is less than H (Yes in S1101), the sensor viewpoint conversion unit 314 returns to step S1100, and continuously instructs the sensor jig driving unit 325 to A lift command (a lift command in the example of FIG. 12) for each external sensor 105 is given. On the other hand, if the ground clearance of the external sensor 105A and the external sensor 105B is H or more (No in S1101), the sensor viewpoint conversion unit 314 continues to give an elevation command to each external sensor 105, and advances the process to step S1102. Transition.

次いで、車載コントローラ108Aは、外界センサ105A及び外界センサ105Bの昇降時に、外界センサ105A及び外界センサ105Bが計測した各時刻の点群データ(計測データ)を、センサデータ記憶部901に保存する(S1102)。その後、処理をステップS1103に移行する。 Next, the in-vehicle controller 108A saves the point cloud data (measurement data) of each time measured by the external sensor 105A and the external sensor 105B when the external sensor 105A and the external sensor 105B are raised and lowered in the sensor data storage unit 901 (S1102). ). After that, the process proceeds to step S1103.

次いで、ステップS1101と同様、センサ視点変換部314は、パレット・荷形状検知部902の計算負荷を低減するため、積載予定の荷の高さによって、各外界センサ105の視点位置を絞り込む。具体的には、各外界センサ105と計測した点群との最小距離を取得することで、外界センサ105A,105Bの昇降時に各外界センサ105A,105Bが継続して荷に対してレーザー光を照射しているか否かを判定する。ここでは、例えばセンサ視点変換部314は、外界センサ105A及び外界センサ105Bで取得した点群(計測点)の、各外界センサ105の光軸に対する距離の最小値が、いずれも予め設定した距離P[m]未満か否かを判定する(S1103)。図12A及び図12Bに示す距離1202は、終端ノード404から計算される各外界センサ105の光軸から棚奥の壁面までの距離(=P)を示している。 Next, as in step S1101, the sensor viewpoint conversion unit 314 narrows down the viewpoint position of each external sensor 105 according to the height of the load to be loaded in order to reduce the calculation load of the pallet/load shape detection unit 902. FIG. Specifically, by acquiring the minimum distance between each external sensor 105 and the measured point group, each external sensor 105A, 105B continuously irradiates the load with a laser beam when the external sensor 105A, 105B is raised or lowered. determine whether or not Here, for example, the sensor viewpoint conversion unit 314 determines that the minimum value of the distances of the point groups (measurement points) acquired by the external sensor 105A and the external sensor 105B with respect to the optical axis of each external sensor 105 is the preset distance P It is determined whether or not it is less than [m] (S1103). A distance 1202 shown in FIGS. 12A and 12B indicates the distance (=P) from the optical axis of each external sensor 105 calculated from the terminal node 404 to the wall surface at the back of the shelf.

センサ視点変換部314は、外界センサ105から点群までの最小距離がP未満の場合(S1103のYes)には、外界センサ105が荷にレーザー光を照射中と判断する。そして、センサ視点変換部314は、ステップS1100に戻り、センサ治具駆動部325に対し、継続して各外界センサ105の昇降指令を与える。また、車載コントローラ108Aは、継続して外界センサ105の昇降中のセンサデータをセンサデータ記憶部901に保存する。他方、センサ視点変換部314は、外界センサ105から点群までの最小距離がP以上の場合は(S1103のNo)、荷ではなく、棚の奥側の壁面にレーザー光を照射していると判断する。そして、車載コントローラ108Aは、センサデータ記憶部901へのセンサデータの保存を停止するとともに、センサ視点変換部314は、センサ治具駆動部325に対する昇降指令を停止し、処理をステップS1104に移行する。 When the minimum distance from the external sensor 105 to the point group is less than P (Yes in S1103), the sensor viewpoint conversion unit 314 determines that the external sensor 105 is irradiating the load with laser light. Then, the sensor viewpoint converting section 314 returns to step S1100, and continuously gives the sensor jig driving section 325 commands to move the external sensors 105 up and down. Further, the in-vehicle controller 108</b>A continuously saves the sensor data of the external sensor 105 during vertical movement in the sensor data storage unit 901 . On the other hand, when the minimum distance from the external sensor 105 to the point group is P or more (No in S1103), the sensor viewpoint conversion unit 314 determines that the laser beam is radiating to the wall surface on the far side of the shelf instead of the load. to decide. Then, the in-vehicle controller 108A stops storing the sensor data in the sensor data storage unit 901, the sensor viewpoint conversion unit 314 stops issuing the elevation command to the sensor jig driving unit 325, and the process proceeds to step S1104. .

次いで、パレット・荷形状検知部902は、センサデータ記憶部901に保存された点群データを用いて、パレット422及び荷の形状を復元し、パレット422の大きさ及び荷の大きさを検知する(S1104)。センサデータ記憶部901には、基準座標系400における外界センサ105の光軸位置と点群情報が記録されている。したがって、パレット・荷形状検知部902は、取得した点群情報を基準座標系400に変換することで、パレット422及び荷の形状を復元することができる。ステップS1104の処理後、本フローチャートの処理を終了する。ここで、復元した3次元形状(計測した3次元点からなる点群)の例を図13に示す。 Next, the pallet/load shape detection unit 902 restores the shape of the pallet 422 and the load using the point cloud data stored in the sensor data storage unit 901, and detects the size of the pallet 422 and the size of the load. (S1104). The sensor data storage unit 901 records the optical axis position and point group information of the external sensor 105 in the reference coordinate system 400 . Therefore, the pallet/load shape detection unit 902 can restore the shape of the pallet 422 and the load by converting the acquired point group information into the reference coordinate system 400 . After the processing of step S1104, the processing of this flowchart ends. Here, FIG. 13 shows an example of the restored three-dimensional shape (point group composed of measured three-dimensional points).

図13は、荷役車両システム300Aにおける、パレット・荷形状検知部902の検知結果(点群)の例を示した概念図である。図13には、外界センサ105Aと外界センサ105Bのそれぞれで計測された点群データを統合して得られる点群の例が示されている。 FIG. 13 is a conceptual diagram showing an example of the detection result (point group) of the pallet/cargo shape detection unit 902 in the cargo handling vehicle system 300A. FIG. 13 shows an example of a point cloud obtained by integrating point cloud data measured by the external sensor 105A and the external sensor 105B.

復元した3次元形状に対しては、パレット部(パレット422)から検知処理を行うことが考えられる。パレットは、縦と横の長さの種類は様々存在するものの、基本的には直方体形状である。したがって、本発明の荷役車両システムを導入する倉庫内で取り扱うパレットの大きさを予め閾値として、荷役車両100のROM602等に格納しておく。そして、パレット・荷形状検知部902は、復元した3次元形状を示す点群に対し平面検出等を実施し、検出した平面において閾値内の幅を有する点群の領域をパレット領域(図13のパレット領域1301)として認識することができる。 It is conceivable to perform detection processing from the palette section (pallet 422) on the restored three-dimensional shape. The pallet is basically rectangular parallelepiped, although there are various types of vertical and horizontal lengths. Therefore, the size of pallets to be handled in the warehouse where the cargo handling vehicle system of the present invention is introduced is stored in the ROM 602 or the like of the cargo handling vehicle 100 as a threshold in advance. Then, the pallet/load shape detection unit 902 performs plane detection or the like on the point group representing the restored three-dimensional shape, and detects the area of the point group having a width within the threshold on the detected plane as the pallet area (see FIG. 13). It can be recognized as a palette area 1301).

その後、パレット・荷形状検知部902は、パレット上部に存在する領域を荷領域(図13の荷領域1302)とし、パレット部の検知同様、荷領域の横幅、奥行、高さの情報を取得する。 After that, the pallet/load shape detection unit 902 sets the area existing above the pallet as the load area (load area 1302 in FIG. 13), and acquires information on the width, depth, and height of the load area in the same manner as the detection of the pallet part. .

なお、搭載している外界センサ105(LiDAR)がレーザー光を鉛直方向に複数層照射可能な多層レイヤLiDARの場合、時刻tと時刻t-1とで取得した計測データに重複部分が発生することが考えられる。この場合、より高精度なパレット及び荷の3次元形状を取得するため、3次元形状の復元方法としては、反復最近接点(Iterative Closest Point)アルゴリズムのような、重複領域の点群を繋ぎ合わせる処理をしてもよい。 In addition, if the installed external sensor 105 (LiDAR) is a multi-layered LiDAR that can irradiate multiple layers of laser light in the vertical direction, there will be an overlap in the measurement data acquired at time t and time t-1. can be considered. In this case, in order to obtain a more accurate 3D shape of the pallet and load, the method of restoring the 3D shape is a process of connecting point groups of overlapping regions, such as the Iterative Closest Point algorithm. You may

以上がステップS1104の処理の具体例である。また、以上がパレット・荷形状検知部902の処理内容である。 The above is a specific example of the processing in step S1104. The processing contents of the pallet/package shape detection unit 902 have been described above.

本実施形態では、棚421に設置されたパレット422及び荷を積載する際の動作に着目したが、パレット422及び荷の設置位置はこれに限らない。例えば、積載動作は、走行路(例えば床)に平積みされたパレット422及び荷を積載する動作であっても構わない。 In this embodiment, attention is focused on the pallet 422 installed on the shelf 421 and the operation of loading the load, but the installation positions of the pallet 422 and the load are not limited to this. For example, the loading operation may be an operation of loading the pallets 422 and goods that are stacked flat on the travel path (for example, the floor).

以上のとおり、第2の実施形態に係る荷役車両システム(荷役車両システム300A)では、車載コントローラ(車載コントローラ108A)は、パレット・荷形状検出部を備える。パレット・荷形状検出部(パレット・荷形状検知部902)は、第1の外界センサ(外界センサ105A)と第2の外界センサ(外界センサ105B)を視点変換させることで得られる、第1の外界センサのセンサデータと第2の外界センサのセンサデータ(パレット領域1301、荷領域1302)を統合し、荷役車両(荷役車両100)が積載する予定のパレット422及び荷の形状を検出するように構成されている。 As described above, in the cargo handling vehicle system (cargo handling vehicle system 300A) according to the second embodiment, the vehicle-mounted controller (the vehicle-mounted controller 108A) includes a pallet/load shape detection unit. The pallet/load shape detection unit (pallet/load shape detection unit 902) is a first external sensor (external sensor 105A) and a second external sensor (external sensor 105B) obtained by performing viewpoint conversion. The sensor data of the external sensor and the sensor data of the second external sensor (the pallet area 1301 and the load area 1302) are integrated to detect the shape of the pallet 422 and load to be loaded by the cargo handling vehicle (cargo handling vehicle 100). It is configured.

[第2の実施形態の効果]
上述のように構成された本実施形態の荷役車両システム300A(車載コントローラ108A)では、荷がパレット422からはみ出ているオーバーハング状態を検知することができる。また、荷役車両システム300Aは、直方体以外の不定形の荷に対しても、精度よく荷形状の検知が可能となるため、例えば、荷役車両100の荷重重心を精度よく検出することができる。したがって、荷役車両100の走行制御性能(例えば目標経路に対する追従性能)が向上する。
[Effect of Second Embodiment]
The cargo handling vehicle system 300A (vehicle-mounted controller 108A) of this embodiment configured as described above can detect an overhang state in which cargo protrudes from the pallet 422 . In addition, since the cargo handling vehicle system 300A can accurately detect the shape of an irregular cargo other than a rectangular parallelepiped cargo, it is possible to accurately detect the center of gravity of the cargo handling vehicle 100, for example. Therefore, the traveling control performance of the cargo handling vehicle 100 (for example, the performance of following the target route) is improved.

<第3の実施形態>
次に、本発明の第3の実施形態に係る荷役車両システムについて図14~図17を参照して説明する。
<Third Embodiment>
Next, a cargo handling vehicle system according to a third embodiment of the present invention will be described with reference to FIGS. 14 to 17. FIG.

[荷役車両システムの機能構成]
図14は、第3の実施形態に係る荷役車両システム全体の機能構成例を示すブロック図である。本実施形態の荷役車両システム300Bは、第2の実施形態の荷役車両システム300Aと比較すると、車載コントローラ108Aが備えるセンサ視点変換部314の後段に、パレット姿勢検知部1401、荷下ろし位置検出部1402、及び旋回量算出部1403が追加されている。
[Functional configuration of cargo handling vehicle system]
FIG. 14 is a block diagram showing a functional configuration example of the entire cargo handling vehicle system according to the third embodiment. Compared to the cargo handling vehicle system 300A of the second embodiment, the cargo handling vehicle system 300B of the present embodiment includes a pallet orientation detection unit 1401 and an unloading position detection unit 1402 after the sensor viewpoint conversion unit 314 provided in the on-vehicle controller 108A. , and a turning amount calculation unit 1403 are added.

パレット姿勢検知部1401は、荷役車両100が積載しているパレット422の姿勢を検出する。
荷下ろし位置検出部1402は、荷役車両が積載しているパレット422を下ろす位置を検出する。
旋回量算出部1403は、荷下ろし位置検出部1402の検出結果に基づいて、荷役車両100の旋回動作における旋回量を算出する。
The pallet orientation detection unit 1401 detects the orientation of the pallet 422 loaded on the cargo handling vehicle 100 .
The unloading position detection unit 1402 detects the position at which the pallet 422 loaded by the cargo handling vehicle is unloaded.
The turning amount calculation unit 1403 calculates the turning amount of the cargo handling vehicle 100 based on the detection result of the unloading position detection unit 1402 .

上記パレット姿勢検知部1401、荷下ろし位置検出部1402、及び旋回量算出部1403の詳細は後述する。なお、車載コントローラ108Bでは、第2の実施形態の車載コントローラ108Aと比較して、パレット・荷形状検知部902が削除されているが、車載コントローラ108Bがパレット・荷形状検知部902を備えてもよい。 Details of the pallet attitude detection unit 1401, the unloading position detection unit 1402, and the turning amount calculation unit 1403 will be described later. Note that the in-vehicle controller 108B does not have the pallet/load shape detection unit 902 as compared with the in-vehicle controller 108A of the second embodiment. good.

図15は、荷役車両システム300Bにおける荷役車両100の荷下ろし動作を示した概念図(正面図)である。荷役車両システム300Bでは、荷役動作を対象とし、具体的には図15に示すとおり、棚421の下から2段目に対し荷を下ろす荷下ろし動作を対象とする。本実施形態の場合、図5の視点管理テーブル500において、対象となる動作は作業ID3に示されている。また、本実施形態は、第1の実施形態及び第2の実施形態と同様に、2台の外界センサ105A及び外界センサ105B(いずれもLiDAR)を、ガイドレール部104A及びガイドレール部104Bに沿って昇降させることで、各外界センサ105の地上高を変化させる構成を備える。 FIG. 15 is a conceptual diagram (front view) showing unloading operation of the cargo handling vehicle 100 in the cargo handling vehicle system 300B. The object of the cargo handling vehicle system 300B is the cargo handling operation, specifically, the unloading operation of unloading the second stage from the bottom of the shelf 421 as shown in FIG. 15 . In the case of this embodiment, in the viewpoint management table 500 of FIG. 5, the target action is indicated by work ID3. Further, in this embodiment, as in the first and second embodiments, two external sensors 105A and 105B (both LiDAR) are mounted along the guide rail portion 104A and the guide rail portion 104B. A configuration is provided in which the ground height of each external sensor 105 is changed by raising and lowering the sensor.

図16は、荷役車両システム300Bにおける、荷役車両100の荷下ろし動作を示した概念図(上面図)である。本実施形態の荷役車両システム300Bでは、図16に示すとおり、荷下ろし位置への正対動作の前に、荷役車両100が積載しているパレット422の側面にレーザー光(ここでは半径Rの扇状)を照射することで、外界センサ105の光軸に対するパレット422の姿勢ずれを検出することができる。ひいては、荷役車両100の姿勢に対するパレット422の姿勢を検出することができる。そして、荷役車両100の正対動作時の旋回量をパレット422の姿勢量に応じて算出することで、正対後に荷役車両100の姿勢を調整する動作が不要となり、荷下ろし動作のスループット向上(高速化)が図れる。 FIG. 16 is a conceptual diagram (top view) showing unloading operation of the cargo handling vehicle 100 in the cargo handling vehicle system 300B. In the cargo handling vehicle system 300B of the present embodiment, as shown in FIG. 16, a laser beam (here, a fan-shaped beam with a radius R) is projected onto the side surface of the pallet 422 loaded by the cargo handling vehicle 100 before moving directly toward the unloading position. ), the posture deviation of the pallet 422 with respect to the optical axis of the external sensor 105 can be detected. Consequently, the attitude of the pallet 422 with respect to the attitude of the cargo handling vehicle 100 can be detected. By calculating the amount of turning of the cargo handling vehicle 100 when the cargo handling vehicle 100 is facing forward in accordance with the amount of the attitude of the pallet 422, the operation of adjusting the attitude of the cargo handling vehicle 100 after facing the cargo handling vehicle 100 becomes unnecessary, and the throughput of the unloading operation is improved ( speed) can be achieved.

[荷役車両システムの処理]
以下、第3の実施形態に係る荷役車両システム300Bの処理について図17を参照して説明する。
[Processing of cargo handling vehicle system]
Processing of the cargo handling vehicle system 300B according to the third embodiment will be described below with reference to FIG.

図17は、第3の実施形態に係る荷役車両システム300Bの処理の手順例を示したフローチャートである。以降では、図17に示すフローチャートに沿って、特に、車載コントローラ108Bが備えるセンサ視点変換部314、新規に追加されたパレット姿勢検知部1401、荷下ろし位置検出部1402、及び旋回量算出部1403の内容に関して説明する。 FIG. 17 is a flow chart showing a procedure example of processing of the cargo handling vehicle system 300B according to the third embodiment. In the following, along the flowchart shown in FIG. I will explain about the contents.

作業判定部313の処理は、第1の実施形態(図7)において示した作業判定部313の処理と同じである。具体的には、図17に示すフローチャートのステップS701からステップS707までの処理は、第1の実施形態に記載した処理と同じである。 The processing of the work determination unit 313 is the same as the processing of the work determination unit 313 shown in the first embodiment (FIG. 7). Specifically, the processing from step S701 to step S707 in the flowchart shown in FIG. 17 is the same as the processing described in the first embodiment.

ステップS707において荷役車両100の停止後(車両速度<速度V)、センサ視点変換部314は、視点管理テーブル500から作業に応じた各外界センサ105の目標視点位置(地上高)を取得し、各外界センサ105の視点の切り替えを要求する(S1700)。この際、センサ視点変換部314では、2台の外界センサである外界センサ105A及び外界センサ105Bをそれぞれ別々の視点へ昇降するように指令値を送信する。 After the cargo handling vehicle 100 stops (vehicle speed<velocity V) in step S707, the sensor viewpoint conversion unit 314 acquires the target viewpoint position (ground height) of each external sensor 105 according to the work from the viewpoint management table 500, and A request is made to switch the viewpoint of the external sensor 105 (S1700). At this time, the sensor viewpoint conversion unit 314 transmits command values so that the two external sensors 105A and 105B are raised and lowered to different viewpoints.

本実施形態の場合は、図15に示すとおり、バンパ110を正面から見た際に右側(外界センサ105B側)に存在する棚421の2段目に荷下ろしする動作を対象としている。そこで、センサ視点変換部314はセンサ治具駆動部325に対し、図15に示すとおり、外界センサ105Aはパレット422の左側面にレーザー光を照射するように、また、外界センサ105Bは自身が荷下ろしする棚421の段の高さに昇降するように、それぞれの指令値を送信する。その後、処理をステップS1701及びS1703に移行する。なお、本実施形態では、外界センサ105Aを用いてステップS1701を実施し、外界センサ105Bを用いてステップS1703を実施する。 In the case of this embodiment, as shown in FIG. 15, the object is the operation of unloading onto the second stage of the shelf 421 that exists on the right side (the side of the external sensor 105B) when the bumper 110 is viewed from the front. Therefore, the sensor viewpoint conversion unit 314 instructs the sensor jig drive unit 325 to direct the external sensor 105A to irradiate the left side surface of the pallet 422 with laser light, and the external sensor 105B itself to detect the load as shown in FIG. Each command value is transmitted so that it may ascend and descend to the height of the shelf 421 to be lowered. After that, the process moves to steps S1701 and S1703. In this embodiment, step S1701 is performed using the external sensor 105A, and step S1703 is performed using the external sensor 105B.

次いで、センサ視点変換部314は、荷役車両100において現在の荷受部材103の地上高H(図15の符号1500)を、荷受部材・移載装置駆動部324から取得する。そして、センサ視点変換部314は、取得した高さH付近に外界センサ105Aの視点が移動したか否かを判定する(S1701)。ここでは、一例として、昇降動作中の外界センサ105Aの地上高が(H-5)cm未満の場合は(S1701のYes)、ステップS1700に戻り、センサ視点変換部314はセンサ治具駆動部325に対し、継続して外界センサ105Aの昇降指令を与える。他方、外界センサ105Aの地上高が(H-5)cm以上の場合は(S1701のNo)、センサ視点変換部314は、センサ治具駆動部325に外界センサ105Aの昇降動作の停止指令を出し、処理をステップS1702に移行する。 Next, the sensor viewpoint conversion unit 314 acquires the current ground clearance H A (reference numeral 1500 in FIG. 15) of the load receiving member 103 in the cargo handling vehicle 100 from the load receiving member/transfer device driving unit 324 . Then, the sensor viewpoint conversion unit 314 determines whether or not the viewpoint of the external sensor 105A has moved to the vicinity of the acquired height HA (S1701). Here, as an example, if the ground height of the external sensor 105A during the up/down operation is less than (H A −5) cm (Yes in S1701), the process returns to step S1700, and the sensor viewpoint conversion unit 314 changes the sensor jig driving unit 325, continuously gives the external sensor 105A elevation command. On the other hand, when the ground height of the external sensor 105A is (H A −5) cm or more (No in S1701), the sensor viewpoint conversion unit 314 instructs the sensor jig driving unit 325 to stop the vertical movement of the external sensor 105A. output, and the process proceeds to step S1702.

本実施形態では、荷下ろし動作を対象としているため、荷役車両100(荷受部材103)はパレット422を積載している。パレット422の高さの規格は概ね15cm程度であるため、パレット422の側面を確実に照射する地上高として(H-5)cmを設定している。 In the present embodiment, a pallet 422 is loaded on the cargo handling vehicle 100 (the cargo receiving member 103) because the unloading operation is targeted. Since the standard for the height of the pallet 422 is approximately 15 cm, the height above the ground is set to (H A -5) cm to ensure that the sides of the pallet 422 are illuminated.

次いで、パレット姿勢検知部1401は、パレット422の姿勢検知を実施する(S1702)。図15及び図16に示すように、外界センサ105Aは、荷役車両100が積載しているパレット422の側面を検出している。そこで、外界センサ105Aが取得した点群データに対し、図16に示す外界センサ105Aの光軸距離R[m]以内に存在する点群を集約し、集約した点群を直線近似することで、外界センサ105Aの光軸と、パレット422のヨー角との差θ(姿勢差)を取得することができる(図16の座標系1601参照)。ここでは、一例として、光軸距離Rは2mとする。その後、処理をステップS1705に移行する。 Next, the pallet orientation detection unit 1401 detects the orientation of the pallet 422 (S1702). As shown in FIGS. 15 and 16, the external sensor 105A detects the side surface of the pallet 422 loaded by the cargo handling vehicle 100. As shown in FIGS. Therefore, with respect to the point cloud data acquired by the external sensor 105A, the point groups existing within the optical axis distance R [m] of the external sensor 105A shown in FIG. 16 are aggregated, and the aggregated point group is linearly approximated. A difference θ P (orientation difference) between the optical axis of the external sensor 105A and the yaw angle of the pallet 422 can be obtained (see the coordinate system 1601 in FIG. 16). Here, as an example, the optical axis distance R is assumed to be 2 m. After that, the process moves to step S1705.

他方、センサ視点変換部314は、荷役車両100が荷下ろしする棚421に形成された間口の底面の地上高H(図15の符号1501)を取得する。そして、センサ視点変換部314は、取得した高さH付近に外界センサ105Bの視点が移動したか否かを判定する(S1703)。ここで、昇降動作中の外界センサ105Bの地上高がHcm未満の場合は(S1703のYes)、ステップS1700に戻り、センサ視点変換部314はセンサ治具駆動部325に対し、継続して外界センサ105Bの昇降指令を与える。他方、外界センサ105Bの地上高がHcm以上の場合は(S1703のNo)、センサ視点変換部314は、センサ治具駆動部325に外界センサ105Bの昇降動作の停止指令を出し、処理をステップS1704に移行する。 On the other hand, the sensor viewpoint conversion unit 314 acquires the ground clearance HB (reference numeral 1501 in FIG. 15) of the bottom surface of the frontage formed on the shelf 421 where the cargo handling vehicle 100 unloads. Then, the sensor viewpoint conversion unit 314 determines whether or not the viewpoint of the external sensor 105B has moved to the vicinity of the acquired height HB ( S1703 ). Here, if the ground height of the external sensor 105B during the up/down operation is less than H B cm (Yes in S1703), the process returns to step S1700, and the sensor viewpoint conversion unit 314 continuously instructs the sensor jig driving unit 325 to Gives a lift command for the external sensor 105B. On the other hand, if the ground clearance of the external sensor 105B is HB cm or more (No in S1703), the sensor viewpoint conversion unit 314 issues a command to the sensor jig driving unit 325 to stop the vertical movement of the external sensor 105B, and the process is started. The process moves to step S1704.

センサ視点変換部314は、地上高Hの情報を、荷役車両100が終端ノード404に到着後、交通管制部301の運行管理部302から通信装置305及び通信装置306を介して受け取ってもよい。また、予め終端ノード404に荷役車両100が荷下ろしする棚421の段数又は地上高の情報を付与しても構わない。また、センサ視点変換部314が外界センサ105Bの昇降中に取得した点群データを処理することで、棚421の空き状況を検出し、荷下ろし可能な段数を自動で検出する構成にしても構わない。 After the cargo handling vehicle 100 arrives at the terminal node 404, the sensor viewpoint conversion unit 314 may receive the information on the ground clearance HB from the operation management unit 302 of the traffic control unit 301 via the communication device 305 and the communication device 306. . Further, information on the number of shelves 421 to be unloaded by the cargo handling vehicle 100 or information on the ground clearance may be given to the terminal node 404 in advance. Further, the sensor viewpoint conversion unit 314 may process the point cloud data acquired while the external sensor 105B is ascending and descending, thereby detecting the vacant status of the shelves 421 and automatically detecting the number of steps that can be unloaded. do not have.

次いで、荷下ろし位置検出部1402は、パレット422を荷下ろし可能な位置を検出する(S1704)。ここでは、荷下ろし位置検出部1402は、第2の実施形態で述べたパレット・荷形状検知部902と同様の構成をとる。具体的には、荷下ろし位置検出部1402は、外界センサ105Bが昇降中に外界センサ105Bが取得したセンサデータを逐次センサデータ記憶部901に記録し、センサデータ記憶部901に保存されたセンサデータを用いて棚421の3次元形状を復元する。荷下ろし位置検出部1402は、復元した棚421の3次元形状を示す点群に対し、平面検出等を実施することで、棚421の台座部分とフレーム部分を分離する。そして、荷下ろし位置検出部1402は、台座部分とフレーム部分に分離した棚421の点群から、パレット422を設置可能な位置、具体的にはパレット422の目標設置位置及び姿勢を示す目標座標系1600(図16)を求める。その後、処理をステップS1705に移行する。 Next, the unloading position detector 1402 detects a position where the pallet 422 can be unloaded (S1704). Here, the unloading position detection unit 1402 has the same configuration as the pallet/load shape detection unit 902 described in the second embodiment. Specifically, the unloading position detection unit 1402 sequentially records the sensor data acquired by the external sensor 105B while the external sensor 105B is ascending/descending in the sensor data storage unit 901, and stores the sensor data stored in the sensor data storage unit 901. is used to restore the three-dimensional shape of the shelf 421 . The unloading position detection unit 1402 separates the pedestal portion and the frame portion of the shelf 421 by performing plane detection or the like on the point group representing the three-dimensional shape of the restored shelf 421 . Then, the unloading position detection unit 1402 detects the position where the pallet 422 can be installed, specifically, the target installation position and orientation of the pallet 422 from the point group of the shelf 421 separated into the pedestal portion and the frame portion. 1600 (FIG. 16). After that, the process moves to step S1705.

目標座標系1600において、正対した荷役車両100の進行方向に平行な方向を座標軸X、座標軸Xに直交する方向を座標軸Yとしている。なお、荷下ろし位置検出部1402が、運行管理部302又は終端ノード404からパレット422の目標設置位置及び姿勢を示す目標座標系1600を取得する構成としてもよい。 In the target coordinate system 1600, the direction parallel to the direction of movement of the cargo handling vehicle 100 facing the cargo handling vehicle 100 is the coordinate axis Xp , and the direction perpendicular to the coordinate axis Xp is the coordinate axis Yp . Note that the unloading position detection unit 1402 may acquire the target coordinate system 1600 indicating the target installation position and orientation of the pallet 422 from the operation management unit 302 or the terminal node 404 .

次いで、旋回量算出部1403は、荷下ろしに伴う、正対動作時の荷役車両100の目標旋回量θを算出する(S1705)。ステップS1705の処理後、本フローチャートの処理を終了する。ここで、荷役車両100の座標系(車体座標系)と外界センサ105の座標系(センサ座標系)との方位角の差θ[°]、センサ座標系とパレット422の姿勢との差θ[°]、車体座標系とパレット422の目標設置位置及び姿勢を示す目標座標系1600との方位角の差θ[°]とした場合、目標旋回量θは下記数式(1)により算出することができる。車体座標系とセンサ座標系との方位角差θは、事前に測定して荷役車両100のROM602又は不揮発性ストレージ604に保存しておく。 Next, the turning amount calculation unit 1403 calculates the target turning amount θY of the cargo handling vehicle 100 during the facing operation accompanying unloading (S1705). After the processing of step S1705, the processing of this flowchart ends. Here, the azimuth difference θ L [°] between the coordinate system of the cargo handling vehicle 100 (vehicle coordinate system) and the coordinate system of the external sensor 105 (sensor coordinate system), the difference θ between the sensor coordinate system and the attitude of the pallet 422 P [°], and the azimuth angle difference θ T [°] between the vehicle body coordinate system and the target coordinate system 1600 indicating the target installation position and attitude of the pallet 422, the target turning amount θ Y is obtained by the following formula (1). can be calculated. The azimuth angle difference θ L between the vehicle body coordinate system and the sensor coordinate system is measured in advance and stored in the ROM 602 or the nonvolatile storage 604 of the cargo handling vehicle 100 .

θ=θ-θ-θ・・・(1) θ Y = θ T − θ P − θ L (1)

式(1)から理解されるように、車体座標系とセンサ座標系との間で方位角の差θが非常に小さい場合にはθ=0とみなすことができるため、目標旋回量θは、(θ-θ)により求められる。 As can be understood from the formula (1), when the azimuth angle difference θ L between the vehicle body coordinate system and the sensor coordinate system is very small, it can be assumed that θ L =0, so the target turning amount θ Y is determined by (θ T −θ P ).

目標旋回量θを算出後、旋回量算出部1403は旋回量算出処理を終了する。そして、旋回量算出部1403は、制御指令生成部320を介し、操舵角駆動部321及び走行モータ駆動部322に、目標旋回量θを達成するように目標指令を与える。 After calculating the target turning amount θY , the turning amount calculation unit 1403 ends the turning amount calculation process. Then, the turning amount calculation section 1403 gives a target command to the steering angle driving section 321 and the traveling motor driving section 322 via the control command generating section 320 so as to achieve the target turning amount θY .

以上がパレット姿勢検知部1401、荷下ろし位置検出部1402、及び旋回量算出部1403を含む、本実施形態の内容である。なお、本実施形態では、棚421への荷下ろし動作に着目したが、荷下ろし動作はこれに限らず、走行路に平積みする荷下ろし動作を対象としても構わない。 The contents of this embodiment including the pallet attitude detection unit 1401, the unloading position detection unit 1402, and the turning amount calculation unit 1403 have been described above. In the present embodiment, attention is paid to the operation of unloading onto the rack 421, but the unloading operation is not limited to this, and the unloading operation of flat loading on the travel path may also be targeted.

また、本実施形態では、外界センサ105Aと外界センサ105Bの2台構成で、目標旋回量θを取得したが、視点変換を行う外界センサ105は1台でも構わない。この場合は、例えば棚421側に存在する外界センサ105を昇降させ、荷下ろし位置検出を行った後に、再度パレット422の側面を照射する位置に外界センサ105を下降させパレット姿勢検知を実現する構成が考えられる。 Further, in the present embodiment, the target turning amount θY is obtained by the two external sensor 105A and the external sensor 105B, but the external sensor 105 that performs viewpoint conversion may be one. In this case, for example, the external sensor 105 located on the shelf 421 side is moved up and down to detect the unloading position, and then the external sensor 105 is lowered to the position where the side surface of the pallet 422 is illuminated again to realize the pallet posture detection. can be considered.

以上のとおり、第3の実施形態に係る荷役車両システム(荷役車両システム300B)では、車載コントローラ(車載コントローラ108B)は、パレット姿勢検知部と、荷下ろし位置検出部と、旋回量算出部を備えて構成される。
パレット姿勢検知部(パレット姿勢検知部1401)は、荷役車両が積載しているパレットの側面の情報を取得できる位置に移動された外界センサが出力するセンサデータに基づいて、荷役車両の姿勢とパレットの姿勢との差(差θ)を検知するように構成される。
荷下ろし位置取得部(荷下ろし位置検出部1402)は、パレットの目標設置位置及び姿勢を示す目標座標系(目標座標系1600)を取得するように構成される。
旋回量算出部(旋回量算出部1403)は、パレット姿勢検知部によって検知された荷役車両の姿勢とパレットの姿勢との差(差θ)と、荷役車両の姿勢と荷下ろし位置取得部によって取得された目標座標系(目標座標系1600)との方位角の差(差θ)に応じて、荷下ろし位置に正対するための荷役車両の旋回動作における旋回量(目標旋回量θ)を算出するように構成される。
As described above, in the cargo handling vehicle system (cargo handling vehicle system 300B) according to the third embodiment, the vehicle-mounted controller (the vehicle-mounted controller 108B) includes a pallet orientation detection unit, an unloading position detection unit, and a turning amount calculation unit. consists of
A pallet attitude detection unit (pallet attitude detection unit 1401) detects the attitude of the cargo handling vehicle and the pallet based on the sensor data output by the external sensor that has been moved to a position where information on the side surface of the pallet loaded by the cargo handling vehicle can be obtained. is configured to detect a difference (difference θ P ) from the attitude of
The unloading position acquisition unit (unloading position detection unit 1402) is configured to acquire a target coordinate system (target coordinate system 1600) indicating the target installation position and orientation of the pallet.
The turning amount calculation unit (turning amount calculation unit 1403) calculates the difference (difference θ P ) between the posture of the cargo handling vehicle detected by the pallet posture detection unit and the posture of the pallet, and the posture of the cargo handling vehicle and the unloading position acquisition unit. A turning amount (target turning amount θ Y ) in a turning operation of the cargo handling vehicle for directly facing the unloading position according to the acquired azimuth angle difference (difference θ T ) from the target coordinate system (target coordinate system 1600). is configured to calculate

[第3の実施形態の効果]
上述のように構成された本実施形態の荷役車両システム300B(車載コントローラ108B)では、荷下ろし時にパレット422の姿勢ずれを考慮した正対動作(スピンターン動作)が実施でき、スループット向上(荷下ろし動作の高速化)が図れる。なお、本実施形態の処理を、積荷時の処理に応用してもよい。
[Effect of the third embodiment]
In the cargo handling vehicle system 300B (on-vehicle controller 108B) of the present embodiment configured as described above, it is possible to perform a facing operation (spin-turn operation) in consideration of the posture deviation of the pallet 422 during unloading, thereby improving throughput (unloading). operation speed) can be achieved. In addition, you may apply the process of this embodiment to the process at the time of loading.

<第4の実施形態>
次に、本発明の第4の実施形態に係る荷役車両システムについて図18~図22を参照して説明する。
<Fourth Embodiment>
Next, a cargo handling vehicle system according to a fourth embodiment of the present invention will be described with reference to FIGS. 18 to 22. FIG.

図18は、第4の実施形態に係る荷役車両システム全体の機能構成例を示すブロック図である。本実施形態の荷役車両システム300Cは、第3の実施形態の荷役車両システム300Bと比較すると、パレット姿勢検知部の1401の後段に、障害物検知範囲設定部1801、及び障害物検知部1802が追加されている。また、図18の荷役車両システム300Cには、荷役車両システム300Bのセンサデータ記憶部901と、荷下ろし位置検出部1402と、旋回量算出部1403が記載されていないが、荷役車両システム300Cが、センサデータ記憶部901と、荷下ろし位置検出部1402と、旋回量算出部1403を備えてもよい。 FIG. 18 is a block diagram showing a functional configuration example of the entire cargo handling vehicle system according to the fourth embodiment. Compared to the cargo handling vehicle system 300B of the third embodiment, the cargo handling vehicle system 300C of the present embodiment has an obstacle detection range setting unit 1801 and an obstacle detection unit 1802 added after the pallet posture detection unit 1401. It is The cargo handling vehicle system 300C of FIG. 18 does not include the sensor data storage unit 901, the unloading position detection unit 1402, and the turning amount calculation unit 1403 of the cargo handling vehicle system 300B. A sensor data storage unit 901, an unloading position detection unit 1402, and a turning amount calculation unit 1403 may be provided.

障害物検知範囲設定部1801は、パレット422の姿勢を基に、外界センサ105を用いて実施される荷役車両100の走行を阻害する障害物検知の検知範囲を策定する。ここで、「検知範囲」とは、外界センサ105(例えばLiDAR)がレーザー光照射により取得した点群情報のうち、荷役車両100の制御に用いる点群情報からなる検知範囲である。
障害物検知部1802は、障害物検知範囲設定部1801で設定された外界センサ105の検知範囲を用いて、障害物の検知を行う。
上記障害物検知範囲設定部1801、及び障害物検知部1802の詳細は後述する。
Based on the attitude of the pallet 422 , the obstacle detection range setting unit 1801 formulates a detection range for obstacle detection that hinders the movement of the cargo handling vehicle 100 using the external sensor 105 . Here, the “detection range” is a detection range made up of point group information used for controlling the cargo handling vehicle 100 among the point group information acquired by the external sensor 105 (for example, LiDAR) through laser light irradiation.
The obstacle detection unit 1802 uses the detection range of the external sensor 105 set by the obstacle detection range setting unit 1801 to detect obstacles.
Details of the obstacle detection range setting unit 1801 and the obstacle detection unit 1802 will be described later.

本実施形態では、走行動作を対象とし、具体的には図19A及び図19Bに示すとおり、荷役車両100が荷を積載している際の走行動作を対象として説明する。図5の視点管理テーブル500において、本実施形態の対象とする動作は作業ID1に示されている。また、本実施形態は、第3の実施形態及び第2の実施形態と同様に、2台の外界センサ105A,105B(いずれもLiDAR)の各々を、対応するガイドレール部104A,104Bに沿って昇降させることで、各外界センサ105A,105Bの地上高を変化させる構成を備える。 In the present embodiment, traveling motion is targeted, and specifically, as shown in FIGS. 19A and 19B, the traveling motion when the cargo handling vehicle 100 is loading cargo will be described. In the viewpoint management table 500 of FIG. 5, the operation targeted by the present embodiment is indicated in work ID1. Further, in this embodiment, as in the third embodiment and the second embodiment, each of the two external sensors 105A and 105B (both LiDAR) is moved along the corresponding guide rail portions 104A and 104B. By raising and lowering, it has a configuration that changes the ground clearance of each of the external sensors 105A and 105B.

図19Aは、本実施形態に係る荷役車両システム300Cにおける荷役車両100の走行動作の例を示した概念図である。図19Aには、外界センサ105Aの地上高が、パレット422とおおよそ同じである例が示されている。パレット422は、外界センサ105Aの検知範囲内である。 FIG. 19A is a conceptual diagram showing an example of the traveling operation of the cargo handling vehicle 100 in the cargo handling vehicle system 300C according to this embodiment. FIG. 19A shows an example in which the ground clearance of the external sensor 105A is approximately the same as the pallet 422. FIG. Pallet 422 is within the detection range of external sensor 105A.

他方、図19Bは、本実施形態に係る荷役車両システム300Cにおける荷役車両100の走行動作の他の例を示した概念図である。図19Bには、外界センサ105Bの地上高が、パレット422よりも下方である例が示されている。パレット422は、外界センサ105Bの検知範囲外である。 On the other hand, FIG. 19B is a conceptual diagram showing another example of the traveling operation of the cargo handling vehicle 100 in the cargo handling vehicle system 300C according to this embodiment. FIG. 19B shows an example in which the ground clearance of the external sensor 105B is below the pallet 422. FIG. Pallet 422 is outside the detection range of external sensor 105B.

[荷役車両システムの処理]
以下、第4の実施形態に係る荷役車両システム300Cの処理について図20を参照して説明する。
[Processing of cargo handling vehicle system]
Processing of the cargo handling vehicle system 300C according to the fourth embodiment will be described below with reference to FIG.

図20は、第4の実施形態に係る荷役車両システム300Cの処理の手順例を示したフローチャートである。以降では、図20に示すフローチャートに沿って、特に、車載コントローラ108Cが備えるセンサ視点変換部314、新規に追加された障害物検知範囲設定部1801、及び障害物検知部1802の内容に関して説明する。 FIG. 20 is a flow chart showing a procedure example of processing of the cargo handling vehicle system 300C according to the fourth embodiment. Hereinafter, along with the flowchart shown in FIG. 20, the contents of the sensor viewpoint conversion unit 314 provided in the vehicle-mounted controller 108C, the newly added obstacle detection range setting unit 1801, and the obstacle detection unit 1802 will be described.

作業判定部313の処理は、第1の実施形態(図7)において示した作業判定部313の処理と同じである。具体的には、図20に示すフローチャートのステップS701からステップS707までの処理は、第1の実施形態に記載した処理と同じである。 The processing of the work determination unit 313 is the same as the processing of the work determination unit 313 shown in the first embodiment (FIG. 7). Specifically, the processing from step S701 to step S707 in the flowchart shown in FIG. 20 is the same as the processing described in the first embodiment.

ステップS707において荷役車両100の停止後(車両速度<速度V)、センサ視点変換部314は、外界センサAの目標視点位置(地上高H)を取得する。図19Aに外界センサ105Aのセンサ配置、図19Bに外界センサ105Bのセンサ配置を示している。センサ視点変換部314は、外界センサ105Aの視点の切り替え要求を行い、第3の実施形態にて説明したパレット姿勢検知部1401の場合と同様に、外界センサ105Aをパレット側面の位置に変更(昇降)する(S2001)。その後、処理をステップS1701に移行する。 After the cargo handling vehicle 100 stops (vehicle speed<velocity V) in step S707, the sensor viewpoint conversion unit 314 acquires the target viewpoint position of the external sensor A (ground height H A ). FIG. 19A shows the sensor arrangement of the external sensor 105A, and FIG. 19B shows the sensor arrangement of the external sensor 105B. The sensor viewpoint conversion unit 314 requests switching of the viewpoint of the external sensor 105A, and changes the position of the external sensor 105A to the side of the pallet (elevating and ) (S2001). After that, the process moves to step S1701.

ステップS1701の判定処理、及びステップS1702の処理は、センサ視点変換部314及びパレット姿勢検知部1401による処理であり、第3の実施形態(図17)に記載した処理と同じであるため、説明を省略する。ステップS1702の処理後、処理をステップS2002に移行する。 The determination processing in step S1701 and the processing in step S1702 are processing by the sensor viewpoint conversion unit 314 and the pallet orientation detection unit 1401, and are the same as the processing described in the third embodiment (FIG. 17). omitted. After the process of step S1702, the process proceeds to step S2002.

次いで、センサ視点変換部314は、外界センサBの目標視点位置(地上高H)を取得する。外界センサ105Bの視点の位置は、図19Bに示すとおり、レーザー光(検知範囲)がパレット422に干渉しないようにパレット422の下方からレーザー光を照射可能な地上高Hとする。そして、センサ視点変換部314は、外界センサ105Bの視点の切り替え要求を行い、外界センサ105Bを上記目標視点位置に変更(昇降)する(S2002)。その後、処理をステップS2003に移行する。 Next, the sensor viewpoint conversion unit 314 acquires the target viewpoint position of the external sensor B (ground height H B ). The position of the visual point of the external sensor 105B is, as shown in FIG. 19B , set to the ground height HB where the laser light can be irradiated from below the pallet 422 so that the laser light (detection range) does not interfere with the pallet 422. FIG. Then, the sensor viewpoint conversion unit 314 requests switching of the viewpoint of the external world sensor 105B, and changes (lifts) the external world sensor 105B to the target viewpoint position (S2002). After that, the process moves to step S2003.

次いで、センサ視点変換部314は、取得した高さH付近に外界センサ105Bの視点が移動したか否かを判定する(S2003)。ここで、昇降動作中の外界センサ105Bの地上高がHcm未満の場合は(S2003のYes)、ステップS2002に戻り、センサ視点変換部314はセンサ治具駆動部325に対し、継続して外界センサ105Bの昇降指令を与える。他方、外界センサ105Bの地上高がHcm以上の場合は(S2003のNo)、センサ視点変換部314は、センサ治具駆動部325に外界センサ105Bの昇降動作の停止指令を出し、処理をステップS2004に移行する。 Next, the sensor viewpoint conversion unit 314 determines whether or not the viewpoint of the external sensor 105B has moved near the obtained height HB ( S2003 ). Here, if the ground height of the external sensor 105B during the up/down operation is less than H B cm (Yes in S2003), the process returns to step S2002, and the sensor viewpoint conversion unit 314 continuously instructs the sensor jig driving unit 325 to Gives a lift command for the external sensor 105B. On the other hand, if the ground height of the external sensor 105B is HB cm or more (No in S2003), the sensor viewpoint conversion unit 314 issues a command to the sensor jig driving unit 325 to stop the vertical movement of the external sensor 105B, and the process is started. The process moves to step S2004.

次いで、障害物検知範囲設定部1801は、ステップS1702で得られたパレット姿勢を基に、外界センサ105A,105Bを用いて実施する荷役車両100の走行を阻害する障害物検知の検知範囲を策定する(S2004)。具体的には、外界センサ105Aの光軸とパレット422のヨー角との差θを取得した後、差θに応じて外界センサ105Aの検知範囲を変化させる。 Next, based on the pallet orientation obtained in step S1702, the obstacle detection range setting unit 1801 formulates a detection range for obstacle detection that hinders the movement of the cargo handling vehicle 100 using the external sensors 105A and 105B. (S2004). Specifically, after acquiring the difference θ P between the optical axis of the external sensor 105A and the yaw angle of the pallet 422, the detection range of the external sensor 105A is changed according to the difference θ P.

図21Aは、パレット姿勢を加味しない場合の障害物検知部1802の障害物検知範囲を示した概念図である。図21Aには、パレット422の姿勢のずれ量を反映しない場合における、外界センサ105A及び外界センサ105Bの検知範囲の例が示されている。図21Aにおいて、外界センサ105Aの検知範囲2101、及び外界センサ105Bの検知範囲2102を示している。前述したとおり、外界センサ105Bは、パレット422の下方から照射していることにより、パレット422の前方の障害物を検知することができる。これらの検知範囲は、例えば荷役車両100の制動性能によって事前に定められる。例えば、荷役車両100の走行速度及び操舵角によって検知範囲の大きさを動的に変動させてもよい。 FIG. 21A is a conceptual diagram showing the obstacle detection range of the obstacle detection unit 1802 when the pallet attitude is not considered. FIG. 21A shows an example of the detection range of the external sensor 105A and the external sensor 105B when the deviation amount of the posture of the pallet 422 is not reflected. FIG. 21A shows a detection range 2101 of the external sensor 105A and a detection range 2102 of the external sensor 105B. As described above, the external sensor 105B can detect obstacles in front of the pallet 422 by emitting light from below the pallet 422 . These detection ranges are predetermined by the braking performance of the cargo handling vehicle 100, for example. For example, the size of the detection range may be dynamically varied depending on the travel speed and steering angle of the cargo handling vehicle 100 .

図21Bは、パレット姿勢を加味した場合の障害物検知部1802の障害物検知範囲を示した概念図である。図21Bには、パレット422の姿勢のずれ量を反映した場合における、外界センサ105A及び外界センサ105Bの検知範囲の例が示されている。図21Bにおいて、外界センサ105Aの検知範囲2101,2103、及び外界センサ105Bの検知範囲2102-1を示している。外界センサ105Aの光軸とパレット422のヨー角との差θに応じて、外界センサ105A及び105Bの検知範囲を変更する。 FIG. 21B is a conceptual diagram showing the obstacle detection range of the obstacle detection unit 1802 when the pallet posture is taken into consideration. FIG. 21B shows an example of detection ranges of the external sensor 105A and the external sensor 105B when the amount of deviation of the posture of the pallet 422 is reflected. FIG. 21B shows detection ranges 2101 and 2103 of the external sensor 105A and a detection range 2102-1 of the external sensor 105B. The detection ranges of the external sensors 105A and 105B are changed according to the difference θ P between the optical axis of the external sensor 105A and the yaw angle of the pallet 422 .

ここでは、基本的にパレット422は直方体形状であることを利用し、外界センサ105Aの光軸とパレット422のヨー角との差θと、制動距離に応じた検知距離Lに応じた面積分だけ検知範囲を増加又は削減する。本実施形態の場合、外界センサ105Aは、図21Bの検知範囲2103に示すとおり検知範囲を増加し、外界センサ105Bは、図21Bの検知範囲2104に示すとおり検知範囲を削減する。ステップS2004の処理後、処理をステップS2005に移行する。 Here, using the fact that the pallet 422 basically has a rectangular parallelepiped shape, the difference θ P between the optical axis of the external sensor 105A and the yaw angle of the pallet 422 and the area integral corresponding to the detection distance L corresponding to the braking distance increase or decrease the detection range by In this embodiment, the external sensor 105A increases the detection range as indicated by the detection range 2103 in FIG. 21B, and the external sensor 105B reduces the detection range as indicated by the detection range 2104 in FIG. 21B. After the process of step S2004, the process proceeds to step S2005.

次いで、障害物検知部1802は、ステップS2004で算出された障害物検知範囲に従って、荷役車両100の前方、又はパレット422の側方の障害物検知を実施する(S2005)。ステップS2005の処理後、本フローチャートの処理を終了する。ここでは、障害物検知部1802は、各外界センサ105(LiDAR)が取得した点群情報のうち、ステップS2004において設定した検知範囲(図21B)内に存在する点群に対し障害物検知処理を行う。処理の内容について図22を用いて説明する。 Next, the obstacle detection unit 1802 detects an obstacle in front of the cargo handling vehicle 100 or on the side of the pallet 422 according to the obstacle detection range calculated in step S2004 (S2005). After the processing of step S2005, the processing of this flowchart ends. Here, the obstacle detection unit 1802 performs obstacle detection processing on point groups existing within the detection range (FIG. 21B) set in step S2004, among the point group information acquired by each external sensor 105 (LiDAR). conduct. The contents of the processing will be described with reference to FIG. 22 .

図22は、荷役車両システム300Cにおける、障害物検知部1802の障害物検知範囲、障害物検知範囲内に存在する障害物、及び障害物の側面を計測した際に得られた点群情報を示した概念図(上面図)である。図22に示す検知範囲2201は、図21Bに示す検知範囲2101,2102-1,2103,2104を統合した領域を示している。また、走行経路上に存在する障害物を障害物2202として網掛けで示している。 FIG. 22 shows the point cloud information obtained when measuring the obstacle detection range of the obstacle detection unit 1802, the obstacles existing within the obstacle detection range, and the sides of the obstacles in the cargo handling vehicle system 300C. 1 is a conceptual diagram (top view). FIG. A detection range 2201 shown in FIG. 22 indicates an area obtained by integrating the detection ranges 2101, 2102-1, 2103, and 2104 shown in FIG. 21B. Obstacles existing on the travel route are shaded as obstacles 2202 .

ここでは、障害物検知部1802は、検知範囲2201に存在する外界センサ105(LiDAR)により計測されたある一点(図22の計測点2203A)に着目し、この計測点2203Aを中心とする半径Rの円内に他の計測点が存在するか判定する。例えば、他の計測点として計測点2203Bが存在する場合、計測点2203A及び計測点2203Bは同一の対象(障害物2202)を捉えているとし、障害物2202を捉えている点群情報(以降「クラスタ」と呼称する)として統合する。この統合の意味としては、例えば、計測点2203A及び計測点2203Bに、同一のIDを付与する処理を示す。 Here, the obstacle detection unit 1802 focuses on a certain point (measurement point 2203A in FIG. 22) measured by the external sensor 105 (LiDAR) existing in the detection range 2201, and measures the radius R around this measurement point 2203A. Determines whether there is another measurement point within the circle of . For example, when there is a measurement point 2203B as another measurement point, the measurement point 2203A and the measurement point 2203B capture the same object (obstacle 2202), and point cloud information capturing the obstacle 2202 (hereinafter " cluster). The meaning of this integration is, for example, a process of assigning the same ID to the measurement point 2203A and the measurement point 2203B.

続いて、障害物検知部1802は、計測点2203Bに着目し、上記の処理同様、計測点2203Bを中心とする半径Rの円内に他の計測点(例えば計測点2203C、計測点2203D)が存在するか判定する。この際、計測点Bは既にID1が付与されているため、計測点2203C及び計測点2203Dに対しても、ID1を付与する。 Subsequently, the obstacle detection unit 1802 focuses on the measurement point 2203B, and similarly to the above process, other measurement points (for example, measurement points 2203C and 2203D) are located within the circle having the radius R centered on the measurement point 2203B. Determine if it exists. At this time, since ID1 has already been assigned to measurement point B, ID1 is also assigned to measurement points 2203C and 2203D.

図22に示す計測点2203Eは、計測点2203Eを中心とする半径Rの円内に他の計測点が存在しないため、ID1とは別にID2が付与される。 A measurement point 2203E shown in FIG. 22 is given ID2 in addition to ID1 because there is no other measurement point within a circle with a radius R centered at the measurement point 2203E.

このように、ステップS2005では、障害物検知部1802が、検知範囲2201内に存在する全点群を対象とし、上述した関連する計測点の有無を判定する処理を実施する。 In this way, in step S2005, the obstacle detection unit 1802 performs the process of determining the presence or absence of the above-described related measurement points for all point groups existing within the detection range 2201. FIG.

上記処理を経て生成したクラスタにおいて、クラスタ内の点(同一IDの点)が例えば10点以上から構成されるクラスタが存在する場合には、障害物検知部1802は障害物有りと判断する。そして、障害物検知部1802は、制御指令生成部320を介し、ブレーキ駆動部323にブレーキ指令を送信する。一方、10点以上から構成されるクラスタが一つも存在しない場合には、荷役車両100の走行を阻害する障害物は存在しないとし、障害物検知部1802の処理を終了する。 In the clusters generated through the above processing, if there is a cluster composed of, for example, 10 or more points (points with the same ID) in the cluster, the obstacle detection unit 1802 determines that there is an obstacle. Obstacle detection unit 1802 then transmits a brake command to brake drive unit 323 via control command generation unit 320 . On the other hand, if there is not even one cluster composed of 10 points or more, it is determined that there is no obstacle that hinders the movement of the cargo handling vehicle 100, and the processing of the obstacle detection unit 1802 ends.

以上が、本実施形態において新規に追加された障害物検知範囲設定部1801及び障害物検知部1802の処理内容である。 The above is the processing contents of the obstacle detection range setting unit 1801 and the obstacle detection unit 1802 newly added in this embodiment.

以上のとおり、第4の実施形態に係る荷役車両システム(荷役車両システム300C)では、車載コントローラ(車載コントローラ108C)は、障害物検知範囲設定部と、障害物検知部を備える。
障害物検知範囲設定部(障害物検知範囲設定部1801)は、荷役車両の走行を阻害する障害物を検知するために第1の外界センサ(外界センサ105A)及び第2の外界センサ(外界センサ105B)のそれぞれに検知範囲を設定するように構成されている。
障害物検知部(障害物検知部1802)は、第1の外界センサ及び第2の外界センサの検知範囲に基づいて、障害物を検知するように構成されている。
また、本実施形態では、第2の外界センサは、パレットの下方から周囲の情報を取得できる位置(例えば地上高H)に移動される。障害物検知範囲設定部は、パレット姿勢検知部(パレット姿勢検知部1401)によって検知された荷役車両の姿勢とパレットの姿勢との差(差θ)に基づいて、第1の外界センサの検知範囲(検知範囲2101,2103)を設定し、また、荷役車両の姿勢とパレットの姿勢との差に基づいて、第2の外界センサの検知範囲(検知範囲2102から検知範囲2104を減じた検知範囲2102-1)を設定する。
As described above, in the cargo handling vehicle system (cargo handling vehicle system 300C) according to the fourth embodiment, the vehicle-mounted controller (the vehicle-mounted controller 108C) includes an obstacle detection range setting unit and an obstacle detection unit.
The obstacle detection range setting unit (obstacle detection range setting unit 1801) uses a first external sensor (external sensor 105A) and a second external sensor (external sensor 105B) is configured to set a detection range.
The obstacle detection unit (obstacle detection unit 1802) is configured to detect obstacles based on the detection ranges of the first external sensor and the second external sensor.
Also, in the present embodiment, the second external sensor is moved to a position (for example, ground clearance HB ) where information about the surroundings can be obtained from below the pallet. The obstacle detection range setting unit detects the first external sensor based on the difference (difference θ P ) between the posture of the cargo handling vehicle and the posture of the pallet detected by the pallet posture detection unit (pallet posture detection unit 1401). The detection range (detection range 2101, 2103) is set, and the detection range of the second external sensor (the detection range obtained by subtracting the detection range 2104 from the detection range 2102) is determined based on the difference between the posture of the cargo handling vehicle and the posture of the pallet. 2102-1) is set.

[第4の実施形態の効果]
上述のように構成された本実施形態の荷役車両システム300C(車載コントローラ108C)では、パレット422の形状及び姿勢を考慮せずに障害物検知の検知範囲を設定したことによる未検知(環境物体との衝突)を防止できる。それゆえ、荷役車両100の動作時の安全性が向上する。また、過剰な検知範囲の設定による誤検知を防ぐことにより、スループット向上が見込める。
[Effects of the fourth embodiment]
In the cargo handling vehicle system 300C (in-vehicle controller 108C) of the present embodiment configured as described above, the detection range for obstacle detection is set without considering the shape and posture of the pallet 422. collision) can be prevented. Therefore, safety during operation of the cargo handling vehicle 100 is improved. In addition, throughput improvement can be expected by preventing erroneous detection due to setting an excessive detection range.

さらに、本発明は上述した各実施形態に限られるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りにおいて、その他種々の応用例、変形例を取り得ることは勿論である。
例えば、上述した各実施形態は本発明を分かりやすく説明するために荷役車両及び荷役車両システムの構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成要素を備えるものに限定されない。また、ある実施形態の構成の一部を他の実施形態の構成要素に置き換えることが可能である。また、ある実施形態の構成に他の実施形態の構成要素を加えることも可能である。また、各実施形態の構成の一部について、他の構成要素の追加又は置換、削除をすることも可能である。
Furthermore, the present invention is not limited to the above-described embodiments, and it goes without saying that various other application examples and modifications can be made without departing from the gist of the present invention described in the claims. .
For example, each of the above-described embodiments describes the configuration of the cargo handling vehicle and the cargo handling vehicle system in detail and specifically in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to those having all the components described. . Also, it is possible to replace part of the configuration of one embodiment with the constituent elements of another embodiment. It is also possible to add components of other embodiments to the configuration of one embodiment. Moreover, it is also possible to add, replace, or delete other components for a part of the configuration of each embodiment.

また、上記の各構成、機能、処理部等は、それらの一部又は全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。ハードウェアとして、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)などの広義のプロセッサデバイスを用いてもよい。 Further, each of the configurations, functions, processing units, etc. described above may be realized by hardware, for example, by designing a part or all of them using an integrated circuit. As hardware, a broadly defined processor device such as FPGA (Field Programmable Gate Array) or ASIC (Application Specific Integrated Circuit) may be used.

また、図7、図11、図17、及び図20に示す時系列的な処理を記述するフローチャートにおいて、処理結果に影響を及ぼさない範囲で、複数の処理を並列的に実行したり、処理順序を変更したりしてもよい。 7, 11, 17, and 20, in which a plurality of processes are executed in parallel or in a different order, as long as the process results are not affected. may be changed.

また、本明細書において「平行」及び「直交」などの用語が使用された場合には、各々の用語は、厳密な「平行」及び「直交」のみを意味する用語ではなく、厳格な意味での「平行」及び「直交」を含み、さらにその機能を発揮し得る範囲にある「略平行」及び「略直交」の意味をも含むものである。 In addition, when terms such as “parallel” and “perpendicular” are used in this specification, each term is not strictly a term meaning only “parallel” and “perpendicular”, but in a strict sense. and "substantially parallel" and "substantially perpendicular" to the extent that their functions can be exhibited.

100,100-1…荷役車両、101…車両フレーム(車両本体)、102…移載装置、103…荷受部材、104,104A,104B…ガイドレール部、105,105A,105A-1,105B,105B-1…外界センサ、106,106A,106B…センサ支持部材、107…荷重センサ、108,108A,108B,108C…車載コントローラ、110…バンパ、120…センサ治具移動機構、121…ボールねじ、122…回転モータ、123…エンコーダ、300,300A,300B,300C…荷役車両システム、301…交通管制部、302…運行管理部、303…経路地図生成部、304…経路地図管理部、305…通信装置、306…通信装置、310…自己位置姿勢算出部、311…最近傍ノード算出部、312…積載荷重算出部、313…作業判定部(動作判定部)、314…センサ視点変換部、315…センサ視点管理部、320…制御指令生成部、321…操舵角駆動部、322…走行モータ駆動部、323…ブレーキ駆動部、324…荷受部材・移載装置駆動部、325…センサ治具駆動部、400…基準座標系、401,401-1…走行ノード(現在ノード、最近傍ノード)、402,402-1…走行ノード(目標ノード)、403…リンク(目標リンク)、404…終端ノード、405…セグメント、411…自己位置、412…自己姿勢、421…棚、422…パレット、423…荷、500…位置管理テーブル、901…センサデータ記憶部、902…パレット・荷形状検知部、1201…2段目の棚の底面高さ(地上高)、1202…外界センサ光軸から棚奥側の壁面までの距離、1301…パレット領域(点群)、1302…荷領域(点群)、1401…パレット姿勢検知部、1402…荷下ろし位置検出部、1403…旋回量算出部、
1600…荷下ろし目標位置及び姿勢を示す座標系、1601…座標系、1801…障害物検知範囲設定部、1802…障害物検知部、2101…(外界センサAの)検知範囲、2102…(外界センサBの)検知範囲、2103…(外界センサAの)検知範囲(パレット姿勢に伴う増加面積分)、2104…(外界センサBの)検知範囲(パレット姿勢に伴う減少面積分)、2201…検知範囲、2203A~2203E…計測点
Reference Signs List 100, 100-1 Cargo handling vehicle 101 Vehicle frame (vehicle body) 102 Transfer device 103 Load receiving member 104, 104A, 104B Guide rail portion 105, 105A, 105A-1, 105B, 105B -1 External sensor 106, 106A, 106B Sensor support member 107 Load sensor 108, 108A, 108B, 108C In-vehicle controller 110 Bumper 120 Sensor jig moving mechanism 121 Ball screw 122 ... rotary motor 123 ... encoder 300, 300A, 300B, 300C ... cargo handling vehicle system 301 ... traffic control section 302 ... operation management section 303 ... route map generation section 304 ... route map management section 305 ... communication device , 306... communication device, 310... self position/orientation calculation unit, 311... nearest neighbor node calculation unit, 312... load calculation unit, 313... work determination unit (motion determination unit), 314... sensor viewpoint conversion unit, 315... sensor Viewpoint management unit 320 Control command generation unit 321 Steering angle drive unit 322 Traveling motor drive unit 323 Brake drive unit 324 Load receiving member/transfer device drive unit 325 Sensor jig drive unit 400... reference coordinate system, 401, 401-1... travel node (current node, nearest neighbor node), 402, 402-1... travel node (target node), 403... link (target link), 404... end node, 405 Segment 411 Self-position 412 Self-orientation 421 Shelf 422 Pallet 423 Load 500 Position management table 901 Sensor data storage unit 902 Pallet/load shape detection unit 1201 2 1202 -- Distance from the optical axis of the external sensor to the wall surface on the back side of the shelf 1301 -- Pallet area (point group) 1302 -- Load area (point group) 1401 -- Pallet posture detection unit 1402 unloading position detection unit 1403 turning amount calculation unit
1600 ... Coordinate system indicating unloading target position and attitude, 1601 ... Coordinate system, 1801 ... Obstacle detection range setting part, 1802 ... Obstacle detection part, 2101 ... Detection range (of external sensor A), 2102 ... (External sensor) B) detection range, 2103... (external sensor A) detection range (increased area due to pallet attitude), 2104... (external sensor B) detection range (decrease area due to pallet attitude), 2201... detection range , 2203A to 2203E ... measurement points

Claims (8)

走行及び旋回自在な車両本体と、前記車両本体の格納部から出退可能な荷受部材と、前記荷受部材に昇降自在に設けられた移載装置と、前記移載装置の側面に設置された高さ方向に延在するガイドレール部と、前記ガイドレール部に外界センサ支持部材を介して備えられた、周囲の情報を取得する少なくとも1台の外界センサと、前記荷受部材及び前記移載装置が備えるモータを駆動する荷受部材・移載装置駆動部と、を含む荷役車両と、
前記荷役車両の動作を制御する車載コントローラと、
を備える荷役車両システムであって、
前記荷役車両は、
前記外界センサごとに前記センサ支持部材を前記ガイドレール部に沿って移動可能に構成されたセンサ治具移動機構と、
制御指令に基づいて、前記センサ治具移動機構を駆動するセンサ治具駆動部と、を備え、
前記車載コントローラは、
前記荷役車両の位置に応じて当該荷役車両が実施する動作内容を判定する動作判定部と、
前記荷役車両の動作内容と前記外界センサの目標視点位置情報を紐づけて管理するセンサ視点管理部と、
前記動作判定部により判定された動作内容、及び前記センサ視点管理部の前記目標視点位置情報に基づいて、前記外界センサの目標視点を決定するセンサ視点変換部と、
前記センサ視点変換部で決定された前記目標視点に基づいて、前記センサ治具駆動部に対する前記制御指令を生成する制御指令生成部と、を備える
荷役車両システム。
a vehicle main body that can travel and turn; a load receiving member that can move in and out of a storage section of the vehicle body; a guide rail portion extending in a vertical direction; at least one external sensor for obtaining surrounding information provided on the guide rail portion via an external sensor support member; a cargo handling vehicle including a load receiving member/transfer device driving unit that drives a motor provided;
an in-vehicle controller that controls the operation of the cargo handling vehicle;
A cargo handling vehicle system comprising:
The cargo handling vehicle is
a sensor jig moving mechanism configured to be able to move the sensor support member along the guide rail portion for each of the external sensors;
a sensor jig driving unit that drives the sensor jig moving mechanism based on a control command,
The in-vehicle controller includes:
a motion determination unit that determines the content of the motion to be performed by the cargo handling vehicle according to the position of the cargo handling vehicle;
a sensor viewpoint management unit that links and manages the operation content of the cargo handling vehicle and the target viewpoint position information of the external sensor;
a sensor viewpoint conversion unit that determines a target viewpoint of the external sensor based on the motion content determined by the motion determination unit and the target viewpoint position information of the sensor viewpoint management unit;
a control command generation unit that generates the control command for the sensor jig drive unit based on the target viewpoint determined by the sensor viewpoint conversion unit.
前記ガイドレール部として、前記移載装置の側面に第1のガイドレール部及び第2のガイドレール部、を備え、
前記外界センサとして、前記第1のガイドレール部に対応する第1の外界センサ、及び前記第2のガイドレール部に対応する第2の外界センサ、を備え、
前記センサ視点変換部は、前記第1の外界センサ及び前記第2の外界センサそれぞれの目標視点を決定する
請求項1に記載の荷役車両システム。
A first guide rail portion and a second guide rail portion are provided on the side surface of the transfer device as the guide rail portion,
A first external sensor corresponding to the first guide rail portion and a second external sensor corresponding to the second guide rail portion are provided as the external sensor,
The cargo handling vehicle system according to claim 1, wherein the sensor viewpoint conversion unit determines target viewpoints of each of the first external sensor and the second external sensor.
前記車載コントローラは、
前記第1の外界センサと前記第2の外界センサを視点変換させることで得られる、前記第1の外界センサのセンサデータと前記第2の外界センサのセンサデータを統合し、前記荷役車両が積載する予定のパレット及び荷の形状を検出するパレット・荷形状検出部、を備える
請求項2に記載の荷役車両システム。
The in-vehicle controller includes:
The sensor data of the first external sensor and the sensor data of the second external sensor, which are obtained by converting the viewpoints of the first external sensor and the second external sensor, are integrated, and the cargo handling vehicle is loaded. 3. The cargo handling vehicle system according to claim 2, further comprising a pallet/load shape detection unit that detects the shape of the pallet and load to be loaded.
前記車載コントローラは、
前記荷役車両が積載しているパレットの側面の情報を取得できる位置に移動された前記外界センサが出力するセンサデータに基づいて、前記荷役車両の姿勢と前記パレットの姿勢との差を検知するパレット姿勢検知部と、
前記パレットの目標設置位置及び姿勢を示す目標座標系を取得する荷下ろし位置取得部と、
前記パレット姿勢検知部によって検知された前記荷役車両の姿勢と前記パレットの姿勢との差と、前記荷役車両の姿勢と前記荷下ろし位置取得部によって取得された目標座標系との方位角の差に応じて、荷下ろし位置に正対するための前記荷役車両の旋回動作における旋回量を算出する旋回量算出部と、を備える
請求項1乃至3のいずれか一項に記載の荷役車両システム。
The in-vehicle controller includes:
A pallet that detects the difference between the attitude of the cargo handling vehicle and the attitude of the pallet based on the sensor data output by the external sensor moved to a position where information on the side of the pallet loaded by the cargo handling vehicle can be acquired. a posture detection unit;
an unloading position acquisition unit that acquires a target coordinate system indicating the target installation position and orientation of the pallet;
The difference between the attitude of the cargo handling vehicle detected by the pallet attitude detection unit and the attitude of the pallet, and the difference in the azimuth angle between the attitude of the cargo handling vehicle and the target coordinate system acquired by the unloading position acquisition unit. The cargo handling vehicle system according to any one of claims 1 to 3, further comprising a turning amount calculation unit for calculating a turning amount of the turning movement of the cargo handling vehicle for facing the unloading position accordingly.
前記旋回量算出部は、前記荷役車両の旋回量の計算に、更に前記荷役車両の姿勢と前記外界センサの姿勢との差を反映する
請求項4に記載の荷役車両システム。
The cargo handling vehicle system according to claim 4, wherein the turning amount calculator further reflects a difference between the attitude of the cargo handling vehicle and the attitude of the external sensor in calculating the amount of turning of the cargo handling vehicle.
前記車載コントローラは、
前記荷役車両の走行を阻害する障害物を検知するために前記第1の外界センサ及び前記第2の外界センサのそれぞれに検知範囲を設定する障害物検知範囲設定部と、
前記第1の外界センサ及び前記第2の外界センサの前記検知範囲に基づいて、前記障害物を検知する障害物検知部と、を備え、
前記第2の外界センサは、前記パレットの下方から周囲の情報を取得できる位置に移動され、
前記障害物検知範囲設定部は、前記パレット姿勢検知部によって検知された前記荷役車両の姿勢と前記パレットの姿勢との差に基づいて、前記第1の外界センサの検知範囲を設定し、また、前記荷役車両の姿勢と前記パレットの姿勢との差に基づいて、前記第2の外界センサの検知範囲を設定する
請求項4に記載の荷役車両システム。
The in-vehicle controller includes:
an obstacle detection range setting unit that sets a detection range for each of the first external sensor and the second external sensor in order to detect an obstacle that obstructs travel of the cargo handling vehicle;
an obstacle detection unit that detects the obstacle based on the detection ranges of the first external sensor and the second external sensor;
The second external sensor is moved from below the pallet to a position where surrounding information can be obtained,
The obstacle detection range setting unit sets the detection range of the first external sensor based on the difference between the attitude of the cargo handling vehicle detected by the pallet attitude detection unit and the attitude of the pallet, and The cargo handling vehicle system according to claim 4, wherein a detection range of said second external sensor is set based on a difference between the attitude of said cargo handling vehicle and the attitude of said pallet.
前記センサ視点管理部は、前記荷役車両が実施する動作の種類ごとに前記外界センサの目標視点位置情報を紐づけて記録した視点管理テーブルを備える
請求項1に記載の荷役車両システム。
The cargo handling vehicle system according to claim 1, wherein the sensor viewpoint management unit includes a viewpoint management table in which the target viewpoint position information of the external sensor is linked and recorded for each type of operation performed by the cargo handling vehicle.
前記荷役車両の動作には、前記車両本体が走行する走行作業と、前記荷受部材・移載装置駆動部が動作する荷役作業がある
請求項1に記載の荷役車両システム。
The cargo handling vehicle system according to claim 1, wherein the operations of the cargo handling vehicle include traveling work in which the vehicle main body travels and cargo handling work in which the load receiving member/transfer device drive unit operates.
JP2021072120A 2021-04-21 2021-04-21 Loading vehicle system Pending JP2022166717A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021072120A JP2022166717A (en) 2021-04-21 2021-04-21 Loading vehicle system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021072120A JP2022166717A (en) 2021-04-21 2021-04-21 Loading vehicle system

Publications (1)

Publication Number Publication Date
JP2022166717A true JP2022166717A (en) 2022-11-02

Family

ID=83851830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021072120A Pending JP2022166717A (en) 2021-04-21 2021-04-21 Loading vehicle system

Country Status (1)

Country Link
JP (1) JP2022166717A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4439115A1 (en) 2023-03-29 2024-10-02 Mitsubishi Logisnext Co., Ltd. Transport vehicle, edge position specifying method, distance calculation method, and position specifying program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4439115A1 (en) 2023-03-29 2024-10-02 Mitsubishi Logisnext Co., Ltd. Transport vehicle, edge position specifying method, distance calculation method, and position specifying program

Similar Documents

Publication Publication Date Title
EP3957507B1 (en) Automated guided vehicle
US11851310B2 (en) Autonomous forklift truck
US10108194B1 (en) Object placement verification
US9002581B2 (en) Object tracking and steer maneuvers for materials handling vehicles
US9870002B1 (en) Velocity control of position-controlled motor controllers
US9950587B2 (en) Inclination detection method, inclination detection apparatus, and equipment for detecting inclination
JP7164085B2 (en) Work transport method using moving body, computer program, and moving body
JP2022166717A (en) Loading vehicle system
US20230202817A1 (en) Control method for mobile object, mobile object, and computer-readable storage medium
EP4067290A1 (en) Movement control method for omnidirectional automatic forklift, and omnidirectional automatic forklift
JP7396231B2 (en) Delivery systems, delivery methods, and programs
JP2019061452A (en) Map information update method
JP7478092B2 (en) Cargo handling system
JP7397045B2 (en) Unmanned conveyance device
JP2022539936A (en) Obstacle avoidance method, device and warehouse robot
CN216272958U (en) Omnidirectional automatic forklift
Song et al. Implementation of distributed architecture based on CAN networks for unmanned forklift
JP4844826B2 (en) Goods storage equipment
WO2024004136A1 (en) Route identification system, route identification device, and route identification method
WO2024219056A1 (en) Moving body control method, moving body, and program
JP6687313B1 (en) Transport system
WO2023007878A1 (en) Cargo vehicle system and in-vehicle controller
US20240131709A1 (en) Guided Travel Mode with Dynamic Force Feedback for Mobile Robots
WO2022168377A1 (en) Baggage transport system, and method and computer program used in baggage transport system
KR20230168516A (en) Smart logistics vehicle and method of controlling the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20241024