Nothing Special   »   [go: up one dir, main page]

DE112019000125B4 - Systeme, vorrichtungen und verfahren zur automatisierten verpackungsregistrierung - Google Patents

Systeme, vorrichtungen und verfahren zur automatisierten verpackungsregistrierung Download PDF

Info

Publication number
DE112019000125B4
DE112019000125B4 DE112019000125.6T DE112019000125T DE112019000125B4 DE 112019000125 B4 DE112019000125 B4 DE 112019000125B4 DE 112019000125 T DE112019000125 T DE 112019000125T DE 112019000125 B4 DE112019000125 B4 DE 112019000125B4
Authority
DE
Germany
Prior art keywords
package
edges
image data
mvr
registration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112019000125.6T
Other languages
English (en)
Other versions
DE112019000125T5 (de
Inventor
Rosen Nikolaev Diankov
Huan Liu
Xutao Ye
Jose Jeronimo Moreira Rodrigues
Yoshiki Kanemoto
Jinze Yu
Russell Islam
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MUJIN, INC., JP
Original Assignee
Mujin Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/290,741 external-priority patent/US10369701B1/en
Application filed by Mujin Inc filed Critical Mujin Inc
Publication of DE112019000125T5 publication Critical patent/DE112019000125T5/de
Application granted granted Critical
Publication of DE112019000125B4 publication Critical patent/DE112019000125B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G61/00Use of pick-up or transfer devices or of manipulators for stacking or de-stacking articles not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G63/00Transferring or trans-shipping at storage areas, railway yards or harbours or in opening mining cuts; Marshalling yard installations
    • B65G63/002Transferring or trans-shipping at storage areas, railway yards or harbours or in opening mining cuts; Marshalling yard installations for articles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/087Inventory or stock management, e.g. order filling, procurement or balancing against orders
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65BMACHINES, APPARATUS OR DEVICES FOR, OR METHODS OF, PACKAGING ARTICLES OR MATERIALS; UNPACKING
    • B65B43/00Forming, feeding, opening or setting-up containers or receptacles in association with packaging
    • B65B43/42Feeding or positioning bags, boxes, or cartons in the distended, opened, or set-up state; Feeding preformed rigid containers, e.g. tins, capsules, glass tubes, glasses, to the packaging position; Locating containers or receptacles at the filling position; Supporting containers or receptacles during the filling operation
    • B65B43/46Feeding or positioning bags, boxes, or cartons in the distended, opened, or set-up state; Feeding preformed rigid containers, e.g. tins, capsules, glass tubes, glasses, to the packaging position; Locating containers or receptacles at the filling position; Supporting containers or receptacles during the filling operation using grippers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/91Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers
    • B65G47/915Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers provided with drive systems with rotary movements only
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/91Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers
    • B65G47/917Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers control arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G59/00De-stacking of articles
    • B65G59/02De-stacking from the top of the stack
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4093Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by part programming, e.g. entry of geometrical information as taken from a technical drawing, combining this with machining and material information to obtain control information, named part programme, for the NC machine
    • G05B19/40931Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by part programming, e.g. entry of geometrical information as taken from a technical drawing, combining this with machining and material information to obtain control information, named part programme, for the NC machine concerning programming of geometry
    • G05B19/40935Selection of predetermined shapes and defining the dimensions with parameter input
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2201/00Indexing codes relating to handling devices, e.g. conveyors, characterised by the type of product or load being conveyed or handled
    • B65G2201/02Articles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/04Detection means
    • B65G2203/041Camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2814/00Indexing codes relating to loading or unloading articles or bulk materials
    • B65G2814/03Loading or unloading means
    • B65G2814/0301General arrangements
    • B65G2814/0308Destacking devices
    • B65G2814/031Removing from the top
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40006Placing, palletize, un palletize, paper roll placing, box stacking
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Robotics (AREA)
  • Economics (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • De-Stacking Of Articles (AREA)
  • Stacking Of Articles And Auxiliary Devices (AREA)
  • Specific Conveyance Elements (AREA)
  • Image Processing (AREA)
  • Control Of Conveyors (AREA)

Abstract

Verfahren zum Registrieren eines Pakets (1, 31-33, 43, 44, 51-54, 112) während eines Roboterpakethandhabungsvorgangs, wobei das Verfahren Folgendes umfasst:Empfangen von ersten Bilddaten, die ein erstes Oberflächenbild einer Paketoberfläche darstellen;Bestimmen, dass das Paket (1, 31-33, 43,44, 51-54, 112) nicht registriert ist, basierend auf dem Vergleichen des ersten Oberflächenbildes mit einer Registrierungsaufzeichnung (172);Identifizieren eines Paares von Kanten für die Paketoberfläche basierend auf den ersten Bilddaten, wobei das Paar von Kanten entlang horizontaler Richtungen freiliegt und einander schneidet, um eine Ecke der Paketoberfläche zu bilden;Bestimmen eines geeigneten Mindestbereichs basierend auf dem Paar von Kanten, wobei der geeignete Mindestbereich eine oder beide aus dem Paar von Kanten überlappt und/oder damit zusammenfällt;Erzeugen von einem oder mehreren Befehlen zum (1) Greifen des Pakets (1, 31-33, 43, 44, 51-54, 112) mit einem Endeffektor (140), der über dem geeigneten Mindestbereich positioniert ist, und (2) Hochheben des Pakets (1, 31-33, 43,44, 51-54, 112);Empfangen von zweiten Bilddaten, die das Paket (1, 31-33, 43,44, 51-54, 112) nach dem Hochheben darstellen;Bestimmen von dritten Bilddaten umfassend das Berechnen eines Unterschieds zwischen den ersten Bilddaten und den zweiten Bilddaten;Schätzen von unklaren Kanten basierend auf den ersten Bilddaten, wobei das Paar von Kanten und die unklaren Kanten Grenzen der Paketoberfläche entsprechen; wobeider geeignete Mindestbereich die unklaren Kanten nicht überlappt, um das Paket zu greifen, während Abschnitte des Pakets (1, 31-33, 43,44, 51-54, 112), die den geschätzten unklaren Kanten entsprechen, frei gelassen werden; undIdentifizieren von einer oder mehreren neuen Kanten basierend auf den zweiten Bilddaten, wobei die neuen Kanten tatsächlich freiliegende Kanten des Pakets (1, 31-33, 43, 44, 51-54, 112) entsprechend den geschätzten unklaren Kanten darstellen, wobei die dritten Bilddaten die eine oder die mehreren neuen Kanten beinhalten.

Description

  • Oft werden Pakete palettiert, um sie zum einem Ziel zu transportieren, an dem sie depalettiert werden. Manchmal werden sie von menschlichen Arbeitern depalettiert, was teuer sein können und wobei ein Verletzungsrisiko besteht. In industriellen Umgebungen werden Depalettierungsvorgänge oft von Industrierobotern wie zum Beispiel einem Roboterarm durchgeführt, der das Paket greift, hochhebt, transportiert und zu einem Freigabepunkt liefert. Auch kann eine Bildgebungsvorrichtung eingesetzt werden, um ein Bild eines Stapels an Paketen, die auf die Palette geladen sind, zu erfassen. Ein System kann das Bild verarbeiten, um sicherzustellen, dass das Paket durch den Roboterarm effizient gehandhabt wird, wie zum Beispiel, indem das erfasste Bild mit einem registrierten Bild verglichen wird, das in einer Registrierungsdatenquelle gespeichert ist.
  • Gelegentlich kann das erfasste Bild eines Pakets mit einem registrierten Bild übereinstimmen. Folglich können physische Eigenschaften (z. B. Messungen der Abmessungen eines Pakets, Gewicht und/oder Mitte oder Masse) der abgebildeten Objekte unbekannt sein. Werden die physischen Eigenschaften nicht korrekt identifiziert, kann dies zu einer Vielfalt an unerwünschten Ergebnissen führen. Zum Beispiel könnte ein solches Versagen einen Stillstand verursachen, der manuelle Registrierung des Pakets erfordern kann. Auch könnte ein solches Versagen dazu führen, dass ein Paket falsch behandelt wird, insbesondere, wenn das Paket relativ schwer und/oder einseitig ist.
  • Die US 2017 / 0 246 744 A1 beschreibt ein Roboter-Handhabungssystem zum Lokalisieren und Aufnehmen von Paketen. Weiterer Stand der Technik ist offenbart in der US 2017 / 0 137 236 A1 , der US 2017 / 0 076 469 A1 , der US 9 102 055 B1 , der JP 2007 - 254 128 A und der JP 2006 - 300 929 A .
  • Die Erfindung sieht ein Verfahren gemäß Anspruch 1, ein System gemäß Anspruch 10 und ein Speichermedium gemäß Anspruch 11 vor. Ausgestaltungen sind in den abhängigen Ansprüchen angegeben.
    • 1A veranschaulicht ein Robotersystem, das mit einem Paketregistrierungsmechanismus konfiguriert ist, gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 1B ist ein funktionales Blockdiagramm des Robotersystems gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 2A veranschaulicht einen Kraft-Drehmoment-Sensor gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 2B veranschaulicht einen Greifer gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 3A veranschaulicht eine perspektivische Ansicht eines beispielhaften Stapels an Paketen.
    • 3B veranschaulicht eine Draufsicht auf den beispielhaften Stapel an Paketen.
    • 3C veranschaulicht beispielhafte Symbologien von registrierten Paketen gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 4A veranschaulicht eine perspektivische Ansicht eines zweiten beispielhaften Stapels an Paketen gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 4B veranschaulicht eine Draufsicht auf den zweiten Stapel an Paketen gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 4C veranschaulicht beispielhafte Symbologien von registrierten und nicht registrierten Paketen gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 4D veranschaulicht Beispiele von unklaren Rändern und minimal überlebensfähigen Regionen (minimum viable regions - MVRs) gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 4E veranschaulicht einen zweiten Satz an beispielhaften Symbologien von registrierten und nicht registrierten Paketen gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 4F veranschaulicht ein zweites Beispiel von unklaren Rändern und einer MVR gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 4G veranschaulicht einen dritten Satz an beispielhaften Symbologien von nicht registrierten Paketen gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 4H veranschaulicht eine beispielhafte Platzierung eines Greifersystems über eine erste MVR aus 4D gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 4I veranschaulicht einen vierten Satz an beispielhaften Symbologien von nicht registrierten Paketen gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 4J veranschaulicht ein Beispiel von unklaren Rändern und einer MVR für ein neu verarbeitetes Paket gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 4K veranschaulicht eine beispielhafte Platzierung eines Greifersystems über die MVR aus 4F gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 4L veranschaulicht einen fünften Satz an beispielhaften Symbologien von nicht registrierten Paketen gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 4M veranschaulicht ein Beispiel von unklaren Rändern und einer MVR für ein neu verarbeitetes Paket gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 4N veranschaulicht eine beispielhafte Platzierung eines Greifersystems über die MVR aus 4M gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 4O veranschaulicht eine beispielhafte Platzierung eines Greifersystems über die MVR aus 4J gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 4P veranschaulicht eine beispielhafte Platzierung eines Greifersystems über eine zweite MVR aus 4D gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 4Q veranschaulicht eine beispielhafte Platzierung eines Greifersystems über eine dritte MVR aus 4D gemäß einigen Ausführungsformen der vorliegenden Technologie.
    • 5 veranschaulicht eine Ablaufsteuerung für ein beispielhaftes Verfahren zum Betreiben des Robotersystems 100 aus 1A gemäß einigen Ausführungsformen der vorliegenden Technologie.
  • Die Erfindung ist im Folgenden anhand von Beispielen mit Bezug auf die Zeichnungen erläutert.
  • 1A und 1B veranschaulichen ein Robotersystem 100, das mit einem Paketregistrierungsmechanismus konfiguriert ist, gemäß einigen Ausführungsformen der vorliegenden Technologie. In einigen Ausführungsformen kann das Robotersystem eine Depalettierplattform 110, eine Aufnahmeplattform 120, ein Roboterarmsystem 130, einen Endeffektor 140, eine Verarbeitungseinheit (PU) 150, ein Bildsystem 160, eine Registrierungsdatenquelle (RDS) 170, einen Höhenbestimmungssensor (HDS) 180 und/oder einen Freigabepunktsensor (RPS) 190 beinhalten.
  • Die Depalettierplattform 110 kann eine beliebige Plattform, Oberfläche und/oder Struktur beinhalten, auf der eine Vielzahl von Paketen 112 (einzeln „Paket 112“) gestapelt und/oder organisiert werden kann und für den Transport zu der Aufnahmeplattform 120 bereit ist. Es ist anzumerken, dass, obwohl hier der Begriff „Paket“ und „Pakete“ verwendet wird, der Begriff ein beliebiges anderes Wort beinhaltet, dessen Inhalt, wie nachfolgend detailliert erörtert, gegriffen, angehoben, transportiert und geliefert werden kann, wie zum Beispiel unter anderem „Gehäuse“, „Box“, „Karton“ oder eine beliebige Kombination davon. Außerdem sind, obwohl in den hier offenbarten Zeichnungen rechteckige Boxen veranschaulicht sind, die Formen der Boxen nicht auf eine solche Form beschränkt, sondern beinhalten eine beliebige regelmäßige oder unregelmäßige Form, die, wie nachfolgend detailliert erörtert, gegriffen, angehoben, transportiert und geliefert werden kann.
  • Wie die Depalettierplattform 110 kann die Aufnahmeplattform 120 eine beliebige Plattform, Oberfläche und/oder Struktur beinhalten, die dazu gedacht ist, die Pakete 112 für weitere Aufgaben/Vorgänge aufzunehmen. In einigen Ausführungsformen kann die Aufnahmeplattform 120 ein Fördersystem beinhalten, um das Paket 112 von einer Stelle (z. B. einem Freigabepunkt wie nachfolgend erörtert) zu einer anderen Stelle für weitere Vorgänge (z. B. Sortieren und/oder Lagern) zu transportieren.
  • Das Roboterarmsystem 130 kann einen Satz an Verbindungsstrukturen, Gelenken, Motoren/Aktoren, Sensoren oder eine Kombination davon beinhalten, die konfiguriert ist, um die Pakete 112 zu manipulieren (z. B. übertragen und/oder drehen oder neuausrichten). Das Roboterarmsystem 130 kann einen Roboterarm 132 beinhalten, der hier zum Zwecke der Veranschaulichung und nicht zur Einschränkung eine artikulierte Roboterarmstruktur mit sechs Achsen sein könnte. Obwohl sich die Erörterung hier auf das Roboterarmsystem 130 bezieht, sind die hier offenbarten Ausführungsformen nicht auf ein solches System beschränkt, sondern beinhalten ein beliebiges Robotersystem, das konfiguriert sein kann, um die hier offenbarten Handlungen durchzuführen.
  • Der Endeffektor 140 kann eine beliebige Komponente oder Komponenten gekoppelt an ein distales Ende des Roboterarms 132 beinhalten, der konfiguriert ist, um mit der Vielzahl von Paketen 112 zu interagieren. Zum Beispiel kann der Endeffektor 140 Strukturen (z. B. vakuumbasierte Greifer) beinhalten, die konfiguriert sind, um die Pakete 112 zu greifen und zu halten. In einigen Ausführungsformen könnte der Endeffektor 140 einen Kraft-Drehmoment-(F-T-)Sensor 142, eine Armschnittstelle 144, ein Greifersystem 146 und/oder eine Greiferschnittstelle 148 (wie in 2A und 2B gezeigt) beinhalten.
  • Die PU 150 aus 1B kann/können (eine) beliebige Einheit(en) oder Schaltungen sein, die programmiert und/oder konfiguriert ist/sind, um nicht nur die Bewegungen und/oder andere Handlungen des Roboterarmsystems 130 (darunter des Endeffektors 140) zu lenken und zu steuern, sondern auch andere verwandte Daten zu verarbeiten. Zum Beispiel kann die PU 150 Bilddaten, die ein Oberflächenbild (SI) des Pakets 112 darstellen, von dem Bildsystem 160 empfangen und einen Registrierungsstatus des SI gemäß einer Registrierungsaufzeichnung 172 bestimmen, die durch die RDS 170 bereitgestellt wird (nachfolgend erörtert), d. h., ob das Paket 112 eine registrierte Instanz des Pakets 112 oder eine nicht registrierte Instanz des Pakets 112 ist (z. B. ohne oder mit einer unvollständigen Instanz der Registrierungsaufzeichnung 172 des Pakets 112). Auch kann die PU 150 zum Beispiel das Roboterarmsystem 130 zu einer registrierten Instanz des Pakets 112 lenken. Zusätzlich kann die PU 150 ein Greifsteuersignal auf das Greifersystem 146 anwenden, den Arm zu der Aufnahmeplattform 120 lenken und/oder die registrierte Instanz des Pakets 112 an der Aufnahmeplattform 120 bei Empfang eines Freigabesignals von dem RPS 190 freigeben.
  • Die PU 150 kann eine beliebige elektronische Datenverarbeitungseinheit beinhalten, die Software oder Computeranweisungscode durchführt, die/der permanent oder temporär in einer digitalen Speichervorrichtung oder einem nichtflüchtigen computerlesbaren Medium (im Allgemeinen ein Speicher 152 aus 1B) gespeichert werden könnte, darunter unter anderem Direktzugriffsspeicher (RAM), Plattenlaufwerke, Magnetspeicher, Nurlesespeicher (ROM), Compact Disc (CD), Festspeicher, Secure-Digital-Karten und/oder Compact-Flash-Karten. Die PU 150 kann durch die Ausführung von Software oder Computeranweisungscode, die/der Algorithmen enthält, die für die hier ausgeführten spezifischen Funktionen entwickelt wurden, angetrieben werden. In einigen Ausführungsformen kann die PU 150 eine anwendungsspezifische integrierte Schaltung (ASIC) sein, die für die hier offenbarten Ausführungsformen angepasst ist. In einigen Ausführungsformen kann die PU 150 eines oder mehrere von Mikroprozessoren, Digitalsignalprozessoren (DSPs), programmierbaren Logikvorrichtungen (PLDs), programmierbaren Gate Arrays (PGAs) und Signalgeneratoren beinhalten; jedoch ist hier für die Ausführungsformen der Begriff „Prozessor“ nicht auf solche beispielhaften Verarbeitungseinheiten beschränkt und seine Bedeutung ist nicht eng auszulegen. Zum Beispiel kann die PU 150 auch mehr als eine elektronische Datenverarbeitungseinheit beinhalten. In einigen Ausführungsformen könnte die PU 150 (ein) Prozessor(en) sein, der/die durch oder in Verbindung mit einem beliebigen anderen System des Robotersystems 100 verwendet wird/werden, darunter unter anderem dem Roboterarmsystem 130, dem Endeffektor 140 und/oder dem Bildsystem 160.
  • Die PU 150 kann (z. B. über Drähte, Busse und/oder Drahtlosverbindungen) elektronisch an Systeme und/oder Quellen gekoppelt sein, um den Empfang von Eingangsdaten zu vereinfachen. In einigen Ausführungsformen kann wirkgekoppelt als austauschbar mit elektronisch gekoppelt angesehen werden. Es ist nicht erforderlich, dass eine direkte Verbindung erfolgt; stattdessen könnte ein solcher Empfang von Eingangsdaten und das Bereitstellen von Ausgangsdaten durch einen Bus, durch ein Drahtlosnetzwerk oder als ein Signal, das durch die PU 150 über einen physischen oder einen virtuellen Computeranschluss empfangen und/oder übertragen wird, bereitgestellt werden. Die PU 150 kann programmiert oder konfiguriert sein, um das nachfolgend detailliert erörterte Verfahren auszuführen. In einigen Ausführungsformen kann die PU 150 programmiert oder konfiguriert sein, um Daten von verschiedenen Systemen und/oder Einheiten zu empfangen, darunter unter anderem dem Bildsystem 160, der RDS 170, dem HDS 180 und/oder dem RPS 190. In einigen Ausführungsformen kann die PU 150 programmiert oder konfiguriert sein, um verschiedenen Systemen und/oder Einheiten, darunter unter anderem dem Roboterarmsystem 130, dem Endeffektor 140 und der RDS 170, Ausgangsdaten bereitzustellen.
  • Das Bildsystem 160 könnte einen oder mehrere Sensoren 162 beinhalten, die konfiguriert sind, um Bilddaten zu erfassen, die ein oder mehrere SIs der Pakete 112 darstellen, die sich an der Depalettierplattform 110 befinden. In einigen Ausführungsformen können die Bilddaten visuelle Designs und/oder Markierungen darstellen, die an einer oder mehreren Oberflächen des Pakets 112 erscheinen, anhand derer eine Bestimmung eines Registrierungsstatus des Pakets 112 gemacht werden kann. In einigen Ausführungsformen kann das Bildsystem 160 eine oder mehrere Kameras beinhalten, die gestaltet sind, um innerhalb gezielter (z. B. sichtbarer und/oder Infrarot) elektromagnetischer Spektrumsbandbreite zu arbeiten und verwendet werden, um Licht/Energie innerhalb des entsprechenden Spektrums zu erfassen. In einigen Ausführungsformen könnten die Bilddaten ein Satz an Datenpunkten, die eine Punktwolke bilden, die Tiefenkarte oder eine Kombination davon sein, der von einer oder mehreren dreidimensionalen (3D) Kameras und/oder einer oder mehreren zweidimensionalen (2D) Kameras erfasst wird. Anhand dieser Kameras können Abstände oder Tiefen zwischen dem Bildsystem 160 und einer oder mehreren exponierten (z. B. relativ zu einer Sichtlinie für das Bildsystem 160) Oberflächen der Pakete 112 bestimmt werden. In einigen Ausführungsformen können die Abstände oder Tiefen durch die Verwendung eines/mehrerer Bilderkennungsalgorithmen, wie zum Beispiel eines/mehrerer kontextueller Bildklassifizierungsalgorithmen und/oder Randerfassungsalgorithmen bestimmt werden. Sobald sie bestimmt sind, können die Abstands-/Tiefenwerte verwendet werden, um die Pakete 112 über das Roboterarmsystem 130 zu manipulieren. Zum Beispiel kann die PU 150 und/oder das Roboterarmsystem 130 die Abstands-/Tiefenwerte verwenden, um die Position zu berechnen, von der das Paket 112 angehoben und/oder gegriffen werden kann. Es ist anzumerken, dass hier beschriebene Daten, wie zum Beispiel die Bilddaten, ein beliebiges analoges oder digitales Signal beinhalten können, entweder einzeln oder durchgehend, das Informationen enthalten oder Informationen angeben könnte.
  • Das Bildsystem 160 kann zumindest eine Anzeigeeinheit 164 beinhalten, die konfiguriert ist, um ein Bild des Pakets/der Pakete 112 zu präsentieren, das durch die Sensoren 162 erfasst wurde, das von einem oder mehreren Betreibern des Robotersystems 100 betrachtet werden kann, wie nachfolgend detailliert erörtert. Zusätzlich können die Anzeigeeinheiten 164 konfiguriert sein, um andere Informationen zu präsentieren, wie zum Beispiel Symbologie, die registrierte und/oder nicht registrierte Instanzen der Pakete 112 darstellt, wie nachfolgend detailliert erörtert.
  • Die RDS 170 könnte eine beliebige Datenbank und/oder Speichervorrichtung (z. B. ein nichtflüchtiges computerlesbares Medium) beinhalten, die konfiguriert ist, um die Registrierungsaufzeichnungen 172 für eine Vielzahl der Pakete 112 zu speichern. Zum Beispiel kann die RDS 170 Nurlesespeicher (ROM), Compact Disc (CD), Festspeicher, Secure-Digital-Karten, Compact-Flash-Karten und/oder Datenspeicherserver oder entfernte Speichervorrichtungen beinhalten.
  • In einigen Ausführungsformen können die Registrierungsaufzeichnungen 172 jeweils physische Eigenschaften oder Attribute für ein entsprechendes Paket 112 beinhalten. Zum Beispiel kann jede Registrierungsaufzeichnung 172 unter anderem ein oder mehrere Vorlagen-SIs, 2D- oder 3D-Größenmessungen, ein Gewicht und/oder Massenmittelpunkts-(CoM-)Informationen beinhalten. Die Vorlagen-SIs können bekannte oder zuvor bestimmte sichtbare Eigenschaften des Pakets 112 darstellen, darunter das Design, die Markierung, das Aussehen, die Außenform/Außenlinie oder eine Kombination davon des Pakets 112. Die 2D- oder 3D-Größenmessungen können Längen, Breiten, Höhen oder eine Kombination davon für die bekannten/erwarteten Pakete beinhalten.
  • In einigen Ausführungsformen kann die RDS 170 konfiguriert sein, um eine neue Instanz der Registrierungsaufzeichnung 172 (z. B. für ein zuvor unbekanntes Paket und/oder einen zuvor unbekannten Aspekt eines Pakets) zu empfangen, die gemäß den nachfolgend offenbarten Ausführungsformen erstellt wird. Entsprechend kann das Robotersystem 100 den Prozess zum Registrieren der Pakete 112 automatisieren, indem die Anzahl an Registrierungsaufzeichnungen 172 zu expandieren, die in der RDS 170 gespeichert ist, wodurch ein Depalettierungsvorgang effizienter gemacht wird, mit weniger nicht registrierten Instanzen der Pakete 112. Durch dynamisches (z. B. während des Betriebs/Einsatzes) Aktualisieren der Registrierungsaufzeichnungen 172 in der RDS 170 unter Verwendung von Live-/Betriebsdaten kann das Robotersystem 100 einen Computerlernprozess, der zuvor unbekannte oder unerwartete Bedingungen (z. B. Beleuchtungsbedingungen, unbekannte Ausrichtungen und/oder Stapelinkonsistenzen) und/oder neu eingetroffene Pakete berücksichtigen kann, effizient implementieren. Entsprechend kann das Robotersystem 100 die Fehler reduzieren, die sich aus „unbekannten“ Bedingungen/Paketen, verbundenen Interventionen eines menschlichen Betreibers und/oder verbundenen Aufgabenfehlern (z. B. verlorene Pakete und/oder Kollisionen) ergeben.
  • Der HDS 180 kann Komponenten beinhalten, die konfiguriert sind, um eine vertikale Messung eines Objekts (z. B. des Pakets 112) relativ zu einem Referenzpunkt (z. B. einer Oberfläche in Verbindung mit dem HDS 180) bereitzustellen. Für das Beispiel, das in 1A veranschaulicht ist, kann der HDS 180 ein Signal an die PU 150 aus 1 senden, wenn ein unterer Abschnitt/Rand des Pakets 112 eine horizontale Oberfläche (z. B. eine Scanebene) in Verbindung mit dem HDS 180 kreuzt. Die PU 150 kann das Signal von dem HDS 180 verwenden, um die Höhe (z. B. gemäß einer Platzierung/Ansatzausrichtung) des Pakets 112 zu bestimmen, wie zum Beispiel gemäß einem Abstand zwischen der Scanebene des HDS 180 (d. h. zuvor bekannt) und einer Stelle des Greifersystems 146 zu der Zeit, zu der das Signal erzeugt wird. Wie nachfolgend erörtert, kann die Höhe des Pakets 112 als Messung der dritten Dimension 2D-Messungen hinzugefügt werden, die bereits in der Registrierungsaufzeichnung 172 registriert sind. In einigen Ausführungsformen kann der HDS 180 an der Aufnahmeplattform 120 wie in 1A gezeigt installiert sein.
  • Der RPS 190 kann Komponenten/Schaltungen beinhalten, die konfiguriert sind, um ein Signal auszulösen, das der PU 150 bereitgestellt wird, wenn das Paket 112 eine horizontale Ebene in Verbindung mit dem RPS 190 durchläuft oder kontaktiert. In einigen Ausführungsformen kann ein Signal ausgelöst durch den RPS 190 verwendet werden, um die Position zu bestimmen, an der das Greifersystem 146 das Paket 112 auf die Aufnahmeplattform 120 freigibt. In einigen Ausführungsformen könnte der RPS 190 an der Aufnahmeplattform 120 wie in 1A gezeigt installiert sein.
  • Nun unter Bezugnahme auf 2A kann der F-T-Sensor 142 ein beliebiger Sensor sein, der konfiguriert ist, um lineare und/oder Momentkräfte entlang einer Achse und/oder Achsen eines Koordinatensystems zu erfassen. In einigen Ausführungsformen könnte der F-T-Sensor 142 eine Komponente mit Sechsachsenkraftsensoren beinhalten, die konfiguriert ist, um bis zu dreiachsige Kräfte (z. B. Kräfte, die entlang x-, y- und z-Achsen eines kartesischen Koordinatensystems erfasst werden) eingesetzt durch das Robotersystem 100 aus 1A und 1B und/oder dreiachsige Momente (z. B. Momente, die um x-, y- und z-Achsen des kartesischen Koordinatensystems erfasst werden) zu erfassen. In einigen Ausführungsformen könnte der F-T-Sensor 142 einen eingebauten Verstärker und Mikrocomputer für die Signalverarbeitung, eine Fähigkeit, statische und dynamische Messungen zu machen, und/oder eine Fähigkeit, sofortige Veränderungen basierend auf einem Probenahmeintervall zu erfassen, beinhalten. In einigen Ausführungsformen könnte der F-T-Sensor 142 über verdrahtete und/oder drahtlose Kommunikation kommunikativ mit der PU 150 aus 1B gekoppelt sein.
  • Die Armschnittstelle 144 könnte eine beliebige Vorrichtung sein, die konfiguriert ist, um das distale Ende des Roboterarms 132 aus 1A an den F-T-Sensor 142 zu koppeln. In einigen Ausführungsformen kann sich ein Hersteller des Roboterarmsystems 130 von einem Hersteller des F-T-Sensors 142 unterscheiden. In einem solchen Fall können Enden der Armschnittstelle 144 unterschiedliche Konfigurationen aufweisen: Ein Ende ist konfiguriert, um das distale Ende zu koppeln, und das andere Ende ist konfiguriert, um den F-T-Sensor 142 zu koppeln.
  • Nun unter Bezugnahme auf 2B kann das Greifersystem 146 ein(e) beliebige(s) System oder Baugruppe sein, das/die konfiguriert ist, um das Paket 112 aus 1A aus seiner stationären Position an der Depalettierplattform 110 aus 1A zu greifen und den Griff beizubehalten, während das Paket 112 durch das Roboterarmsystem 130 aus 1B transportiert und zu der Aufnahmeplattform 120 aus 1A geliefert wird. In einigen Ausführungsformen könnte das Greifersystem 146 aus einem Vakuumgreifersystem bestehen, das eine Vakuumquelle einsetzt, um das Paket 112 an der Aufnahmeplattform 120 zu greifen und es an der Depalettierplattform 110 freizugeben. In einigen Ausführungsformen könnte das Vakuumgreifersystem einen Saugnapf/Saugnäpfe als Schnittstelle mit dem Paket 112 einsetzen.
  • Die Greiferschnittstelle 148 aus 2B könnte eine beliebige Vorrichtung sein, die konfiguriert ist, um den F-T-Sensor 142 an das Greifersystem 146 zu koppeln. In einigen Ausführungsformen kann sich ein Hersteller des F-T-Sensors 142 von einem Hersteller des Greifersystems 146 unterscheiden. In einem solchen Fall können gegenüberliegende Seiten der Greiferschnittstelle 148 unterschiedliche Konfigurationen aufweisen: Eine Seite ist konfiguriert, um den F-T-Sensor 142 zu koppeln, und die gegenüberliegende Seite ist konfiguriert, um das Greifersystem 146 zu koppeln.
  • 3A bis 4Q veranschaulichen, wie das Robotersystem 100 aus 1A und 1B eingesetzt werden kann, um die Registrierungsaufzeichnung 172 aus 1B der nicht registrierten Instanz des Pakets 112 aus 1A zu erstellen. 3A veranschaulicht eine perspektivische Ansicht eines beispielhaften Stapels an Paketen 112-1 bis 112-24. 3B veranschaulicht eine Draufsicht auf den beispielhaften Stapel dieser Pakete 112. 3B kann einem Bild und/oder Punktwolkendaten der Szene entsprechen, die auf diese Pakete 112 herabschaut, wie durch die Sensoren 162 des Bildsystems 160 aus 1A und 1B erfasst. Lediglich zum Zwecke der Veranschaulichung und nicht zur Einschränkung können die Pakete 112-1 bis 112-3, 112-13 bis 112-14 und 112-21 bis 112-24 registrierte Instanzen der Pakete 112 darstellen, wobei jede die Registrierungsaufzeichnung 172 aufweist, die in der RDS 170 aus 1B gespeichert ist. Lediglich zur Erörterung und der Kürze wegen sind die Pakete 112 als rechteckig gezeigt, und jedes weist ein SI (gezeigt als diagonale Linien) auf, das in einer jeweiligen Registrierungsaufzeichnung 172 registriert ist.
  • 3C veranschaulicht beispielhafte Symbologien von registrierten Paketen gemäß einigen Ausführungsformen der vorliegenden Technologie. 3C veranschaulicht die Paketsymbologien (z. B. visuelle Markierungen und/oder Überlagerungen, um den Registrierungsstatus von angezeigten Objekten darzustellen) 112-1a bis 112-3a, 112-13a bis 112-14a und 112-21a bis 112-24a wie durch die Anzeigeeinheit 164 aus 1B gezeigt. Um diese Symbologien und den entsprechenden Registrierungsstatus zu erzeugen, können die erfassten SIs der Pakete 112-1 bis 112-3, 112-13 bis 112-14 und 112-21 bis 112-24 aus 3B durch einen/mehrere Bilderkennungsalgorithmen mit den SIs der Registrierungsaufzeichnungen 172 verglichen werden, die in der RDS 170 gespeichert sind, und bei Registrierung als Symbologie angezeigt werden. In einigen Ausführungsformen könnte die Symbologie durch einen Hersteller und/oder Endnutzer mit einem visuellen Format konfiguriert sein, das angibt, dass das SI registriert ist, wobei ein solches Format eine Reihe an Formen und/oder Farben einsetzen könnte. Zum Zwecke der Veranschaulichung und nicht zur Einschränkung hat ein Hersteller und/oder Endnutzer die Symbologien 112-1a bis 112-3a, 112-13a bis 112-14a und 112-21a bis 112-24a in der Form und Größe von Paketaußenlinien (d. h. hier als rechteckig angenommen) konfiguriert. Obwohl nicht gezeigt, könnte die Symbologie durch die Farbe (z. B. grün) einen günstigen Registrierungsstatus (d. h. vorhandene Instanz der Registrierungsaufzeichnungen 172) für jedes der Pakete 112-1 bis 112-3, 112-13 bis 112-14 und 112-21 bis 112-24 angeben. Obwohl nicht gezeigt, könnte das Bild der Szene, die in 3B gezeigt ist, an der Anzeigeeinheit 164 präsentiert werden, über die die Symbologie aus 3C überlagert sein kann. In einigen Ausführungsformen können alphanumerische Zeichen, die über die Pakete 112-1 bis 112-3, 112-13 bis 112-14 und 112-21 bis 112-24 informieren (z. B. eine oder mehrere physische Eigenschaften, die in der Registrierungsaufzeichnung 172 aufgelistet sind), anstelle oder zusätzlich zu der Symbologie präsentiert werden.
  • In einigen Ausführungsformen kann das Robotersystem 100 2D-Messungen (z. B. Längen und Breiten) von Paketen anhand der Bilddaten machen (durch einen/mehrere Bilderkennungsalgorithmen, die einen/mehrere Randerkennungsalgorithmen beinhalten könnten). Zum Beispiel kann das Robotersystem 100 einen/mehrere Bilderkennungsalgorithmen (z. B. einen/mehrere Randerkennungsalgorithmen und/oder einen/mehrere Zuordnungsalgorithmen) verwenden, um die 2D-Messungen der Pakete 112 an der Depalettierplattform 110 zu machen, wie zum Beispiel der Pakete 112-1 bis 112-3, 112-13 bis 112-14 und 112-21 bis 112-24. Das Robotersystem 100 kann die 2D-Messungen basierend auf Tiefe zu der gemessenen Oberfläche machen. Das Robotersystem 100 kann die 2D-Messungen des entsprechenden Pakets 112 mit ihren Registrierungsaufzeichnungen 172 vergleichen (z. B., sobald das gemessene Paket identifiziert ist, wie zum Beispiel über Bilderkennung seiner exponierten Oberfläche), um die Genauigkeit der Registrierungsaufzeichnungen 172 zu bestätigen.
  • In einigen Ausführungsformen können der PU 150 zum Zwecke der Positionierung des Endeffektors 140 und/oder des Greifersystems 146 aus 1A und 1B CoM-Informationen bereitgestellt werden, die in der Registrierungsaufzeichnung 172 gespeichert sind. Das Robotersystem 100 kann den Endeffektor 140 und/oder das Greifersystem 146 über dem CoM des Pakets 112 platzieren, um das Paket 112 zu greifen und hochzuheben, wodurch Vorgänge vereinfacht werden, die ausgeglichenes Paketgreifen und waagerechtes Paketheben beinhalten, wenn das Paket 112 gegriffen und von seiner Position an der Depalettierplattform 110 aus 1A hochgehoben wird. Die Pakete 112 können gegriffen, hochgehoben, zu der Aufnahmeplattform 120 aus 1A transportiert und dort freigegeben werden.
  • 4A veranschaulicht eine perspektivische Ansicht eines zweiten beispielhaften Stapels an Paketen (z. B. Pakete 112-31 bis 112-54) gemäß einigen Ausführungsformen der vorliegenden Technologie. 4B veranschaulicht eine Draufsicht auf den zweiten beispielhaften Stapel an Paketen gemäß einigen Ausführungsformen der vorliegenden Technologie. 3B kann einem Bild und/oder Punktwolkendaten der Szene entsprechen, die auf diese Pakete herabschaut, wie durch die Sensoren 162 des Bildsystems 160 aus 1A und 1B erfasst. Lediglich zum Zwecke der Veranschaulichung und nicht zur Einschränkung können die Pakete 112-33, 112-43 und 112-51 registrierte Instanz der Pakete 112 darstellen, wobei jede Instanz das SI aufweist, das in der jeweiligen Instanz der Registrierungsaufzeichnung 172 aus 1B enthalten ist, die in der RDS 170 aus 1B gespeichert ist. Lediglich zur Erörterung und der Kürze wegen sind die Pakete 112 rechteckig.
  • Zusätzlich können die Pakete 112-31, 112-32, 112-44 und 112-52 bis 112-54 nicht registrierte und/oder fehlerhaft verarbeitete/zugeordnete Instanzen der Pakete 112 darstellen, die gegebenenfalls nicht der Registrierungsaufzeichnung 172 entsprechen, die in der RDS 170 aus 1B gespeichert ist. Das Robotersystem 100 kann die erfassten Bilddaten, die diese nicht registrierten/nicht zugeordneten SIs darstellen, als erste Bilddaten und ein registrierbares SI verwenden, wie nachfolgend erörtert. Lediglich zur Erörterung und der Kürze wegen sind die Pakete 112 rechteckig und kann jedes ein SI aufweisen, das durch vertikale, horizontale und/oder schraffierte Linien gezeigt ist.
  • 4C, 4E, 4G, 4I und 4L können Draufsichten auf den Stapel veranschaulichen, während ein oder mehrere Pakete entfernt werden. 4C veranschaulicht beispielhafte Symbologien von registrierten und nicht registrierten Paketen gemäß einigen Ausführungsformen der vorliegenden Technologie. 4C veranschaulicht die Symbologien von Rechtecken 112-33a, 112-43a und 112-51a wie durch die Anzeigeeinheit 164 aus 1B gezeigt. Wie vorstehend angemerkt, können SIs für die Pakete 112 durch das Bildsystem 160 aus 1B erfasst und mit den SIs der Registrierungsaufzeichnungen 172 aus 1B verglichen werden, die in der RDS 170 aus 1B gespeichert sind. Bei Registrierung kann das Robotersystem Symbologien zuweisen und/oder anzeigen, die das registrierte SI angeben. Wie veranschaulicht, können Symbologien 112-33a, 112-43a und 112-51a, rechteckige Außenlinien beinhalten, die durch die Anzeigeeinheit 164 angezeigt werden.
  • Wie in 4C gezeigt, kann eine Kombination aus inneren Rechtecken 112-61a bis einschließlich 112-61d, innerhalb äußerer Rechtecke 112-62a bis einschließlich 112-62d als die Symbologien 112-31a, 112-44a und 112-53a für die nicht registrierten SIs der Pakete 112-31, 112-44 und 112-53 an der Anzeigeeinheit 164 angezeigt werden. In einigen Ausführungsformen kann die Größe und Platzierung der inneren Rechtecke 112-61a bis 112-61d mit einer minimal überlebensfähigen Region (MVR) zusammenfallen, nachfolgend detailliert erörtert. Das Vorhandensein von Symbologien 112-31a, 112-44a und 112-53a könnte darauf hinweisen, dass die SIs der Pakete 112-31, 112-44 und 112-53 keine Registrierungsaufzeichnungen 172 aufweisen und/oder nicht damit übereinstimmen. In einem solchen Fall kann/können ein/mehrere Bilderkennungsalgorithmen (z. B. ein/mehrere Randerkennungsalgorithmen) eingesetzt werden, um ein Vorhandensein von zumindest zwei eindeutigen Rändern zu bestimmen, die eine Ecke bilden.
  • 4D veranschaulicht Beispiele von unklaren Rändern und MVRs gemäß einigen Ausführungsformen der vorliegenden Technologie. 4D veranschaulicht zwei eindeutige Ränder 112-31b, 112-44b und 112-53b (z. B. Ränder, die Außenkanten des Stapels bilden/damit zusammenfallen), die jeweils Ecken 112-31c, 112-44c und 112-53c für die nicht registrierten/nicht zugeordneten Pakete bilden. Auch können zwei unklare Ränder 112-31d, 112-44d und 112-53d durch die PU 150 identifiziert/geschätzt werden, um jeweils Ecken 112-31e, 112-44e und 112-53e zu bilden. In einigen Ausführungsformen können die zwei unklaren Ränder 112-31d des Pakets 112-31 aus 4A verarbeitet werden, indem angenommen wird, dass sie sich in einem zuvor festgelegten Winkel (z. B. senkrecht) jeweils von Enden 112-31ba und 112-31bb erstrecken, bis sie sich an der Ecke 112-31e schneiden. Ähnlich können die zwei unklaren Ränder 112-44d des Pakets 112-44 verarbeitet werden, indem angenommen wird, dass sie sich in einem zuvor festgelegten Winkel (z. B. senkrecht) jeweils von Enden 112-44ba und 112-44bb erstrecken, bis sie sich an der Ecke 112-44e schneiden. Ebenso können die zwei unklaren Ränder 112-53d des Pakets 112-53 verarbeitet werden, indem angenommen wird, dass sie sich in einem zuvor festgelegten Winkel (z. B. senkrecht) jeweils von Enden 112-53ba und 112-53bb erstrecken, bis sie sich an der Ecke 112-53e schneiden. In einigen Ausführungsformen kann das Robotersystem 100 den zuvor festgelegten Winkel gemäß einer Tiefenmessung, einer Position/Stelle, einer bestimmten Pose oder einer Kombination davon in Verbindung mit dem entsprechenden Paket auswählen oder anpassen.
  • Zusätzlich sind beispielhafte MVRs 112-31f, 112-44f und 112-53f in 4D veranschaulicht. In einigen Ausführungsformen können die MVRs für jede nicht registrierte Instanz des Pakets 112 berechnet werden, die verwendet werden kann, um die Registrierungsaufzeichnung 172 aus 1B zu erstellen. Das Robotersystem 100 kann die Registrierungsaufzeichnung 172 in Abhängigkeit ihrer jeweiligen MVR erstellen. MVR 112-31f kann berechnet werden, sodass ihre Seiten kollinear mit den zwei eindeutigen Rändern 112-31b oder Abschnitten davon sind. Anders gesagt kann die Größe der MVR 112-31f kleiner als die Oberfläche des Pakets 112-31 sein. In einigen Ausführungsformen kann die MVR 112-31f in Abhängigkeit der Größe des Greifersystems 146, das in 2B gezeigt ist, oder anderer Eigenschaften entsprechend der Fähigkeit, zu greifen, und das Greifen sicher beizubehalten, während das Paket 112 hochgehoben wird, größenbemessen werden. Beim Verarbeiten der MVR kann das Robotersystem 100 einen standardmäßigen CoM für das Paket 112 annehmen und verwenden. Entsprechend kann unter Verwendung des standardmäßigen CoM und der berechneten Größe das Robotersystem 100 die MVR 112-31f berechnen, die Fehler/Versagen bei verbundenen Manipulationen (z. B. Greifen, Hochheben und/oder Transportieren) der Pakete 112 verhindert. Wenn zum Beispiel die MVR zu klein ist, kann das Greifersystem 146 fehlplatziert werden und ein anhaltendes Greifen durch das Greifersystem 146 ist nicht möglich, wenn das Paket 112 hochgehoben wird. In einigen Ausführungsformen kann die MVR 112-31f größenbemessen sein, um gerade Linien, die Teil der Oberflächendesigns sind, und/oder Markierungen, die in dem SI erscheinen, wie durch einen/mehrere Bilderkennungsalgorithmen bestimmt, auszuschließen. In einigen Ausführungsformen kann die MVR 112-31f größenbemessen sein, um Ränder auszuschließen, die einem geringeren Konfidenzmaß entsprechen. Es ist anzumerken, dass, obwohl die vorstehende Erörterung auf MVR 112-31f bezogen war, die Funktion zum Berechnen der MVR 112-31f für eine beliebige hier erörterte MVR gilt.
  • 4E veranschaulicht einen zweiten Satz an beispielhaften Symbologien von registrierten und nicht registrierten Paketen gemäß einigen Ausführungsformen der vorliegenden Technologie. 4E kann einen Zustand des Stapels an Paketen darstellen, nachdem ein oder mehrere Pakete von dem Stapel, der in 4C gezeigt ist, entfernt/transportiert worden sind. Das Fehlen an Symbologie 112-33a aus 4C kann angeben, dass das registrierte Paket 112-33 gegriffen, hochgehoben und weg von der Depalettierplattform 110 aus 1A transportiert worden ist. Auch kann das Robotersystem 100 Symbologie 112-32a an der Anzeigeeinheit 164 erzeugen/anzeigen, die eine neue Erkennung von zwei eindeutigen Rändern angibt (z. B. Rändern, die nun freiliegen und nicht mehr benachbart zu anstoßenden Rändern/Paketen sind), die eine Ecke für das Paket 112-32 bilden, das in 4B gezeigt ist.
  • 4F veranschaulicht ein zweites Beispiel von unklaren Rändern und einer MVR gemäß einigen Ausführungsformen der vorliegenden Technologie. 4F veranschaulicht eindeutige Ränder 112-32b, die eine Ecke 112-32c bilden, die unter Anwendung von einem oder mehreren vorstehend beschriebenen Prozessen erkannt worden sind. Anhand dieser Erkennung können zwei unklare Ränder 112-32d und eine entsprechende Ecke 112-32e durch das Robotersystem 100 (z. B. die PU 150) auf die vorstehend erörterte Weise geschätzt werden, und kann eine MVR 112-32f auf die vorstehend erörterte Weise berechnet werden.
  • 4G veranschaulicht einen dritten Satz an beispielhaften Symbologien von nicht registrierten Paketen gemäß einigen Ausführungsformen der vorliegenden Technologie. 4G kann einen Zustand des Stapels an Paketen darstellen, nachdem ein oder mehrere Pakete von dem Stapel, der in 4E gezeigt ist, entfernt/transportiert worden sind. Das Fehlen an Symbologien 112-43a und 112-51a aus 4C und 4E kann angeben, dass registrierte Pakete 112-43 und 112-51 gegriffen, hochgehoben und weg von der Depalettierplattform 110 aus 1 transportiert worden ist. Es ist anzumerken, dass nun zwar rechte und linke Ränder für das Paket 112-52 aus 4B erkannt werden können (z. B. da sie freiliegen und nicht mehr benachbart zu anstoßenden Rändern/Paketen sind), diese Ränder aber parallel zueinander sind und sich nicht schneiden, um eine Ecke zu bilden; somit wird in einigen Ausführungsformen durch die Anzeigeeinheit 164 gegebenenfalls keine Hinzufügung an Symbologie entsprechend dem Paket 112-52 angezeigt.
  • 4H veranschaulicht eine beispielhafte Platzierung eines Greifersystems (z. B. des Greifersystems 146) über eine MVR (z. B. die MVR 112-44f aus 4D) gemäß einigen Ausführungsformen der vorliegenden Technologie. Der F-T-Sensor 142 und das Greifersystem 146, das den Endeffektor 140 umfasst, aus 1A und 1B können so positioniert sein, dass das Greifersystem 146 über der MVR 112-44f platziert ist, ohne die unklaren Ränder 112-44d aus 4D aus dem Blickfeld der Sensoren 162 des Bildsystems 160 aus 1 zu blockieren. Dann könnte das Paket 112-44 gegriffen und vertikal für einen Hubprüfabstand in eine angehobene Position hochgehoben werden. Zum Beispiel kann der Hubprüfabstand einen Abstand darstellen, der ausreichend für den F-T-Sensor 142 aus 1B und 2A ist, um Messungen von einer/einem oder mehreren Achsenkräften und/oder Achsenmomenten des Pakets 112-44 zu erfassen. Zum Beispiel kann der Hubprüfabstand einen vertikalen Abstand oder einen Abstand entlang der z-Achse darstellen, der größer als null Millimeter ist. Als spezifisches Beispiel kann der Hubprüfabstand 50 Millimeter darstellen.
  • In einigen Ausführungsformen, in denen Bezug auf das kartesische Koordinatensystem genommen wird, können (eine) Kraftmessung(en) entlang einer oder mehrerer Achsen (d. h. F(x-Achse), F(y-Achse) und/oder F(z-Achse)) und/oder (eine) Momentmessung(en) um eine oder mehrere Achsen (d. h. M(x-Achse), M(y-Achse) und/oder M(z-Achse)) über den F-T-Sensor 142 erfasst werden. Durch Anwenden von CoM-Berechnungsalgorithmen kann das Gewicht des Pakets in Abhängigkeit der Kraftmessung(en) berechnet werden und kann der CoM des Pakets in Abhängigkeit der Kraftmessung(en) und der Momentmessung(en) berechnet werden. Diese Messungen können einer neuen Instanz der Registrierungsaufzeichnung 172 aus 1B hinzugefügt werden, die für das Paket 112-44 erstellt wird. In einigen Ausführungsformen kann das Paket 112-44, wenn der berechnete CoM aus der MVR 112-44f fällt, von dem Greifersystem 146 freigegeben werden. Dann kann das Greifersystem 146 über dem berechneten CoM positioniert werden, wobei zu diesem Zeitpunkt das Paket 112-44 wieder sicher gegriffen und in die angehobene Position hochgehoben werden.
  • Während es sich in der angehobenen Position befindet, kann das Robotersystem das hochgehobene Paket neu abbilden, um die zuvor unklaren Ränder zu klären. Zweite Bilddaten, die ein partielles SI von 112-44 darstellen (d. h. den Abschnitt des gesamten SI, der nicht durch das Greifersystem 146 blockiert wird), können durch die Sensoren 162 des Bildsystems 160 aus 1A und 1B erfasst werden, um eindeutige Ränder 112-44g der unklaren Ränder 112-44d aus 4D zu erwerben. In einigen Ausführungsformen können Tiefeninformationen, die in den ersten Bilddaten dargestellt sind, die aus ersten Punktwolkendaten bestehen, mit Tiefeninformationen verglichen werden, die in den zweiten Bilddaten dargestellt sind, die aus zweiten Punktwolkendaten bestehen, um eine Änderung von Tiefeninformationen zu bestimmen, anhand der eindeutige Ränder und 2D-Messungen bestimmt werden können. Sobald sie erworben sind, können dritte Bilddaten, die ein registrierbares SI darstellen, aus dem SI der ersten Bilddaten und den eindeutigen Rändern der zweiten Bilddaten erzeugt werden. Die 2D-Messungen, die anhand der zweiten Bilddaten bestimmt werden, und das registrierbare SI der dritten Bilddaten können nun der Registrierungsaufzeichnung 172 hinzugefügt werden, die für das Paket 112-44 erstellt wird. Als ein weiteres Beispiel können die dritten Bilddaten Vorlagebilddaten für das Robotersystem 100 aus 1A darstellen. Von hier kann nun eine neue Instanz der Registrierungsaufzeichnung 172, die aus dem registrierbaren SI, den 2D-Messungen und den Messungen von Gewicht und CoM für die nicht registrierte Instanz des Pakets 112-44 besteht, in der RDS 170 aus 1B gespeichert werden. Das Robotersystem 100 kann bestimmen, ob das Paket 112 nicht registriert ist oder nicht, indem das SI des Pakets 112 mit den Vorlagebilddaten verglichen wird.
  • 4I veranschaulicht einen vierten Satz an beispielhaften Symbologien von nicht registrierten Paketen gemäß einigen Ausführungsformen der vorliegenden Technologie. 4I kann einen Zustand des Stapels an Paketen darstellen, nachdem ein oder mehrere Pakete von dem Stapel, der in 4G gezeigt ist, entfernt/transportiert worden sind. Das Fehlen an Symbologie 112-44a aus 4C, 4E und 4G kann angeben, dass, nachdem eine neue Instanz der Registrierungsaufzeichnung 172 hergestellt wurde, die zuvor nicht registrierte Instanz des Pakets 112-44 weg von der Depalettierplattform 110 transportiert worden ist. Auch kann das Robotersystem 100 Symbologie 112-54a an der Anzeigeeinheit 164 erzeugen/anzeigen, die eine neue Erkennung von zwei eindeutigen Rändern (z. B. neu freiliegenden Rändern nach Entfernung/Transport des/der zuvor benachbarten Pakets/Pakete) angibt, die eine Ecke für das Paket 112-54 bilden, das in 4B gezeigt ist.
  • 4J veranschaulicht ein Beispiel von unklaren Rändern und einer MVR für ein neu verarbeitetes Paket (z. B. dem Paket 112-54). 4J veranschaulicht eindeutige Ränder 112-54b, die eine Ecke 112-54c bilden, die unter Anwendung von einem oder mehreren vorstehend beschriebenen Prozessen erkannt worden sind. Anhand dieser Erkennung können zwei unklare Ränder 112-54d und eine entsprechende Ecke 112-54e durch das Robotersystem 100 (z. B. die PU 150) auf die vorstehend erörterte Weise geschätzt werden, und kann eine MVR 112-54f auf die vorstehend erörterte Weise berechnet werden.
  • 4K veranschaulicht eine beispielhafte Platzierung eines Greifersystems (z. B. des Greifersystems 146) über die MVR aus 4F (z. B. die MVR 112-32f) gemäß einigen Ausführungsformen der vorliegenden Technologie. Der F-T-Sensor 142 und das Greifersystem 146, das den Endeffektor 140 umfasst, aus 1A und 1B können so positioniert sein, dass das Greifersystem 146 über der MVR 112-32f platziert ist, ohne die unklaren Ränder 112-32d aus dem Blickfeld der Sensoren 162 des Bildsystems 160 aus 1 zu blockieren. Dann, wenn sich das Paket 112-32 in einer angehobenen Position befindet und auf die vorstehend erörterte Weise, können Gewichts- und CoM-Messungen bestimmt und einer neuen Instanz der Registrierungsaufzeichnung 172 hinzugefügt werden, die für das Paket 112-32 erzeugt wird; können zweite Bilddaten, die ein partielles SI des Pakets 112-32 darstellen, erfasst werden, anhand derer 2D-Messungen und eindeutige Ränder 112-32g bestimmt werden können; und können dritte Bilddaten, die ein registrierbares SI darstellen, anhand des SI der ersten Bilddaten und der eindeutigen Ränder der zweiten Bilddaten erzeugt werden. Von hier kann nun eine neue Instanz der Registrierungsaufzeichnung 172, die aus dem registrierbaren SI, den 2D-Messungen und den Messungen von Gewicht und CoM für die nicht registrierte Instanz des Pakets 112-32 besteht, in der RDS 170 aus 1B gespeichert werden.
  • 4L veranschaulicht einen fünften Satz an beispielhaften Symbologien von nicht registrierten Paketen gemäß einigen Ausführungsformen der vorliegenden Technologie. 4L kann einen Zustand des Stapels an Paketen darstellen, nachdem ein oder mehrere Pakete von dem Stapel, der in 4I gezeigt ist, entfernt/transportiert worden sind. Das Fehlen an Symbologie 112-32a aus 4E, 4G und 4I kann angeben, dass, nachdem eine neue Instanz der Registrierungsaufzeichnung 172 hergestellt wurde, die zuvor nicht registrierte Instanz des Pakets 112-32 weg von der Depalettierplattform 110 transportiert worden ist. Auch kann das Robotersystem 100 Symbologie 112-52a an der Anzeigeeinheit 164 erzeugen/anzeigen, die eine neue Erkennung von zwei eindeutigen Rändern (z. B. neu freiliegenden Rändern nach Entfernung/Transport des/der zuvor benachbarten Pakets/Pakete) angibt, die eine Ecke für das Paket 112-52 bilden, das in 4B gezeigt ist.
  • 4M veranschaulicht ein Beispiel von unklaren Rändern und einer MVR für ein neu verarbeitetes Paket (z. B. dem Paket 112-52). 4M veranschaulicht eindeutige Ränder 112-52b, die eine Ecke 112-52c bilden, die unter Anwendung von einem oder mehreren vorstehend beschriebenen Prozessen erkannt worden sind. Anhand dieser Erkennung können zwei unklare Ränder 112-52d und eine entsprechende Ecke 112-52e durch das Robotersystem 100 (z. B. die PU 150) auf die vorstehend erörterte Weise geschätzt werden, und kann eine MVR 112-52f auf die vorstehend erörterte Weise berechnet werden.
  • 4N veranschaulicht eine beispielhafte Platzierung eines Greifersystems (z. B. des Greifersystems 146) über die MVR aus 4M (z. B. die MVR 112-52f) gemäß einigen Ausführungsformen der vorliegenden Technologie. Der F-T-Sensor 142 und das Greifersystem 146, das den Endeffektor 140 umfasst, aus 1A und 1B können so positioniert sein, dass das Greifersystem 146 über der MVR 112-52f platziert ist, ohne die unklaren Ränder 112-52d aus dem Blickfeld der Sensoren 162 des Bildsystems 160 aus 1 zu blockieren. Dann, wenn sich das Paket 112-52 in einer angehobenen Position befindet und auf die vorstehend erörterte Weise, können Gewichts- und CoM-Messungen bestimmt und einer neuen Instanz der Registrierungsaufzeichnung 172 hinzugefügt werden, die für das Paket 112-52 erzeugt wird; können zweite Bilddaten, die ein partielles SI des Pakets 112-52 darstellen, erfasst werden, anhand derer 2D-Messungen und eindeutige Ränder 112-52g bestimmt werden können; und können dritte Bilddaten, die ein registrierbares SI darstellen, anhand des SI der ersten Bilddaten und der eindeutigen Ränder der zweiten Bilddaten erzeugt werden. Von hier kann nun eine neue Instanz der Registrierungsaufzeichnung 172, die aus dem registrierbaren SI, den 2D-Messungen und den Messungen von Gewicht und CoM für die nicht registrierte Instanz des Pakets 112-52 besteht, in der RDS 170 aus 1B gespeichert werden.
  • 40 veranschaulicht eine beispielhafte Platzierung eines Greifersystems (z. B. des Greifersystems 146) über die MVR aus 4J (z. B. die MVR 112-54f) gemäß einigen Ausführungsformen der vorliegenden Technologie. Der F-T-Sensor 142 und das Greifersystem 146, das den Endeffektor 140 umfasst, aus 1A und 1B können so positioniert sein, dass das Greifersystem 146 über der MVR 112-54f platziert ist, ohne die unklaren Ränder 112-54d aus dem Blickfeld der Sensoren 162 des Bildsystems 160 aus 1 zu blockieren. Dann, wenn sich das Paket 112-54 in einer angehobenen Position befindet und auf die vorstehend erörterte Weise, können Gewichts- und CoM-Messungen bestimmt und einer neuen Instanz der Registrierungsaufzeichnung 172 hinzugefügt werden, die für das Paket 112-54 erzeugt wird; können zweite Bilddaten, die ein partielles SI des Pakets 112-54 darstellen, erfasst werden, anhand derer 2D-Messungen und eindeutige Ränder 112-54g bestimmt werden können; und können dritte Bilddaten, die ein registrierbares SI darstellen, anhand des SI der ersten Bilddaten und der eindeutigen Ränder der zweiten Bilddaten erzeugt werden. Von hier kann nun eine neue Instanz der Registrierungsaufzeichnung 172, die aus dem registrierbaren SI, den 2D-Messungen und den Messungen von Gewicht und CoM für die nicht registrierte Instanz des Pakets 112-54 besteht, in der RDS 170 aus 1B gespeichert werden.
  • 4P veranschaulicht eine beispielhafte Platzierung eines Greifersystems (z. B. des Greifersystems 146) über eine zweite MVR aus 4D (z. B. die MVR 112-31f) gemäß einigen Ausführungsformen der vorliegenden Technologie. Der F-T-Sensor 142 und das Greifersystem 146, das den Endeffektor 140 umfasst, aus 1A und 1B können so positioniert sein, dass das Greifersystem 146 über der MVR 112-31f platziert ist, ohne die unklaren Ränder 112-31d aus dem Blickfeld der Sensoren 162 des Bildsystems 160 aus 1 zu blockieren. Dann, wenn sich das Paket 112-31 in einer angehobenen Position befindet und auf die vorstehend erörterte Weise, können Gewichts- und CoM-Messungen bestimmt und einer neuen Instanz der Registrierungsaufzeichnung 172 hinzugefügt werden, die für das Paket 112-31 erzeugt wird; können zweite Bilddaten, die ein partielles SI des Pakets 112-31 darstellen, erfasst werden, anhand derer 2D-Messungen und eindeutige Ränder 112-31g bestimmt werden können; und können dritte Bilddaten, die ein registrierbares SI darstellen, anhand des SI der ersten Bilddaten und der eindeutigen Ränder der zweiten Bilddaten erzeugt werden. Von hier kann nun eine neue Instanz der Registrierungsaufzeichnung 172, die aus dem registrierbaren SI, den 2D-Messungen und den Messungen von Gewicht und CoM für das nicht registrierte Paket 112-31 besteht, in der RDS 170 aus 1B gespeichert werden.
  • 4Q veranschaulicht eine beispielhafte Platzierung eines Greifersystems (z. B. des Greifersystems 146) über eine dritte MVR aus 4D (z. B. die MVR 112-53) gemäß einigen Ausführungsformen der vorliegenden Technologie. Der F-T-Sensor 142 und das Greifersystem 146, das den Endeffektor 140 umfasst, aus 1A und 1B können so positioniert sein, dass das Greifersystem 146 über der MVR 112-53f platziert ist, ohne die unklaren Ränder 112-53d aus dem Blickfeld der Sensoren 162 des Bildsystems 160 aus 1 zu blockieren. Dann, wenn sich das Paket 112-53 in einer angehobenen Position befindet und auf die vorstehend erörterte Weise, können Gewichts- und CoM-Messungen bestimmt und einer neuen Instanz der Registrierungsaufzeichnung 172 hinzugefügt werden, die für das Paket 112-53 erzeugt wird; können zweite Bilddaten, die ein partielles SI des Pakets 112-53 darstellen, erfasst werden, anhand derer 2D-Messungen und eindeutige Ränder 112-53g bestimmt werden können; und können dritte Bilddaten, die ein registrierbares SI darstellen, anhand des SI der ersten Bilddaten und der eindeutigen Ränder der zweiten Bilddaten erzeugt werden. Von hier kann nun eine neue Instanz der Registrierungsaufzeichnung 172, die aus dem registrierbaren SI, den 2D-Messungen und den Messungen von Gewicht und CoM für die nicht registrierte Instanz des Pakets 112-53 besteht, in der RDS 170 aus 1B gespeichert werden.
  • 5 veranschaulicht eine Ablaufsteuerung 200 für ein beispielhaftes Verfahren zum Betreiben des Robotersystems 100 aus 1A. Die Ablaufsteuerung 200 kann das Registrieren eines nicht registrierten der Pakete 112 während eines Pakethandhabungsvorgangs beinhalten, wobei die PU 150 aus 1B mit Anweisungen entsprechend den Modulen (z. B. Schaltungen, Funktionen computer-/vorrichtungsausführbare Anweisungen oder eine Kombination davon), die in der Ablaufsteuerung 200 ausgeführt sind, programmiert oder konfiguriert sein kann. In einigen Ausführungsformen kann die PU 150 ein Prozessor oder eine Kombination aus Prozessoren sein, die in dem Roboterarmsystem 130 aus 1B, dem Endeffektor 140 aus 1B, dem Bildsystem 160 aus 1B, der RDS 170 aus 1B, einer eigenständigen Steuerung und/oder einem beliebigen anderen System, das geeignet ist, um die Aufgabe durchzuführen, zu finden sind. Auch kann die PU 150 ein Prozessor eines Moduls sein, wie zum Beispiel unter anderem eine Leiterplatte mit einer oder mehreren Eingangsschnittstellen, um die zweiwegige Datenkommunikation der PU 130, d. h. das Empfangen und Bereitstellen von Daten, zu erleichtern. Wie erforderlich zur Vollendung der folgenden Module, die in der Ablaufsteuerung 200 ausgeführt sind, ist das Empfangen von Daten synonym und/oder austauschbar mit dem Erwerben und/oder Abrufen von Daten, und ist das Bereitstellen von Daten synonym und/oder austauschbar mit dem Zurverfügungstellen oder Liefern von Daten.
  • Das Robotersystem 100 kann ein Erfassungsmodul 202 beinhalten. Das Erfassungsmodul 202 erfasst das SI als die ersten Bilddaten. Zum Beispiel kann das Erfassungsmodul 202 die ersten Bilddaten mit dem/den Sensor(en) 162 aus 1B erfassen. Konkreter als Beispiel kann das Erfassungsmodul 202 das Bildsystem 160 betreiben und/oder mit dem Bildsystem 160 interagieren, um die Bilddaten entsprechend einer Draufsicht auf einen Stapel wie in 3B und/oder 4B veranschaulicht zu erfassen und/oder von dem Bildsystem 160 zu empfangen. Das Erfassungsmodul 202 kann die resultierenden Bilddaten verarbeiten, um die obere Oberfläche des Pakets 112 aus 1A als die ersten Bilddaten zu erfassen. In einigen Ausführungsformen kann das Erfassungsmodul 202 einen oder mehrere Bilderkennungsalgorithmen (z. B. die kontextuelle Bildklassifizierung, Mustererkennung und/oder Randerfassung) einsetzen, um die Bildgebungsdaten zu analysieren und Ränder und/oder Oberflächen der Pakete 112 darin zu identifizieren. Basierend auf den Verarbeitungsergebnissen (z. B. den identifizierten Rändern und/oder durchgehenden Oberflächen) kann das Erfassungsmodul 202 Abschnitte (z. B. Sätze an Pixelwerten und/oder Tiefenablesungen) der Bildgebungsdaten als obere Oberflächen einzelner Pakete darstellend identifizieren. Das Erfassungsmodul 202 kann die ersten Bilddaten entsprechend der/den oberen Oberfläche(n) von einem oder mehreren der einzelnen Pakete an ein Regionsmodul 204 übertragen.
  • Das Robotersystem 100 kann das Regionsmodul 204 beinhalten, das an das Erfassungsmodul 202 gekoppelt sein kann. Das Regionsmodul 204 berechnet die MVR. Zum Beispiel kann das Regionsmodul 204 die MVR basierend auf dem Paket 112, der Registrierungsaufzeichnung 172 aus 1B oder einer Kombination davon berechnen.
  • In einigen Ausführungsformen kann das Erfassungsmodul 202 die empfangenen Bilddaten (z. B. die ersten Bilddaten) mit der Registrierungsaufzeichnung 172 vergleichen. Zum Beispiel kann das Erfassungsmodul 202 die ersten Bilddaten und/oder beliebige Verarbeitungsergebnisse davon (z. B. Abmessungs-/Größenschätzungen und/oder visuelle Markierungen abgeleitet von den Bilddaten) mit vorhandenen Beschreibungen/Vorlagen von bekannten oder zuvor eingetroffenen Paketen vergleichen. Basierend auf dem Vergleich kann das Regionsmodul 204 bestimmen, ob die ersten Bilddaten mit entsprechenden Informationen eines bekannten oder zuvor eingetroffenen Pakets wie in den Registrierungsaufzeichnungen 172 gespeichert übereinstimmen.
  • Das Regionsmodul 204 kann die MVR auf eine Anzahl an Arten berechnen, darunter zum Beispiel Berechnen der MVR basierend darauf, ob das Paket 112 als die Registrierungsaufzeichnung 172 registriert ist (z. B., ob Vergleich der ersten Bilddaten mit den Registrierungsaufzeichnungen 172 eine Übereinstimmung zurückgibt). Konkreter als Beispiel kann das Regionsmodul 204 das Berechnen der MVR vermeiden, wenn die ersten Bilddaten mit einer der Registrierungsaufzeichnungen 172 übereinstimmen (z. B. das Paket 112 als eine oder mehrere der Registrierungsaufzeichnungen 172 registriert ist). Im Gegensatz dazu kann das Regionsmodul 204 die MVR berechnen, wenn erste Bilddaten mit keiner der Registrierungsaufzeichnungen 172 übereinstimmen. Zum Beispiel können die erfassten ersten Bilddaten die obere Oberfläche der nicht registrierten Instanz des Pakets 112 darstellen. Da das Paket 112 nicht registriert ist, können einige Instanzen des Randes des Pakets 112 unklar sein. Konkreter als Beispiel kann das nicht registrierte Paket 112-31 aus 4B unklare Ränder 112-31d aus 4D beinhalten. Das Regionsmodul 204 kann einen Satz an eindeutigen und/oder unklaren Rändern identifizieren. In einigen Ausführungsformen kann das Regionsmodul 204 die eindeutigen Ränder (z. B. Ränder, die periphere Ränder des Stapels bilden/damit zusammenfallen und an keine anderen Pakete anstoßen) identifizieren und sie als Referenzen verwenden. Entsprechend kann das Regionsmodul 204 die eindeutigen Ränder verwenden, um die MVR wie vorstehend beschrieben (z. B. gemäß einer Größe/Eigenschaft des Greifersystems 146) zu bestimmen. Das Regionsmodul 204 kann die MVR bestimmen, die kleiner als der Bereich der Oberfläche des Pakets 112 ist, das in den ersten Bilddaten erfasst wird.
  • Als spezifisches Beispiel können die ersten Bilddaten des Pakets 112-31 zwei eindeutige Ränder 112-31b aus 4D beinhalten. Das Regionsmodul 204 kann die Grenze des Oberflächenbereichs des Pakets 112-31 vorhersagen, indem die zwei eindeutigen Ränder 112-31b und die zwei unklaren Ränder 112-31d erweitert werden, sodass sich die zwei eindeutigen Ränder 112-31b mit den zwei unklaren Rändern 112-31d schneiden. Das Regionsmodul 204 kann die MVR basierend auf der Grenze des Oberflächenbereichs berechnen, indem bestimmt wird, dass die MVR kleiner als die Grenze des Oberflächenbereichs ist. In einigen Ausführungsformen kann das Regionsmodul 204 (z. B. basierend auf den Bilddaten) ein Paar an Rändern (z. B. eindeutige und/oder unklare Ränder) für die Paketoberfläche identifizieren, die einander schneiden, um eine erste Ecke zu bilden. Das Regionsmodul 204 kann das Paar an Rändern verwenden, um die MVR zu bestimmen, indem zum Beispiel unklare Ränder geschätzt werden, indem ein Paar an Linien senkrecht zu dem Paar an Rändern und zueinander erweitert wird. Entsprechend kann das Regionsmodul 204 eine gegenüberliegende Ecke als einen Schnittpunkte des Paares an unklaren/erweiterten Paarlinien schätzen. Das Regionsmodul 204 kann die unklaren/senkrechten Linien von Punkten an dem ersten Paar an Rändern erweitern, die einer oder mehreren Größen/Eigenschaften des Greifersystems 146 entsprechen.
  • Als ein weiteres Beispiel können Design und/oder Markierungen, die an dem SI des Pakets 112 erscheinen, eine gerade Linie beinhalten. Die gerade Linie kann fälschlicherweise als Rand der Oberfläche des Pakets 112 angesehen werden. Um potentielle Fehlidentifizierung des Randes zu reduzieren, kann das Regionsmodul 204 die MVR ohne den Abschnitt der Oberfläche mit der geraden Linie berechnen. Konkreter als Beispiel kann das Regionsmodul 204 die MVR kleiner als die Grenze des Oberflächenbereichs, der mit der geraden Linie enthalten ist, berechnen.
  • Als ein anderes Beispiel kann das Regionsmodul 204 die MVR basierend auf der Stelle des Pakets 112 berechnen. Zum Beispiel kann die Palette mehr als ein Paket 112 (registriert und/oder nicht registriert) wie in 3A/4B an der Depalettierplattform 110 aus 1A gezeigt beinhalten. Anhand der Gruppe an Paketen kann das Regionsmodul 204 die MVR basierend auf einer Stelle einer Instanz des Pakets 112 relativ zu einer anderen Instanz des Pakets 112 berechnen. Wie erörtert, können alle Ränder der registrierten Instanz des Pakets 112 bekannt sein, wie zum Beispiel basierend auf einer positiven Übereinstimmung der exponierten Oberfläche des Pakets mit registrierten Daten und Verwenden von zuvor gespeicherten Größen-/Abmessungsmessungen, die den registrierten Daten entsprechen.
  • Im Gegensatz dazu können einige der Ränder für die nicht registrierte Instanz des Pakets 112 unbekannt sein, wie zum Beispiel aufgrund dessen, dass das Paket 112-52 nicht registriert ist. Ferner kann ein unbekanntes Paket (z. B. das Paket 112-52) von anderen Paketen umgeben sein, wie zum Beispiel den Paketen 112-31, 112-32, 112-33, 112-43, 112-44, 112-51, 112-53 und/oder 112-54, wie in 4B veranschaulicht. Da die Ränder der 112-52 unbekannt sind, können SI der 112-52 Oberflächenbilder von anderen Paketen 112 überlappen.
  • In einigen Fällen kann eines oder können mehrere der umliegenden Pakete (z. B. das Paket 112-32) auch gemäß den Registrierungsaufzeichnungen 172 nicht registriert/nicht zugeordnet sein, wodurch weitere Unklarheiten in Bezug auf die übrigen/unbekannten Ränder des Pakets 112-52 eingeführt werden können. Ohne eine klare Grenze, die zwischen dem Paket 112-52 und dem Paket 112-32 gezogen wird, können das SI für das Paket 112-52 und das SI für das Paket 112-32 einander überlappen.
  • Im Gegensatz dazu können, während das Paket 112-31 auch nicht registriert/nicht zugeordnet sein kann, die Sensoren 162 eine(n) einmalige(n) Stelle/Zustand des Pakets 112-31 relativ zu der Depalettierplattform 110 und/oder anderen Paketen erfassen. Zum Beispiel kann das Regionsmodul 204 bestimmen, dass das Paket 112-31 eine(n) zuvor festgelegte(n) Stelle/Zustand erfüllt, wenn zumindest ein Rand des Pakets 112-31 nicht benachbart zu einem anderen Paket 112 ist/nicht daran anstößt. Konkreter als Beispiel können die zwei Ränder 112-31b 4B und die Ecke 112-31c aus 4B in dem ersten Bild eindeutig sichtbar sein und/oder einer Tiefenmessung (z. B. für eine durchgehende Oberfläche) entsprechen, die sich von denjenigen an umliegenden/benachbarten horizontalen Stellen unterscheidet (z. B. sich darüber befindet). Auch kann zum Beispiel das Regionsmodul 204 bestimmen, dass das Paket 112-31 und/oder seine Außenränder einer Ecke und/oder einem Außenabschnitt der Depalettierplattform 110 entsprechen.
  • Entsprechend kann das Regionsmodul 204 basierend auf der Sichtbarkeit des Randes/der Ränder, der Ecke oder einer Kombination davon des Pakets 112 bestimmen, dass sich die nicht registrierte Instanz des Pakets 112 an oder nahe dem Außenumfang der Depalettierplattform 110 befindet. In einigen Ausführungsformen kann das Regionsmodul 204 ferner bestimmen, dass die nicht registrierte Instanz des Pakets 112 entlang einer oder mehreren horizontalen Richtungen freiliegt (z. B. nicht benachbart zu anderen Paketen, wie zum Beispiel aufgrund von Entfernung von zuvor benachbartem Paket). Das Regionsmodul 204 kann die Berechnung der MVR für die nicht registrierte Instanz des Pakets 112, die freiliegen und/oder sich an der Außenseite befinden, gegenüber anderen nicht registrierten Paketen (z. B. dem nicht registrierten Paket 112-52 112, das sich an dem horizontal inneren Abschnitt des Stapels/der Schicht befindet) priorisieren.
  • In einigen Ausführungsformen kann das Regionsmodul 204 die Berechnung der MVR für das Paket mit der größeren Anzahl an Rändern, die deutlich sichtbar und/oder freiliegend sind, gegenüber dem Paket mit weniger solchen Rändern priorisieren. Entsprechend kann das Robotersystem 100 das Risiko reduzieren, das Paket mit SI zu greifen, das ein anderes Paket 112 überlappt, und die entsprechenden Greif-/Hubfehler reduzieren. Für das Beispiel, das in 4B veranschaulicht ist, kann das Regionsmodul 204 die MVR für das Paket 112-31, 112-53 und/oder 112-44 vor den Paketen 112-32, 112-54 112-52 bestimmen. Das Regionsmodul 204 kann die MVR an ein Hubmodul 206 übertragen.
  • Das Regionsmodul 204 kann die MVR basierend auf zwei unklaren Ecken berechnen. Konkreter als Beispiel können die zwei unklaren Ecken aus einer Kombination aus zumindest drei unklaren Ecken, zwei eindeutigen Ecken und einer unklaren Ecke oder zwei unklaren Ecken und einer eindeutigen Ecke bestehen. Wie vorstehend erörtert, kann das Regionsmodul 204 die Grenze der Oberfläche des Pakets 112 vorhersagen, indem jeder Rand erweitert wird, um den anderen Rand zu schneiden, um eine Ecke zu erzeugen. Das Regionsmodul 204 kann die MVR basierend auf der Grenze des Oberflächenbereichs erzeugt durch die drei Ränder/zwei Ecken berechnen, indem bestimmt wird, dass die MVR kleiner als die Grenze ist, die durch die zwei unklaren Ecken erzeugt wird.
  • Das Robotersystem 100, das die MVR dynamisch und in Echtzeit berechnet, stellt verbesserte Genauigkeit und Leistung beim Greifen der nicht registrierten Instanz des Pakets 112 bereit. Durch Berechnen der MVR kann das Robotersystem 100 den Oberflächenbereich (z. B. die entsprechenden Ränder/Grenzen) des Pakets 112 schätzen, an denen das Greifersystem 146 aus 4H das Paket 112 sicher greifen kann. Folglich kann das Robotersystem 100 das Paket 112 nicht registriert an das Robotersystem 100 übertragen, ohne den Arbeitsfluss anzuhalten, um die Leistung des Arbeitsflusses zum Depalettieren der Pakete 112 zu verbessern.
  • Das Robotersystem 100 kann das Hubmodul 206 beinhalten, das an das Regionsmodul 204 gekoppelt sein kann. Das Hubmodul 206 implementiert (z. B. durch Kommunizieren und/oder Ausführen) den Befehl für den Roboterarm 132 aus 1A, um das Paket 112 hochzuheben. Zum Beispiel kann das Hubmodul 206 den Roboterarm 132 betätigen, um die nicht registrierte Instanz des Pakets 112 für den Hubprüfabstand wie vorstehend erörtert hochzuheben. Konkreter als Beispiel kann der Roboterarm 132 das Paket 112 durch Greifen innerhalb der MVR des Pakets 112 mit dem Greifersystem 146, wo zumindest einer der Ränder, der unklar ist, für die Sensoren 162 sichtbar ist, hochheben. Anders gesagt kann das Hubmodul 206 für nicht registrierte/nicht identifizierte Pakete den Roboterarm 132 betätigen, um das Greifersystem 146 direkt an der/über der/die MVR kontaktierend zu platzieren. Folglich kann das Hubmodul 206 das entsprechende Paket greifen und hochheben, während ein oder mehrere unklare Ränder durch das Greifersystem 146 unbedeckt und freiliegend/für die Sensoren 162 zu sehen bleiben.
  • Das Hubmodul 206 kann auf eine Reihe an Arten arbeiten. Zum Beispiel kann das Hubmodul 206 den Hubbefehl für den Roboterarm 132 ausführen, um das Paket 112 innerhalb der MVR zu greifen, wo der unklare Rand für die Sensoren 162 sichtbar ist. Als konkretes Beispiel, wie in 4D gezeigt, kann der Roboterarm 132 das Paket 112-44 aus 4D innerhalb von 112-44f aus 4D hochheben. Das SI des Pakets 112-44 kann zwei eindeutige Ränder 112-44b und die Ecke 112-44c beinhalten. Das SI des Pakets 112-44 kann auch zwei unklare Ränder 112-44d beinhalten. Wie in 4H gezeigt, kann der Roboterarm 132 das Paket 112-44 hochheben, indem das Paket 112-44 gegriffen wird, wo die zwei unklaren Ränder 112-44b für die Sensoren 162 sichtbar sind. Ohne die MVR zu verwenden, kann das Greifersystem 146 das Paket an einer Stelle greifen, die das Erfassen des Randes durch die Sensoren 162 blockiert.
  • Als ein anderes Beispiel kann das Hubmodul 206 das Gewicht des Pakets 112 bestimmen. Konkreter als Beispiel kann das Hubmodul 206 das Gewicht der nicht registrierten Instanz des Pakets 112 unter Verwendung des F-T-Sensors 142 aus 1B bestimmen. Das Hubmodul 206 kann das Gewicht des Pakets 112 an ein Registriermodul 212 übertragen.
  • In einigen Ausführungsformen kann das Erfassungsmodul 202 ferner das SI der nicht registrierten Instanz des Pakets 112 nach dem Hochheben und/oder während es durch das Greifen an der MVR hochgehoben wird, als die zweiten Bilddaten erfassen. Konkreter als Beispiel kann das Erfassungsmodul 202 die zweiten Bilddaten basierend darauf erfassen, dass das Paket 112 für den Hubprüfabstand hochgehoben wird, um die nun sichtbaren zwei eindeutigen Ränder 112-44g aus 4H zu beinhalten. Anders gesagt kann das Hubmodul 206 die Sichtbarkeit und/oder Klarheit der anfangs unklaren Ränder verbessern, indem das Paket 112 hochgehoben wird. Entsprechend kann das Erfassungsmodul 202 die zweiten Bilddaten (z. B. für das Paket 112 in einem/einer hochgehobenen Zustand/Position) erfassen, die die zuvor unklaren Ränder eindeutig identifizieren/zeigen. Das Erfassungsmodul 202 kann die zweiten Bilddaten an das Extraktionsmodul 208 übertragen.
  • Das Robotersystem 100 kann das Extraktionsmodul 208 beinhalten, das an das Hubmodul 206 gekoppelt sein kann. Das Extraktionsmodul 208 extrahiert die dritten Bilddaten. Zum Beispiel kann das Extraktionsmodul 208 die dritten Bilddaten basierend auf den ersten Bilddaten, den zweiten Bilddaten oder eine Kombination davon extrahieren.
  • Das Extraktionsmodul 208 kann die dritten Bilddaten auf eine Reihe an Arten extrahieren. Zum Beispiel kann das Extraktionsmodul 208 einen Bildunterschied basierend auf dem Vergleichen der ersten Bilddaten und der zweiten Bilddaten bestimmen. Der Bildunterschied kann den Unterschied zwischen den ersten Bilddaten und den zweiten Bilddaten der gleichen Instanz der nicht registrierten Instanz des Pakets 112 darstellen.
  • Konkreter als Beispiel können die ersten Bilddaten SI mit dem Design und/oder den Markierungen des Pakets 112 beinhalten. Da das Paket 112 jedoch nicht registriert ist, können die Ränder des Pakets 112 unklar oder nicht definitiv bestimmt sein. Somit können die ersten Bilddaten das SI des Pakets 112 mit dem Rand beinhalten, der unklar ist oder mit dem SI eines anderen Pakets 112 überlappt. Als ein weiteres Beispiel können die zweiten Bilddaten das SI des Pakets 112 beinhalten, nachdem es für den Hubprüfabstand hochgehoben wurde. Konkreter als Beispiel können die zweiten Bilddaten das SI des Pakets 112 mit zuvor unklarem Rand (z. B. Ränder 112-44b) beinhalten, der ein eindeutiger Rand (z. B. Ränder 112-44g) wird, nachdem das Paket 112 hochgehoben ist. Der unklare Rand kann ein eindeutiger Rand werden, nachdem das Paket 112 hochgehoben ist, da das Paket 112 separat (z. B. bei einer höheren Höhe) von anderen benachbarten Paketen 112 wird. Die Sensoren 162 können zwischen unterschiedlichen Paketen 112 unterscheiden, da sich der Abstand oder die Tiefe zwischen dem Paket 112, das hochgehoben wird und den benachbarten Paketen 112 von den Sensoren 162 unterscheiden kann.
  • Das Extraktionsmodul 208 kann die dritten Bilddaten basierend auf dem Kombinieren der Bildunterschiede zwischen den ersten Bilddaten und den zweiten Bilddaten extrahieren. Zum Beispiel können die ersten Bilddaten des Pakets 112-44 das Design und/oder die Markierungen, die zwei eindeutigen Ränder 112-44b, die Ecke 112-44c oder eine Kombination davon beinhalten. Als ein weiteres Beispiel können die zweiten Bilddaten des Pakets 112-44 die zwei eindeutigen Ränder 12-44g beinhalten. Das Extraktionsmodul 208 kann die dritten Bilddaten des Pakets 112-44 extrahieren, indem es das Design und/oder die Markierungen, die zwei eindeutigen Ränder 112-44b, die Ecke 112-440, die zwei eindeutigen Ränder 112-44g oder eine Kombination davon einschließt.
  • Als ein weiteres Beispiel kann das Extraktionsmodul 208 die Länge, Breite oder eine Kombination davon des Pakets 112 basierend auf den dritten Bilddaten bestimmen. Konkreter als Beispiel kann das Extraktionsmodul 208 basierend auf den eindeutigen Rändern die Abmessung, beinhaltend die Länge, die Breite oder eine Kombination davon bestimmen. Das Extraktionsmodul 208 kann die dritten Bilddaten, die Länge, die Breite oder eine Kombination davon an das Registriermodul 212 übertragen.
  • Extraktion der dritten Bilddaten dynamisch und in Echtzeit stellt verbesserte Leistung und die Genauigkeit des Robotersystems 100 bereit, um die nicht registrierte Instanz des Pakets 112 zu identifizieren und zu greifen. Indem die dritten Bilddaten extrahiert werden, kann das Robotersystem 100 die Ränder des Pakets 112 identifizieren, um von einem anderen Paket 112 zu unterscheiden. Indem die Grenzen/Ränder des Pakets 112 eindeutig identifiziert werden, kann das Robotersystem 100 das Greifersystem 146 effizient an dem Paket 112 platzieren, um das Paket 112 sicher zu greifen und zu übertragen. Folglich kann das Robotersystem 100 das Paket 112 weiter nicht registriert an das Robotersystem 100 übertragen, um die Leistung des Arbeitsflusses zum Depalettieren der Pakete 112 zu verbessern.
  • Für veranschaulichende Zwecke ist beschrieben, dass das Hubmodul 206 den Befehl zum Hochheben des Pakets 112 ausführt, aber das Hubmodul 206 kann anders arbeiten. Zum Beispiel kann das Hubmodul 206 den CoM basierend auf dem Hochheben des Pakets 112 bestimmen. Konkreter als Beispiel kann das Hubmodul 206 bestimmen, ob die Stelle innerhalb der MVR, wo das Paket 112 durch das Greifersystem 146 gegriffen und hochgehoben wird, über dem CoM des Pakets 112 ist. Als ein weiteres Beispiel kann das Hubmodul 206 bestimmen, ob der CoM innerhalb der xy-Achsen ist, die als die MVR dargestellt sind.
  • Das Hubmodul 206 kann den CoM auf eine Reihe an Arten bestimmen. Zum Beispiel kann das Hubmodul 206 den CoM mit dem F-T-Sensor 142 wie vorstehend beschrieben bestimmen. Als ein weiteres Beispiel kann das Hubmodul 206 mit dem F-T-Sensor 142, dem CoM-Algorithmus oder einer Kombination davon bestimmen, ob der CoM unter dem Oberflächenbereich ist, der als die MVR dargestellt ist.
  • Unter Verwendung des F-T-Sensors 142 und der CoM-Algorithmen kann das Hubmodul 206 auch bestimmen, ob die Stelle/der Abschnitt innerhalb der MVR, die/der Greifer kontaktiert oder dadurch bedeckt ist, wo das Paket 112 mit dem CoM zusammenfällt oder diesen beinhaltet. Als ein weiteres Beispiel kann das Hubmodul 206 eine neue Stelle innerhalb der MVR für das Greifersystem 146 bestimmen, um das Paket 112 zu greifen, wenn sich die ursprüngliche Greifstelle nicht über dem CoM des Pakets 112 befindet. Konkreter als Beispiel kann das Hubmodul 206 unter Anwendung des vorstehend erörterten CoM-Algorithmus bestimmen, dass die neue Stelle zum Greifen relativ zu der ursprünglichen gegriffenen Stelle über dem CoM ist. Zum Beispiel kann das Hubmodul 206 eine Vektorrichtung basierend auf einem gemessenen Drehmoment und/oder eine Richtung davon bestimmen. Basierend auf dem Drehmoment kann das Hubmodul 206 eine Stelle/Richtung einer Abwärtskraft relativ zu dem F-T-Sensor 142 und/oder dem Greifersystem 146 schätzen. Auch kann das Hubmodul 206 einen Abstand basierend auf einer Größe des gemessenen Drehmoments, einem gemessenen Gewicht des hochgehobenen Pakets 112, einer Beziehung zwischen der Greifstelle und den Grenzen/Rändern des Pakets oder einer Kombination davon berechnen. Das Hubmodul 206 kann prüfen, ob die neue Stelle (z. B. die Vektorrichtung und der Abstand) zum Greifen innerhalb der MVR liegt. Wenn die neue Stelle über dem CoM liegt, kann das Hubmodul 206 verifizieren, dass der CoM des Pakets 112 richtig bestimmt ist.
  • Wenn das Hubmodul 206 bestimmt, dass die gegriffene Stelle innerhalb der MVR nicht der CoM ist, kann das Hubmodul 206 den Befehl ausführen, das Paket 112 dort fallenzulassen oder abzusenken, wo das Greifersystem 146 das Paket 112 hochgehoben hatte. Ferner kann das Hubmodul 206 den Befehl für das Greifersystem 146 ausführen, das Paket 112 an der neuen Stelle innerhalb der MVR zu greifen (z. B. Absenken und Freigeben des Pakets 112, Neupositionieren des Greifersystems 146 und dann erneutes Greifen des Pakets 112) und für den Roboterarm 132, das Paket 112 für den Hubprüfabstand hochzuheben. Als zusätzliches Beispiel kann das Greifersystem 146 an der neuen Stelle innerhalb der MVR greifen, ohne das Erfassen des unklaren Randes des Pakets 112 durch die Sensoren 162 zu blockieren. Das Hubmodul 206 kann das Registriermodul 212 übertragen.
  • Das Robotersystem 100, das den CoM des Pakets 112 dynamisch und in Echtzeit bestimmt, stellt verbesserte Leistung des Robotersystems 100 bereit, das nicht registrierte Instanz des Pakets 112 überträgt. Durch genaues Identifizieren des CoM von nicht registrierten/nicht erkannten Paketen, verbessert sich die Stabilität des Greifersystems 146, das das Paket 112 greift. Folglich kann das Robotersystem 100 das Paket 112 weiter nicht registriert an das Robotersystem 100 übertragen, um die Leistung des Arbeitsflusses zum Depalettieren der Pakete 112 zu verbessern.
  • Für veranschaulichende Zwecke ist beschrieben, dass das Erfassungsmodul 202 die ersten Bilddaten, die zweiten Bilddaten oder eine Kombination davon erfasst, aber das Erfassungsmodul 202 kann anders arbeiten. Zum Beispiel kann das Erfassungsmodul 202 neu gegriffene Bilddaten erfassen, die das SI des Pakets 112 darstellen, nachdem der CoM wie vorstehend erörtert korrekt bestimmt ist. Konkreter als Beispiel kann der Roboterarm 132 das Paket 112 hochheben, nachdem das Greifersystem 146 das Paket 112 an der neuen Stelle innerhalb der MVR greift. Das Erfassungsmodul 202 kann die erneut gegriffenen Bilddaten erfassen, die das SI des Pakets 112 darstellen, das an der neuen Stelle innerhalb der MVR und über dem CoM gegriffen wird. Das Erfassungsmodul 202 kann die erneut gegriffenen Bilddaten an das Extraktionsmodul 208 übertragen.
  • Für veranschaulichende Zwecke ist beschrieben, dass das Extraktionsmodul 208 die dritten Bilddaten basierend auf den ersten Bilddaten, den zweiten Bilddaten oder eine Kombination davon extrahiert, aber das Extraktionsmodul 208 kann anders arbeiten. Zum Beispiel kann das Extraktionsmodul 208 die dritten Bilddaten basierend auf den ersten Bilddaten, den erneut gegriffenen Bilddaten oder einer Kombination davon extrahieren, ähnlich wie vorstehend für das Extraktionsmodul 208 beschrieben, das die dritten Bilddaten basierend auf den ersten Bilddaten, den zweiten Bilddaten oder einer Kombination davon extrahiert. Das Extraktionsmodul 208 kann die Abmessung, darunter die Länge, die Breite oder eine Kombination davon des Pakets 112 wie vorstehend erörtert bestimmen. Das Extraktionsmodul 208 kann die dritten Bilddaten, die Länge, die Breite oder eine Kombination davon an das Registriermodul 212 übertragen.
  • Das Robotersystem 100 kann ein Übertragungsmodul 210 beinhalten, das an das Extraktionsmodul 208 gekoppelt sein kann. Das Übertragungsmodul 210 führt den Befehl aus, um das Paket 112 an die Aufnahmeplattform 120 aus 1A zu übertragen. Zum Beispiel kann das Übertragungsmodul 210 den Befehl für den Roboterarm 132 ausführen, um die registrierte oder nicht registrierte Instanz des Pakets 112 an die Aufnahmeplattform 120 zu übertragen.
  • Das Übertragungsmodul 210 kann den Befehl auf eine Reihe an Arten ausführen. Zum Beispiel kann das Übertragungsmodul 210 den Befehl ausführen, um das Paket 112 basierend auf dem Registrierungsstatus des Pakets 112 zu übertragen. Konkreter als Beispiel kann das Übertragungsmodul 210, wenn die Registrierungsaufzeichnung 172 für das Paket 112 vorhanden ist, den Befehl für den Roboterarm 132 ausführen, der die registrierte Instanz des Pakets 112 greift, um das Paket 112 zu übertragen, um es an der Aufnahmeplattform 120 zu platzieren.
  • Als ein anderes Beispiel werden, wenn die Registrierungsaufzeichnung 172 nicht vorhanden sind, die dritten Bilddaten des Pakets 112 wie vorstehend erörtert extrahiert. Außerdem kann das Übertragungsmodul 210 den Befehl für den Roboterarm 132 ausführen, der die nicht registrierte Instanz des Pakets 112 greift, um das Paket 112 an die Aufnahmeplattform 120 zu übertragen. Als ein weiteres Beispiel kann, wenn der Roboterarm 132 das Paket 112 auf die Aufnahmeplattform 120 absenkt, die Bodenerstreckung des Pakets 112 den HDS 180 aus 1A auslösen.
  • Die Höhe des HDS 180 relativ zum Boden kann vordefiniert werden, da die Höhe der Aufnahmeplattform 120 vordefiniert werden kann. Das Übertragungsmodul 210 kann die Höhe des Pakets 112 basierend auf einer Zeit, zu der der Boden des Pakets 112 den HDS 180 durchläuft, und einer Höhe des Greifersystems 146 bestimmen. Konkreter als Beispiel kann das Übertragungsmodul 210 die Höhe des Pakets 112 basierend auf dem Abstand/Unterschied zwischen der Stelle oder Höhe des Greifersystems 146, wenn das Signal (d. h. das Paket 112 darstellend, das den HDS 180 durchläuft) empfangen wird, und der vordefinierten Höhe des HDS 180 bestimmen. Das Übertragungsmodul 210 kann die Höhe des Pakets 112 an das Registriermodul 212 übertragen.
  • Das Robotersystem 100, das die Höhe der nicht registrierten Instanz des Pakets 112 dynamisch und in Echtzeit bestimmt, stellt verbesserte Leistung des Robotersystems 100 beim Depalettieren der Pakete 112 bereit. Durch Bestimmen der Höhe von nicht registrierten/nicht erkannten Paketen kann das Robotersystem 100 die Attribute der Pakete 112 genau identifizieren, um das Paket sicher zu greifen. Folglich kann das Robotersystem 100 die Pakete 112 der gleichen Art durchgehend übertragen, um die Leistung des Arbeitsflusses zum Depalettieren der Pakete 112 zu verbessern.
  • Das Robotersystem 100 kann das Registriermodul 212 beinhalten, das an das Übertragungsmodul 210 gekoppelt sein kann. Das Registriermodul 212 registriert das Attribut des Pakets 112. Zum Beispiel kann das Registriermodul 212 die dritten Bilddaten, die Länge, die Breite, die Höhe, den CoM oder eine Kombination davon der nicht registrierten Instanz des Pakets 112 registrieren (z. B. durch Verbinden oder gemeinsames Aufbewahren). Konkreter als Beispiel kann das Registriermodul 212 die Registrierungsaufzeichnung 172 erzeugen, um die nicht registrierte Instanz des Pakets 112 in die registrierte Instanz des Pakets 112 umzuwandeln.
  • Es ist anzumerken, dass die Schritte des vorstehend beschriebenen Verfahrens in computerlesbaren Medien ausgeführt sein können, die in einem nichtflüchtigen computerlesbaren Medium als Computeranweisungscode gespeichert sind. Das Verfahren kann einen oder mehrere der hier beschriebenen Schritte beinhalten, wobei der eine oder die mehreren Schritte in einer beliebigen gewünschten Reihenfolge durchgeführt werden können, darunter simultan ausgeführt werden können. Zum Beispiel können zwei oder mehr der hier offenbarten Schritte in einem einzelnen Schritt kombiniert werden und/oder kann ein oder können mehrere der Schritte als zwei oder mehr Teilschritte durchgeführt werden. Ferner können Schritte, die hier nicht ausdrücklich offenbart oder inhärent vorhanden sind, mit den hier beschriebenen Schritten vermischt oder diesen hinzugefügt werden, oder können durch einen oder mehrere der hier beschriebenen Schritte ersetzt werden, wie ein Fachmann mit dem Vorteil der vorliegenden Offenbarung erkennt.
  • Die vorstehende detaillierte Beschreibung von Beispielen der offenbarten Technologie soll nicht erschöpfend sein oder die offenbarte Technologie auf die genaue vorstehend offenbarte Form beschränken. Während vorstehend zu veranschaulichenden Zwecken konkrete Beispiele für die offenbarte Technologie beschrieben sind, sind im Umfang der offenbarten Technologie verschiedene gleichwertige Änderungen möglich, wie der einschlägige Fachmann erkennen wird. Während zum Beispiel Prozesse oder Module in einer bestimmten Reihenfolge dargestellt sind, können bei alternativen Umsetzungen Routinen mit Schritten ausgeführt werden oder Systeme mit Modulen in einer anderen Reihenfolge verwendet werden, und einige Prozesse oder Module können gelöscht, verschoben, hinzugefügt, unterteilt, kombiniert und/oder verändert werden, um alternative oder Unterkombinationen bereitzustellen. Jeder dieser Prozesse oder jedes dieser Module kann in einer Vielfalt an unterschiedlichen Weisen umgesetzt werden. Obwohl Prozesse oder Module darüber hinaus manchmal als nacheinander ausgeführt gezeigt sind, können diese Prozesse oder Module stattdessen parallel ausgeführt oder umgesetzt werden oder zu unterschiedlichen Zeiten ausgeführt werden. Darüber hinaus sind sämtliche konkreten Zahlen, die in dieser Schrift genannt werden, nur Beispiele; alternative Umsetzungen können abweichende Werte oder Bereiche verwenden.
  • Der Begriff „Ausführungsform“ wie hier verwendet bedeutet eine Ausführungsform, die dazu dient, durch Beispiel, aber nicht Einschränkung zu veranschaulichen. Ein Fachmann versteht, dass die vorstehenden Beispiele und Ausführungsformen beispielhaft sind und den breiten Umfang der hier offenbarten erfinderischen Konzepte nicht einschränken. Es ist beabsichtigt, dass alle Modifikationen, Permutationen, Steigerungen, Äquivalente und Verbesserungen dazu, die einem Fachmann beim Lesen der Patentschrift und einer Studie der Zeichnungen ersichtlich werden, im breiten Umfang der hier offenbarten erfinderischen Konzepte enthalten sind. Es ist daher beabsichtigt, dass die folgenden angehängten Ansprüche alle solche Modifikationen, Permutationen, Steigerungen, Äquivalente und Verbesserungen beinhalten, die in den breiten Umfang der hier offenbarten erfinderischen Konzepte fallen.

Claims (11)

  1. Verfahren zum Registrieren eines Pakets (1, 31-33, 43, 44, 51-54, 112) während eines Roboterpakethandhabungsvorgangs, wobei das Verfahren Folgendes umfasst: Empfangen von ersten Bilddaten, die ein erstes Oberflächenbild einer Paketoberfläche darstellen; Bestimmen, dass das Paket (1, 31-33, 43,44, 51-54, 112) nicht registriert ist, basierend auf dem Vergleichen des ersten Oberflächenbildes mit einer Registrierungsaufzeichnung (172); Identifizieren eines Paares von Kanten für die Paketoberfläche basierend auf den ersten Bilddaten, wobei das Paar von Kanten entlang horizontaler Richtungen freiliegt und einander schneidet, um eine Ecke der Paketoberfläche zu bilden; Bestimmen eines geeigneten Mindestbereichs basierend auf dem Paar von Kanten, wobei der geeignete Mindestbereich eine oder beide aus dem Paar von Kanten überlappt und/oder damit zusammenfällt; Erzeugen von einem oder mehreren Befehlen zum (1) Greifen des Pakets (1, 31-33, 43, 44, 51-54, 112) mit einem Endeffektor (140), der über dem geeigneten Mindestbereich positioniert ist, und (2) Hochheben des Pakets (1, 31-33, 43,44, 51-54, 112); Empfangen von zweiten Bilddaten, die das Paket (1, 31-33, 43,44, 51-54, 112) nach dem Hochheben darstellen; Bestimmen von dritten Bilddaten umfassend das Berechnen eines Unterschieds zwischen den ersten Bilddaten und den zweiten Bilddaten; Schätzen von unklaren Kanten basierend auf den ersten Bilddaten, wobei das Paar von Kanten und die unklaren Kanten Grenzen der Paketoberfläche entsprechen; wobei der geeignete Mindestbereich die unklaren Kanten nicht überlappt, um das Paket zu greifen, während Abschnitte des Pakets (1, 31-33, 43,44, 51-54, 112), die den geschätzten unklaren Kanten entsprechen, frei gelassen werden; und Identifizieren von einer oder mehreren neuen Kanten basierend auf den zweiten Bilddaten, wobei die neuen Kanten tatsächlich freiliegende Kanten des Pakets (1, 31-33, 43, 44, 51-54, 112) entsprechend den geschätzten unklaren Kanten darstellen, wobei die dritten Bilddaten die eine oder die mehreren neuen Kanten beinhalten.
  2. Verfahren nach Anspruch 1, ferner umfassend: Erzeugen von Registrierungsdaten, die eine neue Registrierungsaufzeichnung (172) des Pakets (1, 31-33, 43, 44, 51-54, 112) darstellen, basierend auf den dritten Bilddaten zum anschließenden Identifizieren von anderen Paketen.
  3. Verfahren nach Anspruch 2, wobei das Identifizieren der einen oder der mehreren neuen Kanten das Identifizieren der einen oder der mehreren neuen Kanten basierend auf Unterschieden in Tiefendaten beinhaltet, die nach dem Hochheben des Pakets (1, 31-33, 43, 44, 51-54, 112) gemessen werden.
  4. Verfahren nach Anspruch 1, wobei das Bestimmen der dritten Bilddaten ferner beinhaltet: Kombinieren der ersten Bilddaten mit dem berechneten Unterschied.
  5. Verfahren nach Anspruch 1, ferner umfassend: Identifizieren einer geraden Linie basierend auf den ersten Bilddaten; wobei: der geeignete Mindestbereich ein durchgehender Bereich ist, der die gerade Linie ausschließt.
  6. Verfahren nach Anspruch 1, ferner umfassend: Berechnen einer Höhe, die eine Abmessung des Pakets (1, 31-33, 43,44, 51-54, 112) entlang einer vertikalen Richtung darstellt; und wobei: die Registrierungsdaten die berechnete Höhe beinhalten.
  7. Verfahren nach Anspruch 6, wobei das Berechnen der Höhe Folgendes beinhaltet: Erfassen eines Auslösers, der einen Zeitpunkt darstellt, an dem das Paket (1, 31-33,43, 44, 51-54, 112) eine horizontale Erfassungsebene in Verbindung mit einem Höhenbestimmungssensor, der sich auf einer bekannten Höhe befindet, durchläuft; Bestimmen einer vertikalen Position in Verbindung mit dem Auslöser, wobei die vertikale Position eine vertikale Stelle des Endeffektors (140) zu dem Zeitpunkt darstellt, an dem das Paket (1, 31-33, 43,44, 51-54, 112) die horizontale Erfassungsebene durchläuft; und Berechnen der Höhe basierend auf einem Unterschied zwischen der bekannten Höhe und der vertikalen Position.
  8. Verfahren nach Anspruch 1, ferner umfassend: Empfangen von Daten nach dem Hochheben des Pakets (1, 31-33, 43,44, 51-54, 112), wobei die Daten eine Kraftmessung von einem F-T-Sensor (142) darstellen, der mit dem Endeffektor (140) verbunden oder in diesen integriert ist; Bestimmen eines Gewichts des Pakets (1, 31-33, 43,44, 51-54, 112) basierend auf den empfangenen Daten; und wobei: die Registrierungsdaten das bestimmte Gewicht beinhalten.
  9. Verfahren nach Anspruch 1, ferner umfassend: Empfangen von Daten nach dem Hochheben des Pakets (1, 31-33, 43,44, 51-54, 112), wobei die Daten eine Drehmomentmessung von einem F-T-Sensor (142) darstellen, der mit dem Endeffektor (140) verbunden oder in diesen integriert ist; Bestimmen einer Massenmittelpunktsstelle des Pakets (1, 31-33, 43, 44, 51-54, 112) basierend auf den empfangenen Daten; und wobei: die Registrierungsdaten die Massenmittelpunktsstelle beinhalten.
  10. System zum Registrieren eines nicht registrierten Pakets (1, 31-33, 43, 44, 51-54, 112) während eines Roboterpakethandhabungsvorgangs, wobei das System Folgendes umfasst: zumindest einen Prozessor; und zumindest einen Speicher (152), der an den zumindest einen Prozessor gekoppelt ist, wobei der Speicher (152) Anweisungen beinhaltet, die zur Ausführung des Verfahrens nach einem der vorangehenden Ansprüche durch den zumindest einen Prozessor konfiguriert sind.
  11. Nicht-flüchtiges Speichermedium, auf dem computerausführbare Anweisungen gespeichert sind, die wenn sie durch ein Rechensystem ausgeführt werden, das Rechensystem dazu veranlassen, das Verfahren nach einem der Ansprüche 1 bis 9 auszuführen.
DE112019000125.6T 2018-10-30 2019-06-05 Systeme, vorrichtungen und verfahren zur automatisierten verpackungsregistrierung Active DE112019000125B4 (de)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201862752756P 2018-10-30 2018-10-30
US62/752,756 2018-10-30
US16/290,741 US10369701B1 (en) 2018-10-30 2019-03-01 Automated package registration systems, devices, and methods
US16/290,741 2019-03-01
US201962852963P 2019-05-24 2019-05-24
US62/852,963 2019-05-24
PCT/US2019/035608 WO2020091846A1 (en) 2018-10-30 2019-06-05 Automated package registration systems, devices, and methods

Publications (2)

Publication Number Publication Date
DE112019000125T5 DE112019000125T5 (de) 2020-07-02
DE112019000125B4 true DE112019000125B4 (de) 2021-07-01

Family

ID=70327497

Family Applications (6)

Application Number Title Priority Date Filing Date
DE112019000125.6T Active DE112019000125B4 (de) 2018-10-30 2019-06-05 Systeme, vorrichtungen und verfahren zur automatisierten verpackungsregistrierung
DE112019000177.9T Pending DE112019000177T5 (de) 2018-10-30 2019-10-29 Ein robotersystem mit automatisiertem paketregistrierungsmechanismus und verfahren zum betreiben dieses systems
DE112019000172.8T Pending DE112019000172T5 (de) 2018-10-30 2019-10-29 Ein Robotersystem mit automatisiertem Paketabtast- und Registrierungsmechanismus und Verfahren zum Betreiben dieses Systems
DE112019000127.2T Pending DE112019000127T5 (de) 2018-10-30 2019-10-29 Ein robotersystem mit automatisiertem objekterkennungsmechanismus und verfahren zum betreiben dieses systems
DE112019000217.1T Active DE112019000217B4 (de) 2018-10-30 2019-10-29 Ein Robotersystem mit automatisiertem Paketregistrierungsmechanismus und Leitung zur automatischen Erkennung
DE112019000247.3T Pending DE112019000247T5 (de) 2018-10-30 2019-10-29 Ein Robotersystem mit automatisiertem Paketregistrierungsmechanismus und Erkennung geeigneter Mindestbereiche

Family Applications After (5)

Application Number Title Priority Date Filing Date
DE112019000177.9T Pending DE112019000177T5 (de) 2018-10-30 2019-10-29 Ein robotersystem mit automatisiertem paketregistrierungsmechanismus und verfahren zum betreiben dieses systems
DE112019000172.8T Pending DE112019000172T5 (de) 2018-10-30 2019-10-29 Ein Robotersystem mit automatisiertem Paketabtast- und Registrierungsmechanismus und Verfahren zum Betreiben dieses Systems
DE112019000127.2T Pending DE112019000127T5 (de) 2018-10-30 2019-10-29 Ein robotersystem mit automatisiertem objekterkennungsmechanismus und verfahren zum betreiben dieses systems
DE112019000217.1T Active DE112019000217B4 (de) 2018-10-30 2019-10-29 Ein Robotersystem mit automatisiertem Paketregistrierungsmechanismus und Leitung zur automatischen Erkennung
DE112019000247.3T Pending DE112019000247T5 (de) 2018-10-30 2019-10-29 Ein Robotersystem mit automatisiertem Paketregistrierungsmechanismus und Erkennung geeigneter Mindestbereiche

Country Status (6)

Country Link
US (12) US10703584B2 (de)
JP (15) JP6704154B2 (de)
KR (3) KR20240042157A (de)
CN (11) CN111113492A (de)
DE (6) DE112019000125B4 (de)
WO (6) WO2020091846A1 (de)

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9393686B1 (en) * 2013-03-15 2016-07-19 Industrial Perception, Inc. Moveable apparatuses having robotic manipulators and conveyors to facilitate object movement
CN110893999A (zh) * 2018-09-12 2020-03-20 泰科电子(上海)有限公司 图像采集系统和图像采集方法
US10369701B1 (en) 2018-10-30 2019-08-06 Mujin, Inc. Automated package registration systems, devices, and methods
DE112019000125B4 (de) 2018-10-30 2021-07-01 Mujin, Inc. Systeme, vorrichtungen und verfahren zur automatisierten verpackungsregistrierung
US11224951B2 (en) * 2018-12-21 2022-01-18 The Boeing Company Method and apparatus for single-sided clamp-up
US10549928B1 (en) 2019-02-22 2020-02-04 Dexterity, Inc. Robotic multi-item type palletizing and depalletizing
US11741566B2 (en) * 2019-02-22 2023-08-29 Dexterity, Inc. Multicamera image processing
US11046519B2 (en) 2019-02-25 2021-06-29 Rehrig Pacific Company Delivery system
EP3702985A1 (de) * 2019-02-28 2020-09-02 Accenture Global Solutions Limited Frachtladeoptimierung mit erweiterter realität
US11023763B2 (en) * 2019-03-19 2021-06-01 Boston Dynamics, Inc. Detecting boxes
US11069073B2 (en) * 2019-07-23 2021-07-20 Advanced New Technologies Co., Ltd. On-shelf commodity detection method and system
US11389965B2 (en) * 2019-07-26 2022-07-19 Mujin, Inc. Post-detection refinement based on edges and multi-dimensional corners
US10906188B1 (en) 2019-10-25 2021-02-02 Dexterity, Inc. Singulation of arbitrary mixed items
SG10201913056VA (en) * 2019-12-23 2021-04-29 Sensetime Int Pte Ltd Method and apparatus for obtaining sample images, and electronic device
US11040836B1 (en) * 2020-01-24 2021-06-22 Becton Dickinson Rowa Germany Gmbh Device and method for separating piece goods
US11951636B1 (en) * 2020-01-28 2024-04-09 Embodied Intelligence Inc. Methods of collecting data through test interactions
US11403764B2 (en) * 2020-02-14 2022-08-02 Mujin, Inc. Method and computing system for processing candidate edges
US11443449B2 (en) * 2020-02-26 2022-09-13 Zebra Technologies Corporation Three-dimensional (3D) imaging systems and methods for virtual grading of package walls in commercial trailer loading
CA3115442A1 (en) 2020-04-20 2021-10-20 Rehrig Pacific Company Camera enabled portal
CN113658205B (zh) * 2020-06-04 2022-08-12 牧今科技 用于执行或促进物理边缘检测的方法和计算系统
CN114096331A (zh) * 2020-06-04 2022-02-25 牧今科技 用于执行或促进物理边缘检测的方法和计算系统
US12062182B2 (en) 2020-06-04 2024-08-13 Mujin, Inc. Method and computing system for performing or facilitating physical edge detection
AT524101A1 (de) * 2020-07-27 2022-02-15 Tgw Logistics Group Gmbh System und Verfahren zur Erfassung einer Warenanzahl in einem Ladungsträger
JP7467268B2 (ja) 2020-07-30 2024-04-15 グローリー株式会社 計数装置、計数システム、計数方法、およびプログラム
JP7395451B2 (ja) * 2020-09-16 2023-12-11 株式会社東芝 ハンドリング装置、処理装置、コントローラ及びプログラム
CN112157671A (zh) * 2020-09-24 2021-01-01 中国标准化研究院 一种用于电子商务产品质量抽检的包裹取料机械手及方法
CN111928790B (zh) * 2020-10-16 2020-12-29 成都裕鸢航空零部件制造有限公司 一种基于互联网的航空零部件厚度计量装置及计量方法
CN112276956B (zh) * 2020-10-30 2022-05-17 北京市商汤科技开发有限公司 一种物品配送方法、装置、设备以及存储介质
JP7466435B2 (ja) * 2020-11-24 2024-04-12 川崎重工業株式会社 ロボット及び物品寸法取得方法
CN113058238B (zh) * 2020-12-05 2021-12-17 林周容 篮球内胎自动贴片系统及方法
CN112936243A (zh) * 2021-01-22 2021-06-11 广东电网有限责任公司广州供电局 基于二维码扫描的开关柜型号识别和定位装置
DE102021104773B3 (de) 2021-02-26 2022-03-17 IGZ Ingenieurgesellschaft für logistische Informationssysteme mbH Kommissionierroboter mit optimierter trajektorie und verfahren zum steuern eines kommissionierroboters
WO2022190102A1 (en) * 2021-03-10 2022-09-15 Aquabot Ltd. System and method for identifying or acquiring data corresponding to a handled item
DE102021202340A1 (de) 2021-03-10 2022-09-15 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum steuern eines roboters zum aufnehmen und inspizieren eines objekts und robotersteuereinrichtung
US20220289502A1 (en) * 2021-03-15 2022-09-15 Dexterity, Inc. Adaptive robotic singulation system
US12129132B2 (en) 2021-03-15 2024-10-29 Dexterity, Inc. Singulation of arbitrary mixed items
EP4313504A1 (de) * 2021-03-26 2024-02-07 Boston Dynamics, Inc. Dynamische massenschätzungsverfahren für einen integrierten mobilen manipulatorroboter
JP2022157884A (ja) * 2021-03-31 2022-10-14 セイコーエプソン株式会社 ロボットの制御方法、ロボットシステムおよびロボット制御プログラム
CN113510697B (zh) * 2021-04-23 2023-02-14 知守科技(杭州)有限公司 机械手定位方法、装置、系统、电子装置和存储介质
US20220362936A1 (en) * 2021-05-14 2022-11-17 Intelligrated Headquarters, Llc Object height detection for palletizing and depalletizing operations
CN115643800A (zh) * 2021-05-18 2023-01-24 牧今科技 用于物体大小测量的机器人系统
US12053890B2 (en) * 2021-06-03 2024-08-06 Intrinsic Innovation Llc Robotic workspace introspection via force feedback
US20230027984A1 (en) 2021-07-21 2023-01-26 Mujin, Inc. Robotic system with depth-based processing mechanism and methods for operating the same
US20230041343A1 (en) 2021-08-09 2023-02-09 Mujin, Inc. Robotic system with image-based sizing mechanism and methods for operating the same
JP6964917B1 (ja) * 2021-08-10 2021-11-10 リンクウィズ株式会社 計測システム、計測方法、プログラム
WO2023023369A2 (en) * 2021-08-19 2023-02-23 Rehrig Pacific Company Pallet wrapper and imaging system
US11823440B2 (en) 2021-08-19 2023-11-21 Rehrig Pacific Company Imaging system with unsupervised learning
US20230070495A1 (en) * 2021-09-07 2023-03-09 Mujin, Inc. Robotic gripper assemblies for openable object(s) and methods for picking objects
AT525383A1 (de) * 2021-09-07 2023-03-15 Knapp Ag System zur Vereinzelung und Identifizierung von Artikeln
WO2023054539A1 (ja) * 2021-09-28 2023-04-06 京セラ株式会社 情報処理装置、ロボットコントローラ、情報処理システム、及び情報処理方法
IT202100025490A1 (it) * 2021-10-07 2023-04-07 Bosso S R L Magazzino automatico
US20230115849A1 (en) * 2021-10-11 2023-04-13 Mazor Robotics Ltd. Systems and methods for defining object geometry using robotic arms
CN115246547B (zh) * 2021-10-21 2023-09-12 梅卡曼德(北京)机器人科技有限公司 垛型续码方法、装置、计算设备及计算机存储介质
US12030191B2 (en) * 2021-10-28 2024-07-09 Ubkang (Qingdao) Technology Co., Ltd. Vision-guided picking and placing method, mobile robot and computer-readable storage medium
CA3181434A1 (en) 2021-11-01 2023-05-01 Rehrig Pacific Company Delivery system
AT525778B1 (de) * 2021-11-09 2023-11-15 Tgw Logistics Group Gmbh Verfahren und Vorrichtung zum Entnehmen eines Ladeguts von einem Stapel
EP4429984A1 (de) * 2021-11-10 2024-09-18 Labo, Inc. Automatisierte produktentladung, -handhabung und -verteilung
CN113816137A (zh) * 2021-11-19 2021-12-21 佛山隆深机器人有限公司 一种基于机械臂的箱体分拣运输装置及控制方法
CN114161426B (zh) * 2021-12-29 2024-02-06 海澜智云科技有限公司 一种工业机器人的控制系统
CN116681758A (zh) * 2022-02-23 2023-09-01 北京百度网讯科技有限公司 车辆的姿态估计方法、装置、电子设备及存储介质
US11717974B1 (en) * 2022-06-10 2023-08-08 Sanctuary Cognitive Systems Corporation Haptic photogrammetry in robots and methods for operating the same
KR102486009B1 (ko) * 2022-06-23 2023-01-10 주식회사 대한엔지니어링 로봇팔을 이용한 디팔레타이징 자동화 시스템 및 방법
CN115009845B (zh) * 2022-08-04 2022-10-25 江苏安纳金机械有限公司 一种新型翘板机及其方法
KR102491429B1 (ko) * 2022-08-24 2023-01-27 주식회사 한성시스코 인공지능을 이용한 다수의 직육면체 블록들의 적층 구조에서의 각 블록의 인식 및 로딩 시스템, 및 그 방법
DE102022121538A1 (de) 2022-08-25 2024-03-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Ablegen eines Objekts vermittels eines Roboters
JP7488311B2 (ja) 2022-10-27 2024-05-21 アリー ロジスティック プロパティ カンパニー,リミテッド 物流作業を実行するための施設及び方法
WO2024115532A1 (de) * 2022-11-30 2024-06-06 Voith Patent Gmbh Vorrichtung und anordnung und verfahren zum umsetzen von ballen
WO2024125921A1 (de) * 2022-12-13 2024-06-20 Kuka Deutschland Gmbh Greifen mit verpackungsmaterial
WO2024136993A1 (en) * 2022-12-20 2024-06-27 Liberty Reach Inc. Method and system for decanting a plurality of items supported on a transport structure at one time with a picking tool for placement into a transport container
KR102521819B1 (ko) * 2023-01-26 2023-04-17 주식회사 브릴스 파렛타이징 시스템
WO2024176359A1 (ja) * 2023-02-21 2024-08-29 ファナック株式会社 位置補正装置、ロボットシステムおよび位置補正プログラム
US20240316779A1 (en) * 2023-03-20 2024-09-26 Mujin, Inc. Robotic system with object handling mechanism for loading and unloading of cargo carriers
DE102023111746A1 (de) 2023-05-05 2024-11-07 Bayerische Motoren Werke Aktiengesellschaft Handhabungsvorrichtung für einen Transport von Objekten
CN117369349B (zh) * 2023-12-08 2024-02-23 如特数字科技(苏州)有限公司 一种远程监测智能机器人的管理系统
CN117532644B (zh) * 2023-12-26 2024-04-12 广东亚数智能科技股份有限公司 一种三维视觉引导机械手抓取装置及其控制方法
CN118220850B (zh) * 2024-05-21 2024-07-19 杭州灵智科技数字化装备有限公司 拆垛方法、装置、计算机设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006300929A (ja) * 2005-03-22 2006-11-02 Jfe Engineering Kk 物体の3次元位置認識装置およびデパレタイズシステム
JP2007254128A (ja) * 2006-03-24 2007-10-04 Daifuku Co Ltd 物品移載装置
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
US20170076469A1 (en) * 2015-09-14 2017-03-16 Kabushiki Kaisha Toshiba Object detection apparatus, depalletization automating apparatus, and object detection method
US20170137236A1 (en) * 2015-11-13 2017-05-18 Kabushiki Kaisha Toshiba Transporting apparatus and transporting method
US20170246744A1 (en) * 2016-02-26 2017-08-31 Kinema Systems Inc. Locating, separating, and picking boxes with a sensor-guided robot

Family Cites Families (108)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4907169A (en) 1987-09-30 1990-03-06 International Technical Associates Adaptive tracking vision and guidance system
JP2894449B2 (ja) * 1989-04-07 1999-05-24 株式会社ダイフク カメラ使用の自動移載装置
JP2687030B2 (ja) 1990-02-09 1997-12-08 株式会社ダイフク ロボット使用の自動移載装置
JPH03277739A (ja) 1990-03-28 1991-12-09 Nippon Steel Corp プレス成形時の耐バリ性の優れた高r値複合鋼板およびその製造方法
US5290454A (en) 1992-11-12 1994-03-01 Pump And Paper Research Institute Of Canada Process for removal of suspended solids from pulp and paper mill effluents
JPH06171760A (ja) 1992-12-02 1994-06-21 Mitsubishi Electric Corp デパレタイズ方法
JPH0753054A (ja) 1993-08-10 1995-02-28 Mitsubishi Electric Corp 自動荷卸し装置
JP3063487B2 (ja) 1993-09-27 2000-07-12 村田機械株式会社 パレタイズパターン認識装置
JPH07291450A (ja) * 1994-04-26 1995-11-07 Kawasaki Heavy Ind Ltd インテリジェントパレタイズシステム
JP3516067B2 (ja) * 1994-04-26 2004-04-05 川崎重工業株式会社 デパレタイズ用画像作成方法および画像作成装置
IT1275664B1 (it) 1994-11-16 1997-10-17 Consorzio Telerobot Sistema per il controlllo e guida automatica di un gruppo elevatore a forche
JP3277739B2 (ja) 1995-01-27 2002-04-22 三菱電機株式会社 産業用ロボット
JPH09251544A (ja) * 1996-03-14 1997-09-22 Toshiba Corp ワークエッジ検出画像処理装置
JP2921496B2 (ja) 1996-07-15 1999-07-19 三菱電機株式会社 画像処理装置および物体移載装置
US5908283A (en) 1996-11-26 1999-06-01 United Parcel Service Of Americia, Inc. Method and apparatus for palletizing packages of random size and weight
US6272230B1 (en) 1998-02-11 2001-08-07 Analogic Corporation Apparatus and method for optimizing detection of objects in computed tomography data
JPH11333770A (ja) * 1998-03-20 1999-12-07 Kobe Steel Ltd 積荷位置姿勢認識装置
JPH10323491A (ja) 1998-07-06 1998-12-08 Hitachi Ltd 脱水洗濯機
SE513174C2 (sv) 1998-10-22 2000-07-24 Abb Ab Förfarande för hantering av containrar samt anordning för utförande av förfarandet
JP3525896B2 (ja) 1999-03-19 2004-05-10 松下電工株式会社 3次元物体認識方法および同方法を使用したビンピッキングシステム
JP2001058723A (ja) 1999-08-20 2001-03-06 Amada Co Ltd 板材加工機における製品搬出方法及びその装置
JP2001072247A (ja) * 1999-09-06 2001-03-21 Murata Mach Ltd 搬送システム
JP3596434B2 (ja) * 2000-06-30 2004-12-02 株式会社ダイフク 物品位置認識装置
JP3849514B2 (ja) * 2001-12-10 2006-11-22 株式会社ダイフク 物品位置認識装置
JP2003237943A (ja) * 2002-02-12 2003-08-27 Rengo Co Ltd 段ボールケース束のデパレタイジング装置
US7085622B2 (en) 2002-04-19 2006-08-01 Applied Material, Inc. Vision system
JP3768174B2 (ja) 2002-07-24 2006-04-19 ファナック株式会社 ワーク取出し装置
WO2004085121A1 (ja) * 2003-03-27 2004-10-07 Sony Corporation ロボット装置及びロボット装置の制御方法
DE10317855A1 (de) 2003-04-16 2004-11-18 Rkb Reparatur- Und Karosseriebau Gmbh Verfahren und Einrichtung zum Verteilen von Paketen o. dgl. Beförderungsgütern
GB0405014D0 (en) 2004-03-05 2004-04-07 Qinetiq Ltd Movement control system
JP2005333824A (ja) * 2004-05-24 2005-12-08 Olympus Corp 検体導入装置および培養処理装置
KR100657915B1 (ko) 2004-11-26 2006-12-14 삼성전자주식회사 코너 검출 방법 및 코너 검출 장치
JP2007097057A (ja) 2005-09-30 2007-04-12 Brother Ind Ltd サーバ装置、機器情報提供方法、プログラム、ネットワークシステム、及び、機器共用化方法
JP4087874B2 (ja) * 2006-02-01 2008-05-21 ファナック株式会社 ワーク取り出し装置
WO2009014677A1 (en) 2007-07-23 2009-01-29 Abb Inc. Robotic palletizing system
JP4565023B2 (ja) * 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
KR101003654B1 (ko) 2008-08-27 2010-12-23 삼성전기주식회사 반도체 패키지용 트랜스포머
US8489232B2 (en) 2008-09-30 2013-07-16 Amazon Technologies, Inc. Systems and methods for receiving shipment parcels
US8571298B2 (en) * 2008-12-23 2013-10-29 Datalogic ADC, Inc. Method and apparatus for identifying and tallying objects
DE102009011300B4 (de) * 2009-03-02 2022-08-11 Kuka Roboter Gmbh Beladung von Lademitteln mit Paketen mittels Manipulator
JP5429614B2 (ja) 2009-04-16 2014-02-26 株式会社Ihi 箱状ワーク認識装置および方法
US8508590B2 (en) 2010-03-02 2013-08-13 Crown Equipment Limited Method and apparatus for simulating a physical environment to facilitate vehicle operation and task completion
US8538577B2 (en) 2010-03-05 2013-09-17 Crown Equipment Limited Method and apparatus for sensing object load engagement, transportation and disengagement by automated vehicles
FI20105732A0 (fi) 2010-06-24 2010-06-24 Zenrobotics Oy Menetelmä fyysisten kappaleiden valitsemiseksi robottijärjestelmässä
US9796540B1 (en) 2010-06-30 2017-10-24 Thiele Technologies System and method for robotic palletization of packages susceptible to package-to-package dimensional creep
DE112011103794B4 (de) * 2010-11-17 2019-01-24 Mitsubishi Electric Corporation Aufnehmervorrichtung für Werkstücke
US10474858B2 (en) 2011-08-30 2019-11-12 Digimarc Corporation Methods of identifying barcoded items by evaluating multiple identification hypotheses, based on data from sensors including inventory sensors and ceiling-mounted cameras
US9367770B2 (en) 2011-08-30 2016-06-14 Digimarc Corporation Methods and arrangements for identifying objects
US9129277B2 (en) * 2011-08-30 2015-09-08 Digimarc Corporation Methods and arrangements for identifying objects
US9067744B2 (en) 2011-10-17 2015-06-30 Kabushiki Kaisha Yaskawa Denki Robot system, robot, and sorted article manufacturing method
JP5510841B2 (ja) 2011-12-22 2014-06-04 株式会社安川電機 ロボットシステム及び仕分け済み物品の製造方法
CN202717371U (zh) 2011-11-18 2013-02-06 上海沃迪自动化装备股份有限公司 多功能机器人码垛系统
US20170003113A1 (en) * 2011-12-06 2017-01-05 Hexagon Technology Center Gmbh Coordinate measuring machine having a camera
JP2013145525A (ja) * 2012-01-16 2013-07-25 Fuji Electric Co Ltd 物品取り出し判定装置、物品取り出し判定システム、物品取り出しシステム、物品取り出し判定プログラムおよび物品取り出し判定方法
CN202539084U (zh) * 2012-03-01 2012-11-21 成都三茁科技有限公司 多位扫描识别系统
JP2013246589A (ja) * 2012-05-24 2013-12-09 Sharp Corp 空間情報生成装置、空間情報利用システム、空間情報生成方法、制御プログラム、および、記録媒体
JP5469216B2 (ja) 2012-07-31 2014-04-16 ファナック株式会社 バラ積みされた物品をロボットで取出す装置
JP6255706B2 (ja) * 2013-04-22 2018-01-10 富士通株式会社 表示制御装置、表示制御方法、表示制御プログラムおよび情報提供システム
US9314924B1 (en) * 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
JP5945968B2 (ja) * 2013-09-03 2016-07-05 株式会社安川電機 ロボットハンド、ロボットシステム、及び物品のデパレタイズ方法
JP5897532B2 (ja) 2013-11-05 2016-03-30 ファナック株式会社 三次元空間に置かれた物品をロボットで取出す装置及び方法
CA3114789C (en) 2014-01-22 2021-12-07 Symbotic Canada Ulc Vision-assisted robotized depalletizer
CN103822594A (zh) 2014-02-28 2014-05-28 华南理工大学 一种基于激光传感器和机器人的工件扫描成像方法
KR102081139B1 (ko) 2014-03-12 2020-02-25 한국전자통신연구원 물체 피킹 시스템, 물체 검출 장치 및 그 방법
JP5829306B2 (ja) * 2014-05-12 2015-12-09 ファナック株式会社 レンジセンサの配置位置評価装置
US9205558B1 (en) 2014-07-16 2015-12-08 Google Inc. Multiple suction cup control
US9272417B2 (en) 2014-07-16 2016-03-01 Google Inc. Real-time determination of object metrics for trajectory planning
US9327406B1 (en) * 2014-08-19 2016-05-03 Google Inc. Object segmentation based on detected object-specific visual cues
JP6486114B2 (ja) 2015-01-16 2019-03-20 株式会社東芝 荷役装置
US9486921B1 (en) 2015-03-26 2016-11-08 Google Inc. Methods and systems for distributing remote assistance to facilitate robotic object manipulation
US20160302521A1 (en) 2015-04-16 2016-10-20 Brian George Rennex Substantial energy return shoe with optimal low-impact springs and tuned gear change
JP6461712B2 (ja) 2015-05-28 2019-01-30 株式会社東芝 荷役装置及びその動作方法
US9875427B2 (en) * 2015-07-28 2018-01-23 GM Global Technology Operations LLC Method for object localization and pose estimation for an object of interest
US20170057148A1 (en) 2015-08-27 2017-03-02 Imflux Inc Plastic article forming apparatuses and methods for controlling melt flow
US11010816B2 (en) 2015-08-27 2021-05-18 Imflux Inc Methods of selecting thermoplastic materials for use with plastic article forming apparatuses that control melt flow
JP6711591B2 (ja) 2015-11-06 2020-06-17 キヤノン株式会社 ロボット制御装置およびロボット制御方法
JP6710622B2 (ja) * 2015-11-13 2020-06-17 株式会社東芝 搬送装置および搬送方法
EP4088889A1 (de) 2015-11-13 2022-11-16 Berkshire Grey Operating Company, Inc. Sortiersysteme und verfahren zum bereitstellen der sortierung einer vielfalt von objekten
JP6298035B2 (ja) * 2015-12-17 2018-03-20 ファナック株式会社 モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置
JP6690300B2 (ja) * 2016-02-26 2020-04-28 村田機械株式会社 スタッカクレーン
CN105817430B (zh) 2016-03-29 2017-12-29 常熟理工学院 基于机器视觉的产品检测方法
CN106063998B (zh) 2016-04-13 2018-03-06 段炼 一种单罐内转动mvr系统
US10596700B2 (en) * 2016-09-16 2020-03-24 Carbon Robotics, Inc. System and calibration, registration, and training methods
US20180198983A1 (en) * 2017-01-06 2018-07-12 Olympus Corporation Image pickup apparatus, image pickup system, image pickup method, image pickup program, and display apparatus for image pickup
JP6479264B2 (ja) * 2017-01-13 2019-03-06 三菱電機株式会社 協働ロボットシステム、及びその制御方法
JP6495355B2 (ja) 2017-02-15 2019-04-03 昭 宮田 給液装置
JP2018144155A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
CN106886165A (zh) * 2017-03-10 2017-06-23 深圳市唯特视科技有限公司 一种基于模拟器的机械手抓取和操纵方法
DE112017007398B4 (de) 2017-04-04 2021-11-18 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm und Steuerverfahren
US10328578B2 (en) 2017-04-21 2019-06-25 X Development Llc Methods and systems for detecting, recognizing, and localizing pallets
JP6904106B2 (ja) 2017-06-27 2021-07-14 村田機械株式会社 ピッキングシステム
JP2019063984A (ja) 2017-10-02 2019-04-25 キヤノン株式会社 情報処理装置、方法及びロボットシステム
US10471597B1 (en) * 2017-11-01 2019-11-12 Amazon Technologies, Inc. Adaptive perception for industrial robotic systems
US10346987B1 (en) 2017-12-29 2019-07-09 Datalogic Usa, Inc. Locating objects on surfaces
JP6489243B2 (ja) * 2018-01-17 2019-03-27 セイコーエプソン株式会社 物体認識装置、物体認識方法、物体認識プログラム、ロボットシステム及びロボット
JP7065632B2 (ja) 2018-02-13 2022-05-12 Kyoto Robotics株式会社 箱状物ピッキング装置及びその方法
JP2018158439A (ja) * 2018-03-15 2018-10-11 株式会社東芝 物体ハンドリング装置、制御装置、および較正方法
CN110737399B (zh) 2018-07-20 2023-09-05 伊姆西Ip控股有限责任公司 用于管理存储系统的方法、设备和计算机程序产品
JP7467041B2 (ja) * 2018-09-27 2024-04-15 キヤノン株式会社 情報処理装置、情報処理方法及びシステム
US10369701B1 (en) 2018-10-30 2019-08-06 Mujin, Inc. Automated package registration systems, devices, and methods
DE112019000125B4 (de) 2018-10-30 2021-07-01 Mujin, Inc. Systeme, vorrichtungen und verfahren zur automatisierten verpackungsregistrierung
US11023763B2 (en) 2019-03-19 2021-06-01 Boston Dynamics, Inc. Detecting boxes
US10614340B1 (en) 2019-09-23 2020-04-07 Mujin, Inc. Method and computing system for object identification
US10625952B1 (en) 2019-10-18 2020-04-21 Grey Orange Pte. Ltd. Induction station for conveying packages in storage facility
US11020854B2 (en) * 2019-11-05 2021-06-01 Mujin, Inc. Robotic system with wall-based packing mechanism and methods of operating same
US11423610B2 (en) 2019-11-26 2022-08-23 Applied Research Associates, Inc. Large-scale environment-modeling with geometric optimization
US11798273B2 (en) 2021-03-12 2023-10-24 Lawrence Livermore National Security, Llc Model-based image change quantification
US20230041343A1 (en) 2021-08-09 2023-02-09 Mujin, Inc. Robotic system with image-based sizing mechanism and methods for operating the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006300929A (ja) * 2005-03-22 2006-11-02 Jfe Engineering Kk 物体の3次元位置認識装置およびデパレタイズシステム
JP2007254128A (ja) * 2006-03-24 2007-10-04 Daifuku Co Ltd 物品移載装置
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
US20170076469A1 (en) * 2015-09-14 2017-03-16 Kabushiki Kaisha Toshiba Object detection apparatus, depalletization automating apparatus, and object detection method
US20170137236A1 (en) * 2015-11-13 2017-05-18 Kabushiki Kaisha Toshiba Transporting apparatus and transporting method
US20170246744A1 (en) * 2016-02-26 2017-08-31 Kinema Systems Inc. Locating, separating, and picking boxes with a sensor-guided robot

Also Published As

Publication number Publication date
DE112019000172T5 (de) 2020-07-16
US11797926B2 (en) 2023-10-24
JP7352260B2 (ja) 2023-09-28
US20200134828A1 (en) 2020-04-30
JP2021050100A (ja) 2021-04-01
CN111861306B (zh) 2021-06-15
US11189033B2 (en) 2021-11-30
US20220051411A1 (en) 2022-02-17
US20200134830A1 (en) 2020-04-30
JP7466150B2 (ja) 2024-04-12
DE112019000127T5 (de) 2020-06-18
JP7571951B2 (ja) 2024-10-23
US11636605B2 (en) 2023-04-25
WO2020092433A1 (en) 2020-05-07
JP2021503374A (ja) 2021-02-12
CN111776762A (zh) 2020-10-16
US11501445B2 (en) 2022-11-15
US20230008540A1 (en) 2023-01-12
JP6822719B2 (ja) 2021-01-27
US11062457B2 (en) 2021-07-13
WO2020092447A1 (en) 2020-05-07
DE112019000247T5 (de) 2020-09-03
CN111601761A (zh) 2020-08-28
CN111776759B (zh) 2021-07-23
DE112019000177T5 (de) 2020-09-03
US20220076425A1 (en) 2022-03-10
JP2023174652A (ja) 2023-12-08
WO2020091846A1 (en) 2020-05-07
CN111861305A (zh) 2020-10-30
JP6822718B1 (ja) 2021-01-27
US10703584B2 (en) 2020-07-07
JP2021039795A (ja) 2021-03-11
DE112019000217B4 (de) 2023-09-14
JP7340203B2 (ja) 2023-09-07
CN111629868A (zh) 2020-09-04
CN111633633A (zh) 2020-09-08
KR102650492B1 (ko) 2024-03-22
JP2021051797A (ja) 2021-04-01
CN111633633B (zh) 2021-05-07
US20200130961A1 (en) 2020-04-30
CN111566028A (zh) 2020-08-21
JP2021062978A (ja) 2021-04-22
CN111776759A (zh) 2020-10-16
JP2023160842A (ja) 2023-11-02
US11961042B2 (en) 2024-04-16
JP6704154B2 (ja) 2020-06-03
DE112019000217T5 (de) 2020-08-06
WO2020092452A1 (en) 2020-05-07
KR20210087065A (ko) 2021-07-09
US11176674B2 (en) 2021-11-16
KR20240042157A (ko) 2024-04-01
JP6820634B2 (ja) 2021-01-27
CN111113492A (zh) 2020-05-08
US20200130962A1 (en) 2020-04-30
JP7411932B2 (ja) 2024-01-12
CN111491878A (zh) 2020-08-04
JP2024023692A (ja) 2024-02-21
KR102650494B1 (ko) 2024-03-22
US20210304416A1 (en) 2021-09-30
CN111566027A (zh) 2020-08-21
KR20210096615A (ko) 2021-08-05
US20200294244A1 (en) 2020-09-17
CN111861305B (zh) 2021-08-03
JP7548516B2 (ja) 2024-09-10
JP6813229B1 (ja) 2021-01-13
JP2020069636A (ja) 2020-05-07
US11288810B2 (en) 2022-03-29
DE112019000125T5 (de) 2020-07-02
JP2020537775A (ja) 2020-12-24
CN111861306A (zh) 2020-10-30
JP6820044B1 (ja) 2021-01-27
US12002007B2 (en) 2024-06-04
JP2021054660A (ja) 2021-04-08
JP2021501102A (ja) 2021-01-14
JP7555081B2 (ja) 2024-09-24
US20200130963A1 (en) 2020-04-30
JP2020110918A (ja) 2020-07-27
JP2021507857A (ja) 2021-02-25
US20240078512A1 (en) 2024-03-07
WO2020092428A1 (en) 2020-05-07
CN111776762B (zh) 2021-07-23
WO2020092442A1 (en) 2020-05-07
JP2021505980A (ja) 2021-02-18
US20240020637A1 (en) 2024-01-18

Similar Documents

Publication Publication Date Title
DE112019000125B4 (de) Systeme, vorrichtungen und verfahren zur automatisierten verpackungsregistrierung
US10369701B1 (en) Automated package registration systems, devices, and methods
DE102016000995B4 (de) Förderrobotersystem mit dreidimensionalem Sensor
DE102019130046B4 (de) Robotersytem mit verbessertem Abtastmechanismus
DE102014102943B4 (de) Robotersystem mit Funktionalität zur Ortsbestimmung einer 3D- Kiste
DE102018132213B4 (de) Artikelübertragungsvorrichtung, Robotersystem und Artikelübertragungsverfahren
DE102014016072B4 (de) Vorrichtung und Verfahren zum Aufheben eines willkürlich aufgestapelten Gegenstands mittels eines Roboters
DE102013109220B4 (de) Robotervorrichtung und Verfahren zum Herausnehmen von Bulk-Ware aus einem Lager
DE112011103794B4 (de) Aufnehmervorrichtung für Werkstücke
DE102020119866A1 (de) Roboter-mehrfachgreiferbaugruppen und -verfahren zum greifen und halten von objekten
DE102013012068B4 (de) Vorrichtung und Verfahren zum Entnehmen von lose gelagerten Objekten durch einen Roboter
DE102014016032B4 (de) Vorrichtung und Verfahren zum Aufnehmen von wahllos gehäuften Gegenständen mit einem Roboter
DE102020101767B4 (de) Steuerverfahren und steuerung für ein robotersystem
DE102020111139A1 (de) Verfeinerung nach Erfassung basierend auf Kanten und mehrdimensionalen Ecken
DE102018111370B4 (de) Werkstückaufnahmesystem
DE112017007397B4 (de) Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
DE102013018222A1 (de) Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts
DE112020003605T5 (de) Bildverarbeitungseinrichtung, abbildungsvorrichtung, roboter und robotersystem
DE112022000335T5 (de) Robotersystem und Steuervorrichtung
WO2023143766A1 (de) VERFAHREN UND SYSTEM FÜR AUTOMATISIERTE MATERIALHANDHABUNG EINSCHLIEßLICH EINER 100%-VERIFIKATION
DE102018126310B3 (de) Verfahren zum Erstellen eines Objektmodells zum Greifen eines Objekts, computerlesbares Speichermedium und Robotersystem
DE112021007401T5 (de) Vorrichtung zur berechnung der werkstück-anzahl beim aufnehmen, handsystem und anzeigegerät
CN110405810B (zh) 自动包裹配准系统、装置和方法
DE102022134167A1 (de) Etikettierrobotersystem und Verfahren zum Etikettieren von Verpackungen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: MUJIN, INC., JP

Free format text: FORMER OWNER: MUJIN, INC., TOKYO, JP

R082 Change of representative

Representative=s name: EPPING HERMANN FISCHER PATENTANWALTSGESELLSCHA, DE

Representative=s name: BOEHMERT & BOEHMERT ANWALTSPARTNERSCHAFT MBB -, DE

R082 Change of representative

Representative=s name: BOEHMERT & BOEHMERT ANWALTSPARTNERSCHAFT MBB -, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final