Nothing Special   »   [go: up one dir, main page]

DE102021114264A1 - Robotervorrichtung eingerichtet zur Ermittlung einer Interaktionsmaschinenlage zumindest eines Elements einer vorbestimmten Interaktionsmaschine und Verfahren - Google Patents

Robotervorrichtung eingerichtet zur Ermittlung einer Interaktionsmaschinenlage zumindest eines Elements einer vorbestimmten Interaktionsmaschine und Verfahren Download PDF

Info

Publication number
DE102021114264A1
DE102021114264A1 DE102021114264.4A DE102021114264A DE102021114264A1 DE 102021114264 A1 DE102021114264 A1 DE 102021114264A1 DE 102021114264 A DE102021114264 A DE 102021114264A DE 102021114264 A1 DE102021114264 A1 DE 102021114264A1
Authority
DE
Germany
Prior art keywords
robot device
interaction
interaction machine
predetermined
reference marking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021114264.4A
Other languages
English (en)
Inventor
Christian Poss
Thomas Irrenhauser
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102021114264.4A priority Critical patent/DE102021114264A1/de
Priority to PCT/EP2022/062784 priority patent/WO2022253536A1/de
Priority to US18/558,772 priority patent/US20240238981A1/en
Priority to CN202280027764.2A priority patent/CN117120220A/zh
Publication of DE102021114264A1 publication Critical patent/DE102021114264A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41815Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37097Marker on workpiece to detect reference position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39039Two cameras detect same reference on workpiece to define its position in space
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39057Hand eye calibration, eye, camera on hand, end effector

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung Robotervorrichtung (1) eingerichtet zur Ermittlung einer Interaktionsmaschinenlage (5a, 5b, 5c) zumindest eines Elements einer vorbestimmten Interaktionsmaschine (4a, 4b, 4c) in Bezug auf die Robotervorrichtung (1), wobei die Robotervorrichtung (1) eine optische Erfassungseinrichtung (6) und eine Steuereinrichtung (3) aufweist, in der eine vorbestimmte Referenzmarkierung (8a, 8b, 8c) und eine vorbestimmte Referenzlage (9a, 9b, 9c) der Referenzmarkierung (8a, 8b, 8c) gespeichert sind, aufweist. Die Steuereinrichtung (3) ist dazu eingerichtet, die vorbestimmte Referenzmarkierung (8a, 8b, 8c) zu erfassen, und aus einer Verzerrung der Referenzmarkierung (8a, 8b, 8c) eine Raumlage (10) der Referenzmarkierung (8a, 8b, 8c) zu ermitteln. Die Steuereinrichtung (3) ist dazu eingerichtet, aus der Raumlage (10) und der Referenzlage (9a, 9b, 9c) der Referenzmarkierung (8a, 8b, 8c) die Interaktionsmaschinenlage (5a, 5b, 5c) der Interaktionsmaschine (4a, 4b, 4c) zu ermitteln, und die Robotervorrichtung (1) zur Durchführung einer vorbestimmten Interaktionshandlung zu regeln und oder zu steuern.

Description

  • Die Erfindung betrifft eine Robotervorrichtung, eingerichtet zur Ermittlung einer Interaktionsmaschinenlage zumindest eines Elements einer vorbestimmten Interaktionsmaschine in Bezug auf die Robotervorrichtung und ein Verfahren zur Ermittlung einer Interaktionsmaschinenlage zumindest eines Elements einer vorbestimmten Interaktionsmaschine in Bezug auf eine Robotervorrichtung.
  • Um eine Interaktion von Robotervorrichtungen mit Maschinen zu ermöglichen, ist es nach derzeitigem Stand der Technik erforderlich, dass die Robotervorrichtungen manuell angelernt werden. Typische Interaktionsprozesse umfassen beispielsweise eine Entnahme von Behältern aus einer Fördertechnik oder ein Bereitstellen von Bauteilen für eine Maschine. Während eines solchen Anlernprozesses wird der Robotervorrichtung eine exakte Interaktionsmaschinenlage der Maschine angelernt. Diese manuelle Anlernphase ist mit einem hohen manuellen Aufwand durch Menschen verbunden. Dieser zusätzliche Aufwand wird dadurch verstärkt, dass er jedes Mal zu wiederholen ist, sobald sich die Position der Robotervorrichtung zu der jeweiligen Maschine ändert. Dies kann beispielsweise erforderlich sein, wenn die Robotervorrichtung mit mehreren unterschiedlichen Maschinen interagieren muss.
  • In der US 9465390 B2 ist eine positionsgesteuerte Roboterflotte offenbart. Darin wird beschrieben, dass ein Steuersystem dazu eingerichtet ist, eine kooperative Operation zu identifizieren, die von einer ersten Robotervorrichtung und einer zweiten Robotervorrichtung auszuführen ist, die auf einer relativen Positionierung zwischen der ersten Robotervorrichtung und der zweiten Robotervorrichtung basiert.
    Die erste Robotervorrichtung und die zweite Robotervorrichtung sind dazu eingerichtet, einen visuellen Handshake durchführen, der die relative Positionierung zwischen der ersten Robotervorrichtung und der zweiten Robotervorrichtung für einen kollaborativen Betrieb anzeigt. Der Handshake kann eine gegenseitige Erfassung von visuellen Markern der Robotervorrichtungen umfassen.
  • Die US 9916506 B1 offenbart ein Steuersystem, das dazu eingerichtet ist, mindestens eine Position einer unsichtbaren Passermarke auf einer Robotervorrichtung zu erfassen und eine Position der Robotervorrichtung zu bestimmen.
  • Es ist somit eine Aufgabe der Erfindung, eine Lösung bereitzustellen, welche eine einfache Erfassung von Interaktionsmaschinen und deren Lage für Robotervorrichtungen ermöglicht.
  • Diese Aufgabe wird erfindungsgemäß durch eine Robotervorrichtung mit den Merkmalen gemäß dem unabhängigen Patentanspruch 1 und einem Verfahren mit den Merkmalen gemäß dem unabhängigen Patentanspruch 10 gelöst. Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen Patentansprüche und der Beschreibung, sowie der Figuren.
  • Ein erster Aspekt der Erfindung betrifft eine Robotervorrichtung, die zur Ermittlung einer Interaktionsmaschinenlage zumindest eines Elements einer vorbestimmten Interaktionsmaschine in Bezug auf die Robotervorrichtung eingerichtet ist. Mit anderen Worten ist die Robotervorrichtung dazu eingerichtet, eine Lage der Interaktionsmaschine oder zumindest eines Elements der Maschinenlage zu ermitteln. Bei der Robotervorrichtung kann es sich beispielsweise um einen Transportroboter handeln, der dazu eingerichtet ist, Objekte von der Interaktionsmaschine entgegenzunehmen oder der Interaktionsmaschine Objekte bereitzustellen. Die Interaktionsmaschine kann beispielsweise ein Förderband sein oder ein mobiler Transportroboter, der mit der Robotervorrichtung interagieren soll. Das zumindest eine Element kann beispielsweise ein Behälter, ein Arm oder ein Ausgabeelement der Interaktionsmaschine sein. Die Robotervorrichtung ist dazu eingerichtet, mittels einer optischen Erfassungseinrichtung ein Umgebungsbild einer Umgebung der Robotervorrichtung zu erfassen. Die optische Erfassungseinrichtung kann beispielsweise Kameras aufweisen, die dazu eingerichtet sein können, das Umgebungsbild im sichtbaren Lichtspektrum zu fotografieren, oder auch Aufnahmen im Infrarot- oder Ultraviolettbereich aufzunehmen.
  • Es ist vorgesehen, dass die Robotervorrichtung eine Steuereinrichtung aufweist. Bei der Steuereinrichtung kann es sich beispielsweise um eine elektronische Komponente handeln, welche einen Mikroprozessor und/oder einen Mikrocontroller aufweisen kann. In der Steuereinrichtung sind eine vorbestimmte Referenzmarkierung und eine vorbestimmte Referenzlage der Referenzmarkierung in Bezug auf das zumindest eine Element der vorbestimmten Interaktionsmaschine gespeichert. Mit anderen Worten ist in dieser Steuereinrichtung die vorbestimmte Referenzmarkierung gespeichert, wobei es sich um einen optischen Marker handeln kann, der auf der Interaktionsmaschine oder dem zumindest einem Element der Interaktionsmaschine aufgebracht sein kann. Die vorbestimmte Referenzlage, an der die Referenzmarkierung auf dem Interaktionsmaschine angebracht ist, ist ebenfalls in der Steuereinrichtung gespeichert. Die Steuereinrichtung ist dazu eingerichtet, einen die Referenzmarkierung wiedergebenden Bildausschnitt der Interaktionsmaschine in dem Umgebungsbild der Umgebung der Robotervorrichtung zu erfassen. Mit anderen Worten kann die Robotervorrichtung aus dem aufgenommenen Umgebungsbild einen Bildausschnitt ermitteln, in welchem sich die Referenzmarkierung befindet. Dies kann beispielsweise über eine einfache Erfassung des Interaktionsmaschine erfolgen, wobei in einem zweiten Schritt der Bildausschnitt erstellt wird, welcher einen Bereich des Interaktionsmaschine abbildet, in welchem die vorbestimmte Referenzmarkierung angeordnet ist. Die Steuereinrichtung ist dazu eingerichtet, die vorbestimmte Referenzmarkierung im Bildausschnitt zu erfassen und eine Verzerrung der vorbestimmten Referenzmarkierung in dem Bildausschnitt zu ermitteln. Mit anderen Worten ist die Steuereinrichtung dazu eingerichtet, die Referenzmarkierung in dem Bildausschnitt zu erkennen und zu ermitteln, welche Verzerrung die erkannte Referenzmarkierung in dem Bildausschnitt aufweist. Die Steuereinrichtung ist dazu eingerichtet, aus der Verzerrung der Referenzmarkierung eine Raumlage der Referenzmarkierung in Bezug auf die Robotervorrichtung zu ermitteln. Mit anderen Worten wird die erfasste Verzerrung der Referenzmarkierung verwendet, um zu bestimmen, an welchem Ort sich die Referenzmarkierung in Bezug auf die Robotervorrichtung befindet.
  • Die Raumlage kann beispielsweise ein Abstand oder eine Ausrichtung der Referenzmarkierung in Bezug auf die Robotervorrichtung umfassen. Die Steuereinrichtung ist dazu angelegt, aus der Raumlage der Referenzmarkierung in Bezug auf die Robotervorrichtung und der Referenzlage der Referenzmarkierung in Bezug auf die Interaktionsmaschine die Interaktionsmaschinelage der Interaktionsmaschine in Bezug auf die Robotervorrichtung zu ermitteln. Mit anderen Worten ist die Steuereinrichtung dazu eingerichtet, aus der erfassten Raumlage der Referenzmarkierung und der gespeicherten Referenzlage, welche angibt, an welchem Ort sich die Referenzmarkierung auf der vorbestimmten Interaktionsmaschine befindet, zu ermitteln, an welchem Ort sich die Interaktionsmaschine oder das zumindest eine Element der Interaktionsmaschine in Bezug auf die Robotervorrichtung befindet. Die Steuereinrichtung ist dazu eingerichtet, die Robotervorrichtung die Robotervorrichtung zur Durchführung einer vorbestimmten Interaktionshandlung mit dem an der Interaktionsmaschinenlage zumindest einem Element der Interaktionsmaschine zu regeln und oder zu steuern.
  • Die vorbestimmte Interaktionshandlung kann beispielsweise ein Ablegen eines vorbestimmten Zielobjekts an einer vorbestimmten Annahmeposition der Interaktionsmaschine und/oder ein Aufnehmen des vorbestimmten Zielobjekts von einer vorbestimmten Ablageposition der Interaktionsmaschine umfassen. Mit anderen Worten ist es vorgesehen, dass die Steuereinrichtung die abgeleitete Interaktionsmaschinelage verwendet, um die Robotervorrichtung so anzusteuern, dass durch die Robotervorrichtung die vorbestimmte Interaktionshandlung mit der Interaktionsmaschine durchgeführt wird. Es kann insbesondere Vorgesehen sein, dass das vorbestimmte Zielobjekt an der vorbestimmten Annahmeposition der Interaktionsmaschine abgelegt wird, oder von der vorbestimmten Ablageposition des Interaktionsmaschine aufgenommen wird. Das vorbestimmte Zielobjekt kann beispielsweise ein Bauteil eines Kraftfahrzeugs sein, welches an der vorbestimmten Annahmeposition durch die Robotervorrichtung abgelegt werden soll.
  • Durch die Erfindung ergibt sich der Vorteil, dass ein erneutes Anlernen der Robotervorrichtung nicht mehr erforderlich ist, wenn sich die Lage der Interaktionsmaschine in Bezug auf die Robotervorrichtung geändert hat. Die durchzuführenden Prozesse müssen lediglich einmal beigebracht werden. Die Lage der Interaktionsmaschine kann durch die indirekte Erfassung der Lage des Interaktionsmaschine über die Referenzmarkierung einfacher und fehlerfreier bestimmt werden.
  • Die Erfindung umfasst auch optionale Weiterbildungen, durch die sich weitere Vorteile ergeben.
  • Eine Weiterbildung der Erfindung sieht vor, dass die Steuereinrichtung dazu eingerichtet ist, den Bildausschnitt und/oder die Verzerrung der vorbestimmten Referenzmarkierung durch Methoden maschinellen Lernens zu erfassen. Mit anderen Worten ist die Steuereinrichtung dazu eingerichtet, den Bildausschnitt, in welchem sich die Referenzmarkierung auf der Interaktionsmaschine befindet und/oder die Verzerrung der Referenzmarkierung mittels einer Anwendung von Methoden maschinellen Lernens zu erfassen. Bei den Methoden maschinellen Lernens kann es sich insbesondere um automatische Bilderkennung über maschinelles Sehen handeln. Mit anderen Worten wird mittels einer Ausprägung künstlicher Intelligenz, dem maschinellen Lernen, der den Bildausschnitt, in welchem sich die Referenzmarkierung befindet, identifiziert und darüber hinaus in diesem Bereich anschließend die Referenzmarkierung und deren Verzerrung ermittelt. Das maschinelle Lernen kann beispielsweise durch einen, insbesondere lernfähigen, Algorithmus ausgebildet sein. Durch das Verwenden des maschinellen Lernens kann das Verfahren beispielsweise besonders vorteilhaft durchgeführt werden und darüber hinaus auf einfache Weise an neue Referenzmarkierungen und Interaktionsmaschinen angepasst werden.
  • Eine Weiterbildung der Erfindung sieht vor, dass die Steuereinrichtung dazu eingerichtet ist, die Methoden maschinellen Lernens unter Einbeziehung eines neuronalen Netzes anzuwenden. Bei dem maschinellen Lernen können im Wesentlichen zwei Ansätze verfolgt werden: Erstens symbolische Ansätze, wie aussagenlogische Systeme, in denen das Wissen - sowohl die Beispiele als auch die induzierten Regeln - explizit repräsentiert ist, welche beispielsweise durch den Algorithmus ausgedrückt werden können. Zweitens subsymbolische Systeme wie, insbesondere künstliche, neuronale Netze, die nach dem Vorbild des menschlichen Gehirns funktionieren und in denen das Wissen implizit repräsentiert ist. Dabei sind auch Kombinationen des wenigstens einen Algorithmus und des wenigstens einen neuronalen Netz denkbar. Dabei kann der Algorithmus lernfähig, insbesondere selbstlernfähig, sein und beispielsweise durch das neuronale Netz ausgeführt werden bzw. erhält das neuronale Netz entsprechend des lernenden Algorithmus Anweisungen für seine Vorhersage und/oder für das Identifizieren und/oder Auswerten, welches beispielsweise mittels einer Mustererkennung, welche durch das neuronale Netz oder den Algorithmus erlernbar ist, realisiert werden kann. Dadurch ergibt sich der Vorteil, dass das maschinelle Lernen beispielsweise nicht durch einen Algorithmus auf eine konventionelle Prozessorarchitektur durchgeführt werden muss, sondern sich aufgrund der Verwendung des neuronalen Netzes bestimmte Vorteile bei der Erkennung ergeben können.
  • Eine Weiterbildung der Erfindung sieht vor, dass die Referenzmarkierung einen Strichcode und/oder einen Flächencode umfasst. Mit anderen Worten weist die Referenzmarkierung einen als Strichcode ausgebildeten Bereich auf oder einen Flächencode, wobei es sich um einen zweidimensionalen Code handeln kann. Bei dem zweidimensionalen Code kann es sich insbesondere um einen AprilTag-, ARtag-, ArUco- oder QR-Code handeln. Durch die Weiterbildung ergibt sich der Vorteil, dass die Referenzmarkierung für die Steuereinrichtung einfach zu erkennende Bereiche aufweist, deren Verzerrung durch die Steuereinheit einfach und genau ermittelt werden kann. Durch die Verwendung eines Strichcodes und/oder eines Flächencodes können auch Stellplätze der Interaktionsmaschinen individuell gekennzeichnet sein.
  • Eine Weiterbildung der Erfindung sieht vor, dass die vorbestimmte Interaktionshandlung eine Übergabe eines Zielobjekts durch die Robotervorrichtung an die Interaktionsmaschine und/oder eine Übergabe des Zielobjekts durch die Interaktionsmaschine an die Robotervorrichtung umfasst. Mit anderen Worten ist die Steuereinrichtung dazu eingerichtet, die Robotervorrichtung anzusteuern, um während der Interaktionshandlung das Zielobjekt an die Interaktionsmaschine zu übergeben und/oder um das Zielobjekt von der Interaktionsmaschine anzunehmen. Die Übergabe kann beispielsweise ein Greifen des Zielobjekts durch die Robotervorrichtung an einer Ausgabeöffnung der Interaktionsmaschine umfassen. Es kann auch vorgesehen sein, dass die Robotervorrichtung dazu eingerichtet ist, ein durch einen Greifarm übergebenes Zielobjekt entgegenzunehmen.
  • Eine Weiterbildung der Erfindung sieht vor, dass die vorbestimmte Interaktionshandlung ein Fahren der Robotervorrichtung auf und/oder in die Interaktionsmaschine umfasst. Mit anderen Worten ist die Steuereinrichtung dazu eingerichtet, die Robotervorrichtung so anzusteuern, dass diese auf und/oder in die Interaktionsmaschine fährt. Es kann beispielsweise vorgesehen sein, dass die Interaktionsmaschine eine Hebebühne, ein Förderband, ein Transportfahrzeug oder ein Aufzug ist, deren Position über die Referenzmarkierung abgeleitet werden kann. Es kann vorgesehen sein, dass die Steuereinrichtung dazu vorgesehen ist, die Referenzmarkierung zu erfassen, damit die die Robotervorrichtung während der vorbestimmten Interaktionshandlung eine vorbestimmte Lage auf dem Aufzug einnehmen kann.
  • Eine Weiterbildung der Erfindung sieht vor, dass die Robotervorrichtung als Gabelstapler eingerichtet ist. Mit anderen Worten handelt es sich bei der Robotervorrichtung um einen Gabelstapler. Dieser kann dazu eingerichtet sein, das vorbestimmte Zielobjekt mittels einer Gabel zu heben, zu transportieren oder abzusenken. Die Robotervorrichtung kann insbesondere dazu eingerichtet sein, mittels der erfassten Zielobjektlage einen Punkt zum Halten oder Heben des Zielobjekts zu ermitteln.
  • Eine Weiterbildung der Erfindung sieht vor, dass die Robotervorrichtung als Greifroboter oder Kran eingerichtet ist. Mit anderen Worten weist die Robotervorrichtung einen Greifarm auf oder ist als Kran eingerichtet. Die Robotervorrichtung kann dazu eingerichtet sein, das Zielobjekt zu greifen, um es zu heben oder zu bewegen.
  • Eine Weiterbildung der Erfindung sieht vor, dass die Robotervorrichtung eine optische Erfassungseinrichtung aufweist, die zumindest zwei Kameras aufweist. Die Kameras sind jeweils dazu eingerichtet, das Umgebungsbild der Umgebung der Robotervorrichtung aus zumindest zwei Teilbildern der jeweiligen Kameras zu generieren, wobei die zumindest zwei Kameras dazu eingerichtet sind, die Teilbilder aus jeweiligen unterschiedlichen Perspektiven aufzunehmen. Dadurch ergibt sich der Vorteil, dass ein größeres Umgebungsbild ermöglicht wird, als es mit einer optischen Erfassungseinrichtung mit nur einer Kamera möglich wäre.
  • Ein zweiter Aspekt der Erfindung betrifft ein Verfahren zur Ermittlung einer Interaktionsmaschinenlage einer vorbestimmten Interaktionsmaschine in Bezug auf eine Robotervorrichtung. In dem Verfahren wird durch eine optische Erfassungseinrichtung der Robotervorrichtung ein Umgebungsbild einer Umgebung der Robotervorrichtung erfasst. Es ist vorgesehen, dass durch eine Steuereinrichtung der Robotervorrichtung eine vorbestimmte Referenzmarkierung und eine vorbestimmte Referenzlage der Referenzmarkierung in Bezug auf die vorbestimmte Interaktionsmaschine gespeichert werden. In einem nächsten Schritt wird ein die Referenzmarkierung wiedergebender Bildausschnitt der Interaktionsmaschine in dem Umgebungsbild der Umgebung der Robotervorrichtung durch die Steuereinrichtung erfasst. Durch die Steuereinrichtung wird die vorbestimmte Referenzmarkierung in dem Bildausschnitt erfasst und eine Verzerrung der vorbestimmten Referenzmarkierung in dem Bildausschnitt ermittelt. Durch die Steuereinrichtung wird aus der Verzerrung der Referenzmarkierung eine Augenlage der Referenzmarkierung in Bezug auf die Robotervorrichtung ermittelt und aus der Raumlage der Referenzmarkierung in Bezug auf die Robotervorrichtung und der Referenzlage der Referenzmarkierung in Bezug auf die Interaktionsmaschine die Interaktionsmaschinenlage der Interaktionsmaschine in Bezug auf die Robotervorrichtung ermittelt. Abschließend wird durch die Steuereinrichtung die Robotervorrichtung geregelt und/oder angesteuert, um eine vorbestimmte Interaktionshandlung durch die Robotervorrichtung mit der Interaktionsmaschine durchzuführen.
  • Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar.
  • Die Erfindung wird nun anhand eines bevorzugten Ausführungsbeispiels sowie unter Bezugnahme auf die Zeichnungen näher erläutert. Es zeigen:
    • 1 eine schematische Perspektivansicht;
  • 1 zeigt eine schematische Darstellung einer Robotervorrichtung. Die Robotervorrichtung 1 kann beispielsweise dazu vorgesehen sein, in einer Lager- oder Produktionshalle die vorbestimmten Interaktionshandlungen mit den Interaktionsmaschinen 4 durchzuführen. Es kann sich bei der Robotervorrichtung 1 beispielsweise um einen Gabelstapler, oder einen Greifroboter mit einem Greifarm 2 handeln. Die Robotervorrichtung 1 kann eine Steuereinrichtung 3 aufweisen, wobei es sich um eine elektronische Einrichtung handeln kann, die einen Mikroprozessor und/oder einen Mikrocontroller aufweisen kann. Die Steuereinrichtung 3 kann dazu eingerichtet sein, die Robotervorrichtung 1 zu steuern. Bei den Interaktionsmaschinen 4 kann es sich beispielsweise um eine Förderbandausgabe 4a, einen Transportroboter 4b oder eine andere Robotervorrichtung 4c handeln. Es kann vorgesehen sein, dass sich eine jeweilige Interaktionsmaschinenlage 5 der Interaktionsmaschinen 4 in Bezug auf die Robotervorrichtung 1 während des Betriebs ändern kann. Dies kann beispielsweise durch ein Bewegen der Robotervorrichtung 1 und/oder der Interaktionsmaschine 4 erfolgen. Um die Umgebung und somit auch die Interaktionsmaschinen 4a, 4b und deren Lage 5a, 5b erfassen zu können, kann die Robotervorrichtung 1 eine optische Erfassungseinrichtung 6 aufweisen, welche eine oder mehrere Kameras 7 aufweisen kann. Die Kameras 7 können dazu eingerichtet sein, sichtbares Licht, Infrarot- oder ultraviolette Strahlung zu erfassen. Da ein direktes Erfassen der genauen Interaktionsmaschinenlage 5a, 5b der Interaktionsmaschinen 4a, 4b rechenaufwendig und fehleranfällig sein kann, kann es vorgesehen sein, die Interaktionsmaschinenlagen 5a, 5b der Interaktionsmaschinen 4a, 4b auf einem indirekten Weg zu erfassen. Um die indirekte Erfassung der Interaktionsmaschinenlagen 5a, 5b der Interaktionsmaschinen 4a, 4b zu ermöglichen, kann es vorgesehen sein, dass jede der Interaktionsmaschinen 4a, 4b durch eine jeweilige Referenzmarkierung 8a, 8b gekennzeichnet ist. Die Referenzmarkierungen 8a, 8b können in der Steuereinrichtung 3 der Robotervorrichtung 1 gespeichert sein. Es kann vorgesehen sein, dass die Referenzmarkierungen 8a, 8b an einer jeweiligen Referenzlage 9a, 9b in Bezug auf die jeweilige Interaktionsmaschine 4a, 4b angeordnet sind. Mit anderen Worten kann es vorgesehen sein, dass die Referenzmarkierungen 8a, 8b an einer vorbestimmten Referenzlage 9a, 9b der Interaktionsmaschinen 4a, 4b angeordnet sind. Die jeweiligen Referenzlagen 9a, 9b können ebenfalls in der Steuereinrichtung 3 gespeichert sein. Dadurch, dass die Referenzlagen 9a, 9b bekannt seien können, kann im Fall einer Erfassung und/oder Bestimmung der Lage der jeweiligen Referenzmarkierungen 8a, 8b die Interaktionsmaschinenlage 5a, 5b der jeweiligen Interaktionsmaschine 4a, 4b abgeleitet werden. Zu diesem Zweck kann es vorgesehen sein, dass durch die Steuereinrichtung 3 ein vorbestimmter Bildausschnitt aus dem Umgebungsbild 13 ausgewählt wird, in welchem die jeweilige Referenzmarkierung 8a, 8b zu sehen ist. Die Steuereinrichtung 3 kann die jeweilige Referenzmarkierung 8a, 8b identifizieren und eine Verzerrung, die sich aus der Raumlage 10 der Referenzmarkierung 8a, 8b in Bezug auf die optische Erfassungseinrichtung 6 ergibt, ermitteln. Aus der erfassten Verzerrung kann die Steuereinrichtung 3 die Raumlage 10a, 10b der jeweiligen Referenzmarkierung 8a, 8b in Bezug auf die Robotervorrichtung 1 ermitteln. Aus der bekannten Raumlage 10a, 10b der Referenzmarkierung 8a, 8b und der Referenzlage 9a, 9b kann die Steuereinrichtung 3 ermitteln, an welcher Interaktionsmaschinenlage 5a, 5b sich die Interaktionsmaschine 4a, 4b in Bezug auf die Robotervorrichtung 1 befindet.. Durch die indirekte Bestimmung der Interaktionsmaschinenlage 5a, 5b, 5c über die Erfassung der Referenzmarkierungen 8a, 8b, 8c kann eine genauere und zugleich einfachere Bestimmung der Lage der Interaktionsmaschinen 4a, 4b, 4c erfolgen, als es bei einer direkten Ermittlung der Interaktionsmaschinenlagen 5a, 5b mittels einer optischen Erfassung der Interaktionsmaschinen 4a, 4b, 4c möglich wäre. Dies ist unter anderem darauf zurückzuführen, dass bereits effiziente Systeme aus Referenzmarkierungen 8a, 8b, 8c und Algorithmen zur Erfassung der Referenzmarkierung 8a, 8b, 8c verfügbar sind. Die Referenzmarkierungen können auch eindimensionale oder zweidimensionale Codes aufweisen, welche in Schwarz und Weiß gehalten sein können. Somit können die Referenzmarkierungen 8a, 8b, 8c simple und kontrastreiche Muster aufweisen, welche eine einfache Ermittlung der Verzerrung ermöglichen. Die Interaktionshandlungen können insbesondere Übergaben eines Zielobjekts 12 umfassen. Die Robotervorrichtung 1 kann hierbei entweder Übergeber oder Empfänger des Zielobjekts 11 sein. Das Zielobjekt 11 kann beispielsweise ein Bauteil eines Fahrzeugs oder ein Paket sein. Es kann während der Interaktionshandlung vorgesehen sein, dass das Zielobjekt an einer vorbestimmten Zielobjektlage 12a, 12b, 12c in Bezug auf die Interaktionsmaschine 4a, 4b, 4c durch die Robotervorrichtung 1 durch die Robotervorrichtung 1 aufgenommen oder abgegeben werden soll. Die Zielobjektlage 12a kann ein Ende einer als Fördervorrichtung eingerichteten Interaktionsmaschine 4a, ein Ablagebereich einer als Transportroboter eingerichteten Interaktionsmaschine 4b oder ein Haltebereich einer als Greifroboter eingerichteten Interaktionsmaschine 4c sein.
  • Es kann auch vorgesehen sein, dass die Interaktionsmaschinenlage 5 sich auf ein oder mehrere Elemente einer der Interaktionsmaschinen 4 beziehen kann. So kann es beispielsweise vorgesehen sein, dass eine als Greifroboter gestaltete Interaktionsmaschine 4 einen Referenzmarker 8 an einem Greifarm 2 als Element aufweist, um eine Erfassung der Interaktionsmaschinenlage 5 in Bezug auf den Greifarm 2 durch die Robotervorrichtung 1 zu ermöglichen. Dies kann beispielsweise vorteilhaft sein, wenn die Robotervorrichtung 1 ein Zielobjekt 11 an die Interaktionsmaschine 4c derart übergeben soll, dass die Interaktionsmaschine 4c das Zielobjekt mittels des Greifarms an einer vorbestimmten Zielobjektlage 12c halten soll. Hierfür kann es für die Robotervorrichtung 1 erforderlich sein, die genaue Interaktionsmaschinenlage 5c des Greifarms 2 zu kennen und somit eine Übergabe des Zielobjekts 11 durch die Robotervorrichtung 1 zu ermöglichen.
  • 2 zeigt ein Verfahren zur Ermittlung einer Interaktionsmaschinenlage 5 einer vorbestimmten Interaktionsmaschine 4 in Bezug auf eine Robotervorrichtung 1. In einem ersten Schritt werden eine vorbestimmte Referenzmarkierung 8 und eine vorbestimmte Referenzlage 9 der Referenzmarkierung 8 in Bezug auf die vorbestimmte Interaktionsmaschine 4 in der Steuereinrichtung 3 gespeichert (S1). Durch eine optische Erfassungseinrichtung 6 der Robotervorrichtung 1 wird ein Umgebungsbild 13 einer Umgebung der Robotervorrichtung 1 erfasst (S2). Durch die Steuereinrichtung 3 wird der die Referenzmarkierung 8 wiedergebende Bildausschnitt der Interaktionsmaschine 4 in dem Umgebungsbild 13 der Umgebung der Robotervorrichtung 1 erfasst (S3). Durch die Steuereinrichtung 3 wird die vorbestimmte Referenzmarkierung 8 in dem Bildausschnitt erfasst, und eine Verzerrung der vorbestimmten Referenzmarkierung 8 in dem Bildausschnitt ermittelt (S4). Durch die Steuereinrichtung 3 wird aus der Verzerrung der Referenzmarkierung 8 eine Raumlage 10a, 10b der Referenzmarkierung 8 in Bezug auf die Robotervorrichtung 1 ermittelt (S5), und aus der Raumlage 10a, 10b der Referenzmarkierung 8 in Bezug auf die Robotervorrichtung 1 und der Referenzlage 9 der Referenzmarkierung 8 in Bezug auf die Interaktionsmaschine 4 die Interaktionsmaschinelage 5 der Interaktionsmaschine 4 in Bezug auf die Robotervorrichtung 1 ermittelt (S6). Durch die Steuereinrichtung 3 kann die Robotervorrichtung 1 geregelt und/oder angesteuert, um ein vorbestimmtes Interaktionshandlung durch die Robotervorrichtung 3 mit der Interaktionsmaschine 4a durchzuführen.
  • Bezugszeichenliste
  • 1
    Robotervorrichtung
    2
    Greifarm
    3
    Steuereinrichtung
    4a
    Interaktionsmaschine
    4b
    Interaktionsmaschine
    4c
    Interaktionsmaschine
    5a
    Interaktionsmaschinenlage
    5b
    Interaktionsmaschinenlage
    5c
    Interaktionsmaschinenlage
    6
    Erfassungseinrichtung
    7
    Kameras
    8a
    Referenzmarkierung
    8b
    Referenzmarkierung
    8c
    Referenzmarkierung
    9a
    Referenzlage
    9b
    Referenzlage
    9c
    Referenzlage
    10a
    Raumlage
    10b
    Raumlage
    10c
    Raumlage
    11
    Zielobjekt
    12a
    Zielobjektlage
    12b
    Zielobjektlage
    12c
    Zielobjektlage
    13
    Umgebungsbild
    S1-S6
    Verfahrensschritte
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 9465390 B2 [0003]
    • US 9916506 B1 [0004]

Claims (10)

  1. Robotervorrichtung (1) eingerichtet zur Ermittlung einer Interaktionsmaschinenlage (5a, 5b, 5c) zumindest eines Elements einer vorbestimmten Interaktionsmaschine (4a, 4b, 4c) in Bezug auf die Robotervorrichtung (1), wobei die Robotervorrichtung (1) eine optische Erfassungseinrichtung (6) aufweist, die dazu eingerichtet ist, ein Umgebungsbild (13) einer Umgebung der Robotervorrichtung (1) zu erfassen, dadurch gekennzeichnet, dass die Robotervorrichtung (1) eine Steuereinrichtung (3) aufweist, in der eine vorbestimmte Referenzmarkierung (8a, 8b, 8c) und eine vorbestimmte Referenzlage (9a, 9b, 9c) der Referenzmarkierung (8a, 8b, 8c) in Bezug auf das zumindest eine Elements der vorbestimmten Interaktionsmaschine (4a, 4b, 4c) gespeichert sind, wobei die Steuereinrichtung (3) dazu eingerichtet ist, - einen die Referenzmarkierung (8a, 8b, 8c) wiedergebenden Bildausschnitt der Interaktionsmaschine (4a, 4b, 4c) in dem Umgebungsbild (13) der Umgebung der Robotervorrichtung (1) zu erfassen, - die vorbestimmte Referenzmarkierung (8a, 8b, 8c) in dem Bildausschnitt zu erfassen, und eine Verzerrung der vorbestimmten Referenzmarkierung (8a, 8b, 8c) in dem Bildausschnitt zu ermitteln, - aus der Verzerrung der Referenzmarkierung (8a, 8b, 8c) eine Raumlage (10) der Referenzmarkierung (8a, 8b, 8c) in Bezug auf die Robotervorrichtung (1) zu ermitteln, - aus der Raumlage (10) der Referenzmarkierung (8a, 8b, 8c) in Bezug auf die Robotervorrichtung (1) und der Referenzlage (9a, 9b, 9c) der Referenzmarkierung (8a, 8b, 8c) in Bezug auf das zumindest eine Element der Interaktionsmaschine (4a, 4b, 4c) die Interaktionsmaschinenlage (5a, 5b, 5c) des zumindest einen Elements der Interaktionsmaschine (4a, 4b, 4c) in Bezug auf die Robotervorrichtung (1) zu ermitteln, und - die Robotervorrichtung (1) zur Durchführung einer vorbestimmten Interaktionshandlung mit dem an der Interaktionsmaschinenlage (5a, 5b, 5c) zumindest einem Element der Interaktionsmaschine (4a, 4b, 4c) zu regeln und oder zu steuern.
  2. Robotervorrichtung (1) nach Anspruch 1, dadurch gekennzeichnet, dass die Steuereinrichtung (3) dazu eingerichtet ist, den Bildausschnitt und/oder die Verzerrung der vorbestimmten Referenzmarkierung (8a, 8b, 8c) durch Methoden maschinellen Lernens zu erfassen.
  3. Robotervorrichtung (1) nach Anspruch 2, dadurch gekennzeichnet, dass die Steuereinrichtung (3) dazu eingerichtet ist, die Methoden maschinellen Lernens unter Einbeziehung eines neuronalen Netzes anzuwenden.
  4. Robotervorrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Referenzmarkierung (8a, 8b, 8c) einen Strichcode und/oder einen Flächencode umfasst.
  5. Robotervorrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die vorbestimmte Interaktionshandlung eine Übergabe eines Zielobjekts (11) durch die Robotervorrichtung (1) an die Interaktionsmaschine (4a, 4b, 4c) und/oder eine Übergabe des Zielobjekts (11) durch die Interaktionsmaschine (4a, 4b, 4c) an die Robotervorrichtung (1) umfasst.
  6. Robotervorrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die vorbestimmte Interaktionshandlung ein Fahren der Robotervorrichtung (1) auf und/oder in die Interaktionsmaschine (4a, 4b, 4c) umfasst.
  7. Robotervorrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Robotervorrichtung (1) als Gabelstapler eingerichtet ist.
  8. Robotervorrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Robotervorrichtung (1) als Greifroboter oder Kran eingerichtet ist.
  9. Robotervorrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die optische Erfassungseinrichtung (6) zumindest zwei Kameras (7) aufweist, die dazu eingerichtet sind, das Umgebungsbild (13) der Umgebung der Robotervorrichtung (1) aus zumindest zwei Teilbildern der jeweiligen Kameras (7) zu generieren, wobei die zumindest zwei Kameras (7) dazu eingerichtet sind, die Teilbilder aus jeweiligen, unterschiedlichen Perspektiven aufzunehmen.
  10. Verfahren zur Ermittlung einer Interaktionsmaschinenlage (5a, 5b, 5c) zumindest eines Elements einer vorbestimmten Interaktionsmaschine (4a, 4b, 4c) in Bezug auf eine Robotervorrichtung (1), wobei durch eine optische Erfassungseinrichtung (6) der Robotervorrichtung (1), ein Umgebungsbild (13) einer Umgebung der Robotervorrichtung (1) erfasst wird, dadurch gekennzeichnet, dass durch eine Steuereinrichtung (3) der Robotervorrichtung (1) - eine vorbestimmte Referenzmarkierung (8a, 8b, 8c) und eine vorbestimmte Referenzlage (9a, 9b, 9c) der Referenzmarkierung (8a, 8b, 8c) in Bezug auf das zumindest eine Element der vorbestimmten Interaktionsmaschine (4a, 4b, 4c) gespeichert werden, - ein die Referenzmarkierung (8a, 8b, 8c) wiedergebender Bildausschnitt der Interaktionsmaschine (4a, 4b, 4c) in dem Umgebungsbild (13) der Umgebung der Robotervorrichtung (1) erfasst wird, - die vorbestimmte Referenzmarkierung (8a, 8b, 8c) in dem Bildausschnitt erfasst wird, und eine Verzerrung der vorbestimmten Referenzmarkierung (8a, 8b, 8c) in dem Bildausschnitt ermittelt wird, - aus der Verzerrung der Referenzmarkierung (8a, 8b, 8c) eine Raumlage (10) der Referenzmarkierung (8a, 8b, 8c) in Bezug auf die Robotervorrichtung (1) ermittelt wird, - aus der Raumlage (10) der Referenzmarkierung (8a, 8b, 8c) in Bezug auf die Robotervorrichtung (1) und der Referenzlage (9a, 9b, 9c) der Referenzmarkierung (8a, 8b, 8c) in Bezug auf das zumindest eine Element der Interaktionsmaschine (4a, 4b, 4c) die Interaktionsmaschinenlage (5a, 5b, 5c) des zumindest einen Elements der Interaktionsmaschine (4a, 4b, 4c) in Bezug auf die Robotervorrichtung (1) ermittelt wird, und - die Robotervorrichtung (1) zur Durchführung einer vorbestimmten Interaktionshandlung mit dem zumindest einen Element der Interaktionsmaschine (4a, 4b, 4c) der Interaktionsmaschinenlage (5a, 5b, 5c) geregelt und/oder gesteuert wird.
DE102021114264.4A 2021-06-02 2021-06-02 Robotervorrichtung eingerichtet zur Ermittlung einer Interaktionsmaschinenlage zumindest eines Elements einer vorbestimmten Interaktionsmaschine und Verfahren Pending DE102021114264A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102021114264.4A DE102021114264A1 (de) 2021-06-02 2021-06-02 Robotervorrichtung eingerichtet zur Ermittlung einer Interaktionsmaschinenlage zumindest eines Elements einer vorbestimmten Interaktionsmaschine und Verfahren
PCT/EP2022/062784 WO2022253536A1 (de) 2021-06-02 2022-05-11 Robotervorrichtung eingerichtet zur ermittlung einer interaktionsmaschinenlage zumindest eines elements einer vorbestimmten interaktionsmaschine und verfahren
US18/558,772 US20240238981A1 (en) 2021-06-02 2022-05-11 Robot Device Configured to Determine an Interaction Machine Position of at Least One Element of a Predetermined Interaction Machine, and Method
CN202280027764.2A CN117120220A (zh) 2021-06-02 2022-05-11 用于确定预定交互机器的至少一个元件的交互机器位置的机器人设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021114264.4A DE102021114264A1 (de) 2021-06-02 2021-06-02 Robotervorrichtung eingerichtet zur Ermittlung einer Interaktionsmaschinenlage zumindest eines Elements einer vorbestimmten Interaktionsmaschine und Verfahren

Publications (1)

Publication Number Publication Date
DE102021114264A1 true DE102021114264A1 (de) 2022-12-08

Family

ID=81984779

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021114264.4A Pending DE102021114264A1 (de) 2021-06-02 2021-06-02 Robotervorrichtung eingerichtet zur Ermittlung einer Interaktionsmaschinenlage zumindest eines Elements einer vorbestimmten Interaktionsmaschine und Verfahren

Country Status (4)

Country Link
US (1) US20240238981A1 (de)
CN (1) CN117120220A (de)
DE (1) DE102021114264A1 (de)
WO (1) WO2022253536A1 (de)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602004013107T2 (de) 2003-11-18 2009-07-02 Fanuc Ltd. Vorrichtung zur Korrektur einer gelernten Position
DE102014011852A1 (de) 2014-08-08 2015-03-12 Daimler Ag Verfahren zum Verfolgen wenigstens einer an einem Bauteil vorgesehenen Arbeitsposition für zumindest einen Roboter
DE102015015094A1 (de) 2014-11-28 2016-06-02 Fanuc Corporation Kooperationssystem mit Werkzeugmaschine und Roboter
US9465390B2 (en) 2014-11-11 2016-10-11 Google Inc. Position-controlled robotic fleet with visual handshakes
US20170109856A1 (en) 2015-10-16 2017-04-20 Seiko Epson Corporation Image Processing Device, Robot, Robot System, and Marker
US9916506B1 (en) 2015-07-25 2018-03-13 X Development Llc Invisible fiducial markers on a robot to visualize the robot in augmented reality
DE102017009223A1 (de) 2016-10-11 2018-04-12 Fanuc Corporation Steuervorrichtung zum Steuern eines Roboters durch Lernen einer Aktion einer Person, Robotersystem und Produktionssystem
DE102018000733A1 (de) 2018-01-29 2019-08-01 IGZ Ingenieurgesellschaft für logistische Informationssysteme mbH Überwachungs- und Bediensystem für einen Fertigungsarbeitsplatz und Verfahren zur Unterstützung und Überwachung eines Werkers beim Prozess zum Montieren oder Fertigen eines Produkts oder Teilprodukts
DE102017123877B4 (de) 2016-10-14 2019-09-19 Engel Austria Gmbh Robotersystem
EP3597374A1 (de) 2018-05-18 2020-01-22 Toyota Jidosha Kabushiki Kaisha Haltevorrichtung, mit etikett versehener behälter, objekthalteprogramm und objekthalteverfahren
EP3744484A1 (de) 2018-01-23 2020-12-02 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und informationsverarbeitungssystem
WO2021050646A1 (en) 2019-09-11 2021-03-18 Dmg Mori Co., Ltd. Robot-mounted moving device, system, and machine tool

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602004013107T2 (de) 2003-11-18 2009-07-02 Fanuc Ltd. Vorrichtung zur Korrektur einer gelernten Position
DE102014011852A1 (de) 2014-08-08 2015-03-12 Daimler Ag Verfahren zum Verfolgen wenigstens einer an einem Bauteil vorgesehenen Arbeitsposition für zumindest einen Roboter
US9465390B2 (en) 2014-11-11 2016-10-11 Google Inc. Position-controlled robotic fleet with visual handshakes
DE102015015094A1 (de) 2014-11-28 2016-06-02 Fanuc Corporation Kooperationssystem mit Werkzeugmaschine und Roboter
US9916506B1 (en) 2015-07-25 2018-03-13 X Development Llc Invisible fiducial markers on a robot to visualize the robot in augmented reality
US20170109856A1 (en) 2015-10-16 2017-04-20 Seiko Epson Corporation Image Processing Device, Robot, Robot System, and Marker
DE102017009223A1 (de) 2016-10-11 2018-04-12 Fanuc Corporation Steuervorrichtung zum Steuern eines Roboters durch Lernen einer Aktion einer Person, Robotersystem und Produktionssystem
DE102017123877B4 (de) 2016-10-14 2019-09-19 Engel Austria Gmbh Robotersystem
EP3744484A1 (de) 2018-01-23 2020-12-02 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und informationsverarbeitungssystem
DE102018000733A1 (de) 2018-01-29 2019-08-01 IGZ Ingenieurgesellschaft für logistische Informationssysteme mbH Überwachungs- und Bediensystem für einen Fertigungsarbeitsplatz und Verfahren zur Unterstützung und Überwachung eines Werkers beim Prozess zum Montieren oder Fertigen eines Produkts oder Teilprodukts
EP3597374A1 (de) 2018-05-18 2020-01-22 Toyota Jidosha Kabushiki Kaisha Haltevorrichtung, mit etikett versehener behälter, objekthalteprogramm und objekthalteverfahren
WO2021050646A1 (en) 2019-09-11 2021-03-18 Dmg Mori Co., Ltd. Robot-mounted moving device, system, and machine tool

Also Published As

Publication number Publication date
CN117120220A (zh) 2023-11-24
WO2022253536A1 (de) 2022-12-08
US20240238981A1 (en) 2024-07-18

Similar Documents

Publication Publication Date Title
DE112011103794B4 (de) Aufnehmervorrichtung für Werkstücke
DE102014016069B4 (de) Vorrichtung und Verfahren zum Aufnehmen eines Gegenstandes im 3- dimensionalen Raum mit einem Roboter
DE102013109220B4 (de) Robotervorrichtung und Verfahren zum Herausnehmen von Bulk-Ware aus einem Lager
DE102014016072B4 (de) Vorrichtung und Verfahren zum Aufheben eines willkürlich aufgestapelten Gegenstands mittels eines Roboters
EP3587044B1 (de) Verfahren zum greifen von objekten in einem suchbereich und positioniersystem
DE102009005861A1 (de) Fahrzeugumgebungs-Erkennungssystem
EP3160219B1 (de) Verfahren und vorrichtung zur platzierung elektronischer bauteile
EP3103063A1 (de) Erkennung einer sitzbelegung mittels einer kamera
DE102016206980B4 (de) Verfahren zur Handhabung eines Körpers und Handhabungsvorrichtung
EP3726425B1 (de) Verfahren zum physikalischen, insbesondere zum optischen, erfassen zumindest eines nutzungsobjektes
DE102021114264A1 (de) Robotervorrichtung eingerichtet zur Ermittlung einer Interaktionsmaschinenlage zumindest eines Elements einer vorbestimmten Interaktionsmaschine und Verfahren
DE102021114265A1 (de) Robotervorrichtung eingerichtet zur Ermittlung einer Zielobjektlage eines vorbestimmten Zielobjekts und Verfahren
EP3048456B1 (de) Verfahren zur lokalisierung von greifpunkten von objekten
DE102017006616A1 (de) System zur Lageerfassung und Verfahren zur Lageerfassung
DE102020209080A1 (de) Bildverarbeitungssystem
DE102021114268A1 (de) Robotervorrichtung eingerichtet zur Ermittlung einer Infrastrukturobjektlage eines vorbestimmten Infrastrukturobjekts und Verfahren
DE102017221381A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Ermitteln eines Abstandes zu einem Objekt
DE102017218773A1 (de) Verfahren und Vorrichtung zum Ansteuern eines Aktors
DE102016104021A1 (de) Verfahren zum Verfolgen eines Zielfahrzeugs anhand einer eine Radgeometrie des Zielfahrzeugs charakterisierenden Referenzgeometrie, Kamerasystem und Kraftfahrzeug
DE102008060768A1 (de) Verfahren zur Klassifizierung von detektierten artikulierten Objekten und/oder Teilen des artikulierten Objektes
DE102016006232A1 (de) Verfahren und System zur Ausrichtung eines virtuellen Modells an einem realen Objekt
DE102019110344A1 (de) Vorrichtung zum physikalischen, insbesondere zum optischen, Erfassen zumindest eines Nutzungsobjektes
EP2497065B1 (de) Verfahren zur bestimmung der ausrichtung eines oberen teils eines stückgutstapels
EP4286790B1 (de) Vorrichtung und verfahren zum ermitteln der räumlichen lage von aufnahmeelementen eines containers
EP4141805A1 (de) Verfahren zum erzeugen, automatisierten annotieren und bereitstellen von trainings-bilddaten

Legal Events

Date Code Title Description
R163 Identified publications notified