Digitale MethodenProjekte
Hot VIVE Cutting

Hot VIVE Cutting

Erweiterung des robotischen Arbeitsbereichs durch Motion-Tracking großer Werkstücke




Projekt

Problemdefinition

Stationäre Roboter haben einen definierten Arbeitsraum, der die Größe der Werkstücke begrenzt. Industrieroboter erweitern diese Grenzen in der Regel durch das Hinzufügen einer zusätzlichen Achse. Sie sind daher auf teure Hardware mit geringen Toleranzen und eine anwenderspezifische Integration in das System angewiesen. Zeitgenössische kollaborative Roboter ermöglichen neue Wege der Mensch-Roboter-Kollaboration, indem sie eine sichere Roboterarbeitsumgebung bieten. Obwohl sie wesentlich beweglicher sind als Industrieroboter, haben diese kollaborativen Roboter immer noch das gleiche Verhältnis von Größe zu Arbeitsraum und damit die gleichen Einschränkungen bei der Handhabung größerer Werkstücke.

 

Lösung

Wir schlagen eine Lösung vor, bei der ein kostengünstiges Motion-Tracking-System von einer HTC Vive am Werkstück angebracht wird, das dann den Roboter Toolpath in Echtzeit aktualisiert. Auf diese Weise kann eine Person große Materialstücke manuell durch den stationären Roboterarbeitsraum bewegen. Der Roboter führt dann lokale Manipulationen in dem Bereich des Werkstücks aus, der sich zu diesem Zeitpunkt in Reichweite des Roboter-Endeffektors befindet. Ein solches Szenario würde den Einsatz von Robotern im Bereich der Herstellung von Architekturkomponenten erweitern und traditionelle Handwerkskunst und Roboter einander näher bringen.

 

Proof of Concept

Um dieses Konzept zu testen, haben wir die Aufgabe definiert, eine Reihe von 2 Meter hohen Architektursäulen herzustellen, bei denen ein UR5-Roboter große Styropor-Werkstücke mit Heißdrahtschneiden in Form bringt. Jede Säule wurde aus einem einzelnen Block von 2000 mm x 400 mm x 400 mm Material geschnitten. Das Werkstück wurde mit zwei Vive-Tracker ausgestattet. Das Material wurde manuell entlang einer Linearführung geschoben. Der technische Aufbau für diesen Proof-of-Concept besteht aus Rhino, Grasshopper und dem Robots Plug-in zur Erzeugung von UR-Script-Code und dessen Übermittlung an die Steuerung über eine Socket-Verbindung. Die Vive-Position wurde über die Steam VR API erfasst und in Grasshopper gestreamt.

Dieser Text wurde aus dem Englischen übersetzt.

 

Informationen

Projektverantwortlich:

  • Victor Sardenberg

Beteiligte:

  • Prof. Mirco Becker
  • Marco Schacht
  • Mohamed Hassan  

Publikationen:

  • Extending the Robotic Workspace by Motion Tracking Large Workpieces, HCI International 2020 - Posters
  • Extending the Robotic Workspace by Motion Tracking Large Workpieces, ACADIA 2020 - Videos

Links: