MENTOR
Multimodale Erfassung des Normalenvektorfelds transparenter Objekte für Roboter
Projektbeschreibung
SICHERES GREIFEN TRANSPARENTER OBJEKTE
MOTIVATION
Die Entwicklungen der vergangenen Jahre im Bereich der künstlichen Intelligenz (KI) haben der Robotik geholfen, auch in Bereiche fernab der Automobilproduktion Einzug zu halten und deren Prozesse zu optimieren. Diese technologischen Entwicklungen versprechen weiteres Skalierungspotenzial, unter anderem auch in der chemischen und optischen Industrie. Jedoch stehen diese vor besonderen Herausforderungen bei der Automatisierung, da dort hauptsächlich mit Glaskörpern gearbeitet wird, für die bisher keine flexible Lösung zum industriellen Greifen existiert.
ZIEL UND VORGEHEN
Der Stand der Technik erreicht bei der Erkennung von Greifpunkten an Glaskörper eine Erfolgsquote von 72 Prozent (ClearGrasp, Google, Columbia University, ICRA 2020). Das Projekt MENTOR hat zum Ziel, die Erfolgsquote beim Ergreifen von Gläsern und Glaskörpern auf über 98 Prozent steigern. Dafür soll ein aus bis zu sieben in unterschiedlichen Modalitäten arbeitenden Sensoren bestehender Sensorkopf entwickelt werden, der in verschiedene Gesamtsysteme integriert wird. Dazu zählen ein auf Knickarmrobotern basierendes Laborautomatisierungssystem und ein System zur automatischen Prüfung von optischen Komponenten.
INNOVATION UND PERSPEKTIVEN
Die wesentlichen Herausforderungen liegen im Erkennen der Kontur transparenter Objekte und deren Lage im Raum. Um diese und weitere Herausforderungen zu meistern, werden folgende Innovationen im Gesamtverbund angestrebt:
Nutzung von Sensorik in unterschiedlichen Wellenlängenbereichen und Modalitäten.
Datenverarbeitung und -fusion direkt im Sensorkopf.
Schaffung von offenen Schnittstellen für den Einsatz in der Robotik und darüber hinaus.
Mit diesem Ansatz soll ein Sensorsystem entwickelt werden, welches flexibel auch über die im Verbundprojekt behandelten Anwendungsfälle hinaus genutzt werden kann.
UNSER BEITRAG
Unser Beitrag fokussiert sich auf die Entwicklung eines robotischen Baukastensystems zur Handhabung von Glasgefäßen in Laborumgebungen. Zu unseren Aufgaben gehören neben Entwicklung einer Datenverarbeitungsplattform um Mehrwertservices zu ermöglichen auch die Definition und Bereitstellung von standardisierten industriellen Schnittstellen für den Sensorkopf zum Anschluss an die Leitebene. Zudem übernehmen wir die Evaluierung von weiterführenden Datenverarbeitungskonzepten zur Nutzung der Datenverarbeitungsplattform um Mehrwertservices.
Keyfacts
Neues Sensorsystem
Entwicklung eines „Roboterarm-geeigneten“ Sensorkopfs
Kombination von Sensorik in unterschiedlichen Wellenlängenbereichen und Modalitäten
Umfangreiche Datenfusion
Robotergreifen
Baukastensystem
Hardwareunabhängige Software-Services
Kollisionsfreie Bahnplanung
Bilderkennung
Multimodale Bilderkennung
Entwicklung schneller Algorithmen zur Defekterkennung bei der automatischen Handhabung optischer Elemente
Einsatz von KI-Methoden
Laborautomatisierung
Integration in Gesamtsystem
Ermittlung der Greifpunkte der Objekte
Evaluation anhand industrieller Prozesse
Partner & Förderung
Basler AG
Multimodale Bilderkennung von transparenten und semitransparenten Objekten für den industriellen Einsatz
Spheron GmbH
Multimodaler Sensorkopf zur Handhabung und Prüfung von Glaskörpern
DIOPTIC GmbH
Entwicklung schneller Algorithmen zur Defekterkennung bei der automatischen Handhabung optischer Elemente
BASF SE (assoziiert)
Erprobung der Leistungsfähigkeit im Kontext einer realen Anwendung
Förderung
Bundesministerium für Bildung und Forschung
Programm
Photonik Forschung Deutschland – Licht mit Zukunft
Laufzeit
12.2022 – 11.2025
Projektträger
VDI Technologiezentrum GmbH
Projektposter
Projektposter als druckbares PDF
Dieses Forschungs- und Entwicklungsprojekt wird/wurde durch das Bundesministerium für Bildung und Forschung (BMBF) im Programm „Photonik Forschung Deutschland – Licht mit Zukunft“ gefördert und vom Projektträger VDI Technologiezentrum GmbH betreut. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt bei den Autoren.