Traditionelle Automatisierung eignet sich besonders gut für repetitive Tätigkeiten. Sie stößt aber bald an ihre Grenzen sobald Roboter mit dem Menschen zusammenarbeiten sollen. Gerade das Feld der Mensch/Roboter-Kooperation gewinnt jedoch immer größere Bedeutung in Zeiten von Individualisierung und geringer Losgröße.
Um unter diesen Bedingungen kurze Setup-Zeiten zu ermöglichen muss der Roboter Tätigkeiten durch Zusehen erlernen können. Aufbauend auf den Ergebnissen des Vorgängerprojektes sollen daher Methoden erforscht werden um visuelle Information von Objekten mit Roboterbewegungen in Einklang zu bringen.
Dazu werden leistungsvolle auf „deep learning“-basierende 2D-Bildverarbeitungsalgorithmen mit aktuellen Entwicklungen im Bereich des „reinforcement learning “ synergetisch kombiniert.
Die wesentlichen Forschungsziele im Projekt sind:
- Visuelles Verstehen eines demonstrierten Prozesses durch „deep neural networks“ mit Unterstützung durch instrumentierte Werkzeuge.
- Generalisieren des Prozesswissens durch “deep reinforcement learning“.
- Synthese von Bewegungen für neue Teile mittels Movement Primitives.
Projektname:
LERN4MRKII: Erweitertes Modellieren, Erlernen und Abstrahieren von Prozessen für die Mensch-Roboter Kooperation.
Förderung:
AIT Strategisches Forschungsprogramm
Laufzeit:
01.01.2019 – 31.12.2019