Ziel des Projektes ist die intuitive Programmierung von Robotern für komplexe Montageprozesse mit natürlichen Kommunikationsmethoden durch Nicht-Experten. Damit Robotersysteme von einem nicht fachkundigen Benutzer lernen können, sollte das Robotersystem zunächst die Absicht des Benutzers verstehen. In diesem Projekt werden menschliche Absichten sowohl durch die verbale Kommunikation als auch durch die Beobachtung menschlicher Aktionen verstanden. Um die menschlichen Absichten durch Sprachkommunikation zu erkennen, wird PROFACTOR zusammen mit LIFEtool an der Entwicklung einer neuen Kommunikationsschnittstelle für Roboter arbeiten. LIFEtool mit seinem umfangreichen Wissen über Online- und Offline-Spracherkennungstechnologien wird PROFACTOR bei der Entwicklung einer Schnittstelle unterstützen, um die Sprachkommunikation zwischen Menschen und Roboter zu ermöglichen. Des weiteren wird PROFACTOR ein „portables“ Aktivitätserkennungssystem entwickeln, das in der Lage ist, menschliche Aktionen mit Hilfe von kostengünstigen Sensoren zu erkennen. Dabei wird auch eine Machbarkeitsstudie durchgeführt, um die Anwendbarkeit eines solchen Systems zur Erkennung von Aktivitäten/Gesten auf andere Fachbereiche (Gesundheitswesen) teilweise zu validieren. Der Vorteil eines solchen Moduls wäre seine Anwendbarkeit auf verschiedene Szenarien, die das Verständnis menschlicher Absichten erfordern.
PROFACTOR kombiniert zwei Strategien um das Ziel, dass Nicht-Experten Robotersysteme einfach neue Prozesse anlernen können, zu erreichen. Zunächst wird ein ‚Lernen durch Interaktion‘ Framework entwickelt, in dem der Roboter dem Benutzer während des Lernprozesses eine Reihe von intelligenten Vorschlägen unterbreitet. Der Roboter nutzt seine Fähigkeiten zur Wissensmodellierung und Argumentation und berücksichtigt die „aktuelle Situation“ (mit dem Aktivitätserkennungssystem erkannt) der Montageumgebung, um diese Vorschläge zu unterbreiten. Anschließend wird ein ‚Lernen durch Instruktion‘ Framework entwickelt, das die Verwendung von „Natural Language“ als Kommunikationsmodus zwischen dem Benutzer und dem Roboter ermöglicht. Beide Frameworks werden dann zu einem bidirektionalen Kommunikationskanal zwischen dem Anwender und dem Roboter kombiniert, um Feedback zu geben oder den Montageprozess (ganz oder teilweise) neu zu erlernen.
Projektname:
BRIDGE – HUMAN ROBOT INTERACTION (TEACHBOTS)
Industrieprojekt
Laufzeit:
04.2019 – 12.2020
Partner:
Profactor GmbH
LIFEtool GmbH