KI-Systeme und selbstlernende Roboter arbeiten schon heute in vielen Bereichen mit den Menschen zusammen. In der Industrieproduktion oder beim automatisierten Fahren wird bereits während der Entwicklung des KI-Systems für verschiedene Aufgaben ein bestimmter Autonomiegrad festgeschrieben. Wie die Arbeitsteilung zwischen Mensch und KI-System aussieht und wie selbstständig das System agiert, hängt dabei von seinen Fähigkeiten, der Art der Aufgabe und der Umgebung ab.
Anders als in den stark geregelten Anwendungsbereichen Mobilität und Industrie ist der Einsatz eines selbstlernenden Systems bei Naturkatastrophen oder Löscharbeiten im Vorfeld schwerer zu planen. Diese sogenannten lebensfeindlichen Umgebungen sind sehr vielfältig und in der Regel unbekannt. Einsätze hier hätten eine hohe Variabilität, verbunden mit sehr unterschiedlichen Anforderungen an die Autonomie in der jeweiligen Situation, heißt es in dem Whitepaper. Als Faustregel nennen die Autoren des Whitepapers: mangelnde Kompetenz des Systems bedeutet immer einen erhöhten Eingriff durch den Menschen, bis hin zur Fernsteuerung des Systems.
„Beim Einsatz selbstlernender Roboter in lebensfeindlichen Umgebungen gilt: soviel Autonomie wie möglich, so wenig menschlicher Eingriff wie nötig. Das KI-System kann den Menschen nur dann vor Gefahren schützen, wenn es seine Aufgaben eigenständig und zuverlässig erledigt. Andererseits ergeben sich in gefährlichen Umgebungen schnell unvorhersehbare Situationen, in denen der Mensch ins Geschehen eingreifen können muss, zum Beispiel bei der Entscheidung, welches Brandopfer zuerst geborgen wird“, sagt Mitautor Jürgen Beyerer, Leiter der Fraunhofer Instituts für Optronik, Systemtechnik und Bildauswertung (IOSB), Professor für Interaktive Echtzeitsysteme am Karlsruher Institut für Technologie (KIT) sowie Leiter der Arbeitsgruppe Lebensfeindliche Umgebungen der Plattform Lernende Systeme.
Variable Autonomiegrade ermöglichen Anpassung an unvorhersehbare Situation
Neben ethisch problematischen Fragen können auch rechtlich unklare Situationen entstehen, oder der autonome Roboter benötigt technische Unterstützung, etwa weil er sich festgefahren hat. Um diese besonderen dynamischen Anforderungen lebensfeindlicher Umgebungen an autonome Systeme zu meistern, müssen die Systeme in der Lage sein, den Grad ihrer Autonomie während des Einsatzes an die jeweilige Situation anzupassen. Oder der Mensch muss diesen anpassen. Statt der in anderen Einsatzbereichen etablierten starren Konzepte für Autonomiestufen seien für den Einsatz von selbstlernenden Systemen in lebensfeindlichen Umgebungen variable und kontinuierlich veränderbare Autonomiegrade während der Einsatzzeit umzusetzen, empfehlen die Autoren.
In einer gelungenen Zusammenarbeit mit dem autonomen System sollte der Mensch dessen Einsatz möglichst nicht Schritt für Schritt mitverfolgen müssen. Vielmehr soll er durch die Arbeitsteilung mit dem Roboter Zeit gewinnen, um wichtigere Aufgaben zu erledigen. Deshalb ist es erstrebenswert, dass autonome Systeme den Menschen selbstständig und zuverlässig dann informieren und involvieren, wenn sie auf Probleme treffen, die sie selbst nicht lösen können und deshalb Hilfe, Teleoperation oder Entscheidungen durch den Menschen anfordern.
„Damit Lernende Systeme in lebensgefährlichen Umgebungen, wie beim Katastropheneinsatz oder auch bei Weltraum-Missionen, angemessen einsatzfähig sind, ist nicht alleine die Autonomie von Bedeutung, sondern auch der jeweilige Kontext der Handlung im Zusammenspiel mit der Kompetenz des Systems. Die Entscheidung zum richtigen Grad an Autonomie muss diese Faktoren berücksichtigen. Wenn Lernende Systeme diese Entscheidung selbst vornehmen sollen, beispielsweise auch um den Autonomiegrad eigenständig anzupassen, müssen wir Systeme entwickeln, die ihre Kompetenzen analysieren und in Bezug zur Handlung setzen können. Damit versetzen wir sie dann auch in die Lage einschätzen zu können, ob ihre Kompetenzen zur Lösung eines Problems ausreichen oder die Unterstützung durch den Menschen erforderlich ist“, sagt Mitautor Sirko Straube vom Deutschen Forschungszentrum für Künstliche Intelligenz in Bremen, Mitglied der Arbeitsgruppe Lebensfeindliche Umgebungen der Plattform Lernende Systeme.
Aktuell besitzen autonome Systeme in gefährlichen Umgebungen noch nicht die Fähigkeit, ihre Lage selbstständig einzuschätzen und mit ihren Kompetenzen abzugleichen. Hier besteht erheblicher Forschungsbedarf. Zum gegenwärtigen Zeitpunkt werden Einsätze autonomer Systeme niemals ohne den Menschen als Überwacher stattfinden. Auch in Zukunft bleibe der Mensch die übergeordnete Instanz, die im Zweifel immer die Letztentscheidung behält, so die Autoren.