Trends Grundlagen Magazin

iStock.com/Nomadsoul1

KI-Systeme: Training für die Anwendung in Gefahrensituationen

Die Arbeiten auf Heidelberger Seite, die von der Deutschen Forschungsgemeinschaft über einen Zeitraum von drei Jahren mit rund 300.000 Euro gefördert würden, leite Prof. Dr. Carsten Rother vom Interdisziplinären Zentrum für Wissenschaftliches Rechnen (IWR), teilte die Hochschule mit. „In naher Zukunft werden KI-basierte Systeme in vielen Bereichen unseres Lebens eingesetzt und mit dem Menschen in sich dynamisch verändernden Umgebungen koexistieren“, sagte Rother. „Trotz erheblicher Fortschritte im Bereich des Maschinellen Lernens funktionieren derartige Systeme jedoch noch nicht in allen Szenarien zuverlässig. Das gilt insbesondere für Situationen, die gefährlich sind und im Alltag selten auftreten“, betont der Experte.

Vor diesem Hintergrund wollten die Wissenschaftler dedizierte Soft- und Hardware entwickeln, um auf der Basis von Bildern und Videoaufnahmen neue Daten für das Maschinelle Lernen (ML) zu generieren, so die Universität. Dies solle Forscher in die Lage versetzen, gezielt seltene Szenarien zu erzeugen und dadurch eigene Anwendungen der KI zu testen und zu verbessern.

KI-Systeme müssen in gefährlichen Situationen einerseits so autonom wie möglich agieren, damit Menschen in sicherem Abstand zur Gefahrenzone bleiben können. Andererseits muss der Mensch in problematischen Situationen jederzeit in das Geschehen eingreifen können. Notwendig dafür seien Roboter, die den Grad ihrer Autonomie während eines Einsatzes flexibel an die vorgefundene Lage anpassen könnten, teilte die Plattform Lernende Systeme am Dienstag in München mit. In einem aktuellen Whitepaper der Plattform erläutern Experten, wie solche variabel autonomen Systeme gestaltet sein müssten und welche technischen Voraussetzungen dafür noch zu schaffen seien.


Unterschiedliche Anforderungen an die Autonomie
Anders als in den stark geregelten Anwendungsbereichen Mobilität und Industrie sei der Einsatz eines selbstlernenden Systems bei Naturkatastrophen oder Löscharbeiten im Vorfeld schwerer zu planen, hieß es. Lebensfeindliche Umgebungen seien sehr vielfältig und in der Regel unbekannt. Einsätze hier hätten eine hohe Variabilität, verbunden mit sehr unterschiedlichen Anforderungen an die Autonomie in der jeweiligen Situation, heißt es in dem Whitepaper. Als Faustregel nennen die Autoren: Mangelnde Kompetenz des Systems bedeute immer einen erhöhten Eingriff durch den Menschen, bis hin zur Fernsteuerung des Systems.

„Beim Einsatz selbstlernender Roboter in lebensfeindlichen Umgebungen gilt: soviel Autonomie wie möglich, so wenig menschlicher Eingriff wie nötig. Das KI-System kann den Menschen nur dann vor Gefahren schützen, wenn es seine Aufgaben eigenständig und zuverlässig erledigt. Allerdings ergäben sich in gefährlichen Umgebungen „schnell unvorhersehbare Situationen, in denen der Mensch ins Geschehen eingreifen können muss, zum Beispiel bei der Entscheidung, welches Brandopfer zuerst geborgen wird“, erklärte Mitautor Jürgen Beyerer, Leiter der Fraunhofer Instituts für Optronik, Systemtechnik und Bildauswertung (IOSB).

Neben ethisch problematischen Fragen könnten auch rechtlich unklare Situationen entstehen, oder der autonome Roboter benötige technische Unterstützung, weil er sich etwa festgefahren habe, so das Whitepaper. Um diese besonderen dynamischen Anforderungen lebensfeindlicher Umgebungen an autonome Systeme zu meistern, müssten die Systeme in der Lage sein, den Grad ihrer Autonomie während des Einsatzes an die jeweilige Situation anzupassen oder der Mensch müsse diesen anpassen. Statt der in anderen Einsatzbereichen etablierten starren Konzepte für Autonomiestufen seien für den Einsatz von selbstlernenden Systemen in lebensfeindlichen Umgebungen variable und kontinuierlich veränderbare Autonomiegrade während der Einsatzzeit umzusetzen, empfehlen die Autoren.


Durch die Arbeitsteilung mit dem Roboter Zeit gewinnen
In einer gelungenen Zusammenarbeit mit dem autonomen System sollte der Mensch dessen Einsatz möglichst nicht Schritt für Schritt mitverfolgen müssen. Vielmehr solle er durch die Arbeitsteilung mit dem Roboter Zeit gewinnen, um wichtigere Aufgaben zu erledigen. Deshalb sei es erstrebenswert, dass autonome Systeme den Menschen selbstständig und zuverlässig dann informieren und involvieren, „wenn sie auf Probleme treffen, die sie selbst nicht lösen können und deshalb Hilfe, Teleoperation oder Entscheidungen durch den Menschen anfordern“, hieß es.

Aktuell besäßen autonome Systeme in gefährlichen Umgebungen noch nicht die Fähigkeit, ihre Lage selbstständig einzuschätzen und mit ihren Kompetenzen abzugleichen. Hier bestehe erheblicher Forschungsbedarf. „Zum gegenwärtigen Zeitpunkt werden Einsätze autonomer Systeme niemals ohne den Menschen als Überwacher stattfinden“. Auch in Zukunft bleibe der Mensch die übergeordnete Instanz, die im Zweifel immer die Letztentscheidung behält, so die Autoren. (ud)

Stichworte

Verwandte Artikel

Anzeige

Lexikoneinträge