Muenchner_Wissenschaftstage_Auditorium_Foto_Frank_Holl_72
Anzeige, sponsored by Münchner Wissenschaftstage e.V.

Münchner Wissenschaftstage: Robotikspezialist Alin Albu-Schäffer im Interview

Münchner Wissenschaftstage e.V.

Am Samstag, 10. November starten für vier Tage die Münchner Wissenschaftstage. Wir konnten Professor Albu-Schäffer, der am Lehrstuhl für sensorbasierte Robotersysteme und intelligente Assistenzsysteme an der TU München arbeitet und das Institut für Robotik und Mechatronik im Deutschen Zentrum für Luft- und Raumfahrt leitet, entlocken, welche Errungenschaften aus dem Weltall das Leben auf der Erde in Zukunft positiv beeinflussen werden.

Die 18. Münchner Wissenschaftstage: Wissenschaft verständlich gemacht

In 28 Vorträgen erläutern Spitzenwissenschaftler in der Alten Kongresshalle die neuen Triebkräfte, die unsere Arbeitswelt verändern. Das beste: Der Eintritt zu allen Veranstaltungen ist kostenlos! Zu den Vorträgen tagsüber gibt es vier Themenabende. So wird am Samstag Abend, 10. November, gefragt: „Wie verändern Künstliche Intelligenz und Roboter unsere Arbeitswelt?“

Gäste sind neben dem führenden Robotikspezialisten Prof. Alin Albu-Schäffer, Prof. Sami Haddadin und Prof. Sabine Pfeiffer. Den Abend moderiert Jens Schröder, Chefredakteur von National Geographic Deutschland.

Black And White Robot GIF - Find & Share on GIPHY

Alin Albu-Schäffer im Interview

Mucbook: Was erwartet die ZuhörerInnen am 10. November?

Alin Albu-Schäffer: Ich werde hauptsächlich die Experimente vorstellen, die wir in den letzten eineinhalb Jahren auf der internationalen Raumstation durchgeführt haben.

In welchen Bereichen lässt sich das auf die Erde übertragen?

Zum einen in Richtung Fabrik der Zukunft, in der Assistenzsysteme zum Beispiel in Produktion oder im Bereich Logistik helfen könnten. Vor allem aber im Bereich der Medizin und Pflege wird es viele Anknüpfungspunkte geben.

Welche genau?

Zum Beispiel werden Rollstuhlpatienten ihre Selbständigkeit teilweise wiedererlangen können. Für Menschen mit massiven Bewegungseinschränkungen, wie zum Beispiel bei Muskelatrophie, haben wir einen Roboterarm an einem Rollstuhl entwickelt, den die Patienten mit ihrer Restmuskelanspannung ansteuern können. Hier kommen Robotik, maschinelles Lernen und Künstliche Intelligenz zusammen. Ich vergleiche das immer mit dem Tippen einer SMS: Schon bei den ersten zwei Buchstaben werden Wortvorschläge gemacht. So ähnlich agiert der Roboterarm dank seiner lokalen Intelligenz. Nähert sich der Patient einem Tisch, schlägt er vor, welcher Gegenstand auf dem Tisch – etwa ein Wasserglas – gegriffen werden könnte. Bestätigt der Patient, kann der Arm den Griff größtenteils selbständig durchführen – nur das Tempo weiterhin wird vom Patienten bestimmt.

Seit wann forschen Sie daran?

Unser DLR-Institut hat erstmals mit amerikanischen Wissenschaftlern 2012 daran gearbeitet und die Ergebnisse in der Fachzeitschrift Nature veröffentlicht. Allerdings ist es in den USA möglich, solche Bewegungen über Gehirnimplantate zu steuern. Diese Sensoren sind in Europa noch nicht zugelassen. In Deutschland forschen wir deshalb seit vier Jahren auch an nichtinvasiven Methoden, z.B. mit elektromyographischen Sensoren, die auf der Haut aufgeklebt werden.

Das interessante ist allerdings, dass wir uns nicht nur auf die Steuerung mit dem Patienten beschränken. Wir forschen beispielsweise auch an einem Gesamtkonzept, bei dem Angehörige interagieren können. Für weit weg wohnende Verwandte könnte es in Zukunft hilfreich sein, sich über das Smartphone oder das Tablet einzuwählen und zu schauen, wie es der Oma oder dem Opa geht.

Als weiteren Schritt könnte es speziell ausgebildete Tele-Pfleger geben, die man anrufen kann, sollte etwas nicht funktionieren oder ein Notfall eintreten. Die Idee ist also, dass der Patient so selbstständig wie möglich zurecht kommen soll. Klappt das nicht, meldet er oder sie sich entweder bei der Familie oder eben als letzter Schritt bei den Tele-Pflegern.

Und was ist mit dem klassischen Pflegeroboter für zu Hause?

Das ist die zweite Lösung, an der wir derzeit arbeiten – ein humanoider Roboter, der einem im Haushalt oder in der stationären Pflege hilft, Sachen vom Boden aufhebt oder in einem Krankenhaus Medikamente sucht und verteilt. Auch hier könnten sich Angehörige einwählen und mithelfen, beispielsweise die Brille auf dem Boden zu suchen. In diesem Bereich werden in Zukunft DLR und TU München voraussichtlich enger zusammenarbeiten, z.B. im Rahmen der Geriatronik-Initiative in Garmisch-Partenkirchen. Das Besondere an der DLR-Technologie ist, dass wir in Weltraumszenarien den humanoiden Roboter zusammen mit Astronauten sehr ausführlich getestet haben, etwa für eine Station auf dem Mars. Daher können wir auf ausgereifte Roboter-Lösungen zurückgreifen.

Sie erwähnten vorher eine smarte Fabrik. Wie kann man sich die vorstellen?

Mobile Roboter werden autonom in einer Fabrikhalle fahren und erledigen unter anderem Hol- und Bringdienste. Assistenzsysteme helfen Menschen beim Montieren oder Tragen von schweren Werkstücken, wie das ja zum Teil jetzt schon passiert. Da geht es auch wieder um autonomes Verhalten. Nicht nur was der Roboter macht, steht im Mittelpunkt, sondern wie er es macht – wie kommt er in einer Halle von A nach B. Wie interagieren diese Roboter mit Menschen oder wie reagieren sie auf Hindernisse. Hier spielt die Bilderkennung der Künstlichen Intelligenz eine Rolle. Spannend ist, was wir aus dieser Arbeit über uns selbst, über die Fertigkeiten und die Intelligenz des Menschen lernen.

Wie meinen Sie das?

Wir versuchen ja in der Robotik, wesentliche Fähigkeiten des Menschen zu verstehen und nachzubilden. Wie entstehen Bewegungen und wie reagieren Menschen auf unvorhergesehene Ereignisse? Wie kommunizieren wir untereinander während der Arbeit, und wie lösen wir knifflige Aufgaben? Wenn man dies besser versteht, kann man bessere Roboter bauen, die von Menschen als Helfer auch akzeptiert werden. Andersherum kann man dank der KI und der Robotik erst einmal bestimmte Hypothesen diesbezüglich an Robotern testen und daraus Kenntnisse für die Neurowissenschaften gewinnen. Im Umkehrschluss ließen sich dadurch so manche Experimente an Menschen oder Tieren zukünftig vermeiden. Zumindest erste Validierungsschritte könnten zunächst an Robotersystemen erfolgen.

Robots Telus Original GIF by TELUS STORYHIVE - Find & Share on GIPHY

Zum Abschluss: Was ist Ihre größte Vision?

Mich interessiert brennend, wie menschenzentrierte Robotik mit den vielseitigen Anwendungsmöglichkeiten uns helfen kann. Im Bereich Raumfahrt interessieren mich unentdeckte Welten. Gab es beispielsweise früher primitive Formen des Lebens auf dem Mars? Und wie sieht zukünftiges menschliches Leben auf dem Mars aus? Ich arbeite ja auch noch am Deutschen Zentrum für Luft- und Raumfahrt. Aber auch die „breite“ Anwendung finde ich wichtig, wie Roboter im Haushalt zum Beispiel. Das ist eine Antwort auf den demographischen Wandel und eine überalternde Gesellschaft. Ich glaube daran, dass Roboter eines Tages ähnlich verbreitet sein werden wie Autos. Es geht schließlich um Systeme, die die Selbstständigkeit von Menschen erhalten und verlängern. Vielleicht ist auch der Begriff Pflegerobotik gar nicht der richtige. Wie wäre es stattdessen mit Autonomiehelfer?


In aller Kürze:

Was?  Münchner Wissenschaftstage:

Wann? 10. November

Wo? Alte Kongresshalle

Thema: „Wie verändern Künstliche Intelligenz und Roboter unsere Arbeitswelt?“ Gäste sind neben dem führenden Robotikspezialisten Prof. Alin Albu-Schäffer, Prof. Sami Haddadin und Prof. Sabine Pfeiffer. Den Abend moderiert Jens Schröder, Chefredakteur von National Geographic Deutschland.


Foto: Frank Holl, Interview: Ronja Lotz

No Comments

Post A Comment

Simple Share Buttons
Simple Share Buttons