Skip to main content

© Karlsruher Institut für Technologie (KIT)

KIT-Expertinnen und -Experten zu aktuellen Themen

Künstliche Intelligenz betrifft alle Lebensbereiche

Im Wissenschaftsjahr 2019 dreht sich alles um das Thema Künstliche Intelligenz. Es wurde offiziell in Berlin eröffnet. Am Karlsruher Institut für Technologie (KIT) wird zu diesem wichtigen Zukunftsthema intensiv geforscht: „Lernende Systeme und Künstliche Intelligenz bedeuten eine Umwälzung, auf die wir uns als Gesellschaft vorbereiten müssen“, sagt der Präsident des KIT, Professor Holger Hanselka, der auch dem Lenkungskreis der Plattform Lernende Systeme (PLS) der Bundesregierung angehört.

KI biete gewaltige Möglichkeiten, beispielsweise für die Gestaltung unserer Informationsgesellschaft sowie eine sichere und umweltfreundliche Mobilität. „Information und Mobilität sind Themenfelder, auf die sich das KIT fokussiert, sei es bei intelligenten Übersetzungs- oder Verkehrssystemen, der Entwicklung lernender Roboter für die Assistenz oder dem Einsatz in Industrie 4.0, Logistik, Gesundheitswesen sowie in menschenfeindlichen Umgebungen wie der Tiefsee oder fremden Planeten“, so Hanselka weiter. Dabei müssten indes auch die Risiken für die Cybersicherheit und den Datenschutz in den Blick genommen werden: „Am KIT arbeiten wir daran, die Chancen von KI und deren Gefahren für die IT-Sicherheit in Einklang zu bringen.“ 

KI-Methoden könnten zwar helfen, IT-Systeme sicherer zu machen, erwartet Jörn Müller-Quade, der Leiter der Forschungsgruppe Kryptographie und Sicherheit am KIT. „Aber es wird auch heute noch unbekannte Angriffe mit KI geben“, so der Initiator des Kompetenzzentrums für IT-Sicherheit KASTEL am KIT. Auch das Zerstörungspotenzial klassischerer Angriffswaffen von Cyberkriminellen werde sich durch KI vervielfachen, warnt der Professor, der in der PLS die Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik leitet: „Angriffe werden in Zukunft vermutlich erfolgreicher sein, weil Kriminelle mittels KI automatisiert aus vergangenen Angriffen lernen können.“ Eine Möglichkeit, Angriffe auf KI-Systeme einzudämmen, sieht Müller-Quade darin, diese mit klassischen Systemen zu überwachen, die eine Art Schutzreflex auslösen könnten: „Wenn man auf eine heiße Herdplatte fasst, entscheidet auch nicht die Intelligenz darüber, ob man die Hand auf der Herdplatte lässt oder wegzieht.“  

Dass lernende Systeme in der vorhersehbaren Zukunft den Menschen ersetzen, hält Alexander Waibel für unrealistisch. Zwar sei es möglich, einen Go-Computer mithilfe von Lernalgorithmen auf Weltmeisterschaftsniveau zu bringen. „Aber ein solcher kann sich heute danach nicht selbst beibringen, auch Schach zu spielen“, sagt der Professor und Leiter des Instituts für Anthropomatik und Robotik (IAR) des KIT. Dazu müsste er von Entwicklern komplett umgebaut und neu trainiert werden. Gebraucht werden also Systeme, die sich am menschlichen Lernen orientieren, mit dem Menschen interagieren, von ihm inkrementell lernen, und nicht komplett neu trainiert werden müssen, wenn sich ihre Umgebung ändert. All das spricht eher für eine Symbiose zwischen Mensch und Maschine. Hierfür entwickelt der Professor für Informatik Spracherkennungs- und Dialogsysteme, mit deren Hilfe Roboter einmal lernen können sollen. Die Sprachverarbeitung leistet dem Menschen schon jetzt wichtige Hilfe:  Der von Waibel entwickelte „Lecture Translator“ wird am KIT zur Simultanübersetzung von Vorlesungen für ausländische Studenten eingesetzt und wurde auch schon im europäischen Parlament getestet. Derzeit arbeitet das Team um Waibel daran, das System auch auf dem Smartphone nutzbar zu machen. In einem neuen BMBF Projekt soll die Technologie auch zur besseren Verständigung bei der ärztlichen Behandlung von Migranten beitragen. 

„Das ultimative Ziel der KI-Forschung besteht darin, Systeme zu schaffen, die mit ihrer Umwelt interagieren und diese aktiv verändern können“, sagt Tamim Asfour, Professor für Hochperformante Humanoide Robotik Systeme am IAR. Das KIT erforscht und entwickelt humanoide Roboter, die Aufgaben im Haushalt und in industriellen Umgebungen verrichten. Dabei spielt die Frage eine zentrale Rolle, wie diese ihre Fähigkeiten aus Bildern, Sprache und Tastsinn lernen können. Der humanoide Roboter ARMAR-6 verbessert seine Fähigkeiten mithilfe von Methoden des Maschinellen Lernens, indem er Menschen bei ihren Tätigkeiten beobachtet. Er kann Hand-in-Hand mit dem Menschen bei Wartungsaufgaben in Industrieanlagen arbeiten. Mit KI-Methoden kann er beurteilen, wann ein Techniker Hilfe benötigt und bietet diese an, indem er mit ihm spricht. 

High-Performance-Roboterteams könnten Herausforderungen bewältigen, an denen einzelne spezialisierte Maschinen scheitern. „Autonome Roboternetzwerke werden zukünftig eine Schlüsseltechnologie sein“, sagt Michael Flad, Forschungsgruppenleiter Kooperative Systeme am Institut für Regelungs- und Steuerungssysteme (IRS) des KIT. Schwimmende oder fliegende Drohnen könnten in der Tiefsee oder auf dem Mars geeignete Standorte für Ausrüstung oder Untersuchungen auskundschaften, während sich andere Einheiten dorthin bewegen und Material bringen, verladen und aufbauen. „Für solche Aufgabenstellungen brauchen wir Robotersysteme mit vielfältigen Fähigkeiten“, so Flad. Die Systeme müssen in der Lage sein, ihnen vorher unbekannte Objekte zu greifen und zu manipulieren, sich an sich ändernde Umgebungen anzupassen, und vor allem Aufgaben im Team zu verteilen und abzustimmen. „Dafür brauchen wir zuverlässige Algorithmen, die Informationen bündeln und ihre Koordination ermöglichen, aber auch Schnittstellen, durch die menschliche Bediener und das Roboterteam die Mission gemeinsam planen und koordinieren können.“ Benötigt werden all diese Fähigkeiten auch beim Autonomen Fahren sowie in Logistik und Transport.  

„Das Ziel des Autonomen Fahrens – mehr Sicherheit, Komfort, Energieeffizienz und Zeitersparnis – lässt sich nur verwirklichen, wenn wir die autonomen Systeme so miteinander vernetzen und sie so gestalten, dass sie selbstständig und koordiniert handeln“, sagt Marius Zöllner, Leiter des Testfelds Autonomes Fahren Baden-Württemberg (TAFBW). „Dazu müssen autonome Fahrzeuge sowohl ihre Umgebung wahrnehmen, die jeweilige Situation verstehen und schließlich die richtigen Verhaltensentscheidungen treffen“, so der Professor am Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) des KIT weiter. Dies gelinge mithilfe von Verfahren der KI und des Maschinellen Lernens. Damit das Gesamtsystem am Ende auch zuverlässig und sicher funktioniert, „müssen wir neuronale Netze besser verstehen und ihre Entscheidungen nachvollziehen können. Dazu müssen wir die Art überdenken, wie wir solche Systeme entwickeln.“ 

„Durch lernende Systeme werden sich unsere Arbeitsbedingungen schneller und öfter verändern, als wir das bislang gewohnt waren“, sagt Barbara Deml, Professorin und Leiterin des Instituts für Arbeitswissenschaft und Betriebsorganisation (ifab). „Für Unternehmen bedeutet das, dass sie flexibler und schlanker werden müssen. Für Arbeitnehmer heißt das, dass sie vielleicht gar nicht mehr fest zu einer Organisation gehören, ihre Dienstleistung auf Plattformen anbieten und zeitlich befristet für den ein oder anderen Auftraggeber tätig sind“, erwartet die Psychologin und Ingenieurin. „Das könnte auch unser Verständnis von Unternehmenskultur obsolet machen.“ Diese Punkte müssten aber nicht nur arbeitstechnisch, sondern auch gesellschaftspolitisch angegangen werden: „Wir müssen zum Beispiel vor dem Hintergrund zeitlicher und räumlicher Flexibilitätsanforderungen auch Arbeitsschutz neu denken.“ 

„Bei allen positiven Folgen, die der Weiterentwicklung von KI und Digitalisierung zugeschrieben werden, machen sich viele Menschen Sorgen, weil Fragen nach dem zukünftigen Verhältnis von Mensch und Algorithmus sowie nach möglichem Kontrollverlust noch weitgehend ungeklärt sind“, sagt Armin Grunwald, der Leiter des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS). „Komplexe Software hat eine ähnliche Wirkung wie Institutionen – sie reguliert unser Handeln“, erläutert der Physiker und Philosoph, der auch das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag leitet. „In welcher Weise sie das tut, hängt von den Werten und Interessen ihrer Erzeuger ab. Wenn also Digitalisierung in ethisch reflektierter Weise gestaltet werden soll, muss erforscht werden, wie die Anforderungen an Software und ihre Realisierung aussehen müssten, um Ergebnisse im Einklang mit ethischen Standards erwarten zu lassen. Selbstfahrende Autos sind hier ein gutes Beispiel“, so der Professor weiter.  

„Das Besondere an der KI-Forschung des KIT ist, dass wir die verschiedensten Anwendungsszenarien von KI erforschen, vom Autonomen Fahren über Assistenzroboter für Industrie, Haushalt und Pflege bis hin zur Produktionsrobotik und der Cybersicherheit“, betont Michael Decker, der den Bereich II Informatik, Wirtschaft und Gesellschaft des KIT leitet. Denn einerseits müssten neue KI-Methoden entwickelt werden, um die unterschiedlichen Probleme zu lösen, und andererseits kann man aus gelungenen Lösungen in anderen Anwendungsbereichen lernen. „Dieses problemorientierte Vorgehen nützt unmittelbar der Technikentwicklung. Am KIT haben wir zudem großartige Expertise im Algorithm Engineering. Die strukturierte Entwicklung von Algorithmen, die auch mit gewaltigen Datenmengen umgehen können, ergänzt die KI-Forschung in optimaler Weise“, sagt der Professor für Technikfolgenabschätzung.

-PM Karlsruher Institut für Technologie (KIT)-