Placeholder

IoT

Die Zukunft kommt: 5Ganz Österreich

  • Vorheriger
  • Artikel
Placeholder

IoT

Alles digital in Ihrer Ordination?

  • Nächster
  • Artikel

Lesedauer

3 Minuten

IoT

„Die Künstliche Intelligenz ist nicht intelligent“

Helmut Leopold, Head of Center for Digital Safety & Security am AIT Austrian Institute of Technology.

Helmut Leopold, Head of Center for Digital Safety & Security am AIT Austrian Institute of Technology, über den derzeitigen Zugang zur Künstlichen Intelligenz und wie klug KI wirklich ist.

A1: Die ganze Welt spricht von der Künstlichen Intelligenz. Aber was ist das eigentlich?

 

Helmut Leopold: Gute Frage, weil hier immer wieder Irrtümer in der öffentlichen Diskussion entstehen. Künstliche Intelligenz ist vor allem etwas, das wir erst kennen lernen müssen – damit kein Irrglaube entsteht und wir nicht Vertrauen in etwas setzen, das wir gar nicht genau verstehen. Es ist schlicht eine Fantasie, dass die künstliche Intelligenz wirklich intelligent ist. Sie ist nur so klug, wie wir sie machen oder ihr das erlauben. Das Verständnis für eine neue Technologie, das Wissen, wie ich sie anwende, aber auch, welche Verhaltenscodices oder nötigen Beschränkungen ich damit verbinde, sind essenziell und noch lange nicht zu Ende diskutiert.

 

A1: Aber es gibt doch sehr viel anwendungsorientierte Forschung, wie auch beispielsweise in Ihrem Center am AIT. Reicht das nicht?

 

Helmut Leopold: Es ist ein wichtiger Anfang. Wir haben immer noch ein Defizit im Verständnis der Technologie: Eine Maschine mag auf den ersten Blick bessere Entscheidungen treffen als Menschen – aber es kommt immer auf den Kontext an. Daher raten echte Experten ja auch zur Vorsicht in der Anwendung. Wir müssen lernen, wie wir die Technologie beherrschen. Wir müssen die technologischen Komponenten von KI-Systemen so designen und bauen, dass wir Entscheidungen von Maschinen verstehen und nachvollziehen können. Am AIT testen und validieren wir dazu Software in unterschiedlichsten Bereichen auf Fehler. Bei wichtigen Systemen wie Steuerungsanlagen für Maschinen, Autos, Züge und Flugzeuge wird ein sehr großer Aufwand für das Testen der Systeme betrieben, damit diese auch höchst zuverlässig funktionieren. Im Bereich der Künstlichen Intelligenz ist das schon schwieriger. Da braucht es neue Ansätze, neue Verfahren.

 

A1: Wann kommt denn Ihrer Meinung nach das automatisiert fahrende Auto in den Massenverkehr?

 

Helmut Leopold: Es muss noch dauern, weil ein Auto ein sicherheitskritisches System ist! Durch die neuen Funktionen des automatisierten Fahrens, die unsere menschlichen Entscheidungen und Steuerungen ersetzen, wird diese Frage eben noch viel wichtiger. Selbst wenn ich nur ein kleines Stück Software austausche, wird von unseren Experten das gesamte Systemverhalten aller Einzelteile immer wieder vollständig getestet. Nur so ist gewährleistet, dass das Gesamtsystem sicher und korrekt funktioniert. Das dauert natürlich lange, deshalb sind Software-Updates bei Flugzeugen von einer ganz anderen Zeitdimension als ein Update auf Ihrem Smartphone. Denn hinter so großen Sicherheitssystemen, die ja auch den Schutz von Leib und Leben betreffen, stehen strenge Regeln und der Grundsatz, dass wir die Funktionsweise der Technik verstehen und immer nachvollziehen können. Dies benötigen wir auch für die KI – und damit für das automatisierte Fahren. Deshalb verfolgen wir am AIT bewusst einen interdisziplinären Ansatz. Wir integrieren bereits in der Design-Phase die unterschiedlichen Anforderungen aus Zuverlässigkeitssicht (Safety) sowie gleichzeitig die Sicherheitsanforderungen (Security). Wir verfolgen also Safety und Security by Design-Ansätze durch spezielle Entwicklungswerkzeuge für Systemmodellierungen. Das ergänzen wir mit modernsten Testmethoden wie etwa automatischen Testfallgenerierungen und setzen Echtzeitmonitoring-Systeme für sensible Steuerungselektronik ein.

 

A1: Was sind aus Ihrer Sicht die wichtigsten noch offenen Fragen in der KI-Entwicklung?

 

Helmut Leopold: Wir brauchen unbedingt Erklärungsmechanismen für das Systemverhalten von KI-Systemen – also Explainable AI. Dabei werden  KI-Systeme so designt und gebaut, dass das Verhalten nachvollzogen, getestet und verifiziert werden kann. Noch verstehen wir auch zu wenig, welche Faktoren KI-Systeme zu falschen Ergebnissen verleiten können. Viele Forschungsprojekte zeigen, dass KI-Systeme mit einfachen Mitteln überlistet werden können. Es genügen z. B. geringe optische Änderungen auf Straßenschildern, die für uns Menschen keine Bedeutung hätten, aber einen KI-Sensor in einem Auto völlig überfordern – was fatale Folgen haben könnte. Es ist also noch einiges an Forschung für das Testen, Verifizieren und Zertifizieren von KI-Systemen nötig, damit wir am Ende Maschinen haben, die für uns nützlich sind und keine Gefahr darstellen. Natürlich muss auch der gesellschaftliche Kontext noch genauer analysiert werden: Da kommen Themen wie Regulierung und Ethik ins Spiel. Auch hier ist erst ein klares Verständnis notwendig: Wir brauchen Lösungsansätze, die mögliches technisches Systemverhalten mit Anforderungen der Gesellschaft harmonisieren – und die müssen wir erst noch schaffen.

 

Alles rund um das Internet der Dinge von A1 finden Sie hier.

Artikelübersicht