Der AI-Act verkörpert die künftige Strategie der Europäischen Union in Bezug auf die Absicherung intelligenter Systeme, sowohl in Hinblick auf die Anwendung von AI in einem breiten Feld an Applikationen und mit speziellem Fokus auf Anwendungen im sicherheitskritischen Bereich. Speziell für letzteren Bereich sind wesentliche Anforderungen für den Umgang und Einsatz intelligenter Systeme geplant.
Ziel dieser Studie sind Empfehlungen zu organisatorischen, technischen und rechtlichen Maßnahmen, die bei der Entwicklung und beim Einsatz von AI-Systemen über deren gesamten Lebenszyklus hinweg gewährleistet werden müssen. Derzeit existieren schon viele Forschungsresultate zum Thema Trustworthy AI, diese zielen jedoch kaum auf Unternehmen und Betreiber kritischer Infrastrukturen ab und berücksichtigen nicht den Entwurf der neuen Verordnung. Ein konkretes Ergebnis dieser Studie besteht darin, die Herausforderungen bei Umsetzung und Überprüfung der Anforderungen aus dem AI-Act in real existierenden kritischen Infrastrukturen aufzuzeigen und Vorschläge zu liefern.
Dabei geht es nicht um rein abstrakte Analysen, sondern auch um die Entwicklung von konkreten Handlungsleitfäden für den Betrieb von AI in kritischen Infrastrukturen und staatlichen Organisationseinheiten. Zusätzlich ist die Dimension der fortschreitenden technologischen Entwicklung von großer Wichtigkeit: Da sich das Feld der AI, aber speziell auch der konkreten Anwendungen, stetig mit hohem Tempo weiterentwickelt, ist im Rahmen einer explorativen Szenarioanalyse eine Projektion dieser künftigen Entwicklung durchzuführen, d.h. es gilt abzuschätzen, welche technologischen Möglichkeiten, aber auch gesellschaftlichen und nutzerseitigen Trends in den nächsten Jahren entstehen und wie sich diese auf die Arbeit staatlicher Stellen und BetreiberInnen kritischer Infrastrukturen auswirken werden. Dazu ist eine fachliche Verankerung im Rahmen von ExpertInnen-Interviews unabdingbar. Wesentlich ist auch die Ableitung sicherheitstechnischer Implikationen aus diesen neuen Entwicklungen und Trends, aber auch die Nutzung von AI im Rahmen von Gegenmaßnahmen- Dabei werden Systeme über ihre gesamte Lebensdauer, von Konzeption über Inbetriebnahme bis hin zur Außerbetriebnahme betrachtet, wobei speziell auch das Thema der Beschaffung von AI durch Nicht-ExpertInnen auf dem Gebiet der AI betrachtet wird.
Um diese Ziele zu erreichen, sind die folgenden Forschungsfrage zu bearbeiten:
- Schaffung einer Methodik zur schnellen systematischen Analyse der zentralen Acts.
- Erhebung, der bedarfsträgerspezifischen Fragestellungen und Anforderungen.
- Strukturierte Analyse der zentralen Acts, Identifikation der wichtigsten Regularien, Standards und Best Practices, auf die diese Acts ausstrahlen.
- Nutzung eines spezifisch adaptierten Ansatzes zur explorativen Szenarienanalyse.
- Beantwortung der Frage, wie die gewonnenen Erkenntnisse zur Verwendung von KMU nutzbar gemacht werden können, bspw. im Rahmen von Guides und Leitfäden.
Dieses Projekt wird daher einen konkreten Nutzen für die sichere Nutzung von AI im Österreichischen und Gesamteuropäischen Kontext leisten.
ProjektleiterIn
Peter Kieseberg, FH St. Pölten
Projekt- bzw. KooperationspartnerInnen
Wiener Zentrum für Rechtsinformatik,
BM.I
Kontakt
Peter Kieseberg
Campusplatz 1
06603126291
Peter.kieseberg(at)fhstp.ac.at
https://isf.fhstp.ac.at/
