BreAkIng Bad: Hacking the AI Act

Ein gemeinsames Projektseminar mit dem Zentrum für interdisziplinäre Studienangebote (ISA) 

der Universität Hamburg im Wintersemester 2023 / 2024, gefördert durch Data Literacy Lehrlabor

„In einem besonderen hermeneutischen Lehransatz treten die Studierenden als „Advocatus Diaboli“ auf: Die Beratungskonzepte sollen zeigen, wie der AI Act mit minimalem Aufwand erfüllt wird und dabei wirtschaftlicher Profit und Inkaufnahme von gesellschaftlichem Risiko maximiert werden können.“ 

In dem Lehrlabor im Studium Generale wurden Beratungskonzepte zur Umsetzung des „AI-Acts“ entwickelt. Die EU will mit dem AI-Act den Einsatz von künstlicher Intelligenz regulieren, um die Gesellschaft vor möglichen Risiken zu schützen. Um aufzudecken, ob und inwiefern der AI-Act dies erfüllen kann, haben die Teilnehmenden angelehnt an das Konzept des „Ethical Hackings“ Beratungskonzepte erstellt, die mögliche Schwächen im AI-Act wirtschaftlich ausnutzen und damit aufdecken könnten.  

In der ersten Phase der Lehrveranstaltung wurden Grundlagen zu den Themen künstliche Intelligenz, Regulatorik und digitaler Ethik mit Hilfe von Online-Kursen sowie in regelmäßigen Präsenztreffen vermittelt. In Workshops mit dem Transferpartner iDIGMA GmbH bekamen die Studierenden außerdem Einblicke in Unternehmenspraktiken wie Risikomanagement und die Operationalisierung von Gesetzen. Darauf aufbauend haben sie als „Advocatus Diaboli“ anhand eines konkreten KI-Systems eine Skizze für ein Beratungskonzept entworfen. Vordergründiges Ziel dieser Konzepte war es, Unternehmen aufzeigen zu können, wie sie den AI-Act mit minimalem Aufwand bei maximalem Gewinn erfüllen können. Das Konzept wurde als Handreichung und Foliensatz ausgearbeitet. Daneben bestanden auch die Möglichkeit, Prototypen für das KI-System mit Jupyter Notebooks zu entwickeln, Marketing-Kampagnen zu konzeptionieren oder detaillierte Profit-Risiko-Kalkulationen durchzuführen. Mit der Auflösung des „Advocatus Diaboli“-Szenario am Ende der Lehrveranstaltung konnten aus den identifizierten gesellschaftsschädlichen, aber legalen Praktiken des Beratungskonzepts Maßnahmen für einen verantwortungsvollen Umgang mit künstlicher Intelligenz abgeleitet werden. 

Anhand von bereitgestellten fiktiven Anwendungsszenarien haben die Studierenden einen Beratungsansatz entwickelt und vorgestellt. Dabei entstanden erste Handreichungen, die bei realen Beratungsprojekten mit ähnlichen Herausforderungen als Vorlage dienen können. 

Anwendungsszenario „SYSTEM ZUR VIDEOÜBERWACHUNG MIT KI-AUSWERTUNG“

Eines dieser fiktiven Anwendungsszenarien handelt von einem System zur Videoüberwachung mit KI-Auswertung: Betreiber eines Einkaufszentrums planten die Implementierung eines KI-gestützten Kamera-Systems, welches automatisiert potenzielle körperliche Konflikte und Gefahren von und zwischen Besuchern erkennen sollte. Entsprechende Warnungen sollten bei Erkennung automatisch an einen Sicherheitsdienst vor Ort gemeldet werden, der dann in persönlicher Präsenz den Zwischenfall klärt. Der Bedarf einer solchen Lösung entstand im Kontext rückläufiger Kundenzahlen bedingt durch die Zunahme von kriminellen und gewalttätigen Vorfällen im Bereich des Einkaufszentrums.  

Im Rahmen der Bearbeitung dieses Anwendungsfalls ist eine Checkliste für Projekte im KI-Umfeld in Unternehmen, die hier zum Download bereitsteht. 

Group

BreAking Bad: Hacking the Ai Act

Autorinnen der Checkliste sind:
Carmen Chang
Annabell Günther
Nicole Hartmann