AI Act: Warum die EU kritisch auf KI-Tools wie ChatGPT schaut

2023-04-11
Autor:
Jan Tissler

KI-Angebote haben in den letzten Monaten für viel Wirbel gesorgt. Während ihre Potenziale enorm sind, gibt es zugleich Gefahren und berechtigte Kritik. Die EU plant mit dem «AI Act» ein Gesetz, das hier für klare Regeln sorgen soll. Allzweck-KIs wie ChatGPT bereiten den Politikern allerdings Kopfzerbrechen.

Wenn es um Künstliche Intelligenz (KI) geht, scheinen die Möglichkeiten schier endlos. Die Fortschritte in diesem Bereich waren zuletzt enorm. Ein Beispiel: 2019 galt es noch als revolutionär, dass eine KI fiktive menschliche Gesichter generieren konnte. Nur vier Jahre später nutze ich eine Software basierend auf Stable Diffusion auf meinem Laptop, die Bilder aller Art erstellt: Fotos, Grafiken, Illustrationen und mehr. Oder man denke an Chatbots: Sie waren meistens haarsträubend inkompetent, heute ermöglicht der KI-Assistent ChatGPT Konversationen, die so angenehm wie hilfreich sind.

Ein Gesetz für ein wachsendes Feld

Dieses Tempo der Weiterentwicklung bekommt aktuell auch die EU zu spüren. 2021 startete sie die Arbeit an einem Artificial Intelligence Act. Ausgangspunkt dafür war die Idee, KI-Anwendungen wie etwa automatisierte Gesichtserkennung zu regulieren. Würden solche Werkzeuge als «hoch riskant» eingestuft, gäbe das neue Gesetz ihnen klare Auflagen oder würde die Nutzung im Zweifel ganz verbieten. Auch KI-Anwendungen in Bereichen wie Medizin und Justiz oder für wichtige Infrastruktur würden darunter fallen.

Das Gesetz war schon recht fortgeschritten, als ChatGPT das Feld aufgewirbelt hat. Ein wesentlicher Unterschied dieses neuen Tools: Während eine automatisierte Gesichtserkennung ein klar umrissenes Einsatzfeld hat, ist das bei einem Angebot wie ChatGPT nicht mehr der Fall. Dieser Assistent kann Ideen und die Gliederung für eine Rede liefern, Code für eine App entwickeln oder ein Gedicht schreiben. Er steht für Fragen aller Art zur Verfügung und hat fast immer eine Antwort parat – die aber auch vollkommen falsch sein kann.

Letztlich können Werkzeuge wie ChatGPT und Stable Diffusion zwar beeindruckende Ergebnisse liefern, sie verstehen aber nicht, was sie generieren. Sie haben stattdessen aus immens grossen Datensätzen Zusammenhänge gelernt.

Im Fall von ChatGPT bestehen diese Datensätze aus frei verfügbaren und eigens eingekauften Inhalten, die als Trainingsmaterial dienen. In diesen Materialien können sich Falschinformationen finden, Vorurteile oder auch Verschwörungstheorien. Zudem haben diese KI-Tools die Tendenz, fehlende Informationen zu «halluzinieren»: Sie erfinden, was passend erscheint.

Natürlich hört der Fortschritt nicht auf und Kritikpunkte von heute können morgen bereits behoben sein. Angebote wie ChatGPT könnten ihre Aussagen etwa künftig mit nachvollziehbaren Quellen belegen oder deutlich machen, wo sie unsicher sind oder wo es keine klare Antwort gibt.

Tech-Unternehmen gehen in die Offensive

Bei der Vorstellung der neuesten GPT-Generation erklärte das Unternehmen OpenAI aber selbst, dass dessen neuen Fähigkeiten zu neuen Risiken führen:

«GPT-4 birgt ähnliche Risiken wie die Vorgängermodelle, z. B. das Generieren gefährlicher Ratschläge, fehlerhaften Codes oder ungenauer Informationen. Die zusätzlichen Fähigkeiten von GPT-4 führen zudem zu neuen Risikofaktoren. Um das Ausmass dieser Risiken zu verstehen, haben wir über 50 Experten (…) damit beauftragt, das Modell auf seine Tauglichkeit hin zu testen. Ihre Erkenntnisse ermöglichten es uns, das Verhalten des Modells in Hochrisikobereichen zu testen, für deren Bewertung Fachwissen erforderlich ist.»

[Original: "GPT-4 poses similar risks as previous models, such as generating harmful advice, buggy code, or inaccurate information. However, the additional capabilities of GPT-4 lead to new risk surfaces. To understand the extent of these risks, we engaged over 50 experts (…) to adversarially test the model. Their findings specifically enabled us to test model behavior in high-risk areas which require expertise to evaluate."]

Solche Aussagen sind ganz klar nicht nur an eine allgemeine Öffentlichkeit gerichtet, sondern sollen gerade auch politischen Institutionen signalisieren: Wir gehen verantwortungsvoll mit dem Thema um. Das soll ebenso das «Partnership on AI» deutlich machen, an dem sich neben OpenAI auch Unternehmen wie Adobe beteiligen.

Ein Alptraum-Szenario für KI-Unternehmen ist es schliesslich, als «hoch riskant» durch die EU eingestuft zu werden. Dann müssten sie möglicherweise offenlegen, wie ihre Künstliche Intelligenz genau funktioniert und trainiert wurde. Und sie müssten sich vielleicht gefallen lassen, dass die EU ihnen vorschreibt, wie die KI reagieren darf und wie nicht.

Vertreter von Techfirmen wie OpenAI, Microsoft oder Google sind deshalb bereits höchst aktiv, um dem entgegenzuwirken, wie eine Untersuchung der Lobbying-Transparenzgruppe Corporate Europe Observatory zeigt. So versuchen sie Politiker davon abzubringen, eine Allzweck-KI wie ChatGPT generell als riskant anzusehen.

Schlusswort

Trotz aller berechtigten Kritik scheint klar, dass sich der Fortschritt im Bereich der Künstlichen Intelligenz kaum aufhalten lässt. Die Potenziale sind enorm. Es scheint sehr wahrscheinlich, dass wir KI-Assistenten und ähnliche Funktionen in Zukunft an vielen Stellen finden und nutzen werden. Hier möchte sich Europa nicht abhängen lassen.

Wie so oft geht es bei einem Gesetz wie dem AI Act also um eine Gratwanderung. Einerseits soll es die Bevölkerung vor Gefahren schützen und Fehlentwicklungen so früh wie möglich verhindern. Andererseits sollen KI-Forschung und -Entwicklung in Europa möglich und international konkurrenzfähig bleiben.