Mit dem Artificial Intelligence Act (AI Act) will die EU erstmals einheitliche Regeln für den Einsatz von Künstlicher Intelligenz (KI) schaffen. Nachdem es Ende Oktober 2023 noch nach einer Einigung zwischen dem EU-Parlament und den Mitgliedsstaaten aussah, drohen die Verhandlungen nun zu scheitern.
Knackpunkt sind sogenannte generative KI-Systeme wie Chat GPT oder ähnliche Anwendungen von Google oder Meta. Die Veröffentlichung von Chat GPT hatte in den Verhandlungen zwischen EU-Parlament, EU-Kommission und den Mitgliedsstaaten eine zunehmende Diskussion über die Notwendigkeit einer Regulierung dieser KI-Systeme ausgelöst.
Habeck für „innovationsfreundliche Regulierung“
Grund für die festgefahrenen Verhandlungen ist nach einem Bericht der FAZ ein gemeinsames Papier von Deutschland, Frankreich und Italien, in dem sich die Länder gegen gesetzliche Regelungen und für eine Selbstregulierung durch einen Verhaltenskodex aussprechen. Laut Robert Habeck, der gemeinsam mit Volker Wissing die Verhandlungen leitet, hängt die Wettbewerbsfähigkeit Europas davon ab, ob es gelingt, KI in Europa erfolgreich zu entwickeln. Dafür sei eine „innovationsfreundliche Regulierung“ notwendig.
Bleiben Sie informiert über Lobbyismus.
Abonnieren Sie unseren kostenlosen Newsletter.
Datenschutzhinweis: Wir verarbeiten Ihre Daten auf der Grundlage der EU-Datenschutz-Grundverordnung (Art. 6 Abs. 1). Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Zur Datenschutzerklärung.
Dem widerspricht Matthias Spielkamp von der NGO Algorithmwatch in einem lesenswerten Kommentar deutlich: Natürlich könne man KI regulieren und gleichzeitig Innovationen ermöglichen. Um die Gefahren, etwa bei der automatischen Gesichtserkennung, zu begrenzen, brauche es aber strengere gesetzliche Regelungen und keine Selbstverpflichtung von Google, Microsoft & Co. Auch im EU-Parlament stößt der deutsche Vorschlag auf deutliche Ablehnung.
Big Tech-Lobbyarbeit gegen Regulierung
Eine neue Studie unserer Brüsseler Partnerorganisation Corporate Europe Observatory zeigt, welche Rolle die Lobbyarbeit von Big Tech gespielt haben könnte. Basierend auf internen Dokumenten und Datenanalysen zeigt die Studie, wie Big Tech mit Unterstützung wichtiger EU-Mitgliedsstaaten darauf drängt, die Regulierung von KI-Systemen wie ChatGPT, auf denen viele KI-Anwendungen aufbauen können, zu untergraben oder einzuschränken. Dass Google & Co so sehr auf schwache Regeln für KI drängen, liegt daran, dass die Techmonopole stark von einer laxen Regulierung profitieren würden. Gerade die großen Digitalkonzerne können mit ihren großen Datenmengen KI effektiv anwenden.
Die Forderung nach Selbstregulierung war eine der zentralen Botschaften, die auch bei den Treffen der EU-Kommission mit den Chefs von Google und Microsoft eine Rolle spielte. Solche freiwilligen Regeln werden von Big Tech immer wieder vorgeschlagen. Damit sollen verbindliche gesetzliche Regeln vermieden und Zeit gewonnen werden.
Unterstützung von europäischen KI-Startups
Unterstützung bei der Lobbyarbeit erhielt Big Tech von europäischen Unternehmen wie den KI-Start-ups Mistral AI aus Frankreich und Aleph Alpha aus Deutschland. Auffällig ist die große Nähe zwischen Aleph Alpha und Robert Habeck. Dieser gratuliert dem Unternehmen auf einer gemeinsamen Pressekonferenz persönlich zu den mehr als 500 Millionen US-Dollar, die es eingesammelt hat. Immer wieder, zuletzt auf dem Digitalgipfel, hat Robert Habeck in dieser Debatte eine konzernfreundliche Haltung eingenommen und den fragwürdigen Vorschlag der Selbstregulierung verteidigt.
Haben Sie Hinweise zur Lobbyarbeit beim AI Act?
Dann können Sie sich anonym und vertraulich an LobbyControl wenden!
Unklar ist, wie viele weitere Treffen es hinter den Kulissen zwischen Aleph Alpha und dem zuständigen Verkers- und Wirtschaftsministerium gegeben hat. Unklar ist auch, wie viel Geld Aleph Alpha für Lobbyarbeit ausgibt. Die entsprechenden Angaben werden im deutschen Lobbyregister mit Verweis auf einen fehlenden Jahresabschluss verweigert. Aleph Alpha sollte seine Angaben dringend aktualisieren.
Bedenkliche Nähe der Bundesregierung zur KI-Industrie
Klar ist aber, dass die Nähe der Bundesregierung zur KI-Industrie in einer so sensiblen Phase der Verhandlungen kein gutes Licht auf die zuständigen Minister wirft. Dies gilt insbesondere für eine Bundesregierung, die sich noch im Koalitionsvertrag klar gegen den Einsatz von Künstlicher Intelligenz bei der automatischen Gesichtserkennung ausgesprochen hatte.
Mehr Distanz der Bundesregierung zur KI-Industrie wäre dringend notwendig. Wichtige Regeln für Künstliche Intelligenz dürfen nicht zugunsten von Unternehmensgewinnen geopfert werden.