Europa hat das Rennen um KI für Endkunden beinahe schon verloren. Aber nicht, weil wir uns in Brüssel zu Tode regulieren, wie oft und gerne behauptet wird. Die Wahrheit ist unbequemer: Der EU AI Act startete mit dem noblen Ziel, den Menschen vor den Risiken der Technologie zu schützen. Doch genau dieses Vorhaben wurde gekapert.

Wir haben übersehen, dass die neue Regeln für die Endnutzer-Geschäftsmodelle der großen US-Tech-Giganten längst keine Bedrohung mehr sind – sondern ein strategischer Schutzschild. Durch massiven Lobbyismus wurden die Hürden so verschoben, dass sie nun ausgerechnet den europäischen Unternehmen, deren Stärke im Firmenkundengeschäft liegt, das Leben schwer machen. Statt Risiken zu minimieren, zementiert das Gesetz innovationsfeindliche Barrieren. Doch genau diese Mechanismen zu verstehen, ist die Grundvoraussetzung, um den Risiken der KI tatsächlich wirksam zu begegnen.

Anwendungskategorien im EU AI Act

Bevor wir in die Details einsteigen , sollten wir verstehen, nach welchen Maßstäben eine KI-Anwendung bewertet wird. Der EU AI Act teilt KI-Anwendungen in vier Kategorien ein:

Wie diese Kategorien zugeschnitten sind, und welche Dokumentationspflichten mit ihnen einhergehen, ist für viele Firmen von derart existenzieller Bedeutung, dass sie bereit sind, für deren Definition tief in die Tasche zu greifen.

Einfluss auf Politiker ist Konzernen hunderte Millionen Dollar Wert

Firmen auf beiden Seiten des Atlantiks geben immense Summen aus, um Politiker bei ihren Entscheidungen zu beeinflussen. Beispielsweise geben einige der größten US Tech-Konzerne - namentlich Meta, Amazon, Google, Microsoft, Oracle, Qualcomm, Nvidia und AMD - im Jahr 2025 alleine 92 Millionen USD für Lobby-Aktivitäten aus. Dazu zählen das Beraten von Politikern, das Verfassen von Gesetzesvorschlägen und die Mitarbeit in Komitees. Dazu kommen zusätzliche Ausgaben, um bevorzugte Politiker in Wahlen zu unterstützen. So hat alleine Meta für die US-Midterm-Wahlen im Herbst 2026 65 Millionen USD an Ausgaben eingeplant. [1]

Auch europäische Konzerne investieren in entsprechende Lobby-Aktivitäten. Auf Ebene der europäischen Union dominieren jedoch die großen US-Techkonzerne. Die 10 US-Digitalkonzerne mit den höchsten Lobby-Ausgaben in der EU gaben im Jahr 2025 etwa dreimal so viel aus wie die Top 10 der europäischen Konzerne. Meta führt hier mit 10 Millionen Euro jährlich, für die gesamte Techbranche stehen 151 Millionen Euro zu Buche. Dennoch investieren europäische Firmen immer noch Millionenbeträge - beispielsweise rund 2 Millionen Euro für BMW, mehr als 3 Millionen Euro bei TotalEnergies und über 3,5 Millionen Euro bei Siemens. Das EU-Transparenzregister schlüsselt zwar nicht auf, auf welche Themengebiete die Lobby-Gelder fallen - KI war im vergangenen Jahr jedoch das dominierende Thema. [2]

Wie Lobbyisten den EU AI Act beeinflussten

Wo genau setzen die Lobby-Aktivitäten an? In den Jahren, als der EU AI Act von Politikern des EU-Parlaments geschrieben wurde, hatten insbesondere Lobbyisten der großen Konzerne privilegierten Zugang zu Entscheidungsträgern. Damit fanden Sie mehr Gehör als kleinere Firmen und oder Vertreter der Zivilgesellschaft, und konnten entsprechend mehr Einfluss ausüben. [3]

Wie dieser Einfluss konkret ausgeübt wurde ist am Beispiel von OpenAI dokumentiert. [4] Sie kritisierten, dass Foundation Models (wie GPT-3, oder andere bekannte Sprachmodelle) ursprünglich als hoch-riskant eingestuft wurden. In einem Schreiben an die EU argumentierten sie: „Big Player“By itself, GPT-3 is not a high-risk system [...] but [it] possesses capabilities that can potentially be employed in high risk use cases.„Big Player“ In anderen Worten: Reguliert nicht uns, die Macher der KI-Modelle, sondern die anderen Firmen die diese anwenden. Dieser Wunsch spiegelt sich in der endgültigen Fassung des EU AI Acts wieder.

Per se ist der Gedanke ja nicht falsch - Foundation Models sind Allzweck-Werkzeuge, und Risiken ändern sich mit dem Anwendungszweck. Hieran zeigt sich bereits, dass der EU AI Act in weiten Teilen besser ist als sein Ruf, und einige Dinge richtig macht. Kritisch muss man hier jedoch sehen, dass Rufe der Tech-Konzerne nach mehr Regulierung kombiniert werden mit „trust us to self-regulate.“ [4]

Aber auch europäische Firmen schlugen in ähnliche Kerben wie US-Techkonzerne. Insbesondere Mistral AI aus Frankreich und Aleph Alpha aus Deutschland fanden bei ihren jeweiligen Regierungen Gehör, als sie unter dem Mantra der „europäischen Technologiesouveränität“ eine schwächere Regulierung der Foundation Models forderten. Obwohl das Ziel sinnvoll ist, führten diese Interventionen letztendlich zu einer Form der Regulierung, die insbesondere diesen kleineren Firmen aus Europa schadet.

Kurz nachdem der EU AI Act mit diesen aufgeweichten Regeln verabschiedet wurde, verkündete Mistral AI eine millionenschwere Partnerschaft mit dem US-Giganten Microsoft. Man muss dem Startup hier keine strategische Täuschung unterstellen, doch die historische Ironie bleibt unübersehbar: Die Intervention, die unter dem Deckmantel der europäischen Technologiesouveränität geführt wurde, machte das Vorzeige-Startup am Ende vor allem zu einem noch attraktiveren Partner für das US-Monopol. Inwiefern das Europas Unabhängigkeit stärkt, bleibt fragwürdig.

Aufgeweichte Maßnahmen benachteiligen die kleineren und mittelgroßen Firmen

Besonders zwei Aspekte bevorzugen die großen Firmen immens - und diese sind auf den ersten Blick nicht offensichtlich. Sie festigen die Macht der auf Endkunden fokussierten Tech-Giganten (mit B2C Geschäftsmodellen) und blockieren gleichzeitig jene europäischen Firmen, die im Firmenkunden-Geschäft (B2B) dringend benötigte, vertrauenswürdige Branchenlösungen bauen wollen.

So klingt es nach einer sinnvollen Maßnahme, dass nur solche Foundation Models mit systemischem Risiko großen Dokumentationspflichten unterliegen. Aber wodurch entsteht ein systemisches Risiko? Als primäre Richtgröße gilt die Grenze, dass Modelle, die mit mehr als 10^25 Gleitkommaoperationen (FLOPs) trainiert wurden, riskant sind. [5] Dieser Wert entspricht grob dem Trainingsaufwand von GPT-4, und damit Kosten in zweistelliger Millionenhöhe.

Dieses Kriterium klingt nicht nur abstrakt und technisch - es ist auch losgelöst davon, wie ein Modell tatsächlich genutzt wird. Auch Modelle mit weniger FLOPs können natürlich für gefährliche Zwecke eingesetzt werden.

Große Tech-Konzerne genießen außerdem entscheidende Vorteile:

Und genau hier schnappt die Falle für die europäische Wirtschaft zu: Es geht nicht darum, dass Europa zwingend einen eigenen ChatGPT-Klon für Endkunden braucht. Es geht darum, dass europäische Firmen für ihre starken B2B-Geschäftsmodelle maßgeschneiderte, hochsichere und vertrauenswürdige Foundation Models benötigen. Der Schwellenwert von 10^25 FLOPs hindert europäische Innovatoren jedoch massiv daran, eine solche souveräne B2B-Infrastruktur aufzubauen. Das zementiert das Monopol der US-Konzerne.

Hindernisse für den freien Wettbewerb

Selbst wenn ein ambitioniertes europäisches Startup das Investorenkapital einsammeln würde, um OpenAI an der Weltspitze direkt herauszufordern, würde es sofort gegen eine regulatorische Wand fahren.

Für Open-Source-Initiativen ist die Lage noch schwerwiegender: Sobald ein Modell in die Kategorie mit „systemischem Risiko“ rutscht, fordert das Gesetz einen angemessenen Schutz der IT-Infrastruktur während des Trainings, um Missbrauch oder weitreichende Folgen von Fehlfunktionen zu verhindern. Da Open-Source-Projekte dezentraler Natur sind, ist es für sie fast nicht möglich, eine entsprechende Infrastruktur zu nutzen. Der Schwellenwert von 10^25 FLOPs macht echte Open-Source-Spitzenmodelle fast unmöglich.

Viele Anwendungsgebiete sind außerdem als Hochrisiko-KI reguliert, mit entsprechenden Aufwänden für die Anbieter der Lösungen. Das Entscheidende dabei: Die massiven, teuren Compliance-Pflichten und Haftungsrisiken wurden durch geschicktes Lobbying erfolgreich auf die Anwendungs-Ebene abgewälzt - also genau dorthin, wo die europäische Wertschöpfung stattfindet.

Die Tech-Konzerne liefern den unregulierten Motor - aber die europäischen Startups, die das B2B-Auto bauen, müssen durch den bürokratischen TÜV. Das ist nicht nur teuer, sondern brandgefährlich.

Europäische Firmen werden in die Abhängigkeit von US-Techkonzernen gezwungen, für die „Vertrauen und Sicherheit“ (die Grundpfeiler des B2B-Geschäfts) oft hinter der reinen Markteinführungsgeschwindigkeit zurückstehen. Erst dieses „move fast and break things“-Mantra hat ihren Aufstieg ursprünglich befeuert. Unter dem Deckmantel der „Sicherheit“ haben die Tech-Giganten die Regulierung gekapert, um ihre eigene Dominanz zu sichern. Damit untergraben sie aber letztendlich den Aufbau einer sicheren, vertrauenswürdigen KI-Infrastruktur für die europäische Wirtschaft.

Unscharfe Kriterien führen zu Regulierung durch die Hintertür

Was bedeutet das nun konkret für die hochriskanten KI-Anwendungen? Der EU AI Act fordert ein, dass KI-Systeme sicher, transparent und ohne Verzerrungen sind. Wie diese Kriterien genau bewertet werden bleibt offen - und damit wachsweich. [6]

Die endgültige Entscheidung, wie diese Kriterien aussehen, werden später in Gremien getroffen. Gremien, in denen hauptsächlich Vertreter der großen Konzerne sitzen. Kleinere Firmen und Verbände haben schlichtweg weder die Zeit noch die finanziellen Mittel, um jahrelang in diesen Gremien entscheidend mitzuwirken. Dies führt letztendlich zu Regulierung durch die Hintertür - große Firmen schreiben in jahrelanger Gremienarbeit ihre eigene Regulierungsmechanismen. [7] Auch dies führt erneut zu kostenintensiven Regulierungen, welche sich große Konzerne leisten können.

Für Startups werden diese jedoch leicht zu unüberbrückbaren Hindernissen. Auch die bloße Androhung von hohen Strafen führt dazu, dass kleinere Firmen schlechter an Geld von Risikokapitalgebern gelangen [8] - wenn das Risiko von hohen Strafen steigt, sind die Investitionen einfach nicht mehr attraktiv. Dieses Phänomen, bei dem große Akteure die Regeln zu ihren Gunsten umschreiben, ist in der Wirtschaftswissenschaft als „Regulatorische Vereinnahmung“ (Regulatory Capture) bekannt. [9]

Wie Erzählungen von dystopischen Risiken missbraucht werden

Mit dem Wissen um diese Regulatorische Vereinnahmung verstehen wir nun auch, dass führende Tech-CEOs nicht zwingend aus altruistischen Gründen handeln wenn sie Regulierung einfordern. Stattdessen werden Regulierungsbehörden zweckentfremdet, um Wettbewerb auszuschalten und die Marktposition einiger weniger Firmen zu stärken.

In diesem Kontext können wir nun auch besser einordnen, warum führende Tech-CEOs regelmäßig vor den dystopischen Gefahren von KI warnen. Als der EU AI Act auf die Zielgerade einbog, begannen führende Tech-CEOs plötzlich, schrill vor den dystopischen Gefahren ihrer eigenen Produkte zu warnen. Dieses gezielte Schüren von Ängsten half dabei, den Fokus der Regulierung von aktuellen, realen Schäden (wie Urheberrechtsverletzungen) hin zu hypothetischen, systemischen Risiken in der Zukunft zu verschieben. Für diese Zukunftsrisiken wurden dann genau jene hohen Schwellenwerte (die 10^25 FLOPs) eingeführt, die den Markt heute zementieren.

Diese Risiken schüren Ängste bei Politikern, und machen sie empfänglicher für starke Regulierung. Die Details der Regulierungen werden in Gremienarbeiten dann von Vertretern eben jener Firmen geschrieben. Hierdurch entstehen Markteintrittsbarrieren, welche große Firmen bevorzugen.

Hin zu effizienter Regulierung

Was wären nun geeignete Maßnahmen, um Risiken der KI zu mindern ohne Innovationen zu behindern?

Was das für die Geschäftsmodelle europäischer Firmen bedeutet

Insgesamt macht der EU AI Act von seiner Grundidee her vieles richtig. Wieso genießt er in der öffentlichen Wahrnehmung dennoch einen so schlechten Ruf? Weil wir seinen Erfolg an den falschen Kriterien messen - und dabei blind dafür sind, wo der eigentliche Schaden angerichtet wird.

Im Alltag erleben wir KI fast ausschließlich als Endkunden (B2C). Wir chatten mit ChatGPT oder Claude. In diesem Massenmarkt zählt für uns als Endkunden Bequemlichkeit meist mehr als Sicherheit. Dadurch gewinnen die Firmen, die am schnellsten auf den Markt drängen. Wenn wir nun beklagen, dass Europa in diesem B2C-Rennen keine Rolle spielt, folgern wir fälschlicherweise: Unsere Regulierung erdrosselt die europäische Innovationskraft.

Hier legen wir allerdings die falschen Maßstäbe an. Die Stärke der europäischen Wirtschaft liegt nicht im Bau von Alltags-Chatbots, sondern im B2B-Umfeld. Hier sind Industrie, Mittelstand und Verwaltung auf absolute Sicherheit, Datensouveränität und Vertrauen im Umgang miteinander angewiesen. Ein konsequenter, wertebasierter EU AI Act hätte hier die Grundlage für einen globalen Wettbewerbsvorteil legen können - als weltweites Gütesiegel für vertrauenswürdige KI.

Doch gerade diese Ziele wurden durch Lobbyismus unterwandert. Durch die Aufweichung der Regeln für große Foundation Models aus den USA und die Abwälzung der Haftungsrisiken auf die Anwendungs-Ebene erstickt das Gesetz nun ausgerechnet unsere eigenen B2B-Firmen. Selbst Riesen wie Siemens oder SAP kritisieren mittlerweile lautstark das bürokratische Gewicht. Für Startups sind diese Hürden oft tödlich.

Wir zwingen unseren europäischen Firmen die Risiken und Kosten der Bürokratie auf. Gleichzeitig machen wir sie abhängig von US-Konzernen, die ihre Technologien weitgehend unreguliert lassen durften. Das untergräbt die europäische Technologiesouveränität genau dort, wo wir sie eigentlich aufbauen wollen um unsere Stärken auszuspielen.

Europa hat das Rennen um die KI noch nicht verloren. Aber um im B2B-Sektor zu gewinnen, müssen wir erkennen, dass nicht zu viel Regulierung unser Problem ist, sondern falsche Regulierung. Regulierung ist daher der richtige Weg - falls er fairen Wettbewerb stärkt anstatt digitaler Monokulturen.


Referenzen: