Brüssel, Washington Kein Wort sprechen Politiker und Beamte in Brüssel so gerne aus wie „Brussels Effect“. Der Begriff beschreibt, dass weltweit Länder die Gesetzgebung der EU nachahmen, sei es beim Klimaschutz, beim Datenschutz oder im Arbeitsrecht. „Ohne Zweifel werden unsere Regeln einen ,Brussels Effect“ auslösen“, sagt Dragos Tudorache.
Er ist einer von zwei hauptverantwortlichen Europaabgeordneten für den AI Act, mit dem die EU die Risiken von Künstlicher Intelligenz (KI) abmildern will. Er bekomme Anrufe aus Indien, Brasilien, Australien, aus der ganzen Welt, sagt Tudorache. Alle wollen wissen: Wie lässt sich KI gleichzeitig nutzen und regulieren?
Die EU wurde lange wegen des AI Act belächelt. Während die Amerikaner entwickeln und erfinden, fallen den Europäern nur neue Regeln ein. Doch seit ChatGPT auf dem Markt ist, überschlagen sich die Warnungen vor endzeitlichen Szenarien, in denen sich die KI verselbstständigt und gegen den Menschen wendet. Aus der Branche selbst kommt die Forderung nach einem Entwicklungsstopp.
Die in der EU geplanten Transparenzvorschriften und Risikoanalysen wirken für viele auf einmal nicht mehr übertrieben, sondern eher noch zu zaghaft und wie ein guter erster Schritt.
Zumindest dann, wenn sie die Entwicklung der KI in Europa nicht behindern. Genau das befürchten aber die Unternehmen. „Der AI Act führt zu Verunsicherung“, sagt Jörg Bienert, Präsident des deutschen KI-Verbandes. Unter den geplanten Regeln würden es europäische Start-ups, die sich mit sogenannten Foundation Models befassen, gegen die Konkurrenz aus den USA noch schwerer haben. Dabei handelt es sich um Basismodelle mit gigantischen Datenmengen für maschinelles Lernen. Außerhalb Europas werde es weiterhin Möglichkeiten geben, KI-Anwendungen zu entwickeln, ohne dabei Auflagen erfüllen zu müssen, meint Bienert.
Dieser Text ist Teil des großen Handelsblatt-Spezials zur Künstlichen Intelligenz. Sie interessieren sich für dieses Thema? Alle Texte, die im Rahmen unserer Themenwoche schon erschienen sind,
Wird der AI Act zum globalen Standard für KI-Regeln? Oder wird er zu einer Bremse für den Tech-Standort Europa? Noch ist der Gesetzgebungsprozess nicht abgeschlossen. Die beiden Gesetzgeber der EU, also das Parlament und der Rat, haben jeweils ihre Vorstellungen zum Text ausgearbeitet.
Wenige Verbote, viele Auflagen
Bis zum Herbst könnten sie sich auf eine für alle tragbare Version einigen. Wegen notwendiger Übergangsfristen werden die Regeln wohl erst ab 2026 greifen.
Viele Eckpunkte sind jetzt schon klar: Die EU wird KI-Anwendungsfelder in vier Risikoklassen einteilen: niedrig, mittel, hoch und inakzeptabel. Für mittel-riskante Anwendungen werden Transparenzpflichten gelten – die Nutzer sollen also erfahren, dass sie ein KI-Produkt verwenden.
Als „inakzeptabel“ eingestuft, und damit verboten, werden nur wenige Systeme, etwa „Social Scoring“, um eine Bewertung von Menschen durch den Staat nach chinesischem Vorbild zu verhindern. Umstritten ist, ob auch „Predictive Policing“ in diese Kategorie fallen soll. Damit sind Systeme gemeint, die Verbrechen vorhersagen sollen. Auch die Gesichtserkennung im öffentlichen Raum durch die Polizei könnte eingeschränkt werden.
>> Lesen Sie mehr: Wie Künstliche Intelligenz den Staat retten soll
Bis zur Veröffentlichung von ChatGPT drehten sich die Debatten um den AI Act vor allem um solche Bürgerrechtsfragen. Die nun geplanten Verbote würden sich zwar auf die Effizienz der Staatsgewalt auswirken, für die KI-Branche in Europa wäre es aber kaum relevant.
Relevant sind für die Entwickler dagegen die Vorschriften für Anwendungen in Hochrisikobereichen. Die Liste ist lang. Geht es nach dem Parlament, fallen darunter biometrische Identifizierung, Verwaltung von kritischen Infrastrukturen, Bildung, Arbeitnehmermanagement, Gewährung von öffentlichen Dienstleistungen, Auslegung von Gesetzen, Rechtsdurchsetzung, Asyl, Grenzkontrollen und einiges mehr.
In vielen dieser Bereiche kann KI eine nützliche Rolle spielen. Der AI Act soll die KI dort also nicht verdrängen, aber Entwickler und Anwender der Systeme sollen mit ihren neuen Möglichkeiten verantwortungsbewusst umgehen.
Vorgeschrieben werden darum Risikomanagement-Systeme, die kontinuierlich aktualisiert werden müssen. Außerdem gibt es Vorgaben für die Trainingsdaten und für die technische Dokumentation. Die Systeme müssen in der Lage sein, ihren eigenen Output zu speichern. Sie müssen ausreichend transparent sein, damit die Nutzer die Ergebnisse interpretieren können. Und sie müssen eine menschliche Aufsicht ermöglichen, inklusive einer „Stopptaste“.
Generative Systeme, die Bilder und Texte erzeugen, sollen nach der Vorstellung des Parlaments nicht pauschal als Hochrisiko-Anwendungen eingestuft werden, aber ähnliche Vorschriften erhalten. Nur dann bekommen die Systeme das CE-Kennzeichen, das von vielen anderen Produkten bekannt ist, und dürfen in der EU vermarktet werden.
Es sei richtig, dass die KI in Europa auch europäische Werte reflektieren muss, sagt Kristian Kersting, Professor für Maschinelles Lernen an der TU Darmstadt. Der AI Act helfe dabei. „Wenn es die EU richtig macht, kann der AI Act sogar zum Standortvorteil werden, weil ,made in Europe“ dann für geprüfte Qualität steht“, meint er.
„ChatGPT dürfte nach unseren Regeln in dieser Form nicht auf dem Markt sein“, sagt Tudorache. Erst einmal müsse nachgewiesen werden, dass die vorgeschriebenen Schutzmaßnahmen umgesetzt wurden. „Wer schlau genug ist, kann ChatGPT auf schädliche Weise einsetzen“, sagt Tudorache. „Das wollen wir verhindern.”
Auf einmal soll es sehr schnell gehen
Margrethe Vestager geht das alles zu langsam. Die Stellvertreterin von Kommissionspräsidentin Ursula von der Leyen war maßgeblich an den ersten Entwürfen des AI Act beteiligt. Jetzt sieht sie sich von der Realität überholt: „Wir spüren eine große Dringlichkeit“, sagt sie, weil sich die generative KI so schnell entwickle. „Mir wurde gesagt, dass die nächste Generation nur noch Monate entfernt ist. Und zwar eine einstellige Zahl von Monaten.”
>> Lesen Sie mehr: SAP-Chef Klein: „Generative KI wird fundamental verändern, wie Menschen mit unserer Software arbeiten“
Auf die Regeln des AI Act zu warten wäre also keine Lösung. Die EU-Kommission will die wichtigsten Regeln darum schon so schnell wie möglich umsetzen, am besten bis Ende des Jahres und international abgestimmt.
Mit den USA will die EU einen „AI Pact“ schließen und diesen dann gemeinsam den G7-Staaten präsentieren, womit auch Kanada, Japan und Großbritannien einbezogen würden. Der „Brussels Effect“ könnte schon eintreten, bevor der AI Act überhaupt im Amtsblatt steht.
Die Verhandlungen darüber finden im Transatlantischen Handels- und Technologierat statt (Trade and Technology Council, kurz: TTC). Bei der Gründung des Forums im Jahr 2021 war KI noch ein Randthema – doch beim jüngsten Treffen Ende Mai in Stockholm stand KI plötzlich im Mittelpunkt.
Wenn es die EU richtig macht, kann der AI Act sogar zum Standortvorteil werden, weil ,made in Europe“ dann für geprüfte Qualität steht. Kristian Kersting, Professor für Maschinelles Lernen an der TU Darmstadt
Dass sich die USA bei Zukunftstechnologien der eher regulierungsfreudigen EU annähern wollen, gilt unter Kennern der KI-Branche als großer Schritt. Zumindest auf dem Papier bekennen sich die USA dazu, sich mit der EU auf gemeinsame Standards „einschließlich KI und anderen neuen Technologien“ verständigen zu wollen.
Gesetze lassen sich auf internationaler Ebene allerdings nicht vereinbaren, höchstens Regeln, denen sich die Unternehmen freiwillig unterwerfen können.
„Es wird ein bisschen dauern, bis der US-Kongress oder unsere Regulierungsbehörden aufholen“, sagte US-Handelsministerin Gina Raimondo in Stockholm. Der transatlantische Rahmen sei eine Möglichkeit, Unternehmen eine erste Orientierung zu bieten.
Dabei hatten die USA im vergangenen Jahr noch Seite an Seite mit den Tech-Konzernen gegen die europäischen KI-Regeln lobbyiert.
Joe Biden treibt die Regulierung voran
Erst im April, so beschrieb der US-Sender CNN kürzlich, saß Biden mit seinen Topberatern im Oval Office zusammen. Ein Mitarbeiter tippte einen Befehl ein: „Fass das Urteil des Obersten Gerichtshofs in der Rechtssache New Jersey gegen Delaware zusammen und verwandele es in einen Bruce-Springsteen-Song“.
>> Lesen Sie auch: Sieben Grafiken zeigen, wo auf der Welt sich die Entwicklung der Künstlichen Intelligenz ballt
Als er das Ergebnis sah, sei Biden fasziniert und besorgt zugleich gewesen. „Ich glaube nicht, dass es in der Geschichte der Menschheit jemals einen so grundlegenden potenziellen technologischen Wandel gegeben hat wie den, den die Künstliche Intelligenz darstellt“, sagt Biden öffentlich.
Nun heißt es, dem US-Präsidenten sei persönlich viel daran gelegen, die neue Technologie zu regulieren – und ihr gleichzeitig so viel Raum zu lassen, dass die USA nicht von chinesischen Innovationen abgehängt werden. Laut Weißem Haus gibt es „zwei- bis dreimal“ die Woche Sondertreffen zum Thema KI.
Bislang, so erzählen Insider in Washington, gehe es eher um ein grundlegendes Verständnis der Risiken und Chancen. Diskutiert wird aber auch, ob KI-Modelle in Zukunft vor ihrer Veröffentlichung einen Zertifizierungsprozess durchlaufen müssen.
Bis es tatsächlich verpflichtende Standards in den USA gibt, können Jahre vergehen, auch weil der US-Kongress zwischen Demokraten und Republikanern gespalten ist.
Selbst wenn die Amerikaner schnell nachziehen, sieht KI-Verbandschef Bienert einen Nachteil für die Europäer: „Die Entwickler werden alle möglichen Anwendungsfälle antizipieren müssen, um die Risiken abzustellen. Das können sich die amerikanischen Konzerne leisten, die europäischen Start-ups aber nicht“, sagt er.
Mehr: Warum KI-Unternehmen strengere Gesetze fordern und die Politik nicht liefert
<< Den vollständigen Artikel: Künstliche Intelligenz: Wie viel KI-Regulierung kann sich Europa leisten? >> hier vollständig lesen auf www.handelsblatt.com.