Brüssel Das Europaparlament will die populäre Künstliche Intelligenz (KI) ChatGPT offenbar schärfer regulieren. „Es zeichnet sich eine Mehrheit dafür ab, ChatGPT als Hochrisikotechnologie einzustufen“, sagt der CDU-Europaabgeordnete Axel Voss, der das Thema als Berichterstatter betreut. „Das wird höchstwahrscheinlich so kommen.“
Eine solche Einstufung würde bedeuten, dass der ChatGPT-Entwickler OpenAI strenge Auflagen zu erfüllen hat, darunter ein Risikomanagement, Transparenzpflichten gegenüber den Nutzern und externe Audits.
Die EU will das Gesetz zur Künstlichen Intelligenz, den „Artificial Intelligence Act“, noch in der laufenden Legislaturperiode bis 2024 beschließen. KI-Experten weltweit verfolgen die Beratungen in Brüssel genau, das Regelwerk dürfte eine Signalwirkung für die gesamte Branche haben.
Am Montag treffen sich die KI-Berichterstatter aller Fraktionen im Europaparlament – bis spätestens Freitag wollen sie sich auf gemeinsame Empfehlungen einigen. In der kommenden Woche könnten sich die zuständigen Ausschüsse damit befassen, bevor das Europaparlament in einer Plenumsabstimmung voraussichtlich am 1. Juni seine offizielle Position festlegen soll.
Die Stellungnahme des Parlaments zum KI-Gesetz wird dringend erwartet. Die Kommission hatte den Entwurf bereits vor zwei Jahren vorgelegt, der Rat der 27 Mitgliedstaaten war im November 2022 mit seiner Position nachgezogen.
Sobald die Vorschläge des Parlaments feststehen, können die Trilog-Verhandlungen beginnen, bei denen die drei EU-Institutionen den finalen Gesetzestext vereinbaren. In Kraft treten würden die Regeln frühestens 2025.
Das Gesetz soll sicherstellen, dass die Europäer das Potenzial der KI ausschöpfen können, ohne dass dabei Schaden entsteht. Die Vorschriften orientieren sich daran, welches Risiko der Gesetzgeber bei einer bestimmten Anwendung annimmt: minimal, begrenzt, hoch und inakzeptabel.
Zu den Hochrisikoanwendungen zählt die Kommission in ihrem Entwurf etwa den Betrieb kritischer Infrastrukturen wie Stromnetze. Im Europaparlament wird nun debattiert, ob auch vermeintlich harmlose Allzweck-KI („General Purpose AI“, GPAI) in die Hochrisikokategorie gehört. Dazu zählen auch Sprachmodelle wie ChatGPT. Das Programm kann menschlich anmutende Unterhaltungen führen und Texte verfassen.
US-Forscher fordern EU zu strikter Regulierung auf
Führende amerikanische und britische KI-Forscher hatten die EU vergangene Woche zu einer möglichst strikten Regulierung aufgefordert. In einem offenen Brief schreiben die Autoren, es sei erwiesen, dass GPAI-Modelle antidemokratische Sprache und Hassrede gegen Minderheiten verstärken können.
Es bestehe die Gefahr, dass die Programme gesellschaftliche Vorurteile, die in den Datensätzen enthalten seien, vertiefen. Auch warnen sie vor dem Missbrauch von Telefonnummern und medizinischen Daten. „Die möglichen Schäden sind weitreichend“, heißt es in dem Brief. Zu den Unterzeichnern zählen unter anderem Vertreter der Mozilla Foundation, des AI Now Institute und des Distributed AI Research Institute.
>> Lesen Sie auch: OpenAI-Gründer Sam Altman plant Datenabgleich durch Augen-Scan
Entscheidend ist es aus Sicht der Autoren daher, schon beim Design der KI mit der öffentlichen Aufsicht anzusetzen, nicht erst später bei der Anwendung des fertigen Programms. „Die Firmen, die die Modelle entwickeln, müssen für ihre Entscheidungen zu Daten und Design zur Verantwortung gezogen werden können“, heißt es in dem Brief. Der Gesetzentwurf der Kommission enthalte noch Schlupflöcher, weil er Entwicklern einen Haftungsausschluss bei ihren Programmen erlaube.
Es ist bereits der zweite Warnbrief aus den USA binnen drei Wochen. Ende März hatten rund eintausend Tech-Experten, darunter Tesla-Gründer Elon Musk und Apple-Mitgründer Steve Wozniak, eine Zwangspause von mindestens sechs Monaten bei der KI-Entwicklung gefordert. Angesichts der rasanten Fortschritte der Technologie soll das Moratorium der Branche Zeit geben, Sicherheitsstandards festzulegen.
Österreich fordert Verbot chinesischer KI-Anwendungen
Mit Sorge sehen manche Europäer auch, wie autoritäre Staaten die KI nutzen könnten. Der österreichische Digitalstaatssekretär Florian Tursky fordert die EU deshalb nun auf, ein Verbot chinesischer KI-Lösungen in Europa zu prüfen.
Wenn chinesische KI-Systeme tatsächlich mit den ideologischen Präferenzen der Kommunistischen Partei gefüttert würden, müsse man über ein Verbot nachdenken, schrieb Tursky vergangenen Donnerstag in einem Brief an Kommissionspräsidentin Ursula von der Leyen, Parlamentspräsidentin Roberta Metsola, Ratspräsident Charles Michel und Binnenmarktkommissar Thierry Breton.
>> Lesen Sie hier: Wenn ChatGPT die Hausaufgaben übernimmt
Chinas Internet-Regulierungsbehörde hatte zuvor angekündigt, die Entwicklung der generativen KI zu unterstützen. Allerdings müssten die entsprechenden Inhalte mit den sozialistischen Grundwerten übereinstimmen.
Tursky nannte dies eine Gefahr für die Demokratie. „KI darf keiner staatlich vorgegebenen Ideologie folgen“, sagte er. „Dies würde zur Folge haben, dass chinesische KI-Systeme in Europa auf den Markt kommen, die die ideologischen Fußabdrücke der Kommunistischen Partei Chinas haben.“ Ein Verbot chinesischer Technologie werde in diesem Fall notwendig.
Der Europaabgeordnete Voss stimmt zu: „Ich kann mir nicht vorstellen, dass eine KI aus China nicht im Sinne des Regimes eingesetzt würde. Solche Anwendungen haben bei uns in der EU nichts zu suchen.“
<< Den vollständigen Artikel: Künstliche Intelligenz: Strenge Auflagen für KI – Europaparlamentarier wollen ChatGPT schärfer regulieren >> hier vollständig lesen auf www.handelsblatt.com.