Apr 3, 2023
144 Views
Comments Off on Nach Vorstoß in Italien: ChatGPT könnte auch in Deutschland gesperrt werden
0 0

Nach Vorstoß in Italien: ChatGPT könnte auch in Deutschland gesperrt werden

Written by Barbara Gillmann

Berlin Die KI-Software ChatGPT könnte wie in Italien wegen Datenschutzbedenken auch in Deutschland vorübergehend gesperrt werden. „Grundsätzlich ist ein entsprechendes Vorgehen auch in Deutschland möglich“, sagte eine Sprecherin des Bundesbeauftragten für den Datenschutz, Ulrich Kelber, dem Handelsblatt. Dies fiele jedoch in den Zuständigkeitsbereich der Landesdatenschutzbehörden, da es sich bei dem in den USA ansässigen Betreiber OpenAI um ein Unternehmen handele.

Das Bundesinnenministerium erklärte zum Vorgehen der italienischen Behörden, man verfolge Medienberichte darüber „aufmerksam“. Der Prüfungsmaßstab für ein behördliches Einschreiten sei die Datenschutz-Grundverordnung (DSGVO), die in ganz Europa unmittelbar gilt.

Kelbers Behörde hat nun die Datenschutzaufsichtsbehörde in Italien um „weiterführende Informationen“ zur Sperrung von ChatGPT gebeten. Diese würden dann an die zuständigen Landesbehörden und -medienanstalten weitergegeben, erklärte die Sprecherin.

Das Digitalministerium unter Leitung von Volker Wissing (FDP) sprach sich klar gegen eine Sperrung von ChatGPT in Deutschland aus. „Wir brauchen kein Verbot von KI-Anwendungen, sondern Wege, Werte wie Demokratie und Transparenz zu gewährleisten“, erklärte ein Sprecher des Ministeriums. Aktuell geplante EU-Rechtsrahmen könnten „Europa zum weltweiten Vorreiter für vertrauensvolle KI“ machen, heißt es aus dem Ministerium.

Seit Freitag gibt es von Italien aus keinen Zugang mehr zu ChatGPT. Die Datenschutzbehörde des Landes begründete die Sperrung mit Verstößen gegen Datenschutz- und Jugendschutzregeln. Der in den USA ansässige Betreiber OpenAI wurde unter Androhung eines Bußgeldes angewiesen, den Dienst „mit sofortiger Wirkung“ in Italien nicht mehr anzubieten.

Die italienische Datenschutzbehörde gilt weltweit als die erste Behörde, die ChatGPT auf der Grundlage von Datenschutzbestimmungen blockiert. Anlass für den Vorstoß ist eine Datenpanne. Dabei hatten Nutzer von ChatGPT zum Teil Informationen aus fremden Profilen zu sehen bekommen. Das Problem ging laut OpenAI auf einen Fehler in einer für ChatGPT verwendeten Software zurück.

Die Datenschützer bemängelten, dass OpenAI die User nicht ausreichend über die Verwendung von Daten informiere. Außerdem fehle bei dem Chatbot ein Jugendschutzfilter, obwohl die Firma die Nutzung nur für Jugendliche ab 13 Jahren empfiehlt.

Datenschützer sieht keinen Grund für eine ChatGPT-Sperrung

ChatGPT basiert darauf, dass die Software enorme Mengen von Texten erfasst. Sie kann auf dieser Basis Sätze formulieren, die von denen eines Menschen kaum zu unterscheiden sind. Dabei schätzt das Programm, welche Worte als Nächstes in einem Satz folgen könnten. Dieses Grundprinzip birgt unter anderem das Risiko, dass die Software „Fakten halluziniert“, wie OpenAI es nennt, also falsche Informationen als korrekt wiedergibt.

Die italienische Datenschutzbehörde wies OpenAI an, innerhalb von 20 Tagen darüber Rechenschaft abzulegen, welche Maßnahmen getroffen worden seien, um den Schutz der Daten der Nutzer im Land zu gewährleisten. Andernfalls drohe eine Strafe von bis zu 20 Millionen Euro oder vier Prozent des weltweiten Jahresumsatzes.

>> Lesen Sie auch: Was ChatGPT kann

Der frühere Datenschutzbeauftragte von Baden-Württemberg, Stefan Brink, sieht indes keinen Grund, KI-Software wie ChatGPT aus Gründen des Datenschutzes auszubremsen. „Zwar nutzt KI regelmäßig auch personenbezogene Daten zu Trainingszwecken“, sagte der Direktor des wissenschaftlichen Instituts für die Digitalisierung der Arbeitswelt (wida) dem Handelsblatt. „Soweit die Daten allerdings aus dem Internet bezogen werden, überwiegen regelmäßig die berechtigten Interessen der Entwickler gegenüber Schutzbedürfnissen von Betroffenen.“

Stefan Brink

Der ehemalige baden-württembergische Datenschutzbeauftragte sieht Fragen des Jugendschutzes nicht als KI-spezifisch.


(Foto: dpa)

Dies gelte jedenfalls, sofern KI mit Forschungszielen entwickelt werde. Besonderen Risiken seien hierbei nicht erkennbar. Soweit Fragen des Jugendschutzes im Raum stehen, müssten diese immer beachtet werden. Das sei aber keineswegs KI-spezifisch.

„Die deutschen Aufsichtsbehörden sollten daher – anders als die italienischen – die Entwicklung beobachten, aber nicht effekthaschend und öffentlichkeitswirksam vorsorgliche Gegenpositionen aufbauen“, sagte Brink. Es sei nicht die Aufgabe von Aufsichtsbehörden, neue Technologien der Digitalisierung aufzuhalten. „Aufklärung hilft sicherlich, aber nicht Bedenkenträgerei.“

KI-Regulierung durch die EU steht noch aus

Weit größere Bedenken als den Datenschutz haben Experten mit Blick auf die bisher fehlende Regulierung von KI allgemein. Eine KI-Verordnung, auch als AI Act bekannt, wird derzeit auf EU-Ebene diskutiert und soll im besten Fall noch dieses Jahr verabschiedet werden. Die Mitgliedstaaten hätten zur Umsetzung zwei Jahre Zeit. Auch der Europarat arbeitet an einem KI-Menschenrechtsvertrag.

Ein großes Problem von KI-Anwendungen, die mit Sprache arbeiten, ist der sogenannte „Bias“, also die Verzerrung von Aussagen aufgrund von Stereotypen oder Vorurteilen in den Trainingsdaten. Der Direktor des Centrums für Informations- und Sprachverarbeitung an der Münchener LMU, Hinrich Schütze, zieht eine Parallele zu Waffen oder Gentechnik. In diesen Bereichen gebe es feste Grenzen und Zugangsregeln. „Wie in der Genetik das Klonen von Menschen gesetzlich verboten ist, so muss es auch ein Regelwerk geben, das Sprachmodellen Grenzen setzt“, fordert der Computerlinguist. 

Doch auch der geplant AI Act würde KI wie ChatGPT als System mit „niedrigem Risiko“ einstufen, für das nur allgemeine Transparenzregeln vorgesehen sind, erläutert Silja Vöneky, Völkerrechtlerin und KI-Expertin der Uni Freiburg. Das Programm müsste sich Nutzern gegenüber als Chatbot zu erkennen geben. Problematisch dabei sei, dass „die Regulierung bisher zu ‚statisch‘ gedacht ist und nicht schnell genug auf neue Risikolagen durch neue KI-Systeme reagieren kann“. 

Zudem ignoriere der AI Act die mögliche Weiterentwicklung zu einer sogenannten „Artificial General Intelligence“, also einer umfangreicheren KI, die ähnlich gut wie Menschen agiert – oder gar besser. Genau daran arbeiteten Firmen wie OpenAI aber gerade, mahnt die Professorin. Daher gehe es darum, „ob und wie wir dies regulieren und deren Risiken minimieren wollen – oder ob wir es den forschenden Unternehmen wie OpenAI überlassen wollen, das zu entscheiden“. Würden Programme wie ChatGPT in der Hochrisiko-Kategorie eingruppiert, gäbe es mehr Regulierung, etwa beim Einsatz in der Arbeitswelt, der Kreditvergabe und der Justiz.

Mehr: Was KI-Forschung und Start-ups in Deutschland bremst



<< Den vollständigen Artikel: Nach Vorstoß in Italien: ChatGPT könnte auch in Deutschland gesperrt werden >> hier vollständig lesen auf www.handelsblatt.com.

Article Categories:
Politik

Comments are closed.