Die zentralen Thesen:
- Der chinesische Gesetzgeber hat die zentrale Rolle von Algorithmen beim Betrieb von Internetplattformen erkannt und im Gesetz zum Schutz personenbezogener Daten (PIPL) vom 20. August 2021, das diese Technologie erstmals regelt, als „automatisierte Entscheidungsfindung“ definiert.
- Im Rahmen des PIPL bewerten Plattformen die Auswirkungen von Algorithmen im Voraus und haften für Ergebnisse der Entscheidungsfindung im Nachhinein.
- Das PIPL erweitert das Recht der Plattformnutzer auf Wissen und verlangt von Plattformen, die "Informationskokons" zu durchbrechen, die durch algorithmische personalisierte Empfehlungen an die Nutzer entstehen.
Chinas Gesetz zum Schutz personenbezogener Daten (个人信息保护法), in Kraft getreten im August 2021, zieht die Grenzen für Internetplattformen, die automatisierte Entscheidungen durch Algorithmen treffen.
. Hintergrund
Chinesische Internetplattformen, typischerweise TopBuzz und TikTok von ByteDance, verwenden in großem Umfang Empfehlungsalgorithmen, um Inhalte und Produkte an ihre Benutzer zu übermitteln.
Allerdings werden solche Algorithmen von der Öffentlichkeit und den Aufsichtsbehörden in Frage gestellt, die angeblich in das Recht der Nutzer auf freie Entscheidung eingegriffen und somit ein moralisches Risiko geschaffen haben.
Der chinesische Gesetzgeber hat die zentrale Rolle von Algorithmen beim Betrieb solcher Plattformen erkannt und sie im Gesetz zum Schutz personenbezogener Daten (im Folgenden „PIPL“) als „automatisierte Entscheidungsfindung“ definiert, das am 20. August 2021 in Kraft getreten ist und diese Technologie für die erstes Mal.
In Übereinstimmung mit dem PIPL bezieht sich automatisierte Entscheidungsfindung auf die Aktivitäten der automatischen Analyse und Bewertung von Verhaltensgewohnheiten, Hobbys oder des Finanz-, Gesundheits- und Kreditstatus von Einzelpersonen durch Computerprogramme und das Treffen von Entscheidungen darüber. (Artikel 73)
Zuvor gab es geteilte Meinungen über die Haftung der Plattformen für automatisierte Entscheidungsfindung. Einige Leute glaubten beispielsweise, dass die Plattformen nicht für die Ergebnisse ihrer automatisierten Entscheidungsalgorithmen haften sollten, die im Wesentlichen eine Art neutrale Technologie waren. Das PIPL verdeutlicht jedoch das Gegenteil.
. Einschränkungen auf Plattformen
1. Aufsichtsbehörden überprüfen die Algorithmen direkt
Als Verarbeiter personenbezogener Daten überprüfen Plattformen regelmäßig die Übereinstimmung ihrer Verarbeitung personenbezogener Daten mit den Gesetzen und Verwaltungsvorschriften. (Artikel 54)
Dies erfordert, dass Plattformen ihre algorithmische automatisierte Entscheidungsfindung und andere Informationsverarbeitungsaktivitäten regelmäßig überprüfen.
Gemäß der Regel können die Regulierungsbehörden auch interne Prüfungen zum Betrieb der Algorithmen der Plattformen durchführen, anstatt nur die Handlungen der Plattformen und deren Folgen von außen zu überwachen.
Dementsprechend machen die Regulierungsbehörden die Algorithmen zum unmittelbaren Regulierungsobjekt, das es den Regulierungsbehörden ermöglicht, in die Technik und Details der automatisierten Entscheidungsfindung einzugreifen.
2. Plattformen bewerten die Auswirkungen von Algorithmen im Voraus
Als Verarbeiter personenbezogener Daten führen Plattformen im Voraus eine Folgenabschätzung zum Schutz personenbezogener Daten durch und zeichnen die Verarbeitungsinformationen auf, wenn sie personenbezogene Daten für eine automatisierte Entscheidungsfindung verwenden. (Artikel 55)
Die Bewertung durch die Plattformen umfasst Folgendes:
A. Ob die Zwecke, Methoden oder andere Aspekte der Verarbeitung personenbezogener Daten rechtmäßig, legitim und notwendig sind;
B. die Auswirkungen auf Persönlichkeitsrechte und -interessen sowie das Risikoniveau; und
C. Ob die getroffenen Sicherheitsmaßnahmen rechtmäßig, wirksam und dem Risikoniveau angemessen sind.
Dementsprechend führen die Plattformen eine vorherige Bewertung durch, bevor Algorithmen zur automatisierten Entscheidungsfindung live gehen. Die Risikobewertung umfasst die Legitimität und Notwendigkeit der algorithmischen automatisierten Entscheidungsfindung sowie deren Auswirkungen und Risiken.
Eine fehlerhafte algorithmische automatisierte Entscheidungsfindung von Plattformen kann das Eigentum und die Persönlichkeitsrechte der Bürger beeinträchtigen, sogar öffentliche Interessen und die nationale Sicherheit.
Daher können die negativen Folgen Tausende von Benutzern betreffen. Selbst wenn die Plattformen zur Rechenschaft gezogen werden, kann es zu diesem Zeitpunkt schwierig sein, den bereits angerichteten Schaden wiederherzustellen.
Um eine solche Situation zu verhindern, richtet das Gesetz ein Vorabbewertungssystem für die Algorithmen von Plattformen ein, um zuvor in die Algorithmen einzugreifen.
3. Plattformen haften für die Ergebnisse der anschließenden Entscheidungsfindung
Plattformen übernehmen für Ergebnisse automatisierter Entscheidungsfindung (Artikel 24) folgende Pflichten:
A. Plattformen stellen sicher, dass die Ergebnisse fair und unparteiisch sind
Wenn Verarbeiter personenbezogener Daten eine automatisierte Entscheidungsfindung mit personenbezogenen Daten durchführen, stellen sie die Transparenz der Entscheidungsfindung sowie die Fairness und Unparteilichkeit der Ergebnisse sicher und behandeln Einzelpersonen in Bezug auf Transaktionspreise oder andere Transaktionsbedingungen nicht unangemessen unterschiedlich.
B. Plattformen bieten ihren Nutzern automatisierte Entscheidungsfindungsoptionen, die nicht auf persönliche Merkmale abzielen.
Wenn Push-basierte Informationslieferungen oder kommerzielles Marketing an Einzelpersonen mittels automatisierter Entscheidungsfindung durchgeführt werden, werden den Einzelpersonen gleichzeitig Optionen zur Verfügung gestellt, die nicht auf die persönlichen Merkmale der Einzelpersonen abzielen, oder einfache Möglichkeiten, den Empfang zu verweigern.
C. Plattformen geben Erläuterungen zu den Entscheidungsergebnissen ab.
Wird eine Entscheidung, die wesentliche Auswirkungen auf die Rechte und Interessen einer Person hat, mittels automatisierter Entscheidungsfindung getroffen, hat die betroffene Person das Recht, vom Verarbeiter der personenbezogenen Daten Erklärungen zu verlangen, sowie das Recht, die Entscheidung zu verweigern Entscheidungen des Verarbeiters personenbezogener Daten ausschließlich durch automatisierte Entscheidungsfindung.
Die Regel macht Plattformen für die Ergebnisse der automatisierten Entscheidungsfindung haftbar, einschließlich:
A. Die Regel erkennt die von Plattformen eingesetzte Verteidigung der „Technologieneutralität“ nicht an. Plattformen sollten für die Ergebnisse der algorithmischen automatisierten Entscheidungsfindung verantwortlich sein und sicherstellen, dass die Ergebnisse fair und angemessen sind.
B. Die Regel erweitert das Auskunftsrecht der Plattformnutzer. Die Nutzer können bei „wesentlichen Auswirkungen“ die Transparenz der Ergebnisse der automatisierten Entscheidungsfindung sowie Erläuterungen von Plattformen verlangen.
C. Die Regel verlangt, dass Plattformen die „Informationskokons“ durchbrechen, die durch algorithmische personalisierte Empfehlungen an die Benutzer entstehen, und verlangt, dass Plattformen das Recht der Benutzer auf Wissen schützen.
III. Unsere Kommentare
China hat beim PIPL einen Durchbruch erzielt, indem es gesetzliche Regeln für die Algorithmen der Plattformen zur automatisierten Entscheidungsfindung hinzugefügt hat. Es muss jedoch noch weiter verfeinert werden. Das Gesetz stellt beispielsweise nicht klar:
A. Bedingungen für Plattformen, um eine Algorithmusbewertung einzuleiten.
B. ob und in welchem Umfang die Bewertungsberichte veröffentlicht werden, nachdem Plattformen ihre Algorithmen evaluiert haben, und
C. wie Plattformen für den Schaden haften sollten, der durch ihre algorithmische automatisierte Entscheidungsfindung verursacht wird.
Ich gehe davon aus, dass die chinesischen Regulierungsbehörden immer noch die Möglichkeit prüfen, eine Reihe spezifischer Vorschriften zu erlassen, um die PIPL weiter umzusetzen.
Photo by Roadtrip mit Raj on Unsplash
Anbieter: Guodong Du