Chinas Justizbeobachter

中 司 观察

EnglischArabischChinesisch (vereinfacht)NiederländischFranzösischDeutschHindiItalienischJapanischKoreanischPortugiesischRussischSpanischSchwedischHebräischIndonesianVietnamesischThaiTürkischMalay

Wie geht China mit der Rechenschaftspflicht der Plattform bei der algorithmischen Entscheidungsfindung um?

So, 28. November 2021
Kategorien: Branchenwissen
Anbieter: Guodong Du
Editor: Shuai Huang

Benutzerbild

 

Die zentralen Thesen:

  • Der chinesische Gesetzgeber hat die zentrale Rolle von Algorithmen beim Betrieb von Internetplattformen erkannt und im Gesetz zum Schutz personenbezogener Daten (PIPL) vom 20. August 2021, das diese Technologie erstmals regelt, als „automatisierte Entscheidungsfindung“ definiert.
  • Im Rahmen des PIPL bewerten Plattformen die Auswirkungen von Algorithmen im Voraus und haften für Ergebnisse der Entscheidungsfindung im Nachhinein.
  • Das PIPL erweitert das Recht der Plattformnutzer auf Wissen und verlangt von Plattformen, die "Informationskokons" zu durchbrechen, die durch algorithmische personalisierte Empfehlungen an die Nutzer entstehen.


Chinas Gesetz zum Schutz personenbezogener Daten (个人信息保护法), in Kraft getreten im August 2021, zieht die Grenzen für Internetplattformen, die automatisierte Entscheidungen durch Algorithmen treffen.

. Hintergrund

Chinesische Internetplattformen, typischerweise TopBuzz und TikTok von ByteDance, verwenden in großem Umfang Empfehlungsalgorithmen, um Inhalte und Produkte an ihre Benutzer zu übermitteln.

Allerdings werden solche Algorithmen von der Öffentlichkeit und den Aufsichtsbehörden in Frage gestellt, die angeblich in das Recht der Nutzer auf freie Entscheidung eingegriffen und somit ein moralisches Risiko geschaffen haben.

Der chinesische Gesetzgeber hat die zentrale Rolle von Algorithmen beim Betrieb solcher Plattformen erkannt und sie im Gesetz zum Schutz personenbezogener Daten (im Folgenden „PIPL“) als „automatisierte Entscheidungsfindung“ definiert, das am 20. August 2021 in Kraft getreten ist und diese Technologie für die erstes Mal.

In Übereinstimmung mit dem PIPL bezieht sich automatisierte Entscheidungsfindung auf die Aktivitäten der automatischen Analyse und Bewertung von Verhaltensgewohnheiten, Hobbys oder des Finanz-, Gesundheits- und Kreditstatus von Einzelpersonen durch Computerprogramme und das Treffen von Entscheidungen darüber. (Artikel 73)

Zuvor gab es geteilte Meinungen über die Haftung der Plattformen für automatisierte Entscheidungsfindung. Einige Leute glaubten beispielsweise, dass die Plattformen nicht für die Ergebnisse ihrer automatisierten Entscheidungsalgorithmen haften sollten, die im Wesentlichen eine Art neutrale Technologie waren. Das PIPL verdeutlicht jedoch das Gegenteil.

. Einschränkungen auf Plattformen

1. Aufsichtsbehörden überprüfen die Algorithmen direkt

Als Verarbeiter personenbezogener Daten überprüfen Plattformen regelmäßig die Übereinstimmung ihrer Verarbeitung personenbezogener Daten mit den Gesetzen und Verwaltungsvorschriften. (Artikel 54)

Dies erfordert, dass Plattformen ihre algorithmische automatisierte Entscheidungsfindung und andere Informationsverarbeitungsaktivitäten regelmäßig überprüfen.

Gemäß der Regel können die Regulierungsbehörden auch interne Prüfungen zum Betrieb der Algorithmen der Plattformen durchführen, anstatt nur die Handlungen der Plattformen und deren Folgen von außen zu überwachen.

Dementsprechend machen die Regulierungsbehörden die Algorithmen zum unmittelbaren Regulierungsobjekt, das es den Regulierungsbehörden ermöglicht, in die Technik und Details der automatisierten Entscheidungsfindung einzugreifen.

2. Plattformen bewerten die Auswirkungen von Algorithmen im Voraus 

Als Verarbeiter personenbezogener Daten führen Plattformen im Voraus eine Folgenabschätzung zum Schutz personenbezogener Daten durch und zeichnen die Verarbeitungsinformationen auf, wenn sie personenbezogene Daten für eine automatisierte Entscheidungsfindung verwenden. (Artikel 55)

Die Bewertung durch die Plattformen umfasst Folgendes:

A. Ob die Zwecke, Methoden oder andere Aspekte der Verarbeitung personenbezogener Daten rechtmäßig, legitim und notwendig sind;

B. die Auswirkungen auf Persönlichkeitsrechte und -interessen sowie das Risikoniveau; und

C. Ob die getroffenen Sicherheitsmaßnahmen rechtmäßig, wirksam und dem Risikoniveau angemessen sind.

Dementsprechend führen die Plattformen eine vorherige Bewertung durch, bevor Algorithmen zur automatisierten Entscheidungsfindung live gehen. Die Risikobewertung umfasst die Legitimität und Notwendigkeit der algorithmischen automatisierten Entscheidungsfindung sowie deren Auswirkungen und Risiken.

Eine fehlerhafte algorithmische automatisierte Entscheidungsfindung von Plattformen kann das Eigentum und die Persönlichkeitsrechte der Bürger beeinträchtigen, sogar öffentliche Interessen und die nationale Sicherheit.

Daher können die negativen Folgen Tausende von Benutzern betreffen. Selbst wenn die Plattformen zur Rechenschaft gezogen werden, kann es zu diesem Zeitpunkt schwierig sein, den bereits angerichteten Schaden wiederherzustellen.

Um eine solche Situation zu verhindern, richtet das Gesetz ein Vorabbewertungssystem für die Algorithmen von Plattformen ein, um zuvor in die Algorithmen einzugreifen.

3. Plattformen haften für die Ergebnisse der anschließenden Entscheidungsfindung

Plattformen übernehmen für Ergebnisse automatisierter Entscheidungsfindung (Artikel 24) folgende Pflichten:

A. Plattformen stellen sicher, dass die Ergebnisse fair und unparteiisch sind

Wenn Verarbeiter personenbezogener Daten eine automatisierte Entscheidungsfindung mit personenbezogenen Daten durchführen, stellen sie die Transparenz der Entscheidungsfindung sowie die Fairness und Unparteilichkeit der Ergebnisse sicher und behandeln Einzelpersonen in Bezug auf Transaktionspreise oder andere Transaktionsbedingungen nicht unangemessen unterschiedlich.

B. Plattformen bieten ihren Nutzern automatisierte Entscheidungsfindungsoptionen, die nicht auf persönliche Merkmale abzielen.

Wenn Push-basierte Informationslieferungen oder kommerzielles Marketing an Einzelpersonen mittels automatisierter Entscheidungsfindung durchgeführt werden, werden den Einzelpersonen gleichzeitig Optionen zur Verfügung gestellt, die nicht auf die persönlichen Merkmale der Einzelpersonen abzielen, oder einfache Möglichkeiten, den Empfang zu verweigern.

C. Plattformen geben Erläuterungen zu den Entscheidungsergebnissen ab.

Wird eine Entscheidung, die wesentliche Auswirkungen auf die Rechte und Interessen einer Person hat, mittels automatisierter Entscheidungsfindung getroffen, hat die betroffene Person das Recht, vom Verarbeiter der personenbezogenen Daten Erklärungen zu verlangen, sowie das Recht, die Entscheidung zu verweigern Entscheidungen des Verarbeiters personenbezogener Daten ausschließlich durch automatisierte Entscheidungsfindung.

Die Regel macht Plattformen für die Ergebnisse der automatisierten Entscheidungsfindung haftbar, einschließlich:

A. Die Regel erkennt die von Plattformen eingesetzte Verteidigung der „Technologieneutralität“ nicht an. Plattformen sollten für die Ergebnisse der algorithmischen automatisierten Entscheidungsfindung verantwortlich sein und sicherstellen, dass die Ergebnisse fair und angemessen sind.

B. Die Regel erweitert das Auskunftsrecht der Plattformnutzer. Die Nutzer können bei „wesentlichen Auswirkungen“ die Transparenz der Ergebnisse der automatisierten Entscheidungsfindung sowie Erläuterungen von Plattformen verlangen.

C. Die Regel verlangt, dass Plattformen die „Informationskokons“ durchbrechen, die durch algorithmische personalisierte Empfehlungen an die Benutzer entstehen, und verlangt, dass Plattformen das Recht der Benutzer auf Wissen schützen.

III. Unsere Kommentare

China hat beim PIPL einen Durchbruch erzielt, indem es gesetzliche Regeln für die Algorithmen der Plattformen zur automatisierten Entscheidungsfindung hinzugefügt hat. Es muss jedoch noch weiter verfeinert werden. Das Gesetz stellt beispielsweise nicht klar:

A. Bedingungen für Plattformen, um eine Algorithmusbewertung einzuleiten.

B. ob und in welchem ​​Umfang die Bewertungsberichte veröffentlicht werden, nachdem Plattformen ihre Algorithmen evaluiert haben, und 

C. wie Plattformen für den Schaden haften sollten, der durch ihre algorithmische automatisierte Entscheidungsfindung verursacht wird.

Ich gehe davon aus, dass die chinesischen Regulierungsbehörden immer noch die Möglichkeit prüfen, eine Reihe spezifischer Vorschriften zu erlassen, um die PIPL weiter umzusetzen.

 

Photo by Roadtrip mit Raj on Unsplash

 

 

 

 

 

Anbieter: Guodong Du

Speichern als PDF

Verwandte Gesetze auf dem China Laws Portal

Mehr interessante Produkte:

Hinter Chinas erstem Privatinsolvenzfall

Im Jahr 2021 gab das Mittlere Volksgericht von Shenzhen dem Antrag von Herrn Liang auf Reorganisation des Privatkonkurses statt und markierte damit den ersten seiner Art in China.

Fallstudie: Administrative Bestrafung der Gesichtserkennung

Eine Studie mit über 400 Fällen von administrativen Bestrafungen beleuchtet die aktuelle Haltung der chinesischen Regierung gegenüber der Gesichtserkennung und bietet ein Szenario zur Bewertung der Anwendung des chinesischen Gesetzes zum Schutz personenbezogener Daten, falls die Fälle heute auftreten.

Was sagt Chinas Prozesskostenhilfegesetz?

Was ist der Pflichtanwalt? Wer wird als Rechtshilfepersonal dienen? Welche Rechtsdienstleistungen können erbracht werden? Hier sind die wichtigsten Fragen, die beantwortet werden müssen, um das chinesische Rechtshilfegesetz kennenzulernen.

Arbeitssicherheitsgesetz von China (2021)

Das Arbeitssicherheitsgesetz (安全生产法) wurde am 29. Juni 2002 verkündet und 2009, 2014 bzw. 2021 geändert. Die letzte Revision trat am 1. September 2021 in Kraft.

Bestimmungen zu mehreren Fragen in Bezug auf die Anwendung von Gesetzen in Zivilsachen, die den Einsatz von Gesichtserkennungstechnologien zur Verarbeitung personenbezogener Daten beinhalten(2021)

Bestimmungen des Obersten Volksgerichtshofs zu mehreren Fragen der Rechtsanwendung in Zivilsachen, die den Einsatz von Gesichtserkennungstechnologien zur Verarbeitung personenbezogener Daten betreffen (最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定) wurden am 27. Juli 2021 verkündet und sind am 1. August 2021 in Kraft getreten.