Observateur de la justice en Chine

??

AnglaisArabeChinois simplifié)NéerlandaisFrançaisAllemandHindiItalienJaponaisCoréenPortugaisRusseEspagnolSwedishStockingsHébreuIndonesianVietnamienThaiTurcMalai

Comment la Chine aborde-t-elle la responsabilité de la plate-forme dans la prise de décision algorithmique ?

Dim, 28 nov 2021
Catégories: Plus d'infos
Contributeurs: Guodong Du杜国栋
Rédacteur en chef: Shuai Huang

Avatar

 

Principales sorties:

  • Les législateurs chinois ont pris conscience du rôle central des algorithmes dans le fonctionnement des plateformes Internet et l'ont défini comme une « prise de décision automatisée » dans la loi sur la protection des informations personnelles (PIPL) promulguée le 20 août 2021, réglementant cette technologie pour la première fois.
  • Dans le cadre du PIPL, les plateformes doivent évaluer l'impact des algorithmes à l'avance et sont responsables des résultats de la prise de décision par la suite.
  • Le PIPL étend le droit de savoir des utilisateurs de la plate-forme et oblige les plates-formes à briser les « cocons d'information » créés par les recommandations personnalisées algorithmiques aux utilisateurs.


La loi chinoise sur la protection des informations personnelles (个人信息保护法), promulguée en août 2021, trace les limites des plateformes Internet menant une prise de décision automatisée par le biais d'algorithmes.

. Fond

Les plates-formes Internet chinoises, généralement TopBuzz et TikTok de ByteDance, utilisent largement des algorithmes de recommandation pour proposer du contenu et des produits à leurs utilisateurs.

Cependant, de tels algorithmes, qui auraient interféré avec les droits de libre décision des utilisateurs et ainsi créé un aléa moral, sont remis en cause par le public et les régulateurs.

Les législateurs chinois ont pris conscience du rôle central des algorithmes dans le fonctionnement de ces plateformes et l'ont défini comme une « prise de décision automatisée » dans la loi sur la protection des informations personnelles (ci-après « la PIPL ») promulguée le 20 août 2021, réglementant cette technologie pour le première fois.

Conformément au PIPL, la prise de décision automatisée fait référence aux activités d'analyse et d'évaluation automatiques des habitudes comportementales, des passe-temps ou de l'état financier, de la santé et du crédit des individus par le biais de programmes informatiques et de la prise de décisions à ce sujet. (Article 73)

Avant cela, les avis étaient partagés sur la responsabilité des plateformes en matière de prise de décision automatisée. Par exemple, certaines personnes pensaient que les plateformes ne devraient pas être tenues responsables des résultats de leurs algorithmes de prise de décision automatisés, qui étaient essentiellement une sorte de technologie neutre. Cependant, le PIPL clarifie le contraire.

. Restrictions sur les plateformes

1. Les régulateurs examinent directement les algorithmes

En tant que sous-traitants des informations personnelles, les plateformes doivent vérifier régulièrement la conformité de leur traitement des informations personnelles avec les lois et réglementations administratives. (Article 54)

Cela oblige les plateformes à auditer périodiquement leur prise de décision algorithmique automatisée et d'autres activités de traitement de l'information.

Selon la règle, les régulateurs peuvent également effectuer des audits internes sur le fonctionnement des algorithmes des plateformes, au lieu d'une supervision externe sur les actes des plateformes et leurs conséquences uniquement.

En conséquence, les régulateurs font des algorithmes l'objet de régulation direct, ce qui permet aux régulateurs d'intervenir dans la technologie et les détails de la prise de décision automatisée.

2. Les plateformes évaluent à l'avance l'impact des algorithmes 

En tant que processeurs d'informations personnelles, les plates-formes doivent effectuer à l'avance une évaluation de l'impact sur la protection des informations personnelles et enregistrer les informations de traitement si elles utilisent des informations personnelles pour une prise de décision automatisée. (Article 55)

L'évaluation par les plateformes porte sur les éléments suivants :

A. Si les finalités, les méthodes ou tout autre aspect du traitement des informations personnelles sont licites, légitimes et nécessaires ;

B. L'impact sur les droits et intérêts personnels et le niveau de risque ; et

C. Si les mesures de protection de la sécurité prises sont légales, efficaces et proportionnées au niveau de risque.

En conséquence, les plateformes procéderont à une évaluation préalable avant la mise en service des algorithmes de prise de décision automatisée. L'évaluation des risques inclut la légitimité et la nécessité de la prise de décision automatisée algorithmique, ainsi que son impact et son risque.

Une prise de décision automatisée algorithmique défectueuse à partir de plates-formes peut porter atteinte à la propriété et aux droits personnels des citoyens, voire aux intérêts publics et à la sécurité nationale.

Par conséquent, les conséquences négatives peuvent affecter des milliers d'utilisateurs. À ce stade, même si les plateformes sont tenues pour responsables, il peut être difficile de réparer les dommages déjà causés.

Pour éviter une telle situation, la loi instaure un système d'évaluation préalable des algorithmes des plateformes pour tenter d'intervenir en amont dans les algorithmes.

3. Les plateformes sont responsables des résultats de la prise de décision ultérieure

Les plateformes assument les obligations suivantes pour les résultats de la prise de décision automatisée (article 24) :

A. Les plateformes veillent à ce que les résultats soient justes et impartiaux

Lorsque les processeurs d'informations personnelles conduisent une prise de décision automatisée avec des informations personnelles, ils doivent assurer la transparence de la prise de décision et l'équité et l'impartialité des résultats, et n'accordent pas de traitement différentiel déraisonnable aux individus en termes de prix de transaction ou d'autres conditions de transaction.

B. Les plates-formes fourniront à leurs utilisateurs des options de prise de décision automatisées ne ciblant pas les caractéristiques personnelles.

Lorsque la livraison d'informations push ou le marketing commercial aux individus est effectué au moyen d'une prise de décision automatisée, des options ne ciblant pas les caractéristiques personnelles des individus ou des moyens faciles de refuser de recevoir doivent être fournies aux individus simultanément.

C. Les plateformes doivent expliquer les résultats de la prise de décision.

Lorsqu'une décision ayant une incidence importante sur les droits et les intérêts d'une personne est prise au moyen d'une prise de décision automatisée, la personne a le droit de demander au responsable du traitement des informations personnelles de fournir des explications, ainsi que le droit de refuser la prise de décisions prises par le processeur d'informations personnelles uniquement au moyen d'une prise de décision automatisée.

La règle tient les plateformes responsables des résultats de la prise de décision automatisée, notamment :

A. La règle ne reconnaît pas la défense de « neutralité technologique » qui a été utilisée par les plateformes. Les plateformes devraient être responsables des résultats de la prise de décision algorithmique automatisée et devraient s'assurer que les résultats sont justes et raisonnables.

B. La règle étend le droit de savoir des utilisateurs de la plate-forme. Les utilisateurs peuvent demander la transparence des résultats de la prise de décision automatisée ainsi que des explications auprès des plateformes en cas d'« impact matériel ».

C. La règle oblige les plateformes à briser les « cocons d'information » créés par les recommandations algorithmiques personnalisées aux utilisateurs, et exige que les plateformes protègent le droit de savoir des utilisateurs.

III. Nos commentaires

La Chine a fait une percée dans le PIPL en ajoutant des règles juridiques pour les algorithmes de prise de décision automatisée des plateformes. Cependant, il doit encore être affiné. Par exemple, la loi ne précise pas :

A. conditions pour que les plateformes initient l'évaluation des algorithmes.

B. si et dans quelle mesure les rapports d'évaluation seront rendus publics après que les plateformes auront évalué leurs algorithmes, et 

C. comment les plateformes devraient être responsables des dommages causés par leur prise de décision algorithmique automatisée.

Je suppose que les régulateurs chinois explorent toujours la possibilité d'adopter une série de réglementations spécifiques pour poursuivre la mise en œuvre du PIPL.

 

Photo par Road Trip avec Raj on Unsplash

 

 

 

 

 

Contributeurs: Guodong Du杜国栋

Enregistrer au format PDF

Lois connexes sur le portail des lois chinoises

Vous pourriez aussi aimer

Étude de cas : Punition administrative de la reconnaissance faciale

Une étude de plus de 400 cas de sanctions administratives met en lumière l'attitude actuelle du gouvernement chinois à l'égard de la reconnaissance faciale et fournit un scénario pour évaluer comment la loi chinoise sur la protection des informations personnelles s'appliquerait si les cas se produisent aujourd'hui.

Que dit la loi chinoise sur l'aide juridique ?

Qu'est-ce que l'avocat de service ? Qui servira de personnel d'aide juridique? Quels types de services juridiques peuvent être fournis? Voici les questions clés auxquelles il faut répondre pour connaître la loi chinoise sur l'aide juridique.

Loi sur la sécurité au travail de la Chine (2021)

La loi sur la sécurité au travail (安全生产法) a été promulguée le 29 juin 2002 et modifiée en 2009, 2014 et 2021 respectivement. La dernière révision est entrée en vigueur le 1er septembre 2021.

Dispositions sur plusieurs questions concernant l'application de la loi dans le procès des affaires civiles impliquant l'utilisation de technologies de reconnaissance faciale pour traiter des renseignements personnels (2021)

Dispositions de la Cour populaire suprême sur plusieurs questions concernant l'application de la loi dans le procès des affaires civiles impliquant l'utilisation de technologies de reconnaissance faciale pour traiter des informations personnelles (最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定) ont été promulguées le 27 juillet 2021 et sont entrées en vigueur le 1er août 2021.