WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Intelligence artificielle et mise en oeuvre des principes de privacy by design et privacy by default


par Julie Morin Richard
Ulco - Master 2 Droit des affaires 2020
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Chapitre 2 : Replacer l'utilisateur au coeur de l'intelligence artificielle

Le marché d'internet est dominé aujourd'hui par de grandes plateformes dont le business model réside en la monétisation des données à caractère personnel des individus489. Capter l'attention devient l'enjeu majeur, ce qui encourage le développement de méthodes persuasives et addictives, au prix d'influencer nos perceptions de la réalité, nos choix et nos comportements dans l'objectif d'accroître le profit490. Ce comportement est cependant contraire à l'article 1 de la Loi informatique et libertés qui dispose que « L'informatique doit être au service de chaque citoyen ». Il devient alors impératif de protéger l'autodétermination des personnes concernées, en les formant (Section 1) et en leur fournissant des outils adaptés (Section 2).

Section 1 : Responsabiliser l'utilisateur

Le consentement des personnes concernées ne peut être obtenu qu'en étant « libre, spécifique, éclairé et univoque491 ». Or, le développement des algorithmes entraine une diminution des vigilances individuelles, qu'il convient de pallier492. Le caractère éclairé du consentement peut être affaibli face à deux mécanismes que sont la bulle filtrante (§1) et le design trompeur (§2).

§1. Ne pas réduire la personne concernée à son alter égo numérique par le mécanisme de bulle filtrante

Un des risques de l'usage des algorithmes d'intelligence artificielle sur internet est la pratique d'enfermement et de perte de pluralisme culturel. Dans son ouvrage493, E. Parisier emploie le terme de « bulle filtrante », qui signifie que l'activité intrinsèque de filtrage et de classement opérée par les algorithmes a pour effet de nuire au pluralisme et de renforcer le déterminisme de l'individu. Cet effet, appelé aussi l'« effet performatif », utilisé sur internet est lié à la personnalisation des recherches et limite ainsi les contenus auxquels les individus sont exposés, et réduit par voie de conséquence la créativité et la capacité de penser494.

L'enfermement s'opère à deux niveaux. A l'échelle de l'individu, « les algorithmes augmenteraient la propension des individus à ne fréquenter que des objets, des personnes, des

489 CEPD, avis n° 3/2018 sur la manipulation en ligne et les données à caractère personnel, mars 2018, p. 12

490 N. Miailhe, « Géopolitique de l'intelligence artificielle : le retour des empires ? », politique étrangère, 2018, p. 109

491 Art. 4 11) RGPD

492 CNIL, les enjeux éthiques des algorithmes et de l'intelligence artificielle, op. cit., p.50

493 E. Pariser, «The filter Bubble: What the Internet is hiding from you», Penguin Press, 2011

494 Parlement européen, « Understanding algorithmic decision-making: Opportunities and challenges», mars 2019, p.13

- 81 -

Le régime de lege feranda

opinions, des cultures conformes à leurs propres goûts et à rejeter l'inconnu495 ». L'individu serait ainsi assimilé à son « alter-égo numérique », enfermé dans sa prison de recommandations. A l'échelle de la société, cet usage risque de nuire à la démocratie du fait que les privations d'exposition des individus à la différence réduiraient la qualité et la vitalité du débat publique.

§2. Être conscient des pratiques de design trompeur

La « théorie du nudge496 » repose sur l'idée que « l'homo economicus497 » n'existe pas. L'homme n'est en réalité pas totalement rationnel. Ses décisions sont influencées par des structures mentales, appelées « biais cognitifs » qui orientent nos perceptions et nos comportements à partir de notre environnement physique, social et cognitif498. Ce sont d'ailleurs ces biais cognitifs qui expliquent le paradoxe de la vie privée.

La technique du « nudge » ou « coup de pouce » consiste donc à agir sur l'architecture des choix des individus pour les inciter à effectuer certaines actions plutôt que d'autres499. Dans son sens péjoratif, le Nudge est appelé « dark pattern ». Il existe en effet des design abusifs, trompeurs, et dangereux500 dont l'usage contrevient au respect de la protection de la vie privée. Il existe quatre types de designs trompeurs : ceux qui influencent le consentement, ceux qui déroutent la personne, ceux qui créent des frictions et ceux qui incitent au partage des données501.

Le « dark pattern » peut nuire au consentement de la personne concernée. Tout d'abord le « paradoxe du choix » provoque une fausse impression de contrôle de l'individu. De plus, le consentement est toujours accordé dans un espace contraint, l'usage de stratégies de détournement de l'attention invalidera alors le consentement502. Ce comportement porte également atteinte aux principes de transparence et de loyauté503.

Le design trompeur peut également induire en erreur la personne concernée. L'autorité de contrôle norvégienne a récemment démontré comment les Darks Patterns employés par Facebook et Google empêchent les personnes concernées d'exercer leurs droits504. Ces procédés ont d'ailleurs fait l'objet d'une question à la CNIL sur la conformité des pratiques de

495 CNIL, les enjeux éthiques des algorithmes et de l'intelligence artificielle, op. cit., p.35

496 R. Thaler, « Nudge : améliorer les décisions concernant la santé, la richesse et le bohneur », 2008

497 E. Benays, « propaganda », 1928

498 CNIL, LINC, « Cahier IP - La forme des choix - Données personnelles, design et frictions désirables », p.15

499 Ibid., p.19

500 Ibid., p.27

501 E. Hary; «Dark patterns : quelle grille de lecture pour les réguler ? » 2 septembre 2019

502 CNIL, « Cahier IP - La forme des choix - Données personnelles, design et frictions désirables », p.30, 40

503 Ibid., p.30, 43

504 Forbrukerradet, «Deceived by design, How tech companies use dark patterns to discourage us from exercising our rights to privacy», 27 juin 2018

- 82 -

Le régime de lege feranda

Facebook et de Google par rapport aux principes de privacy by default et des modalités de collecte du consentement505.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Il faut répondre au mal par la rectitude, au bien par le bien."   Confucius