WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

L'intelligence artificielle dans le secteur de l'assurance


par Georges BERGER
Université de Strasbourg - M2 Droit de l'économie numérique 2020
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

L'INTELLIGENCE ARTIFICIELLE DANS LE

SECTEUR DE L'ASSURANCE

Mémoire de recherche

BERGER Georges

Master 2 Droit de l'économie numérique
Année universitaire 2019-2020

1/97

Sous la direction de Madame Catherine LEDIG Professeure à l'Université de Strasbourg

RÉSUMÉ

La révolution numérique a changé la face de l'économie, non seulement européenne, mais aussi mondiale. Les progrès technologiques et le développement des nouveaux systèmes d'information et de communications ont bouleversé les sociétés. En effet, le développement des nouvelles technologies témoigne d'une réelle « mutation sociétale dont la clé de voûte résulte de l'information numérique et des communications électroniques »1 qui vont alors jusqu'à impacter notre manière de communiquer, d'échanger et d'appréhender le monde qui nous entoure. Dans ce contexte, l'intelligence artificielle, et plus particulièrement le machine learning et le deep learning, offre de nouvelles perspectives économiques.

Ainsi, si leur intégration dans le secteur des assurances va conduire à une refonte complète des processus allant vers plus de transversalités entre les métiers, et un effacement des frontières traditionnelles entre le back office et le front office, l'intelligence artificielle laisse entrevoir de nouvelles perspectives en termes d'analyse des risques et des offres qui entendre répondre à un besoin croissant de personnalisation voulue par les assurés. En même temps, l'intégration de l'intelligence artificielle laisse entrevoir de nouvelles perspectives s'agissant de la prévention et de la lutte contre la fraude à l'assurance.

Cependant, bousculant les codes existants jusqu'alors dans ce secteur, l'utilisation des nouveaux procédés d'intelligence artificielle pose la question de leur compatibilité avec le principe de mutualisation des risques, central dans ce secteur, mais également du cadre réglementaire applicable en la matière.

2/97

1 Éric A. Caprioli, Droit international de l'économie numérique : les problèmes juridiques liés à l'internationalisation de l'économie numérique, Lexis Nexis, 2e Édition

ABSTRACT

The digital revolution has changed the face of the economy, not only in Europe, but also globally. Technological advances and the development of new information and communication systems have turned societies upside down. Indeed, the development of new technologies is evidence of a real societal change, the keystone of which is digital information and electronic communications, which are now impacting the way we communicate, exchange and understand the world around us2. In this context, artificial intelligence, and more particularly machine learning and deep learning, offers new economic perspectives.

While their integration in the insurance sector will lead to a complete overhaul of processes, with more cross-functionality between businesses, and the blurring of traditional boundaries between the back office and the front office, artificial intelligence offers new perspectives in terms of risk analysis and offers that aim to respond to a growing need for personalization as required by policyholders. At the same time, the integration of artificial intelligence opens up new perspectives when it comes to preventing and combating insurance fraud.

However, the use of new artificial intelligence processes raises the question of their compatibility with the principle of risk pooling, which is central to this sector, but also with the regulatory framework applicable in this area.

3/97

2 ric A. Caprioli, Droit international de l'économie numérique : les problèmes juridiques liés à l'internationalisation de l'économie numérique, Lexis Nexis, 2e Édition

4/97

5/97

******

Je tiens à exprimer ma reconnaissance et mes sincères remerciements à Madame Catherine LEDIG, ma directrice de mémoire et responsable de master, qui m'a aidé, conseillé et orienté tout au long de cette année si particulière.

J'adresse également mes sincères remerciements à l'ensemble de l'équipe pédagogique, dont les méthodes d'enseignement et d'évaluation nous auront permis de mettre en pratique et de contextualiser l'ensemble des connaissances et compétences acquises au cours de cette année.

Je tiens à remercier mes proches, qui par leur soutien inconditionnel et leurs encouragements m'ont été d'une grande aide.

À tous ces intervenants, je présente mes remerciements, mon respect et ma gratitude.

6/97

TABLE DES MATIÈRES

INTRODUCTION 9

PARTIE I : La refonte du modèle assurantiel traditionnel par l'usage

des procédés d'intelligence artificielle 13

Chapitre 1 : L'intégration de l'intelligence artificielle, facteur d'innovation

dans le secteur de l'assurance 14
Section 1.
L'intelligence artificielle, outil de développement opérationnel et de culture

des transversalités 14

I. Le décloisonnement des métiers induit par l'utilisation de l'intelligence

artificielle 14

II. L'optimisation opérationnelle par l'automatisation des processus 18
Section 2. L'intelligence artificielle, moteur essentiel au développement de nouvelles

activités à forte valeur ajoutée centrée sur le client 22

I. Une réponse pertinente à l'ère de la considération 22

II. Vers une prévention augmentée par le recours à l'intelligence artificielle 25

Chapitre 2 : L'impact de l'intelligence artificielle sur le principe de

mutualisation des risques 29
Section 1.
L'appréhension et la mutualisation des risques, piliers du modèle

assurantiel traditionnel 29
Section 2. L'usage de l'intelligence artificielle, méthode d'analyse du risque plus

précise et dynamique 32

I. Le recours à l'intelligence artificielle en réponse aux risques émergents et

complexes 32

II. L'intelligence artificielle comme outil de correction de l'asymétrie

d'information 36
Section 3. La crainte d'une démutualisation du système assurantiel par le recours à

l'intelligence artificielle 39

PARTIE II : L'intelligence artificielle dans le secteur de l'assurance,

une technologie en quête de repères 43

Chapitre 1 : Un cadre réglementaire et éthique peu développé en la

matière 44
Section 1.
L'explicabilité des algorithmes, un enjeu majeur de développement de

l'intelligence artificielle 44

I. 7/97

La transparence des algorithmes d'intelligence artificielle, un principe socle

d'une intelligence artificielle soucieuse des droits humains 44

II. Des initiatives pour l'heure limitées et disparates des acteurs du secteur 48
Section 2. Une réglementation partielle de l'intelligence artificielle par le cadre

juridique existant 51

I. Le RGPD, une réponse incomplète au développement de l'intelligence

artificielle 51

II. L'intelligence artificielle à l'origine de nouvelles logiques de responsabilité 55

Chapitre 2 : Une gouvernance interne primordiale préalablement au

recours à l'intelligence artificielle 59

Section 1. L'impératif d'une stratégie de la donnée avant l'intégration des outils

d'intelligence artificielle 59
Section 2. L'importance d'une prise en considération des risques liés à la sécurité

des procédés d'intelligence artificielle 64

CONCLUSION 68

BIBLIOGRAPHIE 69

ANNEXES 74

Annexe 1. Chiffres clés de l'assurance en France 74

Annexe 2. Les différentes branches de l'intelligence artificielle 76

Annexe 3. La mutualisation des risques 77

Annexe 4. Les principaux indicateurs du numérique en France 77

Annexe 5. Les usages de l'intelligence artificielle en assurance 82

Annexe 6. Classification des différentes formes d'intelligence artificielle 83

Annexe 7. Codex des biais cognitifs humains 84

Annexe 8. Niveaux d'explication par cas d'usage 85

Annexe 9. Les objectifs et fonctions de la cybersécurité 86

Annexe 10. Synthèse des principaux moyens d'attaque spécifiques au

machine learning 87

Annexe 11. Briques de fonctionnement d'une application basée sur la

machine learning 88

Annexe 12. Synthèse des dispositions applicables au titre du Règlement

général sur la protection des données personnelles 89

8/97

Annexe 13. Synthèse des cas d'usage de l'utilisation de l'intelligence

artificielle dans le secteur de l'assurance 90

Annexe 14. Résultats du baromètre 2020 des risques émergents en

assurance 92

Annexe 15. Synthèse de l'approche du Conseil de l'Europe en matière de

régulation de l'intelligence artificielle 94

Annexe 16. Synthèse de la nouvelle stratégie de l'Union européenne en

matière de numérique 95

9/97

INTRODUCTION

« Réussir à créer une intelligence artificielle efficace pourrait être le plus grand évènement de l'histoire de notre civilisation, ou le pire. Nous ne savons tout simplement pas. Nous ne pouvons donc pas savoir si nous seront infiniment aidés par l'intelligence artificielle, ou ignorés par elle et écartés ou éventuellement détruits par elle3 ».

Ces mots, prononcés par Stephen Hawking, à l'occasion de son discours d'ouverture de la Web Summit 20174, témoigne du contexte actuel englobant l'essor de l'intelligence.

En effet, la révolution numérique a changé la face de l'économie, non seulement européenne, mais aussi mondiale. Les progrès technologiques et le développement des nouveaux systèmes d'information et de communications ont bouleversé les sociétés. En effet, le développement des nouvelles technologies témoigne d'une réelle « mutation sociétale dont la clé de voûte résulte de l'information numérique et des communications électroniques »5 qui vont alors jusqu'à impacter notre manière de communiquer, d'échanger et d'appréhender le monde qui nous entoure. Dans cet élan de « digitalisation » des sociétés modernes, deux remarques peuvent cependant être avancées. D'une part, il est possible d'observer que les technologies de l'information et de la communication (les « TIC ») ne sont plus un secteur de l'économie parmi d'autres, mais constituent aujourd'hui la base sur laquelle repose tous les secteurs de l'économie6. D'autre part, la révolution numérique entend placer les données au coeur du processus, tant elles permettent, une fois collectées, d'anticiper et de prédire. En ce sens, avec l'essor constant du nombre de données produites par chaque individu, les méthodes de traitement ont nécessairement dû évoluer.

Selon les derniers chiffres publiés par IDC en novembre 20197, plus de 16,1 Zettaoctets (soit environ 17 287 243 366, 4 Teraoctets) de données ont été générées en 2016, et ce chiffre ne cesse de croitre chaque, puisque le cabinet prédit un volume de données s'élevant à plus de 163 Zettaoctets à l'horizon de 2025, soit une augmentation de près de 34% par année. En telle hypothèse, la croissance exponentielle des données disponibles a nécessité l'essor de nouvelles

3 Traduction de l'anglais : « success in creating effective AI could be the biggest event in the history of our civilisation, or the worst. We just don't know. So we cannot know if we will be infinitely helped by AI, or ignored by it and sidelined or conceivably destroyed by it ».

4 https://websummit.com/blog/hall-of-famers

Le Web Summit est un évènement fondé par Paddy Cosgrave, David Kelly et Daire Hickey, inauguré pour la première en fois en 2009 et qui a lieu chaque année. L'évènement est centré sur la technologie de l'Internet et haute technologie, et réunit notamment les PDG des entreprises du Fortune 500 et les fondateurs de start-ups de l'internet.

5 Éric A. Caprioli, Droit international de l'économie numérique : les problèmes juridiques liés à l'internationalisation de l'économie numérique, Lexis Nexis, 2e Édition

6 Communication de la Commission européenne au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des région du 6 mai 2015, intitulé « Stratégie pour une marché unique numérique en Europe », COM (2017) 192 Final, SWD (2015) 100 final,

p.3

7 https://www.idc.fr/infographies

10/97

technologies permettant le traitement et l'analyse de pareilles données, aussi appelées technologies du big data. Qu'il s'agisse de photographies, SMS ou mails échangés, de tweets ou posts sur les réseaux sociaux, de données de navigation ou d'utilisation d'objets connectés en tous genres, ou bien encore de données météorologiques ou sismique, les données constituent aujourd'hui des informations cruciales permettant pilotant la vie des sociétés modernes8.

Dans un contexte où les données occupent une place fondamentale dans l'économie numérique, l'intelligence artificielle semble s'imposer non seulement comme une réponse concrète au traitement des données, mais également de tirer profit des données afin de fonder de nouveaux modèles disruptifs pour les entreprises.

Dans sa Communication du 25 avril 2018 sur l'Intelligence artificielle pour l'Europe, la Commission européenne soulignait que « l'intelligence artificielle (IA) désigne les systèmes qui font preuve d'un comportement intelligent en analysant leur environnement et en prenant des mesures - avec un certain degré d'autonomie - pour atteindre des objectifs spécifiques.

Les systèmes dotés d'IA peuvent être purement logiciels, agissant dans le monde virtuel (assistants vocaux, logiciels d'analyse d'images, moteurs de recherche ou systèmes de reconnaissance vocale et faciale, par exemple) mais l'IA peut aussi être intégrée dans des dispositifs matériels (robots évolués, voitures autonomes, drones ou applications de l'internet des objets, par exemple) ». Toutefois, cette définition ne se concentre que sur l'aspect fonctionnel, par référence aux systèmes, support de l'intelligence artificielle.

Le Conseil de l'Europe, très actif s'agissant des questions liées aux rapports entre les libertés fondamentales et l'intelligence artificielle, définit cette dernière comme « l'ensemble de sciences, théories et techniques (notamment logique mathématique, statistiques, probabilités, neurobiologie computationnelle, informatique) qui ambitionne d'imiter les capacités cognitives d'un être humain. Initiés dans le souffle de la seconde guerre mondiale, ses développements sont intimement liés à ceux de l'informatique et ont conduit les ordinateurs à réaliser des tâches de plus en plus complexes, qui ne pouvaient être auparavant que déléguées à un humain9 ».

Laissant entrevoir de larges perspectives économiques, le cabinet IDC a, dans ses dernières prévisions, estimé que les dépenses mondiales en intelligence artificielle devraient atteindre les 110 milliards de dollars en 202410. Plus particulièrement, le cabinet estime qu'au regard des nouvelles possibilités offertes par l'intelligence artificielle s'agissant de

8 Hubery Bitan, Droit et expertise du numérique, Wolters Kluwer, 2015

9 https://www.coe.int/fr/web/artificial-intelligence/history-of-

ai#:~:text=L'intelligence%20artificielle%20(IA),cognitives%20d'un%20%C3%AAtre%20humain

10 https://www.idc.com/getdoc.jsp?containerId=prUS46794720

11/97

l'organisation du travail et de relation client, ce sont principalement les secteurs de la vente au détail et de la finance qui dépenseront le plus en solutions d'intelligence artificielle.

À cet égard, le secteur de l'assurance n'est pas en reste s'agissant de l'intégration de ces nouveaux outils. En effet, selon les chiffres publiés par Insurance Europe11, le marché de l'assurance européen occupait en 2018 la deuxième place du marché mondial de l'assurance, juste après l'Asie, et avant l'Amérique du Nord. Le marché européen de l'assurance représente plus de 1 311 milliards d'euros de cotisations d'assurances sur l'année 2018, ce chiffre étant en hausse de 6,2% par rapport à l'année 201712. Et la France n'est pas en reste dans ce secteur. En effet, selon l'étude, notre pays figure, aux côtés du Royaume-Uni et de l'Allemagne, parmi les acteurs les plus importants du marché européen, avec près de 19,4 milliards d'euros de cotisations (voir annexe 1). Secteur marqué par l'importance de la donnée, qui constitue le coeur de l'activité assurantielle13, l'intégration des procédés d'intelligence artificielle apparait comme une solution aux nouveaux besoins exprimés par les assurés, dans un contexte le secteur connait une concurrence toujours plus importante, une réglementation toujours plus contraignante en matière de portage des risques, et un volume de données en constante augmentation. En ce sens, ce contexte général pousse les assureurs à devoir se réinventer et trouver de nouveaux leviers de croissance. À cet égard, si certains auteurs qualifiaient le cloud, la data et l'intelligence artificielle comme le tiercé gagnant des assureurs14, triptyque qui permettrait aux acteurs du secteur de pouvoir se démarquer par un processus de création de valeur fondé sur le numérique.

Dans ce contexte où l'intelligence artificielle semble répondre aux besoins du secteur par une remise en question des processus prévalant jusqu'alors, comment l'intelligence artificielle transforme-t-elle le secteur de l'assurance ? En outre, l'intelligence artificielle constitue-t-elle un levier de transformation pérenne ?

11 Basée à Bruxelles, Insurance Europe est la fédération européenne d'assurance et de réassurance, qui représente toutes les entreprises d'assurance et de réassurance. Ses missions sont les suivantes :

- Attirer l'attention sur les questions d'intérêt stratégique pour tous les assureurs et réassureurs européens de manière durable.

- Sensibiliser au rôle des assureurs et des réassureurs dans la protection et la sécurité de la communauté ainsi que dans la contribution à

la croissance et au développement économiques.

- Promouvoir - en tant qu'expert et représentant du secteur de l'assurance - un marché concurrentiel et ouvert au profit du consommateur
européen ainsi que des entreprises clientes.

https://www.insuranceeurope.eu/about-us

12 Insurance Europe, European Insurance - Key Facts, Septembre 2019.

Voir : https://www.insuranceeurope.eu/sites/default/files/attachments/European%20insurance%20--%20Key%20facts.pdf

13 https://arfv2.cdn.axa-contento-118412.eu/arfv2%2F44d8a534-cd54-45e6-8aab-f3e5614a4d01_axa_livreblanc-ia-vf-pdfinteractif.pdf

14 https://www.argusdelassurance.com/la-valorisation-de-la-donnee-dans-l-assurance/cloud-data-et-intelligence-artificielle-le-tierce-gagnant-des-assureurs.153659

12/97

En l'état, il est indéniable que le deep learning doit conduire à une mutation profonde du modèle assurantiel traditionnel (Partie I). En effet, si l'intelligence artificielle peut permettre de répondre à un besoin de création de valeur par une refonte des processus et des métiers traditionnels, elle doit également permettre de mieux cerner les besoins des assurés. Néanmoins, si les perspectives offertes par les procédés d'intelligence artificielle semblent positives et nécessaires dans un contexte où le besoin de personnalisation est toujours plus accentué, force est de constater que le manque de repères clairs, notamment s'agissant des règles applicables à l'intelligence artificielle, constitue un frein à son intégration dans le secteur (Partie II).

PARTIE I :

La refonte du modèle assurantiel traditionnel

par l'usage des procédés d'intelligence

artificielle

Dans son étude publiée en 201715, le cabinet Accenture soulignait que rares sont les secteurs échappant à la baisse de leur rentabilité et à la crainte de voir l'innovation et leurs futurs investissements considérablement réduits. Toutefois, le cabinet soulignait qu'il était possible d'inverser cette tendance, la croissance pouvant être stimulée par le recours à l'intelligence artificielle, susceptible d'accroitre la rentabilité de 38% en moyenne. En ce sens, l'intelligence artificielle s'inscrit comme un nouveau facteur de productivité et d'innovation (Chapitre 1), en ce qu'elle devrait permettre l'automatisation intelligente de la chaine de production dans de nombreux secteurs, l'extension des capacités humaines et l'accroissement du capital humain, ainsi que la diffusion de l'innovation. Néanmoins, si l'intelligence artificielle porte de nombreuses opportunités, son recours dans le secteur de l'assurance suscite de nouvelles craintes s'agissant de sa compatibilité avec un principe central du système : le principe de mutualisation des risques (Chapitre 2).

13/97

15 Accenture Research, How AI boosts industry profits and innovation, 2017

14/97

Chapitre 1 :

L'intégration de l'intelligence artificielle, facteur
d'innovation dans le secteur de l'assurance

Le secteur de l'assurance devrait profiter du potentiel offert par le machine learning, dont l'intégration constitue non seulement un outil de développement opérationnel et de culture des transversalités entre les différents métiers (Section 1), mais également un moteur essentiel afin de voir émerger de nouvelles activités à haute valeur ajoutée (Section 2).

Section 1. L'intelligence artificielle, outil de développement opérationnel et de culture des transversalités

Utilisée dans le secteur de l'assurance, l'intelligence artificielle devrait s'imposer comme un outil permettant le décloisonnement et la transversalité entre les métiers du secteur (I), mais également favoriser l'automatisation des tâches répétitives (II) afin de favoriser la productivité et replacer le client au coeur du métier.

I. Le décloisonnement des métiers induit par l'utilisation de l'intelligence artificielle

Traditionnellement, les métiers de la finance et de l'assurance sont classés selon deux catégories selon qu'ils soient dédiés ou non à la relation directe avec le client.

Ainsi, le « front office » fait référence à l'ensemble des actions, fonctions ou tâches de l'entreprise visible par la clientèle et en contact direct avec elle. Dans l'assurance, il s'agit donc principalement des services clients, agences commerciales, ou encore le service communication de l'entreprise, qui apparaissent donc en « première ligne » et sont garants de l'image de marque de l'entreprise.

À l'inverse, le « back office » correspond à l'ensemble des fonctions et tâches de l'entreprise qui n'est pas visible par le client final. Ainsi peuvent être cités les services de production et gestion des contrats, les services de souscription, les services logistiques, les ressources humaines, ou encore les fonctions liées à assurer le bon fonctionnement des systèmes d'information de l'entreprise ou encore le service indemnisation (« services sinistres »).

15/97

Toutefois, il faut souligner que la ligne entre « front » et « back office » tend de plus en plus s'effacer dans un contexte centré sur le client, de sorte qu'il n'existe pas de cloisonnement strict dans la pratique. En effet, par exemple, les chargés de sinistre interagissent de plus en plus directement avec le client dans le cadre de la gestion de sinistre. En réalité, cet effacement des frontières entre le « front office » et le « back office » devrait s'accélérer avec l'intégration des outils d'intelligence artificielle.

En tout état de cause, le recours à l'intelligence artificielle dans ce secteur vise deux principaux objectifs que sont d'une part, le développement d'une approche centrée sur le client et ses besoins en s'appuyant sur la technologie pour proposer une relation assureur-assuré toujours plus personnalisée et d'autre part, rendre les organisations plus agiles dans un secteur où la concurrence entre les acteurs traditionnels est forte, et où de nouveaux acteurs tentent de pénétrer le marché en s'appuyant sur des modèles disruptifs fondés sur des investissements importants en matière d'innovation, afin de proposer des produits et services toujours plus innovants.

En ce sens, le secteur est confronté ces dernières années à l'émergence de nouveaux acteurs qui entendent bousculer les codes jusque-là établis de l'assurance.

En effet, si l'inclusion des géants du web est devenue pratique courante aux États-Unis ces dernières années, comme en témoignent les initiatives de Google avec sa firme d'assurance Coefficient qui se fonde sur un partenariat stratégique avec la compagnie de réassurance Swiss Re CorSo16 afin de proposer des produits d'assurance santé ou encore l'accord entre Amazon et la banque JPMorgan Chase visant à la création d'une nouvelle compagnie d'assurance santé17, le secteur français l'assurance était jusqu'à très récemment préservé de l'inclusion des GAFAM. Néanmoins, le partenariat conclu entre Amazon et Aviva à la fin de l'année 2018 a sonné comme un coup de grâce porté au secteur de l'assurance français. Selon les termes de Jacques Richier, PDG d'Allianz France, « avec la technologie, les frontières entre les secteurs vont devenir de plus en plus floues. Certains acteurs vont venir manger des morceaux de notre métier, notamment la relation client18 ».

16 https://www.reinsurancene.ws/googles-verily-launches-insurance-partnership-with-swiss-re/

17 https://www.insurancebusinessmag.com/ca/news/healthcare/amazon-and-google-the-next-generation-of-insurance-competition-in-canada-117644.aspx

18 https://www.argusdelassurance.com/a-la-une/assurance-amazon-menace-ou-opportunite.136979

16/97

Bien qu'il ne s'agisse pas d'une inclusion complète d'Amazon dans l'assurance française (le partenariat conclu entre Amazon et Aviva vise uniquement à accorder la possibilité pour les nouveaux souscripteurs d'un contrat d'habitation ou automobile auprès d'Aviva de pouvoir, au moment du paiement, d'entrer leurs identifiants Amazon Pay afin de fluidifier et simplifier le parcours client19), ce mouvement témoigne toutefois de la capacité des géants du web à intégrer de nouveaux segments de l'économie jusqu'alors réservés à certains acteurs.

Mais l'une des principales craintes des acteurs traditionnels n'est pas tant l'entrée de ces géants du web, mais plutôt le contexte dans lequel s'inscrit cette nouvelle concurrence. En effet, afin de protéger les consommateurs, les assureurs sont tenus à des obligations particulières en termes de solvabilité, d'obligation d'immatriculation, ou encore d'obligations découlant du Code des assurances. Or, l'arrivée de ces nouveaux acteurs posent une question fondamentale : celle de la soumission de ces nouveaux acteurs au cadre réglementaire applicable aux acteurs traditionnels du secteur.

Outre l'inclusion des géants du web, il faut également souligner l'émergence des assurtechs, en référence l'ensemble des entreprises de petite ou moyenne taille s'appuyant sur les nouvelles technologies et les activités technologiques pour conquérir des parts sur le marché convoité de l'assurance. L'objectif de ces sociétés est de créer une disruption ou une rupture technologique améliorant et simplifiant les services rendus aux assurés tout en réduisant le prix. L'assurtech propose donc de s'appuyer sur les technologies numériques pour créer de la valeur sur les produits en assurance automobile, habitation, épargne-vie et autres garanties professionnelles. Tel est le cas par exemple de la start-up Tractable qui s'appuie sur l'intelligence artificielle pour proposer aux assureurs un système d'évaluation des dommages et d'estimation des coûts de réparation en temps réel en assurance automobile20 et les évènements climatiques,21 le but étant d'accélérer la gestion de ces sinistres. Mais on peut également citer Luko, une néo-assurance habitation qui combine imagerie satellite et intelligence artificielle pour déterminer les caractéristiques principales de l'habitation. En pratique, après avoir renseigné son adresse, le souscripteur sélectionne son terrain, et l'intelligence artificielle se charge de détecter « la surface du toit, la superficie du terrain, une piscine et d'autres variables22 » afin de proposer un rapport de risques, et des conseils

19 https://bonne-assurance.com/actualites/2018/11/25/doit-on-craindre-une-entree-des-geants-du-web-dans-le-monde-de-lassurance/

20 https://tractable.ai/products/vehicle-damage/

21 https://tractable.ai/products/disasters/

22 https://www.luko.eu/blog/garanties-assurance-maison-luko

17/97

personnalisés (« rappel pour élaguer des arbres dangereux pour la toiture, alerte en cas d'incendie de forêt, montée des eaux, etc23 »).

Il faut cependant tempérer l'idée selon laquelle les assurtechs constituent une menace en termes de concurrence pour les acteurs traditionnels. En effet, selon l'étude menée par le pôle FinTech Innovation de l'Autorité de Contrôle Prudentiel et de Résolution (ACPR) en 2018 sur la révolution numérique dans le secteur de l'assurance24, les assurtechs ne sont en réalité pas perçus comme des concurrents pour les acteurs traditionnels de l'assurance française mais comme des partenaires, qui pourront leur permettre de pouvoir tirer profit de l'intégration des nouvelles technologies que les acteurs traditionnels ne peuvent développer eux-mêmes en interne. On peut d'ailleurs souligner à titre d'exemple Covéa25, qui s'appuie justement sur les services offerts par Tractable pour les dommages causés aux véhicules26.

Quoiqu'il en soit, selon l'étude menée par le pôle FinTech Innovation de l'Autorité de Contrôle Prudentiel et de Résolution en 2018 sur la révolution numérique dans le secteur de l'assurance27, l'Autorité souligne que l'intelligence artificielle est perçue par les compagnies d'assurance comme un axe de développement très prometteur qui, combinée avec les optimisations de processus liées au numérique, pourrait avoir des incidences sur les conditions de travail.

Il apparait donc nécessaire pour les acteurs traditionnels du secteur de délaisser le fonctionnement en silos - qui consiste à ce que chaque service de l'entreprise travaille sur ses propres spécialités sans se soucier des activités et contraintes des autres services - afin de favoriser approche transverse et complémentaire des métiers et afin de pouvoir tirer parti de tout le potentiel offert par l'intelligence artificielle.

En réalité, outre cette approche transverse et complémentaire des métiers, l'intelligence artificielle doit permettre une automatisation plus ou moins importante des tâches, afin de gagner en productivité, et de concentrer l'activité autour de la relation avec le client.

23 https://www.luko.eu/blog/garanties-assurance-maison-luko

24 Autorité de Contrôle Prudentiel et de Résolution, Étude sur la révolution numérique dans le secteur français de l'assurance, n°87 - Mars 2018

25 Covéa est un groupe d'assurance mutualiste français regroupant les marques MAAF, MMA et GMF. Pour plus de détails : https://www.covea.eu/fr

26 https://www.decisionatelier.com/Covea-pousse-le-digital-dans-le-cadre-de-la-gestion-de-sinistre,11306

27 Autorité de Contrôle Prudentiel et de Résolution, Étude sur la révolution numérique dans le secteur français de l'assurance, n°87 - Mars 2018

II. L'optimisation opérationnelle par l'automatisation des processus

18/97

D'un point de vue opérationnel, l'intelligence artificielle constitue un axe majeur de développement, avec plus ou moins d'opportunités selon les cas d'usage espérés.

Pour rappel, l'intelligence artificielle est un terme générique, puisqu'on compte une grande multitude de divisions, spécialisées sur des points précis. Ainsi, le Machine learning constitue une division de l'intelligence artificielle visant à faire apprendre aux machines sans avoir été préalablement programmées à cet effet. Le Machine Learning est explicitement lié au Big Data, étant donné que pour apprendre et se développer, les ordinateurs ont besoin de flux de données à analyser, et sur lesquels ils peuvent s'entraîner28. Au sein même de cette division, il existe plusieurs variantes du machine learning, qui peut être supervisé, non-supervisé, ou s'appuyer sur le deep learning. Le deep learning, ou apprentissage profond, s'appuie sur un réseau de neurones artificiels cherchant à imiter le fonctionnement du cerveau humain, le but étant de reproduire les fonctions cognitives et d'interprétation propres au cerveau humain afin de pouvoir proposer des solutions pertinentes à un problème donné. En ce sens, le deep learning a vocation à être utilisé dans de nombreux domaines, qu'il s'agisse de la reconnaissance d'image, de la traduction automatique, des recommandations personnalisées, des agents conversationnels, ou encore de la prédiction financière automatisée29.

En marge du machine learning, plusieurs divisions de l'intelligence artificielle visent à reproduire certaines fonctions cognitives (voir annexe 2), que sont :

- le Natural language processing, ou traitement automatique du langage naturel

(abrégé TALN), constituant une division de l'intelligence artificielle. Ce procédé vise à permettre aux ordinateurs de comprendre le langage humain, dans le but de permettre aux machines de lire, déchiffrer, comprendre et donner sens au langage humain30.

- la voix, avec le développement des procédés de reconnaissance automatique de la parole visant à retranscrire la voix humaine captée via un microphone sous la forme d'un texte exploitable par la machine (et vice versa).

- ou encore la vision, par les procédés de reconnaissance et l'analyse automatique d'éléments présents dans des images ou des vidéos.

28 https://ia-data-analytics.fr/machine-learning/

29 https://www.futura-sciences.com/tech/definitions/intelligence-artificielle-deep-learning-17262/

30 https://www.lebigdata.fr/traitement-naturel-du-langage-nlp-definition

Sans reprendre de manière exhaustive tous les cas d'usage rendus possibles par le recours aux nouveaux procédés d'intelligence artificielle, il convient d'en rappeler les grandes lignes. En parcourant les différents travaux existants en la matière, force est de constater que l'intelligence artificielle entend bousculer l'ensemble des processus de l'assurance.

D'abord, s'agissant de l'entrée en relation, les nouveaux procédés d'intelligence artificielle vont permettre la création de produits et d'offres plus personnalisés, mais également permettre le développement des assistants intelligents pour le conseil au client et la formalisation de ce conseil. Sur ce dernier point, des initiatives existent déjà en pratique.

En effet, le Crédit Mutuel utilise depuis 2017 les solutions offertes en matière d'intelligence artificielle par IBM Watson. Plus particulièrement, le système mis en place est composé d'un assistant virtuel disponible pour chaque client afin de les renseigner sur des interrogations précises, mais également d'outils spécifiques à destination des chargés de clientèle. En ce sens, une solution cognitive vise à analyser les mails afin d'identifier et alerter le chargé de clientèle des demandes les plus fréquentes, des demandes urgentes ou des recommandations d'actions à mettre en place dans le suivi de la relation client. En plus, le système propose un second outil sous la forme d'un assistant virtuel (via des procédés de NLP) devant aider les conseillers commerciaux dans leur recherche d'informations sur l'intranet concernant des produits commercialisés par l'entreprise31.

Ensuite, l'intelligence artificielle doit pouvoir répondre aux nouveaux enjeux posés par la gestion de la relation client. En ce sens, elle doit permettre d'analyser et orienter plus efficacement et rapidement les correspondances des assurés, identifier et optimiser les opportunités de vente additionnelle en fonction du contexte et du profil de l'assuré, et identifier les signaux faibles afin de modéliser les risques de résiliation.

En l'état, il faut souligner que c'est dans la gestion de la relation client que les premières initiatives ont émergé, par le recours aux chatbots, aux procédés OCR, ou encore à l'automatisation de certaines tâches comme les rappels automatiques ou les recommandations. Néanmoins, le développement du machine learning et du deep learning doit permettre de franchir une nouvelle étape pour répondre à deux objectifs majeurs, que sont d'une part le besoin d'une disponibilité sans cesse plus grande afin de répondre rapidement aux demandes

19/97

31 https://www.creditmutuel.com/fr/actualites/watson-nouvelle-solution-innovante-au-service-du-reseau-et-de-la-relation-client.html

d'assurés toujours plus exigeants, et d'autre part la recherche d'anticipation afin de détecter au plus tôt les signaux négatifs pouvant entacher la relation entre l'assureur et son assuré.

Mais comme le souligne le livre blanc publié par La Fabrique d'assurance publié en novembre 201932, « depuis toujours dans le secteur de l'assurance, le client ne découvre réellement la valeur de son contrat qu'au moment du sinistre ». En ce sens, la phase de gestion des sinistres est une phase particulièrement importante dans la relation entre l'assureur et l'assuré, puisque c'est précisément à ce moment que l'assuré mesure la qualité du service rendu par son assureur. C'est donc naturellement dans ce champ que l'utilisation des outils d'intelligence artificielle présente un intérêt tout particulier. En effet, le recours à ces nouveaux procédés doit permettre d'une part, une optimisation du temps de gestion, en hiérarchisant et distribuant les dossiers en fonction de leur complexité pour faciliter leur traitement. En ce sens, l'intelligence artificielle doit permettre d'automatiser le contrôle de certaines pièces et la gestion de certaines prestations ne présentant pas de difficultés particulières afin de permettre au collaborateur de se concentrer davantage sur des dossiers plus techniques et complexes.

En l'état des avancés en la matière, le recours à l'intelligence artificielle pourrait être utilisée pour automatiser une partie des dossiers en assurance automobile ou en assurance habitation. Par exemple, dans le cadre de dommages légers sur un véhicule suite à un accident entre deux véhicules, l'intelligence artificielle pourrait analyser les éléments figurant sur le constat amiable, déterminer les responsabilités au regard des règles applicables entre assureurs et en droit commun, estimer le montant des dommages et laisser le collaborateur proposer ensuite le montant de cette indemnité à son assuré. Ainsi, l'assureur gagne du temps dans la gestion de sinistre, mais économise également des frais d'expertise.

Bien entendu, il est nécessaire de distinguer entre la théorie et la pratique. Si la théorie laisse entrevoir de belles perspectives en la matière, la pratique nous force à les tempérer. D'abord, l'automatisation de la gestion des dossiers ne peut être totale. En effet, les intelligences artificielles étant incapables de contextualiser de manière globale les choses, les dossiers présentant une complexité et un degré d'expertise élevés ne peuvent être délégués à la machine. Surtout, si elle doit permettre d'optimiser la gestion des dossiers, l'intelligence artificielle ne doit pas conduire à éluder la relation entre l'assuré et l'assureur, puisque c'est justement dans la phase de sinistre que cet échange est primordial.

20/97

32 La Fabrique d'assurance, Intelligence artificielle et éthique dans le secteur de l'assurance, livre blanc, novembre 2019

21/97

Enfin, l'intelligence artificielle présent un intérêt particulier s'agissant la mise en conformité et la lutte contre les formes de fraude à l'assurance.

D'une part, le coût de la fraude à l'assurance serait estimé à 2,5 milliards d'euros chaque année33. Devenu un enjeu majeur dans le secteur de l'assurance, les systèmes de détection de fraude existant actuellement peinent à les identifier, en raison de leur manque de flexibilité et de complexité. Or, la fraude étant par nature sous-jacente et dynamique, l'utilisation du deep learning « peut fournir des outils plus performants, aider à mieux cibler les opérations douteuses ainsi qu'améliorer la découverte des nouveaux types de fraudes34 ».

D'autre part, le secteur de l'assurance est marqué par une réglementation abondante et contraignante. Qu'il s'agisse des règles de solvabilité contenues dans la paquet européen « Solvabilité », des obligations issues de la législation en matière de lutte et d'identification des réseaux de fraude, de blanchiment et financement du terrorisme, des règles applicables en matière de protection des données à caractère personnel ou encore celles relatives au droit de la consommation, l'intelligence artificielle doit permettre d'optimiser le respect de ce cadre. Ainsi, par exemple, l'intelligence artificielle peut être intégrée dans des outils de collecte des données afin de vérifier la conformité de la collecte au Règlement général sur la protection des données (RGPD), ou encore être intégrée dans des outils de production de rapports et de reporting qui, en plus de rendre compte des principaux indicateurs nécessaires à vérifier la conformité, pourrait proposer des axes d'amélioration sur la base de l'analyse de ces indicateurs.

En somme, si l'intelligence artificielle entend modifier tous les processus traditionnels des organisations du secteur, elle appelle néanmoins quelques remarques.

D'abord, l'idée générale n'est pas, contrairement à ce que sous-tendent les thèses alarmistes sur la question, de remplacer l'Homme dans ses diverses tâches, mais bien de l'assister. Dans ce contexte, l'intelligence artificielle vise à automatiser les tâches les plus répétitives afin que le collaborateur puisse se concentrer sur les tâches plus complexes et qui permettent de créer de la valeur.

Ensuite, l'intelligence artificielle n'est pas ce qui déclenche la digitalisation du secteur mais constitue un facteur d'accélération et d'automatisation qui nécessite une approche en termes de compétences. Le métier évolue et les acteurs doivent donc inclure une montée en compétences de leurs collaborateurs.

33 https://www.actuia.com/contribution/jean-cupe/la-data-science-a-la-rescousse-des-assurances/

34 https://www.actuia.com/contribution/jean-cupe/la-data-science-a-la-rescousse-des-assurances/

22/97

Enfin, l'intelligence artificielle vise avant tout à modifier une organisation jusqu'alors trop lourde, dont les strates successives complexifient les processus décisionnels, afin de gagner en efficacité opérationnelle et répondre au besoin d'instantanéité et de personnalisation.

Ainsi, outre le gain de productivité que l'intelligence artificielle promet, cette dernière doit également permettre la réalisation d'économies d'échelle notables par l'automatisation des tâches répétitives.

Dans ce contexte, l'intelligence artificielle s'inscrit comme un moteur essentiel au développement de nouvelles activités à forte valeur ajoutée centrées sur le client.

Section 2. L'intelligence artificielle, moteur essentiel au développement de nouvelles activités à forte valeur ajoutée centrée sur le client

Comme nous avons pu le développer dans la précédente section, l'intelligence artificielle s'impose comme un outil essentiel de décloisonnement des services internes à l'entreprise, et permet en outre de cultiver la transversalité en remettant en cause les processus existants jusqu'alors. L'assurance (et d'une manière plus générale le tertiaire), est un secteur dans lequel la relation avec client occupe une place centrale. Dans ce contexte, l'intelligence artificielle vise à apporter une réponse concrète et efficace à l'ère de la considération (I), étant par ailleurs souligné que c'est en matière de prévention que l'assurance est en mesure de pouvoir tirer pleinement bénéfice de ces nouveaux procédés (II).

I. Une réponse pertinente à l'ère de la considération

Les clients ont parfaitement intégré les nouveaux usages induits par le numérique, changeant ainsi leurs modes de consommation. D'une manière générale, la relation entre le consommateur et l'assureur est caractérisée par l'utilisation de plusieurs canaux, cumulant l'utilisation des modes de communication traditionnels et numériques. Ainsi, par exemple, un client s'informe sur le site web d'un assureur et/ou utilise un comparateur en ligne, puis se rend en agence pour contractualiser, bien que la signature du contrat soit électronique. Pour sa déclaration de sinistre, il va se rendre en agence pour déclarer son sinistre, mais va suivre l'évolution de son dossier sinistre par son espace client en ligne, voire converser directement avec son conseiller sinistre par téléphone ou par mail.

23/97

À cet égard, les dernières statistiques rendues publiques par HootSuite sont sans appel et confirment cette tendance. En effet, selon le dernier Digital Report pour la France35, plus de 58 millions de français sont connectés à Internet (soit 89% de la population), et plus de 39 millions d'internautes utilisent les réseaux sociaux. En outre, on compte 65,53 millions d'abonnements mobile, et plus de 94% des internautes français (16-64 ans) utilisent un téléphone portable pour se connecter à internet. D'ailleurs, l'étude de l'ACPR sur la révolution numérique dans le secteur français de l'assurance faisait le même constat s'agissant de l'importance des usages mobiles.

Historiquement, le début des années 2000 a conduit, dans le secteur de l'assurance, au passage d'une logique centrée sur l'offre, à une logique tournée vers la demande, plaçant ainsi le client au coeur de l'activité. Cette tendance est la conséquence de deux évènements.

D'une part, le développement du web 2.0, qui a entrainé une utilisation massive des réseaux sociaux, et a conduit le consommateur à s'informer par lui-même, à comparer, mais également à s'exprimer plus librement et en public sur les services proposés et leur qualité.

D'autre part, l'avènement du web mobile a favorisé la convergence entre les usages traditionnels du web et les possibilités de mobilité offertes par les nouveaux terminaux et les évolutions techniques et technologiques successives concernant les infrastructures réseaux. Dans ce contexte, les usages en mobilité se sont donc développés36.

En réponse, les stratégies des entreprises du secteur ont nécessairement dû s'adapter, afin de proposer des offres et services répondant à ces nouveaux usages, dits ATAWADAC. Cet acronyme, de l'anglais « anytime, anywhere, any device, any content », décrit la capacité d'un utilisateur de contenu ou service en situation de mobilité à se connecter et accéder à ces contenus ou services n'importe quand, n'importe où, et depuis n'importe quel appareil.

Surtout, dans un contexte fortement digitalisé, globalisé, en évolution constante et sillonné de sollicitations commerciales permanentes, l'individu cherche à être considéré dans sa singularité. Ainsi s'est donc développée ces dernières années une nouvelle économie fondée sur la considération, dans laquelle les marchés traditionnels évoluent pour intégrer des mécanismes conversationnels entre d'une part, les entreprises et les consommateurs, et d'autre

35 https://wearesocial.com/fr/digital-2020-france

36 http://marketing-webmobile.fr/2011/10/histoire-du-web-mobile/

24/97

part, entre les consommateurs eux-mêmes qui ont des attentes particulières et de plus en plus fortes.

En témoigne un sondage réalisé par OpinionWay pour Amaguiz.com37, lequel souligne que « le développement des smartphones et des objets connectés a rendu les Français, tous âges confondus, considérablement plus exigeants dans la relation client ». Plus particulièrement, 51% des répondants en attendent plus concernant la pertinence des informations qu'ils reçoivent, 49% concernant la disponibilité des informations, 49% s'agissant de la simplicité des services, et 49% s'agissant de la clarté de l'information.

Surtout, l'économie de la considération s'inscrit comme un levier de vente. À cet égard, l'étude réalisée par le cabinet Roland Berger est assez intéressante puisqu'elle a permis d'établir que près de 86 % des consommateurs sont prêts à payer un supplément pour une expérience de meilleure qualité et 66 % des consommateurs vont recommander une marque s'ils se sentent considérés par elle38.

Dès lors, dans un secteur où l'information constitue la matière première de toute activité, les assureurs doivent donc revoir toute leur stratégie. Il est donc nécessaire pour les assureurs d'intégrer ces nouveaux usages, ce qui suppose d'optimiser à la fois la qualité de leur service mais également l'expérience client, par une refonte complète du parcours de l'assuré dont le modèle traditionnel semble épuisé et inadapté. En effet, il ne s'agit pas uniquement de maitriser le risque et sa nature dans une logique purement statistique et historique, mais de prendre individuellement chaque assuré (et ses besoins particuliers) en considération. À ce titre, l'enjeu est donc aujourd'hui de connaitre intimement chaque cas particulier, afin d'une part, de construire avec l'assuré une relation privilégiée et d'autre part, lui proposer une solution toujours plus personnalisée, répondant à ses besoins. Ainsi, tout l'enjeu est donc de trouver un équilibre entre industrialisation des traitements de masse, distribution des produits assurantiels standardisés, et nécessité d'individualisation des réponses.

37 Amaguiz était une marque commercialisée par Amaline, filiale du groupe Groupama, dont le modèle économique reposait sur une offre de produits et de garanties à la carte et modulable. Créée en 2008, Amaline distribuait ses produits d'assurance automobile, habitation, santé, prévoyance et chiens/chats uniquement par internet et par téléphone. Depuis le début de l'année 2020, la marque a cessé de commercialiser ses produits, et le portefeuille de clients a été redistribué entre les différentes caisses régionales de Groupama. Pour plus de détails : https://www.groupama.com/fr/notre-modele/marques/amaguiz/

38 https://www.forbes.fr/business/comment-le-club-med-dope-ses-ventes-grace-a-la-consideration-client/

C'est donc dans ce contexte que s'inscrit l'intelligence artificielle, qui semble pouvoir apporter une solution concrète à un besoin de considération de plus en plus croissant. Elle doit permettre de mieux collecter les informations relatives aux assurés, de mieux les traiter et surtout, d'en tirer pleinement partie afin de valoriser l'échange et la relation avec l'assuré. Ainsi, à titre d'exemple, l'intelligence artificielle peut adresser au conseiller clientèle des recommandations sur des produits d'assurance spécifiques à faire souscrire à un assuré du portefeuille sur la base des informations concernant cet assuré, permettant d'augmenter le sentiment de considération, la vente additionnelle, et satisfaire le devoir de conseil omniprésent dans le secteur assurantiel.

Mais outre permettre d'apporter une réponse au besoin de considération des clients qui se veulent de plus en plus exigeants s'agissant du service leur étant rendu, une autre activité semble pouvoir tirer pleinement partie de l'intelligence artificielle : la prévention.

II. Vers une prévention augmentée par le recours à l'intelligence artificielle

La prévention et la culture du risque ont toujours existé dans le domaine de l'assurance. Outil de sensibilisation, mais également indirectement de maitrise des risques, cette activité fait partie intégrante du rôle de l'assureur (1). À ce titre, le recours à l'intelligence artificielle n'entend pas supprimer cette activité traditionnellement exercée par les assureurs, mais doit permettre sa refonte en profondeur (2).

1. La prévention et la culture du risque, rôles traditionnels de l'assureur

Dans sa plaquette synthétique du 13 mai 201939, la Fédération Française de l'Assurance (FFA) présentait l'impact de l'assurance sur l'emploi, le développement économique, l'apport social et sociétal, ainsi que la prévention et la culture du risque. A cet égard, la Fédération faisait le constat suivant : « l'assurance est un métier et un secteur économique au coeur de la vie des Français. Les assureurs accompagnent les ménages et les entreprises au quotidien : ils les protègent face aux aléas de la vie et développent la prévention des risques dans leurs activités personnelles comme professionnelles. Ce sont aussi des investisseurs, qui financent les projets des entreprises et des collectivités sur le long terme et qui soutiennent

25/97

39 Fédération Française de l'Assurance, L'assurance dans les territoires, 2019

26/97

la croissance. Enfin, les assureurs sont des acteurs majeurs du développement des territoires : ils encouragent l'emploi local, soutiennent l'attractivité économique des villes et des régions et renforcent la cohésion sociale grâce à leurs actions de mécénat ». En ce sens, la prévention et la culture du risque font partie intégrante du rôle de l'assureur, le but étant d'éviter au maximum la survenance d'un sinistre.

Actuellement, cette activité s'exerce par l'éducation et la sensibilisation des assurés face à certains risques. Elle se manifeste en outre par le développement de partenariats spécifiques et l'organisation d'évènements autour de thématiques précises. Mais il faut également souligner l'action de l'association Assurance Prévention, qui regroupe les sociétés d'assurance et de réassurance adhérentes de la Fédération Française de l'Assurance. L'association est chargée de concevoir et déployer des actions de sensibilisation aux risques courants, seule ou en partenariat avec d'autres organismes. Ainsi, à titre d'exemple, pendant la période de confinement, l'association a publié une série de conseils pour prévenir les risques cyber, les incendies, les accidents domestiques, les vols et les dégâts des eaux40.

En somme, si l'activité de prévention et la culture du risque sont des activités traditionnelles des assureurs, il faut toutefois souligner que le recours à l'intelligence artificielle offre des perspectives quant à la manière dont cette activité est exercée.

2. Une approche agile et personnalisée de la prévention par le recours à l'intelligence artificielle

S'agissant de la prévention, Jean-Pierre DIGUET, directeur assurance de la Fédération Nationale de la Mutualité Française (FNMF) et Jean-Charles GROLLEMUND, Président de la Commission Innovation du Centre Technique des Institutions de Prévoyance (CTIP), soulignaient que « l'assureur accompagne l'usager tout au long de sa vie. Il est incontournable lors de la réalisation du risque assuré. Grâce au déploiement de la prévention, qui apparaît aujourd'hui dans la majorité des contrats, l'assureur devient prescripteur voire précepteur dans un objectif de non-réalisation des risques41 ».

40 https://www.assurance-prevention.fr/prevenir-incendies-accidents-domestiques-cambiolage-degat-des-eaux

41 La Fabrique d'assurance, Intelligence artificielle et éthique dans le secteur de l'assurance, livre blanc, novembre 2019

27/97

Mais tout l'enjeu est de savoir dans quelle mesure et selon quels moyens l'intelligence artificielle entend impacter cette activité de prévention. À cet égard, il convient d'ores et déjà de souligner que cette transformation ne peut se faire par le seul recours à l'intelligence artificielle. En effet, pour qu'une approche de prévention puisse être pertinente, elle suppose des données suffisamment précises sur l'assuré et son environnement, ainsi que des outils de traitement de cette information. Ainsi, pour qu'une prévention augmentée fondée sur la personnalisation des conseils et anticipation des risques soit possible, il est nécessaire de s'appuyer sur une combinaison de technologies.

La première est bien entendu celle de l'internet des objets et des objets connectés. Ces objets, capables de capter, stocker, traiter et transmettre des données selon la finalité à laquelle ils sont destinés, n'a cessé de croitre ces dernières années, et la tendance est prévue à la hausse dans les années à venir42. Cette tendance témoigne d'un changement de paradigme : le passage d'une ère des ordinateurs centraux, puis personnels à celle qualifiée de web ubiquitaire, dans laquelle le traitement de l'information a été pleinement intégré dans tous les objets et activités journalières43. Ainsi, l'informatique et le web deviennent invisibles, ambiants, distribués et intégrés, permettant de capter, analyser et valoriser les données collectées.

La deuxième concerne le développement des outils de traitement de l'information, et plus particulièrement ceux rendus nécessaires par le big data, dont les données sont par nature importantes en volume, en variété et en vitesse. Elles requièrent donc de recourir à des technologies de stockage de l'information et de traitement particulières afin d'assurer leur gestion et traitement en temps réel.

Dans ce contexte, il est incontestable que l'assurance puisse profiter de la généralisation des données générées par l'utilisation de ces objets. Par exemple, l'émergence des offres payas-you-drive permet une tarification personnalisée selon l'utilisation réelle du véhicule par recours aux données de géolocalisation transmises à l'application mobile de l'assureur. Mais dans une logique de prévention, peuvent également se développer les offres dites pay-how-you-drive qui visent à analyser les habitudes et les manières de conduite, et d'adapter le montant de la prime d'assurance en fonction. Visant clairement à valoriser les bons comportements, un score est attribué au conducteur sur la base des éléments recueillis et analysés. Outre la possibilité pour l'assuré de récupérer une partie de la prime d'assurance versée à la fin de l'année, ce système peut, en intégrant des algorithmes d'intelligence

42 https://www.statista.com/topics/2637/internet-of-things/

43 http://dictionnaire.sensagent.leparisien.fr/Informatique%20ubiquitaire/fr-fr/

artificielle, tendre vers une meilleure prévention. En effet, des données recueillies sur la manière de conduire, le système peut être capable d'étudier les pistes d'amélioration et fournir à l'assuré des conseils pratiques pour améliorer sa conduite.

Mais si le domaine de l'assurance automobile semble propice à cette démarche de prévention, force est toutefois de constater que celle-ci peut également être déclinée dans l'ensemble des branches de l'assurance. En effet, en matière d'assurance de personne, les données collectées par le biais par exemple des montres connectées peuvent permettre à l'assureur de diffuser des conseils relatifs à l'activité physique ou au sommeil. S'agissant des personnes plus âgées, l'internet des objets et l'intelligence artificielle peuvent, dans une logique de complémentarité, améliorer le suivi des patients et la prévention des maladies, ce qui permettra une prise en charge plus personnalisée, et renforcera la qualité des soins44. Enfin, en matière de risques industriels, et d'analyse des risques de plusieurs sites simultanés, le recours à l'intelligence artificielle peut permettre de réaliser une première analyse concernant l'emplacement des sites, leur construction, leur gestion, mais également les facteurs de vulnérabilités, afin de proposer dans un second temps une démarche préventive personnalisée45.

Cependant, si l'intelligence artificielle offre de belles perspectives aux assureurs quant à la possibilité de tendre vers une plus grande personnalisation des offres et des services proposés aux assurés, ce mouvement de personnalisation pose toutefois la question de la compatibilité du recours à l'intelligence artificielle avec le principe fondamental de la mutualisation des risques.

28/97

44 https://www.innovation-mutuelle.fr/actualite/lintelligence-artificielle-une-opportunite-pour-les-

mutuelles/#:~:text=En%20effet%2C%20l'assureur%20accompagne,de%20non%20r%C3%A9alisation%20des%20risques

45 https://axaxl.com/fr/fast-fast-forward/articles/intelligence-artificielle-prevention-des-risques

29/97

Chapitre 2 :

L'impact de l'intelligence artificielle sur le principe de
mutualisation des risques

Le modèle assurantiel repose sur un mécanisme de partage des risques. En ce sens, la mutualisation des risques, pilier du modèle assurantiel traditionnel (Section 1) consiste à répartir le cout de la réalisation d'un sinistre entre les membres d'un groupe soumis potentiellement au même risque. Dans ce contexte, l'intelligence artificielle offre de nouvelles méthodes d'analyse des données, de sorte qu'une utilisation dans le domaine de l'assurance permettrait de développer de nouvelles méthodes d'analyse des risques plus précises et dynamiques (Section 2), le but étant de pouvoir proposer une offre segmentée et personnalisée aux souscripteurs. Néanmoins, si le recours à l'intelligence artificielle laisse entrevoir de nouvelles perspectives en termes d'analyse des risques, une personnalisation des offres poussée à l'extrême laisse craindre la disparition de la mutualisation des risques, pourtant au coeur du fonctionnement de l'assurance (Section 3).

Section 1. L'appréhension et la mutualisation des risques, piliers du modèle assurantiel traditionnel

Schématiquement, suivant le principe de mutualisation des risques (qui consiste, rappelons-le, à répartir le cout de la réalisation d'un sinistre entre les membres d'un groupe soumis potentiellement au même risque), l'assureur collecte les primes de tous les assurés et utilisent ce montant pour dédommager ceux qui auront subi un sinistre (voir annexe n° 3).

Pour pouvoir fonctionner, la mutualisation suppose donc une analyse précise des risques. En effet, en mesurant le niveau de risque, mais aussi les conséquences et le coût des sinistres, l'assureur peut calculer le montant optimal de la prime à faire payer à l'ensemble des assurés. S'il se trompe et que la prime est trop basse, il n'aura peut-être pas assez d'argent pour payer tous les sinistres et devra en régler une partie lui-même. Si les revenus financiers ne compensent pas cette sous-estimation des coûts, cela peut le mettre en péril46.

46 https://openclassrooms.com/fr/courses/6172816-environnement-de-l-assurance/6418781-le-principe-de-la-mutualisation-et-le-transfert-

des-risques#:~:text=Le%20principe%20de%20mutualisation%20des,soumis%20potentiellement%20au%20m%C3%AAme%20risque.

30/97

Dans le langage commun, le risque est défini comme la possibilité, la probabilité d'un fait, d'un événement considéré comme un mal ou un dommage47. Dans une logique assurantielle, la notion de risque renvoie à deux acceptions : le « risque objet » et le « risque évènement ».

Le risque objet fait référence à ce qui supporte le risque évènement. Il correspond à une chose dans l'assurance de biens (un bâtiment, une automobile, les animaux ou les récoltes d'une exploitation agricole, etc.), et à une personne dans le cadre de l'assurance de responsabilité (auteur des dommages causés à un tiers) ou de l'assurance vie.

Le risque évènement est l'évènement qui affecte le risque objet. Dans cette acception, le risque renvoie à un évènement aléatoire, c'est-à-dire un évènement futur, incertain et qui ne dépend pas exclusivement de la volonté des parties. Plus concrètement, il peut s'agir par exemple de la destruction d'un bien pour une cause déterminée, du dommage causé engageant la responsabilité civile de l'assuré, de la disparition de la personne ou d'une atteinte à l'intégrité physique.

Dans le cadre de ses activités, une des tâches les plus importantes d'une compagnie d'assurance est de gérer efficacement les risques auxquels elle s'expose en assurant des clients48. Pour ce faire, les critères d'assurabilité d'un risque sont traditionnellement classés en trois catégories.

La première catégorie regroupe les critères qui relèvent de l'activité actuarielle des compagnies, qui vise à une gestion maitrisée du risque. Plus particulièrement, par l'utilisation des techniques mathématiques (probabilités, statistiques), le but est d'identifier, de modéliser et de gérer les conséquences financières qui découlent d'évènements incertains49. Dans cette catégorie, l'enjeu est de pouvoir cerner avec précision l'aléa quant à la survenance du risque évènement, l'absence de corrélation entre les risques, les pertes maximales qui peuvent être évaluées et couvertes. Dans ce contexte, l'approche actuarielle vise à non seulement à déterminer la charge moyenne de la prestation de l'assureur en cas de réalisation du risque évènement, mais également la prime qui devra en contrepartie être réglée par l'assuré.

47 https://www.larousse.fr/dictionnaires/francais/risque/69557?q=risque#68805

48 Jean-Philip Dumont, Gestion des risques des compagnies d'assurance : une revue de la littérature récente, Assurances et gestion des risques, vol. 79 (1-2), avril-juillet 2011, 43-81

49 https://euria.univ-brest.fr/menu/menu_1/Le_Metier_d_Actuaire/Qu_est-ce-qu_un_Actuaire__/

31/97

La deuxième catégorie vise à l'analyse du risque par une vision de marché. Pour que le risque puisse être mutualisé, il ne suffit pas uniquement que le risque revêt les caractéristiques classiques exposés précédemment (évènement futur et incertain échappant à la volonté des parties). En effet, dans une logique de marché guidée par l'offre et la demande, il faut naturellement qu'il émane des particuliers, entreprises ou collectivités exposés au risque, une demande quant à la prise en charge de ce risque par l'assureur. Ce n'est donc qu'en contrepartie de l'existence d'une demande des personnes et organisations directement exposées au risque que les assureurs pourront proposer une offre corrélée au risque, c'est-à-dire une offre adaptée aux besoins exprimés et propres à chacune des personnes ou organisations exposée au risque.

De la même manière, l'approche actuarielle vise à définir de manière précise le risque, le but étant de déterminer non seulement la charge de la prestation qui pèsera sur la compagnie d'assurance en cas de sinistre, mais également la prime qui devra être versée par l'assuré. Dans une logique de maitrise des coûts, le transfert du risque à l'assurance suppose, d'une part, que la charge pesant sur l'assureur ne soit pas disproportionnellement élevée en cas de sinistre, et d'autre part, que la prime payée par les assurés ne soient pas exorbitantes.

En effet, il convient de rappeler que les assureurs sont tenus, en vertu du cadre « Solvabilité II50 », de garantir une marge de solvabilité suffisante en fonction des risques, le but étant pour chaque assureur et réassureur de comprendre les risques inhérents à son activité afin de pouvoir allouer suffisamment de capital pour les couvrir. Il est donc nécessaire pour chaque compagnie de déterminer avec précision le risque pris en charge, l'idée étant de ne pas prendre en charge un risque qui aurait un impact significatif sur la marge de solvabilité des assureurs.

50 Directive 2009/138/CE du Parlement européen et du Conseil du 25 novembre 2009 sur l'accès aux activités de l'assurance et de la réassurance et leur exercice (Solvabilité II). Le texte a été transposé en droit français par l'Ordonnance n°2015-378 du 2 avril 2015, parue au Journal Officiel du 3 avril 2015. La directive vise à harmoniser la règlementation dans l'Union européenne, d'accroitre la transparence de la communication financière des assureurs et de garantir leur aptitude à honorer les engagements pris envers les personnes garanties. L'idée principale est donc d'assureur l'adéquation entre les risques liés à l'activité d'assurance et le capital alloué pour couvrir ces risques. Pour y parvenir, le dispositif repose sur trois piliers :

- Les exigences quantitatives, c'est-à-dire les règles de valorisation des actifs et des passifs, les exigences de capital et leur mode de

calcul ;

- Les exigences qualitatives, c'est-à-dire les règles de gouvernance et de gestion des risques, ainsi que les règles relatives à l'audit

(évaluation propre des risques de la solvabilité) ;

- Les informations à destination du public et des autorités de contrôles. La directive harmonise à cette fin les éléments qui doivent être

communiquées au public et aux autorités de contrôle prudentielle. En France, l'Autorité de Contrôle Prudentielle et de Résolution (ACPR), autorité adossée à la Banque de France, est en charge de l'agrément et de la surveillance des établissements bancaires, d'assurance et leurs intermédiaires.

Par ailleurs, pour que ce risque puisse faire l'objet d'un transfert à l'assureur, encore faut-il que le coût de la prime soit raisonnable pour chacun des assurés. Cela suppose dès lors que la prime soit jugée abordable par les prospects au regard de la couverture offerte pour que ce risque soit transféré à l'assurance.

Enfin, la prestation d'assurance est matérialisée par la conclusion d'un contrat entre l'assureur et l'assuré. Ce contrat, bien qu'il soit spécifique, est soumis aux règles classiques du droit des contrats, qui suppose notamment que l'objet et la cause soient licites. Ainsi, du fait de l'existence de certaines restrictions légales à la couverture de certains risques, il est donc vital pour une compagnie d'assurance de prendre en considération des dispositions règlementaires en vigueur lors de l'étude de l'assurabilité d'un risque.

C'est dans ce contexte que l'assurance peut donc profiter des possibilités offertes par l'intelligence artificielle afin de procéder à une analyse plus précise et surtout plus dynamique des risques.

Section 2. L'usage de l'intelligence artificielle, méthode d'analyse du risque plus précise et dynamique

Le cabinet McKinsey&Company s'est intéressé dans son rapport51 aux impacts de l'intégration du machine learning dans douze secteurs d'activités clés de l'économie. Ainsi, s'agissant du secteur de la finance, l'étude conclut que le principal avantage procuré par l'utilisation de l'intelligence artificielle est la personnalisation des produits et services, ainsi que l'évaluation des risques. Dans ce contexte, l'intelligence artificielle s'impose comme une réponse efficace aux risques émergents et complexes (I) et vise à corriger l'asymétrie d'information prévalant jusqu'alors dans les rapports entre l'assuré et l'assureur (II).

I. Le recours à l'intelligence artificielle en réponse aux risques émergents et complexes

32/97

51 McKinsey Global Institue, The age of analytics : competing in a data-driven world, décembre 2016

33/97

Avant de s'intéresser à la manière dont l'intelligence artificielle entend révolutionner l'étude des risques, il faut nécessairement s'intéresser au contexte. Sur ce point, il faut d'ores-déjà souligner l'existence de deux tendances.

D'une part, les assurés, qu'il s'agisse des particuliers, collectivités territoriales ou encore des entreprises, sont confrontés à des risques de plus en plus complexes ou nouveaux, qui par nature faussent la loi des nombres sur laquelle repose la logique assurantielle. En effet, pour estimer son tarif, un assureur se fonde sur des statistiques tant internes qu'externes. Toutefois, si l'on prend l'exemple d'un évènement climatique catastrophique, la logique statistique n'a plus de sens pour un phénomène qui par nature est rare et dérogatoire. De même, l'émergence de nouveaux risques, comme le risque cyber, sont par nature dynamique et corrélé, rendant très complexe l'analyse du risque sur la base de simples données statistiques. Surtout, du fait de leur complexité, il est difficile pour les compagnies de déterminer avec précision la charge des sinistres pouvant en découler, et qui dès lors peuvent potentiellement coûter très cher aux assureurs et réassureurs52.

D'autre part, comme nous l'évoquions précédemment, la société est devenue, du fait du développement du numérique, de plus en plus connectée, produisant par voie de conséquence un nombre toujours plus important de données. L'entrée dans l'ère du web ubiquitaire a permis le développement des usages mobiles et la généralisation des objets connectés, dont la tendance devrait s'accentuer ces prochaines années. De ce constat, les données collectées sont également de plus en qualitatives et précises, ce qui en fait une opportunité de taille en termes de valorisation de ces données. Couplé à l'intelligence artificielle, les assureurs pourront avoir une meilleure compréhension des risques afin de pouvoir apporter une solution personnalisée.

Mais tout l'enjeu réside dans la manière dont le processus d'étude du risque peut être amélioré et précisé par le recours à l'intelligence. En ce sens, l'intelligence artificielle doit permettre d'établir le profil de risque, et de déterminer sur cette base les probabilités de survenance d'un dommage, et surtout, d'adapter la prime en fonction des caractéristiques du risque objet et du risque évènement, tenant compte de l'environnement tant internet qu'externe.

En tout état de cause, il est pour l'heure impossible d'établir une liste exhaustive de la manière dont l'intelligence artificielle entend révolutionner la manière dont le risque sera appréhendé mais il peut néanmoins être donné quelques exemples. Ainsi, l'utilisation des technologies d'analyse de texte et de NLP pourraient permettre de scanner l'ensemble des

52 https://www.lesechos.fr/finance-marches/banque-assurances/il-y-a-des-risques-qui-sont-trop-grands-pour-le-marche-de-la-reassurance-

1132686

34/97

dossiers sinistres d'un assuré afin de déterminer les fraudes potentielles, mais également pouvoir établir un profil précis des risques et de la sinistralité afin d'adapter la prime53. De même, associé à des mécanismes de reconnaissance vocale et de discussion automatisée, l'intelligence artificielle pourrait permettre par le développement de chatbots de procéder à une première étude du risque par une discussion avec l'assuré. L'IA serait donc en mesure de découvrir les potentielles fausses déclarations, mais également d'obtenir des informations précieuses quant à la nature du risque, là où l'humain ne s'y attarderait pas.

Ainsi, comme le soulignait IBM dans son rapport sur l'impact de l'intelligence artificielle dans le secteur de l'assurance54, le machine learning et le deep learning peuvent être appliquées sur un ensemble de données historiques pour aider les assureurs à identifier les clients risquant de générer des scénarios de pertes importantes. En conséquence, l'IA s'inscrit comme un outil permettant de tirer parti de la donnée assurantielle, et permettrait dès lors d'identifier des scénarios de pertes importantes jusqu'alors indétectables et imprévisibles en recourant à des techniques traditionnelles d'analyse des données.

Ces quelques perspectives appellent néanmoins deux remarques.

D'abord, il faut rappeler qu'afin de pouvoir établir des modèles dynamiques et précis, il est nécessaire de se fonder sur des données suffisamment qualitatives, et surtout suffisamment hétérogènes. En ce sens, afin de permettre de créer de la valeur dans le processus de modélisation des risques, il est nécessaire d'intégrer aux sources traditionnelles (données internes relatives au client, comme ses coordonnées, ses antécédents, les informations relatives au risque objet, etc.) des sources de données dites non traditionnelles ou externes. En effet, les données internes ne pas suffisantes pour fonder une étude du risque pertinente car elles sont par nature limitées en taille et en pertinence et se développent à un taux très limité. Ainsi, les données de l'assurance sont de manière générale très pauvres, surtout en assurance non-vie. Il est donc nécessaire de s'appuyer sur des données externes, qui permettront une meilleure contextualisation afin d'évaluer et classer les risques, dans la mesure où elles ont par nature une portée plus large et un potentiel plus important.

Ensuite, il faut rappeler que l'analyse du risque ne peut se faire uniquement par le seul recours à l'intelligence artificielle. En effet, si elle constitue indéniablement un outil d'aide à la décision et de modélisation des risques, il faut cependant rappeler qu'elle nécessite une quantité importante de données qui se doivent d'être de qualité. Cela suppose donc d'une

53 https://axaxl.com/fr/fast-fast-forward/articles/intelligence-artificielle-prevention-des-risques

54 IBM Power Systems, Considering the impact of AI in insurance, Becky Humphreys, Sam Jones, Mark Woolnough, 2019

35/97

part que l'organisation se dote des infrastructures nécessaires au big data, comme les bases de données NoSQL qui sont par nature orientées vers l'analyse des données en masse, les serveurs et supercalculateurs qui doivent permettre le stockage et le traitement massif en temps réel des données introduites dans le système. D'autre part, pour recueillir un nombre important de données, l'analyse des risques va devoir s'appuyer sur les données collectées par les objets connectés, mais également sur l'open data s'agissant des données dites externes. C'est d'ailleurs ce que soulignait l'ACPR dans son étude sur la digitalisation du secteur de l'assurance, précisant que « l'exploitation de données plus abondantes, notamment recueillies via les objets connectés, pourrait certainement permettre une meilleure anticipation du risque ».

Ce ne sont qu'à ces conditions que la fonction actuarielle pourra tirer pleinement profit des nouvelles possibilités offertes par l'intelligence artificielle, le but étant de mieux segmenter les tarifs afin de pouvoir les adapter au profit du client.

Les assureurs visent aussi à mieux segmenter leurs tarifs pour mieux les adapter au profil du client. Plus particulièrement, l'utilisation de données en temps réel pourrait même aboutir à la mise en place de modèles de tarification opérant également en temps réel. Tel est notamment le cas s'agissant des offres dites pay-how-you-drive ou pay-as-you-drive dont les données collectées par l'usage d'objets connectés permettent à l'assurance de proposer une offre personnalisée, sur la base des comportements de l'utilisateur.

Surtout, ces nouvelles méthodes d'étude et d'analyse des risques présentent un intérêt tout particulier s'agissant des nouveaux risques complexes. À cet égard, on peut notamment citer les risques cyber, dont l'assurance propose des garanties depuis quelques années maintenant. En la matière, les assureurs sont confrontés à une difficulté tenant à l'analyse de ces nouveaux risques, en raison de plusieurs facteurs tenant à la nécessité de disposer d'une expertise particulière que la majorité des compagnies ne disposent pas actuellement, et le manque de recul suffisant sur les nouveaux risques cyber. Surtout, du fait d'un contexte d'interdépendance prégnant entre les organisations, le risque cyber s'impose comme un risque intrinsèquement corrélé, rendant difficile d'anticiper les conséquences d'un incident informatique, et donc de déterminer le coût moyen d'un sinistre. Enfin, le manque de données statistiques fiables en la matière, cumulé au flou juridique existant quant à l'assurabilité de certains risques rendent l'analyse du risque cyber extrêmement délicate. Dans ce contexte, les procédés d'intelligence artificielle devraient permettre de constituer une base de données

suffisamment fournie et précise qui puisse permettre une étude plus précise de ces nouveaux risques. Surtout, ces nouveaux outils pourront être utilisés pour modéliser des projections tenant compte d'une quantité plus importante et plus hétérogène de données afin de pouvoir cerner avec une meilleure précision la charge finale pesant sur l'assureur, bien que le sinistre soit corrélé.

En outre, si l'intelligence doit permettre d'établir des modèles d'analyse des risques plus agiles et dynamiques, il faut également souligner qu'elle entend s'imposer comme une réponse à une situation récurrente dans l'assurance : l'asymétrie d'information entre l'assureur et l'assuré.

II. L'intelligence artificielle comme outil de correction de l'asymétrie d'information

Traditionnellement, le principe de mutualisation et d'analyse des risques visent à compenser le voile d'ignorance de la connaissance des risques, également appelé « principe d'asymétrie de d'information ». Conceptualisée par George Akerlof55, économiste américain, dans son article publié en 1970, The Market for Lemons : Quality Uncertainty and the market Mechanism, l'asymétrie d'information permet d'analyser des comportements et des situations courantes de l'économie de marché. L'asymétrie d'information décrit en ce sens une situation dans laquelle les acteurs d'un marché ne disposent pas des mêmes informations sur les conditions d'échange. Cette situation est par nature contraire au standard de transparence de l'information prédominant dans un modèle de concurrence pure et parfaite. D'une manière générale, il est nécessaire de distinguer deux situations d'information asymétrique.

La première situation fait référence à l'antisélection (ou sélection adverse), lorsque les consommateurs ne disposent pas de toute l'information sur la qualité du bien qu'ils souhaitent acquérir, contrairement aux vendeurs. Plus particulièrement, du fait d'une asymétrie d'information sur un marché donné, une offre faite aboutit à des résultats inverses de ceux souhaités. Ainsi, selon l'exemple des voitures d'occasion développé par Akerlof, « le vendeur d'une voiture d'occasion connaît mieux les caractéristiques de sa voiture que les acheteurs potentiels. Dans la mesure où ces derniers savent que le marché comporte des voitures de mauvaise qualité, ils chercheront à les payer au prix correspondant à la qualité moyenne, ce qui conduira les propriétaires de voitures de bonne qualité à les retirer du marché. En contribuant à

36/97

55 https://www.universalis.fr/encyclopedie/george-a-akerlof/

37/97

réduire de proche en proche la qualité moyenne des véhicules vendus, ce processus peut finir par entraîner la disparition complète du marché des voitures d'occasion56 ». Dans ce contexte, l'antisélection se déclare ex-ante, soit au moment de la signature du contrat, et montre que le prix n'est pas synonyme de qualité du bien (il est possible d'obtenir des produits de qualités différentes pour un même prix), et ne constitue plus son rôle d'information.

La seconde situation correspond à ce que George Akerlof appelle l'aléa moral, intervenant ex-post, soit après la conclusion du contrat. Cette situation correspond à l'hypothèse dans laquelle l'un des contractants est amené à changer de comportement au cours de la relation contractuelle, de sorte qu'il est difficile d'anticiper ce comportement après la conclusion du contrat.

Ainsi, le secteur assurantiel est fortement marqué par l'asymétrie d'informations. En effet, les compagnies d'assurance ne disposent que d'informations limitées quant aux qualités intrinsèques des individus et des risques, objets de la police d'assurance.

Plus précisément, l'asymétrie d'information ne permettant pas à l'assureur de proposer des primes différentes selon les types et les profils de risques, s'est donc développé un phénomène d'anti-sélection. En ce sens, les compagnies d'assurance fixent une prime d'assurance supposée couvrir un risque moyen, sur la base des éléments statistiques tirées de la surveillance du portefeuille57. Cette prime s'appliquera donc indistinctement aux assurés dont le risque est considéré comme faible, mais également aux assurés dont le risque est considéré comme élevé. Ce faisant, les risques faibles vont considérer le montant de la prime comme étant trop élevé, alors que ce montant sera jugé comme très acceptable par les risques élevés. Dans un contexte où les assureurs proposent certes des garanties plus ou moins similaires, mais à des tarifs variant sensiblement, les risques faibles vont donc souscrire auprès de la compagnie proposant le tarif considéré comme le plus avantageux. Dans ce contexte, la compagnie qui assure une grande partie des risques élevés devra donc au final, afin de compenser la perte des risques faibles, augmenter ses tarifs, l'excluant peu à peu du marché58. Afin de compenser ce phénomène d'anti-sélection, s'est donc développé les contrats assortis de franchises plus ou moins importantes, permettant alors de moduler le montant de la prime en fonction du niveau de franchise accepté par le souscripteur59. Ainsi, un souscripteur dont le risque est faible optera

56 A. Bozio et J. Grenet, Économie des politiques publiques, La Découverte, 2017

57 Par exemple, et très schématiquement, l'assureur reprendre le nombre de déclarations de sinistre incendie faites sur le marché des particuliers, et détermine le cout moyen d'un sinistre incendie, lui permettant alors de déterminer le montant de prime.

58 https://www.pwc.fr/fr/expertises/actuariat-et-finance-quantitative-rvms/assurance/anti-selection-apprehender-ce-phenomene.html

59 La situation peut être schématisée de la manière suivante : un assuré décidant de payer une prime faible, se verra appliquer une franchise plus ou moins importante en cas de sinistre. À l'inverse, un assuré décidant de payer une prime plus élevée aura à sa charge une franchise nulle ou quasi-nulle en cas de survenance d'un sinistre.

38/97

pour une prime plus faible mais une franchise plus élevée, alors qu'un souscripteur dont le risque est élevé préférera payer une prime plus importante, mais une franchise plus faible (voir nulle) en cas de sinistre. En adaptant le montant de la prime, et en modulant la franchise, l'idée est donc de tendre vers une tarification plus juste en fonction du risque et de son occurrence et surtout de lutter contre ce phénomène d'anti-sélection qui ne mènerait qu'à assurer les risques élevés60.

Outre l'anti-sélection, l'assurance est également marquée par l'aléa moral, dont l'enjeu est de savoir si l'assuré prendra toutes les précautions nécessaires après la conclusion du contrat d'assurance qu'il en prenait avant pour éviter la survenance d'un sinistre. En ce sens, l'aléa moral suppose, dans le domaine de l'assurance, de se questionner sur le degré de diligence attendu après la conclusion du contrat, et les moyens permettant d'inciter l'assuré à se protéger de la même manière qu'il l'aurait fait s'il n'était pas couvert. À cet égard, afin d'inciter l'assuré à conserver un comportement prudent et diligent, les polices d'assurance contiennent généralement des clauses de déchéance61 de garantie lorsque les dommages ont été causés par la faute intentionnelle ou dolosive de l'assuré, résultent d'un fait ou d'un évènement dont l'assuré avait connaissance lors de la souscription du contrat62, ou encore plus spécifiquement dans le cadre des catastrophes naturelles, « lorsque les mesures habituelles à prendre pour prévenir ces dommages n'ont pu empêcher leur survenance ou n'ont pu être prises63 ».

Néanmoins, si des mécanismes existent afin de compenser les phénomènes d'anti-sélection et d'aléa moral, force est toutefois de constater que ceux-ci restent imparfaits. En ce sens, et à titre d'exemple, la preuve du caractère dolosif du comportement de l'assuré reste difficile - voire impossible - à rapporter, dans un secteur marqué par des règles protectrices du consommateur assuré. De la même manière, si le système de franchise permet une réponse au phénomène d'anti-sélection, celle-ci n'en demeure pas moins incomplète puisqu'elle ne permet pas une approche segmentée et personnalisée du risque.

60 https://www.universalis.fr/encyclopedie/assurance-economie-de-l-assurance/3-antiselection/

61 Il est nécessaire de distinguer entre la déchéance et l'exclusion qui mènent naturellement à la même conséquence - tant la déchéance que l'exclusion privent l'assuré d'indemnité - mais couvrent deux champs distincts. En effet, alors que la clause d'exclusion vise à délimiter l'objet du contrat d'assurance, la clause de déchéance vise à sanctionner l'assuré (en le privant de son droit à la garantie) en raison d'un manquement à ses obligations, que ce soit avant ou après le sinistre. Ainsi, par exemple, constitue une déchéance de garantie la clause insérée dans une police d'assurance de responsabilité civile décennale obligatoire qui vise à priver le constructeur de son droit à la garantie en raison de travaux effectués selon des techniques non courantes. En conséquence, l'assureur sera tene de verser l'indemnité au tiers en raison des règles applicables en matière d'assurance construction, mais demandera à son assuré de lui rembourser l'intégralité des sommes versées. Inversement, constitue une exclusion de garantie la clause selon laquelle l'assureur n'interviendra pas dans les cas où l'assuré, professionnel du bâtiment, aurait réalisé des travaux relevant d'activités non couvertes (par exemple, l'entrepreneur assuré au titre de son contrat pour une activité d'électricien, qui réalise des travaux de plomberie, sources du litige).

62 Dans ce cas, naturellement, l'idée est d'éviter les situations dans lesquelles le souscripteur tente de faire jouer inévitablement une garantie, privant ainsi le contrat d'assurance d'un élément fondamental qu'est l'aléa.

63 Article L.125-1 Code des assurances

39/97

C'est donc naturellement dans ce contexte que l'intelligence artificielle est susceptible de jouer un rôle important dans la correction de cette asymétrie. Sans développer l'intégralité des apports de l'intelligence artificielle dans le champ de l'analyse du risque (qui a fait l'objet de développer plus longs dans la partie précédente), l'intelligence artificielle doit permettre de lutter contre l'anti-sélection par une analyse plus précise des risques. En ce sens, les données externes et internes, couplées au machine learning et au deep learning, doivent permettre de procéder à une analyse plus approfondie des risques, et donc à terme de proposer une offre personnalisée en fonction du risque encourue. Cette situation devrait donc tendre à un rééquilibrage des relations entre l'assureur et l'assuré, et par voie de conséquence à une disparition à long terme du système fondé sur la franchise par une tarification propre aux éléments contextuels et personnels. En outre, s'agissant de l'aléa moral, l'intelligence artificielle devrait permettre, par la reconnaissance faciale et des expressions, mais également la reconnaissance textuelle, de lutter contre la fraude à l'assurance et de faciliter la preuve du comportement dolosif ou intentionnel de l'assuré.

Cependant, s'il indéniable que l'intelligence artificielle offre une réponse concrète à l'asymétrie d'information prédominante jusqu'alors dans la relation entre l'assuré et son assureur, les avancées permises par la technologie ont fait émerger la crainte d'une démutualisation du système assurantiel.

Section 3. La crainte d'une démutualisation du système assurantiel par le recours à l'intelligence artificielle

Comme le soulignait à juste titre le rapport d'OPTIC Technology64 publié le 20 janvier 202065, « dans ce contexte de surabondance des données issues du recoupement des bases existantes, de collecte via des capteurs ou de traces sur les réseaux sociaux, la tentation est grande, pour les assureurs, d'affiner à l'extrême le profilage de leur clientèle afin de la segmenter le plus précisément possible et d'ajuster le tarif au risque réel ». Schématiquement, sur la base de prédiction de plus en plus fiables issues des algorithmes autoapprenants,

64 OPTIC est un réseau de recherche créé en 2012, comptant plusieurs milliers de membres et déployant ses activités à San Francisco, Paris, Montréal, Genève, Rome, Oxford, Boston et Toronto. Ses activités portent sur la recherche, l'innovation et la formation sur les thématiques relatives au développement des technologies.

65 OPTIC Technology, Intelligence artificielle, solidarité et assurances en Europe et au Canada - Feuille de route pour une coopération internationale, 20 janvier 2020

40/97

émerge le risque d'une hyperpersonnalisation et hypersegmentation des assurés, posant alors la question d'une potentielle atteinte à la logique mutualiste propre à l'assurance, et la probabilité d'une remise en cause totale du secteur (ou du moins, des logiques structurantes de ce secteur).

En ce sens, comme nous l'avions développé précédemment, l'utilisation massive des données et de l'IA doivent permettre de compenser l'asymétrie d'informations, et donc de supprimer l'ignorance qui existait par nature dans la relation entre l'assuré et son assureur. Par nature, cette situation conduit à l'émergence de nouveaux risques dans les relations entre l'assureur et son assuré. En effet, dans sa synthèse du débat public dans le cadre de la mission de réflexion éthique confiée par la loi pour une République numérique publiée en décembre 201766, la CNIL porte les craintes de l'émergence d'un système profondément discriminatoires qui aurait pour conséquence notable l'exclusion des individus jugés à risque du bénéfice de l'assurance. Plus particulièrement s'agissant de l'assurance de personnes, puisque les informations collectées (consommation de tabac, régime alimentaire, rythme de vie, antécédents médicaux, antécédents familiaux et héritage génétique etc.) permettraient d'établir une corrélation plus précise entre le comportement de la personne et le risque de survenance d'une pathologie.

De cette situation, émerge alors la crainte qu'une personne, selon les informations collectées, soit considérée comme porteuse d'un risque trop élevé du fait de son comportement (et notamment son mode de vie ou ses habitudes de consommation). Surtout, cette situation pose fondamentalement la question des limites posées et surtout des critères d'appréciation pris en considération pour qualifier une personne à risque (Quels sont les critères pris en compte pour caractériser une personne comme étant à risque ? Quels sont les seuils à partir desquels une personne présente un risque plus important ? Quelle la conséquence directe pour une personne considérée à risque - application d'une surprime ou exclusion de couverture ?).

Dès lors, cette situation de personnalisation et de segmentation pourrait conduire de facto d'une logique de mutualisation à une logique de responsabilité individuelle, et pourrait conduire à une situation dans laquelle les assureurs ne couvriraient que les « bons risques » avec un risque d'exclusion des « risques inacceptables ».

66 Commission Nationale Informatiques et Libertés (CNIL), Comment permettre à l'Homme de garder la main ? Les enjeux des algorithmes et de l'intelligence artificielle, Synthèse du débat public animé par la CNIL dans le cadre de la mission de réflexion éthique confiée par la loi pour une République numérique, décembre 2017

41/97

Bien entendu, le modèle actuel de l'assurance de personne repose déjà sur les informations relatives à la personne, comme le fait de savoir si une personne est fumeuse ou non, ou si elle est affectée d'une pathologie de longue durée. Néanmoins, le système actuel repose sur une logique déclarative, situation dans laquelle l'assureur occupe une place passive et se fie aux seules informations confiées par l'assuré. Pour autant, du fait du développement technologique et technique (et notamment l'intégration de l'intelligence artificielle), le passage d'une logique passive à une logique active de l'assureur ne semble plus si utopique.

Dans ce contexte, l'enjeu est donc de savoir quels sont les moyens qui puissent permettre de concilier d'une part, le besoin de personnalisation voulues tant par les assurés que les assureurs, et d'autre part, la nécessité de conserver la logique de mutualisation. À cet égard, plusieurs pistes peuvent être évoquées.

La première consisterait à interdire purement et simplement le recours à la collecte des données, aux techniques de profilage et au recours à l'intelligence artificielle à l'occasion de l'étude du risque. Cette solution, radicale présente l'intérêt de la simplicité et garantit l'inclusion des personnes. Toutefois, elle semble inadaptée en l'état parce qu'elle ne permet pas de répondre aux besoins de personnalisation voulue par les assurés, et de segmentation recherchée par les assureurs.

La deuxième viserait à limiter la collecte de certaines données, jugées particulièrement sensibles. En ce sens, si la loi Kouchner de 2002 a permis d'ériger un principe de non-discrimination en raison des caractéristiques génétiques67, il pourrait très bien être imaginé d'aller encore plus loin en excluant par exemple la collecte automatisée des données liées à la santé des individus ou les habitudes de consommation à l'occasion de l'étude du risque. C'est d'ailleurs la solution que préconise la CNIL dans sa synthèse, précisant que cette limitation pourrait, à défaut d'être légale, être mise en place de manière conventionnelle entre les acteurs de la profession68.

Une troisième solution porterait sur l'institution d'un cadre règlementaire spécifique à la collecte et au traitement de ces données à l'aide d'algorithmes d'intelligence artificielle. Ce cadre spécifique imposerait aux acteurs du secteur des obligations particulières

67 Article L. 1110-1 du Code de la santé publique

68 Commission Nationale Informatiques et Libertés (CNIL), Comment permettre à l'Homme de garder la main ? Les enjeux des algorithmes et de l'intelligence artificielle, Synthèse du débat public animé par la CNIL dans le cadre de la mission de réflexion éthique confiée par la loi pour une République numérique, décembre 2017

42/97

en matière de recours à l'intelligence artificielle, prévoyant des standards de transparence et de loyauté et qui laisserait également la possibilité pour les personnes concernées de pouvoir choisir le procédé utilisé pour l'analyse du risque. Si le cadre européen de la protection des données personnelles permet déjà aux personnes concernées de s'opposer aux décisions prises à l'aide de procédés automatisés, il faut toutefois souligner que ce droit d'opposition peut être mis en échec lorsque la décision est nécessaire à la conclusion d'un contrat. L'idée serait donc de dépasser la logique actuelle existante en matière de protection des données afin de développer une législation sectorielle plus aboutie, tenant compte de l'ensemble des spécificités et logiques propres au secteur. Néanmoins, cette situation présente deux contraintes majeures. D'une part, ce système créerait un système à deux vitesses et d'autre part, fait peser des obligations beaucoup trop contraignantes aux acteurs déjà soumis à une règlementation très lourde.

La dernière solution viserait à un système dualiste, en distinction d'un côté l'assurance de personne pour laquelle le recours à ces procédés serait prohibé en raison de la nature des données sensibles traitées, et de l'autre l'assurance de choses pour lesquels le recours pourrait être autorisé.

Quoiqu'il en soit, le cadre actuel ne semble répondre qu'indirectement aux nouveaux enjeux posés par le recours aux données et à l'intelligence artificielle, pour laquelle les contours semblent encore assez flous.

43/97

PARTIE II :

L'intelligence artificielle dans le secteur de

l'assurance, une technologie en quête de

repères

Dans sa Communication du 8 avril 2019 visant à renforcer la confiance dans l'intelligence artificielle69, la Commission européenne rappelle les orientations dégagées par le groupe d'experts de haut niveau sur l'IA désigné afin d'identifier les moyens nécessaires à instaurer un climat de confiance autour de l'intelligence artificielle. À ce titre, les experts ont souligné que, pour parvenir à une intelligence artificielle digne de confiance, il est nécessaire que celle-ci respecte la législation, les principes éthiques et présente des garanties de robustesse et de sécurité. À cet égard, sur la base de ces trois éléments structurants, le groupe d'experts a défini sept exigences essentielles auxquelles doivent répondre les systèmes d'intelligence artificielle pour être considérés comme dignes de confiance (le contrôle humain, la sécurité et la robustesse, le respect de la vie privée, la transparence, l'équité, le bien-être sociétal et environnemental et la responsabilisation).

Si une telle démarche ne peut qu'être saluée et apparait pertinente, il faut toutefois préciser qu'il en va autrement dans la pratique. En effet, le cadre juridique et éthique applicable à l'intelligence artificielle reste pour l'heure peu développé (Chapitre 1), constituant un frein à l'intégration de ces nouveaux procédés. En outre, si les possibilités offertes par l'intelligence artificielle semblent nombreuses et permettent de se démarquer dans un secteur où la concurrence est élevée, il faut toutefois souligner l'importance pour les compagnies d'adopter une stratégie de la donnée et d'intégration de ces nouveaux outils (Chapitre 2) qui présentent un triple intérêt : planifier les coûts liés au déploiement, susciter la confiance et garantir la sécurité de ces nouveaux systèmes.

69 Communication de la Commission européenne du 8 avril 2019, Renforcer la confiance dans l'intelligence artificielle axée sur le facteur humain, COM(2019) 168 final

44/97

Chapitre 1 :

Un cadre réglementaire et éthique peu développé en la

matière

Si la croissance économique repose sur la valeur créée par les données, force est de constater que cette croissance doit s'accompagner de mesures favorisant la confiance des utilisateurs dans les technologies. C'est d'ailleurs le constat que faisait la Commission européenne dans son livre blanc sur l'intelligence artificielle de février 2020, soulignant qu'« étant donné que la technologie numérique occupe une place de plus en plus centrale dans tous les aspects de la vie des citoyens, il faut que ces derniers puissent lui faire confiance. Elle ne pourra être adoptée que si elle est digne de confiance70 ».

Aspect essentiel du développement de tout nouvel écosystème, la confiance repose, dans le cadre de l'intelligence artificielle d'une part sur l'explicabilité des algorithmes (Section 1) et d'autre part, sur le cadre réglementaire applicable en matière de protection des données et, plus partiellement, sur les standards de responsabilité (Section 2).

Section 1. L'explicabilité des algorithmes, un enjeu majeur de développement de l'intelligence artificielle

De manière générale, l'un des grands enjeux de ces prochains temps en matière d'intelligence artificielle concerne la transparence et plus particulièrement l'explicabilité des algorithmes (I). Sur ce point, s'il existe des initiatives dans le secteur des assurances, celles-ci restent pour l'heure limitées et disparates (II).

I. La transparence des algorithmes d'intelligence artificielle, un principe socle

d'une intelligence artificielle soucieuse des droits humains

Selon la définition donnée par le Conseil de l'Europe, l'intelligence artificielle fait référence à « l'ensemble des techniques, théories et techniques dont le but est de reproduire par une machine des capacités cognitives d'un être humain ». Bien entendu, dans toute son

70 Livre blanc de la Commission européenne, Intelligence artificielle : une approche européenne axée sur l'excellence et la confiance, 19 février 2020, COM(2020) 65 final

45/97

imperfection, l'Homme est par nature sujet aux biais cognitifs. Comportements purement naturels, les biais cognitifs sont des schémas de pensée trompeurs et faussement logiques, qui constituent donc des mécanismes à l'origine d'une altération du jugement. Plus particulièrement, ces mécanismes vont intervenir chez l'individu lorsqu'il est placé en situation de porter un jugement, ou de prendre une décision rapidement. Ces biais, conceptualisés dans les années 1970 par Daniel Kahneman et Amos Tversky, fonctionnent schématiquement de la manière suivante : face à une situation dans laquelle une personne exposée à une quantité trop importante d'information, à des contraintes de temps, ou à un manque de sens doit prendre une décision, le cerveau humain va alors s'appuyer sur des croyances subjectives et inconscientes71. Par voie de conséquence, ces raccourcis vont conduire à une analyse imparfaite et fausse d'une situation donnée, de son environnement et d'autrui72.

En outre, les travaux menés en la matière ont permis de recenser plus de 250 biais cognitifs (voir annexe 7), qui peuvent être classés selon les catégories suivantes : les biais sensori-moteurs, les biais attentionnels, les biais mnésiques, les biais de jugement, les biais de raisonnement, et les biais liés à la personnalité.

En tout état de cause, dans une logique de reproduction des mécanismes humains, la pratique a pu montrer que les algorithmes d'intelligence artificielle n'échappaient pas à cette tendance aux préjugés et aux raccourcis. À cet égard, un exemple intéressant a défrayé la chronique il y a quelques années, lorsque Microsoft avait déployé le 23 mars 2016 sur Twitter, dans le cadre d'une expérimentation, un agent conversationnel fondé sur l'intelligence artificielle. Prénommée Tay, cet agent a été conçu pour engager et divertir les utilisateurs du réseau social par le biais d'échanges informels. Mais sous cet aspect ludique, le but de cette expérimentation à large échelle et en conditions réelles visait avant tout à étudier la manière dont l'intelligence artificielle interagissait avec les humains et apprenait de ces derniers. Néanmoins, après plus de 50 000 abonnés et 100 000 tweets, et seulement 24 heures après son lancement73, Microsoft a précipitamment mis fin à l'expérimentation et a retiré Tay de la plateforme. La raison de ce retrait est simple : confrontée aux internautes (et plus

71 https://www.usabilis.com/definition-biais-cognitifs/

72 https://www.sciencesetavenir.fr/sante/cerveau-et-psy/comment-notre-cerveau-nous-manipule-t-il_135688

73 https://www.zdnet.fr/actualites/microsoft-tire-les-enseignements-de-son-experience-ratee-avec-tay-39888277.htm

46/97

particulièrement aux « trolls »), l'intelligence artificielle a tout simplement fini par tenir des propos racistes et négationnistes74.

Cette expérimentation a toutefois permis à Microsoft d'apprendre du fonctionnement général de l'algorithme et surtout des raisons ayant conduit à cette situation. À cet égard, la firme a fait le constat selon lequel « quelle que soit la pertinence de la conception de l'algorithme, les résultats seront à la hauteur de la qualité des données d'origine75 ». Ainsi, les jeux de données utilisés par l'intelligence artificielle peuvent être biaisés par un grand nombre de moyens. S'agissant de Tay, son comportement a été altéré du fait d'un jeu de données alimenté uniquement par une catégorie spécifique de la population, de sorte que ses jugements, ses choix et ses comportements ultérieurs se fondaient uniquement sur des pensées et propos minoritaires, qui ne reflétaient pas et ne représentaient pas la population dans sa globalité. En d'autres termes, c'est donc son exposition à des courants de pensée minoritaires qui ont conduit Tay à tenir de tels propos.

C'est dans ce contexte que se sont inscrits les travaux de l'Union européenne et du Conseil de l'Europe s'agissant du déploiement de l'intelligence artificielle. En ce sens, reconnaissant le potentiel de croissance économique que représente l'intégration des nouveaux outils, ces deux institutions soulignent la nécessité de développer un cadre éthique afin d'éviter que le recours à l'intelligence artificielle conduise à des comportements d'exclusion ou de discrimination à l'égard des personnes concernées. Ainsi, le Comité des Ministres a, dans sa recommandation aux États membres du 08 avril 2020 sur les impacts des systèmes algorithmiques sur les droits de l'Homme76, souligné que « le recours croissant aux systèmes algorithmiques dans la vie de tous les jours ne va pas sans poser d'importants défis en matière de droits de l'homme, tels que le droit à un procès équitable ; le droit au respect de la vie privée et à la protection des données ; le droit à la liberté de pensée, de conscience et de religion ; le droit à la liberté d'expression, le droit à la liberté de réunion ; le droit à l'égalité de traitement, et les droits économiques et sociaux ».

74 Tay avait notamment publié une série de tweet le 24 mars 2016 précisant « Bush est responsable du 11 septembre et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement. Donald Trump est notre seul espoir », ou encore niant l'existence de l'holocauste.

75 https://experiences.microsoft.fr/business/intelligence-artificielle-ia-business/equite-algorithmes-definition/

76 Recommandation CM/Rec(2020)1 du Comité des Ministres aux États membres sur les impacts des systèmes algorithmiques sur les droits de l'homme, adoptée par le Comité des Ministres le 8 avril 2020, lors de la 1373e réunion des Délégués des Ministres

47/97

À l'étude des travaux existants en la matière, force est de constater qu'un principe central semble guider le déploiement de ces nouveaux outils : la transparence. En matière d'intelligence artificielle, une telle démarche est naturellement cohérente, puisqu'il ne peut y avoir de confiance sans transparence, ni même de compréhension des mécanismes décisionnels sans transparence des algorithmes. En ce sens, qu'il s'agisse de la conception, du développement, mais également de l'utilisation des algorithmes d'intelligence artificielle, le principe de transparence se matérialise en pratique par la nécessité d'expliquer les comportements de l'intelligence artificielle.

Gage de maitrise de ces nouveaux procédés, l'explicabilité de l'intelligence artificielle est définie comme la capacité à expliquer le fonctionnement des algorithmes, afin de comprendre la manière et les raisons ayant conduit à un résultat spécifique. L'explicabilité s'impose donc comme essentielle et consubstantielle au développement d'une intelligence artificielle éthique, surtout s'agissant des techniques d'apprentissage automatique qui restent très souvent opaques. Afin de lutter contre cette opacité inhérente, l'explicabilité repose sur plusieurs méthodes.

Les premières méthodes supposent une intervention ex post. En ce sens, les techniques reposant sur l'hypothèse de la « boite noire » visent à analyser les données à l'entrée et celles à la sortie afin d'essayer de comprendre la manière dont l'IA est arrivée à ce résultat, sans disposer du code du système. À l'inverse, les techniques reposant sur l'hypothèse de « la boite blanche » visent à l'étude directe du code du système afin de comprendre la manière dont l'IA est arrivée à un résultat déterminé, et surtout, la manière dont l'algorithme a pu évoluer pour parvenir à ce résultat.

En marge de ces méthodes intervenant ex post, de nouvelles dynamiques émergent pour prendre en considération ces besoins de transparence et d'explicabilité dès la conception. C'est ainsi que le concept d'explicability by design (ou explicabilité dès la conception) a vu le jour, supposant le développement d'outils spécifiques, sous la forme d'algorithmes intégrés à la machine lors de la phase de développement, chargés de suivre ses évolutions afin de pouvoir remonter le processus décisionnel.

Une fois ces éléments exposés, tout l'enjeu est de savoir comment le secteur de l'assurance entend transposer et concrétiser ces principes.

II. Des initiatives pour l'heure limitées et disparates des acteurs du secteur

48/97

En l'état, la question de l'explicabilité de l'intelligence artificielle s'impose comme nécessaire et vitale dans le secteur des assurances, pour notamment trois raisons.

D'abord, comme nous avons pu l'expliquer dans le cadre des développements précédents, l'intégration de l'intelligence artificielle dans le secteur de l'assurance fait craindre une dynamique de démutualisation du système au profit d'une logique de responsabilité individuelle. En ce sens, appliquées aux processus d'analyse des risques, les méthodes d'explicabilité doivent permettre d'enrayer les éventuels biais cognitifs qui conduiraient, sur la base des jeux de données internes et externes employés, d'exclure du bénéfice de l'assurance (ou du moins d'appliquer une surprime) un assuré sur la base d'éléments purement subjectifs. Dans ce contexte, l'explicabilité s'impose donc comme un garde-fou nécessaire afin de garantir que chaque risque fait l'objet d'une étude impartiale et objective.

Ensuite, et d'un point de vue centré sur la personne concernée, l'intégration d'outils propres à expliquer le processus décisionnel doit lui permettre de conserver la maitrise dont elle dispose sur ses données, et surtout de pouvoir comprendre la manière dont la décision a été prise. Cette démarche vise à créer un climat de confiance, alors nécessaire pour chacune des parties au contrat d'assurance.

Enfin, dans un secteur où les autorités de contrôle offrent au consommateur des voies de recours extra-judiciaires (en témoignent les procédures de réclamations et de médiation), l'explicabilité doit permettre à chacune des parties de pouvoir défendre ses droits. Du côté de l'assuré, l'explicabilité peut permettre de mettre en exergue l'ingérence de biais cognitifs dans la prise de position. À l'inverse, elle doit pouvoir permettre pour l'assureur, en cas de réclamation fondée sur une décision automatisée, de retracer la chaine décisionnelle afin d'en mesurer la conformité.

En l'état, plusieurs initiatives existent sur ce sujet, même si elles se situent à des degrés de développement différents selon les acteurs.

En effet, les autorités de contrôle ont abordé cette question de la transparence sous l'angle de groupes de travail ou de débat public afin de mieux en cerner les contours. En ce sens, la CNIL a lancé une réflexion sur les algorithmes à l'heure de l'intelligence artificielle et a, à cette occasion, appelé tous les acteurs et organismes (organismes publics, acteurs de la société civile ou encore les entreprises) à participer au débat. Le secteur de l'assurance a notamment contribué au débat par le biais de la Fédération Française de l'Assurance (FFA). À

49/97

l'issue du débat, la CNIL a notamment détaillé les limites du cadre juridique actuel, et a formulé un certain nombre de propositions afin de tendre à un équilibre entre le recours à l'intelligence artificielle et le respect des droits et libertés des personnes concernées.

En outre, s'agissant plus spécifiquement du secteur de la finance et de l'assurance, l'ACPR a mis en place au début de l'année 2018 une task force rassemblant non seulement les professionnels du secteur (fédérations professionnelles, banques, assurances, fintechs, assurtechs), mais également les autorités publiques (AMF, CNIL, TRACFIUN, DGT) afin d'échanger sur les potentiels offerts par l'intelligence artificielle dans le secteur, mais également d'identifier les risques associés.

C'est dans ce contexte que l'Autorité a publié le 1er juin 2020, un document de réflexion sur la gouvernance des algorithmes d'intelligence artificielle dans le secteur financier77. Le document, soumis à la consultation publique des acteurs du secteur, identifie deux axes d'étude : l'évaluation des algorithmes et des outils d'IA, ainsi que la gouvernance de ces outils. En l'état, la démarche proposée par l'ACPR est intéressante, puisqu'elle propose, s'agissant de l'explicabilité, de procéder selon une approche graduée en fonction des acteurs et des risques associés. Plus particulièrement, l'ACPR souligne que l'explicabilité est « une notion qu'il convient de replacer chaque fois dans un contexte particulier pour en préciser la finalité. Une explication du résultat ou du fonctionnement d'un algorithme peut s'avérer nécessaire pour les utilisateurs finaux (clients ou utilisateurs internes) ; dans d'autres cas, elle sera destinée aux responsables de la conformité et de la gouvernance de ces algorithmes. L'explication fournie peut ainsi viser à éclairer le client, à garantir la cohérence des processus dans lesquels des humains prennent des décisions, ou encore à faciliter la validation et la surveillance des modèles de machine learning ».

Une telle démarche, si elle fait peser de nouvelles obligations aux entreprises du secteur (déjà soumises à un cadre règlementaire assez contraignant), présente toutefois plusieurs avantages.

D'abord, elle permet de fournir un degré d'information différent selon les destinataires, ce qui est particulièrement pertinent s'agissant des clients, dont l'information se doit d'être claire, concise, compréhensible et adaptée (voir annexe 8).

77 ACP, Gouvernance des algorithmes d'intelligence artificielle dans le secteur financier, document de réflexion, Laurent Dupont, Olivier Fliche, Su Yang, juin 2020

50/97

Ensuite, en raisonnant par finalité, la démarche se rapproche du cadre actuel européen en matière de protection des données personnelles, et présente l'avantage de segmenter les différentes activités pour mieux cerner les risques associés.

Enfin, l'objectif, s'il n'est pas explicitement détaillé, vise clairement à faire peser sur les acteurs du secteur une « obligation d'explications », et plus largement, à l'instar du cadre établi par le Règlement général sur la protection des données personnelles (RGPD), mettre en place une logique de responsabilisation des acteurs, qui doivent donc adopter une démarche active afin de garantir l'explicabilité des algorithmes.

En l'état actuel des choses, l'ACPR constate par cette étude que seuls quelques acteurs du secteur financier ont commencé à aborder la question de l'explicabilité, de la détection et de la remédiation des biais pouvant exister. Et pour cause, puisque si les assureurs intègrent aujourd'hui des outils d'intelligence artificielle, ceux-ci restent pour l'heure limités, de sorte que la question éthique reste peu abordée. En ce sens, il faut souligner l'implication de certains acteurs du secteur. Par exemple, le 11 juin 2020, le groupe CNP Assurances, spécialisé dans l'assurance de personne, a annoncé la nomination de Xavier Vamparys en tant que responsable de l'éthique de l'intelligence artificielle, et la création d'un comité pluridisciplinaire éthique chargé de fixer les grandes lignes de conduite pour l'intégration et l'utilisation de l'intelligence artificielle78. De la même manière, AXA semble faire figure d'exemple en la matière. Le fonds AXA pour la recherche, créé en 2007, s'intéresse également aux thématiques liées à l'intelligence artificielle. Qu'il s'agisse de travaux expérimentaux, ou de guides de réflexion, force est de constater que la compagnie est très active sur le sujet79.

Pour conclure, il apparait que le débat sur cette question n'est pour l'heure pas encore achevé. En effet, si l'intégralité des parties prenantes souligne les potentiels dégagés par cette nouvelle technologie, et la nécessité de garantir une transparence par l'explicabilité des algorithmes, il n'existe pour l'heure aucun cadre contraignant sur ce point. Les efforts fournis par l'intégralité des parties prenantes permettent d'esquisser les contours que doit revêtir l'utilisation de ces nouveaux outils, sans pour autant s'accorder sur les moyens pour y parvenir.

78 https://www.actuia.com/actualite/ethique-de-lintelligence-artificielle-cnp-assurances-met-en-place-un-dispositif-de-

gouvernance/#:~:text=Etre%20vigilante%20sur%20l'%C3%A9quit%C3%A9,outils%20et%20processus%20d'IA

79 https://www.axa-research.org/fr/news/IA-research-guide

51/97

S'il n'existe pas pour le moment de cadre réglementaire spécifique à l'intelligence artificielle, les mécanismes juridiques existants permettent de réglementer certains aspects liés aux procédés d'intelligence artificielle, sans pour autant constitués une réponse satisfaisante.

Section 2. Une réglementation partielle de l'intelligence artificielle par le cadre juridique existant

À l'étude du cadre juridique existant, il apparait que celui-ci semble dépassé par le développement de l'intelligence artificielle. Plus particulièrement, tant le RGPD (I) que les régimes de responsabilité traditionnels (II) n'offrent qu'une réponse partielle en matière de régulation. Cette incertitude est de nature à freiner le développement de solutions d'intelligence artificielle.

I. Le RGPD, une réponse incomplète au développement de l'intelligence

artificielle

Entré en vigueur le 25 mai 2018, le Règlement général sur la protection des données du 27 avril 2016 (dit RGPD)80 vise à trouver un équilibre entre, d'une part, une économie de plus en plus digitalisée et fondée sur la collecte et l'exploitation des données, et d'autre part, la protection des libertés et droits fondamentaux des personnes concernées, en particulier leur droit à la protection des données à caractère personnel.

Afin de parvenir à cet équilibre, et contrairement à la directive de 199581 qui imposait à tout responsable de traitement l'obligation de procéder à des formalités préalables auprès de l'autorité de contrôle nationale (déclaration, demande d'autorisation), le RGPD change fondamentalement de logique. En effet, fondé sur le principe d'accountability, le Règlement met en place un principe de responsabilité et de transparence à la charge de toute organisation traitant de données à caractère personnel. Ainsi, en contrepartie de la suppression des formalités initialement requises sous l'empire de la directive de 1995, les organisations doivent non seulement appliquer et respecter les obligations du Règlement, mais

80 Règlement (HE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE

81 Directive 95/46/CE du Parlement européen et du Conseil, du 24 octobre 1995, relative à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données.

également de pouvoir être en mesure de démontrer leur conformité aux exigences du Règlement en traçant toutes les démarches.

Ainsi, en vertu du Règlement, les responsables de traitement, et leur sous-traitant, sont

notamment tenus aux obligations suivantes :

- la nécessité de déterminer à l'avance les finalités de la collecte,

- fonder ces finalités sur l'une des bases légales prévues à l'article 6 du Règlement,

- ne collecter que les seules données nécessaires à la finalité visée, selon le principe de

minimisation de la collecte de données,

- déterminer une durée de conservation limitée des données traitées,

- assurer la confidentialité, l'intégrité et la disponibilité des données collectées,

- afin de garantir la transparence et la loyauté des opérations de traitement, le responsable

de traitement doit fournir à la personne concernée une information claire, lisible,

accessible et visible quelque soit le support de communication utilisé concernant

l'opération de traitement de ses données,

- informer la personne concernée des droits lui étant reconnus au titre du règlement.

En outre, afin de préserver les données personnelles des personnes concernées et garantir les droits associés, le cadre organisé par le Règlement repose sur deux principes fondamentaux contenus à l'article 25.

D'une part, le Règlement impose la protection des données dès la conception (privacy by design), qui suppose, dès la conception de projets impliquant la collecte et le traitement de données à caractère personnel, l'adoption des mesures spécifiques non seulement en lien avec une collecte et un traitement respectueux des droits des personnes concernées, mais également en lien avec la sécurisation de ces données82.

D'autre part, le responsable de traitement est tenu d'assurer la protection des données par défaut (privacy by default), qui tend à s'appliquer une fois le produit ou service délivré au public. Dans ce cas, il suppose que les organisations assurent, par défaut (c'est-à-dire sans manipulation supplémentaire des personnes concernées), un niveau maximal de protection des données à caractère personnel.

52/97

82 https://donnees-rgpd.fr/definitions/privacy-by-design/

53/97

Dans la pratique, il est clair que ce cadre s'applique aux assureurs, qui sont donc tenus de mettre en oeuvre ces différentes obligations afin d'assurer leur conformité au Règlement. En réalité, à l'étude du Règlement, force est de constater que le cadre actuel offre une réponse quant au recours à l'intelligence artificielle, par trois mécanismes distincts.

D'une part, si le Règlement ne fait pas expressément référence au cas particulier de la collecte et du traitement réalisés à l'aide de procédés d'intelligence artificielle, il inclut ce type de traitement sous un terme plus générique : le traitement automatisé. Ainsi, aux termes de l'article 22 du Règlement, « la personne concernée a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire ». Le texte encadre ces prises de décisions automatisées dès lors qu'elles produisent des effets juridiques ou ont des impacts significatifs sur les personnes concernées. La décision finale devra donc être prise par l'humain afin d'éviter que les individus ne subissent des choix émanant uniquement d'algorithmes. Ainsi en est-il lorsque l'assureur délègue l'analyse du risque et la détermination de l'assurabilité de ce risque à une intelligence artificielle. Dans ce cas, l'assuré pourrait légitimement invoquer cette disposition afin de faire échec à la décision découlant du recours à l'intelligence artificielle. Bien entendu, l'assureur n'est pas privé de toute possibilité. Il pourra légitimer le recours aux algorithmes d'intelligence artificielle, à condition d'obtenir le consentement explicite83 de la personne concernée, de justifier que le recours à ce procédé automatisé est rendu nécessaire à la conclusion ou l'exécution du contrat, ou encore que le recours soit autorisé par une disposition légale européenne ou nationale.

Toutefois, il est nécessaire de préciser que le Règlement est assez réticent à l'égard de ce type de traitements. Ainsi, s'il l'autorise sous certaines conditions, le Règlement prévoit ce que certains auteurs qualifient de « filet de sécurité » visant à protéger les droits des personnes concernées en la matière. Dès lors, le responsable de traitement (dont les assureurs qui traitent des données à grande échelle) sera notamment tenu de procéder à des analyses d'impact en la matière afin de déterminer le risque pesant sur les droits et libertés des personnes concernées, mais surtout, d'établir des garanties qui puissent permettre de limiter au maximum l'impact sur ces droits et libertés.

83 Le terme « explicite » présente dans ce contexte une importance particulière puisqu'à l'instar du traitement concernant les données dites sensibles prévues à l'article 9 du Règlement, ce consentement doit non seulement être libre, éclairé, spécifique, univoque et révocable, mais doit également être donné d'une façon incontestable (soit d'une manière qui ne permettre aucune mauvaise interprétation).

D'autre part, l'assurance de personne est susceptible de traiter plus fréquemment de données dites sensibles. Au sens de l'article 9 du Règlement, sont considérées comme sensibles les données qui révèlent « l'origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques (...), l'appartenance syndicale », ainsi que les données biométriques, les données concernant la santé ou celles concernant la vie sexuelle ou l'orientation sexuelle des personnes concernées. À cet égard, le Règlement pose un principe d'interdiction de la collecte de ces données, avec toutefois la possibilité pour le responsable de traitement de déroger à cette interdiction lorsqu'il justifie de l'une des situations exposées au même article. Sans rentrer dans le détail de ces dispositions, le régime applicable à ces données particulières offre naturellement à l'assuré des garanties supplémentaires quant à l'utilisation faite par l'assureur dans le cadre de procédés automatisés de prise de décision.

Cependant, si le Règlement offre des moyens de protection à la personne concernée, il faut toutefois tempérer ces propos dans la mesure où le Règlement n'offre qu'une réponse partielle au recours à l'intelligence artificielle dans le secteur de l'assurance.

D'abord, il faut rappeler que le Règlement ne concerne que les données à caractère personnel. En ce sens, les standards fixés dans le Règlement concernent uniquement cette catégorie de données, et établit comme fil conducteur la protection des données dès la conception et par défaut. Or, comme nous l'avons vu précédemment, l'un des enjeux en matière d'intelligence artificielle reste l'éthique. Et à cet égard, si les principes prévus par le Règlement constituent un point de départ en matière de régulation de l'intelligence artificielle, il est nécessaire que ce cadre soit complété par une législation spécifique à l'intelligence artificielle intégrant des standards d'éthique par défaut et dès la conception.

Ensuite, se pose la question des objectifs poursuivis au titre des politiques publiques et économiques. En effet, le 19 février dernier, la Commission européenne a dévoilé sa nouvelle stratégie du numérique pour les années à venir84. Pour faire de l'Europe un acteur majeur et fiable du numérique, la stratégie entend s'appuyer sur deux axes majeurs : la création d'un espace européen des données (dans lequel doit prévaloir la libre circulation de ces données), et le développement de l'intelligence artificielle d'autre part. Ainsi, si le développement de l'intelligence artificielle constitue la pierre angulaire de la stratégie de l'Union européenne, et que l'intelligence artificielle doit profiter de données de qualité pour produire des résultats probants et fournir des services à forte valeur ajoutée, la multiplication

54/97

84 https://ec.europa.eu/commission/presscorner/detail/fr/ip_20_273

des règles visant à créer un filet de sécurité au profit des personnes concernées pose la question de la compatibilité des objectifs. En ce sens, pour que l'Europe puisse s'imposer comme un acteur mondial en matière d'intelligence artificielle, il est certes nécessaire de garantir les droits et libertés des personnes concernées contre les intrusions disproportionnées dans la sphère intime des individus, mais il ne faudrait pas que l'impératif de protection des droits et des libertés mènent à une surrèglementation qui aboutirait à une exclusion systématique du recours aux algorithmes d'intelligence et qui pourtant présente des perspectives de croissance et d'opportunités économiques sur le long terme.

L'usage de l'intelligence artificielle suscite des débats quant à la transposition des règles de la responsabilité à l'intelligence artificielle. En matière d'assurance, ces incertitudes s'expriment de deux façons. D'une part, une première incertitude concerne la responsabilité de l'assureur lorsqu'il utilise des procédés d'intelligence artificielle causant un dommage à l'un de ses assurés. D'autre part, se pose la question du portage risque à l'assurance lorsqu'une intelligence artificielle est à l'origine de dommages subis par un tiers.

II. L'intelligence artificielle à l'origine de nouvelles logiques de responsabilité

Rappelé par le Conseil de l'Europe, le principe de responsabilité est fondamental, tant il permet l'équilibre entre d'une part, la liberté individuelle d'opérer selon ses propres choix, de prendre ses propres décisions et d'effectuer ses propres actions en toute autonomie et d'autre part, de répondre des dommages causés aux autres du fait des actions entreprises au titre de la liberté individuelle reconnue. Dans ce contexte, cette règle vise à assurer le respect mutuel et la discipline collective des membres d'une communauté85.

En l'état actuel, à l'étude du cadre applicable, il convient d'ores et déjà de faire le constat suivant : il n'existe actuellement aucun régime juridique propre à l'intelligence artificielle en matière de responsabilité civile. En ce sens, le cadre actuel n'est pas sans poser de nouvelles interrogations quant à l'applicabilité des régimes de responsabilités traditionnels.

En effet, suivant le principe de responsabilité civile, chacun est tenu de réparer les dommages causés à autrui, et on ne pourrait d'ailleurs comprendre qu'il en aille autrement

55/97

85 https://rm.coe.int/responsability-and-ai-fr/168097d9c6

56/97

s'agissant des dommages causés par recours à l'intelligence artificielle. À l'heure actuelle, le droit ne semble répondre que partiellement à cette question. Les réponses apportées en ce sens semblent différer selon qu'il s'agisse d'une IA symboliste (dite faible) ou connexionniste (dite forte), ou encore d'une IA dite incarnée ou désincarnée.

En ce sens, s'agissant des intelligences artificielles dites incarnées, les régimes de la responsabilité civile du fait des choses et de la responsabilité du fait des produits défectueux sont applicables aux dommages causés à autrui, notamment en raison du caractère indissociable de l'IA à l'objet, son support.

Mais les choses sont différentes s'agissant des intelligences artificielles désincarnées, en l'absence de support matériel. Dans ce contexte, les régimes juridiques existants ne sont pas applicables, de sorte qu'il existe un vide juridique sur ce point.

Afin de pallier ce vide juridique existant en la matière, plusieurs pistes ont toutefois été évoquées.

La première serait de s'appuyer sur la notion de garde dans le cadre du régime commun de la responsabilité civile. Toutefois, cette notion semble inadaptée puisque la garde suppose que le gardien dispose du pouvoir de direction, de contrôle et d'usage. Or, dans un contexte où les intelligences artificielles développées visent justement à s'émanciper et s'autodéterminer, le créateur ne dispose plus réellement du contrôle, de l'usage et de la direction sur l'intelligence artificielle. C'est justement ce que retient Stéphane Larrière, DPO du groupe Essilor, précisant ainsi que « la capacité d'auto-détermination de l'intelligence artificielle et sa marge d'indétermination qui en découle vis-à-vis de l'homme, la font échapper purement et simplement au champ de la responsabilité civile, sans qu'il soit même besoin de s'interroger plus avant sur son incorporalité... Si Siri à la question de sa responsabilité civile bloque sur un « sans commentaires », c'est que par un défaut de fondement, elle n'a juridiquement aucune réponse à apporter : sa responsabilité civile est un bogue ! ».

La deuxième piste viserait à la création d'un statut juridique propre à l'intelligence artificielle, à mi-chemin entre la chose et l'animal, avec un régime de responsabilité propre. Néanmoins, on pourrait y voir deux inconvénients sur ce point.

57/97

D'une part, la création d'un statut juridique et d'un régime de responsabilité propres à l'intelligence artificielle posent la question de l'applicabilité de ce nouveau régime de responsabilité. En effet, l'intelligence artificielle n'est pas une personne, et ne dispose donc pas d'un patrimoine. D'un point de vue purement pragmatique, cette situation pose la question de la charge finale de la réparation. En tout état de cause, si un nouveau statut juridique est créé, c'est justement pour éviter de faire peser la charge de la réparation sur le concepteur, qui par nature ne peut être tenu pour responsable des agissements et décisions d'une intelligence artificielle qui s'auto-détermine. Ainsi, l'une des pistes retenues serait de soumettre ces intelligences artificielles à un régime d'assurance obligatoire. Cette situation conduirait donc à faire peser sur les assureurs la prise en charge de la réparation des préjudices causés aux tiers du fait des agissements ou décisions des intelligences artificielles. Cette situation pose tout de même un certain nombre de questions, s'agissant notamment de l'assurabilité de ces risques, la charge potentielle pesant à ce titre sur les assureurs, l'étendue des obligations des assurances en la matière en cas de survenance d'un tel sinistre. En ce sens, ce mécanisme questionne quant à la place que doit non seulement occuper les intelligences artificielles autonomes dans nos sociétés, mais également le rôle que doivent supporter les assureurs dans cette évolution. Quoiqu'il en soit, en l'état actuel, les solutions semblent multiples et aucune réponse n'a pour l'heure été apportée sur ce point. Néanmoins, à l'étude du cadre actuel, il faut souligner que des mécanismes de réassurance et des fonds d'indemnisation spécifiques existent déjà pour des sinistres spécifiques, comme en témoignent le fonds de garantie des victimes des actes de terrorisme ou le fonds de prévention des risques naturels majeurs (FPRNM), aussi appelé fonds Barnier. Dans ce contexte, un statut spécifique pourrait être accompagné d'un régime d'indemnisation spécifique, à l'instar des deux précédemment cités, dont le financement serait réparti entre plusieurs acteurs.

D'autre part, la création d'un statut juridique autonome reconnu à l'intelligence artificielle conduirait à un effet inverse de l'objectif recherché actuellement. En effet, les travaux actuellement menés par la Commission européenne et le Conseil de l'Europe tendent à retenir une logique d'accountability qui vise à une responsabilisation accrue des développeurs d'intelligences artificielles en matière d'éthique. Or, l'une des interrogations s'agissant de la création d'un statut spécifique de l'intelligence artificielle concerne justement l'effectivité d'une logique d'accountability dans un contexte où le développeur ou fabricant sait qu'il ne pourrait potentiellement plus être recherché du fait des agissements ou décisions issus de son intelligence artificielle.

Enfin, une troisième approche plus nuancée viserait à créer un cadre de responsabilité partagée entre le concepteur, l'utilisateur et le fabricant. Présentant l'avantage d'inclure tous les acteurs dans le processus d'indemnisation, il risque toutefois de faire peser sur le fabricant ou le développeur une part de responsabilité qui pourrait être contestable dans les cas où les défaillances résultent du pur fait de l'intelligence artificielle, et non d'un défaut de fabrication.

En tout état de cause, dans le cadre de la réforme du cadre juridique de la responsabilité civile actuellement en discussion, le projet de loi actuellement retenu ne prévoit rien concernant ce point86, de sorte que le sujet semble loin d'être tranché pour l'heure.

Afin de pallier les divers aléas pouvant surgir à l'occasion de l'intégration des outils d'intelligence artificielle, et de permettre de prendre en considération l'intégralité des éléments nécessaires à une intégration réussie de ces nouveaux outils, il est nécessaire pour les acteurs du secteur de l'assurance d'adopter une véritable gouvernance de l'intelligence artificielle, préalablement à son déploiement.

58/97

86 https://www.actualitesdudroit.fr/browse/tech-droit/intelligence-artificielle/22571/reforme-de-la-responsabilite-et-intelligence-

artificielle-le-rapport-de-la-cour-d-appel-de-paris-refuse-de-se-prononcer

59/97

Chapitre 2 :

Une gouvernance interne primordiale préalablement au
recours à l'intelligence artificielle

Selon l'étude réalisée conjointement par PwC France et l'Usine Digitale concernant l'intelligence artificielle et le big data, la moitié des entreprises sondées exploite moins de 25% de la donnée collectée et analysée. Plus particulièrement, « les entreprises sont dans l'ensemble plus promptes à collecter les données qu'à les exploiter. En effet, 51% des répondants attribuent une note entre 7 et 10/10 à la collecte des données, contre seulement 36% à l'analyse et 33% à l'exploitation des données87 ». Ces résultats s'expliquent en réalité par combinaison de deux facteurs. D'abord, le recours à l'intelligence artificielle - outil de traitement et de valorisation de la donnée - dépend de la taille de l'entreprise en effectif. Ensuite, le recours à l'intelligence artificielle est corrélé au chiffre d'affaire.

Néanmoins, ces résultats montrent clairement une difficulté, non pas pour collecter les données, mais pour les exploiter, et donc créer de la valeur. Pourtant, l'intelligence artificielle intrigue puisque selon les dernières prédictions du cabinet PwC, 9 dirigeants sur 10 considèrent que l'intelligence artificielle présente plus d'opportunités que de risques88.

Toutefois, afin de pouvoir en tirer pleinement partie, il semble nécessaire que les acteurs de l'assurance adoptent une véritable gouvernance de l'intelligence artificielle afin de pouvoir en maitriser tous les aspects. Cette gouvernance nécessite en pratique d'établir une stratégie d'entreprise (Section 1), et d'accorder une vigilance particulière à la sécurité (Section 2).

Section 1. L'impératif d'une stratégie de la donnée avant l'intégration des outils d'intelligence artificielle

Comme nous l'avons précédemment vu, les données occupent une place prépondérante dans le secteur assurantiel. À cet égard, Salah Kamel, PDG de Semarchy, a souligné « les données sont à l'IA ce que les nucélotides sont à l'ADN89 », soulignant les rapports existants

87 https://www.usine-digitale.fr/article/data-et-ia-la-moitie-des-entreprises-exploite-moins-de-25-de-la-donnee-collectee-et-analysee.N756829

88 https://www.pwc.fr/fr/publications/data/predictions-ia-2020.html

89 https://www.decideo.fr/L-Intelligence-Artificielle-l-ADN-qui-donne-vie-aux-

donnees_a11832.html#:~:text=Les%20donn%C3%A9es%20sont%20%C3%A0%20l,nucl%C3%A9otides%20sont%20%C3%A0%20l'ADN &text=Aujourd'hui%2C%20les%20donn%C3%A9es%20ne,par%20exemple%20la%20parole%20humaine.

60/97

entre les données et l'intelligence artificielle. Dans ce contexte, leur valorisation est impérative et s'impose comme un enjeu stratégique, devant permettre aux organisations de créer de valeur.

Mais pour réussir l'intégration de l'intelligence artificielle, il est nécessaire préalablement d'adopter une véritable stratégie fondée sur la donnée et l'intégration de l'intelligence artificielle. Cette démarche est nécessaire afin de délimiter le cadre d'intervention de l'intelligence artificielle. En outre, cette stratégie est rendue nécessaire afin de ne pas fausser les résultats de l'intelligence artificielle et surtout, d'obtenir des résultats pertinents. Cette stratégie peut être définie comme l'ensemble des actions, opérations, et processus en vue d'atteindre la vision voulue par l'entreprise. Pour ce faire, cette stratégie se fonde sur trois étapes fondamentales et requises afin de parvenir à l'intégration des nouveaux procédés d'intelligence d'artificielle, qui sont la détermination d'une vision stratégique globale, l'identification du périmètre de la transformation, et la mise en oeuvre des initiatives prioritaires90. Plus particulièrement, pour parvenir à la réalisation des objectifs fixés, et surtout afin de pouvoir développer une approche raisonnée et cohérente, il est nécessaire de prendre en considération certains aspects essentiels.

Le premier aspect concerne les données nécessaires à l'intégration de l'intelligence artificielle. D'une part, il est nécessaire de déterminer avec précision la nature précise des données devant être exploitées dans le déploiement de l'intelligence artificielle. D'autre part, afin de garantir la pertinence des résultats, il apparait nécessaire d'assurer la qualité des données contenues sur les systèmes d'information. S'il n'existe pas définition légale de la qualité des données, cette notion peut cependant être définie comme l'aptitude de l'ensemble des données à satisfaire des exigences internes (pilotage, prise de décision, etc.) et des exigences externes (réglementation, etc.). Pour pouvoir assurer la qualité des données contenues dans un système d'information, il est nécessaire de prendre en considération plusieurs critères :

- la fraicheur, qui suppose un bref délai entre la collecte de la donnée et son analyse ;

- la disponibilité de la donnée, qui suppose des temps d'accès corrects aux bases de données, du classement des données, de la présentation claire et intelligible des données, mais également de la mise à disposition aux utilisateurs des outils nécessaires pour accès à ces données ;

- la cohérence des données collectées, eu égard la finalité et les objectifs de la collecte ;

90 McKinsey France, Accélérer la mutation numérique des entreprises : un gisement de croissance et de compétitivité pour la France, Septembre 2014

- la traçabilité, permettant de suivre le cheminement de l'information de sa collecte jusqu'à sa restitution ;

- la sécurisation des données, et ;

- l'exhaustivité des données.

Le deuxième vise à prendre en considération l'environnement externe. À cet égard, il est important pour les assureurs de développer une approche respectueuse de la règlementation applicable au secteur, qu'il des règles relatives au portage du risque, à la lutte contre le blanchiment, mais également en matière de protection des données personnelles.

Le troisième aspect essentiel à prendre en considération le facteur humain. Plus spécifiquement, afin de pouvoir mener à bien l'intégration des outils d'intelligence artificielle dans l'organisation, il est nécessaire pour les compagnies de prévoir les compétences requises pour y parvenir. Comme le précise le rapport d'IBM de 201991, la construction et le déploiement des outils d'intelligence artificielle peuvent nécessiter une équipe de développeurs, d'analyste business, d'architecte IT, d'analystes et d'ingénieurs data.

À cet égard, ce point appelle deux remarques.

D'abord, il apparait primordial pour les compagnies du secteur de budgétiser dès le départ les ressources nécessaires à l'embauche de ces nouvelles recrues issues principalement du numérique.

Ensuite, cette nouvelle embauche doit passer par une campagne de recrutement active des assureurs, qui doivent engager les moyens nécessaires afin d'attirer les profils indispensables à la bonne réalisation de la stratégie.

Aussi, outre les nouveaux recrutements induits par la construction des nouveaux systèmes d'intelligence artificielle, il est également nécessaire de prévoir en amont l'acculturation et la formation des collaborateurs de l'entreprise. En ce sens, nous avons vu précédemment que l'intelligence artificielle doit permettre de rendre l'organisation plus agile, en effaçant les cloisonnements traditionnels entre les métiers et en offrant des possibilités d'automatiser une partie des tâches répétitives. Dans ce contexte, les métiers évoluant, il est nécessaire que cette mutation s'accompagne d'une part, d'une réévaluation des effectifs et de la planification des charges de travail requises, et d'autre part d'un accompagnement des collaborateurs par la mise en place de plans de formation personnalisés.

61/97

91 IBM Power Systems, Considering the impact of AI in insurance, Becky Humphreys, Sam Jones, Mark Woolnough, 2019

Par ailleurs, il est crucial de prendre en considération la structure informatique existante dans l'entreprise. En effet, afin de pouvoir capitaliser sur les nouveaux procédés d'intelligence artificielle, il est non seulement nécessaire de déterminer les capacités informatiques existantes avant l'implémentation de l'intelligence artificielle dans le système, mais également de prévoir les besoins en terme de réorganisation des systèmes informatiques, notamment en terme de stockage (stockage physique, solutions cloud public ou privé, externalisation, etc.), d'évolution des bases de données, d'interopérabilité, de capacité de calcul et de traitement de l'information, etc. Cette démarche est essentielle puisqu'en omettant de définir les besoins informatiques, l'organisation s'expose à un cloisonnement des systèmes et des utilisations, contreproductives dans un cadre où l'intelligence artificielle vise à cultiver la transversalité des métiers et le dé-silotage des organisations.

Enfin, cette stratégie, pour être effective, doit intégrer une structure de la gouvernance de la stratégie, qui se doit d'être multidisciplinaire (des experts du management, des achats, de la conformité, des technologies et des données, ainsi que des responsables de processus issus de différentes fonctions), l'idée étant de couvrir l'ensemble des fonctions de l'entreprise pour une prise en compte de l'ensemble des problématiques des différents métiers et une meilleure compréhension des enjeux. En ce sens, il donc nécessaire pour les assureurs de développer une approche conciliant stratégie métiers et stratégie data. C'est d'ailleurs la préconisation du cabinet Deloitte en la matière, soulignant dans son étude que « 90% des assureurs interrogés indiquent avoir une approche data indépendante de la stratégie métier92 », la data étant encore trop souvent associée aux seules directions IT, là où elle devrait alimenter l'ensemble des fonctions et métiers.

Plus spécifiquement s'agissant de l'assurance, l'ACPR a en substance retenu la même approche, et a pu préciser à cet égard qu'il est primordial pour les assureurs de tenir compte de leurs caractéristiques propres afin de conduire leur transformation numérique. Plus particulièrement, l'ACPR souligne que les entreprises d'assurance doivent gérer trois héritages du passé censés permettre aux compagnies, une fois leur transformation achevée, de pouvoir se positionner stratégiquement sur le marché. Ces trois héritages sont l'héritage informatique, par l'adoption de méthodes agiles, l'héritage des ressources humaines, par une acculturation

62/97

92 Cabinet Deloitte, A little less conversation, a lot more action - tactics to get satisfaction from data analytics, 2017

63/97

des collaborateurs aux nouveaux outils, et un héritage des processus de la relation client, au coeur de l'activité et devant guider les mutations du secteur93.

En tout état de cause, cette démarche est primordiale préalablement à toute intégration de systèmes d'intelligence artificielle, tant elle vise à déterminer de manière précise la situation de départ, l'objectif à atteindre, et les moyens pour y parvenir. De manière plus pragmatique, un assureur qui intégrerait les nouveaux outils d'intelligence artificielle sans préalablement en étudier les moyens pour y parvenir s'exposerait à plusieurs risques.

D'abord, l'absence de stratégie maximise les risques d'introduire dans le système des données peu qualitatives ou erronées, augmentant le risque de résultats « biaisés » par l'intelligence artificielle.

En outre, cette situation augmente le risque d'une intelligence artificielle peu respectueuse non seulement des obligations légales applicables aux assureurs, mais également des droits et libertés reconnus aux individus. Par exemple, dans le champ de l'assurance de personne, l'absence d'un cadre clair et d'une délimitation du champ d'intervention de l'intelligence artificielle augmente pourrait entrainer la collecte de données de santé sans respecter les précautions particulières devant être mises en oeuvre s'agissant de ce type de données, considérées comme sensibles au regard du RGPD.

Surtout, en l'absence de stratégie d'intégration, la situation pourrait conduire à un effet inverse. En effet, s'agissant des collaborateurs, un champ d'intervention de l'intelligence artificielle et une mauvaise intégration pourrait conduire un cloisonnement des métiers plutôt qu'à une transversalité et une synergie, au risque d'un abandon de ces outils. S'agissant du client, les risques ne sont pas négligeables. En effet, par exemple, en gestion de sinistres, une mauvaise programmation pourrait conduire à une mauvaise collecte des données. Sur la base de ces données, l'intelligence artificielle pourrait mal interpréter les faits d'un sinistre et retenir un partage de responsabilité erroné dans un sinistre automobile. Outre l'erreur en termes de gestion du sinistre, cette situation crée de l'insatisfaction, avec le risque que celui-ci résilie et/ou le risque d'une mauvaise réputation sur le long terme par le partage d'expérience sur les réseaux.

93 Autorité de Contrôle Prudentiel et de Résolution, Étude sur la révolution numérique dans le secteur français de l'assurance, n°87 - Mars 2018

64/97

Si une stratégie de la donnée et d'intégration des nouveaux outils d'intelligence artificielle est nécessaire, la question de la sécurité des infrastructures doit également être prise en compte en amont par les acteurs du secteur.

Section 2. L'importance d'une prise en considération des risques liés à la sécurité des procédés d'intelligence artificielle

Par nature, l'environnement numérique est caractérisé par une plus grande fragilité que le monde physique, notamment en raison de la dématérialisation de l'information. En effet, l'information est par nature immatérielle, impliquant de facto une double vulnérabilité : celle affectant le support physique (contenant) et celle affectant la donnée, entendue comme la signification, la représentation de l'information (contenu).

Face à la multiplication des attaques d'envergure (Maze, Wannacry, Petya, etc), « parler de cyber résilience aujourd'hui revient à admettre qu'il est impossible d'empêcher l'avènement de cyber incidents, que le cyber espace est un monde fragile, instable et potentiellement hostile. Faire de la cyber résilience ne signifie pas se résoudre à l'incapacité de protéger correctement les infrastructures informationnelles, mais plutôt à reconnaître objectivement l'insuffisante efficacité des mesures de sécurité préventives, qu'elles soient d'ordre politique, organisationnelle, managériale, juridique ou technique94 ».

La cyber résilience étant devenue aujourd'hui un impératif afin de réduire les risques technologiques inhérents à cet élan constant de numérisation, il est nécessaire de prendre les mesures nécessaires afin de pouvoir assurer la sécurité, tant des structures physiques, que des données numériques possédées.

Afin de garantir la sécurité des systèmes d'information, il existe six concepts de base que chaque entreprise doit poursuivre lors de l'établissement d'une politique de sécurisation des systèmes d'information et de gestion des risques cyber. Alors que les trois premiers, référencés selon l'acronyme anglais « CIA » (Confidentiality, Integrity, Availability), s'imposent

94 Solange Ghernaouti et Christian Aghroum, Cyber-résilience, risques et dépendances : pour une nouvelle approche de la cyber-sécurité, 2012

65/97

comme des objectifs des sécurité, les trois autres acronymes (« AAA » pour Authentication, Authorization, Acccounting), constituent des fonctions de sécurité (voir annexe 9).

Si ces attaques semblent inévitables, il faut également souligner que les conséquences de ces attaques sont également nombreuses. Ainsi, outre une indisponibilité des services et du site de l'entreprise pendant une période significative, un ralentissement ou un arrêt total de la production pendant quelques heures, mais également une perte du chiffre d'affaires et une obligation de remplacer du matériel endommagé. En outre, le Cabinet Deloitte, spécialisé dans l'audit professionnel, a pu mettre avant le fait que les estimations des conséquences d'une cyber attaque sont généralement erronées, et se limitent à la « partie émergée de l'iceberg »95. En effet, ces estimations ne prennent en compte que les coûts les plus évidents. Or, une cyberattaque entraine également des coûts beaucoup plus diffus et difficiles à chiffrer, comme la perte de confiance accordée par le client, l'érosion du chiffre d'affaires liés à la perte de contrats client, ou encore dépréciation de la valeur de marque (préjudice d'image et atteinte à la réputation). Et les exemples foisonnent en la matière, comme en témoigne la récente attaque informatique commise contre l'assureur MMA au courant du mois de juillet 2020. Bien qu'aucune donnée concernant les assurés n'ait été dérobée, l'attaque a entrainé l'arrêt des systèmes de l'entreprise pendant plusieurs jours, rendant indisponibles le site web de l'entreprise, mais également l'intégralité de l'intranet et des applicatifs nécessaires à la poursuite de l'activité96.

En pratique, l'intelligence artificielle ne fait pas exception à la règle et est, elle aussi, exposée au phénomène. En effet, dans un rapport de 201997, le cabinet Wavestone, identifie trois principaux moyens d'attaque à l'encontre des procédés d'intelligence artificielle :

- les attaques par empoisonnement, ciblant spécifiquement la phase d'apprentissage automatique de l'IA. En agissant à l'occasion de cette phase, l'attaque souhaite modifier le comportement de l'intelligence artificielle en influençant le jeu de données utilisés par l'IA. C'est typiquement le procédé qui a été utilisé par les utilisateurs de Twitter afin de pousser Tay, l'intelligence artificielle déployée par Microsoft, à tenir des propos racistes et négationnistes.

95 Cabinet Deloitte, Beneath the surface of a cyberattack, a deeper look at business impacts, 2016

96 https://www.lemonde.fr/pixels/article/2020/07/21/l-assureur-mutualiste-mma-vise-par-une-attaque-informatique_6046824_4408996.html

97 Wavestone, Intelligence artificielle et cybersécurité : protéger dès maintenant le monde de demain, 2019

66/97

- les attaques par interférence, par lesquelles l'attaquant teste successivement différentes requêtes adressées à l'IA et étudie l'évolution de son comportement. Par ce procédé, « l'attaquant cherche ici soit la récupération des données utilisées par l'IA (en apprentissage ou en production), soit le vol du modèle (ou de certains de ses paramètres) ». C'est notamment le procédé qui a été utilisé pour contourner le dispositif de sécurité « Face ID » équipant les iPhone X. Ainsi, à l'aide d'une paire de lunettes, d'un ruban adhésif, et d'un utilisateur endormi afin de déverrouiller l'appareil. Prouvant que le système ne teste pas la vivacité, mais simplement l'existence de similitudes, il est donc possible de contourner l'authentification à l'aide de masques imprimés en 3D98.

- les attaques par évasion, qui visent à détourner le fonctionnement de l'IA par illusion, en jouant sur les données d'entrée de l'application. Ainsi, en introduisant un bruit à l'entrée, l'attaquant détourne le comportement de l'IA au stade du traitement de l'information, afin que le système produise une décision différente de celle normalement attendue par l'application.

Plus particulièrement, l'utilisation croisée des technologies, dont notamment les objets connectés, augmentent les failles dans la sécurité et les risques en découlant. En effet, en raison probablement d'une sécurisation très faible de ces objets connectés, de la disponibilité continue des machines, et du nombre important d'objets en circulation facilitant les attaques de grande ampleur, les objets connectés connaissent une augmentation des attaques les concernant depuis 201699.

Dans ce contexte, les acteurs du secteur de l'assurance doivent tenir compte, en amont de l'intégration de ces nouveaux outils, des risques liés à la cybersécurité. Cette question est d'ailleurs rendue nécessaires au regard de deux éléments complémentaires.

D'une part, au-delà de la protection des données de la personne concernée, le RGPD impose aux responsables de traitement et leurs sous-traitant des standards de sécurité à mettre en oeuvre afin de garantir la disponibilité, l'intégrité et la confidentialité des données traitées. Ainsi, aux termes des articles 25 et 32 du Règlement, les responsables de traitement et leurs sous-traitants doivent prendre toutes les mesures physiques, logiques et organisationnelles

98 https://www.forbes.com/sites/daveywinder/2019/08/10/apples-iphone-faceid-hacked-in-less-than-120-seconds/

99 ANSSI, État de la menace liée aux botnets, version 2.0.4, novembre 2019

67/97

requises afin de garantir un niveau de sécurité adapté au risque. En outre, l'article 33 du Règlement oblige le responsable de traitement à notifier, dans les cas explicités par l'article, les violations de données aux personnes concernées et/ou à l'autorité de contrôle nationale. Plus particulièrement, toute violation de sécurité portant sur les données personnelles et présentant des risques pour les personnes concernées doit faire l'objet d'une notification auprès de l'autorité de contrôle dans les 72 heures suivant la connaissance de la violation. Le responsable du traitement doit également en informer les personnes concernées s'il existe un risque élevé pour leurs droits et libertés. En outre, cette notification doit indiquer les conséquences probables de cette violation et les mesures prises pour y remédier, ce qui représente un coût pour les entreprises concernées (identification de l'incident, recherche de l'origine, frais relatifs à l'identification des personnes concernées par la violation, frais d'envoi des notifications, etc.). Ainsi, les assureurs, également soumis à cette réglementation, doivent nécessairement intégrer cette question de la sécurité des outils d'intelligence artificielle (mais également des objets connectés) dans leur stratégie d'intégration, et doivent donc à ce titre adopter un comportement actif en la matière.

D'autre part, nous avons vu précédemment que le déploiement de l'intelligence artificielle dans le secteur de l'assurance supposait une approche favorisant la confiance des utilisateurs. En tout état de cause, si cette confiance passe par l'adoption d'une approche éthique de l'intelligence artificielle, il faut cependant souligner que la sécurité des infrastructures et systèmes informatiques visent également à accroitre la confiance. Ainsi, la sécurité des infrastructures doit être pleinement prise en considération lors de l'intégration des outils d'intelligence artificielle afin de cultiver cette confiance, nécessaire et importante dans un secteur où la satisfaction du client occupe une place centrale.

68/97

CONCLUSION

En étudiant les tendances numériques en lien avec l'intelligence artificielle, il est clair que cette dernière constitue un outil stratégique redoutable pour les organisations. Son adoption permet de pouvoir accélérer la transformation numérique des organisations, en offrant des possibilités de synergies et de transversalité des métiers jusqu'alors insoupçonnées. Surtout, elle s'inscrit comme un outil important de compréhension et de maitrise du client. En ce sens, dans une économie où se développe un besoin de considération, à rebours des logiques de réseau et des communautés pourtant centrales dans le monde numérique actuelle, l'intelligence artificielle s'impose comme le moteur d'une personnalisation rendue nécessaire.

Toutefois, si l'intelligence artificielle promet d'offrir de nouvelles perspectives pour les entreprises qui font le choix de son intégration, le cadre actuel reste encore incertain et imparfait, rendant difficile son adoption en raison de trop nombreuses incertitudes. En l'état actuel des choses, les différents travaux en cours et les derniers éléments de politiques publiques témoignent d'une période de transition, d'un passage vers un nouveau palier de transition numérique tendant à se poser une nouvelle question : la nouvelle ère à venir ne serait-elle pas l'expression de ce que les auteurs qualifient de « web 3.0 » ou web sémantique, dans lequel les données, couplées aux technologies du cloud, du big data, et de l'intelligence artificielle sont comprises et interprétables non seulement par la machine mais également par l'homme, le but étant de proposer d'augmenter la pertinence et la personnalisation des résultats.

69/97

BIBLIOGRAPHIE

Ouvrages

- Éric A. Caprioli, Droit international de l'économie numérique : les problèmes juridiques liés à l'internationalisation de l'économie numérique, Lexis Nexis, 2e Édition

- Hubery Bitan, Droit et expertise du numérique, Wolters Kluwer, 2015

Publications

- Insurance Europe, European Insurance - Key Facts, Septembre 2019

- Accenture Research, How AI boosts industry profits and innovation, 2017

- Autorité de Contrôle Prudentiel et de Résolution, Étude sur la révolution numérique dans le secteur français de l'assurance, n°87 - Mars 2018

- La Fabrique d'assurance, Intelligence artificielle et éthique dans le secteur de l'assurance, livre blanc, novembre 2019

- Fédération Française de l'Assurance, L'assurance dans les territoires, 2019

- Jean-Philip Dumont, Gestion des risques des compagnies d'assurance : une revue de la littérature récente, Assurances et gestion des risques, vol. 79 (1-2), avril-juillet 2011, 43-81

- McKinsey Global Institue, The age of analytics : competing in a data-driven world, décembre 2016

- IBM Power Systems, Considering the impact of AI in insurance, Becky Humphreys, Sam Jones, Mark Woolnough, 2019

- OPTIC Technology, Intelligence artificielle, solidarité et assurances en Europe et au Canada - Feuille de route pour une coopération internationale, 20 janvier 2020

- Commission Nationale Informatiques et Libertés (CNIL), Comment permettre à l'Homme de garder la main ? Les enjeux des algorithmes et de l'intelligence artificielle, Synthèse du débat public animé par la CNIL dans le cadre de la mission de réflexion éthique confiée par la loi pour une République numérique, décembre 2017

- ACPR, Gouvernance des algorithmes d'intelligence artificielle dans le secteur financier, document de réflexion, Laurent Dupont, Olivier Fliche, Su Yang, juin 2020

- McKinsey France, Accélérer la mutation numérique des entreprises : un gisement de croissance et de compétitivité pour la France, Septembre 2014

- Cabinet Deloitte, A little less conversation, a lot more action - tactics to get satisfaction from data analytics, 2017

- Solange Ghernaouti et Christian Aghroum, Cyber-résilience, risques et dépendances : pour une nouvelle approche de la cyber-sécurité, 2012

- Cabinet Deloitte, Beneath the surface of a cyberattack, a deeper look at business impacts, 2016

- Wavestone, Intelligence artificielle et cybersécurité : protéger dès maintenant le monde de demain, 2019

70/97

- ANSSI, État de la menace liée aux botnets, version 2.0.4, novembre 2019`

- FFA, L'assurance française - Données clés 2018, septembre 2019

- A. Bozio et J. Grenet, Économie des politiques publiques, La Découverte, 2017

- G. Dablin et M. Monin, Assurer la qualité des données grâce à l'intelligence artificielle, Revue banque n°836, 2019

Textes légaux

- Communication de la Commission européenne au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des région du 6 mai 2015, intitulé « Stratégie pour une marché unique numérique en Europe », COM (2017) 192 Final, SWD (2015) 100 final

- Directive 2009/138/CE du Parlement européen et du Conseil du 25 novembre 2009 sur l'accès aux activités de l'assurance et de la réassurance et leur exercice (Solvabilité II)

- Article L.125-1 Code des assurances

- Article L. 1110-1 du Code de la santé publique

- Communication de la Commission européenne du 8 avril 2019, Renforcer la confiance dans l'intelligence artificielle axée sur le facteur humain, COM(2019) 168 final

- Livre blanc de la Commission européenne, Intelligence artificielle : une approche européenne axée sur l'excellence et la confiance, 19 février 2020, COM(2020) 65 final

- Recommandation CM/Rec(2020)1 du Comité des Ministres aux États membres sur les impacts des systèmes algorithmiques sur les droits de l'homme, adoptée par le Comité des Ministres le 8 avril 2020, lors de la 1373e réunion des Délégués des Ministres

- Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE

- Directive 95/46/CE du Parlement européen et du Conseil, du 24 octobre 1995, relative à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données

Sites internet

- https://www.factor-tech.com/feature/stephen-hawking-the-rise-of-powerful-ai-will-be-either-the-best-or-the-worst-thing-ever-to-happen-to-humanity/

- https://www.gartner.com/smarterwithgartner/top-trends-on-the-gartner-hype-cycle-for-artificial-intelligence-2019/

- https://www.journaldunet.com/economie/finance/1207903-qui-sont-les-assurtech-francaises-2019/ - https://ffa-conference-internationale.fr/

71/97

- https://www.belfius-assurances.be/service-clients/prevention/principes-de-base-de-la-prevention/danger-risque-et-analyse-des-risques/

- https://www.euractiv.fr/section/economie/interview/gdpr-could-obstruct-ai-development-mep-says/ - https://websummit.com/blog/hall-of-famers

- https://www.idc.fr/infographies

- https://www.coe.int/fr/web/artificial-intelligence/history-of-

ai#:~:text=L'intelligence%20artificielle%20(IA),cognitives%20d'un%20%C3%AAtre%20humain

- https://www.idc.com/getdoc.jsp?containerId=prUS46794720 - https://www.insuranceeurope.eu/about-us

- https://www.insuranceeurope.eu/sites/default/files/attachments/European%20insurance%20-- %20Key%20facts.pdf

- https://arfv2.cdn.axa-contento-118412.eu/arfv2%2F44d8a534-cd54-45e6-8aab-f3e5614a4d01_axa_livreblanc-ia-vf-pdfinteractif.pdf

- https://www.argusdelassurance.com/la-valorisation-de-la-donnee-dans-l-assurance/cloud-data-et-intelligence-artificielle-le-tierce-gagnant-des-assureurs.153659

- https://www.reinsurancene.ws/googles-verily-launches-insurance-partnership-with-swiss-re/

- https://www.insurancebusinessmag.com/ca/news/healthcare/amazon-and-google-the-next-generation-of-insurance-competition-in-canada-117644.aspx

- https://www.argusdelassurance.com/a-la-une/assurance-amazon-menace-ou-opportunite.136979

- https://bonne-assurance.com/actualites/2018/11/25/doit-on-craindre-une-entree-des-geants-du-web-dans-le-monde-de-lassurance/

- https://tractable.ai/products/vehicle-damage/

- https://tractable.ai/products/disasters/

- https://www.luko.eu/blog/garanties-assurance-maison-luko - https://www.covea.eu/fr

- https://www.decisionatelier.com/Covea-pousse-le-digital-dans-le-cadre-de-la-gestion-de-sinistre,11306

- https://ia-data-analytics.fr/machine-learning/

- https://www.futura-sciences.com/tech/definitions/intelligence-artificielle-deep-learning-17262/ - https://www.lebigdata.fr/traitement-naturel-du-langage-nlp-definition

- https://www.creditmutuel.com/fr/actualites/watson-nouvelle-solution-innovante-au-service-du-reseau-et-de-la-relation-client.html

- https://www.actuia.com/contribution/jean-cupe/la-data-science-a-la-rescousse-des-assurances/ - https://www.actuia.com/contribution/jean-cupe/la-data-science-a-la-rescousse-des-assurances/ - https://wearesocial.com/fr/digital-2020-france

72/97

- http://marketing-webmobile.fr/2011/10/histoire-du-web-mobile/

- https://www.groupama.com/fr/notre-modele/marques/amaguiz/

- https://www.forbes.fr/business/comment-le-club-med-dope-ses-ventes-grace-a-la-consideration-client/

- https://www.assurance-prevention.fr/prevenir-incendies-accidents-domestiques-cambiolage-degat-des-eaux

- https://www.statista.com/topics/2637/internet-of-things/

- http://dictionnaire.sensagent.leparisien.fr/Informatique%20ubiquitaire/fr-fr/

- https://www.innovation-mutuelle.fr/actualite/lintelligence-artificielle-une-opportunite-pour-les-mutuelles/#:~:text=En%20effet%2C%20l'assureur%20accompagne,de%20non%20r%C3%A9alisation %20des%20risques

- https://axaxl.com/fr/fast-fast-forward/articles/intelligence-artificielle-prevention-des-risques

- https://openclassrooms.com/fr/courses/6172816-environnement-de-l-assurance/6418781-le-principe-de-la-mutualisation-et-le-transfert-des-risques#:~:text=Le%20principe%20de%20mutualisation%20des,soumis%20potentiellement%20au%20 m%C3%AAme%20risque

- https://www.larousse.fr/dictionnaires/francais/risque/69557?q=risque#68805

- https://euria.univ-brest.fr/menu/menu_1/Le_Metier_d_Actuaire/Qu_est-ce-qu_un_Actuaire__/

- https://www.lesechos.fr/finance-marches/banque-assurances/il-y-a-des-risques-qui-sont-trop-grands-pour-le-marche-de-la-reassurance-1132686

- https://www.universalis.fr/encyclopedie/george-a-akerlof/

- https://www.pwc.fr/fr/expertises/actuariat-et-finance-quantitative-rvms/assurance/anti-selection-apprehender-ce-phenomene.html

- https://www.universalis.fr/encyclopedie/assurance-economie-de-l-assurance/3-antiselection/

- https://www.usabilis.com/definition-biais-cognitifs/

- https://www.sciencesetavenir.fr/sante/cerveau-et-psy/comment-notre-cerveau-nous-manipule-t-il_135688

- https://www.zdnet.fr/actualites/microsoft-tire-les-enseignements-de-son-experience-ratee-avec-tay-39888277.htm

- https://experiences.microsoft.fr/business/intelligence-artificielle-ia-business/equite-algorithmes-

definition/

- https://www.actuia.com/actualite/ethique-de-lintelligence-artificielle-cnp-assurances-met-en-place-un-dispositif-de-gouvernance/#:~:text=Etre%20vigilante%20sur%20l'%C3%A9quit%C3%A9,outils%20et%20processu s%20d'IA

- https://www.axa-research.org/fr/news/IA-research-guide

- https://donnees-rgpd.fr/definitions/privacy-by-design/

- https://ec.europa.eu/commission/presscorner/detail/fr/ip_20_273

-

73/97

https://rm.coe.int/responsability-and-ai-fr/168097d9c6

- https://www.actualitesdudroit.fr/browse/tech-droit/intelligence-artificielle/22571/reforme-de-la-responsabilite-et-intelligence-artificielle-le-rapport-de-la-cour-d-appel-de-paris-refuse-de-se-prononcer

- https://www.usine-digitale.fr/article/data-et-ia-la-moitie-des-entreprises-exploite-moins-de-25-de-la-donnee-collectee-et-analysee.N756829

- https://www.pwc.fr/fr/publications/data/predictions-ia-2020.html

- https://www.decideo.fr/L-Intelligence-Artificielle-l-ADN-qui-donne-vie-aux-

donnees_a11832.html#:~:text=Les%20donn%C3%A9es%20sont%20%C3%A0%20l,nucl%C3%A9otid es%20sont%20%C3%A0%20l'ADN&text=Aujourd'hui%2C%20les%20donn%C3%A9es%20ne,par%2 0exemple%20la%20parole%20humaine

- https://www.lemonde.fr/pixels/article/2020/07/21/l-assureur-mutualiste-mma-vise-par-une-attaque-informatique_6046824_4408996.html

- https://www.forbes.com/sites/daveywinder/2019/08/10/apples-iphone-faceid-hacked-in-less-than-120-seconds/

- https://www.ffa-assurance.fr/la-federation/nos-missions

74/97

ANNEXES

Annexe 1. Chiffres clés de l'assurance en France

Selon les chiffres publiés par Insurance Europe100, le marché de l'assurance européen occupait en 2018 la deuxième place du marché mondial de l'assurance, juste après l'Asie, et avant l'Amérique du Nord. Le marché européen de l'assurance représente plus de 1 311 milliards d'euros de cotisations d'assurances sur l'année 2018, ce chiffre étant en hausse de 6,2% par rapport à l'année 2017101. Et la France n'est pas en reste dans ce secteur. En effet, selon l'étude, notre pays figure, aux côtés du Royaume-Uni et de l'Allemagne, parmi les acteurs les plus importants du marché européen.

Les entreprises d'assurance et de réassurance opérant sur le territoire français sont regroupé au sein d'un organisme de représentation professionnelle : la Fédération Française de l'Assurance (FFA)102. Regroupant près de 99% des entreprises d'assurance et de réassurance opérant en France, l'une de ses missions consiste à fournir les données statistiques essentielles de la profession103. Selon les données rendues publiques par la Fédération104, la France comptait 628 organismes d'assurances agréés, dont 49,8% de sociétés mutuelles au sens du Code de la mutualité, 28,8% de sociétés d'assurance non-vie, ainsi que 13,2% de sociétés d'assurance vie et mixtes.

100 Basée à Bruxelles, Insurance Europe est la fédération européenne d'assurance et de réassurance, qui représente toutes les entreprises d'assurance et de réassurance. Ses missions sont les suivantes :

- Attirer l'attention sur les questions d'intérêt stratégique pour tous les assureurs et réassureurs européens de manière durable.

- Sensibiliser au rôle des assureurs et des réassureurs dans la protection et la sécurité de la communauté ainsi que dans la contribution à

la croissance et au développement économiques.

- Promouvoir - en tant qu'expert et représentant du secteur de l'assurance - un marché concurrentiel et ouvert au profit du consommateur
européen ainsi que des entreprises clientes.

https://www.insuranceeurope.eu/about-us

101 Insurance Europe, European Insurance - Key Facts, Septembre 2019.

Voir : https://www.insuranceeurope.eu/sites/default/files/attachments/European%20insurance%20--%20Key%20facts.pdf

102 La Fédération Française de l'Assurance (FFA) est l'organisme de représentation professionnelle des entreprises d'assurance. Créée le 8 juillet 2016, la FFA regroupe la Fédération Française des Sociétés d'Assurance (FFSA) et le Groupement des Entreprises Mutuelles d'Assurances (GEMA).

103 Plus précisément, les principales missions de la FFA sont les suivantes : Préserver l'ensemble du champ économique et social en relation avec les activités assurantielles ; Représenter l'assurance auprès des pouvoirs publics nationaux et internationaux, des institutions et des autorités administratives ou de place ; Offrir un lieu de concertation et d'analyse des questions financières, techniques ou juridiques ; Fournir les données statistiques essentielles de la profession ; Informer le public et les médias ; Promouvoir les actions de prévention ; Promouvoir la place de l'assurance dans le monde académique et la formation. Voir en ce sens : https://www.ffa-assurance.fr/la-federation/nos-missions

104 https://www.ffa-assurance.fr/etudes-et-chiffres-cles/assurance-francaise-donnees-cles-2018

0.60%

1.90%

5.61%

Organismes d'assurance agréés en France

49.85%

13.21%

28.83%

Sociétés d'assurance non vie

Sociétés d'assurance vie et mixtes

Institutions de prévoyans

Sociétés de réassurance

Succursales de pays tiers

Mutuelles au sens du Code de la mutualité

Données clés de l'Assurance française, 2018

https://www.ffa-assurance.fr/etudes-et-chiffres-cles/assurance-francaise-donnees-cles-2018

En outre, le marché français de l'assurance représentait en 2018 près de 219,4 milliards d'euros de cotisations, réparties de la manière suivante :

3.89%

3.11%

1.56%

Répartition des cotisations en assurance de biens et responsabilité

6.61%

12.45% 33.07%

39.30%

Transports Catastrophes naturelles Construction Responsabilité civile générale Autres

Dommages aux biens Automobile

Assurances de personnes

Assurances de biens et responsabilité

Cotisations

219,4 Milliards € en 2018

25.60%

74.40%

75/97

Données clés de l'Assurance française, 2018

https://www.ffa-assurance.fr/etudes-et-chiffres-cles/assurance-francaise-donnees-cles-2018

Si près de 219,4 milliards d'euros ont été collectées au titre des cotisations, les prestations

d'assurance ont représenté 174,9 milliards d'euros pour l'année 2018, principalement en assurance de personne (77,6%), puis en assurances de biens et de responsabilité (22,4%).

4.04%

4.04%

0.90%

Répartition de la charge des prestations en assurance de biens et responsabilité

6.73%

7.62%

31.84%

44.84%

Transports Catastrophes naturelles Construction Responsabilité civile générale Autres

Dommages aux biens Automobile

Assurances de personnes

Assurances de biens et responsabilité

Prestations

174,9 Milliards € en 2018

22.40%

77.60%

76/97

Données clés de l'Assurance française, 2018

https://www.ffa-assurance.fr/etudes-et-chiffres-cles/assurance-francaise-donnees-cles-2018

Annexe 2. Les différentes branches de l'intelligence artificielle

77/97

Annexe 3. La mutualisation des risques

Source :

https://openclassrooms.com

Annexe 4. Les principaux indicateurs du numérique en France

78/97

79/97

80/97

81/97

Source :

https://wearesocial.com/fr/digital-2020-france

82/97

Annexe 5. Les usages de l'intelligence artificielle en assurance

Source :

Autorité de Contrôle Prudentiel et de Résolution, Étude sur la révolution numérique dans le secteur français de l'assurance, n°87 - Mars 2018

83/97

Annexe 6. Classification des différentes formes d'intelligence artificielle

Source :

https://www.coe.int/fr/web/artificial-intelligence/glossary

Nous trouvons des histoires

· et des motifs même dans des donnes eparses

 

Nous remplissons les caracteristiques

· manquantes a partir de stéréotypes, de generalites et de nos a priori.

 

Pour éviter de faire des erreurs. nous

avons tendance a preserver notre autonomie et notre statut groupe et

eviler les decisions irreversibles.

Pour accomplir nos tâches nous avons tendance a vouloir completer celles dans lesquelles nous avons dejâ
·
investi du temps et de I-energie

Afin de rester concentre. nous favorisons ce qui nous est immediat
· proche ou autour de nous

Annexe 7. Codex des biais cognitifs humains

1 â

:4 44 d

. scents

Trop

d'information

dont nous Nous nous rappelons des choses qui sont deja

amorcées dans notre mernoirs ou qui sont souvent repetees.


·

Les choses bizarres 1 drôles / visuellement frappantes f anthropomorphiques sont plus

· saillantes que celles qui ne le sont pas.

On remarque lorsque

· quelque chose a change.

NOUS s[OCKons les souvenirs différemment selon la façon avons vecu l'experience-

Nous reluisons les

De quoi devons-nous

nous rappeler? evenements et listes a leurs

element-des
· 4

PPL~A Q'A

N ÿB

Nous mons e les erelitfici[eés t.` = {

et formons de généralit6s
· ~ 4 G $7yE9 q q:#11 ` ' -


·

Nous modifions et renforçons "F

certains souvenirs apres les fait.
·

 

Nous sommes attires par les

· details qui confirment nos propres croyances preexistantes

Nous remarquons les failles

· chez les autres plus facilement que chez nous-même.

 

Pte:

Nous favorisons les options qui nous ~+1~v~, a~ 4
·i

paraissent simples ou qui ont dese..a. y


·

informations plus completes aux option ~^

plus complexes ou ambiguës. ear r.

Rin.444,

e

Pour pouvoir agir, nous devons avoir confiance en notre capacite a avoir un impact et sentir que ce que nous faisons est important

· Nous imaginons que les personnes que nous aimons ou que les choses avec lequelfes nous sommes familiers sont meilleures que les choses et les personnes qui ne le sont pas.

Pas assez de sens


·


·


·


·


·

..
·'k-%::`,$0.+4.
·L : u11

· 1»%y

z'effidei.- lit 101\ \

1`1
·
Nous simplifions les p[obahihtes et les nombres

pour les rendre plus faciles et abordables a

·
· notre pensée.

Le besoin d'agir vite

84/97

Nous projetons nos croyances et Nous pensons que nous savons

schemas de pensées actuels sur le passe ce que les autres pensent et ie futur.

DESIGNHACKS.CO
· CATEGORIZATION BY BUSTER BENSON ' ALGORITHMIC DESIGN BY 10HN MANOOGIAN Ill SJM31
· DATA BY W IKI99EOI

85/97

Annexe 8. Niveaux d'explication par cas d'usage

Source :

Autorité de Contrôle Prudentiel et de Résolution, Étude sur la révolution numérique dans le secteur français de l'assurance, n°87 - Mars 2018

86/97

Annexe 9. Les objectifs et fonctions de la cybersécurité

LES OBJECTIFS DE SÉCURITÉ

Confidentiality
Confidentialité

Integrity
Intégrité

Le principe de confidentialité suppose que seules les personnes autorisées peuvent avoir accès aux informations qui leur sont destinées (notions de droits ou permissions), de sorte que tout accès indésirable doit être empêché.

Selon le critère de l'intégrité, les données ne doivent pas avoir fait l'objet de modifications lors de leur stockage, leur traitement ou leur transfert, à l'insu de leurs propriétaires, que ce soit de manière intentionnelle ou accidentelle. En somme, les éléments considérés doivent être exacts et complets (Utilisation des techniques de checksum ou hachage).

Availability
Disponibilité

 

La disponibilité induit l'accès aux ressources du système d'information de manière permanente et sans faille durant les plages de fonctionnement définies.

LES FONCTIONS DE SÉCURITÉ

Authentication
Authentification

 

Pour garantir cette fonction, il est nécessaire que les utilisateurs prouvent leur identité avant de pouvoir effectuer toute action. À cet égard, il faut distinguer la notion d'authentification et d'identification. En effet, l'authentification suppose de fournir un mot de passe ou un élément qui seule la personne connait. À l'inverse, l'identification ne fait que nommer l'identité de la personne ; elle n'est reconnue que par son identifiant.

Authorization
Autorisation

Accounting
Non-répudiation

Cette fonction induit qu'une action ne peut être exécutée que si le demandeur détient les droits d'accès, les privilèges requis. En ce sens, il ne suffit pas que le demandeur prouve son identité : il faut également que le demandeur ait autorité pour effectuer cette action.

Selon cette fonction, aucun utilisateur ne doit pouvoir contester les opérations qu'il a réalisées dans le cadre de ses actions autorisées. De plus, aucun tiers ne doit pouvoir s'attribuer les actions d'un autre utilisateur. Pour ce faire, il est nécessaire de suivre et conserver les accès, les tentatives d'accès et les opérations effectuées sur le système. En effet, en cas de problème, l'exploitation des registres de suivi des accès et des modifications permettra de remontrer les différentes actions effectuées afin de pouvoir identifier les responsabilités.

Annexe 10. Synthèse des principaux moyens d'attaque spécifiques au machine learning

87/97

Source :

Wavestone, Intelligence artificielle et cybersécurité : protéger dès maintenant le monde de demain, 2019

88/97

Annexe 11. Briques de fonctionnement d'une application basée sur la machine learning

Source :

Wavestone, Intelligence artificielle et cybersécurité : protéger dès maintenant le monde de demain, 2019

89/97

Annexe 12. Synthèse des dispositions applicables au titre du Règlement général sur la protection des données personnelles

Source :

www.teachprivacy.com

Annexe 13. Synthèse des cas d'usage de l'utilisation de l'intelligence artificielle dans le secteur de l'assurance

90/97

91/97

Source :

Cabinet Deloitte, From mystery to mastery : Unlocking the business valeur of Artifical Intelligence in the insurance industry, 2017

92/97

Annexe 14. Résultats du baromètre 2020 des risques émergents

en assurance

93/97

Source :

FFA, Cartographie 2020 des risques émergents pour la profession de l'assurance et de la réassurance, 2020

94/97

Annexe 15. Synthèse de l'approche du Conseil de l'Europe en matière de régulation de l'intelligence artificielle

Source :

https://rm coe int/leaflet-artificial-intelligence-/16808af473

95/97

Annexe 16. Synthèse de la nouvelle stratégie de l'Union européenne en matière de numérique

Façonner l'avenir numérique de l'Europe: la Commission présente des stratégies en matière de données et d'intelligence artificielle

Bruxelles, le 19 février 2020

La Commission dévoile aujourd'hui ses idées et mesures pour une transformation numérique profitable à tous, reflétant le meilleur de ce que l'Europe offre: l'ouverture, l'équité, la diversité, la démocratie et la confiance. La stratégie dévoilée ce jour présente une société européenne soutenue par des solutions numériques qui placent les citoyens au premier plan, ouvrent de nouvelles perspectives aux entreprises et encouragent le développement de technologies fiables pour promouvoir une société ouverte et démocratique et une économie dynamique et durable. Le numérique est un élément déterminant pour lutter contre le changement climatique et réussir la transition écologique. La stratégie européenne pour les données et les possibilités d'action pour garantir le développement d'une intelligence artificielle (IA) axée sur le facteur humain, présentées aujourd'hui, constituent les premières étapes vers la réalisation de ces objectifs.

La présidente de la Commission, Mme Ursula von der Leyen, s'est exprimée en ces termes: «Nous présentons aujourd'hui nos ambitions en vue de façonner l'avenir numérique de l'Europe. Notre stratégie englobe des domaines aussi variés que la cybersécurité, les infrastructures critiques, la formation numérique, les compétences, la démocratie et les médias. Je tiens à ce que cette Europe numérique reflète le meilleur de notre continent: l'ouverture, l'équité, la diversité, la démocratie et la confiance.»

Mme Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l'ère du numérique, a déclaré: «Nous voulons que chaque citoyen, chaque travailleur, chaque entreprise ait une possibilité réelle de tirer parti des avantages de la numérisation. Qu'il s'agisse de conduire en toute sécurité ou en polluant moins grâce aux voitures connectées, ou même de sauver des vies à l'aide d'une imagerie médicale fondée sur l'intelligence artificielle, qui permet aux médecins de diagnostiquer des maladies plus précocement que jamais.»

M. Thierry Breton, commissaire chargé du marché intérieur, a fait la déclaration suivante: «Notre société génère une masse considérable de données industrielles et publiques, qui transformeront notre manière de produire, de consommer et de vivre. Je veux que les entreprises européennes et nos nombreuses PME aient accès à ces données et créent de la valeur pour les Européens, notamment en développant des applications d'intelligence artificielle. L'Europe possède tous les atouts nécessaires pour mener cette course aux mégadonnées et préserver sa souveraineté technologique, son leadership industriel et sa compétitivité économique, au bénéfice des consommateurs européens.»

L'Europe en tant qu'acteur majeur et fiable du numérique

Utilisées à bon escient, les technologies numériques profiteront aux citoyens et aux entreprises à bien des égards. Au cours des cinq prochaines années, la Commission se concentrera sur trois objectifs clés en matière numérique:

· La technologie au service des personnes;

· Une économie juste et compétitive; et

· Une société ouverte, démocratique et durable.

L'Europe tirera parti de sa longue histoire en termes de technologie, de recherche, d'innovation et d'ingéniosité, ainsi que de sa solide protection des droits et des valeurs fondamentales. De nouveaux cadres et mesures permettront à l'Europe de déployer des technologies numériques de pointe et de renforcer ses capacités en matière de cybersécurité. L'Europe continuera de préserver sa société ouverte, démocratique et durable et les outils numériques pourront soutenir ces principes. Elle tracera et poursuivra sa propre voie pour se transformer en une économie et une société numériques compétitives au niveau mondial, inclusives et fondées sur des valeurs, tout en restant un marché ouvert mais réglementé et en maintenant une collaboration étroite avec ses partenaires

internationaux.

96/97

L'Europe en tant qu'acteur majeur d'une intelligence artificielle digne de confiance

L'Europe possède tous les atouts nécessaires pour devenir un chef de file mondial dans le développement de systèmes d'intelligence artificielle propices à des utilisations et applications sûres. Nous disposons d'excellents centres de recherche, de systèmes numériques sûrs et d'une solide position en matière de robotique, et nos secteurs manufacturier et de fourniture de services sont compétitifs, dans des domaines aussi divers que l'automobile, l'énergie, les soins de santé ou l'agriculture.

Dans son livre blanc présenté aujourd'hui, la Commission envisage un cadre pour une intelligence artificielle digne de confiance, s'appuyant sur l'excellence et la confiance. Par un partenariat avec les secteurs privé et public, l'objectif est de mobiliser des ressources tout au long de la chaîne de valeur et de créer les incitations appropriées pour accélérer le déploiement de de l'IA, y compris par les petites et moyennes entreprises. Il s'agit notamment de travailler avec les États membres et la communauté des chercheurs pour attirer et garder les talents. Étant donné que les systèmes d'IA peuvent être complexes et comporter des risques importants dans certains contextes, il est essentiel d'instaurer un climat de confiance. Des règles claires doivent régir les systèmes d'IA à haut risque, sans faire peser de charge excessive sur les systèmes présentant moins de risques. En outre, des règles strictes de l'UE en matière de protection des consommateurs continueront de s'appliquer, afin de lutter contre les pratiques commerciales déloyales et de protéger les données à caractère personnel et la vie privée.

Dans les domaines haut risque, comme la santé, la police ou les transports, les systèmes d'IA devraient être transparents, traçables et garantir un contrôle humain. Les autorités devraient être en mesure de tester et de certifier les données utilisées par les algorithmes, tout comme elles procèdent à des vérifications sur les cosmétiques, les voitures ou les jouets. Des données sans biais sont nécessaires pour entraîner les systèmes à haut risque à fonctionner correctement et pour garantir le respect des droits fondamentaux, notamment la non-discrimination. Alors qu'aujourd'hui le recours à la reconnaissance faciale aux fins d'une identification biométrique à distance est généralement interdit et n'est autorisé que dans des cas exceptionnels, dûment justifiés et proportionnés, sous réserve des garanties et dans le respect du droit de l'UE ou du droit national, la Commission souhaite lancer un vaste débat sur les éventuelles circonstances susceptibles de justifier des exceptions.

En ce qui concerne les applications d'IA à faible risque, la Commission envisage un système de label non obligatoire si elles appliquent des normes plus élevées.

Le marché européen sera accessible à l'ensemble des applications d'IA, pour autant que celles-ci soient conformes aux règles de l'UE.

L'Europe en tant qu'acteur majeur de l'économie des données

Les volumes de données générées par les entreprises et les organismes publics sont en constante augmentation. Les prochaines vagues de données industrielles transformeront notre manière de produire, de consommer et de vivre. Leur potentiel reste toutefois largement inexploité. L'Europe a toutes les ressources nécessaires pour devenir un acteur majeur de cette nouvelle économie des données: la base industrielle la plus solide au monde, au sein de laquelle les PME constituent un segment vital du tissu industriel; les technologies; les compétences; et, désormais, une vision claire.

La stratégie européenne pour les données vise à faire en sorte que l'UE devienne un modèle et un acteur majeur d'une société dont les moyens d'action sont renforcés par les données. À cette fin, elle entend établir un véritable espace européen des données, un marché unique des données, pour mobiliser les données inutilisées, en autorisant leur libre circulation dans l'Union et entre les secteurs, au bénéfice des entreprises, des chercheurs et des administrations publiques. Il convient de donner aux citoyens, aux entreprises et aux organisations les moyens de prendre de meilleures décisions, sur la base des informations tirées de données à caractère non personnel. Ces données devraient être accessibles à tous les acteurs, qu'ils soient publics ou privés, jeunes pousses ou géants d'un secteur.

Pour y parvenir, la Commission proposera d'abord la création d'un cadre réglementaire idoine pour la gouvernante des données, leur accessibilité et leur réutilisation entre entreprises, entre entreprises et administrations, et au sein des administrations. Cela implique d'instaurer des mesures d'incitation visant à promouvoir le partage des données, en déterminant l'accessibilité et l'utilisation des données à l'aide de règles pratiques, équitables et claires, qui respecteront les valeurs et les droits européens tels que la protection des données à caractère personnel et la protection des consommateurs, ainsi que les règles de concurrence. Cela requiert aussi d'accroître la disponibilité des données du secteur public en ouvrant l'accès à des ensembles de données de grande valeur dans l'ensemble de l'Union et en permettant leur réutilisation aux fins d'innovations.

Ensuite, la Commission entend soutenir l'élaboration de systèmes technologiques et d'infrastructures de nouvelle génération, qui permettront à l'UE et à tous les acteurs d'exploiter le potentiel de

97/97

Source :

https://ec.europa.eu/commission/presscorner/detail/fr/ip_20_273






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Il existe une chose plus puissante que toutes les armées du monde, c'est une idée dont l'heure est venue"   Victor Hugo