Les deadbots pour continuer d’échanger avec un défunt par message
La société est rentrée dans une ère qui n’est pas prête à reculer. C’est l’ère du numérique et de son impact dans tous les domaines de notre vie. La technologie a aussi emprunté les pas à cet essor continuel du numérique. L’intelligence artificielle fruit du développement continu de la technologie n’est pas en reste.
Pour la résolution de vos problèmes relatifs de succession, nos avocats sont disposés à vous aider. Téléphonez-nous au : 01 43 37 75 63 ou remplissez le formulaire en cliquant sur le lien |
Selon une étude menée par la société Gartner, plus de 20 milliards d’objets connectés étaient en circulation en 2020. Il y en aurait 40 milliards en 2025. Qu’il s’agisse du domaine de la santé, du bien-être, du sport, de la domotique ou encore du loisir, l’attrait des utilisateurs pour les objets connectés est caractérisé.
La société qui autrefois était manuelle, s’est transformée en société du virtuel voire technologique dans la mesure où le développement des IA tend à suppléer l’être humain dans ses tâches quotidiennes.
Logiciel de streaming vidéo ou audio, conduite autonome, système de navigation, assistants vocaux, reconnaissance faciale… Tous ces objets que l’on ne voit plus, qui sont entrés dans notre quotidien durablement, sont tous des produits d’intelligence artificielle. On peut rajouter à cette liste les fameux véhicules dotés d’IA qui sont dans certains pays toujours en phase de tests et qui pourraient bientôt miner notre société.
L’intelligence artificielle (IA) recouvre un large champ de technologies en évolution rapide et peut procurer de nombreux avantages économiques et sociétaux dans l’ensemble des secteurs économiques et des activités sociales. Voilà que l’intelligence artificielle fait parler désormais les morts. Si dès 2013, la série Black Mirror imaginait une application mobile permettant à une jeune femme de converser avec son compagnon décédé, le procédé est aujourd’hui passé de la fiction à la quasi-réalité.
En 2018, le journaliste américain James Vlahos avait réussi à intégrer une intelligence artificielle à l’application Facebook Messenger afin de poursuivre des conversations avec son père mort des suites d’un cancer. Ce fut la naissance de ce que l’on nomme les deadbots (contraction de « mort » et « robot » en français) autrement appelés « anges gardiens ».
Le contact virtuel, sorte d’avatar du défunt papa, reprenait sa façon d’écrire, recueillie au cours des dernières heures de sa vie et grâce à des algorithmes puisant dans ses anciens tweets, posts et même textos. Soit un sacré packaging de données personnelles permettant à James Vlahos de retarder le moment de faire son deuil. Depuis, ce genre de technologie s’est multipliée à travers le monde, incluant même la voix de la personne disparue.
Ces IA engrangent d’énormes quantités de données et utilisent bien évidemment les données personnelles des personnes concernées. Sans cette armada de données engrangées, difficile sera leur fonctionnement. En outre, la question de l’utilisation de ces données pose souvent question. Idem pour la responsabilité de ces IA en cas de défaut donne lieu à débat tous les jours.
De nombreuses start-up, essentiellement chinoises et anglo-saxonnes – en France, la technologie se heurte à la loi informatique et liberté –, travaillent, avec l’accord des utilisateurs, à collecter les données au cours de l’existence ou au moment où la fin est proche.
I. Notion de l’Intelligence artificielle
L’intelligence artificielle fait partie de notre quotidien, qu’il s’agisse de la reconnaissance vocale sur nos téléphones portables, des suggestions personnalisées de films sur des plates-formes de streaming (certes, plus ou moins convaincantes…) ou des systèmes de reconnaissance d’images permettant de « taguer » des visages ou de filtrer des contenus violents ou pornographiques publiés sur les réseaux sociaux.
L’intelligence artificielle est un « ensemble de systèmes qui font preuve d’un comportement intelligent en analysant l’environnement et en permettant des mesures avec un certain degré d’autonomie pour atteindre des objectifs précis. »
Ce système permet à une machine d’interagir avec les données et de les analyser afin d’atteindre un objectif spécifique.
C’est donc une science dont la finalité est de faire par une machine des tâches que l’homme utilise son intelligence pour les faire.
Pour l’un des fondateurs de la discipline de l’IA, c’est : « La construction de programmes informatiques qui s’adonne à des taches qui sont pour l’instant accomplies de façon plus satisfaisante par des êtres humains, car demande des processus plus précis ».
Au sens large, le terme désigne en effet indistinctement des systèmes qui sont du domaine de la pure science-fiction (les IA dites « fortes », dotées d’une forme conscience d’elles-mêmes) et des systèmes déjà opérationnels en capacité d’exécuter des tâches très complexes (reconnaissance de visage ou de voix, conduite de véhicule – ces systèmes sont qualifiés d’IA « faibles » ou « modérées »). (1)
L’intelligence artificielle n’est pas une technologie à proprement parler, mais plutôt un domaine scientifique dans lequel des outils peuvent être classés lorsqu’ils respectent certains critères. Pour se familiariser avec ce domaine, il peut être utile de se référer au glossaire de l’IA publié par la CNIL. (2)
Pour le Parlement européen, l’intelligence artificielle représente tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». (3)
Cette définition pourrait être élargie en incluant les comportements dépassant les capacités humaines, puisque les ordinateurs actuels parviennent aujourd’hui à les surpasser dans certaines tâches (bien que la compétence de l’ordinateur s’arrête généralement à l’exécution de cette tâche). À titre d’exemple, le système d’IA AlphaGo, capable de battre le champion du jeu de go Lee Sedol, est très doué pour élaborer des stratégies à ce jeu, mais ses capacités s’arrêtent ici. Il sera incapable de jouer aux échecs ou d’effectuer d’autres tâches tant que celles-ci ne lui auront pas été inculquées.
Tout système mettant en œuvre des mécanismes proches de celui d’un raisonnement humain pourrait ainsi être qualifié d’intelligence artificielle.
Les premières applis permettant de « converser » avec un proche disparu font leur arrivée sur le marché. Une véritable économie de l’« immortalité numérique » commence à poindre. Tout cela repose sur les progrès en intelligence artificielle, couplés à l’accès sans cesse étendu à nos données personnelles… (4). En l’espèce, le deadbot mis en place pour communiquer avec une personne disparue est bel et bien une œuvre de l’intelligence artificielle. Toutefois, on pourrait se demander comment les données de la personne décédée sont introduites dans cette IA pour qu’elle représente le défunt ?
II. L’utilisation de deadbot qui utiliserait les données personnelles de défunts pour continuer à dialoguer avec des personnes décédées.
Il s’articule encore autour de la loi pour une République numérique à propos de la prise de décision automatisée ou du Règlement général sur la protection des données (RGPD) au sujet des données identifiantes et de la protection de la vie privée. (5) L’expansion de l’intelligence artificielle requiert l’acceptation de la société civile. Pour y parvenir, chacun doit être en confiance avec les usages de l’intelligence artificielle.
La confiance accordée par la société civile à l’intelligence artificielle dépend aussi de la connaissance de ses mécanismes et de ses enjeux. C’est pourquoi des mesures concrètes comme, par exemple, pour que le principe de la privacy by design énoncé dans le RGPD devienne effectif ou pour que des tests de détection de biais soient exécutés compte tenu des déterminants les plus influents qui sont au coeur d’une prise de décision automatisée.
Il est très difficile pour un responsable de site de faire la différence entre un profil inactif parce que son titulaire ne n’utilise plus et un profil inactif parce que son titulaire est décédé.
À ce titre, il ne peut pas prendre l’initiative de supprimer ces comptes s’il ne connaît pas la cause de l’inactivité. C’est dans ce contexte que les réseaux sociaux ont organisé des plateformes de suppression ou de désactivation des profils des personnes décédées.
Par principe, un profil sur un réseau social ou un compte de messagerie est strictement personnel et soumis au secret des correspondances.
C’est toute une industrie qui s’est mise en place pour récupérer les données personnelles des personnes vivantes avec leur accord pour les faire revivre quand elles passeront de vie à trépas. Le but est de récupérer la voix (la manière de parler de la personne concernée), sa manière de converser manuellement sur les réseaux sociaux, etc pour ensuite l’intégrer dans une IA et de continuer son existence même après son décès.
Estimant que ces deadbots devraient, à court terme, faire l’objet d’un encadrement technique et juridique, le Comité national pilote d’éthique du numérique (CNPEN) milite pour que des règles soient définies concernant le consentement de la personne décédée, le recueil et la réutilisation de ses données, mais également le temps de fonctionnement des deabots, le lexique utilisé, le nom leur étant attribué ou encore les conditions de leur utilisation.
Dans ce cadre on pourrait facilement imaginer un lien avec le droit des personnes concernées à définir des « directives relatives à la conservation, à l’effacement et à la communication de ses données à caractère personnel après son décès » (6), droit posé par l’article 85 de la Loi informatique et libertés. (7)
Le consentement de la personne concernée est indispensable pour atteindre ce but. Le consentement est une des bases légales prévues par le RGPD sur laquelle peut se fonder un traitement de données personnelles. Le RGPD impose que ce consentement soit libre, spécifique, éclairé et univoque. Les conditions applicables au consentement sont définies aux articles 4 et 7 du RGPD. (8)
III. Réglementation de l’Intelligence artificielle en Europe
Le 21 avril 2021, la Commission européenne a rendu publique l’AI Act (Artificial Intelligence Act), son projet de réglementation sur l’intelligence artificielle. Cette initiative vise à encadrer l’intelligence artificielle de façon à la rendre digne de confiance, centrée sur l’humain, éthique, durable et inclusive. (9)
Le Parlement européen a aussi accompli un travail considérable dans le domaine de l’IA. En octobre 2020, il a adopté un certain nombre de résolutions relatives à l’IA, notamment en ce qui concerne les aspects éthiques, le régime de responsabilité et les droits de propriété intellectuelle.
En 2021, celles-ci ont été suivies par des résolutions relatives à l’utilisation de l’IA dans les affaires pénales et dans les domaines de l’éducation, de la culture et de l’audiovisuel. Dans sa résolution concernant un cadre pour les aspects éthiques de l’intelligence artificielle, de la robotique et des technologies connexes, le Parlement européen recommande expressément à la Commission de proposer des mesures législatives visant à exploiter les possibilités et les avantages offerts par l’IA, mais aussi à garantir la protection des principes éthiques. La résolution comprend un texte de la proposition législative pour un règlement sur les principes éthiques relatifs au développement, au déploiement et à l’utilisation de l’IA, de la robotique et des technologies connexes.
Conformément à l’engagement politique pris par la présidente von der Leyen dans ses orientations politiques en ce qui concerne les résolutions adoptées par le Parlement européen au titre de l’article 225 du traité sur le fonctionnement de l’Union européenne (TFUE), la présente proposition tient compte de la résolution du Parlement européen susmentionnée dans le plein respect des principes de proportionnalité et de subsidiarité ainsi que de l’accord « Mieux légiférer ».
Dans ce contexte politique, la Commission présente la proposition de cadre réglementaire relatif à l’IA dont les objectifs spécifiques sont les suivants :
- veiller à ce que les systèmes d’IA mis sur le marché de l’Union et utilisés soient sûrs et respectent la législation en vigueur en matière de droits fondamentaux et les valeurs de l’Union;
- garantir la sécurité juridique pour faciliter les investissements et l’innovation dans le domaine de l’IA;
- renforcer la gouvernance et l’application effective de la législation existante en matière de droits fondamentaux et des exigences de sécurité applicables aux systèmes d’IA;
- faciliter le développement d’un marché unique pour des applications d’IA légales, sûres et dignes de confiance, et empêcher la fragmentation du marché.
Afin d’atteindre ces objectifs, la présente proposition présente une approche réglementaire horizontale équilibrée et proportionnée de l’IA qui se limite aux exigences minimales nécessaires pour répondre aux risques et aux problèmes liés à l’IA, sans restreindre ou freiner indûment le développement technologique ni augmenter de manière disproportionnée les coûts de mise sur le marché de solutions d’IA. La proposition établit un cadre juridique solide et souple.
D’une part, le cadre est complet et conçu pour résister à l’épreuve du temps dans ses choix réglementaires fondamentaux, y compris dans les exigences fondées sur des principes auxquelles les systèmes d’IA devraient se conformer.
D’autre part, il met en place un système réglementaire proportionné centré sur une approche réglementaire bien définie fondée sur le risque qui ne crée pas de restrictions commerciales injustifiées, et en vertu duquel l’intervention juridique est adaptée aux situations concrètes dans lesquelles des préoccupations légitimes existent ou sont raisonnablement prévisibles dans un avenir proche.
Par ailleurs, le cadre juridique prévoit des mécanismes souples qui permettent de l’adapter de manière dynamique à l’évolution de la technologie et aux nouvelles situations préoccupantes.
La proposition établit des règles harmonisées pour le développement, la mise sur le marché et l’utilisation de systèmes d’IA dans l’Union suivant une approche proportionnée fondée sur le risque.
Elle contient une définition de l’IA unique et à l’épreuve du temps. Certaines pratiques d’IA particulièrement néfastes sont interdites en raison de leur caractère contraire aux valeurs de l’Union, tandis que des restrictions et des garanties spécifiques sont proposées en ce qui concerne certaines utilisations de systèmes d’identification biométrique à distance à des fins répressives.
La proposition établit une méthode solide d’évaluation du risque permettant de recenser les systèmes d’IA dits « à haut risque » qui présentent des risques importants pour la santé, la sécurité ou les droits fondamentaux des personnes.
Les systèmes d’IA en question devront satisfaire à un ensemble d’exigences obligatoires horizontales garantissant une IA digne de confiance et faire l’objet de procédures d’évaluation de la conformité avant de pouvoir être mis sur le marché de l’Union.
Des obligations prévisibles, proportionnées et claires sont aussi imposées aux fournisseurs et aux utilisateurs de ces systèmes afin de garantir la sécurité et le respect de la législation existante en matière de protection des droits fondamentaux tout au long du cycle de vie des systèmes d’IA. Pour certains systèmes d’IA spécifiques, seules des obligations minimales en matière de transparence sont proposées, en particulier lorsque des dialogueurs ou des trucages vidéo ultra-réalistes sont utilisés.
Cette proposition est le résultat de nombreuses études, livres blancs, analyses, etc. débutées en 2018 qui ont souligné que la législation en place actuellement présentait des lacunes à combler. L’AI Act va maintenant être soumis au Parlement européen et au Conseil de l’Union européenne, de sorte qu’il puisse être accepté d’ici 2022 et mis en application à partir de 2024. (10)
Ce nouveau règlement est composé de règles proportionnées et souples prévues pour faire face aux risques spécifiques liés aux différents systèmes d’intelligence artificielle. On peut donc parler d’une approche basée sur les risques, ces derniers étant classifiés en quatre typologies :
- les systèmes d’intelligence artificielle “inacceptables” ;
- ceux possédant des “risques élevés” ;
- ceux avec des “risques acceptables” ;
- et enfin, l’intelligence artificielle aux “risques minimes”.
L’AI Act concerne principalement les deux premières catégories de systèmes : ceux présentant des risques “inacceptables” et ceux présentant des risques “élevés”. Pour les deux catégories restantes, la réglementation sera basée sur la logique de responsabilité. Cependant, il conviendra pour les acteurs de réaliser une cartographie précise des risques afin de classifier au plus juste dans quelle catégorie se trouve leurs IA. Cette logique de responsabilité devra donc pousser les acteurs à être attentifs aux traitements opérés dans le cadre de leurs activités.
Qu’est-ce que l’IA inacceptable au sens du Règlement ?
L’intelligence artificielle considérée comme “inacceptable” comprend tous les systèmes dont l’utilisation est considérée comme allant à l’encontre des valeurs de l’Union européenne. Il s’agira notamment des systèmes qui présentent des aspects fondamentalement contraires aux droits fondamentaux, à travers, par exemple, la manipulation inconsciente des comportements ou bien l’exploitation des vulnérabilités de certains groupes pour influencer leur comportement.
La notation sociale basée sur l’intelligence artificielle à des fins générales par les autorités publiques ainsi que l’utilisation de systèmes d’identification biométrique “en temps réel” dans les espaces publics (sauf exception) est deux autres cas d’intelligence artificielle inacceptables. L’AI Act propose tout simplement d’interdire ce genre de systèmes.
Qu’est-ce que l’IA présentant des risques élevés au sens du Règlement ?
L’intelligence artificielle qui présente des “risques élevés” englobe tous les systèmes qui créent un risque élevé pour la santé et la sécurité ou les droits fondamentaux des personnes physiques (définis par la Commission européenne). On trouve deux grandes catégories de systèmes à haut risque.
D’une part, il y a les systèmes d’intelligence artificielle destinés à être utilisés comme composants de produits de sécurité, et, d’autre part, les systèmes d’intelligence artificielle autonomes ayant principalement des implications sur les droits fondamentaux (ces systèmes sont explicitement énumérés dans l’AI Act).
La médecine assistée, les tris automatiques de CV, la notation d’examens et le scoring pour l’attribution d’un crédit sont des exemples types d’intelligence artificielle à haut risque. Ce type de système devra systématiquement être soumis à une évaluation de conformité stricte par un tiers. Pour être mise sur le marché, la technologie IA devra:
- Être supervisée par un humain
- Posséder un système adéquat pour atténuer les risques
- Avoir des jeux de données de qualité élevée
- Disposer de résultats traçables
- Fournir une documentation détaillée et à jour en cas de contrôle
- Assurer un haut niveau de robustesse, de sécurité et d’exactitude
- Procurer des informations claires aux consommateurs.
Le responsable de traitements au sens du Règlement devra donc être particulièrement attentif à qualifier justement les différentes AI qu’il utilise dans le cadre de ses activités afin de mesurer au plus juste les potentiels impacts et risques associés. Cette logique de responsabilité étant accompagnée de sanctions spécifiques. Il conviendra dans cette cartographie de se faire accompagner en amont du déploiement de ces AI, mais aussi dans un second temps dans le suivi.
Qu’est-ce que l’IA présentant des risques acceptables et minimes au sens du Règlement ?
L’intelligence artificielle avec des “risques acceptables” concerne tous les systèmes qui interagissent avec les humains, qui sont utilisés pour détecter des émotions ou déterminer l’association avec catégories sociales basées sur des données biométriques et qui génèrent ou manipulent du contenu.
Enfin, l’intelligence artificielle avec des “risques minimes” concerne tous les systèmes qui appliquent un code de conduite incluant des engagements relatifs à la durabilité environnementale, à l’accessibilité des personnes possédant un handicap, à la participation des parties prenantes à la conception et au développement des systèmes d’intelligence artificielle; ainsi qu’à la diversité des équipes de développement.
De par son focus sur des cas spécifiques (c’est-à-dire lorsque les droits des citoyens européens sont compromis), la Commission montre sa volonté de réguler l’intelligence artificielle tout en permettant un essor de l’innovation et le développement d’un marché unique pour les applications d’intelligence artificielle légales, dignes de confiance et éthiques.
Des sanctions conséquentes analogues à celles du RGPD en cas de méconnaissance du Règlement.
En cas de violation de l’AI Act, les sanctions encourues suivent la même logique que celle du régime du RGPD. L’AI Act va même plus loin en augmentant les sanctions lorsqu’il est question d’usages “inacceptables” de l’intelligence artificielle.
En effet, en cas de non-respect des règles dans cet usage la personne encourt une amende de 30 millions d’euros ou pouvant aller jusqu’à 6% du chiffre d’affaires pour une entreprise. En ce qui concerne les autres cas de violation de l’AI Act, l’amende encourue sera de 20 millions d’euros, ou 5% du chiffre d’affaires dans le cas d’une entreprise.
L’AI Act prévoit aussi des amendes pour manquement de coopération avec les autorités nationales au sein de l’Union européenne, pouvant s’élever jusqu’à 10 millions d’euros d’amendes ou 2% du chiffre d’affaires.
Sources :
- (https://www.coe.int/fr/web/artificial-intelligence/what-is-ai)
- ( https://www.cnil.fr/fr/intelligence-artificielle/glossaire-ia)
- (https://www.europarl.europa.eu/news/fr/headlines/society/20200827STO85804/intelligence-artificielle-definition-et-utilisation)
- (https://www.anthropotechnie.com/deadbots-une-economie-de-limmortalite-numerique/)
- https://www.cnil.fr/fr/le-rgpd-fete-ses-quatre-ans
- https://info.haas-avocats.com/droit-digital/comment-prevenir-les-derives-des-chatbots
- Article 85 de la Loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés
- https://www.cnil.fr/fr/reglement-europeen-protection-donnees
- https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206
- https://www.cnil.fr/fr/intelligence-artificielle-lavis-de-la-cnil-et-de-ses-homologues-sur-le-futur-reglement-europeen
- https://france.devoteam.com/paroles-dexperts/reglementation-de-lintelligence-artificielle-en-europe-vers-un-rgpd-de-lia/#:~:text=Le%2021%20avril%202021%2C%20la,%2C%20éthique%2C%20durable%20et%20inclusive.
Vous devez être connecté pour poster un commentaire.