Des robots d’Asimov aux algorithmes d’apprentissage-machine : enjeux et défis de la régulation de l’IA

Mercredi 6 Décembre 2017, de 9h à 10h15

L’adoption massive de l’IA reste étroitement corrélée à son acceptabilité sociale, donc à la résolution des problématiques éthiques  par le législateur comme à la capacité des acteurs du marché à créer de la confiance. Mais la réflexion sur l’IA se trouve dans une situation similaire à celle sur les « Big Data » il y a cinq ans. L’accélération des innovations focalise l’attention médiatique sur des aspects particuliers et perçus comme radicalement novateurs d’un phénomène en réalité plus général initié il y a soixante ans. Pour une régulation pertinente, il convient donc de distinguer dans cet emballement les améliorations incrémentales des innovations de rupture qui seraient, de par leur nature et leur portée, susceptibles de faire bouger les lignes du droit.  En effet, certains traitements algorithmiques sont, de fait, déployés au sein d’applications critiques depuis longtemps et n’ont jusqu’à présent impacté le droit  qu’à la marge (trading haute fréquence, pilotage automatique dans l’aviation, etc.). L’essor de l’apprentissage-machine cristallise aujourd’hui les interrogations, un paradigme de l’IA lui aussi ancien mais qu’a relancé l’abondance de données désormais disponibles pour entraîner les systèmes. Quel que soit l’usage de ces algorithmes - recommander un contenu plutôt qu’un autre, attribuer un score de solvabilité ou un tarif personnalisé, prédire un comportement frauduleux ou anticiper une décision judiciaire, etc. – ces algorithmes effectuent des arbitrages sur la base de critères qui leurs sont propres, façonnés dans leur confrontation aux données, contrairement aux algorithmes des  "systèmes experts" qui raisonnent de façon procédurale à partir de règles formalisées par l’homme. Parce que la « connaissance du monde » que ces algorithmes se constituent progressivement nous est peu intelligible et qu’aucun opérateur ne peut se prévaloir d’un contrôle systématique sur les données, l’usage de ces algorithmes pose la question de l’interprétabilité de leur décision, de traçabilité sur les données et leurs impacts sur les modèles. Alors que de plus en plus d’acteurs s’inquiètent des dérives possibles liées à l’utilisation de ces "boîtes noires" et de l’imprévisibilité de leurs effets, tant politiques qu’économiques ou societaux, la réflexion sur la pertinence du cadre juridique actuel au regard de ces innovations et des garde-fous disponibles pour encadrer leur développement revêt une dimension cruciale  Faut-il donc réguler ces algorithmes ? Que réguler et comment, le cas échéant ? Quels sont les principes et les leviers juridiques disponibles ou émergents pour y parvenir et comment les caractériser (droit des robots, loyauté / responsabilité des plateformes, algorithmes, etc.) ? Quels sont les apports de l’éthique  et comment l’intégrer le privacy by design dans la création de services, etc. ? Cette table ronde proposera, à travers un panel composé de juristes, d’industriels et de chercheurs, un panorama des défis et des enjeux de la régulation de l’IA, en particulier des algorithmes d’apprentissage-machine.

Animation :
Paul Olivier Gibert, Président, Digital & Ethics

Intervenants :
- Jacques Serris, Conseil Général de l’Economie et auteur du rapport Modalités de régulation des algorithmes de traitement des contenus
- Dr. Cécile Wendling, Responsable de la Prospective, AXA
- Claire Levallois-Barth, Coordinatrice de la Chaire Valeurs et Politiques des Informations Personnelles de l'Institut Mines-Telecom et Maître de conférences en droit
- Catherine Lejealle, Sociologue, Spécialiste des usages du numérique, Professeur à l'ISC Paris