vendredi 3 janvier 2020

Regards Centristes. 18 – Pour le Centrisme, la seule légitimité de l’intelligence artificielle est le bien-être des individus

Regards Centristes est une série d’études du CREC qui se penchent sur une question politique, économique, sociale ou sociétale sous le prisme d’une vision centriste. Dix-huitième numéro consacré au positionnement du Centrisme face aux techniques et applications de l’intelligence artificielle qui commencent à être mises en place dans nos sociétés modernes et qui vont continuer à l’être dans les décennies à venir. Cette arrivée de l’AI est un fait capital qui pourrait, in fine, changer, non seulement les caractéristiques de nos sociétés mais, peut-être aussi, la définition même de ce qu’est l’être humain ou la vie, avec tous les avantages extraordinaires qu’elles véhiculent mais aussi tous les dangers dont certains sont particulièrement inquiétants voire aux conséquences dramatiques et funestes qu’elles recèlent.

L’Intelligence artificielle ou AI, terme inventé par John McCarthy, est «la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que: l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique» selon la définition d’un de ses créateurs, Marvin Lee Minsky.
«En d’autres termes, explique le site internet du ministère de la Recherche et de l’Enseignement supérieur, «une intelligence artificielle c’est avant tout un programme informatique visant à effectuer, au moins aussi bien que des humains, des tâches nécessitant un certain niveau d’intelligence. L’horizon à atteindre concerne donc potentiellement l’ensemble des champs de l’activité humaine: déplacement, apprentissage, raisonnement, socialisation, créativité, etc. Néanmoins nous sommes encore loin d’avoir créé une machine capable d’égaler l’humain dans tous les domaines.»
Cependant, le «livret de vulgarisation» édité en mars 2018 par la Mission sur l’intelligence artificielle pilotée par le député et mathématicien Cédric Villani nous dit que cela n’est pas aussi simple:
«Définir l’intelligence artificielle (IA) n’est pas chose facile. Le champ est si vaste qu’il est impossible de la restreindre à un domaine de recherche spécifique; c’est plutôt un programme multidisciplinaire. Si son ambition initiale était d’imiter les processus cognitifs de l’être humain, ses objectifs actuels visent plutôt à mettre au point des automates qui résolvent certains problèmes bien mieux que les humains, par tous les moyens disponibles. Ainsi l’IA vient au carrefour de plusieurs disciplines: informatique, mathématique (logique, optimisation, analyse, probabilités, algèbre linéaire), sciences cognitives... sans oublier les connaissances spécialisées des domaines auxquelles on souhaite l’appliquer. Et les algorithmes qui la sous-tendent reposent sur des approches tout aussi variées: analyse sémantique, représentation symbolique, apprentissage statistique ou exploratoire, réseaux de neurones, etc.»
Dans le but de développer l’AI, nombre de pays ont débloqué des fonds et créé des structures comme c’est le cas de la France avec une stratégie dévoilée par Emmanuel Macron en 2018, à laquelle 1,5 milliard d’euros est consacrée sur cinq ans afin de permettre au pays d’être dans le top 5 en la matière qui est actuellement dominée par les Etats-Unis, la Chine, Israël, le Canada et le Royaume Uni.
Il s’agit là d’une stratégie industrielle pour développer les entreprises du secteur ainsi que les centres de recherche tout en prenant en compte les problèmes éthiques.
Ce sont ces problèmes qui nous intéressent ici ainsi que l’intérêt pour les individus de bénéficier ou non des techniques et des applications concrètes de l’AI, tant par l’informatique que par l’électronique, dans la vie quotidienne, réalisées par des machines qui utilisent ces programmes que ce soit en matière médicale ou militaire, financière ou de transport, etc.
Parce que la seule légitimité politique de l’AI est bien d’être une technologie qui apporte du mieux aux habitants de la planète.
Or la réponse est loin d’être évidente.
Prenons la sécurité où l’intelligence artificielle est largement utilisée en particulier dans les pays autoritaires et totalitaires.
Si la seule sécurité recherchée est celle des citoyens, l’AI est un outil légitime même s’il doit être manié avec précaution pour ne pas interférer avec leur liberté.
S’il s’agit d’assurer avant tout et coûte que coûte la sécurité d’un régime rejeté par la population, pire, celle de ses dirigeants, par la mise sous surveillance de tous les citoyens alors elle n’a plus aucune légitimité.
Une des peurs les plus récurrentes face à l’AI est qu’elle puisse produire une machine qui serait plus intelligente que l’être humain et qu’elle prenne le pouvoir et le contrôle.
Ce scénario (appelé «intelligence artificielle forte»), pour les spécialistes, demeurent encore aujourd’hui de la science fiction et rien ne dit que les chercheurs puissent jamais parvenir à créer un tel monstre.
En revanche, le développement de l’«intelligence artificielle faible» se fait depuis des années dans des tâches spécifiques et limitées (allant de l’aide au diagnostic en matière médicale à la traduction instantanée en passant par les recherches sur internet avec les fameux algorithmes dont le plus connu est celui de Google).
Ainsi, le rapport gouvernemental «Donner un sens à l’intelligence artificielle» explique les enjeux:
«L’intelligence artificielle affecte désormais tous les aspects de nos vies sociales. Sans toujours le savoir, nous interagissons quotidiennement avec des systèmes intelligents qui optimisent nos déplacements, créent nos playlists favorites ou protègent nos boîtes électroniques des courriels indésirables. Ils nous servent de manière invisible. C’est du moins l’objectif qu’on leur assigne : rendre nos vies meilleures, tâche par tâche. Les progrès récents de l’IA dans de nombreux domaines (voitures autonomes, reconnaissance d’images, assistants virtuels) et son influence croissante sur nos vies l’ont placée au centre du débat public. Ces dernières années de nombreuses voix se sont interrogées sur la capacité de l’IA à réellement œuvrer pour notre bien-être et sur les dispositions à prendre pour s’assurer que cela soit le cas. Ce débat a principalement pris la forme d’une large réflexion sur les enjeux éthiques liés au développement des technologies d’intelligence artificielle et plus largement des algorithmes. En différents endroits du monde, experts, régulateurs, universitaires, entrepreneurs et citoyens discutent et échangent régulièrement sur les effets indésirables, actuels ou potentiels de ceux-ci et les moyens de les atténuer.»
En France, les pouvoirs publics ont définis quatre secteurs prioritaires où doivent se concentrer les efforts de son développement: la santé, les transports, l'environnement et la défense.
Une des questions cruciales sur l’AI, est l’utilisation de ses capacités en matière de reconnaissance  et d’interprétation d’images.
Au départ, celles-ci ont plusieurs applications possibles comme l’évoque ce rapport gouvernemental issu de la mission confiée à Cédric Villani:
«Interpréter une image —reconnaître une personne ou un objet et l’environnement avoisinant —est une chose relativement facile pour un humain. Chaque jour, notre cerveau traite sans grand effort des informations visuelles complexes: une photo de famille, une voiture, un paysage. Mais pour un ordinateur, c’est une tâche très difficile. Pourtant l’enjeu est de taille, car le développement de la voiture autonome (pour la perception de son environnement), l’annotation automatique d’images, l’amélioration des systèmes d’identification, la détection de pathologies à partir de dispositifs d’imagerie médicale sont tous dépendants des progrès en matière de reconnaissance d’images et de vidéos.»
Mais l’une d’elle est bien la surveillance des individus et, une surveillance à grande échelle comme l’a déjà mis en place la Chine, pays totalitaire et que nous avons évoqué plus haut.
Une autre qui pose les mêmes questionnements sur sa légitimité démocratique et les dangers qu’elle recèle et sur laquelle tous les pays du monde travaillent est «la police prédictive».
Le même rapport note ainsi:
«Les départements de police, en premier lieu aux États-Unis et à présent en Europe, explorent la possibilité d’utiliser des algorithmes prédictifs dans le cadre de leurs activités. Cette méthode, communément appelée police prédictive, fait référence à l’application des techniques de prévision et d’analyse de données massives (big data) à la prévention de la criminalité. Elle renvoie en réalité à deux applications distinctes : la première consiste à analyser des données géographiques pour identifier des zones à risque (hotspots) où des délits et des crimes sont susceptibles de se produire afin d’accroître la surveillance de ces zones et ainsi produire une force de dissuasion. La seconde concerne plutôt l’analyse des données sociales et des comportements des individus pour identifier des victimes ou criminels potentiels et agir promptement. Ces deux applications sont déjà déployées dans plusieurs métropoles américaines, et les services de police et de gendarmerie français et européens s’interrogent sur l’opportunité de les intégrer à leurs outils de prévention. Les premiers travaux disponibles sur leurs effets aux États-Unis incitent à la prudence. Les solutions de police et justice prédictive comportent non seulement d’importantes limites techniques, mais ils peuvent également se révéler attentatoires aux libertés fondamentales (vie privée, droit à un procès équitable).Sur un plan purement pratique, il nous faut garder à l’esprit qu’aussi sophistiqués qu’ils puissent être, ces systèmes restent faillibles : ils peuvent se tromper et mal classifier les individus qu’ils évaluent avec, comme conséquence, des effets potentiellement désastreux sur leur vie.»
Autre questions cruciale, l’utilisation des informations collectées via les systèmes d’AI sur chacun de nous et qui peuvent être disponibles par des individus, des groupes et des entités qui peuvent s’en servir pour de multiples raisons (comme l’employeur pour «éliminer» les «brebis galeuses») et pour nous contrôler.
Dans cette liste des possibles «dérapages» de l’AI, il faut mentionner l’explosion des «fake news» grâce, notamment, à la possibilité de les diffuser via les réseaux sociaux et autres sites internet par la grâce d’algorithmes qui permettent d’inonder la toile de ces infox qui deviennent virales et sont souvent reprises par les médias traditionnels (dont les cellules de «fact checkers», vérificateurs de faits, sont, au plus, pas assez importantes quand ce n’est pas totalement inefficaces, voire, elles-mêmes propagatrices de ces fake news qu’elles prétendent combattre…).
D’où la nécessité, pour le Centrisme, d’établir un cadre légal, un code de bonne conduite, un organisme de contrôle et un large débat continuel au sein de la population avec la possibilité, à tout moment, de prendre des décisions rapides avant que la situation ne s’impose aux citoyens comme un fait accompli.
Parce que l’AI a évidemment une double facette comme toutes les technologies, celle d’améliorer notre vie et notre quotidien mais aussi celle de créer des menaces.
Dans le cas présent, la manipulation et le contrôle des personnes recèlent en elles des atteintes graves à la liberté et à l’individualité de celles-ci mas aussi au système démocratique.
Néanmoins, il est illusoire de penser que l’on peut bloquer le développement de l’AI et ce serait même aller à l’encontre de progrès évidents dans de multiples secteurs.
Ainsi, une récente étude montre que celle-ci obtient de meilleurs résultats que les médecins dans la détection des cancers du sein, un exemple parmi d’autres qui encourage à l’utiliser.
Pour autant, comme toute technique, elle doit être encadrée pour qu’elle serve les humains et non le contraire et qu’elle serve tous les humains et non les projets de quelques uns à leur unique profit et pour leurs entreprises qui seraient des dangers pour le respect de la dignité humaine.
C’est évidemment la position du Centrisme vis-à-vis des valeurs humanistes qui le fondent.
Un Centrisme qui ne peut que partager la proposition de Cédric Villani: «Il faut une instance pour émettre des avis, donner des jugements en toute indépendance, qui puisse être saisie par le gouvernement comme par les citoyens, et qui nous dise ce qui est acceptable ou non acceptable».

Alexandre Vatimbella avec l’équipe du CREC

Dans la même collection:

- Pour le Centrisme, c’est la démocratie et la république

- Pour le Centrisme, la sécurité est au cœur d’une société libre



Aucun commentaire:

Enregistrer un commentaire