« La question de savoir si les machines peuvent penser a à peu près autant de sens que celle de savoir si les sous-marins peuvent nager »
Edsger Dijkstre
Malgré le titre de cet article la vraie question dans les débats sur l’intelligence artificielle est une question qui se posait depuis bien longtemps, c’est celle de définir l’intelligence. Depuis le début de ce domaine il y a eu plusieurs écoles et plusieurs définitions de l’IA. Dans les différents courant que j’ai pu rencontrer j’en ai retenu en particulier deux : celui qui se base sur le comportement et l’autre qui se base sur la pensée. Le premier défini un système intelligent quand il se conduit se façon intelligente et le deuxième seulement quand un système se comportant de façon intelligente est doté d’une pensée réelle et non seulement simulée. C’est aussi la définition de l’IA faible (comportement) et de l’IA forte (pensée).
Aujourd’hui le fait que l’IA faible existe ne fait plus débat, personne ne peut le nier on en a vu des preuves dans bien des domaines comme la machine a jouer aux échecs , Deep blue qui en 1997 a battu le champion du monde Gary Kasparov. Il y a eu dans l’histoire des questions sur le danger de certains de ces systèmes, comme par exemple des programmes de conversation via ordinateur qui pouvaient inciter l’interlocuteur humain a dévoiler ses information personnelles, mais les dangers de l’IA faible résident plus dans l’utilisateur humain que dans le système lui même. La plupart des critiques de l’IA faible ont périmé avec le progrès fait jusqu’à aujourd’hui.
C’est en se penchant plus du coté de l’intelligence artificielle forte que cela devient très intéressant, la définition dit que c’est non seulement une machine qui se comporte de manière intelligente mais qu’elle est dotée d’intelligence. Pour une machine qui prouve un théorème de mathématiques par exemple cela voudrait dire qu’elle prouve le théorème par un raisonnement mais qu’elle est consciente qu’elle est en train de prouver un théorème. Cela soulève la question de la conscience et de l’esprit. La conscience est t’elle physique ou immatérielle ? C’est a dire est elle le résultat de courants électriques et n’existerai pas sans un cerveau et donc pourrait être reproduite artificiellement ? Cette idée voudrait que les états mentaux dépendent d’états physiques. Ou est-elle comme l’a écrit Descartes un processus sans étendue spatiale ni propriétés matérielles ? Bien sur il n’y a pas de réponse, mais beaucoup de discussions, surtout sur les mécanismes de la pensée de la conscience et du fonctionnement du cerveau. Le point de vue de Descartes ferme toute possibilité d’IA forte et considère l’intelligence, et la conscience de celle ci comme étant propre a l’Homme. Cette question sur la conscience s’étend à des questions sur l’intuition et les sentiments, est ce que l’homme est double ? Une partie matérielle et une partie immatérielle ?
Si on décidait d’admettre que les pensées, les sentiments, …, la conscience, sont le résultat d’états physiques de la matière , ca voudrait dire que le cerveau et l’intelligence humaine est comme une machine extrêmement compliquée mais pas impossible a reproduire même en simplifié, cela laisse entrevoir la possibilité d’un jour voir de l’intelligence artificielle forte ou des machines ultra-intelligentes.
Et dans ce cas là que se passera t’il ?
On se trouve alors dans une situation de supposition, de spéculation. Mais on peut se demander, quand même, quels peuvent être les risques du développement de telles technologies. Les effets que cela peut avoir sur les normes qui régissent notre société. Une des théories qui me fait le plus peur car la plus plausible reste encore celle de la mauvaise utilisation de ces technologies, car ce systèmes pourraient être utilisé a des fins indésirables qui sont déjà une priorité aujourd’hui dans la paranoïa généralisé du terrorisme. Je parle de la l’utilisation de systèmes plus autonomes que ceux qui sont dors et déjà utilisées dans la surveillance des citoyens , dans des pays comme les États Unis ou l’Angleterre ou des systèmes d’IA sont utilisés pour écouter les conversations ou encore les drones de guerre américains. Aujourd’hui l’IA intervient dans beaucoup de domaines comme la médecine ou la finance mais les systèmes ne sont pas autonomes sur les prises de décision importantes et donc pas responsables. Cette piste soulève la question de la responsabilité, jusqu’à maintenant la responsabilité revient a celui qui a construit le système, mais que serai t’il si ces systèmes devienne autonomes ?
On peut aussi faire travailler notre imagination et nous projeter dans un scénario catastrophe ou l’intelligence crée par l’humain est complètement autonome et représente un danger pour l’espèce humaine… la littérature et le cinéma illustrent ces théories. Ou même comme Rémi Sussan émettre la possibilité que ces technologies soit complètement autonomes et que la création d’une société de robots ou de systèmes intelligents ne soit pas en conflit avec la survie de l’espèce humaine.