Sur l’IA comme modélisation de l’humain

 

La recherche autour du thème de l’intelligence artificielle, assimilée à l’informatique, a été menée depuis ses débuts par des mathématiciens et informaticiens, par des praticiens de sciences dures. Depuis ses débuts ce nouveau domaine de recherche a connu plusieurs théoriciens, beaucoup de définitions, ce qui le rend peu cernable. Effectivement il serait difficile de définir en quelques ligne un sujet aussi plein de tensions et de désaccords. Il n’y a pas une vérité absolue encore dans cette science encore bien jeune. L’étude de l’intelligence artificielle (par les sciences dures) est l’héritage d’une longue, très longue, antique réflexion sur la logique, la conscience, l’être humain et du développement des sciences bien sûr.  L’intelligence artificielle et la philosophie portent sur la connaissance, l’une et l’autre se posent des questions générales sur la structure des connaissances. Bien des philosophes de sont penchés sur des questions comme la raison, l’intelligence, les mécanismes de la connaissances, la machine qu’est l’humain, la conscience… Descartes, par exemple, dégage la notion moderne de l’esprit, Kant aussi reprend certaines de ces thématiques dans  Critique de la raison pure. L’idée de machine pensante ou de mécanisme de l’être humain avait toujours été utilisée comme métaphore pour illustrer des thèses, elle est désormais une éventualité, une réalité potentielle. L’intelligence artificielle  est-elle seulement héritière de la philosophie, ou soulève-t-elle aussi des nouveaux questionnements, de nouvelles approches de pensée ?

On peut voir les recherches dans le champ de l’intelligence artificielle comme une branche de l’informatique, comme la recherche d’une parfaite simulation de l’intelligence et du savoir. Une science où on part de théories sur ces sujets, à la recherche de réponses pratiques, programmes, logiciels, qui ne seront finalement que reflet de ces théories sur l’intelligence. Ou alors considérer l’intelligence artificielle comme une science qui cherche a comprendre les mécanismes de la connaissance, qui est en permanence en questionnement et où chaque nouvelle réponse apporte une nouvelle question.

 

Le philosophe Hubert L. Dreyfus, qui critique fortement les théoriciens de l’intelligence artificielle dans son texte Alchimie et Intelligence Artificielle où il énumère les échecs et déceptions des résultats de la recherche en IA, tient à prouver dans son texte le lien étroit entre l’IA et l’étude de la métaphysique occidentale. Il pose l’intelligence artificielle à une place centrale dans la réflexion qui vise à saisir l’homme, Dreyfus présente l’intelligence artificielle comme l’aboutissement  mais aussi la fin de 2500 ans de métaphysique. En supposant que la réussite de l’un entrainerait l’inutilité de l’autre. Dans ces textes Dreyfus parle de l’intelligence artificielle à la fois comme conséquence d’une étude de l’homme et de l’ontologie occidentale  mais aussi comme propulseur de nouvelles idées.  Il établit une relation de cause à effet entre le mode de pensé de certains philosophes comme Platon ou Leibniz  à  l’approche de Marvin Minsky dans le fait de supposer que le monde et les hommes doivent  être représentés sous forme d’un système de descriptions fortement structuré, dans lequel les descriptions elles-mêmes sont bâties à partir d’éléments premiers.

« Si réellement nous sommes à la veille de créer une intelligence de synthèse, nous sommes près d’assister au triomphe d’une conception très particulière de la raison. De fait, si l’on peut effectivement douer de raison un ordinateur, voilà qui viendra confirmer cette conception de l’homme que depuis deux mille ans les penseurs de l’Occident cherchent vainement à étayer, mais sans avoir pu, jusqu’à présent, la formuler ou la soumettre a expérimentation, faute de l’outil dont ils disposent désormais: l’homme perçu comme objet. Mais si, d’un autre côté, l’intelligence artificielle se révèle une chimère impossible atteindre, alors nous devrons chercher à distinguer la manière dont raisonnent les machines de celle dont nous raisonnons, nous. Et cela modifiera radicalement notre perception de nous-mêmes. Par conséquent, l’heure a donc sonné ou bien d’accorder à la tradition philosophique le bien-fondé de son intuition centrale, ou bien d’abandonner cette conception de la nature humaine comme une mécanique, attitude qui s’est progressivement répandue en Occident au cours des vingt derniers siècles »

 

H. L. Dreyfus

John Searle, philosophe américain, définit deux types d’intelligence artificielle, et tout en respectant l’intelligence artificielle faible qui consiste à dire que des machines pourraient agir comme si elles étaient intelligentes, il qualifie d’impossible l’intelligence artificielle forte dit que les machines se comportant ainsi possèderaient vraiment une intelligence et non pas seulement une simulation de celle-ci.  Searle  repose son argumentation sur le fait que les ordinateurs n’accomplissent que des opérations formellement explicitées alors que l’esprit humain ne se résume pas a des processus syntaxiques. Il appui ses propos sur la différence entre syntaxe et sémantique. Il   maintient que l’esprit humain de par son intentionnalité à en plus d’une syntaxe une sémantique et réduit l’intelligence artificielle  a de systèmes formel, donc à des manipulations syntaxiques. Cela voudrait dire qu’en aucun cas l’intelligence artificielle pourrait prétendre décrire l’esprit  effectivement en faisant cette distinction le philosophe nie tout intérêt ontologique à l’intelligence artificielle tout en reconnaissant sa technicité et sa pertinence scientifique. Searle illustre ces propos par une expérience de pensée devenue célèbre aujourd’hui appelée la chambre chinoise.

Beaucoup de philosophes se sont aussi positionnés pour ou contre l’intelligence artificielle en s’appuyant sur des thèses philosophiques pour critiquer la possibilité même de l’existence d’une machine pensante. Cela a soulevé des questions concrètes sur la conscience  et  l’esprit. La conscience est t’elle physique ou immatérielle ? C’est a dire est elle le résultat de courants électriques et n’existerai pas sans un cerveau et donc pourrait être reproduite artificiellement ? Cette idée voudrait que les états mentaux dépendent d’états physiques. Ou est-elle comme l’a écrit Descartes un processus sans étendue spatiale ni propriétés matérielles ? Bien sur il n’y a pas de réponse, mais beaucoup de discussions, surtout sur les mécanismes de la pensée de la conscience et du fonctionnement du cerveau. Descartes considère l’intelligence, et la conscience de celle-ci comme étant propre a l’Homme.  Cette question sur la conscience s’étend à des questions sur l’intuition et les sentiments, est ce que l’homme est double ? Une partie matérielle et une partie immatérielle ? Et si au lieu de se poser la question de savoir si une intelligence artificielle est possible et d’essayer d’y répondre avec des arguments empruntés a la philosophie on regardait les progrès  dans cette science en espérant y trouver des réponses à des questions posées depuis des siècles sur l’étude le l’esprit, de l’intelligence et de la conscience humaine? Les résultats de la recherche en intelligence artificielle ne pourrait t’elles pas, dans le futur, ouvrir les portes à une connaissances plus précise de la complexité humaine? Il se pourrait que les contraintes techniques aient engendré un mode d’approche original qui repris sur le plan philosophique serait à la source de nouvelles idées.

 

Le débat de savoir si la philosophie et l’intelligence artificielle étaient liées ou  si il était pertinent de parler d’une philosophie de l’intelligence artificielle est né aux Etats-Unis. Est-ce que les philosophes ne prêteraient pas aux théoriciens de l’intelligence artificielle des desseins métaphysiques qui ne sont pas les leurs ? Je ne cite ici que deux philosophes et deux approches de l’intelligence artificielle par ce domaine, mais il en existe bien d’autres plus complexes, plus ou moins valides.

 

 

Bibliographie :

Jean-Gabriel Ganascia, L’âme-machine, les enjeux de l’intelligence artificielle, édition du Seuil, janvier 1990.

Jean-Gabriel Ganascia, L’intelligence artificielle, Flammarion,  1993.

Stuart Russel et Peter Norvig, Intelligence Artificielle, Pearson éducation 3eme édition, décembre 2010.

H.L. Dreyfus, Intelligence artificielle : mythe et limites, Flammarion, 1984.

John R. Searle, Du cerveau au savoir, Hermann, 1985.

Marvin Minsky, La société de l’esprit, InterÉditions, 1988.

www.http://aitopics.org/

 

 
Sur l’IA comme modélisation de l’humain

Intelligence artificielle, état de l’art.

Depuis la Grèce antique les hommes ont été fascinés par la construction de l’esprit et les mécanismes de l’intelligence. Mais ce n’est que depuis l’invention de l’informatique que la possibilité de voir apparaître un jours des mécanismes indépendants et dotés d’une intelligence artificielle est apparu.  Autour des années 50 aux États Unis un groupe de scientifiques formé par J. McCarthy, M Minsky,  N. Rochester et C. Shannon créent des groupes de recherche et de réflexion autour de l’intelligence et du language et posent les bases des études sur l’intelligence artificielle en 1956 lors de la conférence de Darmouth.

La question qui se pose alors c’est celle de savoir que considère t’on de l’intelligence ? En 1950 Alan Turing invente un test qui permet de qualifier une machine d’intelligente ou pas, ce test repose sur l’assertion qui suit : si un humain ne peut différencier si il parle a une machine ou a un humain alors cette machine peut être considérée dotée d’intelligence. Ce test a depuis été critiqué et discrédité plusieurs fois mais il reste un pas important dans l’univers de l’intelligence artificielle. Est-ce de l’intelligence ou seulement une simulation de celle-ci ?

<iframe width= »560″ height= »315″ src= »http://www.youtube.com/embed/TryOC83PH1g » frameborder= »0″ allowfullscreen></iframe>

 

Je pensait que l’intelligence artificielle était une utopie morte, tout droit classée dans le rayon science fiction sitôt citée ou évoquée. Entre les années 40 et 2000 a littérature  et le cinéma se sont emparé de ces idées et on a vu apparaître un nombre incroyable de  productions contribuant à la création d’un imaginaire collectif autour de l’idée d’intelligence artificielle des utopies ou dystopies nous projetant dans un futur pas si lointain qui ont contribué a populariser  cette science. On voit donc des robots effectuant des opérations complexes, ayant des comportements et réaction indiquant une certaine conscience. Dans la littérature comme dans le cinéma ces entités intelligentes sont souvent vues comme dangereuses, capables de se révolter contre les humains à la poursuite de leur propres intérêts. Ces intelligences prennent souvent forme ou voix humaine comme dans « Terminator » de James Cameron) ou encore dans « 2001 L’odyssée de l’espace » de Kubrick mais  aussi quelquefois de façon plus abstraite comme dans « Matrix » des frères Wachowski. Il y a aussi mais moins des cas ou le robot est un être doté d’une conscience et de sentiments qui le font devenir bon est humain come dans « L’homme bicentenaire » de Chis Colombus.

Même si on en est pas au même stade que dans la littérature et le cinéma, les avancés dans les champs de l’intelligences artificielle est belle est bien réelle et les champs d’applications deviennent de plus en plus d’ordre quotidien, je parle encore en terme de 10 à 15 ans mais à défaut de robots anthropomorphes et de droids de compagnie, sont déjà là ( en  période d’essai) les maisons intelligentes capables de t’envoyer un texto si il y a une fuite dans le sous sol ou si la fenêtre a été laissé ouverte en partant. Ou de recevoir des indications pour chauffer  la maison en vue d’une arrivée prochaine.

Ou encore dans le domaine de la robotique, ces sympathiques spécimens. C’est la combinaison de plusieurs domaines comme la biologie, la physique , les mathématiques  les siences cognitives et d’autres champs de l’ingénierie qui ont pérmis  a des robots fabriqués par Hod Lipson et son équipe à Cornell d’être dotés de curiosité artificielle et qui ont la capacité d’apprendre, de communiquer, ils sont en quelque sorte aux premiers stades d’un processus d’évolution. Cette équipe de scientifique c’est fortement inspiré des êtres vivants et de la théorie de l’évolution et de la création de touts les êtres vivants à partir d’un milieu liquide  (soupe primordiale) plein de particules et éléments chimiques qui se sont assemblés grâce a ce milieu propice au développement de la vie. Ils ont crée leur propre soupe primordiale électronique (numérique) pleine de composants de robots, et ont laissé les robots se créer d’eux mêmes et ensuite a se déplacer. Ils ont aussi observé que quelques robots, une fois crées si alimentés de matériel similaire a leur construction peuvent se répliquer.

<iframe src= »http://embed.ted.com/talks/lang/fr/hod_lipson_builds_self_aware_robots.html » width= »560″ height= »315″ frameborder= »0″ scrolling= »no » webkitAllowFullScreen mozallowfullscreen allowFullScreen></iframe>

 

Aussi et beaucoup moins drôles les Bots américains, ces soldats métalliques qui sont capables de prendre la décision de tirer  sur quelqu’un ou pas. Ronald Arkin chercheur à l’Institut des Technologies de Georgie à Atlanta, aux Etats-Unis, travaille sur ces robots qui seraient complètement autonome contrairement a ceux qui existent aujourd’hui qui ne le sont que partiellement. Sur le champs de bataille on voit déjà des robots qui savent adapter leurs déplacement sans besoin d’indication humaine ou des robots programmer pour porter les hommes blessés sans intervention humaine mais aucun robot aujourd’hui ne prend la décision d’ouvrir le feu, c’est toujours un ordre humain , même a distance. Cela ouvre la question de l’ethique, de la conscience ou de l’objectivité des robots

C’est là qu’un petite sélection de ce qui se fait aujourd’hui. Les champs de l’intelligence artificielle sont très nombreux et vont des domaines les plus généraux comme l’aprentissage ou la perception a des choses beaucoup plus précises et ciblées comme un jeux d’echec, écrire un poème, démontrer un théorème mathématique ou enore conduire une voiture…

 

 

 

Est-ce que les machines peuvent penser ?

 

«  La question de savoir si les machines peuvent penser  a à peu près autant de sens que celle de savoir si les sous-marins peuvent nager »

Edsger Dijkstre

 

Malgré le titre de cet article la vraie question dans les débats sur l’intelligence artificielle est une question qui se posait depuis bien longtemps, c’est celle de définir l’intelligence. Depuis le début de ce domaine il y a eu plusieurs écoles et plusieurs définitions de l’IA. Dans les différents courant que j’ai pu rencontrer j’en ai retenu en particulier deux : celui qui se base sur le comportement  et l’autre qui se base sur la pensée. Le premier défini un système intelligent quand il se conduit se façon intelligente et le deuxième seulement quand un système se comportant de façon intelligente est doté d’une pensée réelle et non seulement simulée. C’est aussi la définition de l’IA faible (comportement) et de l’IA forte (pensée).

Aujourd’hui le fait que l’IA faible existe  ne fait plus débat, personne ne peut le nier on en a vu des preuves dans bien des domaines comme la machine a jouer aux échecs , Deep blue qui en 1997 a battu le champion du monde Gary Kasparov. Il y a eu dans l’histoire des questions sur le danger de certains de ces systèmes, comme par exemple des programmes de conversation via ordinateur qui pouvaient inciter l’interlocuteur humain a dévoiler ses information personnelles, mais les dangers de l’IA faible résident plus dans l’utilisateur humain que dans le système lui même. La plupart des  critiques  de l’IA faible ont périmé avec le progrès fait jusqu’à aujourd’hui.

C’est en se penchant plus du coté de l’intelligence artificielle forte que cela devient très intéressant, la définition dit que c’est non seulement une machine qui se comporte de manière intelligente mais qu’elle est dotée d’intelligence. Pour une machine qui prouve un théorème de mathématiques par exemple cela voudrait dire qu’elle prouve le théorème par un raisonnement mais qu’elle est consciente qu’elle est en train de prouver un théorème. Cela soulève la question de la conscience  et de l’esprit. La conscience est t’elle physique ou immatérielle ? C’est a dire est elle le résultat de courants électriques et n’existerai pas sans un cerveau et donc pourrait être reproduite artificiellement ? Cette idée voudrait que les états mentaux dépendent d’états physiques. Ou est-elle comme l’a écrit Descartes un processus sans étendue spatiale ni propriétés matérielles ? Bien sur il n’y a pas de réponse, mais beaucoup de discussions, surtout sur les mécanismes de la pensée de la conscience et du fonctionnement du cerveau.  Le point de vue de Descartes  ferme toute possibilité d’IA forte et considère l’intelligence, et la conscience de celle ci comme étant propre a l’Homme.  Cette question sur la conscience s’étend à des questions sur l’intuition et les sentiments, est ce que l’homme est double ? Une partie matérielle et une partie immatérielle ?

Si on décidait d’admettre que les pensées, les sentiments, …, la conscience, sont le résultat d’états physiques de la matière , ca voudrait dire que le cerveau et l’intelligence humaine est comme une machine extrêmement compliquée mais pas impossible a reproduire même en simplifié, cela laisse entrevoir la possibilité d’un jour voir  de l’intelligence artificielle forte ou des machines ultra-intelligentes.

Et dans ce cas là que se passera t’il ?

On se trouve alors dans une situation de supposition, de spéculation. Mais on peut se demander, quand même, quels peuvent être les risques du développement de telles technologies. Les effets que cela peut avoir sur les normes qui régissent notre société. Une des théories qui me fait le plus peur car la plus plausible reste encore celle de la mauvaise utilisation de ces technologies, car ce systèmes pourraient être utilisé a des fins indésirables qui sont déjà une priorité aujourd’hui dans la paranoïa généralisé du terrorisme. Je parle de la l’utilisation de systèmes plus autonomes que ceux qui sont dors et déjà utilisées dans la surveillance des citoyens , dans des pays comme les États Unis ou l’Angleterre  ou des systèmes d’IA sont utilisés pour écouter les conversations ou encore les drones de guerre américains. Aujourd’hui l’IA intervient dans beaucoup de domaines comme la médecine ou la finance mais les systèmes ne sont pas autonomes sur les prises de décision importantes et donc pas responsables. Cette piste soulève la question de la responsabilité, jusqu’à maintenant la responsabilité revient a celui qui a construit le système, mais que serai t’il si ces systèmes devienne autonomes ?

On peut aussi faire travailler notre imagination et nous projeter  dans un scénario catastrophe ou l’intelligence crée par l’humain est complètement autonome et représente un danger pour l’espèce humaine… la littérature et le cinéma illustrent ces théories. Ou même comme Rémi Sussan émettre la possibilité que ces  technologies soit complètement autonomes et que la création d’une société de robots ou de systèmes intelligents ne soit pas en conflit avec la survie de l’espèce humaine.

 

Petit compte rendu rapide du Workshop Low-tech / High-tech

« L’anglicisme Low-tech (Basse technique), par opposition à High-tech, est attribué à des techniques apparemment simples, économiques et populaires. Elles peuvent faire appel au recyclage de machines récemment tombées en désuétude.La revendication de l’usage des Low-tech témoigne de la volonté de s’opposer aux modes technologiques, considérées comme mercantiles, avilissantes et déraisonnables écologiquement. »    wikipedia

 

 

Low tech/ high tech est un workshop qui a eu lieu a l’ensci et au musée du quai Branly du 17 au 19 décembre. Je n’ai malheureusement seulement  pu écouter que les conférences du premier jour. Il y a eu quatre interventions. Dans la globalité ce workshop a pour but de lister, cartographier des pratiques combinant low-tech et high-tech et de proposer une réflexion autour des impacts sociaux de l’innovation ainsi que les impacts d’un contexte social et ethnologique sur l’évolution des techniques.

En introduction l’anthropologue Denis Vidal nous a parlé  du précédent workshop qui avait eu lieu a Pondichery et Emmanuel Grimaud de l’appropriation des technologies par l’homme en illustrant son propos par la présentation du principe des RGM (Rube goldberg Machine (petite video tres sympa)), des reglès de contructions que celles-ci respectent et les recherches de solutions/questions qu’elles génèrent.

L’historien David Edgerton nous a parlé de sa recherché autour de l’histoire des techniques. Il propose une approche de l’histoire des techniques et des sciences par l’utilisateur et les usages en opposition a use ligne chronologique des innovations. David Edgerton critique l’idée générale qui dit que la technologie n’est qu’ innovation . Il explique qu’on voit souvent les utopies futuristes du passé comme des technologies dominantes de l’époque.

Après lui le professeur de philosophie Dhruv Raina nous a parlé d’un cas bien particulier ou les techniques traditionnelles de compost on été utilisées comme centrale de production d’énergie dans un village en Inde. Sur les questions que ça a apporté sur l’utilité réelle de la technologie, de l’impact social et économique régional. Sur le choix de la technologie.

La quatrième et dernière intervention de la journée à été celle du journaliste espagnol Kris Decker, fondateur de la revue Lowtech magazine. Il nous a présenté ses doutes sur le progrès et la technologie. Dans un exposé passionnant il nous a fait découvrir des solutions en voie de développement, des projets de jeunes designers et de simples bricoleurs revenant parfois a des technique considérées comme obsolètes. Il a parlé de possibles réorganisations de façons de produire et consommer l’énergie (humaine, solaire , hydraulique…).

Ce workshop a été très intéressant même si un peu compliqué a comprendre par moments, et je vous invite vivement a aller visiter le blog de celui ci ainsi que le site du magazine Lowtech

 

http://www.artmap-research.com/

http://www.lowtechmagazine.com/

Progrès et scenarios catastrophe.

Je me baladais sur internet quand je suis tombée sur cet article assez fascinant de Bill Joy, publié il y a plus de 10 ans maintenant dans le magazine américain Wired . Ce magazine étant connu pour son amour à la technologie j’ai été surprise par le contenu de cet article d’une quinzaine de pages. Bill Joy y décrit sa rencontre avec plusieurs hommes scientifiques de haut rang et partage ses réflexions sur des problèmes profondément liés au progrès technique et a l’éthique de la connaissance. Joy  nous explique ses craintes par rapport aux avancées dans les domaines de la robotique, la génétique et le nanotechnologies, on peut  y lire des scénarios apocalyptiques et effrayants, d’autant plus qu’il appuie ses propos de des théories scientifiques difficilement niables. Ils nous explique pourquoi et comment le développement de ces technologies pourrait conduire a l’extinction de la race humaine ou tout du moins du monde tel qu’on le connaît. Un de ces arguments majeurs et que la connaissance et ces technologies est  devenue très accessible (en comparaison avec la technologie atomique par exemple) et pourrait éventuellement être crée et gérée par des individus et non pas par des nations. Il cite dans son texte scientifiques (Ted Kurzweil, Dany Hills, autres…) et écrivains de science-fiction (Asimov et ses lois de la robotique). Cet article est critiquable et critiqué par de nombreux scientifiques, il est souvent considéré comme alarmiste ou encore entant qu’anti technologie ou néo luddite.  Je trouve que c’est un article qui vaut le coup d’oeil à prendre avec des pincettes et avec un regard critique!

 

Voila le lien de l’article, le titre exact c’est: Why the future doesn’t need us.

http://www.wired.com/wired/archive/8.04/joy.html