Sur l’IA comme modélisation de l’humain

 

La recherche autour du thème de l’intelligence artificielle, assimilée à l’informatique, a été menée depuis ses débuts par des mathématiciens et informaticiens, par des praticiens de sciences dures. Depuis ses débuts ce nouveau domaine de recherche a connu plusieurs théoriciens, beaucoup de définitions, ce qui le rend peu cernable. Effectivement il serait difficile de définir en quelques ligne un sujet aussi plein de tensions et de désaccords. Il n’y a pas une vérité absolue encore dans cette science encore bien jeune. L’étude de l’intelligence artificielle (par les sciences dures) est l’héritage d’une longue, très longue, antique réflexion sur la logique, la conscience, l’être humain et du développement des sciences bien sûr.  L’intelligence artificielle et la philosophie portent sur la connaissance, l’une et l’autre se posent des questions générales sur la structure des connaissances. Bien des philosophes de sont penchés sur des questions comme la raison, l’intelligence, les mécanismes de la connaissances, la machine qu’est l’humain, la conscience… Descartes, par exemple, dégage la notion moderne de l’esprit, Kant aussi reprend certaines de ces thématiques dans  Critique de la raison pure. L’idée de machine pensante ou de mécanisme de l’être humain avait toujours été utilisée comme métaphore pour illustrer des thèses, elle est désormais une éventualité, une réalité potentielle. L’intelligence artificielle  est-elle seulement héritière de la philosophie, ou soulève-t-elle aussi des nouveaux questionnements, de nouvelles approches de pensée ?

On peut voir les recherches dans le champ de l’intelligence artificielle comme une branche de l’informatique, comme la recherche d’une parfaite simulation de l’intelligence et du savoir. Une science où on part de théories sur ces sujets, à la recherche de réponses pratiques, programmes, logiciels, qui ne seront finalement que reflet de ces théories sur l’intelligence. Ou alors considérer l’intelligence artificielle comme une science qui cherche a comprendre les mécanismes de la connaissance, qui est en permanence en questionnement et où chaque nouvelle réponse apporte une nouvelle question.

 

Le philosophe Hubert L. Dreyfus, qui critique fortement les théoriciens de l’intelligence artificielle dans son texte Alchimie et Intelligence Artificielle où il énumère les échecs et déceptions des résultats de la recherche en IA, tient à prouver dans son texte le lien étroit entre l’IA et l’étude de la métaphysique occidentale. Il pose l’intelligence artificielle à une place centrale dans la réflexion qui vise à saisir l’homme, Dreyfus présente l’intelligence artificielle comme l’aboutissement  mais aussi la fin de 2500 ans de métaphysique. En supposant que la réussite de l’un entrainerait l’inutilité de l’autre. Dans ces textes Dreyfus parle de l’intelligence artificielle à la fois comme conséquence d’une étude de l’homme et de l’ontologie occidentale  mais aussi comme propulseur de nouvelles idées.  Il établit une relation de cause à effet entre le mode de pensé de certains philosophes comme Platon ou Leibniz  à  l’approche de Marvin Minsky dans le fait de supposer que le monde et les hommes doivent  être représentés sous forme d’un système de descriptions fortement structuré, dans lequel les descriptions elles-mêmes sont bâties à partir d’éléments premiers.

« Si réellement nous sommes à la veille de créer une intelligence de synthèse, nous sommes près d’assister au triomphe d’une conception très particulière de la raison. De fait, si l’on peut effectivement douer de raison un ordinateur, voilà qui viendra confirmer cette conception de l’homme que depuis deux mille ans les penseurs de l’Occident cherchent vainement à étayer, mais sans avoir pu, jusqu’à présent, la formuler ou la soumettre a expérimentation, faute de l’outil dont ils disposent désormais: l’homme perçu comme objet. Mais si, d’un autre côté, l’intelligence artificielle se révèle une chimère impossible atteindre, alors nous devrons chercher à distinguer la manière dont raisonnent les machines de celle dont nous raisonnons, nous. Et cela modifiera radicalement notre perception de nous-mêmes. Par conséquent, l’heure a donc sonné ou bien d’accorder à la tradition philosophique le bien-fondé de son intuition centrale, ou bien d’abandonner cette conception de la nature humaine comme une mécanique, attitude qui s’est progressivement répandue en Occident au cours des vingt derniers siècles »

 

H. L. Dreyfus

John Searle, philosophe américain, définit deux types d’intelligence artificielle, et tout en respectant l’intelligence artificielle faible qui consiste à dire que des machines pourraient agir comme si elles étaient intelligentes, il qualifie d’impossible l’intelligence artificielle forte dit que les machines se comportant ainsi possèderaient vraiment une intelligence et non pas seulement une simulation de celle-ci.  Searle  repose son argumentation sur le fait que les ordinateurs n’accomplissent que des opérations formellement explicitées alors que l’esprit humain ne se résume pas a des processus syntaxiques. Il appui ses propos sur la différence entre syntaxe et sémantique. Il   maintient que l’esprit humain de par son intentionnalité à en plus d’une syntaxe une sémantique et réduit l’intelligence artificielle  a de systèmes formel, donc à des manipulations syntaxiques. Cela voudrait dire qu’en aucun cas l’intelligence artificielle pourrait prétendre décrire l’esprit  effectivement en faisant cette distinction le philosophe nie tout intérêt ontologique à l’intelligence artificielle tout en reconnaissant sa technicité et sa pertinence scientifique. Searle illustre ces propos par une expérience de pensée devenue célèbre aujourd’hui appelée la chambre chinoise.

Beaucoup de philosophes se sont aussi positionnés pour ou contre l’intelligence artificielle en s’appuyant sur des thèses philosophiques pour critiquer la possibilité même de l’existence d’une machine pensante. Cela a soulevé des questions concrètes sur la conscience  et  l’esprit. La conscience est t’elle physique ou immatérielle ? C’est a dire est elle le résultat de courants électriques et n’existerai pas sans un cerveau et donc pourrait être reproduite artificiellement ? Cette idée voudrait que les états mentaux dépendent d’états physiques. Ou est-elle comme l’a écrit Descartes un processus sans étendue spatiale ni propriétés matérielles ? Bien sur il n’y a pas de réponse, mais beaucoup de discussions, surtout sur les mécanismes de la pensée de la conscience et du fonctionnement du cerveau. Descartes considère l’intelligence, et la conscience de celle-ci comme étant propre a l’Homme.  Cette question sur la conscience s’étend à des questions sur l’intuition et les sentiments, est ce que l’homme est double ? Une partie matérielle et une partie immatérielle ? Et si au lieu de se poser la question de savoir si une intelligence artificielle est possible et d’essayer d’y répondre avec des arguments empruntés a la philosophie on regardait les progrès  dans cette science en espérant y trouver des réponses à des questions posées depuis des siècles sur l’étude le l’esprit, de l’intelligence et de la conscience humaine? Les résultats de la recherche en intelligence artificielle ne pourrait t’elles pas, dans le futur, ouvrir les portes à une connaissances plus précise de la complexité humaine? Il se pourrait que les contraintes techniques aient engendré un mode d’approche original qui repris sur le plan philosophique serait à la source de nouvelles idées.

 

Le débat de savoir si la philosophie et l’intelligence artificielle étaient liées ou  si il était pertinent de parler d’une philosophie de l’intelligence artificielle est né aux Etats-Unis. Est-ce que les philosophes ne prêteraient pas aux théoriciens de l’intelligence artificielle des desseins métaphysiques qui ne sont pas les leurs ? Je ne cite ici que deux philosophes et deux approches de l’intelligence artificielle par ce domaine, mais il en existe bien d’autres plus complexes, plus ou moins valides.

 

 

Bibliographie :

Jean-Gabriel Ganascia, L’âme-machine, les enjeux de l’intelligence artificielle, édition du Seuil, janvier 1990.

Jean-Gabriel Ganascia, L’intelligence artificielle, Flammarion,  1993.

Stuart Russel et Peter Norvig, Intelligence Artificielle, Pearson éducation 3eme édition, décembre 2010.

H.L. Dreyfus, Intelligence artificielle : mythe et limites, Flammarion, 1984.

John R. Searle, Du cerveau au savoir, Hermann, 1985.

Marvin Minsky, La société de l’esprit, InterÉditions, 1988.

www.http://aitopics.org/

 

 
Sur l’IA comme modélisation de l’humain

Qui croire?

Pierre-Philosophale

 

Que faut-Il croire aujourd’hui après toutes ces informations qui arrivent d’un peu partout?

Nous ne pouvons pas savoir avant l’heure ce que cela engendrait.

Cela dit nous ne pourront pas arrêter l’évolution de l’homme. Seulement les sciences, les nouvelles technologies…ne font que accélérer ce processus d’évolution de l’homme. La question qui se pose est de savoir si nous ne devrions pas laisser faire la nature et le future qui savent et qui détiennent la solution à tous nos maux. Ou si les sciences ne doivent-elles pas être contingentes et donc répondre à nos besoins d’évolution?

 

Je vous laisse vous intéresser une peu à Ray Kurzweil, l’auteur du livre “serons-nous immortels?”. Il se define lui-même comme “scientifique de l’informatique, développeur de logiciels, inventeur, entrepreneur, philosophe, et spécialiste de l’extension de la durée de vie » .

 

Il analyse à la manière d’une « fiction » le fait qu’un jour les sciences pourraient alors nous faire devenir des êtres immortels.

Si par exemple des milliers de nano-robots pourraient parcourir notre corps, réparer nos cellules… Nous empécher de veillir, tomber malades, de contrôler et de modifier notre ADN, et donc de choisir son identité physique, ses caractéristiques physiques et mentales…

 

Voici une analyse interéssante… Nous sommes bien a des distances qui dépassent presque l’éternité de tout cela, mais il faut prendre en compte des avancées déjà considérables que l’on voit agir autour de nous. Le chemin d’accès à l’immortalité et encore bien loin pour ceux qui y croient, mais ce livre fait aussi réagir sur des possibilités bien concrètes et sur la façon dont nous faisons évoluer l’humain.

 

Il y a de quoi perturber l’humanité entire et d’ouvrir encore toutes nos interrogations, remettre en cause notre sens moral; à t-on vraiment besoin de vivre pour toujours, mourir n’est-il pas le propre de la vie, que serait une vie si elle ne s’arrêtais donc jamais? vers quoi iraient nos croyances? que feraient les religions face à l’éternité humaine, si Dieu(x) n’est plus seul à y avoir accès?

 

Livre de Ray Kurzweil, Serons-nous immortels

 

 

 

Au-delà se soi-même

levitation2

 

Tout ne tient qu’à cela et aux croyances de l’homme.

 

Nous voulons dans un premier temps constamment améliorer l’homme, lui attribuer de nouveaux outils techniques afin de lui apporter un certain confort mais surtout afin de le rendre multitâches, polyvalent, performant, le rendre plus efficace, plus habile plus rapide dans un monde ou il faut produire toujours plus et de plus en plus vite.

L’humain devient-il alors l’homme machine, l’homme gogo gadgets, le surhomme, le superhéros?

 

Parlons des NBIC qui sont à l’origine de tout cela. La convergence entre l’informatique, les nano-technologies, la biologie et les sciences cognitives. Elles travaillent sur l’amélioration des capacités humaines. Egalement le DARPA qui est une agence pour les projets de recherche avancée de défense. Elle développe et recherche des projets utilisant les nouvelles technologies et qui est destinée aux militaires. Elle à notamment crée l’arpanet  (étendu au grand public et qui est internet) c’était à l’origine un outil pour  l’armée Américaine. Beaucoup de projets très avancés voient le jour et qui sont destinés à améliorer les conditions des militaires sur le terrain et d’avoir des outils de plus en plus performants. Ils ont réussi a  piloter un hélicoptère par la pensée, ils font actuellement des recherches sur les applications de la mémoire holographique afin de stocker des données importantes dans des hologrammes, ce qui permet d’utiliser le volume d’un support et non plus une surface comme le cd, ou le dvd… Des avancements considérables sont donc réalisés et répondent à des besoins stratégiques de guerre. Seulement, dans un autre contexte est ce que cela à encore un sens? Faut-il réellement penser à faire muter l’humain. A qui cela profitera t-il?  A tout le monde ou seulement à une élite qui à les moyens de se payer ce genre d’amélioration et d’extension du potentiel humain?

Cela ne nous amènera t’-il pas à vouloir toujours plus, à gagner encore un peu plus de temps, plus de confort de vie, à être amener à faire des sacrifices de vie?

Sommes nous au bout des réelles possibilités humaines? Notre au corps nous sera t-il bientôt plus utile. Allons nous pouvoir nous détacher de notre envelope corporelle qui nous empêche d’aller bien au-delà. Car l’esprit est plus fort que le corps, et ce corps nous freine perpétuellement dans nos quêtes et élans de devenir bien plus qu’un simple mortel.

 

J’ai découvert le livre la vie vivante, de Jean-Claude Guillebaud qui est journaliste et essayiste. Il est assez inquiet à propos de ses recherches et avancées des NBIC, cependant il s’interroge et donne un sens à ce pourquoi nous portons des espoirs à entrer dans l’ère posthumaine ou transhumaine.

 

Il dit que “nous avons peur de ce que nous sommes et nous sommes haineux envers notre propre corps et notre condition de mortel. Nous voulons alors une nouvelle forme d’incarnation”.

 

L’ère numérique nous mêne hors du temps et nous propulse dans la programmation. Il y a alors une totale dématérialisation qui se crée. Un effacement de la matière et du palpable. Nous sommes propulsés dans un monde de codages, inter activité ou tout est déconstruit.

L’humain encore bien réel devient alors un problème.

Mais ces avancées et cette idée du transhumanisme montre alors que l’homme est une matière bien malléable. Avec de bons outils (la technique), il devient un être hybride qui serait donc capable de dépasser sa condition qu’on lui avait alors réservé jusqu’à maintenant.

 

– http://www.lavie.fr/culture/livres/jean-claude-guillebaud-l-homme-une-experience-ratee-04-03-2011-14605_30.php

– www.strategie.gouv.fr/system/files/2012-19-12-sciencefiction_0.pdf

 

 

 

 

 

 

 

 

L’économie du numérique et la régulation.

Le 13 décembre 2012, l’ARCEP a sanctionné Orange et SFR d’une amende de 183 millions d’euros pour pratiques anticoncurrentielles dans le secteur de la téléphonie mobile. Elle leur reproche d’avoir commercialisé, essentiellement entre 2005 et 2008, des offres donnant la possibilité d’appeler en illimité uniquement au sein de leurs réseaux.
« Ces offres ont freiné la concurrence de deux manières. 
Elles ont contribué, d’une part, à figer le marché en attirant les consommateurs vers les deux plus gros réseaux et en les verrouillant de fait une fois le choix opéré. Elles ont, d’autre part, été de nature à affaiblir le troisième opérateur, 
Bouygues Télécom, qui a dû riposter en lançant des offres qui ont nettement renchéri ses coûts. »
(Communiqué de l’ARCEP, 13 décembre 2012, )

Ce n’est pas la première fois, ni la dernière, qu’une telle chose arrive. Mais pourquoi de telles sanctions ? En quoi la concurrence est-elle si importante ? Quel est le rôle de l’ARCEP, des Autorités de régulations en général ? Et en quoi la régulation est utile au bon fonctionnement de l’économie numérique ?

Pour tenter de répondre à ces questions, il est important au préalable de mieux comprendre cette économie numérique. Il convient cependant de bien distinguer les produits non numériques utilisant le Web comme canal de vente, des produits numériques, en parti dématérialisés, distribués par le Web. Nous ne nous attacherons qu’à ces derniers.

Tout au long de mes recherches, j’ai essayé d’établir une sorte de cartographie représentant ses différents acteurs et ses différents secteurs. Vous y trouverez notamment les sources qui m’ont permit de la mettre en place.

http://www.mindomo.com
Cette cartographie peut-être complétée, toute critique afin de l’améliorer est la bienvenue.

J’y distingue cinq secteurs et acteurs, que je vais vous définir, ce qui me permettra ensuite de révéler les principaux paradoxes et tensions que soulève l’économie numérique avec la régulation.

Parlons d’abord des contenus, c’est à dire de tout ce qui est lu/vu/entendu sur les machines informatiques et transféré sur les réseaux de télécommunication. Selon moi, ils comportent le Web, les logiciels et les médias, qui permettent de lire ou de diffuser tout message/information, sous forme de textes, d’images, audio et/ou vidéo. Avec le développement du Web, la manière de consommer de l’usager a changé, ce qui bouleverse les moyens de diffusion traditionnels des médias. Par exemple, l’industrie du disque subit une chute de son chiffre d’affaires depuis quelques années à cause notamment du piratage des œuvres. Cela entraîne l’émergence d’un nouveau modèle économique pour l’industrie de la musique. Ce modèle est représenté par des plates-formes de téléchargement ou d’écoute en ligne, payantes ou avec publicités, comme iTunes, Deezer ou Spotify. Elles baissent le piratage, mais continue d’affaiblir l’industrie du disques. De plus, on observe la croissance du pouvoir des géants du net dominé par « GAFA » (Google, Apple, Facebook, Amazon), qui vont jusqu’à créer un groupe de pression pour avoir plus d’impact sur la politique (Cf Article du journal le Monde).Aujourd’hui, sur le net presque tout passe par eux, ce qui en dérange plus d’un.

Ensuite, les contenants. Ils représentent tous les supports informatiques/électroniques permettant de lire les contenus. Ce secteur connaît beaucoup de développements, d’améliorations et d’innovations. De plus avec l’arrivée des objets connectés, la diversité de ces supports augmente. Remarquons que beaucoup de constructeurs de contenants sont aussi producteurs de contenus, comme Apple avec toute sa gamme de produits, de logiciels et de services, ou à l’inverse Amazon avec sa tablette tactile connectée à son site de vente en ligne. Cette convergence est de plus en plus présente.

Poursuivons avec les réseaux de télécommunications, qui transportent les informations d’une machine à une autre. Ils comprennent notamment les réseaux Internet, de télévisions et de téléphonie fixe et mobile. Dans chacun de ces secteurs, nous retrouvons des fournisseurs qui se font concurrence. On y fait une première distinction entre les opérateurs historiques, qui souvent gardent une importante part de marché, avec les opérateurs alternatifs et une seconde distinction entre les opérateurs réels qui louent leurs réseaux aux opérateurs virtuels souvent moins cher, low-cost. Par exemple, pour la téléphonie mobile, Orange est un opérateur historique, avec 38,6% de part de marché. Il fait partie des opérateurs réels avec SFR, Bouygues Telecom et Free Mobile. On trouve sur son réseau des opérateurs virtuels (des MVNO) tel que Sosh, M6 mobile ou encore Carrefour mobile.
Aujourd’hui avec la convergence et la concentration des entreprises, les opérateurs deviennent aussi fournisseurs de services. Ils l’hébergent des sites Web et proposent l’accès à des boîtes de courriers électroniques. Nous retrouvons aussi des opérateurs sur plusieurs réseaux. Par exemple les offres Triple Play de FAI (fournisseur d’accès Internet) qui en plus de l’accès à Internet donnent accès à la télévision et au téléphone gratuit vers les fixes et Quadruplay qui rajoute le téléphone gratuit vers les mobiles.
De plus, avec l’explosion du trafic mobile qui se concentre sur quelques acteurs, grands éditeurs mondiaux, les opérateurs doivent assumer les lourds investissements rendus nécessaires dans les réseaux, alors même qu’ils ne profitent principalement qu’aux fournisseurs de contenus et d’applications, comme « GAFA ». Certains estiment que ces géants du Net ne contribuent pas suffisamment aux réseaux qu’ils empruntent et cherchent un moyen de les faire payer pour l’acheminement de leurs contenus.

Continuons avec les autorités légales, qui nous intéressent particulièrement car ce sont elles qui régulent les secteurs du numérique. On y trouve de nombreuses organisations, des Autorités Administratives Indépendantes (AAI), comme l’Autorité de régulation des communications électroniques et des postes (l’ARCEP), ou le Conseil Supérieur de l’Audiovisuel (le CSA). Selon le Conseil d’État (cf rapports-et-etudes) « les autorités administratives indépendantes peuvent être définies comme des organismes administratifs, qui agissent au nom de l’État et disposent d’un réel pouvoir, sans pour autant relever de l’autorité du Gouvernement. L’état participe aussi à la régulation notamment au travers des différentes lois, impôts et taxes. Ainsi ces différents acteurs supervisent l’économie, règlent les conflits, sanctionnent les abus, protègent les consommateurs et les acteurs entre eux… Ils régulent afin de permettre à tout cet univers complexe de mieux fonctionner, pour le bien final de l’usager. Cependant, la tache est difficile car le monde du numérique n’est pas simple et va très vite.

Viennent enfin les usagers. Ce sont les personnes utilisant les réseaux et les contenants, pour obtenir les contenus, sous les règles et le contrôle des autorités légales. Nous pouvons observer que le numérique a changé notre façon de consommer. On veut pouvoir avoir accès à tout, tout de suite et tout le temps.
Eric Scherer, directeur de la prospective à France Télévision a écrit « l’accès permanent à la connaissance, au jeu, au divertissement, devient plus important que sa possession ». On le voit par le streaming qui devient préféré au piratage.
Le numérique est devenu également plus collaboratif, un bon exemple étant Wikipédia. En s’associant, l’Humain a des capacités énormes et les coûts sont dilués. Le Web 2.0 est le contenu produit par l’utilisateur. C’est lui qui donne de la valeur à des entreprises comme Facebook. Et cet accès à l’information pour tous et la parole pour tous grandi l’influence des usagers sur les autres acteurs. Chacun peut être passif ou actif, quoi qu’il arrive le pouvoir de tous grandi.
Alec Ross, conseiller pour l’Innovation d’Hillary Clinton, a dit : « le basculement de pouvoirs le plus important à l’œuvre actuellement ne se passe pas entre l’Occident et l’Asie, les États-Unis et la Chine, le Nord et le Sud, la Droite et la Gauche, mais entre les institutions et les individus, grâce au numérique ».
Nous pouvons d’ailleurs remarquer que les rapports deviennent petit à petit plus horizontaux et plus direct, c’est-à-dire avec moins d’intermédiaire. Le créateur se rapproche du publique qui devient lui-même de plus en plus créateur, le politicien des électeurs.
Certes les rapports deviennent plus horizontaux, mais pas forcément moins verticaux et chacun devient une main d’œuvre gratuite. L’usager détient-il vraiment le pouvoir ? Ne sommes-nous pas simplement manipulés et dépendant du système, des puissants acteurs? Ou ne serait-ce pas plutôt les puissants acteurs qui serait dépendants de nous ?

Ci-dessous un schéma qui synthétise et complète la cartographie. Vos suggestions d’améliorations y sont également les bienvenues.

schema

Ainsi, les acteurs ont besoin les uns des autres. Ils sont tous interdépendants. De plus il semblerait qu’une autorégulation se fasse naturellement entre les acteurs d’un même secteur et entre les acteurs de secteurs différents. Par exemple, les utilisateurs en s’alliant ont plusieurs fois fait reculer Facebook. Ainsi ne pouvons-nous pas nous protéger tout seul, avec nos associations de consommateur ? A force d’interagir ensemble, les acteurs ne peuvent-ils pas se réguler d’eux-mêmes ?

Mais quel serait alors le rôle des autorités légales ? Pourquoi régulons-nous ? Pour aborder cette question et dans l’optique de mieux comprendre l’économie numérique il est intéressant d’examiner les principes de base de la concurrence dans ces secteurs puis de regarder l’exemple de l’ARCEP, l’autorité qui régule la concurrence dans le domaine des télécommunications et des postes.

Tout d’abord, qu’est ce que la concurrence ?

La définition de la concurrence est « une compétition, une rivalité entre des personnes, des entreprises, etc., qui ont le même objet et objectif, qui recherchent le même avantage. »
.


En économie, elle désigne « la présence de plusieurs acteurs qui souhaitent accéder à une ressource limitée, par exemple des agents économiques utilisant simultanément une même matière première, ou présents simultanément sur un même marché. Quand elle est sans entrave, elle correspond à une situation de libre confrontation entre l’offre et la demande sur un marché. »

La concurrence est dite pure et parfaite si les offreurs de produits ou de services vendent au prix du marché, aucun d’entre eux ne disposant du pouvoir de fixer les prix ou d’influencer les décisions des autres acteurs. Le prix résulte alors de l’affrontement et de la négociation de l’ensemble des acteurs en partant du coût de sa confection. 
Les conditions théoriques nécessaires à une concurrence pure et parfaite sont :

  • L’atomicité : les acheteurs et les vendeurs sont suffisamment nombreux pour qu’une décision individuelle ne puisse conduire à une variation de l’offre ou de la demande.
  • L’homogénéité des produits : les biens échangés sont semblables et comparables en qualité et en caractéristiques ; un produit de meilleure qualité constitue donc un autre marché.
  • La transparence de l’information sur tous les agents et sur le bien échangé.
  • La libre entrée et sortie sur le marché : pour une concurrence pure et parfaite, l’accès des offreurs ou des demandeurs sur un marché doit être totalement libre, sans réglementation contraignante
  • La parfaite mobilité des acteurs : Les agents et les biens doivent pouvoir librement circuler.

Cependant ce modèle correspond peu à la réalité, ses conditions sont rarement toutes réunies et jamais dans l’économie numérique. Certes le Web a fait progresser ces cinq points dans la diffusion de produits matériels et a ainsi amélioré la concurrence dans ces secteurs. Il n’en est pas tout à fait de même dans l’économie numérique.
Nous sommes ainsi dans un système de concurrence dite imparfaite.
Pour exemple, une concurrence imparfaite où l’atomicité et/ou la liberté d’entrée ne sont pas présentes est le cas où un acteur (monopole) ou un petit groupe d’acteurs (oligopole) a la possibilité de fixer un prix, une quantité ou une qualité, ou bien de s’entendre sur ces conditions.

Modeles_concurrence

Les adeptes du libéralisme économique croient que la régulation par des autorités et par les états n’a pas sa place dans l’économie. Selon eux, au fil des années et des interactions entre les acteurs, par l’autorégulation nous atteindrons un jour la concurrence pure et parfaite et le marcher devrait s’équilibrer. Cependant combien de temps devrons-nous attendre avant d’atteindre cet équilibre ? 1 an, 10 ans, 100 ans, 500 ans… Normalement nous ne serons plus là pour en profiter dans 500 ans. Mais peut-on espérer l’atteindre un jour quand on prend en compte la nature de certains hommes à recherche le pouvoir, l’argent ou à ne pas toujours « jouer le jeu » ?

C’est pourquoi en France, bien que nous soyons sous un système économique de libre concurrence, où chacun dispose de la liberté d’exercer une activité, de produire et de vendre aux conditions qu’il souhaite, l’état intervient pour garantir le droit de la concurrence, aussi connu sous l’expression de droit « antitrust » dans le monde anglo-saxon, mais aussi pour garantir les droits et la sécurité des consommateurs.

Le rôle du droit de la concurrence est le plus souvent d’obliger les entreprises à se faire concurrence, ou à la subir. Ce qui préoccupe en cela les autorités légales est entre autre l’efficience économique. Elle est défini par Frédéric Jenny comme « la plus grande satisfaction du consommateur par les producteurs compte tenu de la rareté des ressources globales de la collectivité »

Pour le faire respecter, il est mit en place des autorités de concurrence. Par exemple, L’ARCEP, l’autorité française pour les secteurs des télécommunications et des postes. Elle régule pour que la rareté ne crée pas de situation de monopole. C’est elle qui attribue des licences aux opérateurs physiques et veille à ce que le peu d’acteurs présents sur le marché se livrent bien une concurrence en :

  1. Autorisant, voir stimulant la concurrence entre les entreprises pour garantir :

    • l’accès au marché

    • la transparence du marché

  1. Protégeant la concurrence existante en sanctionnant (la sanction prononcée envers Orange et SFR en est un bon exemple)

    • la concurrence déloyale

    • les pratiques élusives de concurrence

  1. Limitant ou interdisant la concurrence dans certains cas :

    • en autorisant certaines entités à échapper à l’application du droit de la concurrence (but exclusivement sociale, prérogative de puissance publique, garantir la sécurité des consommateurs, …)

    • en concédant provisoirement certains monopoles pour encourager la recherche (propriété intellectuelle des brevets).

Le but des autorités comme l’ARCEP est donc de réguler pour qu’il y ait est de la concurrence qui est nécessaire pour combattre les effets de domination que l’on peut retrouver dans l’économie numérique. La concurrence permet aux consommateurs d’avoir des produits moins chers, plus diversifiés et de meilleure qualité. Pour imager, ces autorités légales apparaissent comme les arbitres d’un jeu.

Cependant cette montée en puissance du droit de la concurrence se confronte à un certain nombre de problèmes. Il est difficile pour les autorités de la concurrence d’analyser cette économie numérique, d’une part à cause de l’évolution et de la technicité des matières, et d’autre part du fait de la délimitation malaisée des secteurs par l’innovation technologique et commerciale permanente, et de la convergence entre les industries et les services, notamment dans les télécommunications, mais aussi dans la télévision et l’Internet.
Par exemple, on observe le développement de nombreux modèles économiques, de modèles d’affaires différents pour un même produit. La concurrence ne se retrouve plus forcément qu’au niveau des produits, mais aussi entre ces modèles d’affaires. Dans une interview intitulée « La révolution numérique : pourquoi parler de nouveaux modèles d’affaires? », parut en 2010 dans le dossier «  La révolution numérique : Nouveaux usages, nouveaux modèles, nouvelles régulations ? » de l’ARCEP, Pierre-Jean Benghozi explique :

« De manière paradoxale, ce ne sont plus nécessairement les contenus et les services proposés qui ont une valeur en soi mais les modèles économiques de production et de consommation dans lesquels ils s’inscrivent. »

Par exemple, les modèles basés sur les idéaux de collaboration et de partage prolifèrent et font concurrence aux autres modèles. Ils se traduisent par des biens gratuits, comme les logiciels libres, en open sources, ou les œuvres sous licences Créative Commons (cf les créative commons hackent le droit d’auteur), ou d’autres entreprise en dehors des produits numérique. (cf l’article de Antonin Léonard « Partage, P2P… Bienvenue dans l’économie collaborative! » )

En outre, des tensions naissent constamment entre le droit de la concurrence et le caractère régulé de certains pans de l’économie numérique et la mondialisation a tendance à rendre caduque certaine de ces régulations. Notamment dans le secteur audiovisuel, avec les quotas de diffusion, les obligations d’investissement des chaînes de télévision dans le cinéma, les aides des états, etc… Pour exemple, en France, les chaînes hertziennes n’avaient pas le droit de diffuser des films certains jours, alors qu’aucune contrainte de ce type n’existe sur Internet ou dans d’autre pays. La concurrence n’est donc pas pure et parfaite.

Pour reprendre et approfondir notre image, ce sont des arbitres qui doivent protéger les joueurs les uns des autres et continuellement modifier les règles du jeu en fonction des nouveaux entrants, des nouvelles cartes et des tricheurs. Ce n’est pas une tache aisée.

Pour terminer, on peut révéler deux paradoxes de cette économie numérique.
Le premier, entre sectorisation et convergence. En effet, il est compliqué de délimiter cette économie. Les frontières entre les secteurs sont floues et encore plus avec la convergence, les acteurs se retrouvant de plus en plus sur différents marchés. Toutes représentation graphique en est par cela complexe et à nuancer.
Le deuxième, entre concurrence et concentration. Bien que celle-ci soit forte dans le milieu du numérique, par le fait de nombreux acteurs, on y trouve quand même monopole et oligopole dans différents secteurs. En effet de grandes puissances émergent, notamment le GAFA.

Le modèle économique actuel n’est toujours pas stable et dans certains cas, pas viable. Une seconde bulle Internet, différente de la première, est envisageable. Les changements vont vites et sont nécessaires, plusieurs secteurs sont face à des bouleversements.

Dans son dernier livre, la Troisième révolution industrielle, l’économiste américain Jeremy Rifkin dessine justement les contours d’un nouveau modèle économique et social « Il y diagnostique la fin de l’ère du pétrole et du pouvoir centralisé au profit d’une économie collaborative fondée sur les énergies renouvelables et l’Internet. »
(Cf Interview de Jeremy Rifkin )

Est-ce le changement de cycle que nous prédisaient Les Mayas ?

Intelligence artificielle, état de l’art.

Depuis la Grèce antique les hommes ont été fascinés par la construction de l’esprit et les mécanismes de l’intelligence. Mais ce n’est que depuis l’invention de l’informatique que la possibilité de voir apparaître un jours des mécanismes indépendants et dotés d’une intelligence artificielle est apparu.  Autour des années 50 aux États Unis un groupe de scientifiques formé par J. McCarthy, M Minsky,  N. Rochester et C. Shannon créent des groupes de recherche et de réflexion autour de l’intelligence et du language et posent les bases des études sur l’intelligence artificielle en 1956 lors de la conférence de Darmouth.

La question qui se pose alors c’est celle de savoir que considère t’on de l’intelligence ? En 1950 Alan Turing invente un test qui permet de qualifier une machine d’intelligente ou pas, ce test repose sur l’assertion qui suit : si un humain ne peut différencier si il parle a une machine ou a un humain alors cette machine peut être considérée dotée d’intelligence. Ce test a depuis été critiqué et discrédité plusieurs fois mais il reste un pas important dans l’univers de l’intelligence artificielle. Est-ce de l’intelligence ou seulement une simulation de celle-ci ?

<iframe width= »560″ height= »315″ src= »http://www.youtube.com/embed/TryOC83PH1g » frameborder= »0″ allowfullscreen></iframe>

 

Je pensait que l’intelligence artificielle était une utopie morte, tout droit classée dans le rayon science fiction sitôt citée ou évoquée. Entre les années 40 et 2000 a littérature  et le cinéma se sont emparé de ces idées et on a vu apparaître un nombre incroyable de  productions contribuant à la création d’un imaginaire collectif autour de l’idée d’intelligence artificielle des utopies ou dystopies nous projetant dans un futur pas si lointain qui ont contribué a populariser  cette science. On voit donc des robots effectuant des opérations complexes, ayant des comportements et réaction indiquant une certaine conscience. Dans la littérature comme dans le cinéma ces entités intelligentes sont souvent vues comme dangereuses, capables de se révolter contre les humains à la poursuite de leur propres intérêts. Ces intelligences prennent souvent forme ou voix humaine comme dans « Terminator » de James Cameron) ou encore dans « 2001 L’odyssée de l’espace » de Kubrick mais  aussi quelquefois de façon plus abstraite comme dans « Matrix » des frères Wachowski. Il y a aussi mais moins des cas ou le robot est un être doté d’une conscience et de sentiments qui le font devenir bon est humain come dans « L’homme bicentenaire » de Chis Colombus.

Même si on en est pas au même stade que dans la littérature et le cinéma, les avancés dans les champs de l’intelligences artificielle est belle est bien réelle et les champs d’applications deviennent de plus en plus d’ordre quotidien, je parle encore en terme de 10 à 15 ans mais à défaut de robots anthropomorphes et de droids de compagnie, sont déjà là ( en  période d’essai) les maisons intelligentes capables de t’envoyer un texto si il y a une fuite dans le sous sol ou si la fenêtre a été laissé ouverte en partant. Ou de recevoir des indications pour chauffer  la maison en vue d’une arrivée prochaine.

Ou encore dans le domaine de la robotique, ces sympathiques spécimens. C’est la combinaison de plusieurs domaines comme la biologie, la physique , les mathématiques  les siences cognitives et d’autres champs de l’ingénierie qui ont pérmis  a des robots fabriqués par Hod Lipson et son équipe à Cornell d’être dotés de curiosité artificielle et qui ont la capacité d’apprendre, de communiquer, ils sont en quelque sorte aux premiers stades d’un processus d’évolution. Cette équipe de scientifique c’est fortement inspiré des êtres vivants et de la théorie de l’évolution et de la création de touts les êtres vivants à partir d’un milieu liquide  (soupe primordiale) plein de particules et éléments chimiques qui se sont assemblés grâce a ce milieu propice au développement de la vie. Ils ont crée leur propre soupe primordiale électronique (numérique) pleine de composants de robots, et ont laissé les robots se créer d’eux mêmes et ensuite a se déplacer. Ils ont aussi observé que quelques robots, une fois crées si alimentés de matériel similaire a leur construction peuvent se répliquer.

<iframe src= »http://embed.ted.com/talks/lang/fr/hod_lipson_builds_self_aware_robots.html » width= »560″ height= »315″ frameborder= »0″ scrolling= »no » webkitAllowFullScreen mozallowfullscreen allowFullScreen></iframe>

 

Aussi et beaucoup moins drôles les Bots américains, ces soldats métalliques qui sont capables de prendre la décision de tirer  sur quelqu’un ou pas. Ronald Arkin chercheur à l’Institut des Technologies de Georgie à Atlanta, aux Etats-Unis, travaille sur ces robots qui seraient complètement autonome contrairement a ceux qui existent aujourd’hui qui ne le sont que partiellement. Sur le champs de bataille on voit déjà des robots qui savent adapter leurs déplacement sans besoin d’indication humaine ou des robots programmer pour porter les hommes blessés sans intervention humaine mais aucun robot aujourd’hui ne prend la décision d’ouvrir le feu, c’est toujours un ordre humain , même a distance. Cela ouvre la question de l’ethique, de la conscience ou de l’objectivité des robots

C’est là qu’un petite sélection de ce qui se fait aujourd’hui. Les champs de l’intelligence artificielle sont très nombreux et vont des domaines les plus généraux comme l’aprentissage ou la perception a des choses beaucoup plus précises et ciblées comme un jeux d’echec, écrire un poème, démontrer un théorème mathématique ou enore conduire une voiture…

 

 

 

Est-ce que les machines peuvent penser ?

 

«  La question de savoir si les machines peuvent penser  a à peu près autant de sens que celle de savoir si les sous-marins peuvent nager »

Edsger Dijkstre

 

Malgré le titre de cet article la vraie question dans les débats sur l’intelligence artificielle est une question qui se posait depuis bien longtemps, c’est celle de définir l’intelligence. Depuis le début de ce domaine il y a eu plusieurs écoles et plusieurs définitions de l’IA. Dans les différents courant que j’ai pu rencontrer j’en ai retenu en particulier deux : celui qui se base sur le comportement  et l’autre qui se base sur la pensée. Le premier défini un système intelligent quand il se conduit se façon intelligente et le deuxième seulement quand un système se comportant de façon intelligente est doté d’une pensée réelle et non seulement simulée. C’est aussi la définition de l’IA faible (comportement) et de l’IA forte (pensée).

Aujourd’hui le fait que l’IA faible existe  ne fait plus débat, personne ne peut le nier on en a vu des preuves dans bien des domaines comme la machine a jouer aux échecs , Deep blue qui en 1997 a battu le champion du monde Gary Kasparov. Il y a eu dans l’histoire des questions sur le danger de certains de ces systèmes, comme par exemple des programmes de conversation via ordinateur qui pouvaient inciter l’interlocuteur humain a dévoiler ses information personnelles, mais les dangers de l’IA faible résident plus dans l’utilisateur humain que dans le système lui même. La plupart des  critiques  de l’IA faible ont périmé avec le progrès fait jusqu’à aujourd’hui.

C’est en se penchant plus du coté de l’intelligence artificielle forte que cela devient très intéressant, la définition dit que c’est non seulement une machine qui se comporte de manière intelligente mais qu’elle est dotée d’intelligence. Pour une machine qui prouve un théorème de mathématiques par exemple cela voudrait dire qu’elle prouve le théorème par un raisonnement mais qu’elle est consciente qu’elle est en train de prouver un théorème. Cela soulève la question de la conscience  et de l’esprit. La conscience est t’elle physique ou immatérielle ? C’est a dire est elle le résultat de courants électriques et n’existerai pas sans un cerveau et donc pourrait être reproduite artificiellement ? Cette idée voudrait que les états mentaux dépendent d’états physiques. Ou est-elle comme l’a écrit Descartes un processus sans étendue spatiale ni propriétés matérielles ? Bien sur il n’y a pas de réponse, mais beaucoup de discussions, surtout sur les mécanismes de la pensée de la conscience et du fonctionnement du cerveau.  Le point de vue de Descartes  ferme toute possibilité d’IA forte et considère l’intelligence, et la conscience de celle ci comme étant propre a l’Homme.  Cette question sur la conscience s’étend à des questions sur l’intuition et les sentiments, est ce que l’homme est double ? Une partie matérielle et une partie immatérielle ?

Si on décidait d’admettre que les pensées, les sentiments, …, la conscience, sont le résultat d’états physiques de la matière , ca voudrait dire que le cerveau et l’intelligence humaine est comme une machine extrêmement compliquée mais pas impossible a reproduire même en simplifié, cela laisse entrevoir la possibilité d’un jour voir  de l’intelligence artificielle forte ou des machines ultra-intelligentes.

Et dans ce cas là que se passera t’il ?

On se trouve alors dans une situation de supposition, de spéculation. Mais on peut se demander, quand même, quels peuvent être les risques du développement de telles technologies. Les effets que cela peut avoir sur les normes qui régissent notre société. Une des théories qui me fait le plus peur car la plus plausible reste encore celle de la mauvaise utilisation de ces technologies, car ce systèmes pourraient être utilisé a des fins indésirables qui sont déjà une priorité aujourd’hui dans la paranoïa généralisé du terrorisme. Je parle de la l’utilisation de systèmes plus autonomes que ceux qui sont dors et déjà utilisées dans la surveillance des citoyens , dans des pays comme les États Unis ou l’Angleterre  ou des systèmes d’IA sont utilisés pour écouter les conversations ou encore les drones de guerre américains. Aujourd’hui l’IA intervient dans beaucoup de domaines comme la médecine ou la finance mais les systèmes ne sont pas autonomes sur les prises de décision importantes et donc pas responsables. Cette piste soulève la question de la responsabilité, jusqu’à maintenant la responsabilité revient a celui qui a construit le système, mais que serai t’il si ces systèmes devienne autonomes ?

On peut aussi faire travailler notre imagination et nous projeter  dans un scénario catastrophe ou l’intelligence crée par l’humain est complètement autonome et représente un danger pour l’espèce humaine… la littérature et le cinéma illustrent ces théories. Ou même comme Rémi Sussan émettre la possibilité que ces  technologies soit complètement autonomes et que la création d’une société de robots ou de systèmes intelligents ne soit pas en conflit avec la survie de l’espèce humaine.

 

Technoscepticisme ou Comment la pensée de Jacques Ellul continue-t-elle d’être pertinente aujourd’hui ? 4

La technophobie et les autres technosceptiques

Technophobes vs Technosceptiques :

                Il faut bien différencier la technophobie et le technoscepticisme ! Quand la première rejette totalement la technique et l’accuse de tous les maux, la seconde s’interroge et s’en méfie grandement, Ellul est un de leur représentant.  Une des représentations de la technophobie est le néoluddisme, basé sur l’héritage historique des luddites, mouvement de revendication des ouvriers du textile en Angleterre  actif entre 1811 et 1813. Le néoluddisme veut enrayer le progrès par souci écologique, lutter contre l’automatisation tenue pour responsable du chômage, et dénoncer les méfaits de l’informatique. «Les technologies créées et disséminées par les sociétés occidentales sont incontrôlables et défigurent le fragile équilibre de la vie sur Terre», écrit Chellis Glendinning, un psychologue du Nouveau-Mexique dans Notes pour l’écriture d’un manifeste néoluddite. La Société industrielle et son avenir (1995) est une des expressions littéraires du néoluddisme défendue par Theodore Kaczynski. Le manifeste précise :

« La révolution industrielle et ses conséquences ont été un désastre pour la race humaine. Elle a accru la durée de vie dans les pays « avancés », mais a déstabilisé la société, a rendu la vie aliénante, a soumis les êtres humains à des humiliations, a permis l’extension de la souffrance mentale (et de la souffrance physique dans les pays du Tiers-Monde) et a infligé des dommages terribles à la biosphère. Le développement constant de la Technologie ne fera qu’aggraver la situation. Ce qu’auront à subir les hommes et la biosphère sera de pire en pire ; le chaos social et les souffrances mentales s’accroîtront, et il est possible qu’il en aille de même pour les souffrances physiques, y compris dans les pays « avancés ».

Le système techno-industriel peut survivre ou s’effondrer. S’il survit, il PEUT éventuellement parvenir à assurer un faible niveau de souffrances mentales et physiques, mais seulement après être passé par une longue et douloureuse période d’ajustements, et après avoir réduit les êtres humains et toutes les créatures vivantes à de simples rouages, des produits calibrés de la machine sociale. En outre, si le système perdure, les conséquences sont inéluctables : il n’y a aucun moyen de réformer ou modifier le système de façon à l’empêcher de dépouiller les hommes de leur dignité et de leur autonomie. »

Voir aussi : Les briseurs de machines – De Nedd Ludd à José Bové  de Nicolas Chevassus-au-Louis, édition « Science ouverte », 2006

http://www.pseudo-sciences.org/spip.php?article1485

 

Les autres technosceptiques d’aujourd’hui et d’hier

        ♦ Ellul c’étant éteint en 1994, y-a-t-il dans les jeune générations, des personnes qui défendent la même cause que lui ? Ses propos ont-il toujours un sens aujourd’hui ? La tyrannie technologique écrit par Guillaume Carnino, Cédric Biagini, Cécile Izoard et le collectif Pièces et Mains d’œuvres paru en 2007 est-il la suite logique du Bluff technologique (1988) d’Ellul ? Ce n’est pas aussi simple que cela et je ne suis pas sur que l’on puisse les « ranger » dans la même catégorie, cependant le fil rouge est le même : attention aux techniques ! La tyrannie technologique est une critique assez virulente de la technique. «Attention, nous ne sommes pas des technophobes, prévient Cédric ­Biagini, coauteur et éditeur. Nous ne souhaitons pas revenir à la bougie. La question n’est pas seulement de savoir si l’on veut utiliser ou pas un portable, mais de savoir qu’elle société on veut.»  Les auteurs de l’ouvrage dénoncent l’invasion technologique et ses ravages : télévision, Internet, portable, biométrie, puces RFID (radio frequency identification, permettant de détecter un objet ou une personne), des techniques acceptées sans problème par une société bercée par le mythe du progrès. Leur dénonciation se rapproche de très près de celle d’Ellul faites en son temps à propos de la télévision, la publicité, l’informatique et la télématique.

« Son livre décrit un individu dépossédé de son savoir-être par les nouvelles technologies, comme l’auraient été les luddites de leur savoir-faire. Disparition de métiers, impossibilité de communiquer sans machines, vision utilitariste du monde, identification croissante des individus et traçabilité des biens avec la biométrie et les puces de détection. Le portrait qu’ils font de la société ne prête guère à rire. »  Frédérique Rousselle, www.liberation.fr

Une partie de leur livre est consacrée à casser les grands lieux commun des techno. tels que :

  • «La technique est neutre. Tout dépend de ce qu’on en fait.»
  • «La technique nous libère de la servitude»
  • «Refuser le progrès, c’est revenir à la bougie»

Vous pouvez télécharger un court extrait du livre ici :

http://www.multimedialab.be/blog/?p=1078

Et lire ici deux brefs passages :

http://www.multimedialab.be/blog/?p=1216

 

                ♦ Hans Jonas (1903- 1993) est un philosophe allemand qui a traversé le XXème, tout comme Ellul, et qui a réfléchi sur les tragédies politiques et sur les révolutions technoscientifiques de son temps. Son œuvre la plus connue  Le principe responsabilité (1979) interroge concrètement les enjeux éthiques de la médecine et de ses nouvelles pratiques. Plus largement, Jonas prend acte d’une modification radicale de l’essence de la technique et, en conséquence de ses modifications, il faut une éthique qui soit à la hauteur de ses enjeux. L’éthique de la responsabilité prend en compte les conséquences de l’agir technique : c’est-à-dire qu’elle porte un danger sur la vie, sur l’humanité et sur la nature.  Les problèmes qui émanent de la technique selon Jonas sont les suivants : le développement technique et scientifique conduit à une « prolifération » de l’humanité en raison de son « succès biologique », les limites des ressources (Jonas conçoit le progrès technique systématiquement comme consommateur d’énergie). Dans Le principe responsabilité, Hans Jonas s’interroge sur l’évidence de l’existence de l’humanité. Il fonde l’impératif que l’homme doit exister car il a, comme tout être vivant, une valeur absolue qui lui est inhérente. Cependant cette évidence pourrait disparaitre de nos jours : l’homme, par son énorme pouvoir qu’il a grâce a la technique moderne, a désormais les capacités de s’autodétruire. Il faudrait donc absolument interdire toute technologie qui comporte le risque de détruire l’humanité. De plus, il apparait une notion très singulière dans le discours de Jonas : c’est l’idée de responsabilité envers les générations futures. Dans le terme génération il faut entendre la possibilité de l’humanité, celle-ci doit être préservée puisqu’elle peut être mit en péril par la technique. Aujourd’hui, on voit combien il est pertinent de penser aux générations futures qu’on endette déjà ou a qui on laisse une planète saccagée. L’éthique Jonasienne est « biocentrée » : elle porte aussi bien sur l’humanité que sur la vie, l’humanité ayant une priorité axiologique.

       Le discours de Jonas peut être vu comme conservateur, mais c’est avant tout parce qu’il tient à faire contrepoids au mouvement aveugle technoscientifique. Il faut voir cette notion conservatrice comme le rétablissement de la possibilité de questionnement que le mouvement technoscientifique a tendance à abolir.

 

 

Sources :

http://fr.wikipedia.org/wiki/N%C3%A9o-luddisme#cite_note-jonesagainstechnology-1

http://www.liberation.fr/grand-angle/0101105611-rage-against-the-machines

http://fr.wikipedia.org/wiki/Le_Principe_responsabilit%C3%A9

http://www.franceculture.fr/player/reecouter?play=4493447

http://www.piecesetmaindoeuvre.com/

« Jouer à être Dieu »

 

Vers l’immortalité : prouesse du numérique

 

Image 1

Le plus grand désir de l’homme est à la fois le plus contradictoire : l’immortalité.

Seulement si l’homme est immortel, alors tout désir se perd. Car le désir se mesure sur l’échelle du temps est de la finitude de la vie.

Cependant effrayés par la mort et par une volonté d’atteindre l’éternité afin d’égaler Dieu lui‐même nous sommes poussés à vouloir

prolonger notre durée de vie mais à quel prix ?

Nos espoirs se tournent vers le numérique et la science. Une fascination extrême à en devenir peut‐être dangereuse ou alors très prometteuse.

Jean‐Michel Besnier,philosophe, professeur à la Sorbonne et auteur du livre “Demain, les posthumains ». “La fin de la nécessité de mourir supprime également la vieillesse et la souffrance donc ressentir du plaisir ne serait plus possible. On sait déjà grâce à la neuroscience que par l’interaction entre les anti-dépresseurs et la sérotonine revient à en finir avec le plaisir”

Cette envie que l’homme a à devenir immortel existe depuis toujours. En finir avec la finitude de l’homme est une quête perpétuelle que métaphysiciens, scientiques continuent à y chercher des réponses.

Mais depuis cette émergence du numérique de nouveaux espoirs se sont formés:

« Le mouvement de numérisation du monde participe à converger une quantité gigantesque d’informations en 0 et en 1. Ce qui renvoie à l’idée que tout est commensurable avec le numérique, que tout peut s’homogénéiser et s’interchanger. »

Alors cela nous laisse entendre que notre cerveau peut être numérisé, sauvegardé, nos organes remplacés par des puces éléctroniques et controlés depuis notre ordinateur…Nous pourrions mettre notre “corps” en ligne, s’échanger des capacités. Cela deviendrait aussi plus durable que notre propre corps.

Aussi l’homme se voit offrir de nouveaux outils dans le sens de la technique qui lui permettent d’étendre ses possibilités, ces capacités et d’améliorer son environnement et son quotidien.

L’ère du post‐humain et de l’homme augmenté est‐il une réalité, une possibilité ou un désir qui nous emporte et nous dépasse pour encore quelques éternités?

Voici un documentaire diffusé sur Arte le 23 octobre dernier.le très intéressant pour ouvrir ce sujet et débat.

« Un monde sans humains ? »

Film de Philippe Borrel. D’après une idée originale de Noël Mamère. Produit par Fabienne Servan-Schreiber et Estelle Mauriac. Musique originale de Piers Faccini. Le 23 octobre 2012 à 20h50 sur Arte. Durée : 96 mn)

http://www.youtube.com/watch?v=L8xP6OJVRvY&feature=player_embedded#!

« Atteindre le ciel et devenir parfait »

« perspective d’amélioration de l’espèce humaine infinie de par la technique »

 

Technoscepticisme ou Comment la pensée de Jacques Ellul continue-t-elle d’être pertinente aujourd’hui ?³

         Dans plusieurs de ses livres (et notamment la trilogie sur la technique : La Technique ou l’enjeu du siècle(1954), Le Système technicien (1977) et  Le Bluff technologique (1988)), Jacques Ellul ne cessera de dénoncer la société technicienne et de mettre en avant les dangereuses dérives du progrès technologiques. Son discours est forcément daté et peu sembler dépassé car il a été soutenu à la naissance du système informatique et avant la création d’internet. Est-il toujours pertinent aujourd’hui, là où le numérique est partout ? Ses doutes et ses craintes sont ils toujours d’actualités ?

                Dans le carde de la journée du discours de l’internet qui s’est tenu le 22 octobre 2009 à l’ENSSIB (Ecole Nationale Supérieure des Sciences de l’Information et des Bibliothèque), André Vitalis, professeur à l’Université de Bordeaux 3 et Directeur du Groupe de Recherche et d’Etudes des Médias,  a présenté les travaux de Jacques Ellul et en particulier « Le système technicien » et « Le bluff technologique ». Il a montré que même si J. Ellul est décédé en 1994, son discours visionnaire s’applique à l’internet actuel.

                « Ellul se « bonifie » avec le temps » prétend André Vitalis. Effectivement Jacques Ellul est un auteur qui a été et qui reste méconnu des Français. Il a néanmoins percé aux USA où plusieurs de ces ouvrages ont été traduits et s’y est  trouvé des héritiers. En France, Il était en contraction avec son temps car il était réticent à ce que tout le monde adulait. Ellul se « bonifie » avec le temps car nous vivons au fur et à mesure les désillusions et les dédales du progrès. De plus sa pensée est mobile, dialectique et elle prend en compte les changements.

                On retrouve les notions d’ambivalence, de risque et de relation moyen/fin d’Ellul appliquées à internet dans la discours d’A. Vitalis. Certes la technique amène des progrès mais elle amène aussi des inconvénients. D’un côté internet nous offre des choses nouvelles, très intéressantes, de l’autre il nous encombre de désagréments non négligeable. Ce qui pourrait caractériser internet c’est son apport de liberté et  son surcroit de contrôle. Comme toutes nouvelles techniques, internet confronte le prévisible et l’inattendu.  Dans les années 70, il était prévu qu’internet fasse progresser la société et notamment celle de l’information, que ce réseau informationnel qui ne cesse de se développer permettrait de poursuivre la croissance économique et de sortir de la crise. Le discours sur internet voit donc dans cette technique un moyen autonome de transformation social, et par c’est réseaux eux même, de façon presque magique, vont apporter un surplus de communication, de participation. On va pouvoir mieux soigner, mieux éduquer etc.… Mais internet amène aussi de l’imprévu : dans les années 90, des chercheurs autonomes, autrement dit hackers, se préoccupent de changer le réseau à partir de valeurs nouvelles : une valeur démocratique et un accès universel, pour tous, partout, en tout lieu. Internet devient un outil démocratique, avec une accessibilité considérable et une grande interactivité où le citoyen lambda peut intervenir. Malgré cela, le revers de la société d’information c’est le contrôle. Internet facilite la participation mais permet le piratage des données de l’utilisateur. En effet, l’utilisateur de tout produit électronique ignore qu’il laisse des traces derrière lui. Ces traces sont stockées, traitées et font l’objet d’un commerce. Selon Vitalis, la gratuité d’internet ce paie d’un prix : c’est une cartographie planétaire des identités par une puissance privée indépendamment des lois « informatiques et libertés » et des conditions de contrôle. Google fiche 27 millions de Français mais n’est pas du tout diabolisé.  De tels bénéfices sont fait par ce contrôle qu’il est possible de laisser internet gratuit pour tout le monde.

                Cependant la pensée d’Ellul a des limites. Ellul prône l’autolimitation. On ne doit pas faire tout ce qui est techniquement possible de faire, surtout si les moyens dépassent les fins. L’autolimitation, selon lui, n’existe pas dans la société occidentale et c’est des contraintes externes qui nous rappellent à l’ordre telles que le réchauffement climatique, les pollutions de toutes natures etc. L’utilisation d’une technique exige la détermination de ses limites. Cependant on ne peut pas vraiment appliquer ce principe à internet et aux technologies de l’information dit Vitalis. Pourquoi fixerait- on des limites à des techniques qui offrent de nouveaux espaces d’expressions et permettent de nouvelles relations (réseaux sociaux…) ? On peut tout de même souligner que les conséquences de son utilisation sur nos perceptions, sur nos représentations et sur les processus cognitifs sont difficilement évaluables et ne seront visibles que dans une centaine d’années.

Sources :

http://bbf.enssib.fr/consulter/bbf-2010-01-0077-006

http://www.enssib.fr/bibliotheque-numerique/document-48108