La matérialisation de la dématérialisation

Je vous invite à consulter mon travail à l’adresse suivante : http://perso.wanadoo.fr/david.gauquelin/ Voici le lien vers mon site : venez voir !

Publié dans Enjeux et usages des TIC (février-juin 2003), Non classé | Laisser un commentaire

Partie II. 2b.ReseauCitoyen.be

Cet article vient se placer en exemple de l’article , qu’il complète « Imaginez alors une ville où les habitants peuvent communiquer grâce à un réseau libre d’accès, sans obligation de contrôle et de gestion par un organe centralisateur, sans restriction géographique ni zone d’exclusion, sans frais d’usage (mis à part l’électricité), sans abonnement… »

ReseauCitoyen est en train de prouver que ce rêve peut devenir réalité

Il s’agit là d’un exemple de réseau émergé grâce aux outils de co-publication. Il s’est développé sous la forme d’un wiki. C’est une catégorie de site web où, là aussi, tout le monde peut contribuer au contenu (pas besoin de connaissances dans le domaine de la publication sur le web) Il est autogéré et ce réseau intègre désormais plus de 470 pages reliées (2415 liens) – août 2002. Ceci prouve qu’il s’agit d’un réseau dynamique puisque son contenu évolue et s’enrichit de jour en jour, et que ces utilisateurs ont réellement su s’approprier l’outil en fonction de leurs besoins et leurs usages.

Quel est le but de Reseaucitoyen? A la base, ce réseau de communication belge est né d’un débat sur les questions d’informatique et des TIC (été 2000), et depuis, Bruxelles est devenu un lieu d’expérimentations sur les technologies et les réseaux sans fil. Ainsi le site permet de suivre cette actualité, l’état d’avancement de ces expériences et d’y participer, et s’inscrit comme une encyclopédie de savoir partagé. Chaque membre connecté au réseau s’y relie de manière « précaire », càd. gratuitement et librement, grâce à un matériel peu coûteux (PC récupérés et bricolés et antennes WI-FI faites maison – le mode d’emploi est disponible sur le site!) On assiste alors au déploiement d’un réseau parallèle permettant une liberté totale, une indépendance face aux systèmes et structures déjà existants (en plus ça a l’air de marcher mieux)

Ainsi les premiers acteurs de ce réseau, on peut s’en douter, sont des techniciens et des informaticiens, puis leurs copains et leur entourage intéressés, puis des « utilisateurs avancés » et les curieux. Il s’agit vraiment de convaincre le public d’agir et de penser par lui-même pour qu’il se greffe à ce réseau « invisible ». Les motivations des participants sont diverses et les degrès d’implication (et donc de participation) sont très variés. L’évolution du réseau et l’implication de chacun se jouent selon les facteurs suivants: motivation/compétences/participation/responsabilité. Ainsi, une nouvelle vague de participants se greffe au noyau de base; il s’agit de pédagogues, de graphistes, de documentalistes, d’acheteurs, d’acteurs sociaux,etc. Ils amènent de nouvelles pistes de recherche pour les expérimentations.

Les résultats de ce réseau commencent à être visibles: des « records » en termes de technologies et de techniques de connexion sans fil (distances, coût, qualité…). Il s’agit à présent pour eux de les utiliser et de les développer pour le bienfait de la population locale, dans des applications municipales, telles que la transmission rapide de dossiers de patients d’une unité à l’autre d’un hôpital, ou encore de relier les bâtiments d’un même campus, ou groupe scolaire, entre eux. L’objectif ultime étant de réduire la fameuse fracture numérique en donnant accès à des outils d’apprentissage et d’échange d’informations à de nombreux oubliés des TIC.

Pour les plus curieux : ReseauCitoyen.be

Publié dans Enjeux et usages des TIC (février-juin 2003), Individus et réseaux | Laisser un commentaire

Partie II. 1.Les pages perso et le phénomène des weblogs

Comme nous avons pu le noter en première partie, la nature même d’Internet permet à chaque connecté de consulter les infos du réseau mais également de contribuer au contenu.
Le mouvement de création de pages personnelles n’est pas nouveau et existe depuis les débuts d’Internet. En effet, des chercheurs (par exemple ), puis par la suite des personnes plus variées (par exemple cette page perso sur le jardin ) se sont saisis du web comme d’un mode d’expression. Le nombre toujours croissant de créations de pages perso a mené les fournisseurs d’accès et les hébergeurs à proposer des outils pour faciliter la création, la publication et la gestion des sites perso. Mais ces types d’outils se sont avérés très limités et souvent difficiles d’utilisation. Il fallait apprendre un minimum des connaissances du webmaster pour publier sur le web: logiciel de mise en page, outil de publication, langage HTML, gestion du « online » et « offline ») Sans compter l’ inconvénient supplémentaire d’organisation des archives (contenus à publier ou publiés) et il s’agit d’une tâche assez colossale.

A présent, il existe des outils qui évitent à l’ internaute toute cette démarche d’apprentissage. Il n’a désormais besoin que d’un navigateur et de ses codes d’accès, grâce aux WEBLOGS (ou Blogues) – nous verrons ensuite, dans un article suivant les usages de la co-publication et des outils tels que Wiki ou Spip.

Qu’est-ce qu’un weblog? C’est avant tout une page web personnelle et évolutive (et non pas uniquement un outil de publication) qui se présente comme une sorte de journal mis à jour régulièrement. On peut y trouver des infos de toutes sortes, sous forme de courts messages, ou articles, anté-chronodatés, et dont le contenu et la forme très libres restent à l’entière discrétion des auteurs. Etymologiquement, le weblog vient de « to log » en anglais, qui veut dire « se connecter », mais aussi « enregistrer une suite d’évènements, garder une trace au fur et à mesure ». Une traduction en français de « weblog » est « joueb » , une contraction de « journal » et « web » (elle ne fait toutefois pas l’unanimité – on peut dire aussi que ça sonne moins bien…) On parle de tout sur les weblogs: de sa vie, des sites que l’on découvre, de musique, de cuisine, de l’actualité, de ses héros de dessins animés… Chaque article peut être rubriqué, modifié, supprimé par son auteur après publication. Un système de commentaires permet d’apporter des compléments d’informations ou des réactions sur chaques articles. Il s’agit vraiment d’un usage simple. Il n’ y a plus à connaitre le HTML, l’ utilisation est aussi facile que d’envoyer des mails via Yahoo, Caramail ou autres. Pour créer son weblog, à peine 10 minutes sont nécessaires. Il existe pour cela deux grandes solutions gratuites d’édition et d’hébergement web pour son blog. On peut utiliser une application web qui permet alors d’écrire son blog depuis n’importe quel ordinateur directement dans le navigateur (càd. un travail en connexion directement), un peu à la manière d’écriture de mails depuis Yahoo ou Caramail. L’autre solution consiste, cette fois-ci, à télécharger un programme ( un « client ») sur son ordinateur (au niveau des mails, cela s’apparente plutôt à Outlook par exemple)

Voici quelques exemples de weblogs:Gloubi-Boulga, une méchante recette, une vie de tatou ou la vie Johan à Paris, mon carnet par quelqu’un de 58 ans, et plein d’autres encore surl’annuaire des blogs

Pourquoi avoir un weblog? « Parce que vous avez des choses à dire, parce que vous voulez avoir un petit coin à vous sur le web, parce que c’est convivial (on rencontre plein de gens), pour plein d’autres bonnes raisons » (http://weblogfrance.manilasites.com) Les motivations sont très diverses, mais la motivation commune à tous les bloggeurs est le plaisir de communiquer simplement et efficacement sur des réseaux de personnes plus ou moins grands, dont ils sont l’origine. Ils existent pour le plaisir d’écrire et de partager, pour raconter des histoires aux autres, apprendre et restituer, enclencher des conversations qui n’auraient pu être tenues ailleurs, partager un point de vue, s’amuser aussi avec un média d’expression très libre et très humain, se faire connaitre (par réputation) au fil du temps et des discussions. Les gens lisent les weblogs, peut-être parce qu’ils y croisent des opinions « vraies » et un ton différent que celui donné par la presse, par voyeurisme aussi peut-être (?) , pour l’accessibilité et la disponibilité des auteurs de blogs. Les usages les plus fréquents sont les blogs d’actualité et d’opinion, les journaux intimes, les carnets d’étudiants et de chercheurs. Mais certains les utilisent pour produire un journal de famille ou organiser un mariage, d’autres pour tout autre chose. Par exemple, BryanBell.com est le weblog d’un graphiste qui nous informe au jour le jour de ses dernières créations (ce graphiste est très connu dans la Blogosphère pour avoir réalisé de nombreux habillages de weblogs); Dive Into Mark est le weblog de Mark Pilgrim, développeur web et technophile passionné, sur lequel il nous informe de l’évolution de web, des langages, etc. Son weblog est incontournable pour tous ceux qui se soucient d’ergonomie sur le web. (source: )

Il existe à présent plus de 50000 weblogs référencés, ce qui prouve bien le succés qu’ils rencontrent, dû notamment à leur simplicité de lecture, comme d’utilisation, d’installation et leur gratuité. Les blogs sont un type de publication personnelle qui se révèle fortement « communautaire » et voit se développer des communautés d’intérêts et/ou de pratiques dans un souci de partage d’infos et de sources d’infos. C’est là une des caractéristiques des blogs. Parce que ces outils sont suffisamment souples pour gérer facilement la mise en ligne de photos, d’infos personnelles, les expatriés vivant au Japon sont les premiers utilisateurs de blogs au monde; ils s’en servent comme de nouvelles pages perso faciles à administrer qui leur permettent de rester en contact avec leurs proches à l’autre bout du monde (http://www.japanmediareview.com/japan/internet/1048789636.php et ) Il est d’ailleurs étonnant que les Japonais, réputés pour être très friands des dernières technologies en termes de communication, se convertissent à la pratique du weblog seulement depuis peu.

Les usages sont, comme nous l’avons vu, très variés. Il existe en ce moment différentes expérimentations des blogs notamment dans les Espaces Publics Numériques. C’est le cas par exemple au Plessis-Trévise (94) où a été créé un blog d’expression des usagers de l’EPN Jacques Duhamel, durant la Fête de l’Internet 2003. Un autre exemple est l’Espace Culture Multimédia Ars Longa (Paris 11è) qui propose des rencontres autour des blogs d’expression depuis 2002, . Il y a aussi des blogs qui n’intéressent que leurs administrateurs (et qui par conséquent ne répondent pas à tous les critères de convivialité et de partage ou rencontres évoqués ci-avant – mais peut importe ils sont utiles quand même), c’est le cas pour le Normandie Weblog, le journal de la reconstruction du site NormandieWeb.org; ce blog est tenu par 3 ou 4 personnes qui sont les seules à s’y connecter parce qu’elles sont les seules apparemment intéressées par le projet. Quoi qu’il en soit, il s’agit d’une très bonne illustration du fait qu’un weblog peut être un très bon outil de travail et de gestion de projet. ()

En effet, un autre usage dérivé est l’usage des weblogs en entreprises. Dans le domaine professionnel, il s’agit d’ un outil simple, bon marché et réactif, de communication interne comme externe. (cf. Partie I , les chats professionnels, l’avantage que possède le blog par rapport à ça est l’archivage) Dans chaque entreprise ou service d’entreprise affectée d’un weblog, celui-ci permet d’informer au jour le jour de l’évolution des projets en cours, des changements de personnels, des dates de réunions, avec archivage des comptes-rendus, etc. Dans l’entreprise Userland Software, spécialisée dans le développement de logiciels, chaque employé possède son blog. Rédigés au jour le jour, ces weblogs constituent également une façon naturelle de créer une mémoire de l’entreprise.

Avant de conclure cet article, il est important de s’intéresser à l’impact des weblogs sur le plan économique et financier. En effet, le phénomène des blogs, par son ampleur et parce qu’il s’agit de vastes contenus disparates, pourrait à lui seul constituer une nouvelle forme d’économie. La popularité des weblogs en a alerté plus d’un et entraine ainsi le développement d’activités commerciales parallèles. Ce « business » d’un nouveau genre implique souvent de faibles montants et semble n’opérer qu’à petite échelle (à l’échelle individuelle). Par exemple, des sociétés proposent aux auteurs de mettre des fichiers audio sur leur blog pour 3$ /mois ou sinon de la publicité textuelle pour 10$/mois. Il existe également des hébergements non gratuits (5$/mois). D’autres encore ont basé leurs profits sur le design de blogs (20 à 50$). On assiste alors à une « nanoéconomie » qui se caractérise souvent par des relations individuelles et directes, entre internautes et bloggeurs ou entre bloggeurs, et qui par nature échappe à tout contrôle ou taxation. Bien qu’il s’agisse de montants faibles, dans sa globalité le « chiffre d’affaire » de ce business pourrait ne pas être négligeable dans les années à venir. Si ce type de commerce se généralise et prend plus d’ampleur, un modèle économique global et viable pourrait bien voir le jour dans la blogosphère. ()

La création personnelle sur Internet est un usage, on l’a vu, très très fréquent et ce depuis pratiquement les débuts d’Internet. La naissance du weblog est une véritable évolution dans cette catégorie de production et le phénomène est en expansion et s’avére un des usages les plus répandus avec le courrier électronique, ce qui entraine de nouvelles sortes de business, de nouveaux marchés. La dynamique d’appropriation du réseau passe par ce type d’iniatives, mais il en existe d’autres, souvent à caractère plus associatif et à échelle collective, grâce également à l’adaptation des outils de publications pour la production et l’ initiative personnelle (voir )

Publié dans Enjeux et usages des TIC (février-juin 2003), Individus et réseaux | Laisser un commentaire

2. Plan de l’étude

Plan:

1. La communication et Internet

2. L’individu face aux réseaux

3. Décalages entre enjeux et usages: observation des Intranets d’entreprises, l’usage du Usenet puis des forums, l’usage du chat en milieu professionnel

Partie II. APPROPRIATION DES RESEAUX

1. La dynamique d’appropriation passe par l’édition personnelle ()

2. Les outils de publication et l’émergence de réseaux associatifs grand public ( puis )

3. Les détournements du réseau et le profit que celui-ci confère ()

1. Règlementation, sécurité

2. L’économie

3. L’acces et le travail d’apprentissage

Publié dans Enjeux et usages des TIC (février-juin 2003), Individus et réseaux | Laisser un commentaire

Partie I . Etats des lieux – constats

En guise d’entrée dans le thème de travail, nous allons établir un bref récapitulatif de ce qu’est la communication, à l’échelle individuelle mais aussi collective, afin d’observer les effets des nouvelles TIC sur la perception qu’a l’individu d’Internet et des réseaux. Ensuite nous observerons les dynamiques d’appropriation de ces TIC (Partie II) avant de nous intéresser aux diverses limites de ces mouvements (Partie III) Tout d’abord, à l’échelle individuelle, la communication se définit comme étant le rapport au monde et à autrui. Elle implique ainsi une logique de liens entre le RÉCEPTEUR et l’EMETTEUR grâce au MESSAGE. La technique est l’élément visible de la communication.

Avec l’arrivée des TIC, l’échange entre les individus semble simplifié. En effet, elles ne font que concrétiser une fois de plus le profond mouvement d’individualisation de notre société, l’émancipation de l’ individu, sa prise de liberté. Ainsi les nouvelles techniques de communication plaisent, séduisent, car elles évoquent l’idée d’ouverture (au monde, en plus), l’attirance pour la modernité, la recherche de nouveaux échanges sociaux, mais aussi le refus de l’omniprésence des médias de masse – en effet, à grande échelle, on rencontre une certaine méfiance de la communication venue « d’en haut », d’un émetteur flou, invisible, on pense à la manipulation, à l’influence, même s’il ne faut toutefois pas négliger la distance critique du récepteur (ce n’est pas parce que je regarde une émission de variétés sur TF1 le samedi soir que j’ y adhère forcément) En résumé, il s’agit dans l’ensemble de modifier les relations sociales. Le succès d’Internet provient surtout des valeurs qui lui sont rattachées : autonomie (liberté), maîtrise (capacité à modifier les notions d’espace et de temps) et vitesse. L’image que le grand public a d’Internet est directement lié à ces valeurs « utopiques », par exemple on dit « surfer sur Internet » ou encore « naviguer sur le net ». On est passé à un média individuel et intéractif (qui donc privilégie et valorise l’individu en tant que tel) ; mais l’omniprésence de l’ordinateur changerait-il radicalement nos rapports humains et sociaux? En réalité, l’innovation technique ne modifie pas le statut général de notre société, car l’essentiel dans un système de communication n’est pas la technique. Bien entendu, l’outil informatique permet de répondre à des besoins en termes de communication mais il n’en est en aucun cas le point de départ. Il vient s’y greffer et engendre de nouveaux comportements, permet des initiatives personnelles, etc. ; mais il est nécessaire de rappeler que ces attitudes sont antérieures au numérique ( voir Partie II) . Ce dernier permet une concrétisation plus rapide (simple, accessible, rapide en vitesse) et amplifie les mouvements. Ainsi dans notre société, l’individualisation, liée à nos modes de vie urbains, conduit à une dissolution par exemple d’un certain nombre de lieux du collectif mais en contrepartie fait naitre de nouveaux « sites » ( càd. lieux virtuels), a priori néfastes au collectif puisque chacun est physiquement seul face à son ordinateur, mais où il se produit de nombreux échanges. De là naissent les communautés et les réseaux. L’usage le plus explicatif et le plus parlant sont les jeux en réseau par exemple. C’est très simple, il s’agit d’une forme de communication (par le divertissement, mais cela va souvent plus loin et donne lieu à la rencontre sur des forums) entre deux ou plusieurs individus interconnectés via leur ordinateur, soit en réseau local, soit en réseau plus global (via Internet).

Qu’est-ce qu’un réseau? Selon Le Petit Robert, il s’agit de l’ ensemble de lignes, de bandes, etc. entrecroisées plus ou moins régulièrement (toile d’araignée), c’est aussi l’ ensemble de lignes, de voies de communication, des conducteurs électriques, des canalisations, etc. qui desservent une même unité géographique et dépendent de la même compagnie. (ex: réseau d’assainissement, de distribution des eaux, réseau ferroviaire, réseau urbain, réseau routier, réseau câblé…) en somme trois types de réseaux à infrastructure « lourde » : réseau de transport, réseau d’énergie et réseau de communication (cf. Pierre Musso dans l’introduction de « Les territoires aménagés par les réseaux »). Enfin un réseau c’est aussi (et surtout pour notre étude) l’ ensemble d’ordinateurs et de terminaux interconnectés pour échanger des infos numériques. C’est sur cette définition du réseau que nous allons nous concentrer pour cette étude: le réseau de communication via les TIC. Par essence, Internet est un entrelacs de « tuyaux » reliés entre eux et qui sert principalement à convoyer de l’information d’une extrêmité à l’autre de ce réseau tentaculaire. Internet regroupe un ensemble de services (le Web, Usenet, FTP, etc.) qui sont liés à des protocoles techniques de communication. Parmi ces différents services, le web est aujourd’hui le plus connu par le grand public et c’est sur lui que se concentrent les enjeux. En effet, il propose des contenus variés qui sont accessibles à tous, à tout moment. Ainsi, l’infrastucture d’Internet, toile planétaire (World Wide Web), est un réseau en soi et fait naître une multiplicité de réseaux interconnectés entre eux, grâce à cette unité de base. Chaque personne connectée est à la fois, émetteur et récepteur; il peut alors consulter le contenu du web, mais également contribuer à sa production.

L’image d’Internet est en train d’évoluer depuis quelques années. Il ne s’agit plus d’un connecté devant un PC, il n’y a plus besoin d’être informaticien ou ingénieur pour se connecter et créer sur le web. Il s’agit à présent d’un service moins « élitiste » qui tend à se démocratiser, à s’ouvrir à un ensemble plus vaste et varié d’utilisateurs. Ces utilisateurs, qui n’ont d’ailleurs plus forcément besoin de posséder une machine à la maison, mais peuvent accéder à des terminaux de manière moins coûteuse dans des lieux publics (cybercafés, stations de métro, bornes situées dans les espaces publiques, à l’exemple des P.A.P.I. à Brest). Ainsi Internet et les nouvelles technologies répondent mieux aux besoins et s’adaptent mieux aux envies des individus et on se rend alors compte qu’il y a une véritable dynamique d’appropriation des TIC et du réseau par les utilisateurs « grand public ».

Cette appropriation, ou dans d’autres cas la non-appropriation, fait apparaitre un certain décalage entre les enjeux (scénarios prévus par les administrateurs ou lors de la conception) et les usages réels. On peut dans un premier temps s’interroger sur ces causes de non-concordance qui aboutissent à des détournements pour le cas d’une très forte appropriation, ou à des échecs, dans le cas d’un non-succès (dans ce second cas, il est possible que le protocole aboutisse à un détournement également et non pas à un échec total càd. à l’utilisation du système à une autre fin que celle prévue initialement). Par exemple, on observe que dans certaines administrations ou entreprises, l’arrivée de l’informatique et d’Internet a été trop « brutale » et a impliqué un trop lourd bouleversement des conditions de travail, auxquelles les employés n’ont pas pu ou voulu s’adapter. Ainsi les personnes peut-être un peu perdues, ou déboussolées, ne s’en sont pas servi à « bon escient », ou de manière peu conforme aux usages prévus pour ce service. C’est par exemple le cas de certains Intranet d’entreprises qui n’ont pas eu l’usage attendu et donc l’utilité professionnelle prévue. En effet, ces outils qui facilitent les échanges professionnels entre les différents services de l’entreprise ont plutôt servi à l’échange entre les employés de discussions personnelles, accompagnées de photos de famille ou de vacances.

En revanche, il y a de réelles appropriations du réseaux à des fins professionnelles « utiles ». L’exemple le plus parlant est le cas des réseaux entre universités. Il s’agit juste ici de mettre l’accent sur cette appropriation quasi immédiate du réseau pour parvenir à travailler de manière plus efficace et plus intéressante, plus enrichissante. Il émerge de véritables réseaux autonomes entre les étudiants, qui échangent leurs opinions, travaillent ensemble sur un projet commun mais depuis des pays différents, partagent et remplissent des banques de données communes. Par exemple, 11 universités américaines ont commencé à se relier pour former le Network Earthquake Engineering Simulation (NEES), un résau d’étude des tremblements de terre. Le but est de mettre en commun les outils de simulation, les bases de données, les systèmes de mesure pour parvenir à mieux comprendre les conséquences des séismes sur les édifices (source: Sciences&Vie – dec.2002 ; ). Même si cette génération d’utilisateurs est née avec Internet, on observera dans la Partie II qu’ils ne sont pas les seuls à contribuer à cette dynamique d’appropriation « par le bas ».

Le décalage entre enjeux et usages des TIC et des réseaux se manifeste également dans l’évolution de certains protocoles, qui à la base prévus pour des usages très professionnels mutent, alors utilisés par le grand public, et inversement. C’est notamment le cas pour le Chat, qui sert au départ à des discussions éphémères entre les connectés, et qui aujourd’hui voit naitre le « chat professionnel » qui est utilisé par exemple pour des réunions entre différents sièges d’une entreprise. A l’inverse, par exemple, le Usenet, réseau informatique créé en 1979 et exploité réellement en 1981, avait comme objectif de départ de stocker des débats. En 20 ans, ce petit réseau réservé à quelques universitaires est devenu un espace de discussion de plus de 30000 forums thématiques. (les archives sont disponibles sur

A présent, nous allons observer les différentes dynamiques d’appropriation des réseaux en nous penchant sur trois exemples précis : les créations personnelles (), les réseaux associatifs ( et ) et le réseau de

Publié dans Enjeux et usages des TIC (février-juin 2003), Individus et réseaux | Laisser un commentaire

Partie II. 2a.Les outils de publication et l’émergence de réseaux associatifs grand public

Au départ, il était nécessaire pour les petits réseaux associatifs qui avaient envie de s’afficher sur le web à travers un site web de connaitre un certain nombre de notions relatives à la publication online (langage HTML, mise en page, online/offline…) Ce travail demandait un certain investissement, plusieurs de travail et de disponibilités en plus pour tenir le site à jour régulièrement. L’affaire s’avère plus compliquée encore lorsqu’il s’agit de sites publiés à plusieurs. De la même manière que sont nés les weblogs, il existe à présent des logiciels (libres) d’écriture coopérative et des outils de co-publication. En effet, avec l’arrivée du PHP (Hypertext PreProcessor), un langage script permettant de concevoir rapidement des sites web aux pages dynamiques, sont nées et se sont multipliées toutes sortes d’applications « prêtes à l’emploi », facile à prendre en main, même à plusieurs. Ces logiciels s’appellent par exemple PHPNuke, SPIP, Zope, Glasnost, Attilaphp.

Mais que sont précisément ces outils de co-publication? Quels en sont les usages? Sont-ils vraiment le point de départ d’initiatives privées, et de l’émergence de nouveaux réseaux?

Prenons le cas du SPIP. Il s’agit d’un Système de Publication pour Internet, càd. un ensemble de fichiers, installés sur une page web, qui permettent de bénéficier d’un certain nombre d’automatismes: gérer un site à plusieurs, mettre en page des articles, modifier très facilement la structure du site, sans avoir besoin de connaitre le HTML ou autres langages. Il permet ainsi de fabriquer et de tenir un site à jour, grâce à une interface très simple d’utilisation. Sa structure est souple et son principe d’édition rejoint celui d’un magazine. Il y a un (ou plusieurs) administrateur(s) et un ensemble de rédacteurs, qui publient des articles et/ou des brèves dans des rubriques et sous rubriques. Ces différentes productions peuvent être complétées par des discussions (forum-réactions aux articles) L’avantage de SPIP est qu’il s’agit d’un logiciel libre et qu’il peut être distribué gratuitement. C’est un outil très simple d’utilisation puisqu’il ne requiert aucune connaissance particulière, aussi bien pour les rédacteurs que pour les administrateurs, qui sont face à une interface web intuitive qui facilite la publication et la rédaction d’articles.

Quelques exemples de sites réalisés sous SPIP: le webzine de Uzine (), Act Up (), Le Monde Diplomatique (), Samizdat (), Da Linux French Page (), I3C (), et le notre bien sûr.

Les outils coopératifs et de co-publication permettent aux réseaux assocaitifs dynamiques et motivés de s’afficher enfin sur le web; ils sont le point d’appui de nouvelles pratiques coopératives. Les collectivités locales s’ouvrent petit à petit à la publication web. Certaines pour la facilité d’usage, l’information actualisée, d’autres y associent une pratique coopéraive d’ouverture à l’expression des associations et des habitants. Mais pour toutes, il s’agit avant tout d’expérimenter ces nouveaux usages. Les réseaux se développent parce que, comme pour le phénomène des weblogs, il s’agit pour les personnes qui les composent et les lisent, d’une envie de travailler avec d’autres, de partager, d’échanger des infos, de reproduire des expérimentations, de mettre en commun, dans une logique de réciprocité et de gratuité. les usages concernent surtout les domaines de la culture, de l’éducation ou encore de la promotion du territoire. voici quelques exemples de sites associatifs: est l’agenda culturel des habitants de la ville, est le site d’un projet éducatif (objectif de relier les réflexions, propositions et actions des groupes de travail sur les 7 quartiers concernés par le projet), ou encore , outil de promotion du territoire pour les habitants de la Vallée de l’Hérault. (on retrouve d’autres exemples sur le site de I3C) On remarque la diversité formelle que permet SPIP aux interfaces. Ces différents sites sont réalisés par des sociétés locales (ex: vernalis-interactive) mais le plus souvent, ce sont les employés municipaux, les responsables d’associations ou de clubs, les élus de la commune ou ses habitants qui s’en chargent. Au départ, la publication associative n’était pas spontanée (les gens ne connaissent pas l’outil informatique ou ne sont pas convaincus du résultat…), mais une fois qu’ils l’ont expérimentée (cela prend 10 minutes à présenter et ensuite pour apprendre les bases du logiciel), les gens l’adoptent. Le site web associatif devient alors accessible à tous, de par sa gratuité, sa facilité d’utilisation, et devient autonome. Les outils de co-publication répondent en ça très bien à un besoin et des envies des organismes et associations, et se révèlent être des accélérateurs des « micro-initiatives » prises jusqu’alors (mais de manière informelle, déstructurée, au coup par coup, irrégulièrement, car les outils étaient jusqu’à présent peu simples)

Il existe d’autres moyens de publication collective, comme par exemple le Wiki wiki web; un exemple de réseau émergé de cet outil vient compléter cet article ()

Publié dans Enjeux et usages des TIC (février-juin 2003), Individus et réseaux | Laisser un commentaire

E-Formation

Un économie en mouvement, un besoin d’adaptation, de renouvellement des connaissances. La E-formation se présente comme une bonne solution. Nous distinguons ici le cas des universités virtuelles et celui des « campus » d’entreprises. E-FORMATION

La connaissance s’est transmise sur différents supports plus ou moins efficaces. Longtemps réduite au livres, elle s’est numérisée, se donnant un caractère nomade et intemporel.
Or ces dernières années s’est développé l’e-formation, ou apprentissage à distance grâce à ce nouveau type de supports. Cela pose de nouvelles questions d’éthique, de financement, de qualité des formations… Une véritable économie s’est mise en place. Or l’apprentissage est une chasse gardée, un terrain dangereux, qui selon la façon dont il est organisé peut avoir des résultats bénéfiques autant que désastreux.
Les deux domaines principaux sont aujourd’hui les universités virtuelles et les campus d’entreprise. Bien qu’ils aient beaucoup de point communs, nous les aborderons distinctement afin de mieux comprendre à quels besoins ils répondent.

PARTIE I
E-FORMATION: LES UNIVERSITES

A)les raisons de l’apprentissage virtuel

B)l’Open University

C)MBA Virtuel

PARTIE II
E-FORMATION: LES ENTREPRISES APPRENANTES

1)Fomation réinvetée: le marché et ses acteurs

a)américains en tête de course

b)l’Europe, la France

c)les points importants d’une stratégie de e-formation.

d)principaux entrants de ce marché

2)Une entreprise qui change

a)de nouvelles frontières

b)avantage deu web based training

PARTIE 1

E-FORMATION : LES UNIVERSITES

Qui sont les étudiants ? Que veulent-ils ? Que leur offre-t-on ?
D’un aspect encore assez scolaire, ces formations sont très attractives : elles délivrent des diplômes prestigieux à leurs étudiants à distance . Bien que tout à fait louable, ces formations ont des limites, souvent relationnelles plus que techniques. Ainsi, elles ne sont pas adaptées à tous les cas.

A) Les raisons de l’apprentissage virtuel

Le livre, les cassettes audios ou vidéos ne sont plus l’unique moyen de travailler à distance . Les ventes de ces deux dernières ont d’ailleurs considérablement chutées au cours de ces dernières années. L’impacte du numérique sur ces deux supports est ravageur : il s’agit de conserver les contenus en s’affranchissant des supports physiques et des équipements qui permettent de les consulter .
Dans ce nouveau monde, tout est permis, surtout d’apprendre ou de travailler à distance, car telle est la vraie valeur ajoutée du web.

L’un des précurseurs du travail à distance en France est le CNED. Permettant déjà à des étudiant de passer de suivre des cours sur polycopiés, faire des examens… Les résultats du CNED sont satisfaisant à en lire les sondages sur leur site www.cned.fr. Cet organisme s’adresse très principalement aux étudiants de lycée ou collège .
C’est un peu la façon dont on vous présentait l’apprentissage « avant ».

Mais aujourd’hui, de plus en plus d’individus sont demandeurs en RE-formation, c’est à dire, non pas en sortie de bac ou de BEPC, mais après 20 ans d’expérience professionnelle . Ces personnes soit n’ont pas eu le temps de s’adapter, soit veulent améliorer leur potentiel, soit souhaitent se réorienter, changer de carrière .

Aux Etats-Unis, la plupart de universités ont une jumelle en ligne. On peut accéder à tout type d’information, les cours des professeurs sont disponibles… Idéalement, on pourrait penser que l’on peut aller à Harvard sans y mettre les pieds. Les réalité est différente. Le limites de débits et d’investissement font qu’Harvard reste une université palpable.

B) Exemple : l’Open University

Prise fréquement comme exemple dans ce cadre précis d’apprentissage, l’Open University (www.open.ac.uk ) n’est autre que la plus grosse université anglaise avec à son bord plus de 200 000 étudiants. Elle aussi a démarrée comme le CNED par correspondance. Elle met en avant l’assistance des étudiants et la personnalisation de la formation pour chaque étudiant.
L’Open University gagne de plus en plus d’étudiant de profiles très différents, cherchant à changer de voie, se reformer. Ils font du conseil en orientation afin de permettre à leurs étudiants de rebondir.
Ils permettent différents types d’interactions avec le professeur (tchat, mail, mailing list), avec des bibliothèques, de professionnels de certains domaines (qui parfois peuvent devenir de futurs employeurs) … mais surtout (ce qui bien souvent est absent des programmes français) ils encouragent le travail en équipe, à distance, préparant leurs étudiants au Télétravail, à faire avancer des projets sans avoir de réels contacts avec des partenaires.

C) Un MBA Virtuel

Les diplômes : ils sont une référence pour les employeurs, et parfois une question d’honneurs pour les étudiants .
Le plus en vogue en ce moment est le Master of Business Administration. Standard de Hautes Etudes aux Etats Unis, il prend une ampleur considérable dans la tête des employeurs français qui y voient une preuve de capacité de managment, de prise de décisions rapides et efficace.
Ainsi, tout comme le master s’est développé dans les Ecoles, il s’est développé sur le web. De nombreuses universités sont officiellement disposées à vous délivrer ce diplôme.
Sur le site officiel, MBA.com, on trouve un certain nombre de données concernant les intérêts et inconvénients de l’apprentissage sur le web :
Selon eux, les nouvelles technologies ouvrent des portes aux professeurs comme aux étudiants : les universités peuvent utiliser des ressources qui résident ailleurs, à l’autre bout du monde . La vidéo-conférence, l’ e-mail, ou autre outils interactif sont autant de méthodes utilisées différemment selon les établissements, d’où la nécessité de bien analyser ses propres besoins, ses capacités d’apprentissage, ses qualités visuelles ou d’écoutes pour trouver l’université la mieux adaptée .

Avantages:
L’apprentissage à distance entraîne une rupture dans la vie professionnelle. C’est une excellente opportunité pour relancer une carrière ou l’améliorer si l’on a un besoin spécifique ( maintenir des licences professionnelles, remettre à jour un diplôme…).
Tout d’abord, cela requiert moins de temps que les autres types de formation.
Il y a plus de flexibilité géographique.
On est exposé à des étudiants plus divers, amené à travailler avec des équipes plus disparates.
Le travail scolaire peut être organisé autour du temps personnel et professionnel, ce qui s’avère une grande qualité pour des diplômes tels que le MBA qui gagnent à être à temps partiel. Mais ce peut être un réel désavantage pour des étudiant que en temps normal tireraient profit de plus de structure.

D) Les limites :

L’apprentissage à distance n’est clairement pas fait pour tout le monde , parce que cela offre un contacte vraiment limité avec les autres étudiants ou la faculté. D’autre part, les opportunités de rencontres sont réduites, ce qui, pour de individus souhaitant changer de carrière limite les reconversions de bouches à oreilles.
Les conventionnels services de placement des étudiants dans des entreprises après des masters sont très limités quand ils ne sont pas inexistants.
Peut de cours à distance sont finalement disponibles parce que les technologies et les formes d’apprentissage sont nouvelles.
Enfin, les aides financières du gouvernement accordées aux étudiants pour ce type d’études sont encore peut claires et peut fréquentes .

Les éléments décrits par le site mba.com sont finalement des élément que l’on peut attacher à n’importe quel type d’apprentissage à distance. Il s’agit de bien savoir ce que l’on en attend et d’avoir un personnalité adaptée à l’apprentissage « solo » .

Nous avons vu ici un panel de type de formations qui comportent avantage et inconvénients. La vraie frustration est de ne pas sentir la moindre modification dans le type de contenu. La plupart de temps, ce sont des numérisations de livres, textes de professeurs, mais finalement très rarement des animations, des jeux d’expérimentation.
On se sent comme au temps de Gutemberg. Il a fallu des centaines d’années avant qu’apparaisse le premier livre intelligent d’apprentissage. Aujourd’hui le problème semble être le même. Il ne s’agit pas seulement de problèmes de débits (qui sont bien évidemment un frein) mais également d’un manque de conviction. Conviction qu’un apprentissage, un transmission de savoir bien traitée peut réellement générer de très bon résultats.
Les CD-roms de langue ont connus un explosion considérable d’abord parce que les investissement étaient élevés, et ensuite parce qu’il offraient un interactivité instantanée.

PARTIE 2 :

E-FORMATION : LES ENTREPRISE

De plus en plus d’entreprise développent la e-formation. Elles veulent former elles même leur employés. Cela fait curieusement penser au cités vertes autour de gros sites industriels du siècle dernier. Serait-ce un nouvelle façon de s’accaparer ses employés ? C’est la question que pose Jacques Perriault, professeur de sciences de l’information et de la communication à l’université Paris-X, « L’éclatement de la bulle Internet, les nombreux échecs dans la mise en place d’expériences de « e-learning », ont renforcé les rangs de ceux qui n’ont vu dans la « digitalisation des savoirs » qu’une utopie sans lendemains. A cette aune, la crise actuelle m’apparaît, que comme une tentative malheureuse du capitalisme pour s’emparer de la sphère du savoir. »
D’une autre façon, on peut y voir une volonté de la part des employeurs d’avoir de salariés polyvalents capables de prendre des décisions en fonction d’indicateurs plus nombreux, leur permettant aussi sans doute de se sentir plus impliqués dans l’avancée des projets.
Ces entreprises de plusieurs dizaines de milliers d’employés cherchent des moyens de formation masse les moins coûteux possibles. Sans compter que pour des entreprise qui cherchent à réduire de plus en plus leur frais et qui veulent multiplier les cas de télétravail, cette solution est des plus idéales.

1) FORMATION REINVENTEE : LE MARCHE ET SES ACTEURS

A) Les américains en tête de course

Depuis toujours, le marché de la formation aux Etats-Unis fait preuve d’un dynamisme important mais récemment, toutes les intentions se sont focalisées sur les technologies de l’internet, considérée comme une source d’économie et d’efficacité. Les expérience de Web Based Training, de classes virtuelles se multiplient, que cela soit dans le cadre de l’enseignement supérieur ou dans celui de l’entreprise. Les logiciels et les contenus de ces formations émergent de toutes part.

De nouveaux acteurs, comme les chaînes de télévision, les maisons d’éditions, les constructeurs informatiques, les acteurs de télécommunications…s’y intéresse et leur participation risque de redistribuer rapidement les cartes du marché de la formation, qu’elle soit professionnelle, universitaire ou grand public. Le Gartner Group prévoit que si 25% de la formation est aujourd’hui diffusé grâce à la technologie, et 75% grâce à la formation en salle , les parts de chacun devraient être égales prochainement. Ceci, car ce marché est en croissance malgré les évènement de 2001.

B) L’Europe, la France

Equipements, décollage du Web et du e-commerce, passage aux 35 heures, marché de la formation structurée et dynamique, compétence multimédias, tous les facteurs de succès sont réunis pour assurer le décollage de la e-formation en France.

Encore en retard sur le plan purement technologique, la France à cependant une carte importante à jouer sur le plan des programmes et des contenus où son expertise est internationalement reconnue. Le réveil des acteurs traditionnels devrait accélérer le mouvement, d’autant que de nouveaux entrant frappent à la porte de ce nouveau marché.

En observant les essais et erreurs commises outre Atlantique, les français ont économisé de l’énergie, proposant des base de données de qualité.

C) Les points important d’une stratégie de e-formation

Avant tout, compte tenu des investissement lourds que représentent les programmes et infrastructures d’e-fomation, les partenariats semblent être la clé des ressources financières que cela nécessite. IBM vient de renouveler son accord avec les ministère de l’éducation nationale (France) : mise à disposition gratuite d’équipement informatique et de logiciels, et aide à la réalisation de projets.
Ces partenariats permettent pour les entreprises qui se penche sur le sujet :
De ne pas se dispercer en dehors de son corp de métier ;
De mutualiser les investissements ;
De conduire des projest d’envergure.

Un autre point clé est de considérer la e-formation comme un produit avec son mode de production et de diffusion. Or sa production, son développement est de loin la partie la plus coûteuse de sa mise en place. Il faut donc très clairement considérer ce process comme une industrialisation des ressources multimédias si l’on veut s’y retrouver financièrement. Peut-être est-ce là une place que pourraient occuper des designers…
Pour cela, il faut créer des sources diverses (photos, textes, vidéos, son…), et se servir de supports multiples (PDA, ordinateurs, téléphones mobiles, console de jeux, DVD portable, E-book…).
Une ressource multimédia, si elle est bien concue ne doit pas dépendante du support pour bien fonctionner et jouer parfaitement son rôle pédagogique. Cela permet de procéder à une « extrusion » de la connaissance qui se découpe à l’infini.
Toujours dans ce soucis de rentabilité, ces ressources sont pensées pour un public aussi large que possible, avec ses outils de personnalisation. Le niveau doit également pourvoir être variable d’une personne à une autre. De même, son élaboration dans différente langue est une clé de son succès.

D) Les principaux entrants de ce marché

Les SSII : elles accompagnent leur clients dans la mise en place de nouvelles technologies. Elles sont donc bien placées pour déployer avec succès de nouveaux instruments liés à la connaissance.
Les éditeurs de logiciels : déjà bien installés dans les entreprises, il en profitent pour faire de nouvelles offres.
Groupe de presse et d’édition : ils considèrent que cela fait parti de leur métier.
Sociétés d’intérim : elles doivent fournir la bonne compétence au bon moment, pour cela, elles proposent de nouveaux services permettant l’adéquation entre le profil recherché et le profil proposé.
Opérateurs télécom : réseau, téléphones mobiles, haut débit, ils sont au cœur. France Télécom avec Wanadoo Education et France Télécom Education est désormais acteur du marché.
Cabinets de conseil et intégrateurs : il n’y a qu’un pas du conseil à la formation et les cabinets ne s’en privent pas.
Editeurs Multimédias : acteurs depuis un dizaine d’année, ils franchissent le pas en mettant leur données sur internet.
Distributeurs : ils s’interrogent sur ce marché sous un angle « grand publique ». La Fnac propose déjà des formations pour les clients qui veulent se familiariser avec les ordinateurs qu’elle vend.
Chaînes de télévisions : d’une manière plus large, on peut dire que des émissions comme E=M6 sont le reflet d’une demande et ont une efficacité percutante. Arte a mis en place deux sites, BPS qui met des documents vidéos à disposition des écoles et Coté Prof qui proposent aux documentalistes ou professeurs des documents audiovisuels. Malheureusement, ces sites avant-gardistes n’ont pas eu le succès escompté. Les start up : pour certain, la e-formation constitue un nouvel Eldorado.
Les Géants : Microsoft, Oracle, Amazon, Sun Microsystem. Ils sont déjà au cœur des contenus et sont au contact des utilisateurs finaux.

E) Un outil marketing :

Lors de la vente d’un logiciel, la loi française exige une documentation. De plus en plus, on voit cette documentation disponible en ligne. Les clients peuvent être formés à distance. C’est le cas pour Schneider Electrique qui forme ainsi tous ses clients dans le monde ou remet à jours leur connaissance. Ainsi, le design de la connaissance est partie intégrante du design de l’objet.
Wanadoo a par exemple accompagné ses ventes d’abonnement d’un service d’initiation aux techniques de l’internet. Il est nommé NetExpress.
Il en est de même pour les sites de courtage « e-brokers », qui, en développant des cours sur le web, font concurrence au organisme de formation professionnels.

2) UNE ENTREPRISE QUI CHANGE

L’introduction de nouvelles technologies ébranle fortement les murs étanches qui séparent parfois certains secteurs ou certaines habitudes de l’entreprise. Les technologies vont changer ce métier en profondeur comme elle ont bouleversé bien d’autre processus et autres fonctions de l’entreprise.

A) De nouvelles frontières :

Il est certain que le modèle pédagogique que nous vivons est en train de changer vers quelque chose de nouveau : la juste formation au bon moment pour chacun, selon son niveau et son mode d’apprentissage préféré. Le Web Based Training (formation à distance via les réseaux internet et intranet) a un rôle prédominant à jouer.
Malheureusement, il y de fortes réticences, pas tellement de la part des clients ou des utilisateurs finaux mais de la part des responsables de formation eux-même qui héritent d’une culture de la formation liée à des supports papiers ou à des relations humaines professeurs étudiants. Pour mettre en place de tels projets, les entreprises en donne maintenant la responsabilité à d’autres corps de métiers.
Un lourd problème est lié à l’investissement : en effet, c’est un investissement largement profitable, mais à long terme. Et la disponibilité de fond pour ce type de développement est faible. Ainsi, pour qu’un projet soit mené à bien, compte tenu de l’ampleur du travail que cela représente, il faut que la responsabilité de sa mise en place soit plus en amont dans l’entreprise.
Cette exigence est évidente compte tenu des fonds investis : chez Renault par exemple, tout projet de e-formation est encouragé si il est prouvé au préalable que le retour sur investissement est effectif en moins d’un an.

En fait, la recherche de rentabilité ne doit pas seulement prendre en compte la formation au sens stricte, mais doit considérer l’entreprise comme structure apprenante, dans laquelle tout est impliqué. La seule analyse économique est sans réelle logique dans ce cas.

B) Avantage du Web Based Training

Depuis un dizaine d’année, les logiciels ou CD-Rom ont trouvé leur place. Ils ont un marché.
Toutefois, les technologies en ligne on éclairé d’un coup le paysage de la formation en lui redonnant une dimension sociale absente des dispositifs non connectés. L’avenir se situe sans doute dans les réseaux intranets ouverts vers l’extérieurs. Ainsi, autonomie et personnalisation se marrient bien avec travail collectif, partage d’idées.

CONCLUSION

L’impact des nouvelles technologies sur la formation est donc profond et durable. Les grandes entreprises mènent une veille technologique intense s’appuyant sur toutes les ressources de l’information et de la communication.
Il est d’abord essentiel de comprendre que le regard que l’on porte sur le métier de la formation doit désormais changer. Ainsi, le leader de la formation professionnelle pour adulte dipsose de 200 000 élèves. Chiffre incroyable, mais ridicule comparé à la taille du marché et de la demande. En France, il y a 14 millions d’actif. Il est difficile de croire que ces derniers n’ont pas besoins de formations, de remise à niveau.
Global English a levé 200 millions de francs (32 millions d’euros) pour développer un site d’apprentissage de l’anglais à distance. Chiffre impressionnant là encore, mais les investisseurs avaient conscience d’un marché d’1 milliard d’individus !
La France ne pourra faire jouer la carte de l’exception culturelle : nos entreprises se mondialisent à grande vitesse, et sous la pression de fusions acquisitions, elles désirerons que leurs effectifs soient formés partout dans le monde en conséquence de cela.

En somme, nous arrivons doucement dans l’ère du « consommateur de savoir ».

Publié dans Enjeux et usages des TIC (février-juin 2003) | Laisser un commentaire

Parasitage, diversité et diffusion des réseaux

L’infrastructure Internet est l’interconnexion d’une multitude de réseaux informatiques grâce au protocole de communication commun « TCP/IP ». C’est un service automatique de transmission de l’information. Sa taille ne peut pas être réellement mesurée. Le chemin que suivront les données pour être acheminé d’un point à un autre est impossible à être déterminé.
À la base, le réseau Internet visait à permettre la création de communautés virtuelles pour faciliter l’échange et le partage des connaissances et du savoir dans le domaine de l’éducation, de la science et de la technologie.
Étant donné que tout bien dont il est possible de dissocier de son support physique peut être distribué sur les réseaux Internet, l’application des lois est difficile. L’industrie du disque et du logiciel a de nouvelles problématiques au niveau du respect de la propriété intellectuelle et des droits d’auteur.
Le piratage de logiciel est considéré comme un cas de violation de cette loi :
« Le droit d’auteur est le droit exclusif de reproduire une oeuvre créatrice ou de permettre à une personne de le faire. Il comprend le droit exclusif de publier, de
produire, d’exécuter en public, de traduire, de communiquer au public par des moyens de télécommunication et, dans certains cas, de louer l’oeuvre. »

Etant donné que des lois ont été posés sur internet, on peut se poser la question « qui donne accés à qui ? ».Les fournisseurs d’accès ne constituent pas une catégorie homogéne, statuts très variables selon la nature de contrat qui la lie à l’utilisateur.
On constate 5 catégories de fournisseurs :
– fournisseur d’accès commercial
Il peut fournir l’accès à Internet à une entreprise ou un particulier contre une rémunération. La relation entre le fournisseur d’accès et l’utilisateur est
régie par contrat de droit privé précisant les services fournis, leur coût, les droits et les obligations des parties.
– fournisseur d’accès employeur
L’utilisateur dispose de sa propre infrastructure de connexion Internet, l’accès à ses employés est pour des fins professionnels. Les conditions d’utilisation Internet est sous forme de contrat de travail, conventions collectives, réglement intérieur. L’accès est un outil de travail.
– fournisseur d’accès école ou université
Les étudiants, lycéens, écoliers, enseignants et chercheurs des établissement d’enseignement disposent d’un accès Internet par leur université ou leur école dans un but éducatif.
– fournisseur d’accès associatif
L’accès est pour ses adhérents, ça peut être l’objet même de l’association ou un service annexe fourni par l’association.
– fournisseurs d’accès individuel
L’individu possède lui-même un accès permanent, il peut fournir l’accès à qui bon lui semble, dans la mesure de ses moyens et de l’infrastructure dont il dispose. S’il s’agit d’un accès permanent, c’est un principe forfaitaire.

Le DNS (système des noms des domaines) est organisé en zones ou espaces de nommage hiérarchique et décentralisé, de manière à pouvoir attribuer à des personnes ou des organisations la responsabilité de la gestion des noms de domaines. Chaque pays est responsable de la gestion de sa propre zone et peut à l’intérieur de son domaine créer librement des sous-domaines.

Le piratage représente un phénomène en pleine croissance. Tout semble indiquer que le piratage est en voie de devenir un comportement accepté et normalisé. On remarque la diversité de comportements grandissant tant au niveau de l’individu que de la société. L’informatique isole physiquement les individus entre eux étant donné que son utilisation est personnelle. Les réseaux internet permettent la communication, l’échange, la confrontation avec l’autre, ce qui est indispensable pour une progression constructive vers une vraie ouverture d’esprit. Plus la diversité de point de vue sur un phénomène est grande plus les gens ont réellement une liberté de positionnement sans en être contraint.

Il y a différents types de piratage:
– infraction au niveau des brevets et des copyrights
une entreprise recopie du matériel ou un processus créé par une autre entreprise dans le but de faire du profit.
– piratage industriel: un individu ou un groupe copie ou/et distribue à grande échelle un produit dans le but d’en tirer profit.
– piratage corporatif : entreprise installe une copie d’un logiciel sur un réseau local et que plusieurs
employés peuvent avoir accès sans licence.
– piratage chez les manufacturiers et revendeurs
un logiciel est pré-chargé sur un ordinateur sans licence ou un logiciel est vendu à des marchés qui ne se qualifient pas pour ce type de licence.
-piratage domestique
tout acte qui inclue l’échange avec des amis de disquette ou de CD-ROM ou le fait de posséder un serveur visant à distribuer de façon illégales des logiciels ou pièces musicales dans une optique de non-profit.

La bande passante des liens Internet augmente. La pénétration très rapide des liens de types DSL et modem-câble a pour effet d’augmenter énormément la capacité des utilisateurs à s’échanger des logiciels et pièces musicales rapidement, à l’échelle mondiale.
L’industrie du disque doit faire face aux réseaux organisés de piratage, ils sont principalement situés en Asie et produisent les CD piratés de façon quasi industrielle. Globalement, un disque sur trois vendu mondialement serait piraté. Selon les chiffres de l’ancienne compagnie Napster, « à chaque seconde, on estime 10 000 documents MP3 échangés et plus de 100 utilisateurs qui tentent de se connecter au serveur ». Elle n’existe plus actuellement, elle a été crée en mai 1999 par Shawm Fanning. Il constate que « la Toile relie des millions de personnes dans le monde entier, chacune d’elles possédent sur leur ordinateur des morceaux de musique et cherchent à en obtenir d’autres. » Le principe de Napster est de mettre directement et gratuitement en relation cette offre et cette demande. Ainsi, chaque utilisateur peut accéder à la totalité des chansons présentes sur tous les ordinateurs connectés. Il doit, en contre parti, mettre à disposition de la collectivité sa propre collection de fichiers Mp3. La générosité des internautes s’appuie sur la gratuité compléte de cette nouvelle forme de troc. Basé sur le principe du Peer2Peer (particulier à particulier), ce systéme direct exclu les entreprises commerciales du controle de la distribution de la musique. Napster a constitué une véritable révolution technologique, commerciale, sociale et culturelle, le comportement du consommateur en matiére musicale a radicalement changé. Même si Napster a été supprimé, des systémes similaires ont vu le jour et se perfectionnent de plus en plus. Le débat entre les fournisseurs images-texte-son, et les consommateurs qui désirent obtenir ces données existe depuis lontemps et continuera jusqu’à temps que le systéme économique soit réellement remit en question. Les réseaux paralléles et interconnectés que sont l’économie gouvernementale et les communauté ouvertes sans loi se confrontent. Ne pourraient-ils pas fonctionner ensemble en changeant le systéme économique culturel?
Beaucoup de pays en voie de développement n’acceptent pas la légitimité du monopole sur la propriété intellectuelle revendiquée par les entreprises.
Dans le domaine étudiant, le piratage est considéré comme un comportement socialement et éthiquement acceptable. Ceci décrit la recherche individuelle de justice et d’équité dans les échanges sociaux.
L’industrie du logiciel prend, même, parti dans le piratage. Dans l’article Software Piracy, les auteurs affirment que « le piratage est une forme efficace de promotion qui permet aux firmes d’augmenter leur base d’utilisateurs car, en allant d’un consommateur à l’autre le produit finit par parvenir aux mains d’un consommateur qui serai prêt à débourser pour se le procurer. L’effet du bouche à oreille entre les utilisateurs et les utilisateurs potentiels comme un moyen efficace d’augmenter une fois la base d’utilisateurs. Le piratage aurait contribué à expliquer 80 % des ventes de logiciels. » Nous voyons dans cette nouvelle réalité une modification majeure au niveau du rapport de force entreprise-consommateur.

La démocratisation que subit l’acte du piratage avec l’apparition d’outil très puissant permet à quiconque de pirater sans avoir les connaissances ni les contacts nécessaires.
Cette nouvelle réalité, qui tend à rendre tous les produits sans support physique, est de réajuster les prix de ces produits dans un contexte de dématérialisation. Il faudrait comprendre l’impact de l’absence de support sur la perception de la valeur des produits.
Le piratage doit être jugé en fonction de son rôle d’éducatif et social par rapport au consommateur.

On peut distinguer deux niveaux de piratage :
l’un visant, l’affection des systèmes informatiques, la déviation d’énergie et même jusqu’à la destruction d’ordinateurs
l’autre visant par l’échange social, l’éducation des consommateurs.

Grâce aux hyperliens informatiques, FIZZER, un virus espion se propage par e-mail. Ce virus-ver est un ver de messagerie qui s’envoie à tous les contacts de votre carnet d’adresse windows. Il installe un key-logger sur la machine de la victime. Il peut affecter les ordinateurs sous windows, sur lesquels est installé le logiciel de messagerie Outlook, ainsi que l’interface d’échange peer-to-peer, Kazaa.
– FIZZER commence par localiser le répertoire d’installation de Windows et se
copie en 2 exemplaires
– puis, il va crée des fichiers dans ce répertoire
– ensuite, entre le « SystemInit » pour que le serveur « iservc » se lance automatiquement à chaque démarrage de Windows
– essaye de neutraliser tous les principaux anti-virus du marché
– tente de se connecter sur l’un des serveurs IRC pour recevoir d’éventuelles commandes du pirate autour de ce ver
– Keylogger enregistre toutes les frappes de clavier et c’est un outil qui
permet de lancer une attaque DoS depuis l’ordinateur infecté.

Il y a une innovation dans le domaine du logiciel « Open Source Software » (logiciel à source ouverte) et « Free Software » (logiciel libre).
Le logiciel libre est fourni avec une autorisation pour quiconque de l’utiliser, de le copier et de le distribuer, conforme ou pas à l’original, gratuitement ou d’un certain montant.
Son code source (redistribution libre du programme) doit être disponible.
L’OSI (Open Source Initiative) se définit en différents points :
– redistribution du programme libre et gratuite
– livraison du code source avec le programme
– distribution des travaux dérivés dans les mêmes termes que la licence du
logiciel d’origine
– préservation de l’intégrité du code source de l’auteur
– absence de discrimination envers des personnes, des groupes ou des
domaines d’activité
– pas besoin de se conformer à des termes de licences complémentaires ou
spécifiques à un produit
– pas de licence imposant des restrictions sur d’autres logiciels
Le partage du code source permet la co-innovation dans les logiciels. Le rapprochement direct entre entreprise, projets et développeurs peut engendrer la création d’une véritable stratégie commerciale grâce à la souplesse, la performance et la qualité du support et le prix est équivalent à celui d’un logiciel propriétaire. Des communautés de développement, de conception et de support se sont crées de différentes manières suivant le modèle économique mis en oeuvre.
Les licences BSD et MPL adaptées aux entreprises n’encouragent pas les développeurs à s’investir dans un projet comme ça car ils n’ont aucune garantie que leur développement ne seront pas récupérée à des fins commerciales.
La GNU (General Public Licence – GNU/GPL) de la FSF (Free Software Foundation) est la licence la plus utilisée par les développeurs. Elle impose la publication des modifications par le biais du code source s’il y a diffusion de la version modifiée. Ce qui permet d’éviter l’intégration « cachée » de code libre au sein du logiciel propriétaire. Voici différents exemples de sites Open Source : linux.org, freebsd.org (système d’exploitation), httpd.apache.org (serveur http), mozzilla.org (navigateur Internet).
Les hackers recherchent d’abord la stimulation intellectuelle (créativité) et l’amélioration de leurs capacités. Les défenseurs de l’Open Source affirment que le brassage des idées (fertilisation croisée), bien plus que l’appropriation, favorise l’innovation. La décentralisation des développeurs engendre une diversité de points de vue et enrichie la création de logiciels.

Les réseaux internet ont tellement de possibilités et d’ouvertures que les limites sont difficiles a percevoir. Le controle du piratage ne peut se faire que sur des systémes qui dérangent l’économie. Le phénoméne de piratage est lié au comportement des consommateurs, le commercial est basé sur ce que « veut le consommateur », et l’ économie doit se regarder d’un autre oeil. Des stratégies commerciales se font sur le controle du comportement des consommateurs, ce qui traduit un acte de manipulation pour empêcher le piratage. Il ne faut pas oublier que les consommateurs ont leur part à avoir et ne sont plus reconquérissable de la même manière. Un nouveau système d’éducation et d’évolution qui accompagne toute la vie…

Publié dans Enjeux et usages des TIC (février-juin 2003) | Laisser un commentaire

culture et réseaux

Quels bouleversements introduit l’idée de culture virtuelle ? La culture depuis toujours, c’est appuyée sur la matière ,à travers l’objet pour exister et perdurée. la remise en cause faite par le numérique ,et plus particulièrement par Internet de cette relation savoir/matière est récente ,mais pose déjà des questions capitales sur notre relation à la culture (quel accès ? ,pour qui ? ,par qui ?).

Quels enjeux ?

La culture réseau est-elle destinée ,à être une sous-culture parallèle ,ou est-elle seulement destinée, à être une banque de donnée numérique du savoir planétaire.
L’on peut s’interroger également ,si l’enjeux est de créé une source d’accès supplémentaire, ou au contraire d’engendrer une source unique ( cela poserait alors la question de qui y aurait accès).si la reponse est de créé un accès supplémentaire , en quoi alors celui-ci proposerait quelque chose de plus , en quoi est-il intéressent.

ARCHITECTURE DU RESEAU CULTUREL.

La culture en ligne en est pour l’instant à ses prémisses, et n’a pas encore fait l’objet d’un réel effort de hierachisation des sources ,et des données fournis par celles-ci . le Ministère de la culture et de la communication tente de créé un site se voulant unificateur, en proposant une multitude de liens hypertextes vers des sites culturel . la question que pose ce type de site est celle de la sélection des liens fournis. Les sites choisit sont le plus souvent se d’artistes reconnus ou d’institutions culturelles ayant déjà une existence matérielle. Tout cela servant donc à faciliter l’accès (de choses déjà accessibles au paravent ) à une infime partie d’individus.
Il faut savoir ce que l’on veut que soit la « culture réseau » .

Car cela est la partie émergente de la culture en ligne . la plus grande source de culture que l’on trouve sur le réseau , n’est pas celle contenue dans les quelques sites centralisateurs , celle-ci n’étant simplement qu’une numérisations de notre culture. La culture la plus intéressante est celle créé ,et nourrit directement sur le réseau ,sans passer préalablement par la matière.Est-ce alors de la culture ?

LA CULTURE INTERNET.

La culture Internet est ce que l’on peut définir par l’ensemble de phénomènes engendrés par le réseau ,et créés sur le réseau . Ces phénomènes sont source de sociétés ,de nations n’ayant aucun lien géographique ,seulement un lien au travers de mêmes « coutumes ».
Cela ouvre de nouvelles perspectives de communication (relation dynamique qui intervient dans un fonctionnement d’échange ).

http://www.allquality.org/
Nous sommes une communauté de pratique dédiée à la qualité et au management. Nous avons un esprit ouvert et global. Les membres de la communauté, principalement francophones représentent 15 pays différents.
Les Membres forment la communauté et la font vivre par leur participation. Nous mettons à leur disposition tous les outils pour que chacun puisse jouer son rôle : ACTEUR DE LA QUALITÉ. Pour nous ce ne sont pas des mots dépourvus de sens : forums de discussion, section emplois et carrières, babillard, boîte aux lettres personnelle, newsletter, personnalisation du portail, poster des nouvelles, annuaire des membres et des profils, voir quels autres membres s’intéressent aux même sujets que vous et les contacter… etc., etc.

La communauté mise en place forge ça propre culture virtuelle :
-artistique
-intellectuelle
– social

La création de culture virtuel, pose des questions face à la réalité .Puisque la culture est la base de toutes communications , comment les individus de ces communautés vivent-ils leur aller/retour du virtuel au réel ,d’une culture a une autre. Exit-il des liens entre les deux ,sont-elles totalement distinctes ,l’une peut-elle prendre le pas sur l’autre.
La majorité de ces individus passent facilement d’une à l’autre , mais nous sommes encore au prémisse de ces cultures (elles ne sont pas assez abouties pour que l’on puisse s’y enfermer).

UNE SECONDE CULTURE (culture numérique)

a- deux sortes de culture

lors de recherches d’ordres culturelles sur le réseau ,l’on remarque assez rapidement que le résultat est souvent maigre ,et loin de nos attentes .cela s’explique par deux choses :

-les sites privés de la culture

si le réseau regorge de sites totalement gratuit , l’on s’aperçoit que les sites de qualités mis en place ,abordant la notion de culture ,sont rarement gratuits . le fait de passer en ligne ,rend l’accès à la culture payant. Devant la demande ,et voyant que le secteur public ne régissait que très faiblement, c’est le secteur privé qui a mis en place la culture numérique ( et donc payante).le ministère de la culture ,après tout ses efforts pour ,que l’accès à la culture soit gratuite et la même pour tous laisse le réseau vide ou presque de sa trace ( car malgré un site colossal et bien construit celui-ci est peu médiatisé, fort complexe et donc visité.)

-une culture bas de gamme ou une réel culture ?

la plus grande majorité des sites ,et les plus visités ne sont pas ceux concernant l’art ,l’écriture ,ou le cinéma ; ceux qu’on a l’habitude d’appeler culture. Pourtant l’on peut définir par culture ,chaque chose utile à un groupe de personne, comme un ensemble des formes acquises dans une société . le réseau nous interroge ,sur ce qu’est réellement la culture .est-ce vraiment ce qui se trouve dans nos bibliothèques ? l’on peut penser à une culture bas de gamme, mais ne serait-ce pas la réelle culture ; celle qui est remise à jour tous les jours, celle que les gens prennent du temps pour consulter , et publier .

3 choix pour la culture de réseau :
-une culture bas de gamme
-une réelle culture
-une culture qui n’existe pas

-b une culture de réseau qui n’existe pas

la culture réseau n’a aucune existence, si elle n’est pas une réelle culture a part entière .
En aucun cas la numérisation de quoi que se soit ,est générateur de culture. Puisque pour l’instant ,le réseau n’est qu’un moyen d’accès supplémentaire ,à des chose déjà existante ,et que rien ne semble se construire réellement l’on ne peut pas encore véritablement parler de « culture réseau »

Publié dans Enjeux et usages des TIC (février-juin 2003) | Laisser un commentaire

L’homme porteur d’objets communicants

Plan :

Introduction

Partie 1 : Aujourd’hui…
_ 1) Objets portés momentanément sur soi
_ 2) Objets portés continuellement sur soi
_ 3) L’homme, objet lui-même

Partie 2 : Projection et conséquence pour l’homme
_ 1) Kewin Warwick
_ 2) La biotique

Partie 3 : L’avenir…
_ 1) Jusqu’où aller ?
_ 2) L’identité
_ 3) Homme dématérialisé

Conclusion Depuis quelques années, nous remarquons l’arrivée et l’explosion des outils de communication portable de type téléphone portable, PC portable, et autre PDA. Tous ces objets se transportent sur soi et permettent plusieurs types de communication. Grâce à ces objets et aux technologies émergentes, nous sommes à l’aube d’une véritable révolution des modes de communication et d’interaction avec notre environnement physique.

Mais tout d’abord qu’est ce qu’un « objet communicant » ?
_ Le concept « d’objet communicant » a été imaginé au Medialab, laboratoire du Massachussets Institut of Technology, dans le milieu des années 90 et s’est défini comme le croisement de la miniaturisation des composants et des technologies de traitement de l’information avec le développement des communications sans fil. On a alors imaginé un grand nombre d’applications de la vie quotidienne enrichies de technologies communicantes comme des vêtements communicants, des réfrigérateurs intelligents aux environnements ambiants. Au-delà de la diversification et de l’évolution vers le multimédia des terminaux intelligents mobiles (GSM, GRPS et UMTS) et filaires (PCs, terminaux internet…), des assistants et autres objets numériques personnels (PDA, cartes à puce, appareils photo…), les objets communicants s’apprêtent à envahir notre environnement privé, public et professionnel.
_ Poussé par les progrès incessants de la technologie et de son économie (prix de plus en plus bas) et tiré par les besoins des usagers, ce concept d’objets communicants n’est pas seulement à la convergence des deux mondes high-tech des terminaux et des objets numériques. Il est en fait appelé à diffuser largement dans celui des produits de base de tous types : électroménager, Hi-fi, vêtements, véhicules, objets personnels divers… Ainsi tout objet physique (Ex : la montre, les appareils électroménagers, tous les accessoires que l’on porte sur soi, le mobilier et les objets de la maison et les vêtements…) peut être doté de capacités à percevoir, analyser son environnement et interagir avec d’autres objets, avec un système d’information local ou global et avec le ou les utilisateurs. Tout ceci a pour ambition de nous aider à mieux vivre dans notre environnement en créant, de façon transparente pour l’utilisateur, une relation physique avec le monde de l’informatique et des télécoms. L’environnement va devenir plus conscient, adaptatif, attentif par rapport à l’utilisateur.

I Aujourd’hui…

1) objets portés momentanément sur soi.

Aujourd’hui, il suffit de regarder avec attention autour de nous pour nous apercevoir que nous sommes entourés d’objets communicants au sens large, c’est à dire qui « établissent une relation avec quelqu’un, quelque chose » (Le Petit Robert). La notion de partage est importante car elle suppose un échange, un retour d’information, que ce soit d’un homme ou d’un objet. Dans ce contexte, une télécommande, une carte bleue, un GPS, sans oublier le téléphone portable, l’ordinateur ou le talkie-walkie sont des objets qui communiquent à différent niveau de complexité. Ces objets sont utilisés par tous et dans tous les domaines sans que nous nous imaginions le nombre de communications, d’ondes qui nous entourent.

L’objet qui illustre actuellement le mieux ce concept est certainement le PDA. Celui-ci est principalement cantonné au domaine professionnel, mais il fusionne de plus en plus intimement avec le téléphone portable (Ex : smartphone) et se rapproche du grand public. Par rapport au terminal téléphonique mobile, il apporte une capacité de visualisation beaucoup plus riche, ainsi qu’un environnement logiciel plus ouvert. Nous pouvons le voir comme la première excroissance de nos terminaux mobiles et il permet déjà d’entre apercevoir de nouveaux usages. Il permet déjà de faire du traitement de texte, du tableur, de lire de la musique, de la vidéo, de téléphoner, de lire les codes-barres, de stocker dans des cartes mémoires, de prendre des photos, d’être étanche, d’être équipé du GPS… selon les extensions ajoutées.

Tout ceci reste encore des objets que l’on doit prendre avec nous et qui s’ajoute encore à notre environnement. Pourquoi ne pas utiliser directement nos vêtements portés obligatoirement sur soi au quotidien ? C’est ainsi que des chercheurs de France Télécom R&D ont mis au point une « écharpe communicante ».
_ Il existe deux façons de réaliser la communication :
– la première, recourt aux fonctionnalités classiques du téléphone GSM intégré, qui peut se faire en main libre en utilisant la fonction reconnaissance vocale. Les haut-parleurs et le microphone intégrés dans l’écharpe permettent de dialoguer avec son correspondant.
– une fonctionnalité plus évoluée de communication utilisant la visiophonie. Les images capturées par la caméra intégrée à l’écharpe sont transmises au correspondant.

Au-delà de la diversification de l’offre en matière de PC, PDA, téléphone mobile, terminaux Internet et autres terminaux intelligents, les applications multimédia prévues et les possibilités associées aux technologies et protocoles radio de proximité pour les réseaux domestiques ou personnels pourraient en effet annoncer « l’éclatement » de ces terminaux en différentes parties reliées entre elles par des liens radio et possédant toutes les ressources nécessaires à leur autonomie (cf . réseau Adhoc). On peut se mettre à imaginer ces milliers d’objets répartis dans notre environnement, reliés entre eux par les liens d’un réseau, dynamiquement reconfigurable et sans hiérarchie bien établie, tout objet pouvant être lui-même terminal et routeur. Ces objets communiqueront d’abord à un niveau local mais ils s’étendront très vite aux réseaux classiques pour tisser une grande toile, le « WWWW » : Wireless World Wide Web. La technologie le permet ou le permettra même si certains problèmes sont déjà identifiés : occupation de la bande passante, autonomie des objets en alimentation, congestion des réseaux ad-hoc, sécurité, authentification… Ainsi par exemple, mon écharpe, pour entrer en communication avec ma porte d’entrée, passera par l’intermédiaire de mon PDA, qui donnera l’autorisation d’ouvrir ma porte.

2) objets portés continuellement sur soi.

Tout ce que nous venons de voir sont des objets portés momentanément sur soi, ce sont des objets qui prolongent l’homme, mais il existe des objets que nous porterons continuellement sur soi.
_ En effet, tout ce qui est de l’ordre de l’implant et qui communique d’une façon ou d’une autre avec l’extérieur, c’est à dire notre environnement, peut être pris en compte.

Principalement utilisés actuellement dans le domaine de la médecine et très certainement dans le domaine militaire, les implants peuvent restaurer et sauver la qualité de vie de nombreuses personnes.
_ En effet, pour les paraplégiques par exemple, des chercheurs travaillent sur la restauration du mouvement par la stimulation électrique, musculaire et nerveuse grâce à la volonté du patient. Au contraire, pour les malades de Parkinson, il existe un traitement par électrostimulation réalisé en implantant, dans la zone du cerveau concernée, une électrode elle-même connectée à un pacemaker. La stimulation électrique inhibe de façon réversible l’activité des « noyaux gris centraux », supprimant de ce fait les symptômes les plus invalidants de la maladie.

Pour les personnes atteintes de surdité totale, on développe des implants cochléaires. De plus en plus perfectionnés, ils permettent désormais de recouvrer une partie de la perception auditive. Ces prothèses court-circuitent le système naturel en envoyant directement au nerf l’information sonore après l’avoir transformée artificiellement en signaux électriques. Un premier récepteur électronique, situé à l’extérieur de l’oreille, se charge de transformer la parole en impulsions électriques. Le second, placé sur la cochlée (partie de l’oreille interne), permet de stimuler les fibres nerveuses.

D’autres chercheurs ont travaillé sur les implants cérébraux pour aider les paralysés à communiquer. Ils montrent ainsi l’utilisation d’un implant cérébral qui permet à des singes de déplacer à distance un curseur sur l’écran d’un ordinateur par leur seule volonté. Cette étude montre que les cellules responsables de la planification du mouvement peuvent contrôler ainsi une prothèse.

Dans un autre registre, il existe désormais un contraceptif féminin sous-cutané, qui reste efficace pendant trois ans. Il s’agit d’un tout petit tube implanté sous la peau du bras et qui diffuse chaque jour une dose de progestatif qui bloque l’ovulation. Il faut à peine plus d’une minute pour le poser, sous simple anesthésie locale. De la taille d’une allumette, l’implant se place à l’intérieur du bras, sous la peau, avec une sorte de seringue. Au bout de trois ans, l’implant doit être changé. Le retrait prend trois minutes.

3) L’homme, objet lui-même.

L’avantage de l’implant est qu’il n’y a pas de risque pour l’usager d’oublier l’appareil que l’implant remplace. Cependant, si celui-ci reste réticent à un implant, il reste son propre corps. En effet, son corps pourrait devenir une interface communicante qui permettrait d’être identifiable, étant donné qu’il est unique.
On peut identifier une personne selon différents critères physiologiques, que l’on appelle la biométrie :
– La reconnaissance digitale : il existe déjà des cartes de reconnaissance d’empreinte digitale qui permettent de sécuriser l’accès a un ordinateur portable. Il suffit de presser son doigt sur un petit clavier, l’empreinte digitale est scannée afin de valider ou d’invalider l’accès à l’ordinateur. Ce système exige préalablement, comme les systèmes suivant, un enregistrement des empreintes des personnes autorisées. Le principe est applicable pour tous les systèmes où une autorisation est demandée. En cas de coupure sur le doigt, la machine reconnaît tout de même l’empreinte digitale grâce à un système de physionomie générale de l’empreinte. Au cas où un doigt coupé serait présenté devant la machine, celle ci se rend compte du caractère non vivant de l’organe.
– Le scan optique de la rétine : cette méthode utilise une source de lumière à faible intensité pour scanner les vaisseaux sanguins tapis dans le fond de l’œil, qui sont unique pour chaque être humain.
– Le scan optique de l’iris : l’iris est une partie du corps qui change très peu, il souffre très peu des blessures et de l’usure du temps, il est visible à distance ( contrairement à la rétine), il est unique ( en fait même l’iris de l’œil droit est différent de celui de l’œil gauche). Avec un scanner conventionnel cette méthode fonctionne à travers des lunettes et des lentilles de contacts claires sans avoir à établir de contact direct entre l’utilisateur et l’appareil.
– La reconnaissance de la main : cette méthode est également populaire en raison de sa précision et sa vitesse d’exécution. La main est posée sur un plateau moulé de façon à lui faire adopter la meilleure position. 90 points de vérification sont passés au crible ( la forme 3D, largeur, longueur et épaisseur des doigts, articulation etc.…)
– La reconnaissance faciale : ce système de sécurité réagit à la forme et à la physionomie générale du visage de chaque personne autorisée. Après un enregistrement de l’image des personnes accréditées, chaque fois qu’une de ces personnes se présentent devant la caméra de surveillance un système de reconnaissance basée sur la forme du visage du bas du nez à la racine des cheveux se met en marche.
– L’authentification de la signature : cette méthode utilise un logiciel qui reconnaît l’écriture et la manière dont on écrit ( vitesse, pression exercée sur le stylo…).
_ Toutes ces méthodes fonctionnent selon le même principe : un lieu, un objet, une donnée doivent être protégés pour rester privés. On enregistre les utilisateurs autorisés. Lors de l’identification, la machine procède à une comparaison entre ce qu’elle a en mémoire et ce qu’elle lit actuellement. Elle décide alors, si oui ou non, elle peut ouvrir l’accès.

II Projection et conséquence pour l’homme

La notion d’objet communicant représente une généralisation de ce concept de terminal éclaté qui peut alors représenter tout objet physique ayant ses propres capacités de traitement et de communication.
_ D’une communication de personne à personne, on pourrait alors évoluer vers des communications d’objets à objets, associées ou non à des utilisateurs (par des implants ou non). De plus, la miniaturisation sans cesse plus poussée de l’électronique va transformer en profondeur l’apparence des ordinateurs. Unités centrales et tubes cathodiques encombrants devraient se fondre dans les objets quotidiens et leur apporter de nouvelles fonctions. Cette invasion n’épargne pas l’homme, et la multiplication des puces dans notre entourage quotidien évoque, pour certains, le spectre du Big Brother évoqué par George Orwell dans son roman 1984. L’implantation de petits composants électroniques sous la peau des animaux est une technique couramment employée depuis plusieurs années à des fins scientifiques ou pratiques. Jusqu’à maintenant, plus de 7 millions d’animaux ont été implantés. Pour l’homme, ces « greffes » de l’électronique sur le vivant resteront probablement limitées aux applications biomédicales, du moins pour l’instant. Un homme a ainsi déjà passé le cap : Kevin Warwick.

1) Kewin Warwick

En août 1998, Kevin Warwick, professeur au laboratoire Cybernetix de l’université de Reading en Angleterre, est peut-être devenu le premier homme bionique en se faisant implanter pendant 8 jours une puce électronique dans le bras gauche qui le connectait à tous les ordinateurs de l’université. Cette puce était une capsule de 23 millimètres de long pour un diamètre de trois millimètres contenant une bobine électromagnétique et plusieurs microprocesseurs. L’ensemble constitue un transpondeur ; c’est-à-dire un système électronique capable d’émettre un signal lorsqu’il est stimulé par une onde radio particulière (comme la carte Integrale ou Imagin’R de la RATP). L’expérience, fait partie des recherches sur les « immeubles intelligents ». Ces derniers, grâce à un capteur et à un ordinateur, sont capables d’identifier le transpondeur (et donc son porteur) et de commander le fonctionnement des portes, de l’éclairage ou du chauffage. Ce genre de puce peut contenir des données aussi variées que le numéro de sécurité sociale, le groupe sanguin, le carnet de santé, les qualifications professionnelles, les convictions religieuses et même les amendes pour excès de vitesse. Elle peut aussi remplacer les clés de voiture et les tickets de train.
_ Mais faut-il pour autant aller jusqu’à l’intégrer au corps? Cette option est adoptée depuis longtemps sur certains animaux : suivi des migrations ou gestion des élevages industriels. Pour l’homme, son utilité semble moins évidente, même si le professeur Warwick justifie la greffe de la puce sous la peau par le souci d’éviter la perte ou le vol du précieux composant. À la différence des animaux, l’homme possède généralement des habits munis de poches. D’où on peut voir l’avenir de l’informatique sous la forme de « vêtements-ordinateurs » (wearable computer) assez discrets pour laisser libre l’homme de ses mouvements. (Cf partie I)
_ L’implantation d’une puce sous la peau du bras de Kevin Warwick a bénéficié de l’impact que garantit la crainte de « Big Brother ». Le professeur souligne d’ailleurs que les salariés ainsi équipés pourraient être suivis à la trace par leurs employeurs et ne pourraient « aller aux toilettes sans qu’une machine soit au courant ». Ainsi, l’ordinateur de l’institut savait si Warwick se trouvait à l’institut et connaissait, le cas échéant, la pièce dans laquelle il se tenait, les autres pièces par lesquelles il était passé, le temps qu’il y était resté.

En mars 2002 il a renouvelé l’expérience : il s’est fait implanter dans son bras gauche un implant microélectronique. Directement connecté à son système nerveux, il permet non seulement de détecter à distance l’activité naturelle des nerfs sur un écran d’ordinateur, mais aussi de les activer en retour par l’envoi d’impulsions électriques.

_ — N’ayant trouvé les résultats de ses recherches, je ne peux me référer qu’aux volontés de Warwick avant l’implantation de ce 2ème implant. —
_ Il souhaite étudier les possibilités d’enregistrer des signaux (des signaux électroniques) provenant du système nerveux et liés aux émotions, comme la douleur, pour les stocker, puis les retransmettre au système nerveux. Sa femme, Irena, s’est fait implanter aussi une puce dans le but d’échanger des signaux avec K. Warwick. Son ambition : savoir ce qu’éprouve l’autre, quelles sont ses sensations, voire ses émotions. « Il s’agira de connecter des systèmes nerveux de deux personnes ensemble. C’est extraordinaire comme expérience : si les pensées d’une personne sont directement communiquées à une autre, qu’est-ce que cette autre personne va ressentir ? Si la personne bouge sa main, allez-vous ressentir que votre main est en train de bouger ? Que l’autre personne est en train de penser qu’elle bouge sa main ? C’est une question d’ordre philosophique : quand je pense à la couleur rouge, est-ce la même chose que quand vous pensez à la couleur rouge ? Nous allons pouvoir, techniquement, chercher à répondre à cette question… »
_ L’équipe a donc tenté de capter, de décoder et de reproduire les communications du système nerveux. L’idée est d’intercepter les signaux qui circulent dans le bras au moment où le sujet décide de serrer le poing ou de bouger le pouce, puis de les reproduire artificiellement et de les transmettre à l’implant de manière à ce que le sujet exécute ces mouvements contre son gré.

Kevin Warwick se demande ainsi si la science permettra un jour d’enregistrer l’orgasme d’une personne pour le transmettre à une autre personne. Il considère par ailleurs que « l’être humain est limité » et que la technologie devrait permettre d’améliorer les performances physiques et intellectuelles de l’espèce.
_ Son but final : « il s’agit d’améliorer la communication des humains avec les machines et, à terme, des humains entre eux … et d’étendre les capacités de l’homme. Aujourd’hui, notre activité cérébrale, électrochimique, doit être traduite en mouvements mécaniques – comme la parole – pour être transmise. C’est très imparfait et très lent. J’aimerais que mon cerveau puisse communiquer directement avec une machine ou un ordinateur capable de calculer en cinq dimensions… J’aimerais pouvoir communiquer sans passer par la parole. Je pense que je verrai, de mon vivant, les premières communications de pensée à pensée. »

On se doute de l’importance de ces travaux : s’il se confirme qu’un signal défini correspondant à une activité musculaire ou une sensation peut être envoyé directement dans le système nerveux par une machine, des prothèses pourraient alors rétablir des fonctions sensorielles et motrices perdues à cause d’une lésion dans la colonne vertébrale par exemple.

On se doute aussi que l’armée doit être très intéressée… mais pour d’autres raisons (par exemple capacités étendues des soldats grâce à des entrées sensorielles supplémentaires, nouvelles méthodes de communication avec des semblables ou des machines…)

Cette volonté de fusion avec la machine, se retrouve aussi chez des artistes. Ainsi, Stelarc, un performeur autrichien, explore la relation entre le corps humain et la technologie. A ses yeux, le corps humain est un objet totalement dépassé, tributaire de besoins primaires comme manger, dormir et respirer, et donc plus du tout adapté à notre environnement technologique actuel. Le but de Stelarc est de créer un nouveau prototype d’homme capable de se fondre avec la machine, d’accueillir des implants de technologie pour augmenter ses capacités. A terme, il espère dépasser les limitations biologiques (tendre vers l’immortalité) et être capable d’assimiler, comme le font déjà les machines, toutes les informations qui nous arrivent. Concrètement, il mène des expériences où il mélange son corps avec la machine, il devient cyborg. Il crée des robots où son corps est intégré, s’envoie des décharges électrique pour créer des mouvement dans ses membres, s’implante des sculptures dans l’estomac pour montrer que la peau et le corps n’est pas la limite entre l’intérieur et l’extérieur.

2) La biotique.

Il est possible également, en se concentrant, d’effectuer une tache précise prédéfini par une machine. En effet, des scientifiques européens mettent au point un ordinateur qui capte les signaux électro-encéphalographiques des sujets en fonction des tâches mentales sur lesquelles celui-ci se concentre. Après plusieurs heures, le système repère les pensées quand l’individu les pense, et peut leur attribuer des fonctions. Ainsi, il est possible d’agir mécaniquement et physiquement avec le seul pouvoir de notre pensée. Les applications directes concerneront l’environnement quotidien : le contrôle d’un fauteuil roulant ou l’interaction directe avec les outils de la maison (interrupteurs, appareils ménagers, etc.). Ce système devrait aussi pouvoir s’appliquer à de nouvelles formes de divertissement, d’éducation.

Une autre expérience, baptisé « Brain Machine Interface », financé conjointement par la Defense Advanced Research Projects Agency (DARPA) et les National Institutes of Health (NIH) est la manipulation à distance d’êtres vivants. Pour l’instant, cette expérience ne se fait que sur des rats, mais une étape à été franchie. En mai 2002, des chercheurs de l’université d’état de New York (Downstate Medical Center) annoncent la création de rats robotisés, des « ratbots », télécommandés à distance grâce à un dispositif stimulant directement leur cerveau à distance. Les chercheurs ont commencé par étudier et modéliser le comportement du rat lorsqu’il est stimulé par des signaux externes : il peut ainsi réagir à certains signaux sonores si ceci sont associés à une récompense, sous forme de nourriture par exemple.
_ A partir de ces modèles de comportement, les scientifiques ont installé directement des électrodes sur certaines régions du cerveau du rat. Le dispositif comprend trois électrodes :
– les deux premières permettent de lui transmettre l’ordre de bouger, de tourner (grâce à des micro-stimulations électriques),
– la troisième, récompense le rongeur en lui procurant du plaisir (via micro-stimulations électriques).
_ Chaque animal équipé de son sac à dos contenant un microprocesseur et des électrodes a été entraîné, à partir d’une télécommande actionnant le stimulus électrique. L’animal a appris à interpréter ces stimuli, d’abord en se déplaçant dans un espace fermé, très simple, puis dans un environnement ouvert. L’animal est parvenu ainsi à se déplacer dans un labyrinthe tridimensionnel très complexe. Le rat, télécommandé jusqu’à 500 mètres de distance, a pu travailler pendant des sessions pouvant durer jusqu’à une heure, tournant, sautant, grimpant au gré des impulsions données à distance par l’opérateur.
_ Pour l’heure, si les chercheurs restent réticents sur des développements éventuels applicables à l’homme, ils soulignent cependant l’extraordinaire potentiel de ces expériences qui, à terme, pourraient aider des personnes paralysées à retrouver une certaine autonomie.
_ Outre son intérêt pour la neurophysiologie, ces expériences pourraient avoir d’autres applications pratiques : utilisation de rats télécommandés pour détecter les mines, pour le sauvetage de personnes dans les ruines d’un bâtiment…
_ Cependant, cette expérience peut faire froid dans le dos. On peut imaginer facilement ce qu’en ferait une personne malveillante.

Toujours dans le médical, une nouvelle génération de pilule est utilisée : la « pilule intelligente » fabriquée au Massachusetts Institute of Technology (MIT, USA). Un implant comporte des réservoirs miniatures remplis d’un médicament et recouverts d’une membrane d’or jouant le rôle d’anode. Sous l’effet d’un faible courant électrique provenant, par exemple, d’un bio-capteur, les réservoirs s’ouvrent, libérant in situ le produit actif. La capsule peut être implantée sous la peau, et le courant électrique programmé par un microprocesseur. Les applications potentielles d’une telle pilule bioélectronique sont nombreuses : libération de substances pendant des durées atteignant plusieurs mois.

On peut imaginer, dans l’avenir, combiner des systèmes de traitement d’information fonctionnant à partir de molécules, avec des polymères servant de base à des textiles intelligents. Cette approche a déjà conduit à la mise au point de vêtements permettant à des médecins de suivre à distance certains paramètres du métabolisme de leurs patients. La communication directe entre le corps et les machines ouvre des voies nouvelles pour le suivi en temps réel des principales fonctions du corps. Les outils de communication seront portés de plus en plus près du corps et en interface directe avec lui. Il est devenu possible de réaliser une interface directe entre le système nerveux, ses vêtements et des machines électroniques.

Ainsi, grâce à la discipline émergente, que Joël De Rosnay a appelée dès 1981, la « biotique » – mariage de la biologie et de l’informatique dans des matériaux intelligents – l’homme entrera en symbiose avec les réseaux d’information.

III L’avenir…

1) Jusqu’où aller ?

En effet, toutes ces avancées scientifiques que l’on vient d’observer sont à double tranchant : suivant l’utilisation que l’on en fait, elles peuvent être bénéfiques ou non pour l’humanité. Question d’éthique : jusqu’où aller ?

Il suffit de voir qu’une compagnie américaine, Applied Digital Solutions (ADS), espère obtenir l’autorisation pour l’implantation sous-cutanée de ses microprocesseurs chez des humains. Ces puces contiennent des informations médicales personnalisées qui pourraient s’avérer d’un grand secours, par exemple aux médecins ou chirurgiens ayant à traiter en urgence des patients trouvés sans connaissance.
_ Comment ne pas voir une utilisation plus « répréhensible » de ce système dans la surveillance des gens au quotidien, dans une société où la connaissance des moindres faits et gestes d’un individu est décryptée et retranscrite pour lui offrir des services ou des produits que l’on est sûr qu’il achètera dans un souci de rentabilité. De plus, si la monnaie n’existait plus et que l’économie du monde serait complètement basée sur la puce, il y aurait un immense marché noir de puces. Il se pourrait que, si l’on extrapole, sans monnaie et aucune autre façon de payer, des criminels couperaient des mains et des têtes, volant les puces des riches…
Donc, à quand la greffe de ma carte Vitale dans mon bras gauche ? ou, à quand la greffe de ma vie privée dans mon bras gauche ?

Il suffit de regarder certains artistes, pour voir que la question pose problème.
_ Nancy Nisbet, artiste canadienne, s’est fait implanter en 2001 une puce dans chaque main, au niveau de la partie charnue située entre le pouce et l’index. « Je m’attends à plus ou moins long terme à la fusion entre l’homme et la machine. En adoptant déjà cela à mon propre compte, j’aurai une meilleure compréhension de ce type de technologie et les menaces potentielles ou les bénéfices quelle représente », précise-t-elle. Un scanner permet de lire l’information que les puces émettent, en l’occurrence un numéro alphanumérique à 12 chiffres déjà utilisées sur des animaux américains.
Elle se fait greffer deux puces et non une, « afin de créer le doute sur sa véritable identité », explique t-elle. En effet, inquiète face à la société Orweilienne qui résulterait d’implants développés par ADS (par exemple) elle souhaite utiliser ses puces comme interface avec son ordinateur et contrôler les traces qu’elle laisse dans le cyberespace. « Je m’intéresse aux réactions face à cette technologie de surveillance. J’essaie, en devenant une sorte de cyborg, de mieux comprendre les connexions entre le corps, l’identité et la technologie », explique-t-elle.

2) L’identité

Nous pouvons désormais êtres implantés et explantés. L’homme peut être réparé, assisté, augmenté.
_ A partir de là, il y a toute une série de questions qui se posent : quelle identité peut-on avoir, qui sommes-nous si nous sommes faits de pièces détachées ? Les fantasmes et les mythes du « surhomme » sont susceptibles de devenir réalité. Jusqu’où peut-on transformer l’homme ?
_ La crainte est le passage de la frontière entre l’homme handicapé que l’on répare et l’homme augmenté. Cette frontière est très fine et on est déjà en train de la franchir. Que l’on répare un homme malade ou handicapé pose à priori aucun problème éthique, mais que l’on commence à mettre de la mémoire en plus dans le cerveau, est-ce aller trop loin ? L’homme a une valeur émotionnelle et on veut essayer de le rendre homme-machine. On va vers un monde avec des gens en kit qu’on transforme et qu’on manipule. Donc, on peut transformer pour réparer mais pas pour augmenter car ça peut amener à un véritable Big Brother. De plus, rapidement la question de l’identité se pose. Quelle est l’identité d’une personne implantée de plusieurs choses ? Est-on la même personne, ou un hybride entre l’homme et la machine? Si je n’ai plus de représentation de mon corps, si j’ai plein d’organes fonctionnels qui se baladent en dehors ou dans mon corps, je n’aurai plus de représentation de moi-même.

Andre Durand est fondateur et Président de la société Ping Identity Corporation, où il mène une réflexion sur le thème de l’identité numérique. Selon lui, il est indispensable de distinguer les trois composantes de notre identité dans l’univers numérique : Personal Identity, Corporate Identity et Marketing Identity.
– La première composante intitulée « personal identity » ou « my identity » est la vraie identité personnelle de l’individu et entièrement sous son propre contrôle. Cette composante de l’identité présente la particularité d’être stable dans la durée. En outre, toutes les personnes en possèdent une.
– La deuxième composante – « corporate identity » ou « our identity » – est différente car elle est conditionnelle et susceptible d’évoluer au cours du temps. On y trouvera toutes les informations qui nous sont attribuées, pour un temps, par un organisme extérieur : numéro de téléphone, titre professionnel, numéro de carte bancaire, etc. Ces éléments peuvent être supprimés ou révoqués à l’initiative de l’organisme émetteur sans recours possible de la part de l’individu. Selon Andre Durand, la plupart des identités numériques appartiennent à cette deuxième catégorie.
– La troisième catégorie – « marketing identity » ou « their identity » – est d’une toute autre nature. Ce sont des identités abstraites telles que « client fidèle », « client à haut potentiel » qui renvoient à des caractéristiques socio-démographiques ou à des comportements mémorisés. Ces identités marketing ont majoritairement vocation à être utilisées dans des segments de population plutôt que dans le contexte d’une communication individualisée.

Bien que critiquable, cette réflexion essaye de clarifier la notion d’identité numérique. Il est certain que la gestion de la relation client s’intéresse essentiellement à la troisième identité, les opérateurs économiques de l’identité numérique à la deuxième, et le particulier à la première.

3) Homme dématérialisé

Il est possible que nous n’habitions plus dans nos corps. Ray Kurzweil, un savant renommé américain pense que « dans 200 ans, très peu de gens habiteront dans un corps ». D’après lui, l’intelligence artificielle et l’intelligence humaine fusionneront dans les années 2020 voir 2030. Les nanorobots seront en mesure d’établir de nouvelles connexions entre les neurones, ce qui augmentera plusieurs millions de fois nos facultés de mémoire. A priori, nous penserons plus vite, nous reconnaîtrons les choses beaucoup plus vite. Notre imagination sera décuplée et nous disposerons de capacités cognitives nettement supérieures. D’après Kurzweil, « il n’y aura plus de distinction nette entre ce que nous appelons êtres humains et machines. Entre l’intelligence purement artificielle et l’être humain uniquement biologique, toute une gamme d’entités verront le jour, certaines beaucoup plus performantes que nous sur les plans de la mémoire, de la rapidité de décision, des sensations, voire des émotions artistiques ou spirituelles. Le cerveau humain est très lent… il a tout juste assez de mémoire pour se souvenir de quelques numéros de téléphone… »
_ Dès lors, où se termine l’être humain et où commence la machine ? L’intelligence humaine fusionnerait donc avec l’intelligence technique pour donner une sorte de super-intelligence ?
_ Toujours selon Kurzweil, nous aurons, bien avant 2099, les moyens de scanner le cerveau humain et d’en enregistrer le moindre détail, chaque connexion neuronale, chaque concentration de neurotransmetteurs, chaque fente synaptique, chaque cellule. Puis il sera possible de le reproduire, le copier dans un ordinateur de capacité suffisante, afin de fabriquer une copie parfaite des pensées, des souvenirs, de tout ce que sait faire la personne dont appartient le cerveau.
_ Dans l’ordinateur, une personne accèdera à l’immortalité, car le corps humain, « support matériel », peut mourir et entraîner dans la tombe toutes les informations contenues dans le cerveau. L’ordinateur est, d’après Kurzweil, beaucoup plus sûr. L’être humain deviendra donc immortel – si l’on accepte qu’il poursuive son existence dans l’ordinateur.
_ Faut-il s’en réjouir ou en avoir peur ?

Dans tous les cas, il apparaît que le processus est enclenché, et que rien ne puisse l’arrêter. En effet, les spécialistes de l’informatique ne s’intéressent actuellement qu’aux immenses possibilités de leur discipline, et pas aux questions d’éthique. Et la recherche ne connaît de frontière ni juridique ni géographique. Un logiciel plus intelligent délivre une plus grande valeur, donc, la concurrence aidant, la fuite en avant est inévitable. Il est impossible de stopper cette évolution sans mettre un terme au capitalisme et à la libre entreprise. Il faudrait supprimer toute compétition économique qui fait avancer l’économie du monde entier. Nous assistons à une évolution impossible à arrêter, qu’elle nous plaise ou non.

Conclusion

Il apparaît clairement que l’engouement de l’homme vis à vis des objets communicants est à double tranchants. En effet, ses objets de plus en plus proche de nous, jusqu’à devenir des objets intrusifs dans nos corps, peuvent se révéler comme un sauveur de qualité de vie, dans un but de combattre une invalidité. Cependant, en tenant compte de la dualité de l’être humain, de ses pouvoirs destructeurs autant que créateurs, ces avancées technologiques peuvent devenir dangereuses et se retourner contre l’homme lui-même.
_ Selon Kevin Warwick, l’être humain est menacé par l’ « ordinateur sapiens » « dont l’intelligence ne tardera pas à dépasser celle de son créateur. L’homme, s’il veut éviter de devenir l’esclave de ses machines, doit, affirme-t-il, multiplier les implants de puces afin de rester dans la course à l’intelligence… »
_ Il y a des questions éthiques qui surgissent inévitablement, même au sein des initiateurs comme Kevin Warwick : il pense « qu’il n’y a plus aujourd’hui aucune limite à l’évolution des robots, ils finiront par atteindre une intelligence bien plus élevée que celle de l’être humain, ce qui soulève un gros problème : comment allons-nous gérer cela ? ». Il apparaît qu’il va falloir décider de quel homme voulons nous devenir.
_ A la fois objet et sujet, l’homme tient entre ses mains, pour le meilleur ou pour le pire, l’avenir de l’espèce humaine.

Publié dans Enjeux et usages des TIC (février-juin 2003), L’homme porteur d’objets communicants | Laisser un commentaire