Les nouvelles formes du savoir

Quelles sont les formes de culture apparues avec les nouveaux outils informatiques ? En quoi constituent-elles une innovation dans notre rapport au savoir ?
En quoi modifient-elles les enjeux économiques ?
Nous étudierons plus particulièrement la question du livre numérique et des enjeux qu’il soulève.

Avec l’outil numérique, on assiste au passage d’une forme matérielle à une forme virtuelle de la connaissance. La dématérialisation des supports rend les contenus infinis et indépendants des ressources naturelles, ce qui a pour conséquence de démultiplier les possibilités de traitement, de stockage et de production du savoir et de la connaissance.
Il s’agit d’un savoir ouvert, qui trouve son existence propre dans sa communication.
L’accès à ces données se fait à travers différents terminaux. L’information n’est donc plus liée à des lieux physiques, tels que les librairies, les bibliothèques, les marchands de journaux… Il peut se faire n’importe où et à n’importe quel moment grâce à l’internet mobile.

Ces nouveaux outils permettent d’avoir un accès à la culture beaucoup plus personnalisé. Ils réduisent la médiation dans la recherche de l’information.
Chacun peut donc se construire sa propre culture de manière beaucoup plus personnelle que lorsqu’elle est conditionnée par une sélection préalable (celle du libraire par exemple).
Il n’y a pas de tri dans l’information, c’est à chacun de juger de sa crédibilité (tandis qu’auparavant, cette part du travail était assumée par des professionnels).
Par ailleurs, chacun a dorénavant la possibilité de publier facilement et rapidement des informations grâce au WIKI. L’utilisateur devient un acteur à part entière de l’information disponible sur internet. Il a la possibilité de créer, de co-produire de collecter et de diffuser des contenus. Ainsi la diffusion de l’information n’est plus réservée à une élite.

Du fait de la libre circulation de l’information, la culture est en perpétuel mouvement.
La grande diversité de contenus liée au libre accès à la diffusion et à la manipulation des informations pose les questions de la qualité et de la fiabilité de l’information. Il est difficile de savoir quel crédit accorder aux informations disponibles sur internet. L’idée de transparence selon laquelle le savoir n’est plus détenu par un groupe restreint de personne a pour conséquence directe une disparition des repères pour juger de la qualité de l’information.

A partir du moment où on ne peut plus se baser sur la matérialité propre des supports (lettre, journal, revue, livre…) pour distinguer, classer et hiérarchiser l’information, il devient nécessaire de mettre en place des nouveaux repères.
Une des pistes pour la mise en place de ces nouveaux repères réside dans l’identification de la provenance et des modalités de publication. Il s’agit en effet d’interroger la construction de l’information afin de pouvoir évaluer sa crédibilité : rechercher qui en est à l’origine (particulier, organisme…), quel est son mode de publication, comment on y accède.
La crédibilité et la pertinence de l’information deviennent de vrais enjeux économiques.
Dorénavant, l’information constitue une valeur économique.

Dans le domaine de l’édition, trois nouvelles formes sont apparues avec les outils numériques:
– L’impression à la demande.
– L’ e-book.
– Les formats ouverts.

Si ces nouveaux outils transforment le rôle de l’éditeur, ils interrogent également la notion de livre. On peut ainsi se demander si ce qui prévaut dans l’idée de livre est le contenu ou l’objet en lui-même. Quand on parle de livre électronique, désigne-t-on la machine qui reçoit le texte où le texte envoyé à la machine ?
Par ailleurs, la publication numérique pourrait -être économiquement avantageuse pour les éditeurs, dans la mesure où les dépenses administratives, les coûts d’impression, de vente et de distribution des livres physiques représentent 40% des coûts.
Quel est l’avenir de l’édition numérique ? quels en seront les avantages et les inconvénients pour les éditeurs ? Que désignera-t-on dans le futur par « livre » ? Quel est le potentiel d’innovation du livre numérique?

Pour commencer, il apparaît qu’à chaque révolution liée aux supports de la culture écrite de nouveaux gestes et de nouveaux usages se mettent en place:
Ainsi au IVème siècle, le passage du parchemin au codex (livre composé de feuilles pliées, assemblées et reliées) a instauré de nouveaux gestes directement liés à l’invention de la page : la possibilité d’écrire en lisant, de feuilleter, de repérer un passage particulier…
Avec l’apparition de la textualité électronique, il existe dorénavant 3 modes d’inscription et de communication des textes :
– l’écriture manuscrite.
– La publication imprimée.
– La textualité électronique.

On assiste ainsi à une révolution du support de l’écrit qui à pour conséquence une révolution des pratiques de lecture.
L’outil numérique redéfini la notion de livre ainsi que son usage.
Tout d’abord, en ce qui concerne l’auteur, l’outil numérique offre la possibilité de transformer le processus de création : Il lui permet de développer son argumentation selon une logique qui n’est plus nécessairement linéaire et déductive mais ouverte, éclatée et relationnelle.
Ainsi la révolution du texte électronique entraîne une révolution de la technique de production des textes, et offre la possibilité de mettre au point de nouvelles formes d’écriture.
Il change également la donne en matière de reproduction.

En quoi le livre électronique peut apporter une valeur ajoutée par rapport à la version papier ? Quels sont les atouts du livre véritable ?
Tout d’abord, il apparaît que le livre électronique permet d’atteindre certains publics jusqu’alors tenus à l’écart du marché de l’édition :
Ainsi le projet 3T book projette d’adapter le livre « les Pierres de Venise » de John Ruskin dans une édition multimédia accessible aux aveugles et aux malvoyants. Le livre serait composé d’un CD-Rom ainsi que de planches en relief.
Cet exemple illustre bien comment le livre électronique offre la possibilité de penser de façon plus riche des ouvrages destinés à des personnes malvoyantes.
Par ailleurs, le livre électronique offre de gros avantages en terme de capacité de stockage : Il devient ainsi possible d’avoir la totalité de sa bibliothèque sous la main à tout moment.
Internet permet également de réduire les coûts de diffusions des livres classiques en offrant la possibilité de choisir des ouvrages dans des librairies virtuelles et de les imprimer à la demande ou de les télécharger (par exemple sur Amazon.com ou 00h.com). La publication numérique apparaît donc comme économiquement avantageuse pour les éditeurs, dans la mesure où les dépenses administratives, les coûts d’impression, de vente et de distribution des livres physiques représentent 40% des coûts.

Internet offre également la possibilité pour les auteurs de publier leurs textes directement, sans passer par l’intermédiaire d’un éditeur. Cependant, quelle est l’existence réelle de ces écrits dans la mesure où ils sont difficile d’accès et où ils touchent par conséquent un public restreint ? Selon Marc Alpozzo, « l’éditeur numérique à présent se transforme peu à peu en une plate-forme d’information (liens, forums, livres gratuits…) ».
L’éditeur devient pluridisciplinaire, dans la mesure où il assure les rôles d’éditeur, de libraire et de diffuseur. Ainsi l’idée selon laquelle internet offrirais la possibilité de démocratiser l’accès la diffusion est suppléée par la question de l’accès à l’information. C’est pourquoi il ne semble pas qu’internet marque réellement la fin du « prêt à penser », c’est-à-dire de la sélection des informations en fonction de leur rentabilité.

Par ailleurs, l’édition en ligne permet de faire entrer le lecteur dans le processus éditorial (voir le site du Seuil).
Ainsi le rôle de l’éditeur sera de mettre en place un dispositif permettant de percevoir à l’écran la différence entre un livre et tout autre type de texte et plus particulièrement la distinction entre un livre et la libre circulation des réflexions et créations de chacun.
Cette distinction passe par la reconstitution dans la textualité électronique, d’un ordre des discours permettant de différencier les textes spontanément mis en circulation sur le réseau et ceux qui ont été soumis aux exigences d’un travail éditorial, et de rendre perceptible le statut et la provenance des discours et ainsi de leur attribuer plus ou moins d’autorité en fonction de la modalité de leur publication.
Il est donc nécessaire de mettre en place des systèmes de sécurité.

Par ailleurs, qu’en est-il de la protection des droits d’auteurs ?
Le téléchargement rend difficile la protection des droits d’auteurs, dans la mesure où il est difficile d’empêcher celui qui a téléchargé de le transférer à un ami. On se retrouve confronté au même problème que dans le domaine de la musique.
Il apparaît donc indispensable d’utiliser des systèmes de téléchargement contrôlé. Adobe et Microsoft proposent par le biais de leurs structures commerciales des systèmes de protection très onéreux pour rendre les fichiers lisibles sur tous type d’écran informatique. La quantité des formats à prendre en charge (PDF, XML, Adobe Ebook Reader, Microsoft Reader, open Ebook…) rend la réalisation d’un e-book relativement coûteuse, ce qui explique que le marché soit encore réduit. Une standardisation du format numérique dans le monde de l’édition permettrai de réduire ces coûts.
Une autre solution pourrait résider dans l’accès payant en ligne.

Par ailleurs, la question des formats pose la question du lien entre le commerce des machines électroniques et l’édition en ligne et des risques d’une hégémonie économique et culturelle imposée par les grandes puissances du multimédia et du marché des ordinateurs.

Des prototypes d’ordinateurs portables destinés à la lecture ont été mis au point afin de distinguer un livre électronique d’un simple ordinateur portatif : Softbook(softbook Press), Rocket ebook (Nuvomedia), EB Dedicated Reader (Everybook).
Voir www.rocket-ebook.com
www.softbook.com
www.everybook.net
Le Cybook se présente par exemple dans un étui semblable à une couverture de livre.

Parallèlement à la conception d’un objet spécifique, se pose la question des interfaces de lecture : Quels types de logiciels pourrait-on concevoir afin de s’adapter à la lecture à l’écran et de mettre en place une nouvelle manière de lire ?
Comment exploiter le digital, la navigabilité ainsi que les possibilités d’interraction ?
On retrouve pour l’instant dans la lecture à l’écran tous les repérages propres à la forme qui est celle du livre :pagination, index, tables…
Avec Acrobat Reader 4.05 (Adobe), 2 nouvelles fonctions apparaissent :
– La rotation de texte.
– Le plugiciel WebBuy qui permet de télécharger des livres au format PDF à condition de s’être inscrit auparavant ou d’avoir payé des frais d’abonnement.

Il permet un téléchargement contrôlé, ce qui permet d’accéder à une sécurité au niveau des droits d’auteurs et de reproduction. C’est donc un outil fiable pour le monde de l’édition.

Un des grands potentiels du livre électronique réside dans la lecture interractive :
-L’hypertexte permet des accès multiples, l’utilisation des images, des images animées et des sons.
Le livre de David Small (The Illuminated Manuscript, 2002) présenté à l’exposition Design interactif au Centre Pompidou (voir http://www.davidsmalls.com) est un bel exemple de ce que pourrait être l’avenir du livre. Il propose grâce à un système de caméra et de capteur une lecture tactile du texte. Il intègre ainsi les capacités de création de l’outil numérique tout en conservant les gestes traditionnellement liés à la lecture.

Par ailleurs, le livre numérique offre également la possibilité d’introduire des annotations.
Le lecteur devient co-auteur : le livre n’est jamais clos.
Il permet ainsi un phénomène de sociabilisation et d’échange autours du livre et de sa création. De telle pratiques posent la question de la signature de l’œuvre : La frontière entre l’auteur et le lecteur devient difficile à distinguer.

Pour conclure, selon Jean Trudeau (« le livre électronique, une technologie sur mesure pour la formation à distance »), il existe 5 conditions au succès du livre numérique :
– L’arrivé d’un ordinateur portable format livre assez puissant dont l’écran est adapté à la lecture et facilement branchable et peu coûteux.
– L’adhésion des milieux de l’édition à un format numérique standardisé (open ebook) et à un protocole de transmission sécuritaire pour les droits d’auteurs et pour les droits de reproductions (EBX).
– La multiplication des bibliothèques et des librairies virtuelles pour distribuer ces livres auxquels on pourra se brancher en tout temps.
– La mise au point de logiciels adaptés à la lecture active à l’écran.
– Des lecteurs qui prennent plaisir à lire longtemps sur un écran.
Cependant, il apparaît surtout que les outils numérique offrent bien davantage qu’un nouveau moyen de diffusion de livres traditionnels. Ils permettent de repenser dans son ensemble la forme et le contenu du livre en l’envisageant comme une matière virtuelle non figée.

Publié dans Enjeux et usages des TIC (octobre-décembre 2003) | Un commentaire

Les Rebelles

> Quels sont les acteurs, les « rebelles » ?
_ Quels sont leurs revendications et leurs moyens d’action ?
_ Agissent-ils de façon collective ou de manière individuelle ?
_ > Le Web est-il utilisé comme un outil narratif ou comme un outil d’autonomie ?

I – LES ACTEURS ET LES PARTISANS DU LOGICIEL LIBRE

Caractéristiques du logiciel libre :
– il est distribuable librement
– le code source est disponible
– il est modifiable par quiconque est suffisamment expérimenté en programmation
_ Le plus bel exemple de logiciel libre est Linux…

1 – Les personnages qui font avancer Linux

Linux est un système d’exploitation, de la famille des UNIX (système d’exploitation conçu en 1969 par deux chercheurs – Thompson et Ritchie – des laboratoires Bell). LINUX TORVALDS est à l’origine de Linux (« Linux’ UNIX » l’UNIX de Linux), qui l’a mis au point alors qu’il était étudiant à l’Université d’Helsinki. Il reste aujourd’hui encore le coordinateur du noyau Linux, et il tutelle aussi les milliers d’anonymes qui développent ce système d’exploitation, partout dans le monde.
_ Les points forts de Linux : la stabilité, la liberté (de corriger les erreurs, d’améliorer le logiciel, d’adapter le logiciel à ses besoins), la puissance, l’ouverture, le faible coût (car « free software » – « logiciel libre » en anglais – ne veut pas dire « logiciel gratuit »).

RICHARD STALLMAN est l’initiateur du projet GNU, fondé en 1984, qui pose les bases utilisées aujourd’hui par de nombreux logiciels libres. Il est aussi l’auteur principal de la GCC (GNU C Compiler), un compilateur C largement répandu, la GDB (GNU symbolic debugger) et GNU Emacs, un éditeur de texte.
_ Le projet GNU est un système d’exploitation similaire à UNIX (il utilise le noyau Linux : GNU/Linux), et est devenu le fondement « législatif » de la plupart des logiciels existant sous Linux, puisque c’est de lui dont est issue le Général Public License (GPL) qui protége la plupart d’entre eux. L’une des contributions les plus notables de GNU est l’initiation du mouvement de copyleft (par opposition à copyright).

MIGUEL DEL ICAZA est le fondateur du projet Gnome et l’un de ses principaux développeurs. Il vient de créer la société Helix Code avec Nat Friedman afin de développer Gnome.
_ L’un des objectifs du projet Gnome (GNU Network Object Model Environment) est de populariser UNIX auprès des utilisateurs en le rendant plus convivial c’est-à-dire en créant une interface graphique et les outils nécessaires – bibliothèques – au développement d’application). L’autre objectif du projet Gnome est de rendre le projet GNU plus accessible à tous, de manière libre, avec une gamme d’applications et d’outils. En effet, les systèmes libres ont une interface graphique peu conviviale. C’est pour cela, qu’ils ont longtemps été considérés comme réservés aux spécialistes.
_ De plus le projet Gnome a pour but de faire concurrence au projet KDE qui ne correspond pas à la philosophie de GNU : son développement étant fondé sur une bibliothèque non-libre.
_ Quelques composants de « Gnome Workshop » : AbiWord (un traitement de texte), GIMP (un éditeur d’image équivalent de Photoshop)…

Deux autres projets importants sous Linux :

Le projet KDE (K Desktop Environment) : KDE est l’environnement de bureau le plus populaire sous Linux, développé par les stations de travail UNIX depuis 1996. L’objectif principal de KDE, tout comme celui de Gnome, est de toucher l’utilisateur moyen avec une interface graphique plus conviviale. Objectif atteint, étant donné que KDE est devenu rapidement une alternative viable au couple système d’exploitation-environnement de travail et qu’il est aujourd’hui le principal véhicule de la démocratisation de l’usage de Linux. De plus, KDE développe une suite d’applications majeures, fondée sur sa technologie KOM/Open Parts. Il s’agit de Koffice.

Le projet Apache : Apache est le serveur Web le plus utilisé dans le monde. Il est le fruit d’un développement collaboratif en vue de créer une implémentation libre du code source du serveur Web HTTP. Il est considéré, comme bien meilleur que la plupart de ses équivalents commerciaux (50% de part de marché contre 22% pour Microsoft). Il est piloté par un petit groupe de volontaires dispersés à travers le monde : l’Apache Group, sans compter les centaines d’utilisateurs qui contribuent à l’avancement des idées, eu développement du code et de la documentation. Aujourd’hui Apache est utilisé par de nombreuses grandes entreprises comme IBM (dans son serveur d’application WebSphere) et…Microsoft (pour ses serveurs Internet !!!).

2 – La Communauté Linux

Elle représente les développeurs et les 10 millions d’utilisateurs de Linux dispersés à travers le monde. La Communauté Linux développe de nombreux projets (GNU, Gnome…), aide les utilisateurs et les développeurs au travers de groupes de news ou de listes de diffusion et elle se regroupe dans des associations pour promouvoir Linux.

3 – Les LUGs (Linux Users Groups)

Les LUGs sont d’implantation locale et sont constitués de passionnés qui organisent des manifestations pour la sensibilisation de Linux, des initiations (Install-parties) et aident les utilisateurs. Voici quelques LUGs en France : ABUL (Association Bordelaise des Utilisateurs de Linux), ALDIL (Association Lyonnaise pour le Développement de l’Informatique Libre), Apodéline à Paris (Association pour le Développement de Linux)…

4 – Les associations pour la promotion de Linux et des logiciels libres (situées en France)

APRIL (Association pour la Promotion et la Recherche en Informatique Libre) a pour objectifs d’assurer la promotion, le développement, la recherche, la démocratisation et la sécurisation (GNU Général Public License) de l’informatique libre.

AFUL (Association Francophone des Utilisateurs de Linux et des logiciels libres) assure la promotion des logiciels libres et en particulier le système d’exploitation Linux muni de l’environnement GNU.

Et bien sûr la FSF (Free Software Foundation) France qui a comme devoir, de s’assurer que le logiciel libre reste une propriété culturelle accessible à tous, de veiller à sa sécurisation, d’en maintenir son développement et d’offrir des perspectives et des conseils aux compagnies qui construisent leurs affaires sur ou autour du logiciel libre (d’impliquer l’économie car le logiciel libre possède un immense potentiel commercial).

5 – Les sociétés commerciales

Corel, SuSE, RedHat (éditeurs de logiciels Linux et prestataires de services Linux), Mandrake Soft (éditeur de la distribution Mandrake)…

… Et IBM, multinationale devenue avocat du logiciel libre. Est-ce pour contrebalancer l’acteur Microsoft…
_ IBM est surtout impliqué dans le noyau GNU/Linux et a créé l’IBM Linux Technology Center (LTC), ECLIPSE et le GRID Computing. Avec AFUL, IBM organise le Forum IBM du logiciel libre.
_ Pourquoi IBM se mobilise autant pour le logiciel libre ? Peut-être parce que dans les années 80, alors toute-puissante, la firme commet la grave erreur de passer à côté du software, et laisse le champs libre à Microsoft (Windows). IBM essaye-t-il de se « rattraper » en s’impliquant dans les logiciels libres ?

6 – Les ennemis du logiciel libre

Le logiciel libre inquiète les géants de l’industrie informatique. Le groupe de pression Initiative for Software Choice (ISC) comprenant notamment Microsoft, Intel, Cisco Systems, « déplore l’adoption de politiques discriminatoires à l’encontre des logiciels commerciaux. Les politiques qui favorisent Linux, violent d’ailleurs les règles du commerce international édictées par l’OMC », d’après Hugo Lueders (directeur Europe de l’ISC).
_ Durant le Sommet Mondiale de la Société de l’Information (SMSI), un creuset s’est formé entre les ONG (Organisations Non Gouvernementales) et les représentants du secteur privé, qui ne voulaient se référer qu’à l’OMPI (Organisation Mondiale de la Propriété Intellectuelle) ou à l’OMC (Organisation Mondiale du Commerce) à l’évocation de certains sujets traitant du logiciel libre. Au début de la session, les deux documents (« Declaration of Principles » et
« Action Plan) faisaient souvent référence au logiciel libre comme choix préférable dans la société de l’information. Pour mettre fin à ce « scandale », l’angle d’attaque choisi par les opposants est de réduire le logiciel libre à une simple méthode de développement comme une autre et qui donc n’a aucune place dans un document comme le « Declaration of Principles ». Argument repris par les divers représentants des entreprises (Coordinating Committee of Business Interlocutors) et par la délégation américaine : l’idée étant que la SMSI « devait rester neutre sur un plan technologique ».
_ Nous pouvons comprendre l’inquiétude des multinationales, sachant que :
« Un logiciel téléchargé librement nous confirme instantanément que les bénéfices tirés du seul commerce des logiciels sont disproportionnés par rapport à la facilité avec laquelle il est possible de reproduire ce logiciel (pourquoi Bill Gates est-il l’homme le plus riche du monde et pas richard Stallman ?) » Michel Valensi : le logiciel libre sonne-t-il le glas d’un eldorado ?
De plus les choix informatiques deviennent politiques lorsqu’ils favorisent les logiciels libres au détriment des éditeurs commerciaux : des pays, comme le Venezuela, le Pérou (pourtant membres de l’OMC), le Brésil ou le Portugal se dressent ouvertement contre la toute puissance des multinationales américaines.

II – Les pirates du Numérique

1 – Les « Hackers »

Les hackers se proclament de la culture hacker, culture issue des informaticiens du MIT (Massachusetts Institute of Technology). Ils sont défenseurs du logiciel libre et leur système d’exploitation privilégié est Linux. Les hackers n’acceptent aucune compromission avec le pouvoir économique. Pour eux, la lutte à mener doit être totale et ils n’hésitent pas à recourir à des moyens illégaux pour, d’une part dénoncer la mainmise des multinationales sur les technologies de la communication et de l’information et la logique qui conduit ces firmes à sortir des logiciels truffés de bugs, au stade bêta de leur développement (stade d’avant leur commercialisation, phase de tests et de corrections). Puis d’autre part, ils anticipent les dangers suscités par l’appropriation de l’espace communicationnel d’Internet par un quelconque pouvoir : la moindre action des individus pourrait être enregistrée par des moyens informatiques et pourrait être utilisée ensuite à des fins autre que commerciaux (contrôle politique ou idéologique, totalitarisme). Les
« cookies » en sont un exemple : présents dans 80 % des sites commerciaux, ils espionnent les utilisateurs et envoient des informations à des serveurs commerciaux pour constituer des dossiers. D’où leur slogan : « tant qu’il y aura des hackers, il n’y aura pas de Big Brother ».

Leurs moyens d’action : ils attaquent directement les sites Web des grandes sociétés, forcent les barrières de sécurité des réseaux informatiques des multinationales et des institutions comme le FBI, qui représentent un pouvoir de contrôle de la société. Ils développent aussi des virus informatiques particulièrement virulents, qui visent à dénoncer le crédit que les utilisateurs accordent aux logiciels commerciaux : ils utilisent le propre point faible (le manque de fiabilité) de ces logiciels pour les attaquer. L’un des plus connus est « I love you ». Le dernier en date est « Une carte virtuelle pour vous », classifié par Microsoft comme « le plus virulent jamais connu » : il détruit le Zéro de Secteur du disque dur. Il existe aussi « Lovsan » : le 15 Août, il utilisa les ordinateurs infectés pour bombarder les boîtes e-mails de Microsoft du message « Bill Gates, voilà un cadeau pour toi. Plutôt que de te faire de la tune, fais de meilleurs logiciels ». En effet, pour les hackers, Big Brother a un nom : celui de Bill Gates, l’ancien PDG de Microsoft (le nouveau PDG est Steve Balmer depuis le 08/01/2004). Microsoft représente le symbole même de l’entreprise totalitaire par le monopole qu’il détient dans les secteurs d’activités qui concernent les réseaux de télécommunication (quand on achète Windows, on a obligatoirement Internet Explorer, qu’on paye aussi).
_ De plus, les hackers offrent gratuitement des petits programmes appelés
« cracks », qui permettent d’utiliser les logiciels commerciaux sans entrer le numéro de série ou inventent des logiciels comme Gnutella ou DeCSS, qui donnent la possibilité de copier illégalement des créations d’auteurs, visant ainsi à dénoncer le développement du Web commercial. Ce piratage inquiète les éditeurs, qui utilisent parfois des moyens de lutte (illégaux ou à la limite de la légalité) risquant le freinage du développement de la libre expression et du partage libre de ressources sur Internet : en constituant des fichiers sur les utilisateurs, à leur insu ou, par exemple, en vendant des CD qui ne sont pas lisibles dans certains autoradios…
_ À travers cette lutte, c’est aussi la conception propriétaire (conception du droit d’auteur) des œuvres artistiques qui se heurtent directement à une conception libre de la possession et de la consommation de ces œuvres. La conception propriétaire a une logique de profit : développer des stratégies, pour réduire l’espace libre d’échanges du cyberespace en une gigantesque galerie marchande. La conception libre, elle, prône le principe d’origine d’Internet : rien n’appartient réellement à quelqu’un et tout s’échange librement.
_ Internet, c’est le partage et la dynamique collective de la production du savoir et des œuvres. Linux en est un bel exemple : il est possible de créer quelque chose d’une façon collective, dans une conception aux antipodes de la valeur de propriété individuelle du créateur.

2 – Les Crackers (de « cracker » briser, briser un code informatique, un mot de passe)

L’objectif du cracker est de parvenir à pénétrer les systèmes informatiques réputés pour leur inviolabilité. Pour leur gloire personnelle (ils agissent seuls), afin d’obtenir la reconnaissance des autres crackers : c’est un univers dominé par des figures de légendes. L’un des plus célèbres est Kevin Mitnik, connu sous le pseudonyme du « Condor ». Lors de son arrestation, survenue le 15 février 1995, par le FBI, Mitnik était en possession de quelques 20 000 numéros de carte de crédit (qu’il n’a jamais utilisé) et il pouvait commander à distance le fonctionnement des siéges centraux des trois compagnies de téléphone à New York…
_ Les crackers sont parfois employés comme mercenaires à la solde d’une entreprise : ils pénètrent dans les bases de données de ses concurrents , devenant ainsi des cyber-espions.

Les crackers défendent une conception de l’existence où la passion de l’informatique se conjugue avec la volonté de relever des défis. Alors que pour les hackers ces défis doivent permettre le progrès technologique, sans perdre de vue la défense des origines de l’Internet, pour les crackers, ces défis consistent juste à prouver leur niveau de maîtrise des technologies informatiques. La Liberté pour le hacker est une fin en soi, tandis que pour le cracker, elle n’est qu’un moyen pour arriver à une fin personnel.

III – Les libertaires d’Internet

L’idéologie anarchique relève de l’utopie dans la mesure où elle est fondée sur la construction d’une société entièrement libre. Les libertaires rejettent donc toutes formes d’autorité (l’Etat, le Capital, l’Eglise) entravant l’individu.
_ La TAZ (Zone Autonome Temporaire) est une action directe, un combat contre le Pouvoir, conceptualisée dés 1991 par le philosophe américain : HAKIM BEY. Le texte original a été publié sous le titre « T.A.Z. The Temporary Autonomous Zone. Ontological Anarchy, Poetic Terrorism ». La TAZ « peut se définir comme un espace/temps dans lequel règne un ordre (ou désordre) particulier, en marge de l’ordre général » (extrait d’un article de Nicolas Santolaria) : elle est un espace, réel ou virtuel, libéré du contrôle de l’Etat, de l’économie de marché ou des jeux de pouvoirs classiques.
_ La grande chance selon Hakim Bey, c’est Internet. Grâce aux logiciels libres qui font exploser les cadres du commerce, grâce aux pirates qui s’attaquent aux multinationales et surtout grâce à la gigantesque toile numérique qu’il tisse sur le monde, le Net met en relation des groupes dont personne, hier n’aurait connu l’existence.
_ « Si la TAZ est un campement nomade, alors le Web est le pourvoyeur des chants épiques, des généalogies et des légendes de la tribu ; il a en mémoire les routes secrètes des caravanes et les chemins d’embuscade qui assurent la fluidité de l’économie tribale ; il contient même certaines des routes à suivre et certains rêves qui seront vécus comme autant de signes et d’augures » (Hakim Bey).

Les forces motrices de la TAZ :
_ > La critique de la Révolution amène Hakim Bey à l’appréciation de l’Insurrection c’est-à-dire à la stratégie empruntée à celle de la guérilla : la mobilité et la capacité à renaître n’importe où.
_ > La « fermeture de la carte » : notre siècle est le premier sans « terra incognita », sans une frontière et Internet est un espace infini qui offre la possibilité d’un
« nouveau mode »…
_ Les facteurs contribuant à l’émergence de la TAZ :
_ > « L’anthropologie naturelle de la TAZ » : Hakim Bey met en opposition la
« famille nucléaire » qui est pour lui l’ « unité de base de la société de consensus » et la bande « ouverte » à la structure horizontale (de coutumes, de famille élargie, d’alliance et de contrat…), issue de l’« abondance ».
_ > « La TAZ en tant que festival » : pour Hakim Bey toutes structures d’autorité se dissout dans la convivialité et la célébration, et « l’essence de la fête » c’est le face-à-face.
_ > « Le concept de nomadisme » : la TAZ est une « machine de guerre nomade » ; son « attaque » porte sur les structures de contrôle (comme l’OMC), essentiellement sur les idées, par des micro insurrections et sa défense est son
« invisibilité » (« dés que la TAZ est nommée, représentée, médiatisée, elle doit disparaître, pour resurgir ailleurs » Hakim Bey).
_ > Le Web : « le Web offre non seulement un support logistique à la TAZ, mais il lui permet également d’exister ».

IV – Conclusion

Nous sommes en 2004. Voilà maintenant deux décennies que nous assistons, selon la maxime du philosophe Fujimori à « la fin de l’Histoire ».
_ En réalité, elle continue. Elle a simplement changé d’apparence. On ne croise plus l’Histoire dans les atlas, mais dans les serveurs Internet : 1515 « Marignan », 2001 « I love you ». « Croisades », « guérillas » et « dommages collatéraux » perdurent dans la bataille pour cette « Terra Incognita » qui n’est pas encore conquise. Rebelles et « Forces impériales » luttent à armes égales : virus et cracks contre cookies et spyware.
_ Une seule force ne s’est pas encore engagée : l’opinion publique. Les Américains ont perdu la guerre du Vietnam sur les campus de Californie, les multinationales perdront-elles celle d’Internet dans les chats de Caramail ?

Pourquoi une lutte aussi acharnée ?
_ Qu’est-ce que des firmes toutes-puissantes comme Microsoft craignent-elles « réellement » ? La perte de quelques millions de dollars à cause de Linux ?
_ La guerre pour le Web ne cache-t-elle pas un enjeu plus profond ?
_ L’échange infini et la gratuité de la matière numérique ne sont-ils pas les prémices d’une nouvelle économie dans le monde « palpable » ? (« Vos concepts légaux relatifs à la propriété, à l’expression, à l’identité, au mouvement et au contexte ne nous concernent pas. Ils sont fondés sur la matière. Ici, il n’y a pas de matière. » John Perry Barlou, extrait de la Déclaration d’indépendance du Cyberespace )
_ L’utopie originale de l’Internet se concrétise… Les efforts individuels de chaque hacker, de chaque programmeur « libre »… construisent pierre par pierre l’architecture qui fait émerger cette idée du stade d’ « utopie » à celui de « système de société ».

Qu’adviendrait-t-il si les Rebelles l’emportaient ?

Publié dans Enjeux et usages des TIC (octobre-décembre 2003) | Laisser un commentaire

Quel ordinateur domestique pour demain ?

Une étude réalisée par le CREDOC(1) à la demande de l’ART(2) et du CGTI(3) montre qu’aujourd’hui près d’un adulte sur deux dispose désormais d’un ordinateur à son domicile. Face à la progression constante de l’équipement informatique dans les logements, on peut se questionner sur sa forme actuelle.
Au-delà, dans cette société contemporaine où la présence de l’ordinateur à la maison semble être devenue une fatalité, il semble intéressant de s’interroger également sur l’avenir de l’ordinateur personnel tel que nous le connaissons.
Pourrons-nous nous passer un jour du P.C. ? L’avenir ne va t’il pas dans le sens de sa disparition plus que dans celui de sa propagation au cœur de toutes les maisons ?
Cette étude n’a pas la prétention de vouloir définir l’ordinateur de demain, ni de prédire son évolution, mais plus simplement de proposer une hypothèse et une réflexion autour de l’équipement informatique domestique tel qu’il pourrait être envisagé.
En effet d’autres solutions que le PC permettent d’avoir accès aux nouvelles technologies et nous verrons lesquelles.
Enfin nous chercherons quelles possibilités nous offrent les nouvelles technologies pour l’avenir ?
1) Le PC correspond-il à nos besoins ?

1-1 les utilisations de l’ordinateur domestique

Nous pouvons constater que certaines utilisations ont tendance à se développer et à bouleverser nos habitudes.
Avec 580 millions de personnes possédant une connexion Internet dans le monde chez soi (4)on peut considérer que celle-ci est l’activité première de l’ordinateur domestique.
Selon une enquête du CSA-ministère de la recherche(5), nous pouvons définir les utilisations les plus courantes d’un ordinateur domestique par les français :

1) se former et développer ses connaissances
2) communiquer
3) se renseigner sur des produits ou services
4) travailler à la maison
5) faire ses comptes bancaires et ses placements
6) stocker, échanger et traiter des souvenirs (photos vidéo)
7) écouter, stocker, échanger de la musique
8) organiser ses loisirs (sortie, voyage)
9) regarder, stocker, échanger des films
10) jouer
11) suivre l’actualité
12) faire des achats

1-2 La  » configuration standard  » : une notion élastique

Comme nous avons pu le constater précédemment, les besoins (et le budget) d’une famille à une autre, peuvent être parfois très différents. C’est pourquoi il parait assez difficile de définir une machine « domestique ». Dans les magasins, on éprouve la même difficulté à répondre à la question, d’autant que l’évolution de l’informatique est telle que la réponse sera totalement différente dans six mois.
C’est pourquoi il devient de plus en plus difficile de faire son choix au milieu de cette surabondance d’offres en matière d’équipement informatique. Les ordinateurs que l’on nous vend permettent une infinité d’utilisations
mais les constructeurs en font payer le prix. (autour de 1.000 euros pour un équipement première gamme). Seulement, pour une grande majorité de personnes, cette multitude d’usages est un frein à la compréhension de l’ordinateur et la simple idée d’en posséder un rime souvent avec complication et investissement en temps. Même si aujourd’hui le PC semble globalement intégré par tous, la question de sa configuration par rapport à son usage reste posée.

1-3 Indispensable, l’ordinateur à la maison ?

Miser sur un processus de conception centré sur les utilisateurs, c’est considérer que la technologie doit être véritablement construite pour répondre aux habitudes de ceux-ci. Etudier les usages courants en début de projet est un gain substantiel pour développer un outil véritablement adapté au marché qu’il vise.
La mise en place de solutions technologiques dans des environnements humains, professionnels ou grand public, génère des risques de rejet de la part des usagers.
Or, à la question « indispensable, l’ordinateur a la maison ? », 44 % des Français non équipés répondent « non », selon un sondage pour le compte du ministère de l’Industrie. Outre le manque d’utilité, le prix est aussi un obstacle majeur à l’équipement.
Si la France a connu une belle progression en matière d’équipement informatique avec plus de 10 millions de foyers équipés d’un ordinateur, elle risque pourtant d’atteindre bientôt un seuil de saturation. C’est ce qu’on pourrait croire au vu des résultats d’un sondage CSA-Opinion réalisé pour le compte de Nicole Fontaine, ministre déléguée à l’Industrie afin de « mieux comprendre les raisons du retard français en matière d’équipement en micro-ordinateurs »(6). Selon ce sondage réalisé en début de l’année dernière (du 21 au 28 février 2003) auprès d’un échantillon représentatif de 1 088 personnes âgées de 15 ans et plus, 44 % des personnes non-équipées ne voient pas l’intérêt d’utiliser un ordinateur.
Le manque d’utilité n’est pas le seul critère de non-adhésion au monde informatique. Le prix, jugé trop élevé, constitue un obstacle majeur pour 37 % des sondés, essentiellement les jeunes et les foyers à bas revenus. Enfin, pour 12 % des non-équipés, l’utilisation d’un micro-ordinateur est considérée comme trop complexe, notamment à installer, à entretenir et même à acheter. Pour l’institut de sondage, des efforts de formation et d’éducation, notamment par le biais de l’école, paraissent donc indispensables pour favoriser l’adoption des nouvelles technologies au sein du foyer. Certes, ces efforts sont importants, mais ils ne règlent pas le problème du tarif et de l’absence d’utilité.
Ainsi malgré leur grande diversité, aucun usage ne semble à même de rendre indispensable le P.C. à certaines personnes réfractaires.

Il parait donc légitime d’envisager pour demain une nouvelle façon de rendre l’informatique réellement accessible à tous en revalorisant ses usages, en les rendants moins complexes et moins coûteux.

2) Quelles possibilités pour l’avenir ?

On parle souvent de l’avenir de l’ordinateur au centre de la maison, sorte de salle des machines qui relierait tous les appareils entre eux afin qu’ils partagent des informations, se complètent, évoluent mutuellement. Ceci est d’ailleurs tout à fait possible aujourd’hui et même très pratiqué dans des applications de tous les jours : par exemple écouter de la musique MP3 sur sa chaîne hi-fi ou regarder un DVD ou un DIVX sur sa télé par l’intermédiaire de l’ordinateur.
Mais il est évident qu’il y a un certain nombre de désavantages à ce type d’installation. Nous pouvons citer notamment la dépendance des éléments à un seul processeur mais également et surtout la complexité d’usage pour le plus grand nombre d’entre nous.
Et si l’avenir était une sorte de retour en arrière sur la façon de consommer avec des produits qui, eux, auraient intégré les bienfaits et les fonctionnalités des nouvelles technologies ?

2-1 De plus en plus d’objets indépendants fonctionnent sans l’ordinateur

Faire reposer toute la technologie de la maison sur un seul appareil, l’ordinateur, peut s’avérer dangereux et provoquer des situations surréalistes en cas de problème. C’est le cas de tout objet multifonctions.
Réfléchir à des objets communiquant mais indépendants peut être une solution appropriée.
Le schéma de l’achat d’objets technologiques (multimédia en particulier), il y a quelques années, était très simple. Je veux écouter un CD, j’achète un lecteur CD, je veux regarder la télé, j’achète une télé, je veux écouter la radio, j achète une radio, je veux regarder un DVD, j achète un lecteur DVD, je veux jouer à des jeux vidéo, j’achète une console de jeux etc…
Aujourd’hui j’achète un ordinateur pour l’ensemble de ces fonctions… et s’il ne marche pas je suis privé de tout. Beaucoup d’objets avaient déjà commencé à présager d’un avenir « tout en un ». Je pense aux micro-chaînes hifi ou au combiné tv-magnétoscope entre autres.

Mais selon Gilles Privat, directeur du laboratoire Objets communiquants de France Télécom R&D à Grenoble
«(…) l’informatique éclatée est le premier pas vers le dépassement du monopole du PC comme interface unique avec le monde de l’information (…) »
Or un grand nombre de projets ou d’objets actuels tendent dans cette direction.

Des chaînes hifi permettent de télécharger, sans ordinateur, de la musique mp3 sur internet. Il est possible également de recevoir ses mails et des photos sur sa télévision sans ordinateur et sans ligne téléphonique grâce au module SatMessenger developpé par Worldsat. Certains lecteurs mp3 portables comme le jukebox recorder20 permettant de contenir environs 20GB de musiques sont dotés d’encodeurs mp3 leur offrant la possibilité d’acquérir indépendamment de l’ordinateur de la musique et j espère bientôt pouvoir ce l échanger entre lecteur.
Nous assistons également au développement de mini pc se consacrant de plus en plus au salon et qui finissant même parfois par devenir de simple console de jeu.

Un des produits qui revendique aujourd’hui cette volonté d’offrir une alternative au pc traditionnel semble être
le nouveau né de sony au japon, le airboard. (7) Cet écran tactile LCD de 10 pouces pesant environ 1,5kg et disposant d’une prise antenne et d’un connexion pour modem sans fil va permettre de regarder la télévision tout en surfant sur le web de n importe où dans la maison et le jardin. L’accent est mis sur sa facilité de prise en main. De plus il permet de se connecter en réseau avec tout appareil audio-vidéo compatible avec l’Airboard.
Il s’agit donc d’un objet offrant un minimum d’usages bien definis ( tv, internet et quelques logiciels de Bureautique ) tout en restant totalement évolutif sur de nouvelles utilisations non imposées ( lecteur dvd, magnétoscope, hi-fi etc….).

Article de France télécom au sujet du wifi à la maison (8):

« A nouveaux usages, nouveaux terminaux. France Télécom R&D expérimente actuellement l’utilisation de webtablettes pour accéder sans fil à l’Internet haut débit. Une webtablette se présente sous la forme d’une ardoise électronique constituée essentiellement d’un écran tactile haute définition, de mini haut-parleurs, d’une webcam, d’un stylet faisant office de crayon et de souris et, bien sûr, d’un récepteur radio WiFi. D’un emploi très simple, la webtablette permettra à la maîtresse de maison de consulter une recette de cuisine, avec explications vidéo, sans aucune connaissance nécessaire de l’informatique. Elle pourra poser la webtablette n’importe où dans la maison, par exemple sur le plan de travail, et écouter les explications dispensées tout en recherchant les ingrédients dans son armoire à provisions. Plus tard, son fils, collégien, pourra se détendre ou réviser en surfant dans sa chambre sur « après l’école », la webtablette confortablement posée sur ses genoux. En fin de soirée, toute la famille se réunira autour de la webtablette pour appeler la grand-mère en Bretagne par visioconférence. Ces solutions seront commercialisées courant 2003 et devraient révolutionner l’usage d’Internet à la maison, en l’ouvrant notamment à tous ceux qui sont réticents vis-à-vis ce l’informatique. »

2-2 Comment vivrons-nous avec l’ordinateur de demain ?

Le PC ne va pas disparaître. Au contraire, il y en aura de plus en plus. Simplement, on les remarquera moins parce que chacun aura un ou plusieurs petits appareils portables, qui rendront les mêmes services.
En ce qui concerne l’ordinateur domestique, l’avenir laisse augurer une meilleure intégration de ce dernier dans l’espace de l’habitat grâce à la miniaturisation de l’électronique. Toutes sortes d’appareils domestiques sont ainsi dispersés selon les besoins dans toute la maison grâce notamment à l’amélioration des réseaux sans fils (wifi CPL ou même Bluetooth) et à la démocratisation des écrans plats.
Ensuite, il faudra patienter une petite dizaine d’années pour laisser les techniques arriver à maturité. Nous parlerons alors naturellement à des ordinateurs que nous ne verrons plus. Ils seront intégrés dans les murs. Ils nous répondront, ils nous comprendront. A l’intérieur, les maisons reprendront leur aspect actuel, la quincaillerie informatique aura suffisamment progressé pour disparaître de notre vue. Elle sera devenue aussi simple, discrète et essentielle à l’existence que l’électricité ou le téléphone. Elle se sera pliée à nos habitudes et n’importe qui pourra l’utiliser. Seuls quelques écrans plats ou rétroprojecteurs, dans les chambres et salons, témoigneront du nouveau monde.

Conclusion :

Il se pourrait donc que nos besoins futurs soient comblés par une multitude d’appareils dédiés plutôt que par une grosse machine. La technologie nous ferait retrouver, de façon assez paradoxale, un équipement pouvant ressembler un peu à ce que l’on connaissait avant l’apparition des ordinateurs dans les foyers.
Le fait nouveau, par contre, est que ces appareils, qui seraient miniaturisés (exemple de toshiba avec un disque dur de 0,85 pouce, soit à peine 2 cm pour 4GB et peut-être même un jour l’apparition d’un processeur moléculaire), d’une part communiqueraient entre eux et d’autre part auraient des fonctions qui s’adapteraient automatiquement à nos usages grâce à leurs processeurs intégrés et une intelligence artificielle.
Nous avons vu que des objets de ce type existent déjà et tout semble nous laisser croire qu’ils vont rapidement se développer.
De cette manière, l’informatique deviendrait en quelque sorte « transparente » pour le non-initié et le consommateur pourrait alors se consacrer uniquement à l’activité qui a motivé son achat.
En quelque sorte ce serait la disparition de l’ordinateur tel qu’on le connait aujourd’hui qui permettrait rapidement, grâce à des objets moins coûteux, mieux définis et moins complexes une appropriation par tous des progrès des technologies numériques.

Liens :

(1)CREDOC Etudes socioéconomiques de la consommation par questionnaires et entretiens
http://www.credoc.asso.fr/

(2)l’ART Autorité de Régulation des Télécommunications
http://www.art-telecom.fr/

(3)CGTI Conseil Général des Technologies de l’Information
http://www.cgti.org/

(4)sondage infomètre :
http://www.infometre.cefrio.qc.ca/fiches/fiche578.asp

(5)enquête du CSA-ministère de la recherche :
http://www.sourir.org/article.php3?id_article=15

(6)sondage CSA-Opinion :
http://www.unaf.fr/article.php3?id_article=421

(7)article transfer.net :
http://www.transfert.net/a1929

(8)rd.francetelecom :
http://www.rd.francetelecom.fr/fr/technologies/ddm200302/techfiche3.php

D’une manière générale :
http://www.fing.org/

Publié dans Enjeux et usages des TIC (février-juin 2003) | Laisser un commentaire

internet et problèmes identitaires

«sur l’internet, personne ne sait que tu est un chien».( dessin de P. Steiner, The New Yorker, édition du 5 juillet 1993
Comme le montre cette illustration, internet permet de diffuser n’importe quel type d’information, de rencontrer des gens, de jouer en réseau…, en se cachant derrière un pseudo. Ainsi, l’internaute peut s’inventer une identité nouvelle à chaque fois qu’il se connecte ou tout simplement jouer sur une double identité en ayant une vie complètement différente sur la toile et dans la vraie vie. Quels risques cela comporte? Cette double identité est elle nécessaire?

– Pourquoi l’internaute triche-t-il?

_ Depuis l’invention des télécommunications et surtout le développement du minitel, on a vu se développer les pseudos, fausses identités et mensonges. Puisque désormais les gens pouvaient communiquer sans s’être jamais vu, (notament grâce aux « minitels roses ») ils avaient la possibilité de se décrire comme ils le souhaitaient et de s’inventer par là même une apparence et une identité qui leur convenaient mieux. Avec le développement de l’internet, cette tendance s’est généralisé. Désormais, on parle d’identités numériques (voir l’article de cédric), pour qualifier la vie de l’internaute lorsqu’il est connecté, nécessairement différente de sa vie réelle. On a vu apparaître sur la toile un véritable jeu de rôles où les utilisateurs s’identifient à des avatars, personnages immaginaires qui vivent pour eux toutes les expériences qu’ils ne peuvent trouver dans la vie réelle.
_ On constate ce phénomène à tous les niveaux de l’internet: dans les groupes de discussions, les jeux en réseau, les formulaires et enquètes, mais surtout sur les MOOs. Ce sont des programmes de jeux à utilisateurs multiples où l’on peut naviguer, faire la conversation, construire son monde et le partager avec les autres. Le premier pas d’un « nouveau connecté » consiste à décrire l’identité de son personnage.  Ainsi, on peut changer de sexe, d’occupation, de caractère etc… étant totalement libre dans la description. On peut choisir égallement d’interpréter plusieurs personnages.

– Quels sont les problèmes liés à ces identités numériques?

_ Le numérique par sa dimension virtuelle excite l’imaginaire. La vie sur internet, ou lors de jeux vidéos, appartient à un univers parallèle, qui échappe aux lois physiques. L’effet peut donc être comparé à un psychotrope, et peut amener à une « technodépendance ». L’internaute régulier peut donc se construire deux vies: l’une réelle qu’il juge souvent morne, et l’autre virtuelle dans laquelle il peut apparaître selon l’image qu’il veut donner de lui et avec laquelle il triche en permanence. D’où peut naitre à la fois une perte de repère dans le monde réel et une schizophrénie entre différentes identités.
_ La schizophrénie est donc sousjacente dans ce rapport avec le net. En effet, à partir du moment où on commence à mentir sur soi, on est obligé de se réinventer une personnalité qui doit être cohérente pour ne pas être démasqué. L’implication est donc beaucoup plus forte que dans un simple jeu de rôles et peut influencer vraiment sur le psychisme de l’internaute. Le mieux ne serait-il donc pas de dire toute la vérité et rien que la vérité? Certains, et c’est très courent dans ce jeu de mensonges vont jusqu’à changer de sexe le temps de quelques connexions, soit pour « voir ce que ça fait », soit pour s’amuser au dépend des personnes qui seront connectées en même temps que lui ou elle. Il est intéressant de constater à quel point les gens sont différents dans la « vraie vie » et dans leur « vie numérique ». Les adeptes du tchat ont d’ailleurs été souvent déçus par cette constatation. Alors que l’intéret même de ces forums était de faire se rencontrer les gens, on s’est apperçu que les utilisateurs s’entendaient très bien sur le net mais étaient complètement déçus lors de leur rencontre physique, à cause de ces personnalités déguisées. On constate donc un changement dans les relations entre les gens, les forums de rencontre ne seraient-ils pas devenu des forum de discussion? Les rencontres par ce biais sont-elle encore possibles si le fait de tricher sur internet est un mal nécessaire?

– Tous ces mensonges sur nous même sont-ils normaux, voir nécessaires?

_ Je vous invite tout d’abord à consulter la réaction d’un internaute sur le sujet (c’est sur un site spip!). Pour lui, Cette « désidentification » est nécessaire pour se protéger. Puisque l’internet est un espace public, il apparaît nécessaire de faire attention à ce que l’on dit (on écrit) en public. La meilleur façon de protéger sa vraie vie de ses prises de liberté sur le net est donc le pseudo. Pour lui, chaque identité prise et inventée sur le net n’est qu’un changement de peau tel que le vie n’importe quel acteur lorsqu’il joue un rôle. De plus pour de nombreux utilisateurs, l’extraordinaire espace de liberté qu’est internet est un moyen d’assouvir de nombreux fantasmes. Sans parler des choses malsaines qui circulent sur la toile, qui n’a jamais rêver d’être le roi d’un pays ou un héros qui sauve le monde? Ces envies sont réalisables grâce au numérique, n’est ce pas là un bien pour un tout un chacun? N’est-il pas plus raisonnable d’assouvir ses fantasmes grâce au numérique puisque cela reste de la fiction, plutôt que de les réaliser dans la vie réelle?
_ Les internautes ont également découvert une nécessité de mentir pour se protéger de l’emprise commerciale de la toile. Quelqu’un a rajouté à l’illustration du début « … but they know that you buy dog food! » -« mais ils savent que tu achètes de la nourriture pour chien »]. Par exemple,une récente enquête du Journal du Net indiquait que plus d’un internaute sur trois mentait quand il jugeait indiscrètes les questions d’un formulaire en ligne, près d’un sur quatre mentant même « systématiquement ». Pour éviter d’être pister par les nombreux cookies et d’être cibler par les nombreuses marques qui se servent d’internet pour repérer les cibles de leurs publicités. Une étude de l’institut Pew Internet & American Life Project, parue en août 2000, estime également que 24 % des internautes américains ont déjà déclaré des informations fausses de façon à dissimuler leur identité réelle aux sites web ; 5 % disent avoir eu recours à des services d’anonymisation de la navigation sur le web. Ne devons nous pas percevoir dans ces mensonges une utilisation intelligente d’internet?

Pour conclure cet article, nous pouvons dire que le débat sur le changement d’identité sur le net et le même que celui qui avait lieu il y a quelques années sur les jeux de rôles, ou bien avant sur les films violents à la télévision. Nous rendraient-ils plus malades psychologiquement ou seraient-ils là pour nous défouler afin d’avoir une vie plus saine? Ce débat est loin d’être clos, nous terminerons donc par cette juste remarque de Michel Elie, de l’O.U.I. [(Observatoire des Usages de l’Internet ) : « Internet n’est qu’un outil qui reflète et amplifie les qualités et les défauts de ceux qui l’utilisent ».

Publié dans Enjeux et usages des TIC (octobre-décembre 2003), RISQUES POUR LA SANTE | Laisser un commentaire

nouvelles formes de savoir

Voici les différentes pistes vers lesquelles mes recherches s’orientent:
Qu’est-ce que les nouvelles technologies changent dans la forme du savoir?
Est-ce que le changement de support de lecture s’assortit d’une transformation des contenus? Où se situe l’innovation? En quoi ces nouvelles formes (ebook, bibliothèques numériques, banques des savoirs…) changent-elles radicalement notre rapport au savoir?(lecture interractive, outils de coopération en ligne, accès multiples, apparition d’un savoir ouvert…) Quel type de logiciel pourrait-on concevoir afin de s’adapter à la lecture à l’écran et mettre en place une nouvelle manière de lire?(historiquement, à chaque révolution liée aux supports de la culture écrite, de nouveaux gestes et de nouveaux usages sont apparus). Quel type de textes disponibles à l’écran, pourra-t-il encore être désigné comme « livre »?
Quels dispositifs faut-il mettre en place afin de percevoir et de désigner certains textes comme des « livres »? (par opposition à la libre circulation des reflexions et des créations de chacun).
Comment peut-on hierarchiser l’information à partir du moment où l’ordre des discours ne peut plus être indiqué par la matérialité même du support (journal, livre, revue, lettre…) mais que tous les textes sont donnés à lire sur un même support et dans les mêmes formes?
Quels sont les nouveaux critères mis en place permettant de distinguer, classer et hierarchiser les discours? (la possibilité d’identifier la provenance et les modalités de publication permet déjà de rendre perceptible le statut des textes, c’est-à-dire de savoir si ils ont été mis spontanément en circulation ou si ils ont été soumis à un travail éditorial.)
Quelle valeur peut-on accorder aux informations disponibles sur internet? Doit-il y avoir un contrôle de l’information et si oui, par qui et comment?

Publié dans Enjeux et usages des TIC (octobre-décembre 2003) | Laisser un commentaire

Pourquoi la « Technophobie »?

– Etymologiquement, technophobie vient de l’association de deux termes; technologie et phobie. Si l’on ouvre le petit Larousse, on trouve ces deux définitions:

-Technologie: nf 1. Etude des outils, machines, techniques utilisés dans l’industrie. 2. Ensemble de savoirs et de pratiques, fondé sur des principes scientifiques, dans un domaine technique. 3. Théorie générale des techniques.

-Phobie: nf ( grec. phobos, effroi) 1. Aversion très vive; peur instinctive. 2. Psychiatrie. Crainte déraisonnable à l’égard d’objets, de situations ou de personnes, dont le sujet reconnaît le caractère injustifié, mais qu’il ne peut surmonter.

_ On pourrait donc définir la technophobie comme une peur irraisonnée des technologies et particulièrement des nouvelles technologies, ce qui nous intéresse ici.
_ Le terme de technophobe exclut toute raison. Le technophobe serait à considérer comme un malade, un être en marge, n’obéissant qu’à une peur « injustifiée » et historique que lui inspire la Technique.
_ Pourtant, aujourd’hui, le terme de technophobe est souvent employé pour designer ceux qui ont l’audace de mettre en doute et questionner les nouvelles technologies et leurs usages. Il y a une vision très binaire du problème: technophiles et technophobes, où est l’alternative? J’appellerai donc ici « technophobe », toute personne émettant des doutes et réserves quant aux bienfaits des nouvelles technologies.
_ Si certains éprouvent devant le développement croissant des nouvelles technologies une peur instinctive, d’autres la raisonnent. Les peurs générées par celles-ci révèlent des dangers, certains semblent hypothétiques, d’autres bien réels. Quels sont ces dangers que les technophobes redoutent tant?

– Si l’ on prend l’exemple d’Internet, les premiers dangers visibles sont d’un ordre très prosaïque. Mais ils jouent néanmoins un rôle non négligeable dans le refus d’utiliser « la toile » en générant de nombreuses petites hantises:
_ Un des risques, est celui lié à l’usage de la carte bancaire. Introduire son numéro, c’est le risque de s’exposer à un fraudeur qui débitera d’autant plus aisément votre compte que les tentations d’achat sur le Net sont nombreuses et sans réel contrôle.
_ Il y a aussi la crainte d’être « traçable » dans ses voyages d’internaute et devenir une cible pour des agences de publicité. Il s’agit du « cookie »( petit gâteau). Envoyé par le site auquel vous vous connectez, il enregistre tous vos déplacements et offre ainsi la possibilité aux publicitaires, par exemple, de dresser votre portrait. Vous devenez une cible potentielle pour eux, mais aussi pour d’autres.
_ Le danger d’être contaminé par un virus comme le très célèbre « I love you », très souvent souligné par les détracteurs d’Internet est considéré comme l’un des risques majeurs: c’est la destruction et l’oubli, puisque la mémoire de l’ordinateur ne survivra pas au virus.
_ Ces dangers tangibles que génére la possible utilisation du Net ne se distinguent pas de ceux qui touchent déjà notre vie quotidienne. C’est une simple transposition; les risques de fraudes, de braquages, la surveillance téléphonique, le danger de contamination par contact physique, ont précédé, et ce depuis longtemps, l’usage d’Internet . Ces dangers ne sont pas nouveaux. Pourtant, ils posent une autre question, celle d’Internet comme lieu d’ une liberté sans limite. Lieu de tous les excès. La prolifération de sites pédophiles, de sites néo-nazis sont des exemples. D’où la nécessité d' »organiser » Internet, de combler ce vide juridique et de trouver des moyens de contrôles sans pour autant atteindre à la liberté individuelle et tomber dans une dérive sécuritaire.

– Malgré la vision technocentriste de notre société, de nombreuses personnes voient l’avenement des nouvelles technologies comme une transgression. Cette vision s’explique par le lien entre technique et religion au cours de l’histoire.
_ Si l’intervention technique met à distance la nature, c’est pour s’en assurer une plus grande maîtrise. Mais celle ci peut être une grave agression et, pour l’homme, une transgression. Par exemple, dans de nombreuses sociétés dites « primitives », la chasse exige toujours d’être précédée de rituels visant à se concilier l’esprit des espèces animales dont on s’apprête à tuer l’un des représentants. De même, la perception des forgerons et des alchimistes comme des individus sacrés, à la fois respectables et dangereux. Ceux-ci étant en contact avec les forces mystèrieuses du feu et du sol. Il ne faut pas oublier l’origine divine et sacrilège de la technique, selon le mythe de Prométhée.
La mythologie contemporaine montre l’effroi technophobe à son paroxysme avec le roman de Mary Shelley, « Frankenstein »(1818). Le monstre y symbolise l’inquiétude d’une humanité dépassée par ses propres réalisations techniques, d’une technocratie incapable de maîtriser le produit de ses expériences. Il est vrai que le développement des technologies outre celles de l’information comme les biotechnologies (clonage, OGM…), le nucléaire… est loin d’être rassurant.
_ Mais ce dange est un danger lié à une croyance. Il est difficilement crédible face aux nouvelles technologies, et a l’avancement des techniques dans notre société. Les techniques étant à l’origine de celle ci . Cette peur conduirait à la remise en cause de toute technique. Un retour en arrière qu’il est impossible de faire aujourd’hui. Nous avons engagé notre histoire à celle des technologies, à nous d’en assumer les choix et les responsabilités en espérant ne pas justifier de telles croyances.

– On a vu précédemment qu’ une société mature doit savoir se passer des mythes pour mieux affronter ses peurs.Mais la société elle même génère constamment une mythologie qu’il est dangereux d’accepter à la lettre. Or aujourd’hui, que servent les nouvelles technologies de l’information sinon un mythe?
_ Prenons encore l’exemple d’Internet. La mythologie Internet est, comme toute autre mythologie, une mythologie englobante, destinée à justifier et à transcender le sentiment de dépossession qui s’empare d’individus fragiles. Elle remonte au mouvement contre-culturel qui s’est développé dans les années 60 et qui a généré la contestation estudiantine ainsi que les communautés hippies. Entraînant une idéologie de la rupture avec le vieux monde, de l’initiation à la vie en communauté, du refus de la violence et de l’ouverture à l’amour planétaire.On y découvre le monde de l’immatérialité, de l’importance du savoir, de l’intelligence. D’où l’étiquette aujourd’hui de « société de l’information », ou de « société du savoir ». C’est l’idée émergente que toutes ces technologies vont avoir un impact sur l’économie et finalement sur toute la société.
_ Mais la métaphore de l’internaute comme étant un simple neurone, connecté avec les milliards de ses semblables formant un « cerveau planétaire », est proche d’un totalitarisme inquiétant. Clarisse Herrenschmidt l’exprime en ces termes: « L’Internet diffuse une spiritualité particulière, et l’on peut lire souvent, dans des contextes assez différents, que les internautes vivent une « transcendance horizontale », typifient une « humanité réconciliée avec elle-même » et distribuent à leurs contemporains non connectés la bonne nouvelle qui les régénerera: l’unité cosmique de toutes choses avec toutes choses ».
_ On nous serine constamment que nous entrons dans « quelquechose » de radicalement nouveau. Mais ce discours ne nous laisse pas de choix, il s’impose comme une évidence. Or justement, cela ne va pas de soi. C’est pourquoi, commercialement, les nouveautés s’accompagnent toujours d’un discours. Il faut un récit pour donner sens à ces nouvelles technologies. La transformation radicale ne vient pas des nouvelles technologies elles-mêmes, mais de leurs promoteurs et de leurs valeurs. On peut parler de manipulation. Nous sommes nés consommateurs, dans une société capitaliste qui valorise en permanence la nouveauté. Il est dangereux de ne pas en prendre conscience.

– Entrés dans l’ère de la société dite de » l’information », peut-on parler également de « société du savoir »? Avec de nouveaux moyens de stockage phénoménaux, toute information peut être numérisée, donnant des bases de données extraordinaires.Bientôt, nous disposerons « tous »( Je ne parle pas ici de la fracture sociale), avec Internet ou des dispositifs de stockage d’information, de l’intégralité du savoir du monde. Accessible partout, à tout moment: d’après une étude de la firme IBM, on rassemblera d’ici peu l’information contenue dans les 11 millions de volumes inscrits au catalogue des livres et imprimés de la Bibliothèque Nationale de France, sur un carré de 12cm de côté et d’un dixième de micron d’épaisseur.Mais ces données fragmentées, aménagées, ce n’est pas encore du savoir. On l’acquiert justement en assimilant des informations, en les retravaillant et en les intériorisant. Le danger serait de croire que l’utilisation même de ces dispositifs techniques permet de construire le savoir. Sans parler de la pertinence et de la véracité des informations que l’on trouve sur Internet. Il faut faire usage d’une grande prudence dans l’utilisation des informations. Ce que les nouvelles technologies n’enseignent pas. Cet outil peut amener une forte régression, si il n’est pas utilisé consciemment.
_ Nous risquons une réelle perte de compétence: par exemple, qui calcule encore mentalement de nos jours?
_ Dès lors, comment imposer à un enfant un travail de mémoire, comme celui d’ apprendre une poésie. L’apprentissage risque de devenir obsolète et notre intelligence risque de s’appauvrir grandement, si l’imagination procède comme beaucoup le croient par la recombination d’éléments anciennement mémorisés.Nous allons vers une lecture binaire de l’information: positif-négatif. En perdant le savoir, nous perdons notre autonomie, notre esprit critique. Le troupeau de moutons est fin prêt.

– On parle de plus en plus de réaliser une « démocratie électronique ». Les propagandistes de cette démocratie sont parfois des élus, responsables de villes qu’ils dotent d’infrastructures de communication numérique.Le libre accès à Internet étant pour eux synonyme de liberté et d’égalité, grâce à un espace public numérisé. Nous risquons d’aller à cette vitesse là vers une démocratie mondiale, les frontières et le temps ne rentrant pratiquement plus en compte sur Internet. Les votes sur Internet seraient directs, sans intermédiaires,éloignant la peur de la manipulation et laissant une inquiétante transparence s’installer.
_ On peut voir déjà à quel point Internet est utilisé comme formidable outil de protestation et non de débat, et l’on sait combien la tendance systématique à protester annonce, souvent, dans l’histoire des peuples, celle qui porte à acclamer aveuglément. La défaite étant toujours celle de la réflexion.
_ Face aux nouvelles technologies, le danger est celui du conformisme comme l’explique Gérald Berthoud, professeur à l’Institut d’Anthropologie et de Sociologie de l’Université de Lausanne: « Au lieu de parler de société individualiste, où l’individu-roi couronné par le marketing est en fait manipulé, je pense qu’il faudrait parler de société de con-formisme, au sens où les individus ont l’impression de faire leur choix tout en faisant exactement le même que le voisin (… ) Le problème de ce parallèle, c’est que l’un des avantages du système capitaliste est celui de ne pas passer pour ce qu’il est. Les gens n’ont pas l’impression d’être soumis à de fortes con-traintes (…) on ne fait plus très bien la distinction entre le temps de travail et le temps de loisir, les nuances s’estompent, elles deviennent fluides, floues, tout bouge… »

– En étudiant les rapports physiques qu’instaurent les nouvelles technologies, on peut remarquer qu’elles dissipent l’altérité qui permet à chacun de se situer dans un espace d’interlocution ou de conflictualité réglé. L’âge de la connexion généralisée est bien celui de la désubstantialisation, ce que suggère Philippe Breton, à la lecture du livre de Norbert Wiener, « Cybernétique et société »: l’homme devenu « être » communiquant n’existe plus que dans ses relations avec les autres, « il n’est plus en tant qu’être un centre d’où tout part et où tout revient, comme dans les conceptions classiques, mais il représente un élément intermédiaire du vaste processus de communications croisées qui caractérise une société », un élément dépourvu de toute intériorité. La peur n’est plus, l’homme est numérisé, délesté de son interiorité par cette « décorporalisation ». Pourquoi?
_ En remontant au 18ème siècle, on remarque que l’idée que l’humain est un être imprévisible se développe. Pour que la société soit viable, son comportement doit devenir prévisible. Telle serait la raison d’être du marché. Or aujourd’hui, le dernier élément à soumettre aux règles du marché, c’est l’être humain en tant qu’être biologique et social.
_ Il suffit d’ observer le langage utilisé par les entreprises, pour que cette peur prenne sens: on parle de « ressources humaines », de numéros…Autant d’expressions qui chosifient l’homme et qui semblent annoncer une déshumanisation de l’homme.
_ Les recherches scientifiques abondent dans ce sens: le « pervasing computing » est prévu pour nous pour demain. Développé par des ingénieurs du MIT, ce programme vise à intégrer de l’intelligence artificielle partout: dans les automobiles, dans les vêtements ( Wearable Computer)…
_ L’homme bionique est à l’horizon, bref, un homme programmé, débarrassé du souci de sa liberté et des peurs qu’elle implique, déshumanisé.

– Pour conclure, on peut remarquer que de nombreux dangers sont à l’origine des peurs de ces « technophobes ». Dangers dangereux pour ceux qui ne les prennent pas en compte.Et si des « technophiles » traitent de « technophobe » toute personne critiquant un tant soit peu les nouvelles technologies, alors nos craintes sont justifiées. Il est dommage d’avoir inventé ce terme « technophobe », avez -vous déjà vu une personne prise d’une peur hystérique en entendant le mot « Internet »?
« Technophobe » est un terme négatif plongeant les « technoconscients » et « technoprudents » sous de sombres hospices. Veillez à ce que que la « Bombe informatique » annoncée par Paul Virilio n’explose pas!

_ Un « technoprudent ».

– Bibliographie:

_ « Le culte d’Internet » de Philippe Breton.

_ « La bombe informatique » de Paul Virilio.

_ « Les progrès de la Peur » sous la direction de Nayla Farouki.

_ « Une société de l’information. Parlons plutôt de société du conformisme. » Propos de Gérald Berthoud recueillis par Michel Beuret, journaliste.

Publié dans Enjeux et usages des TIC (octobre-décembre 2003) | 2 commentaires

les radiations des ondes sont-elles dangereuses pour la santé ?

Depuis près de 50 ans, les appareils électrique ont petit à petit envahit notre quotidien. Et si l’alimentation en électricité ne peux toujours pas se passer de fils, en revanche, depuis l’invention de la radio, on peux émettre des informations grâce à des ondes. L’apparition du téléphone portable, et plus récemment du Wifi, ont généralisé l’utilisation de ces ondes. Faut-il avoir peur de toutes ces émissions d’ondes autour de nous ? Quels est le danger réel à utiliser nos appareils électriques ? Où en est la recherche scientifique dans ce domaine ? – quelques données scientifiques

_ Tous nos appareils électriques, dès qu’ils sont mis sous tension génèrent un champ électromagnétique, dissocié entre un champ électrique et un champ magnétique. Le champ électrique se mesure en volts (V) et le champ magnétique en Teslas (T). Dans la pratique, on ne distinguent pas ces deux champs dans leurs effets sur la santé.
_ A ce champ électromagnétique bases fréquences créé par le courant, viens s’ajouter le champ radioélectromagnétique à hautes fréquences utilisé pour les télécommunications (TV, cellulaires, radars, radios…)
_ Ces ondes se propagent à la vitesse de la lumière sans pratiquement aucune perdition. Elles sont freinées par les milieux conducteurs (le métal par exemple).

-*risques liés à ces ondes

_ Depuis, longtemps, il est établit que les ondes radio, ont un effet thermique, elles provoquent un échauffement des tissus (comme le soleil) qui est régulé par le corps. Lors d’une trop forte exposition, la thermorégulation ne suffit plus, il peut y avoir alors des risques de brûlures. Rassurons nous, cet effet est bien connu des scientifiques et les limites sont clairement établies. Par exemple, l’augmentation de température, au niveau de la tête, due à l’utilisation d’un téléphone mobile ne dépasse pas 0,1°C et cela reste sans danger pour la santé.
_ Certaines études montrent par contre que les différentes ondes électromagnétiques (pas seulement radio) seraient à l’origine de troubles du sommeil, fatigue anormale, nervosité, maux de tête, stress, dépression, perte de mémoire, difficulté de concentration. D’autres montrent que ce n’est qu’un effet psychologiques. La recherche n’est malheureusement pas assez avancée pour confirmer un réel danger. Les ondes basses fréquences sont classées par le Centre International de Recherche sur le Cancer comme étant peu cancérigènes (au même titre que le café par exemple).
_ De nombreuses études sur les animaux montrent qu’une exposition à des champs électromagnétiques fait chuter la sécrétion de mélatonine. C’est un neurotransmetteur qui joue un rôle important dans les défenses immunitaires et régule le rythme biologique (une personne exposée aux champs électromagnétiques peut avoir des troubles du sommeil). Par contre, l’effet cancérigène des ondes électromagnétiques chez l’homme est toujours en débat. Beaucoup d’études sont en cours. Parmi celle qui sont terminées, certaines montrent que les personnes habitant près des relais de téléphone ou des pylônes électriques serait, en effet, plus sensibles à certains cancers. Ce sont souvent des cas isolés où l’on n’est pas sûr qu’il y ait un lien réel. D’autres montrent qu’il ne peut exister qu’un lien psychologique mais que ces ondes n’affectent en rien notre système immunitaire (Ces dernières sont parfois accusée d’être en liaisons avec des opérateurs téléphoniques…).

différentes puissances des appareils

Comme nous pouvons le constater sur ce graphique l’ exposition aux ondes électromagnétiques, n’est pas la même suivant le type d’appareils utilisés. Ainsi on a pu mesurer les radiations suivantes:

-*Champs électriques

| Habitation (sauf près des appareils ménagers) | Jusqu’à 20 V/m |
| Dans un wagon de train électrique | Jusqu’à 300 V/m |
| A proximité des lignes HT (à 5 cm) | 20 V/m |
| Ecrans ordinateurs | De 1 à 10 V/m |
| Champ en atmosphère calme | De 100 à 200 V/m |
| Moquettes (à 5 mm, en atmosphère sèche) | De 200 V/m à 20 kV/m |
| Champ pendant un orage | Jusqu’à 100 kV/m |

-**Emissions radio FM

| À quelques mètres d’une antenne d’émetteur FM | Qq dizaines de V/m |

-**Emissions GSM

| À 1 cm d’une antenne de téléphone mobile | Qq dizaines de V/m |
| A 1 m d’une antenne de station de base | 50 V/m |
| A plus de 5 m d’une antenne de station de base | De 0,01 à qq V/m |

-*Champs magnétiques

-**Dans les appartements

| A distance d’appareillage | 0,002 microTesla |
| À 1 m des appareils ménagers | Jusqu’à 200 microT0|
| A l’aplomb d’une ligne haute tension | 20 microT |
| Dans une rame de métro | 30 microT |
| Champ terrestre (géomagnétique) | Entre 30 et 70 microT |
| Dans un wagon de train électrique | 50 microT |
| Détecteurs de métaux (aéroports) | Jusqu’à 100 microT |

-**Emissions GSM

| A proximité d’une station de base | Jusqu’à 0,03 microT |
| A proximité de l’antenne d’un mobile | 0,3 microT|

Le Wifi, quand à lui à un effet négligeable par rapport aux portables:
le WiFi émettant une puissance rayonnée dix fois moins importante qu’un téléphone portable, et la puissance décroissant avec le carré de la distance, il en a été conclu que placer un élément radio WiFi à 1 mètre revient à poser un téléphone portable en marche à 3 mètres.

Ce qu’il faut en conclure

_ Il est difficile d’établir un lien direct entre les ondes électromagnétiques et des problème de santé Les migraines, insomnies… peuvent être des problèmes psychologiques. Quand aux cancers personne n’est en mesure d’affirmer si oui ou non les ondes électromagnétiques affaiblissent notre système immunitaire. Dans le doute, évitons de multiplier les appareil électriques et méfions nous des appareils les plus puissants (antennes, portables, relais, pylônes).
_ Doit on donc continuer à produire des appareils qui peuvent être dangereux? S’ il est établit qu’il existe un réel danger, arrêterons nous pour autant de produire des appareils télécommunicant? Les lobbys industriels nous laisserons ils parvenir cette information? Il semblerait donc que le problème de la pollution électromagnétique soit aussi épineux que celui de la pollution en général et que le débat est loin d’être clos.

Publié dans Enjeux et usages des TIC (octobre-décembre 2003), RISQUES POUR LA SANTE | Laisser un commentaire

Cours du 6 octobre : enjeux et questions clés

– « fracture » générations, représentations; interfaces
– Nouvelles organisations du travail
– Méfiance, dangers vie privée, santé,…
– Numérique dans la société, accès public,… (netbox)
– Simplicité/difficulté

Publié dans Enjeux et usages des TIC (octobre-décembre 2003) | Laisser un commentaire

INTERNET: PASSERELLE OU BARRIERE

L’interface et l’intéraction ont remplacé le face à face et l’action. Dans la communication via le réseau, le média s’impose, lie, contraint, quelle est sa place dans ce nouveau mode de communication, qu’engendre-t-il? Comment évolue la language? quelle est l’identité de l’individu et de ceux avec qui il communique? 1. L’IDENTITE NUMERIQUE

La première question à soulever est celle de l’identité numérique.
Tout d’abord, c’est celle-ci qui crée le lien entre notre environnement, notre monde tangible, et cet environnement parallèle et évolutif qu’est internet.
L’identité numérique permet aux individus de maîtriser les manifestations de leur présence et de leur existence dans le monde numérique et donc de s’approprier les outils mis à leur disposition de manière personnelle voire intime.
Le fait que le réseau implique l’ubiquité de l’individu, celui-ci peut posséder plusieurs identités et se manifester sous une ou plusieurs à la fois.
L’identité numérique est la base de la communication via le réseau puisque c’est par elle que l’individu va manifester sa disponibilité.
Dans les messageries instantanées, on ne peut contacter l’autre que s’il le désire, même s’il est sur le réseau, ce qui n’est pas le cas du téléphone par exemple où l’individu n’est pas joignable que lorsqu’il est hors réseau (téléphone éteint, débranché). On peut choisir un statut, choisir pour qui on est visible et ainsi filtrer soi même, définir son degré de disponibilité.
Il y va de même pour les informations concernant l’individu, qui peut décider de se dévoiler entièrement, en partie, de mentir sur son identité, voire la dissimuler.

Quels sont les buts de l’identité multiple ?
Il y a plusieurs raisons qui peuvent motiver un individu à se masquer derrière une identité qui ne lui correspond pas ou à se cacher tout simplement :
– se protéger (fraudes, ne pas être reconnu)
– se repérer (différentes identités selon les activités)
– se divertir (devenir quelqu’un d’autre, jouer un rôle)

Vers une synthèse de l’individu ?
Un des aspects fascinant de la messagerie instantanée et de l’email, est la réduction d’une personne à une simple poignée de lignes. Pour écrire à des millions de personnes, nous ne devons plus connaître leur prénom, nom, adresse, ville, code postal et pays. Tout que nous avons besoin doit savoir que leur pseudonyme francois32099 ou que leur adresse email est mich.delacourt@chezmoi.com.
Tandis que ces poignées de lignes rendent la communication gentille et simple, elles ne suffiront jamais en tant qu’identité formelle d’une personne.

Cette identité numérique sera donc la base de toute communication par le réseau quelque soit sa forme (pseudonyme, avatar, adresse mail, formulaires…).

2. LA MESSAGERIE INSTANTANEE

La transmission de messages et la présence instantanées – la fonction de pouvoir voir si les gens sont entrés sur le réseau, et leur envoyer des messages en temps réel – est l’une des applications les plus populaires de l’Internet, stimulant un sens « de la communauté en ligne » comme peut-être comme aucune autre application ne l’a fait.

Tandis que quelques aspects de transmission de messages instantanée peuvent sembler intuitifs, il y a des dispositifs multiples qui agissent l’un sur l’autre pour former cet environnement. Ceux-ci incluent :
– L’ Identité d’utilisateur
– Annuaires d’utilisateur – comment découvrez-vous que les utilisateurs existent, et quelles sont les règles pour leur accéder ?
– Présence – comment savez-vous si et où un autre utilisateur est disponible sur le réseau ? Comment définir qui peux voir votre présence, et la quantité d’informations au sujet de vous-même ?
– Transmission de messages avec préavis – que pouvez-vous envoyer, et comment savez-vous si le destinataire peut manipuler ce que vous voulez lui envoyez?
– Support de conversation – un message est-il un message, ou est-ce une ligne dans une « conversation » ? Les la plupart les interfaces IM fournissent le concept d’une « fenêtre de discussion » où les utilisateurs dactylographient l’un l’autre dans un mode « ma ligne, votre ligne… ».
– Salon de discussion – est-il possible d’installer des salons où beaucoup de gens peuvent parler en tant que groupe ? Quel est le paradigme de commande pour des salles de discussion, et comment il est imposé ? Dans l’IRC, ce sont les bases du système entier ; dans d’autres systèmes, ils semblent être ajoutés après coup à la discussion avec préavis.
– Dispositifs additionnels – il y a les clients IM avec le transfert de fichier, les conversations vocales, la vidéo et plus…

Tous ces éléments et ces questionnements mettent un frein à la communication et la rendent moins instantanée qu’il n’y paraît. La limite matérielle (hardware) et logicielle (software) jouent un rôle capital dans cette communication dont la qualité va dépendre selon la qualité de ceux-ci et de leur présence.
En effet, le fait de pouvoir voir, parler, échanger des fichiers et écrire à ses interlocuteurs va influer sur la fidélité et la qualité de la discussion. De ce mode de communication naît un nouveau langage qui lui est propre et qui va même jusqu’à transformer (et appauvrir) langue.
L’utilisation de smileys( :-p …) pour traduire des émotions, d’abréviations (asv : age, sexe, ville, mdr : mort de rire…) vont dans le sens de la rapidité et l’efficacité de communication induite par ce mode de communication.

QUELS SONT ILS ?

– L’IRC
Sans doute le plus ancien outil de chat, l’IRC permet en se connectant à un salon de discussion de communiquer avec d’autres personnes déjà dans ce salon. La première chose est de se trouver un « nick » ou pseudo, qui vous est propre et qui permet de vous reconnaître dans les salons. Une fois connecté au réseau une liste de salon apparaît, généralement le nom du salon traduit le thème abordé : #linux, #Starwars
Deux programmes servent d’interface pour vous connecter à l’IRC :
MIRC le plus populaire : www.mirc.co.uk
Pirch : www.pirch.com

– MSN chat
Microsoft propose, à condition de créer gratuitement un compte messagerie chez eux : hotmail.com, de nombreux salons de chat en ligne dans différents domaines : informatique, la vie en ville, ados, religion … classés par langue de discussion et pour lesquels le logiciel nécessaire se télécharge automatiquement lors de la première utilisation. Système de chat dans le même esprit que l’IRC.
• Messenger
Accès en téléchargeant un petit logiciel : MSN Messenger, à une interface du style de ICQ où vous pouvez voir si vos contacts, qui ont également Messenger, sont en ligne, et alors vous avez la possibilité de discuter avec eux soit par écrit soit par oral.
– ICQ
ICQ ou I Seek You : je te cherche. C’est actuellement quelques 74 millions d’utilisateurs.
Ce petit logiciel gratuit offre de nombreuses façons de communiquer. Il attribue un numéro unique et demande de rentrer un pseudo ainsi qu’une adresse e-mail, c’est par ces trois paramètres qu’on peut vous retrouver. Contrairement à l’IRC, ICQ ne propose pas le chat par salon mais une liste de contact, c’est à dire des personnes inscrites à ICQ également, et le logiciel se charge de dire si elles sont en ligne ou non. Il y également la possibilité de chercher un interlocuteur au hasard parmi les utilisateurs en ligne.
L’apparition de la vidéo dans la messagerie instantanée résout un des problèmes que pouvait être la frustration de ne pas pouvoir faire confiance à un menteur potentiel.

3. LE PEER TO PEER

Une rupture avec le modèle client-serveur classique.

A l’ère d’Internet et du Web, nous sommes familiarisés avec le concept client-serveur. Dans ce concept, le client demande un service au serveur. Le serveur l’exécute et transmet le résultat au client. En d’autres termes, la demande vient toujour d’un client et le serveur ne prend jamais d’initiative.
Avec l’arrivée du peer to peer (point à point), on ne parle plus de client et de serveur mais d’applications qui sont à la fois client et serveur.
Ce concept est notamment apparu en 1998 avec la célèbre application Napster qui permet de partager et d’échanger entre amis des fichiers contenant de la musique, au format MP3. Condamné par la justice américaine, Napster a été obligé de revoir son organisation. Sur les traces de Napster, d’autres applications suivant ce concept ont vu le jour, comme Gnutella, Seti, Groove, etc.

Le peer to peer permet des échanges entre utilisateurs et applications dans un univers hétérogène et mouvant. La force évidente de ce modèle est d’apporter des informations rares et utiles, car ces informations sont générées par les utilisateurs eux-mêmes.

POUR QUOI FAIRE ?
Dans un environnement peer to peer, les applications se trouvant sur des ordinateurs personnels (PC) se mettent sur un même pied d’égalité. Il n’y en a plus une qui initialise le dialogue et l’autre qui répond, toute application est capable d’initialiser un dialogue avec une autre et/ou de répondre à un appel. Parmi les applications les plus fréquentes permises par le peer to peer, on peut citer:
– la collaboration, par exemple entre ordinateurs au sein d’une entreprise ou d’une organisation,
– le partage de ressources entre deux ordinateurs de particuliers,
– le peer-to-peer computing, c’est-à-dire l’utilisation des CPU d’ordinateurs se trouvant n’importe où sur le réseau Internet pendant les moments où ces ordinateurs ne sont pas utilisés,
– la messagerie instantanée qui permet à deux ordinateurs de communiquer sans passer par un ordinateur central,
– la distribution d’une masse importante de fichiers sur plusieurs ordinateurs au sein d’un LAN. Cela revient à répartir le travail de cache, réalisé habituellement par un serveur proxy, sur plusieurs ordinateurs du LAN.

Deux modèles d’architecture
Il existe deux grandes variantes de l’architecture peer-to-peer:
– architecture hybride (assistée par un serveur): deux ordinateurs communiquent entre eux après la localisation du fichier recherché. La localisation de la ressource se fait via un serveur, connu par une communauté, contenant un annuaire commun où les utilisateurs s’enregistrent et déclarent les ressources à partager;
– architecture native: chaque ordinateur se prête au rôle de client/serveur/moteur de recherche.
Dans ce mode de communication, basé sur l’échange comme base identitaire, c’est la possession qui définit l’individu, pas une identité textuelle.
Le réseau permet d’étendre ses « possessions » mais aussi de se créer un réseau de connaissances lié à ses passions personnelles. Ce modèle fonctionne particulièrement bien dans la mesure où il y a une barrière de moins (serveur contrôlé).

4. CONCLUSION
L’utilisation de ces médias pour la communication par le réseau donne une impression de facilité de communication mais qui est en réalité très contraignante.
Celle-ci dépendra des technologies mises en œuvre, et dans la mesure ou l’utilisateur est en bas de la chaîne, victime des problèmes de compatibilité, de débits auxquels il est habitué, il accepte ou tolère des « barrière » inacceptables dans la vie, au quotidien. Par exemple, parler via un micro, filmé par une webcam avec les problèmes de débits serait comme parler à quelqu’un derrière une vitre sale, avec des échos et des coupures dans la discussion avec l’obligation d’attendre quelques secondes que l’autre entende…
Vu sous cet angle, peu de personnes accepteraient un tel mode de communication au quotidien dans notre monde physique, pourtant c’est ce que nous propose, toutes proportions gardées ce média de communication.
Cependant, il permet d’établir très rapidement des connexions vers des personnes qui ont quelque chose en commun et de faire partie d’une communauté.
Internet représente donc une grande passerelle pour permettre une communication massive, quantitative, mais une barrière pour la communication sensible, qualitative.

Publié dans Enjeux et usages des TIC (février-juin 2003), Non classé | Laisser un commentaire

Partie III. LES FREINS ET LES LIMITES À L’ÉMERGENCE DE CES TYPES DE RÉSEAUX

Comme nous venons de le voir en deuxième partie de cette étude, il existe une réelle appropriation des réseaux, une dynamique « par le bas » qui touche un public de plus en plus varié et qui tend à s’élargir à de nombreux domaines de publication. Mais comme nous l’ont montré les articles de ou encore comme nous l’avons évoqué dans l’article sur , il persiste un certain nombre de freins à ces initiatives personnelles. Observons les facteurs qui contraignent ces mouvements: ils sont au nombre de trois, il s’agit de l’accès, de l’économie et de la règlementation et la sécurité.

Nous allons dans un premier temps nous intéresser à la fracture numérique, évoquée dans l’article sur le ReseauCitoyen. On s’aperçoit que l’accès aux TIC se fait de manière inégale d’un endroit à l’autre du territoire. On constate que les pôles urbains et les zones de fort transit (croisements de réseaux ou hubs) sont beaucoup mieux desservis que les régions rurales, et que l’infrastructure du réseau y est mieux développée et plus performante. Ainsi les personnes résidant dans ces hauts lieux de la communication ont beaucoup plus de facilités à accéder à Internet et aux NTIC, de manière plus générale. Cette question de répartition inégale de l’infrastructure lourde des réseaux est directement liée au facteur économique. En effet, l’investissement du territoire repose sur des stratégies économiques par rapport aux futurs acteurs du réseau. Ainsi, les régions peu peuplées se voient exclues de la carte des réseaux, parce qu’investir des budgets pour les desservir n’est pas assez rentable (trop peu d’utilisateurs par rapport au coût de l’installation). Dans ce genre de cas, les acteurs locaux jouent un rôle importants, que ce soient les mairies des communes concernées ou que ce soient les entreprises implantées là. Généralement, ce sont elles qui font le plus pression et finissent par aider financièrement l’installation du réseau dans les « non-lieux de la communication », parce que la présence des TIC est nécessaire à l’économie (rapidité des échanges) – on voit après des phénomènes inattendus (mais prévisibles) se produire, des agriculteurs connectés à tous les autres agriculteurs de la région, etc.

« Les inégalités dans les usages et les pratiques sont à la fois sociales, culturelles et territoriales, et s’expriment en termes d’accès aux réseaux et aux services, et en répartition des budgets et des temps consacrés aux différentes activités. » Pierre Musso-Introduction Les territoires aménagés par les réseaux.La question d’accès est plus complexe que la simple répartition de l’infrastructure du réseau sur le territoire. En effet, elle concerne également la personne même qui va se connecter au réseau. Il existe certes des difficultés matérielles d’accès (présence d’infrastructures, coût du matériel…), cependant on peut également observer une certaine difficulté culturelle. Les modes de vie urbains, la mobilité, la rapidité, etc. sont des notions intégrées par le citadin qui se connecte de manière naturelle et à force quasi innée pour effectuer des usages quotidiens sur le Net (je pense à la consultation de mails par exemple) Conservons cet exemple: pour la personne résidant dans un lieu non desservi par le réseau Internet (il ne s’agit pas forcément de la campagne, mais il peut également s’agir de petites communes du centre de la France), quelle va être l’utilité (et le besoin) d’une connexion au web pour consulter son courrier, si elle en reçoit déjà dans sa boîte à lettres tous les jours et que ça fonctionne très bien, depuis longtemps? Bien évidemment, il peut s’agir d’autres usages encore. L’adaptation à l’outil informatique dépend d’autres facteurs, tels que l’âge, l’éducation, la profession, le besoin, etc.

Par ailleurs, il existe aussi un autre frein qui est le travail d’apprentissage face à ces nouveaux outils. En effet, comme nous l’avons précisé en première partie, l’image d’Internet est par essence liée à l’image de l’informaticien devant son ordinateur relié à un réseau de personnes semblables. Ainsi, pour la plupart des gens, l’utilisateur d’Internet et des ordinateurs est à la fois quelqu’un qui se connecte au reste du monde, et quelqu’un qui bricole sa machine. Cette image reste véridique mais comme nous l’avons vu en deuxième partie, Internet tend à se démocratiser: il ne faut plus être informaticien ou technicien pour créer un réseau et l’administrer. Reste-t-il maintenant à convaincre le grand public à franchir le pas. Je pense qu’il faut pour beaucoup compter sur le bouche à oreille pour cela. L’important est de montrer aux gens, leur expliquer de manière simple comment ça marche pour éviter les refus et les rejets.

Outre la question d’accès, la question économique et financière est le deuxième grand frein à l’initiative privée. Comme nous l’avons vu dans les articles suivants, et , le succès des initiatives personnelles et de la connexion de plus en plus multiple du grand public engendre un certain opportunisme économique. Ainsi, certaines entreprises détournent par exemple la production de certains réseaux de particuliers; ou d’autres en profitent pour inventer une nouvelle économie basée sur l’émergence d’un nouveau marché. Ce phénomène est compréhensible vu l’expansion des usages de l’Internet, un domaine si fertile.

Avant de conclure, il est également important de s’intéresser dans cette partie aux problèmes de réglementation et de sécurité. En effet, tout connecté est à la merci des administrateurs de réseaux et/ou des fournisseurs d’accès. Car celui qui contrôle l’épine dorsale du réseau, contrôle chaque échange, filtre les données du réseau, etc. Cependant l’infrastructure d’Internet étant si vaste, le controle est quasiment impossible, et il n’y a pas d’autorité sur l’info qui circule. C’est pourquoi, on assiste à un retour des gouvernements sur l’adressage, sur la régulation et le contenu, sur les aspects fiscaux et douaniers (jusqu’alors, l’anonymat de l’individu connecté au réseau a permis l’émergence du piratage, de l’infiltration, etc.) On peut également se pencher, à titre d’exemple, sur le projet de deux américains (Marjory S. Blumenthal, directrice au Conseil de la Recherche américaine et David D.Clarck, chercheur au MIT). Il s’agit de l’élaboration d’un système qui permettrait d’identifier la nature de l’information circulant sur le web et de ses acteurs. Cela servirait ainsi à « contrer les attaques de pirates, débusquer les délinquants, assurer l’identification des parties lors d’une transaction financière… les motivations peuvent sembler louables » (source: Sciences&Vie – dec 2002). Mais on peut se demander si l’intégration de ce système au réseau ne viendrait pas briser l’une des forces du réseau qui est justement l’anonymat (et qui permet bien souvent l’émergence d’initiatives personnelles)?

Publié dans Enjeux et usages des TIC (février-juin 2003), Individus et réseaux | Laisser un commentaire