Vie privée des adolescents sur les réseaux sociaux et autres plateformes d’expression.

Depuis la « montée » du numérique on assiste à de réels « cris d’alarme » quand à son impact sur la jeunesse qui l’utiliserait, dit on, sans aucune prudence et aucune conscience des risques. Partout les parents, journalistes, chercheurs, gouvernements même, dénoncent et cherchent des solutions : Les jeunes n’ont plus aucun sens de la vie privée ! Ils partagent avec n’importe qui, postent sur internet des images osées et trop personnelles qui pourraient leur porter préjudice a l’avenir !
Pourtant peut être que le problème mériterait d’être creusé plus en profondeur. Et peut être serait-il intéressant d’interroger les intéressés… A savoir demander aux adolescents eux mêmes ce qu’ils pensent de leur, et de la vie privée en général.
Quelle vision ont il de l’intimité ? Et par qui ou quoi à t’elle été engendrée ? Est ce une notion qui n’a pas de sens pour eux ? Ou est ce qu’ils n’en ont tout simplement pas la même définition que nous ?
http://www.cairn.info/resume.php?ID_ARTICLE=CPC_035_0115
Un article de Yann Leroux sur cette plate-forme d’expression prisée des jeunes et maintenant très répandue que sont les blogues. 
http://loiclemeur.com/france/2003/11/le_phnomne_des_.html
Article de Loic le meure, à nouveau sur le phénomène des blogs. 
 
http://www.internetactu.net/2008/02/01/le-design-de-la-visibilite-un-essai-de-typologie-du-web-20/
Un article de Dominique Cardon sur la notion d' »identité numérique ».
http://www.internetactu.net/2010/01/04/vie-privee-le-point-de-vue-des-petits-cons/
Un article de Jean Marc Manach sur le parallèle entre la révolution sexuelle et l’utilisation d’internet des ados.
http://www.internetactu.net/2010/01/18/une-democratisation-de-la-vie-privee/
Un article de Jean Marc Manach sur la démocratisation de la vie privée.
http://www.rfi.fr/actufr/articles/091/article_54554.asp
Un article de Delphine Le Goff sur la place de l’origine et le développement des blogs en France.

HUMANITES NUMERIQUES FINAL

 

« Jared (17, TN) also recognizes that privacy is usually understood in terms of space, but he believes that it is impossible to actually achieve physical privacy because everyone is always invading his space; he lives in a one‐room apartment with his brother, his father, and his father’s down‐on‐his‐luck friend. Given few opportunities to experience physical privacy, he focuses instead on what he has control over: his thoughts. “The only privacy we’ve got left in our lives is what we don’t say and what we don’t do, and that’s really what tells the most about people, is not just the thoughts but what do they not want people to know.” In this way, Jared settles for privacy in his head because of his inability to control his physical environment. « 

Social Privacy in Networked Publics: Teens’ Attitudes, Practices, and Strategies

Danah boyd and Alice Marwick.

 

ARTICLE ENTIER :

http://www.danah.org/papers/2011/SocialPrivacyPLSC-Draft.pdf

 

Il existe des dizaines d’articles portant sur le sujet de la vie privée des jeunes depuis l’arrivée du numérique, cherchant des causes culturelles, générationnelles, psychologique à cette absence évidente de tout sens de la vie privée, de l’intimité et du personnel…
Pourtant celui que j’ai choisi à un discours totalement différent.
Il n’est pas accusateur envers les adolescents et surtout il s’appuie sur une démarche beaucoup plus poussée et à mon sens beaucoup plus juste.
Danah Boyd a réalisé entre 2006 et 2008 un étude ethnographique dans 20 états Américains qui a donné lieu a des centaines de minutes d’interview de « teenagers » et elle s’est basée sur  tous ces témoignages.
Elle n’a pas voulu voir les adolescents comme un entité étrange et incompréhensible que l’on observe et essaye de sonder de loin.
Elle a fait un véritable travail de terrain en essayant de comprendre leurs codes, la façon dont ils gèrent leur informations, créent des groupes, partagent leurs photos et leur musique ou les cachent à certains par des stratégies très intéressantes de cryptages non compréhensible par les « non-initiés ».
Et c’est une chose que je voudrais appliquer a mon travail.
Cette immersion totale dans un sujet qui permet de voir les choses de différents points de vue, de rétablir un équilibre.
Car finalement, ce que fait Danah Boyd ici c’est commencer par mettre en doute la définition même que nous avons de la vie privée, avant de commencer a en parler.
C’est a dire qu’elle part de la racine du problème puis remonte en passant par chaque protagoniste de « l’affaire ». Ce qui lui permet de dresser un tableau extrêmement complet et d’avoir une vision d’ensemble.
Ce socio-ethno-psycho-journalisme me semble être un modèle de travail applicable dans la recherche « pré-projet de design ». Dans le sens ou, je pense, l’immersion et la connaissance poussée d’un sujet est souvent un atout pour la justesse d’une proposition.

Technologies numériques et connaissance

Quelles relations entre la grammaire numérique et les contenus (images, sons, textes) auxquels ces technologies nous donnent accès ? Quelle modification de nos usages d’intégration des connaissances cette grammaire numérique implique-t-elle ? Les outils que le numérique met à notre disposition pour mettre en forme comme pour transmettre toutes sortes de contenus culturels les remodèlent furtivement, sans que nous en ayons totalement conscience. Si aucune technique ne peut se vanter d’être vraiment neutre, il est à noter que les technologies numériques ont la particularité de permettre de tout produire (images, textes et sons), rassembler, représenter et transmettre sur un même support. Mais cette unification des média en un seul ne gomme-t-elle pas les particularités de chacun ? Cette utilisation de plus en plus systématique du numérique comme moyen de culture de l’esprit est-elle justifiée, à partir du moment où il n’a pas principalement été pensé pour cela ?

Voici réunis des articles, vidéos de conférences, références de livres, qui donnent différents éclairages sur cette question du croisement entre technique et connaissance. Les deux premiers nous rappellent que la technique ne peut être considérée comme un outil neutre, silencieusement asservi à la volonté de son utilisateur humain. Cette vidéo de Delphine Gardey lors d’un colloque donne un aperçu de son travail historique sur l’évolution des techniques d’écriture et de classement, et la façon dont celles-ci ont impliqué différents mode de pensée. (1)

Le second est un article s’intitulant «Prendre le pli des techniques», il est du philosophe Bruno Latour. Celui-ci revient sur la notion de mode d’existence de l’objet technique, introduite dans la pensée des techniques par Gilbert Simondon. (2)

Avec le numérique, nous parlons d’une technique très diverse, aux multiples visages.Toutefois la grammaire codificatrice qui le fonde soulève des questionnements quant à notre emprise sur les dispositifs qu’il met en place. Des articles d’Internet.actu interrogent la pertinence des algorithmes, et l’autonomie de notre jugement face à la technologie. (3)

D’autre part, malgré la richesse certaine des informations qui sont mises à notre disposition, leur prolifération est loin d’être synonyme de facilité d’accès, dans le sens où leur intégration n’en est pas plus aisée, bien au contraire. Dans son livre intitulé L’Avenir des humanités,Yves Citton, théoricien et professeur de littérature, montre la nécessité de passer d’une économie de la culture à une culture de l’interprétation. (4)

Alain Giffard, quant à lui, nous propose une approche originale du problème en analysant l’exemple plus précis de la lecture numérique. Il met en évidence les conséquences que cette nouvelle technologie de lecture a sur notre façon d’aborder la connaissance. De nombreux articles à ce sujet sont disponibles sur son blog, en voici une petite sélection. (5)

Cette approche à la fois historique et observatrice des pratiques et usages contemporains offre un très bon exemple pour illustrer et approfondir les problématiques que nous avons évoqué.

(1) Delphine Gardey, colloque sur Ecrire, penser, classer

(2) Bruno Latour, «Prendre le pli des techniques»

(3) Internetactu: Sommes-nous encore autonomes? (19/09/2012)La pertinence des algorithmes (29/11/2012)

(4) France Culture: Interview d’Yves Citton sur L’Avenir des Humanités

(5) Alain Giffard: «Des lectures industrielles»«Subjectivités numériques, lectures industrielles»«Lecture numérique et culture écrite»«Le clou et la clé»

 

Nouveaux savoirs, nouvelles ignorances : l’exemple de la lecture numérique

Article par Alain Giffard Intervention à la réunion du comité des relations internationales scientifiques et techniques de l’Académie des Sciences. (20/11/2006) Certains passages issus d’un article intitulé «la lecture numérique, une activité méconnue» (paru dans la revue du syndicat des librairies). Document téléchargé depuis : http://alaingiffard.blogs.com/culture/2006/11/nouveaux_savoir.html

«Comme l’intitulé de notre réunion l’indique, les technologies de l’information et de la communication interfèrent avec la diffusion du savoir scientifique, et d’ailleurs aussi, au moins pour partie, avec leur production.

Une de ces interférences est le croisement entre la diffusion de l’information et du savoir scientifique, et, précisément les nouveaux savoirs caractéristiques des usages du numérique.

Ces nouveaux savoirs sont essentiellement des savoir- faire. Et ils entretiennent des relations complexes, ambiguës, non seulement avec la culture scientifique et ses propres savoir-faire, mais aussi avec d’autres savoir- faire génériques, culturels au sens large (…).

Je vous propose de nous concentrer sur un exemple (…): le savoir lire, autour de l’exemple de la lecture numérique.

Codification de la connaissance

Mais, au préalable, je voudrais souligner la principale caractéristique de ces nouveaux savoirs (précisément en tant que savoir-faire) : ils reposent sur une codification de la connaissance portée par les technologies de l’information. La codification de la connaissance, en général, convertit la connaissance en un contenu reproductible, par exemple un manuel imprimé, ou un programme informatique. Elle permet classiquement de stocker la connaissance à l’extérieur, d’extérioriser la mémoire.

Elle suppose trois composantes : un langage qui peut s’appliquer à diverses connaissances, du vocabulaire technique à l’intelligence artificielle ; une modélisation qui est l’application spécifique de ce langage à la connaissance visée, du traité de grammaire au moteur de recherche ; un support technique qui assure la conservation et la reproductibilité du produit de la modélisation, du rouleau de papyrus au numérique.

Les technologies de l’information jouent selon différentes directions. Elles disposent d’un langage qui permet de simplifier la codification des connaissances «factuelles», «élémentaires» et, en même temps, elles poursuivent, avec l’intelligence artificielle, l’objectif de modéliser des connaissances complexes. La numérisation garantir l’extériorisation de la connaissance sur différents supports, et, en même temps, elle impose une codification minimale. Un exemple pour illustrer cette notion de codification des savoirs : la Société Boeing, qui avait été à l’origine d’un premier langage de description des documents (GML), a ensuite développé des logiciels d’aide à la maintenance des avions s’appuyant sur la documentation technique au format SGML ; elle s’intéresse aujourd’hui à la codification de la formation à la maintenance. On a là, je crois, un exemple de la montée de la codification de l’information à la connaissance. Il faut préciser que le seul transfert sur un nouveau support n’entraîne pas une nouvelle codification de la connaissance, mais une simple codification de l’information selon les normes du nouveau support. Un traité de grammaire, codex manuscrit ou livre imprimé, représente une certaine codification du savoir du grammairien. La seule numérisation du livre ne crée pas une nouvelle codification du savoir : pour cela, il faudra réaliser, dans l’ordre de l’informatique, l’équivalent du travail de codification dans l’ordre de l’écrit imprimé. C’est tout le problème de l’usage des technologies de l’information dans l’enseignement.

Lecture numérique, un nouveau savoir ?

J’emploie la notion de lecture numérique pour la distinguer de la lecture à l’écran, afin de rendre compte précisément de l’idée d’un nouveau savoir faisant appel à la codification. (…) La lecture numérique a affaire aux spécificités du texte numérique, ce à quoi renvoie la notion d’hypertexte, et elle met en œuvre un nouveau savoir, une technologie propre de lecture reposant sur la codification du savoir-lire. (…)

Six activités permettent de décrire le savoir en œuvre dans la lecture numérique : navigation, marquage, copie, prospection, structuration, annotation (2). Je laisse pour la fin la navigation.

– Le marquage de lecture est effectué à travers les signets ou marque-pages. (…) Le marquage par les signets permet de sélectionner des sites, et de les réserver soit en vue d’une future lecture, soit pour préparer certains traitements ultérieurs.

– La copie numérique, particulièrement facile et puissante, est partout : pour télécharger, enregistrer, imprimer, ou adresser. La lecture numérique s’accompagne d’une prolifération des copies à laquelle nous avions été préparés par la photocopie. Ces copies numériques ne sont rien d’autre que des versions de lecture : il faut adapter le format et la lisibilité, sélectionner, enregistrer, constituer la bibliothèque numérique personnelle.

– La prospection consiste à appliquer au texte des opérations de traitement automatisées ou semi- automatisées d’ordre logico-linguistique. Le grand public utilise surtout les moteurs de recherche et les aides à la traduction. Un point important pour la lecture est l’intégration de ces outils de prospection au poste de travail personnel.

– La structuration, c’est la mémoire. Comme tout lecteur, le lecteur numérique veut garder une trace de ses lectures et pouvoir se livrer ultérieurement à une remémoration. Après les moyens déjà bien établis des listes de liens classés et des dossiers, des logiciels Web 2.0 proposent des interface d’accès à l’internet qui permettent de classer les textes reçus automatiquement ou recherchés (3).

– L’annotation est l’opération qui permet de soutenir une future lecture, ou d’associer un commentaire au texte. La publication d’annotations est très répandue sur les blogs : soit directement (c’est le sens original de la notion de web-log, journal de lecture du web), soit indirectement à travers les commentaires déposés sur les articles.

Le lecteur partage ses propres repères, soit en dressant une liste (roll) de liens sur son blog, soit en participant à une indexation collective et publique (tags). Il a d’ailleurs la possibilité de mettre en circulation, directement, les textes qui l’intéressent (RSS). Finalement les blogs peuvent être analysés comme une grande procédure de publication de lectures. Ainsi le lecteur est constamment engagé dans une sorte de lecture collaborative, qui non seulement conditionne le succès de la sienne, mais est au fondement même du fonctionnement du web.

Si le web est devenu aussi facilement un nouvel espace public pour la lecture, c’est qu’il est fondamentalement non seulement un réseau de textes, un type de littéralité numérique, mais aussi un réseau technique de lectures : la navigation repose fondamentalement sur le lien hypertextuel, qui n’est rien d’autre, de ce point de vue, qu’un dispositif technique de lecture.

Naviguer, est-ce lire ?

(…) Partons d’un fait d’expérience facile à observer : le recours à l’imprimante. Le lecteur suspend son activité de recherche, de navigation, de consultation ; il lance l’impression de la note, de l’article, a fortiori du rapport ou de l’étude, et poursuit sa lecture sur des feuilles de papier imprimées. Il faut donc supposer que la fatigue visuelle et cognitive de la lecture à l’écran est plus importante dans le cas d’une lecture soutenue ou approfondie. Certaines études sur le sujet (4) constatent d’ailleurs une réduction de la lecture approfondie en environnement numérique. Or cette lecture soutenue est la forme matérielle de la lecture d’étude qui s’est construite , pour l’Occident, autour du lien établi, depuis le XIIème siècle, entre lectio et meditatio.

La lecture numérique excelle pour la lecture d’information et la lecture d’exploration, ce à quoi correspond la notion de navigation ; elle achoppe sur la lecture d’étude. (…) Parler d’une lecture d’étude numérique, c’est viser une lecture qui tirerait le plus grand parti du potentiel numérique du texte pour un travail d’étude, ce qu’on appelle l’hypertexte, c’est à dire une lecture qui s’appuierait sur une profusion presque infinie d’entrées et de chemins. (…) Pour le moment, alors que la lecture d’information dispose d’une base numérique assez complète, la lecture d’étude reste, dans le meilleur des cas, une lecture assistée par l’ordinateur et l’internet, un processus hybride qui alterne les opérations de traitement informatique et les phases de réflexion approfondie à partir du papier. Une autre solution est évidemment concevable : celle qui verrait le développement de logiciels de lecture numérique respectant à la fois la richesse du potentiel numérique, la logique des savoirs liés aux différentes lectures (information, étude), et la possibilité pratique d’articuler selon différentes stratégies de lecture les fonctions que j’ai rapidement mentionnées (7).

Ignorances assistées par ordinateur ?

(…) Les lecteurs confirmés n’ont pas de difficultés à maîtriser le caractère hybride de la lecture d’étude numérique. Ils ne confondent pas information et connaissance ; ils ont appris à suspendre la navigation pour mieux se concentrer ; ils jonglent avec les formats, s’ils estiment nécessaire de compléter leur travail par une prospection informatique du texte, ou plus simplement pour conserver leurs annotations. Mais la situation est bien différente pour le lecteur débutant ou peu expérimenté, qu’il s’agisse de sa compétence de lecture en général, ou de sa maîtrise de la technique. Ici les risques de désorientation sont grands : on navigue sur la toile, rebondissant d’information en information, et on croit lire. Ce risque est renforcé par le fait que l’ingénierie de la lecture d’information ne correspond nullement à un savoir de débutant. Les moteurs de recherche, par exemple, sont une combinaison assez complexe d’indexation intégrale, et d’utilisation des liens hypertextuels pour produire un classement qui figure la pertinence des résultats.

Autrement dit le lecteur débutant est dans une posture de simulation décalée puisqu’il met en œuvre des traitements automatisés correspondant à une compétence de lecture qu’il ne possède pas. Le risque de mauvaise lecture ne tient pas à la technologie. Il n’est pas, comme on a pu le dire, inhérent à l’hypertexte. Mais la confusion sur le type de lecture (information ou étude) et le manque de maîtrise de la technologie peuvent se renforcer et produire de telles mauvaises lectures. Ces risques de nouvelles ignorances sont attachées comme une ombre aux nouveaux savoirs réels construits autour des pratiques numériques. Les anglais parlent de « reading without literacy «, qu’on pourrait traduire, sur un mode funèbre, par « lecture illettrée «, ou, plus sobrement, «lire sans savoir lire».

Constituer et apprendre le savoir-lire numérique

Quelques mots, pour conclure, sur les conditions sociales de développement de ces savoirs. Le cadre dans lequel se met en place la lecture numérique est d’une nouveauté radicale dans l’histoire de la lecture.

Les pouvoirs publics, politiques ou religieux, qui, à d’autres époques, jouaient le rôle principal, n’ont presque aucune influence directe sur le processus, ayant décidé, dans beaucoup de pays, de ne pas influer sur l’orientation des logiciels, et dans la plupart, de se limiter à une vision étroite et empiriste de «l’alphabétisation numérique». Les technologies de l’information relèvent donc d’un projet industriel, et il convient de mesurer le changement inouï que représente un savoir-lire d’origine industrielle. Un projet tel que Google Print va nécessairement confronter le lecteur à cette situation paradoxale d’accéder à des textes prédisposés à une lecture d’étude, sans dispositif technique explicitement conçu à cette fin.

Dans cette situation, il est notable que le développement réel de la lecture numérique provient d’un troisième acteur, désigné habituellement comme l’usager, et que j’ai proposé d’appeler le (s) lecteur (s) numérique (s). Dans d’autres contextes, on parlera de « société civile », de « public » , ou d’ « amateur ».

Le rôle de ce nouveau sujet collectif, véritable co- producteur de la culture numérique, est une question des plus fascinantes. De là proviennent sans doute des textes, des lectures, et toutes sortes de nouveaux objets éditoriaux. Il apparaît que le public du numérique, le politique s’abstenant et l’offre industrielle ne le satisfaisant pas, a décidé de faire de ces nouveaux savoirs ses propres « objets «, mais cette nouvelle société des lecteurs numériques est-elle à même de produire une technologie de lecture complète, intégrant l’étude ?»

(1) Thomas Crump, Anthropologie des nombres, Seuil, 1995.

(2) J’ai essayé de replacer ces fonctions dans leur historicité, dans Idée du lecteur , in « Nouveaux médias, nouveaux langages, nouvelles écritures «, Editions L’entretemps, 2005.

(3) Par exemple, le logiciel Netvibes.

(4) Ziming Liu, Reading behavior in the digital environment : Changes in reading behavior over the past ten years, Journal of Documentation, vol.61 n°6, 2006.

(5) Jacques André,Alain Paccoud, Ecrire pour l’écran, irremplaçable typographie, dans La lecture numérique: réalités, enjeux et perspectives «, Presses de l’ENSSIB, 2004. (6) Hartmut Obendorf et Harald Weinreich, Comparing link marker vizualisation techniques – Changes in reading behavior, Université de Hambourg, 2006.

(7)Alain Giffard, La lecture numérique à la Bibliothèque de France, à paraître, aujourd’hui sur http://alaingiffardblogs.com

Mettant à jour les spécificités de cette nouvelle activité qu’est la lecture numérique, Giffard soulève des problèmes plus généraux quant à notre attitude vis-à-vis des technologies de l’information et de la communication. Parce qu’il y a une richesse (une surabondance?) de contenus ne signifie pas que l’apprentissage et l’étude nécessaire à toute construction intellectuelle sont plus aisés. L’apparente facilité d’usage de ces technologies masque un véritable savoir-faire à acquérir, autant qu’une partielle incompatibilité avec les tâches que nous leur assignons. L’usage exhaustif de l’informatique dans des travaux de mise en forme – non seulement textuels mais aussi de son et d’image – tend à l’installer comme un seul médium remplaçant efficacement tous les autres. L’apparente synthèse qu’il opère entre plusieurs techniques nous pousse plus ou moins consciemment à le mettre à la base de notre activité productrice alors qu’il n’en est que le moyen. Constamment placer ‘‘le numérique’’ en sujet, c’est nous refuser de le penser aussi et surtout en tant qu’objet, et d’une certaine façon perdre son contrôle.

En tant que designers, ces questions de ‘‘savoir-Faire numériques’’ sont intéressantes dans ce qu’elles introduisent comme réflexion sur l’utilisation d’une technique particulière, technique qui est notre matériau quotidien. Cela nous pousse à (re)penser à la façon dont nous l’utilisons, à ce qu’elle modèle de nos représentations, de nos mises en forme, et même de nos méthodes de réflexion.

D’autre part, l’émergence de ces nouvelles typologies d’usage est un terrain riche d’observations et de création pour un designer: Comment faciliter la tâche de l’utilisateur des techniques numériques sans rien cacher de leurs spécificités ? Comment ajuster plus étroitement la forme numérique à ses contenus prolifiques ? Et pourquoi pas, quelles alternatives à cette forme, quelles hybridations possibles avec des techniques plus traditionnelles ? Ré-inventer le langage numérique, jouer avec, et non pas l’accepter comme un objet portant en lui-même sa propre justification.

 

Postures des usagers face aux environnements numériques

Je m’intéresse à l’appropriation des usages des technologies de l’information et de la communication (TIC), au comportement des usagers. J’ai commencé ma recherche en me posant ces questions : pourquoi les usagers du numérique refusent-ils un système ? Pourquoi s’attachent-ils à un autre ? Quels sont les effets cognitifs, psychologiques de tous les dispositifs techniques qui nous entourent ?

Depuis les quarante dernières années, nous sommes face à un changement constant de notre environnement technique auquel nous devons nous adapter. Cela demande des efforts pour chaque individu et cause des mutations dans la société. Hubert Guillaud nous parle des « dangers des nouvelles technologies: panique, psychose, dépression, dépendance, anxiété… Comment nous rendent-elles stupides, bêtes, dépendants, isolés… Elles semblent n’être que le symptôme des maux de notre société. Elles favoriseraient, au choix, solitude, narcissisme, mauvaise estime de soi, déficit d’attention, anxiété, addiction, étroitesse d’esprit, perte de mémoire, syndrome de la peur de manquer quelque chose, stupidité…»

Depuis la préhistoire, l’humain invente les outils, les machines pour mieux réussir dans sa vie. « L’innovation technologique s’inscrit dans le mouvement historique d’une complexification des prolongements artificiels de la main et du cerveau humains. » (Bernard Claverie)

Qu’est-ce que cette dépendance technologique que nous avons aujourd’hui implique dans nos quotidiens? Quelles sont nos relations avec ce monde numérique en tant qu’utilisateur? «… les espaces numériques apportent au développement normal est qu’ils sont d’un abord plus simple que l’environnement humain. L’environnement numérique peut ainsi être apprécié parce qu’il est vide des complications des relations humaines. Connecté à un ordinateur, profondément plongé dans l’édition d’un texte ou dans la modification d’une image, il est possible de se reposer de la fatigue d’être en lien avec d’autres êtres humains… L’ordinateur est un désert, mais c’est un désert qui apaise les appétits que suscitent la présence d’autres être humains. » (Yann Leroux)

 

Références :

Les nouvelles technologies ne détruisent pas le cerveau, elle s’y adapte ! (Hubert Guillaud le 28/02/2013)

Enfants et écran : psychologie et cognition (Hubert Guillaud 29/01/2013)

L’évolution disciplinaire des sciences de l’information : des technologies à l’ingénierie des usages (Bernard Claverie)

Parution – L’homme augmenté. Néotechnologies pour un dépassement du corps et de la pensée (Bernard Clavrie)

Culture numérique : une triple révolution, culturelle, cognitive et psychique (Serge Tisseron 07/06/2012)

Quelques contributions de l’environnement numérique au fonctionnement psychique normal (Yann Leroux, 04/10/2011)

Causes et motifs du non-usage de ressources numériques (Cathia Papi 06/06/2012)

Identité numérique : l’accepter et non la combattre (Cedric Motte 20/02/2007)

Un monde numérique à la mesure des narcissiques (Fabien Deglise 14/12/2010)

Quand le numérique devient un fait cognitif culturel… (Bruno Devauchelle 09/04/2012)

 

Référence principale :

Penser les usages des technologies de l’information et de la communication aujourd’hui : enjeux – modèles – tendances

 Serge Proulx (Professeur, École des médias, Faculté de communication Groupe de recherche sur les usages et cultures médiatiques Université du Québec à Montréal)

Document téléchargé depuis : http://sergeproulx.uqam.ca/

 

Schéma de l’article :

schema_analyse_dusages_des_TIC_Proulx

Extrait de l’article :

Mon programme de recherche se structure autour d’une double question: comment saisir l’action et les significations de l’innovation sociotechnique dans la société? Et symétriquement : comment décrire l’action des réseaux – formés d’acteurs humains et d’actants non humains – dans la construction sociale de l’innovation sociotechnique ? Pour tenter de saisir au plus près cette présence, cette action de la technique dans la société, l’étude des usages – l’observation de ce que les gens font effectivement avec les objets et dispositifs techniques – constitue un point d’entrée intéressant et scientifiquement pertinent. (…)

L’un des premiers emplois de la notion d’usage en sociologie des médias provient du courant fonctionnaliste américain des « uses and gratifications », proche de l’École de Columbia. Dans les décennies 1960 et 1970, des chercheurs désirent prendre une distance face à la pensée unitaire dominante décrivant l’action des médias trop exclusivement en termes d’effets (« ce que les médias font aux gens »). Ils cherchent à abandonner ce médiacentrisme. Ils proposent un déplacement du programme de recherche vers les usages (« ce que font les gens avec les médias »). Ils postulent ainsi que les membres des audiences utilisent « activement » les médias pour en retirer des satisfactions spécifiques répondant à des besoins psychologiques ou psychosociologiques.Par exemple, l’écoute environnementale de la radio est décrit comme un « usage compensatoire » venant combler le manque psychologique lié à la solitude de l’usager. Cette perspective farouchement fonctionnaliste fut accusée avec raison par les chercheurs d’autres courants, de se réduire à un psychologisme des usages (pour une description plus exhaustive, voir Breton et Proulx, 2006). (…)

Quant à la catégorie analytique de l’appropriation, elle remonte aux préoccupations initiales des chercheurs qui ont formé le noyau idéologique constitutif des premières études d’usage des TIC (Chambat, 1994, Proulx, 1994b). La sociologie de l’appropriation est à l’origine, en effet, davantage une « orientation idéologique » de certains travaux de recherche qu’une définition formelle d’un domaine d’étude constitué. La notion d’appropriation est reliée en France et au Québec dans les décennies 1970 et 1980 à une sociopolitique des usages. L’attention à la dimension conflictuelle portée implicitement par cette catégorie issue de la problématique marxiste (appropriation des moyens de production) renvoie les usages au contexte des rapports sociaux de productionet de reproduction (Proulx, 1988). Ces travaux s’inscrivent dans les courants dits de l’autonomie sociale : l’appropriation est un procès à la fois individuel et social. Ces chercheurs sont attentifs aux problématiques du sujet: « L’appropriation est un procès : elle est l’acte de se constituer un soi » (Jouët, 2000). (…)

Internet n’est-il simplement qu’un nouveau média prenant place à côté du récepteur radio, de la télévision, du téléphone, de l’ordinateur? Au contraire, l’arrivée d’Internet marque-t-elle une rupture significative dans l’informatisation,et dans nos manières de faire usage des TIC ? À cette question, voici un premier élément de réponse : Internet est plus qu’un nouveau média. Internet peut produire un « effet de levier » dans la réorganisation sociale et économique des sociétés industrielles. L’avènement d’Internet se situe dans un contexte sociohistorique plus vaste que le seul développement des machines à communiquer (Proulx, 2004). Associé à l’instauration de la «société en réseaux» (Castells, 1998), Internet est perçu comme vecteur d’innovation économique et sociale. Second élément de réponse: perçue d’abord comme un prolongement naturel du mouvement d’informatisation, l’innovation Internet apparaît structurellement importante parce qu’associée significativement et simultanément à plusieurs ordres de changement social. (…)

La présence d’Internet a transformé les conditions d’usage des TIC. Ainsi, les usages collectifs et en réseau sont devenus importants, presque omniprésents. On assiste au surgissement de «communautés » d’usagers en ligne, de « communautés de pratique » (Wenger, 1998) au sein et entre les entreprises, à l’échelle locale et internationale. De nouvelles formes de communication de groupe émergent au sein des organisations : intranets, plateformes collaboratives, services web, messageries instantanées, chats, listes de discussion. Les trois principales sphères de pratiques de communication identifiées par les marchés des opérateurs de télécommunication (domestique, professionnelle et personnelle) apparaissent de plus en plus enchevêtrées. Nous sommes devant une diversification croissante de l’offre d’objets techniques agissant comme supports aux pratiques de communication en ligne : micro- ordinateur, téléphone mobile, console de jeux vidéo, assistants numériques personnels, IPod, etc. Certaines études d’usage menées au Laboratoire de sociologie des usages (SUSI) de France Télécom R&D font observer un entrelacement des usages plutôt qu’une concurrence entre outils de communication ou que des effets de substitution entre les nouveaux et les anciens usages. Ces études récentes montrent ainsi simultanément : a) une mobilisation rapprochée de différents médias dans l’entretien du lien social (téléphone fixe, téléphone mobile, sms, courriel) ; b) une superposition des pratiques de communication et de consommation culturelle et de loisirs ; c) l’interpénétration des sociabilités personnelles et professionnelles sous l’effet de la contraction temporelle des agendas, de la mobilité des personnes et de la portabilité des outils de communication (Cardon, Smoreda, Beaudouin, 2005). (…)

Le projet que je poursuis consiste à construire une théorie des usages mettant en relief cinq niveaux d’interprétation. Je propose de désigner ce modèle sous l’appellation de « construction sociale des usages » d’une part, pour mettre en relief le fait que l’usage n’est jamais stabilisé une fois pour toutes, et d’autre part, pour souligner que cinq registres distincts fournissent des catégories analytiques susceptibles de construire l’interprétation des pratiques d’usage que l’on observe. Voici une première énumération de ces cinq niveaux d’analyse :

  • L’interaction dialogique entre l’utilisateur et le dispositif technique ;
  • La coordination entre l’usager et le concepteur du dispositif ;
  • La situation de l’usage dans un contexte de pratiques (c’est à ce niveau que l’on pourrait parler de l’expérience de l’usager) ;
  • L’inscription de dimensions politique et morale dans le design de l’objet technique et dans la configuration de l’usager ;
  • L’ancrage social et historique des usages dans un ensemble de macrostructures (formations discursives, matrices culturelles, systèmes de rapports sociaux) qui en constituent les formes. (…)

En pratiquant les études d’usage, restons conscients du fait que nous sommes en permanence situés dans un double jeu réflexif. D’une part, le chercheur est un observateur réflexif : il est lui-même partie de la situation observée. D’autre part, le concepteur est un usager réflexif : il est d’abord lui-même un usager du dispositif qu’il invente (Bardini, Horvath, 1995).

Deuxième objet d’attention pour les chercheurs du domaine des usages : nous sommes au milieu de luttes de concurrence concernant le contrôle et la diffusion des savoirs sur les usages. Il y a en permanence un procès de réappropriation incertaine et orientée des études d’usage par les différents acteurs politiques et industriels : les études oscillent en permanence entre marketing et sociologie… Les problématiques des études d’usage sont co-construites par les chercheurs et les commanditaires des études dans un rapport de forces asymétrique.

Pour conclure, je dirai que le défi majeur pour les chercheurs consiste à développer des stratégies théoriques et méthodologiques audacieuses pour penser ensemble les registres du micro et du macrosociologique.

 

Conclusion : 

Qu’est-ce que cela nous apporte en tant que designer?

«L’être humain se développe au contact de deux types d’environnements. Le premier est l’environnement humain. Ce sont les personnes qui prennent soin de lui dans son enfance, puis ses partenaires de jeu et de travail. Le second environnement décisif dans le développement humain est l’environnement non humain. Il peut s’agir d’êtres vivants, mais aussi d’objets fabriqués ou d’éléments naturels. L’importance de l’environnement non-humain a d’abord été reconnue par le psychanalyste Harold Searles qui lui a consacré  tout un  livre. Plus récemment, Serge Tisseron a montré comment les objets contribuent à la vie psychique des individus et des sociétés. Un chien, un livre, un banc sur une place peuvent être pour une personne des appuis nécessaires et valables de sa vie psychique. Les espaces numériques constituent un troisième environnement sur lequel nous pouvons appuyer notre fonctionnement psychique.» (Yann Leroux)

Ces espaces numériques deviennent notre environnement constant. En tant qu’utilisateur nous nous engageons de plus en plus avec confiance, nous nous réveillons, travaillons, apprenons, communiquons, voyageons avec.

Nous approchons d’une époque où tout est numérisé, nous découvrons et expérimentons les nouveaux usages en gérant la complexité des commandes et en offrant une représentation plus simple, et peut-être plus intuitive.

Le besoin de fonctionnalités augmente constamment et les machines deviennent de plus en plus complexes. Pour que l’utilisateur comprenne leurs fonctionnements, nous avons besoin d’un langage compréhensible et d’une simplification de l’information. Pour offrir une expérience à l’utilisateur le designer doit réfléchir à tous les niveaux d’usage.

Analyser et structurer les différents types d’usages ou non-usages aide à améliorer l’expérience utilisateur des services, des interfaces et des objets.

«L’identité numérique, cette présence que nous créons en rédigeant des blogs, en participant à des forums, en envoyant des photos, en jouant en ligne, en faisant les courses depuis notre lit, etc., apporte tellement de satisfactions que nous sommes naturellement amenés à la privilégier.» (Cédric Motte)

Les cinq niveaux d’analyse proposés par Serge Proulx peuvent servir comme un outil pour les designers dans tous les domaines associés aux TIC. En conceptualisant un projet, le designer ne doit pas penser seulement à la relation physique avec un objet, une interface, etc. (premier niveau), mais à la compréhension (deuxième niveau), à l’expérience utilisateur (troisième niveau), et au rapport politique et moral (quatrième niveau) comme social et historique (cinquième niveau).  C’est un véritable étalon  qui permet de mieux comprendre le comportement des usagers et d’imaginer leurs nouveaux usages.

Szonja IVAN

 

VERS UNE MATÉRIALISATION DE LA LOGIQUE INTERNET 

La fiction constitue un berceau fertile de l’imaginaire architectural, politique et économique que nous avons du paysage urbain prospectif.

Entre utopie, dystopie, uchronie comment repenser l’application d’Internet dans un monde proche et pourtant déjà presque contemporain ?

D’une cartographie vaste des aspects que revêt l’imaginaire, P. Musso retrace son caractère bipolaire, à la fois positif pour le progrès technologique (tirée et inspirée par la fiction) et négatif (aliénation de l’homme par la machine). Celui-ci s’exprime par ailleurs dans les univers virtuels, ayant fait l’objet de nombreuses études (G. Thuillier, M. Beauchamp) mais montrant l’idée que ce phénomène encore assez jeune ne peut produire d’études à long terme.
Ainsi, M. Giget interroge la question de la cité idéale à l’heure où internet favorise pour nombre de personnes le délitement du lien social et de la pensée pragmatique.

Cités Collines interroge cette notion en proposant un plan de voirie visant une création en open source de villes. Politiquement démocratique, conjoncturellement participatif ce système façonnerait un espace urbain à l’échelle de ses usagers, chacun apporterait sa pierre à l’édifice.
Penser le futur, ce n’est pas associer matériel et immatériel, fictif et réel, idéalisme et pragmatisme, c’est établir un réseau de transferts, de possibilités, entre ces champs.

Ce fonctionnement en réseau, interconnecté entre les acteurs, la disparition de la frontière entre utilisateurs/concepteurs/pouvoirs publics interrogent les relations entre l’internet 2.0 et la réalité effective.

Références

http://www.senat.fr/rap/r09-510/r09-5103.html

http://www.carnetsdegeographes.org/PDF/Rech_02_03_Thuillier.pdf
Relation entretenue par la fiction, les espaces virtuels et leur intersection, par Guy Thuillier in Carnets de Recherches

http://www.erudit.org/revue/hphi/1999/v9/n2/801123ar.pdf
Fiction / Illusion : Frontière, Allégorie de la Caverne, Platon, La République Livre VII

http://fr.wikipedia.org/wiki/Ubik

Ubik, P. K Dick

http://carnetsdegeographes.org/carnets_debats/debat_02_01_Edito.php
Approche géographique des espace virtuels, M. Beauchamp Carnets de géographes

L’imaginaire des techniques, par Pierre Musso, professeur à l’Université de Rennes 2,
Co-auteur de Fabriquer le futur 2. L’imaginaire au service de l’innovation, Village Mondial, 2006.
« A toute technique est associé un imaginaire qui est la réalisation de représentations sociales. L’imaginaire étant structuré comme un langage, il est possible de le travailler comme un matériau, notamment en amont des processus d’innovation. »

http://fr.wikipedia.org/wiki/Cyberespace
Notion de Cyberspace, W. Gibson

http://www.unidivers.fr/cantine-numerique-rennes-jeu-video/
Étude des comportement liés à Internet et des relations sociales, in Approche clinique des techno-imaginaires, Y. Leroux

Réflexion sur l’espace et le temps à l’heure d’internet, Antoine Grumbach, Penser les villes du futur : utopies ou réalités ?
http://www.senat.fr/rap/r09-510/r09-5105.html

DATAVIZ

Intervention de Marc Giget « Vers des cités idéales où des cités invivables » dans le cadre de l’atelier du Sénat le 29 Avril 2010

Constat historique

« Je ne suis pas spécialement prospectiviste. Mais je fais des études prospectives à but plutôt d’anticipation et d’application ; notre institut est en effet orienté vers l’innovation, donc vers la recherche de solutions et de propositions. J’ai fait des travaux longs sur une cinquantaine de villes qui ont marqué l’Histoire en termes d’innovations comme Babylone, Carthage ou Persépolis, ville fantastique, qui a été une sorte de « living lab’ » de Darius. Les villes innovantes ont toujours été des coeurs de réseaux. Comme Carthage, les villes de Mésopotamie, les villes des routes de la soie, Alexandrie, Rome. Toutes étaient des villes « ouvertes » situées à l’interface de plusieurs mondes. Réseaux ouverts, mais aussi creusets d’échanges, c’est-à-dire disposant d’une personnalité, d’un lieu où les gens se rencontrent, travaillent ensemble, comme on l’a eu à Paris à sa grande époque avec le Quartier Latin ou comme le furent les villes allemandes universitaires.
Les villes qui ont le plus marqué l’Histoire sont des villes où ce n’était pas juste une municipalité qui imposait ses vues, mais où les gens aimaient se retrouver pour créer, innover, entreprendre, parce qu’elles étaient plus ouvertes que d’autres. Dimension interculturelle internationale, toujours. Quand des villes se sont refermées, interdisant la présence des étrangers, l’innovation n’a plus fonctionné. »

L’utopie comme moteur de l’innovation

« Les grandes avancées ont toujours été préparées par l’utopie. L’utopie permet de dire : je vais définir quelque chose d’idéal, sans contrainte, je laisse aller jusqu’au bout ma réflexion, je redéfinis.

On a dans le passé défini des cités idéales qu’on a essayé de réaliser. On a eu certaines villes qui ont marqué l’Histoire au niveau de l’idéal. Actuellement, on a de nouvelles valeurs, des technologies nouvelles, une révolution écologique, etc. D’où l’intérêt de repenser à ce que pourrait être la cité idéale dans la même logique que celle qu’on a eue à la Renaissance. Reconcevoir la cité idéale permet de faire de l’étude, de la recherche et de modéliser avant d’appliquer.
Je vais vous présenter maintenant un projet qui s’est développé depuis une trentaine d’années et qui s’appelle « Cités collines ». C’est une réflexion prospective sur le futur de l’habitat humain, une réflexion qui est maintenant intégrée dans un travail de prospective baptisé « Expérience 2035 » puis « Expérience 2040 ». Ce travail de prospective porte sur la vie quotidienne dans une génération. Pourquoi une réflexion à trente ans ? Parce que trente ans c’est le temps d’une génération. C’est se demander comment vivront nos enfants dans trente ans.
Ce qui nous intéresse dans les grandes périodes du passé, ce sont par conséquent ces constantes qui reviennent dans l’organisation de la vie. Quelques axes nous ont intéressés. Je simplifie à l’extrême, non point parce que je suis simplificateur, mais parce que je n’ai pas le temps de tout développer. »

Développement du projet

« Quel est l’intérêt des collines ?
C’est de créer l’habitat individuel, de multiples terrasses, des jardins, etc. comme le sont les cultures en zones de montagne. Les cultures végétales et minérales s’insèrent naturellement dans un tel projet. Les tours rassemblent les activités professionnelles, – bureaux, hôtels, services publics -. Les grandes infrastructures, théâtre, cinémas, équipements sont au coeur des collines avec des parties internes ou externes. L’habitat ressemble à celui de la campagne, tout en étant au coeur de la ville.
On en trouve déjà un exemple au Mexique, pas loin des pyramides mexicaines. Quand vous êtes dans la maison, vous pouvez descendre, soit par l’ascenseur, soit par le sentier extérieur. C’est-à-dire qu’on gère la relation à l’espace en utilisant des biais qui ne sont jamais dans l’architecture si on fait vertical ou horizontal. L’objectif du projet est de réfléchir sur l’insertion harmonieuse dans la nature d’habitats humains qui seraient dans la logique des formes naturelles, en ayant l’avantage, pour une même quantité de population, d’avoir une surface au sol vingt fois inférieure à celle d’une ville actuelle, tout en ayant une grande qualité de vie puisqu’il y a ce problème de densification.
Le regroupement decités collines pourrait se faire avec la création d’un espace central qu’on appelle « caldera centrale », un lieu de la vie où ça chauffe et où on peut utiliser les parties hautes pour des activités collectives. C’est bien qu’à 800 mètres les enfants aillent goûter ou jouer. Quand vous faites un centre aéré, vous avez à la fois l’altitude connectée à l’habitat. L’autre côté des collines, c’est l’espace de calme et d’habitat individuel. D’un côté la ville, d’un autre côté la campagne, comme on a un côté cour et un côté jardin. »

Repenser le réseau à l’heure d’internet

« L’aspect des réseaux, c’est une question fondamentale quand il y a rassemblement des villes. Est-ce que le réseau ne rend plus nécessaire la ville, puisqu’on peut se rencontrer sur Internet en permanence ? En fait, ce n’est pas vrai. La rencontre physique est fondamentale entre les talents. Pourquoi mettre si loin ? Mettre loin a un avantage. Si on ne met pas loin, on voit comment on va transformer le périphérique, comment on va transformer un quartier.

Quand on voit aussi loin, on dit : quel est l’idéal vers lequel on voudrait arriver ? On part donc vers un idéal. Et on dit : peut-on commencer à le construire aujourd’hui ? On inverse les choses.
Les architectes très écolo mettent des montgolfières, des vélos partout. Ce n’est pas la densité qui est alors recherchée. Le schéma de base, celui que j’ai présenté à Curitiba ou dans d’autres pays du monde, est plutôt celui d’une ville faite de cités creuses avec une caldera centrale, et des établissements autour, qui permet de rassembler un habitat dans des tours avec des formes plutôt naturelles et des coupoles supérieures et avec une connexion qui peut être assurée avec une station centrale à l’intérieur. On est dans des distances tout à fait intéressantes pour la vie quotidienne. Les gens vivent essentiellement à l’extérieur, un peu comme on le voyait sur la colline tout à l’heure, et le centre-ville qui est vital, en est la clef. Si on regarde un peu ce que nous propose la nature avec l’image d’un volcan vu par satellite, le projet en est proche avec la caldera centrale et les structures autour qui lui donnent cet aspect de centre de vie. Il y a aussi des conceptions des plateformes supérieures des bâtiments verticaux avec les avantages qu’ils ont.  »

Un projet ouvert et participatif

« Le projet est devenu un projet ouvert international en open source, un peu comme Wikipédia ou Firefox. On l’a présenté en disant : c’est une structure simple avec 10 à 15 % d’éléments communs de référence pour interfacer les modèles de conception assistée par ordinateur. Il faut en outre que chacun puisse s’y connecter pour dire : « moi, je fais un opéra, je fais des villes, je m’intéresse à l’écoulement des eaux, je m’intéresse à la vie quotidienne, je m’intéresse à la vie familiale, je m’intéresse à la structure, je m’intéresse aux éléments en porte-à-faux en titane en haut ». C’est un travail de réflexion collective comme le sont maintenant tous les projets mondiaux réalisés en open source. Donc plateformes communes et des noeuds de compétences.

Certains s’interrogent : « Mais quelqu’un concevrait tout ? » Non, on envisage, on essaie que ce soit 8 à 12 % d’éléments d’interfaçage. Si vous allez dans une ville pour faire un tour ou quoique ce soit, il y a un Plan d’Occupation des Sols. Il y a besoin que vous vous connectiez aux réseaux, à l’eau, il y a donc des règles. On essaie que les règles soient les minima possibles pour qu’il y ait une très grande liberté. C’est anarchique une ville, chacun fait son bâtiment à un moment donné. Quand l’un est foutu, il en fait un autre. Ça se reproduit comme ça, de proche en proche, pour qu’on ait un équilibre entre vision collective de l’intérêt de vivre ensemble, etc. et extension.

Voilà, présenté à la hache, le projet « Cités collines ».

Commentaire

On pourrait croire que penser l’avenir c’est penser un univers virtuel évolutif généralisé, une perte d’identité amenant une approche schizophrénique du lien social. Cette vision dystopique ne saurait que trop souffrir d’une croyance aliénante d’internet.

Internet c’est un terreau qui appelle la procréation ou reproduction.

Comment faire de l’utilisateur un concepteur ?

Le designer, l’urbaniste autant que les pouvoirs publics sont en phase d’entrer dans un nouveau rapport de force propice à une redéfinition de certains enjeux.
L’utilisateur doit dépasser le champ qui lui était autrefois réservé, celui d’un usager type produisant un retour du service qui lui est proposé. Sans pour autant rentrer dans dans le champ de la création, il doit admettre un investissement propice à une vision multimodale de la conception qui saurait alors sortir de la relation demande/offre et pénétrer dans un rapport démocratique et viable à la société.
Un réseau participatif permettrait-il alors de voir émerger une société du « Like », démocratie positive participative 2.0 basée sur ce qu’il advient être un principe fondateur, l’égalité, sans dériver pour autant vers la méritocratie ?

Comment le temps plus que la spatialité d’un réseau est envisagée dans son élaboration ?

Internet, par ses services tend à raccourcir la distance entre service et utilisateur. Une telle constatation peut s’observer dans le monde réel qui tendrait à s’amplifier. Si autrefois les limites d’un département étaient régies par le fait qu’atteindre le chef lieu de chacun d’entre eux devait être possible en moins d’une journée à cheval, l’urbaniste Antoine Grumbach reprend cette idée dans le développement de la mégalopole Paris/Rouen/Le Havre en pensant un quadrillage d’une heure entre chaque espace notoire.
Penser le temps comme lien primordial des divers espaces semble constituer aujourd’hui une problématique importante car traitant des questions écologiques, de fracture urbaine, et de coût.
On est donc face à une constat d’opposition : celui d’une rurbanisation et d’une démographie croissante.
Comment un accroissement démographique couplé à une volonté de loger les habitants au plus proche des services peut-elle s’exprimer ?
Marc Giget proposerai un système de tour centrale de services et de satellites d’habitation.

Penser un monde prospectif est-ce rompre avec le monde d’aujourd’hui ?

Tant au niveau urbanistique que du design, une rupture est-elle le bon moyen pour réaliser les enjeux d’aujourd’hui ?

Détruire pour mieux reconstruire, est-ce la solution ?

Tom Formont

Quel est le rôle du numérique dans le bouleversement de la perception du temps de l’homme post-moderne?

Nous le savons, nous le sentons à l’échelle même de nos courtes vies, notre perception du temps à changé dans son train d’écoulement, dans sa densité. Les sollicitations au travail mais aussi au sein de notre temps de loisir se sont démultipliées dans une sorte d’accélération effrénée et un appétit démesuré de vivre plus et de remplir toujours plus le temps qui nous est imparti.

Si le numérique semble intimement lié à cette évolution, en est-il pour autant la cause? A quel point les TIC l’ont-t-elle favorisée? Et par quels moyen?
Plus encore, puisque les débordements de ce changement sociétal semblent être une source de mal être chez certains, quelles pistes peut-on envisager pour calmer cette frénésie et retrouver plus de mesure et de sérénité dans nos mode de vie?

Références associées :

« Le collectif du temps », Orange : design de service, design de temps?
http://lecollectif.orange.fr/rubrique/societe/collectif-temps

Top 10 des applications pour perdre ou gagner du temps, proposé par le collectif du temps, Orange :
http://lecollectif.orange.fr/collectif-temps/top-10-des-applis-pour-perdre-ou-gagner-temps

 » Digital downtime machine » Hector Serrano
http://vimeo.com/26125679

Luc Gwiazdzinski, géographe, « Des facteurs de changement »(2013) »Temps et territoires: les pistes de l’hyperchronie »
http://territoires2040.datar.gouv.fr/IMG/pdf/datar_t2040_n6_final_bdef.pdf

Nicole Aubert « Le culte de l’urgence » (introduction et avant-propos)
http://1libertaire.free.fr/Urgence02.html

Provocante publicité anglaise Xbox (2002) : « time is short, play more ».
http://www.youtube.com/watch?v=w-YV1ZlTFaY

Hubert Guillaud, journaliste, article pour internet-actu
http://www.internetactu.net/2008/04/24/pour-une-ecologie-informationnelle/

The world institute of slowness, blog.
http://www.theworldinstituteofslowness.com

Acte de colloc 2006, Valérie Carayol « Figure de l’urgence et communication »
L’urgence comme mode de régulation sociale ?
http://communicationorganisation.revues.org/3364

Autres article de Francis Jauréguiberry :
« De l’usage des téléphones portatifs comme expérience du dédoublement et de l’accélération du temps », 1996
http://revues.mshparisnord.org/lodel/disparues/docannexe/file/103/TIS_vol8_n2_4_169_188.pdf
Suivi de l’article « Les téléphones portables, outils du dédoublement et de la densification du temps : un diagnostic confirmé » en 2007
http://ticetsociete.revues.org/281

Plateforme DEVOTIC « La déconnection volontaire aux TIC »
http://anr.devotic.univ-pau.fr

 

« De la déconnection au TIC comme forme de résistance à l’urgence », 2006

http://communicationorganisation.revues.org/3409

 

JAUREGUIBERRY Francis, chercheur au CNRS, sociologue des usages des technologies de communication

L’urgence comme piège du temps
1
Ce ne sont pas les technologies de l’information et de la communication (TIC) qui créent l’urgence. Aucune technologie, quelle qu’elle soit, n’agit aussi directement sur les conduites. Les TIC ne sont pas des « arrosoirs » comportementaux dont l’eau serait puisée en dehors du social, de la même façon que les usagers ne sont pas de simples « buvards » qui, selon leur porosité, absorberaient avec plus ou moins de talent l’innovation technologique. Seul un détour par les logiques d’action qui à la fois président l’invention de ces technologies et conditionnent leurs usages permet de donner un sens aux conduites qui leur sont associées. Mais, d’un autre côté, affirmer que ces technologies ne sont pour rien dans la nature des comportements observés serait une erreur. En effet, si les TIC ne créent pas l’urgence, ce sont bien elles qui, de plus en plus souvent, la permettent. C’est parce qu’il y a désormais, grâce à ces technologies, possibilité de réagir immédiatement et jusqu’au dernier moment que de plus en plus d’individus s’inscrivent dans des scénarios limites. Ils calculent en effet toujours plus juste sachant que, si ça ne passe pas, il y aura toujours le recours ultime d’un « appel urgent » pour « réparer » leur retard, de la même façon que certains alpinistes, assurés qu’ils pourront immédiatement déclancher des secours en cas d’accident, s’engagent dans des voies manifestement trop dures pour eux. Ce type d’appel ne devient heureusement pas la règle, mais le raccourcissement des délais et la prise de risques, oui.
2
Cette notion de scénario limite permet de donner une définition de l’urgence. L’urgence naît en effet toujours d’une double prise de conscience : d’une part, qu’un pan incontournable de la réalité relève d’un scénario aux conséquences dramatiques ou inacceptables et, d’autre part, que seule une action d’une exceptionnelle rapidité peut empêcher ce scénario d’aller à son terme. L’une ne va pas sans l’autre, ou alors il ne s’agit plus d’urgence. Ce n’est pas parce qu’une action est exceptionnellement rapide qu’elle est urgente. Par exemple, les courses (compétitions) sont par définition toujours rapides, mais rarement urgentes. De même, ce n’est pas parce qu’un scénario catastrophe est en marche qu’il génère ipso facto de l’urgence : le laps de temps laissé à la réaction peut être suffisamment long pour que celle-ci ne soit pas vécue sous la forme d’une rapidité imposée. Cette double prise de conscience déclenche un compte à rebours qu’il s’agit d’arrêter illico presto. Dit autrement : on court à la catastrophe si rien n’est immédiatement mis en œuvre. Le scénario à la base de l’urgence est toujours menaçant, néfaste ou fatal. S’il n’était pas appréhendé comme l’irréversibilité d’une négativité mais d’une positivité, il s’agirait non plus d’urgence mais d’attente ou d’impatience, le « vivement » remplaçant en la matière le « vite ».
3
L’urgence apparaît donc comme un piège du temps. La dangerosité de ce piège dépend de l’interprétation qui en est faite, puisque l’urgence naît toujours de la double prise de conscience qui vient d’être évoquée. Les notions de danger et de rapidité étant relatives, il s’ensuit que ce qui est urgent pour certains ne l’est pas pour d’autres. Tout dépend du système de référence des acteurs, de leur subjectivité et de leurs capacités cognitives. Mais, quelles que soient les disparités que l’on peut observer entre individus, la ligne de l’urgence est toujours franchie lorsque la notion de piège du temps apparaît clairement. Or, force est de reconnaître que, globalement, l’immédiateté télécommunicationnelle est en train d’accroître la surface de cette notion. En quelques années seulement (fin du XXe), le processus d’accélération et de densification du temps, à l’œuvre depuis deux siècles, s’est en effet vu doublé par une nouvelle donnée : celle que les informaticiens ont nommée temps réel, synonyme d’immédiateté et de simultanéité. À peine remises des bouleversements que la rationalisation et l’instrumentalisation du temps ont opérés en leur sein, nos sociétés sont confrontées à un nouvel impératif : il leur faut désormais réagir à l’instant. Un espace sans distance et un temps sans délais se superposent peu à peu à l’espace-temps « classique ».
4
Cette nouvelle donne peut être vécue de façon positive : comme multiplicateur d’activités et d’opportunités, comme révélateur de certaines potentialités organisationnelles jusqu’alors inexploitées, comme agent de simplification ou encore comme réhabilitation de l’intuition individuelle dans la gestion des affaires. Elle peut aussi être source de satisfactions, en particulier pour certains professionnels indépendants qui, vivant cette course au temps sous la forme de défis renouvelés, la trouvent passionnante et parfois gratifiante. Mais cette accélération peut aussi donner le vertige, et la chute n’est alors pas exclue. Dans un monde où tout s’accélère et se bouscule, l’individu « branché » (aux TIC), placé en état d’urgence quasi permanent court en effet deux risques.

Les risques de l’urgence
5
Le premier de ces risques est de réagir à l’impulsion afin d’éviter ce qu’on pourrait appeler « l’effet bouchon » : l’accumulation incontrôlable d’informations interdisant leur traitement efficace. Face à une pile de notes, à une succession d’e-mails urgents et à un sans-fin de sollicitations téléphoniques, il faut aller vite. Non seulement il faut toujours être connecté, mais il faut aussi pouvoir répondre rapidement. Dans cette accélération, synonyme de diminution du temps de réflexion, l’accessoire risque de recouvrir l’essentiel. Outre le stress lié à l’activité fébrile qui en résulte, le danger d’une telle réaction est de voir remplacer la réflexion et l’imaginaire par une espèce de réflexe à parer au plus pressé. Le branché se convertit en pompier cherchant à éteindre le feu de l’urgence là où il prend. Le coup de fil a dès lors priorité sur la personne présente, le courrier électronique sur le courrier postal, et le beeper arrête tout, séance tenante. Comme si l’individu ou l’organisation se mettaient aux ordres de l’urgence, l’advenant supplantant l’existant.
6
Il est évidemment des situations dans lesquelles nécessité fait loi. Mais l’extension de ce mode de réaction menace de le transformer en une véritable mode de fonctionnement. Focalisées sur la réaction aux sollicitations immédiates, personnes ou structures courent alors le risque de perdre tout pouvoir stratégique au profit de pures tactiques d’adaptation à un environnement qu’elles ne maîtrisent plus. Dans ce cas, l’information devient bruit, la vitesse précipitation, et les passages à l’acte font office de décisions. D’actif et réfléchi, le choix devient réactif et improvisé, et a donc toute chance d’être dépendant. Ce type de conduite risque de rendre obsolète la notion même de projet. Le projet nécessite une certaine confiance dans l’avenir. Il relève d’un « pari » sur le futur en pensant que l’action programmée pourra s’y déployer. Il n’y a évidem­ment, en la matière, aucune certitude : seule la confiance permet de différer, de plani­fier, de se représenter ce qui sera contre ce qui est. Mais si le présent lui-même apparaît comme indéterminé, n’est plus vécu que comme immédiateté éphémère, comment penser le projet ? Dans un monde où il faut s’adapter rapidement, comment peut-on encore adapter le monde dans la durée1 ?
7
Le second risque pour le branché est de se mettre à hésiter dans l’urgence. Les prises de décision deviennent alors autant de violences que l’individu s’impose dans une situation qu’il ne maîtrise plus. Tensions, stress et parfois même anxiété ont alors toutes chances d’apparaître. Le branché se sent non plus interpellé mais harcelé. Tout un ensemble de pathologies psychosomatiques sont associées à cette contradiction dans laquelle se place l’individu en « surchauffe » occupationnelle2. D’un côté la conscience de l’urgence, de l’autre celle de ne pouvoir y faire face, ce qui ne fait qu’augmenter la pression. Il est même des cas où l’individu reste comme « sonné » devant trop d’interpellations. Pour lui, la seule façon de ne pas cesser d’exister complètement, est alors de « craquer ». Entrant dans un véritable état de catalepsie, il « démissionne » par overdose communicationnelle pour tomber dans un vide apathique. Toute « gestion en temps réel » ou tout « pilotage en situation d’urgence » ne saurait évidemment conduire à une telle situation. Non seulement parce que les réactions à l’urgence peuvent avoir été planifiées de façon préalable (on parle alors de « procédures », fruits d’anticipations stratégiques), mais aussi, de façon plus fondamentale, parce que ces réactions peuvent relever d’une rationalité, certes limitée par le temps, mais non hétérogène à une continuité stratégique pourvoyeuse de sens.
8
Il est évidemment des situations où nécessité fait loi. Mais l’extension de ce mode de réaction menace de le transformer en un véritable mode de fonctionnement. Focalisé sur la réaction aux sollicitations immédiates dont il est l’objet, l’homme pressé court dans ce cas le risque de souffrir de ce que j’ai appelé le « syndrome du branché ». Par syndrome du branché, j’entends l’ensemble des symptômes du mal latent qui guette ceux qui vivent leur expérience d’ubiquité médiatique selon une logique de pure rentabilité au point de s’y faire absorber. C’est tout à la fois l’anxiété du temps perdu, le stress du dernier moment, le désir jamais assouvi d’être ici et ailleurs en même temps, la peur de rater quelque chose d’important, l’insatisfaction des choix hâtifs, la hantise de ne pas être branché au bon moment sur le bon réseau, et la confusion due à une surinformation éphémère.
9
Le syndrome du branché, c’est le « mal des télécommunications », la « nausée médiatique » dont est pris le branché lorsqu’il tombe dans ce qu’un de mes informateurs a appelé le « tourbillon ». Comme soumis à l’effet d’une force centrifuge due à une accélération non maîtrisée, l’individu est dépossédé du sens de son action et aspiré par une inflation occupationnelle. Contraint à réagir sur le mode de l’urgence à une masse d’information grandissante et à des aléas de plus en plus fréquents, il se trouve réduit à s’accrocher où il peut s’il ne veut pas sombrer, à « faire des coups » et à développer des tactiques de nature opportuniste. L’acteur est alors moins mû par une logique de type stratégique, visant à adopter les meilleurs moyens par rapport à des fins qu’il s’est fixées, que par une logique de type tactique, visant à s’adapter au mieux à une situation qu’il ne domine plus.

Retrouver le temps
10
Le tourbillon du branché attire. Il attire parce que la force du courant qui l’alimente est celle du système économique actuel basé sur la généralisation de la gestion en « temps réel » et qu’il est difficile d’échapper à sa pression. Il attire aussi parce que la forme qu’il donne à l’action (la vitesse, le défi, le zapping, le sentiment de puissance) n’est pas sans procurer une certaine jouissance à ceux qui l’expérimentent. Il attire enfin peut-être parce qu’en ramassant le temps dans une sorte de présent continu, il « distrait » (au sens pascalien du terme) l’individu du temps qui passe, et donc de questions existentielles potentiellement inquiétantes3.
11
Mais le tourbillon du branché peut aussi être pensé comme un écueil qu’il s’agit d’éviter. Face à la dispersion et à l’égarement qu’il peut engendrer, à l’aléatoire trop souvent côtoyé et au stress qu’il suscite, à l’éphémère renouvelé dans une sorte d’éternel présent, une réaction apparaît. Elle renvoie à une logique critique qui vise à ne pas se laisser déposséder de sa propre temporalité, de ses propres rythmes au profit d’une mise en synchronie universelle qui unirait « en temps réel » tous les « branchés » du « grand réseau » dans une sorte de compulsion totalisante. Cette logique critique déroule ce que l’urgence ficelle. Elle résiste à l’idée que la vie ne serait qu’une suite d’instants et d’événements sans liens entre eux. Elle rétablit la duré et replace l’individu dans une continuité qui lui permet de renouer avec un ordre possible de référence. Elle réintroduit l’épaisseur du temps de la maturation, de la réflexion et de la méditation là où le heurt de l’immédiat et de l’urgence oblige à réagir trop souvent sous le mode de l’impulsion. Cette logique est celle de la mise en perspective de soi dans le temps sous la forme d’un récit, d’une narration sans cesse revisitée. Car, en définitive, ce n’est pas le temps qui passe mais l’individu.
12
Le temps que l’on découvre alors est celui du passé, du souvenir et du retour sur soi. C’est aussi le temps de l’anticipation, de la crainte ou de l’espoir. La possibilité de pouvoir joindre immédiatement son interlocuteur pour lui faire part d’une intuition, d’une idée ou d’un élan sentimental est sans doute une chance. Mais elle peut aussi représenter un danger pour l’émotion pensée non plus comme impulsion mais comme tension créatrice. Le risque réside dans le fait de voir l’impulsion chasser l’imagination, et le bavardage remplacer l’échange. Le silence et le différé, condition de retour sur le passé et de projection sur l’avenir, sont les complices d’un présent créateur. Mais, lorsque ce présent n’est plus qu’une succession d’immédiats éphémères, où se situe la continuité ? Que reste-t-il en particulier comme trace de l’échange, de la tension vers l’autre et des sentiments que son absence peut susciter ? Si Balzac avait pu téléphoner à Madame Hanska ses Lettres à une étrangère auraient-elles seulement été écrites ? Pourrions-nous, plus de quatre-vingts ans après, partager l’émotion d’Apollinaire pensant à sa chère Lou s’il avait pu, « en temps réel », lui faire part de son désir et de ses rêveries ? Ce temps de la tension créatrice se donne à vivre dans l’arrêt, l’attente, le différé et la mise à distance. Il est non superposable et non susceptible d’être dédoublé : l’individu y contient tout entier4.
13
Cette logique critique rappelle que, derrière l’apparence trompeuse d’un temps unique, universel et synchrone (celui des heures de la montre, des jours de l’agenda et des mois du calendrier), le temps est hétérogène. Qu’il n’y a pas un temps, mais des temps. Que la réalité du temps n’est pas seulement le temps réel. Que, face à l’entrée massive de notre société dans une culture de l’immédiat, de l’impulsion et de l’urgence généralisée, il y a des moments qui résistent à l’accélération, des durées qui ne sauraient être brusquées, et des instants qui échappent à la logique du gain et de la vitesse. Ces moments, ces durées et ces instants sont indispensables à la formation de soi comme sujet, c’est-à-dire comme acteur capable de construire sa vie de façon autonome. Cette prise de distance en regard de l’instant permet à l’individu de se retrouver et en particulier de vivre une certaine autonomie par rapport à son rôle de gestionnaire efficace que tout le monde (y compris une part de lui-même) s’accorde à lui voir jouer.

L’expérience temporelle du branché
14
L’expérience du branché dans la gestion du temps est le produit d’une sorte de « dialogue tendu » entre deux logiques d’action, sachant que l’une ne saurait entièrement recouvrir l’autre. D’un côté, une logique de gains et de vitesse qui est celle de la connexion, de la mise en synchronie et de l’urgence. De l’autre, une logique critique qui est celle de l’aménagement d’un temps à soi, de prise de distance et de déconnexion.
15
Lorsque l’expérience du branché est trop fortement soumise à la logique de gains, de mise en synchronie et de vitesse, elle s’effondre et tombe dans un tourbillon occupationnel. La volonté, lorsqu’elle existe, d’y échapper donne généralement naissance à une conduite de fuite en avant. Voyant qu’il se fait posséder par une accélération non maîtrisée, le « branché dépassé » nourri l’espoir qu’une gestion encore plus rentabiliste de son temps va lui permettre d’échapper à ce tourbillon. Son exaspération communicationnelle se traduit alors souvent par une exacerbation de son désir technique. À l’affût des dernières découvertes, il pense qu’une meilleure couverture du réseau, une plus grande intelligence de transmission, de nouveaux terminaux multifonctions, lui rendront un peu de temps et lui permettront de se retrouver. Soumettant (consciemment ou pas) leur vie à une logique de rentabilisation du temps, ceux qui adoptent cette attitude n’ont souvent pas d’autre choix que cette fuite en avant.
16
Lorsque l’expérience du branché est, à l’inverse, entièrement dominée par la logique de distanciation, elle conduit à une exigence d’authenticité et souvent à un enfermement subjectiviste dont le « temps à soi » constitue l’horizon. La déconnexion totale aux TIC est conduite extrême et très rare. Mais elle existe : sans pour cela se convertir en ermites, ceux qui « se retirent » se renferment sur leur foyer, leur maison, leur jardin… Ils cherchent (je reprends leurs termes) une « nouvelle simplicité », une « vérité de vie », une capacité à « être pleinement là ». Mais la majorité ne peut pas se déconnecter totalement. La pression économique et sociale est tout simplement trop forte. La tentation est alors grande de cliver les communications. D’un côté les communications « rentables », intéressées et stratégiques pour lesquelles la rapidité concourt à leur réussite, et de l’autre les communications « gratuites », intersubjectives et conviviales pour lesquelles le temps n’est pas compté. D’un côté, la communication « utile » et de l’autre la « vraie communication ». Les télécommunications nomades sont associées à la première, dans leur capacité même à organiser la seconde qui, elle se fait (encore ?) en face à face.
17
La fuite en avant (connexion continue, hyper équipement, abandon de soi dans l’intensité) et le refus (déconnexion totale, burn out) sont des conduites de rupture avec l’expérience du branché. Les deux relèvent finalement d’une impossibilité ou d’une incapacité de conjuguer le désir ou la nécessité d’être « branché » avec la volonté de préserver un temps à soi. Une pleine expérience de « branché » renvoie au contraire à la nature hétérogène des logiques d’action qui la déterminent : utilitaire d’un côté, guidée par un souci de performance, d’efficacité et de gain, et critique de l’autre, motivée par la volonté de ne pas soumettre l’ensemble de sa vie à une mise en synchronie constante.
18
Il s’ensuit des conduites de compromis, de ruse, de fines tactiques permettant de conjuguer au mieux ces deux exigences. Elles consistent pour l’essentiel à instaurer des filtres intelligents entre le réseau (la mise en synchronie) et l’acteur (recul réflexif, temps à soi). Il s’agit de garder le contact sans en devenir l’esclave. Ces filtres sont généralement une tierce personne (en particulier le secrétariat sur le lieux de travail et le conjoint ou les enfants au domicile), un système mécanique de mise en différé (boîte vocale du portable, beeper, répondeur-enregistreur et fax) ou un système de filtre en temps réel (répondeur-enregistreur). Le succès des SMS et du courrier électronique s’inscrit dans cette logique. Une autre forme de mise à distance, que l’on pourrait appeler « repos du guerrier », consiste à se déconnecter de façon régulière mais éphémère afin de se « requinquer ». Cette attitude est assez perverse puisqu’elle permet d’encaisser stress et urgence sans pour cela remettre en cause le mode de fonctionnement du système qui les produit. Ce sont par exemple les demi-heures de zen ou de « respirations profondes » organisées par l’entreprise pour ses employés ou de petits stages de déconnexion. « On travaille tous trop, me disant un cadre d’une start up de la Silicon Valley, on est tous workaholics, alors, de temps en temps, on fait des petits stages de désintoxication ». Et l’un des principes essentiels de ces stages consiste précisément à être totalement déconnecté. Tous les ans, le festival Burning man a lieu, durant une semaine, dans le désert du Nevada. En 2005, ils étaient plus de 30 000 à passer une semaine sans portable, « déconnectés mais branchés sur tous ceux qu’ils croisaient ». Il est intéressant de noter que ce sont des techniciens, des ingénieurs et des managers qui fréquentent majoritairement ces lieux, avec quelques utopistes, évidemment. Finalement, lorsque la vie devient trop stressante, l’urgence trop pressante, on zappe sur un petit stage de déconnexion pour se recharger…
19
Bien sûr, l’équilibre est précaire et doit sans cesse être rétabli. Il est des situations ou des périodes où le tourbillon du branché attire plus que d’autres où la volonté critique de prise de distance et de préservation d’une temporalité individuelle l’emporte. Mais c’est précisément parce qu’il n’existe en la matière pas de solution définitive que l’on peut parler, à propos de ceux qui se livrent à ce travail de mise en cohérence, d’acteurs sociaux en train de définir un nouvel enjeu social : le droit à la déconnexion.

Bibliographie
Aubert N., Le culte de l’urgence. La société malade du temps, Paris, Flammarion, 2003.
Ehrenberg A., L’individu incertain, Paris, Calmann-Lévy, 1995
Jauréguiberry F., Les branchés du portables. Sociologie des usages, Paris, PUF, 2003.
Laïdi Z., Un monde privé de sens, Paris, Fayard, 1994.
Nowotny H., Le temps à soi. Genèse et structuration d’un sentiment du temps, Paris, Maison des sciences de

urgence rvb

Appropriation de l’article :

A la lumière de l’article de Jauréguiberry, il semble simpliste et réducteur de considérer que le numérique est la cause des maux de la société contemporaine. Cependant on ne peut nier que les TIC influences aujourd’hui largement nos modes de vies au même titre que nos désirs croissants de vitesse et d’efficacité influencent au plus au lieu les avancées technologiques de demain.
Mais aujourd’hui n’avons nous pas pris suffisamment de distance par rapport à l’influence mutuelle de nos comportements et du numérique pour l’observer d’un oeil plus sage?
Après l’emballement de la découverte des possibilités omnipotentes des télécommunications, tel l’enfant devant ses cadeaux de noël, ne sommes nous pas capables d’apprendre à les utiliser avec parcimonie le cas échéant?
Savoir se déconnecter au moment opportun parait se présenter comme une solution évidente.
Reste à en avoir la possibilité. Ce qui dépend certes des entreprises dans le respect de la dignité morale de leur employés, mais aussi de la volonté personnelle dans la vie privée. Savoir dire non s’impose alors comme la nouvelle richesse. Savoir dire non aux sollicitations permanentes et provenant de toutes parts afin d’accéder au luxe de demain : l’espace et le temps.

Il me semble en effet difficile dans cette idée de déconnection de dissocier la question du temps et celle de l’espace.
J’en tiens pour exemple l’émergence de nouveaux comportements de rupture, témoins du mal être procuré par le sentiment d’urgence permanent. Je pense aux nouveaux élans d’urbains dans les campagnes, pensant pouvoir laisser le smartphone et le costume cravate pour aller élever des chèvres dans le Berry. Des comportements finalement plutôt maladroits et brutaux, souvent conclus par des échecs.
Je pense également à l’engouement mystique pour ces aventurier qui osent se confronter à ce qui reste de sauvage dans la nature. Notamment Sylvain Tesson qui raconte dans son récit « Dans les forêts de Sibérie », son expérience d’ermitage dans la rudesse de la nature du lac BaÏkal. Je trouve cet élan de néo-ermitage très représentatif de l’envie de fuir une société dont la cadence effrénée nous dépasse. Mais aussi du désir de se confronter à son rythme physiologique et ainsi nous raccrocher à notre statut d’être vivant. Un désir de ré-ensauvegement en quête d’authenticité.
Plus encore, il s’agit de se retrouver seul avec soi-même, prenant ainsi le temps nécessaire à se demander qui l’on est et pourquoi l’on est. Lorsque ni facebook ni notre Iphone ne sont plus là pour combler nos temps de pause entre deux actions liées à sa propre survie, on peut alors se confronter aux questionnements sur la vies et aux angoisses de la mort. Un désir de solitude en quête de sens.
Ces challenges extrêmes me paraissent avoir des correspondances évidentes avec le challenge plus à portée de tous qu’est celui de la déconnection.
Puisque finalement ce n’est pas le temps qui passe mais bien les individus, un désir de déconnection pour la reconquête de sa propre vie.

Les propositions de produits ou de service que j’ai pu croiser au cours de cette étude proposent généralement l’usage du numérique…pour se déconnecter. Soigner le mal par le mal? Ce parti pris me parait plus premier degré qu’efficace. Plus despotique que responsabilisant. Finalement plus frustrant qu’épanouissant.
Un outil pour prendre du recul sur ses propres usages de la connection? Nous savons très bien si nous passons trop de temps à surfer ou à twitter à notre goût, nul besoin d’être coaché ni surveillé par TIC brother.
Ne pas empêcher mais proposer mieux.

Si je ne crois pas à la solution du numérique pour nous « sauver » de lui même, je crois au rôle du designer dans la re-valorisation du sensoriel, dans la re-sensualisation des rapports aux objets, aux uns et aux autres. Et ce pour proposer une alternative à la connexion permanente.
Des réflexions s’opère en ce sens au sein même des questions de production. C’est ce que j’ai découvert lors d’un stage au studio Glithero à Londres, qui propose de reconsidérer les moyens de productions lents et de redonner de la place au travail laborieux et manuel. Produire moins de quantité mais plus de valeur affective. Acheter plus cher mais garder plus longtemps. Notre éducation temporelle passe aussi par notre façon de consommer et donc par notre façon de produire.

L’idée n’est pas d’abandonner le numérique au profit d’un « retour au sources » maladroit et insuffisant. Mais je pense que ces initiatives, si elle ne se suffisent pas à elles même et ne sont pas au jour d’aujourd’hui des concept viables, constituent un temps de prise de recul et de réflexion, nécessaire à l’émergence créative de solutions qui je l’espère mêleront intelligemment numérique en sensuel.

Ces initiatives suscitent mon l’intérêt dans le sens où elles ont pour vocation de sensibiliser à l’impact du temps dans notre façon de consommer et de re-valoriser la place de l’imprévu et du poétique.
Se déconnecter peut ne plus être un fardeau si l’on apprend à trouver du plaisir dans la contemplation, la rêverie, le toucher de matières agréables, le silence, le fait de ne rien faire aussi ; en outre dans l’inutile.
Si l’inutile n’est pas urgent, il n’est pourtant pas vacuité et mérite que l’on y accorde du temps.

Le THD et le Cloud Computing

Quelle forme prennent les infrastructures qui relient les ordinateurs via internet? Quels sont les moyens matériels qui permettent à internet d’exister? Si aujourd’hui on entend beaucoup parler de la fibre optique, à quoi ressemble-t-elle? Quels étaient les réseaux antécédents?
Je me suis également intéressé aux datacenters, ces «ferme de serveurs». Quels sont leur rapport avec le reste des infrastructures? Pourquoi et comment sont ils apparus?
Au fil de mes lectures, j’ai pu découvrir le paysage matériel des réseaux informatiques, et arriver à un nouveau questionnement qui apparaît à la fois comme une synthèse, mais sortant du champs des infrastructures.
Le THD (Très Haut Débit : fibre optique, 4G), ou la superfluidité des liaisons internet, est il une plénitude technique atteinte pour l’internet, ou est il vecteur d’un changement fondamental de nature de celui ci?

 

Lectures référentielles annexes :

«Les cahiers de l’Arcep» n°4
De 2000 à 2009, 7,8 milliards de terminaux mobiles vendus.

«Le cloud computing est nécessairement du green computing.» Christian Fauré
«Chaque site n’à pas la même politique énergétique»

«L’Un et le multiple comme technologique du Cloud Computing.» Christian Fauré
«Des data centers de la superficie d’une grande surface commerciale, Google en possède plus de trente, et l’ensemble de ces data centers, localisés en différents endroits et sur plusieurs continents, doivent travailler de concert et en cohérence en eux.»

«EDF, l’Europe et les Data Centers.» Christian Fauré
Le coût de l’électricité est essentiel dans le choix d’un emplacement pour installer un datacenter : pour une installation de 10 000 m2, la consommation en énergie est égale à celle d’une ville de 50 000 habitants.

«Un datacenter transformé en chaudière géante» Actu-Environnement

«A rare look inside Facebook’s Oregon datacenter» Gigaom
Un reportage photo et vidéo.

Resources usuelles notables :
Articles Wikipédia : «grappe de serveurs», «hébergeurs web», «internet», «World Wide Web».

 

 

Télécommunication

Chapitre IX : «Télécommunication», extrait de Michel Volle, e-conomie, Economica 2000

 

Signal analogique et signal numérique

Le signal sonore est transporté dans l’air sur quelques mètres par des ondes mécaniques de pression. La téléphonie transforme les ondes sonores en ondes électromagnétiques, les transporte sur des supports qui préservent la qualité du signal sur de longues portées (paire torsadée, câble coaxial, faisceau hertzien terrestre ou par satellite, fibre optique), et reconstitue le signal sonore à l’arrivée.

Le signal sonore a d’abord été utilisé pour moduler l’onde porteuse (modulation en amplitude, en fréquence ou en phase) : c’est le codage analogique du signal. Le codage numérique repose sur une mesure périodique du signal. Avec le codage MIC, par exemple, le signal sonore est mesuré toutes les 125 µs et codé sur 8 bits ; cela donne un flux de 64 kbit/s transportant la largeur de bande de 4 kHz jugée suffisante pour la téléphonie (pour transmettre tous les sons perçus par l’oreille, il faudrait une largeur de bande de 21 kHz multipliée par deux pour la stéréophonie).

Le codage numérique est utilisable non seulement pour transmettre le son, mais pour transmettre tous les types de signaux (textes, images fixes ou animées). Il a permis d’utiliser dans le réseau téléphonique des technologies analogues à celles de l’informatique et de tirer parti de l’évolution de leur coût. Les commutateurs sont devenus des ordinateurs spécialisés. L’architecture des réseaux a été modifiée. Les techniques de codage se sont diversifiées, la qualité des services s’est accrue. Des codages élaborés permettent de transmettre, avec le même débit, une largeur de bande supérieure ; la compression du signal est devenue une des techniques les plus importantes pour les télécoms.

[…]
Internet

L’Internet fait alors irruption et perturbe les plans les mieux ourdis des exploitants. Il utilise un protocole simple et robuste de transmission en mode paquet associé à un adressage décentralisé. Utilisé d’abord par des chercheurs pour la messagerie, le partager de bases de données et l’échange de documents, il devient avec le « Web « le support d’un outil de documentation puissant. Peu coûteux, il banalise l’accès au transfert de données et devient l’objet d’un phénomène de mode (pour plus de détails sur l’Internet, cf. chapitre XIII).

L’efficacité et le prix des logiciels et protocoles de communication définis sur l’Internet les imposent dans les entreprises : on parle alors d’Intranet.

 

Concurrence commerciale et monopole technique

La déréglementation des télécommunications aux États-Unis, copiée ensuite par les autres pays, a été l’occasion d’une polémique entre des économistes qui soutenaient le monopole national d’un exploitant (AT&T, France Télécom, British Telecom, Deutsche Bundespost etc.) et d’autres qui jugeaient nécessaire l’introduction de la concurrence sur ce marché.
La défense du monopole tire argument de l’économie d’échelle propre au réseau, ainsi que de l’externalité de réseau (l’utilité du réseau pour un nouvel abonné est d’autant plus forte que le nombre des personnes qui y sont raccordées est plus élevé). Ces arguments sont irréfutables, même si dans la chaleur de la polémique certains ont cherché à les réfuter, mais ils peuvent être contournés. En effet l’économie d’échelle, et l’externalité de réseau peuvent se manifester même s’il existe plusieurs exploitants (et donc si le monopole est brisé), à condition que soit assuré un « monopole technique «

compatible avec la pluralité des exploitants : il faut que l’ensemble des réseaux que ceux-ci exploitent constitue, sur le plan technique, un seul réseau cohérent. Alors les économies d’échelle et l’externalité de réseau sont présentes, même avec plusieurs exploitants.

Cependant il faut assurer une coordination (investissements, choix technologiques, normes, protocoles de communication, efforts de recherche, relations avec les fournisseurs) qui a elle-même un coût.

En rompant avec le monopole de l’exploitation, les politiques espèrent en finir avec ses défauts : tarification visant à maximiser le profit, mais non optimale du point de vue de l’intérêt général, et paresse de l’innovation à laquelle les managers du monopole préfèrent la prolongation des situations acquises. La fin du monopole a toutefois un coût : coût de coordination si l’on respecte le « monopole technique « ci-dessus ; perte des économies d’échelle et de l’externalité de réseau si on ne le respecte pas. À ces coûts s’ajoute celui de l’incertitude sur la demande, donc sur le dimensionnement du réseau, plus élevé en situation de concurrence qu’en situation de monopole (chapitre VIII).

Le bilan de la déréglementation fait encore l’objet d’un débat. Du côté positif, on met la baisse des prix et la diversification de l’offre. Du côté négatif, on met les difficultés ou l’impossibilité de la coordination en situation de concurrence, entraînant la redondance des équipements et des réseaux commerciaux ainsi que le cloisonnement des équipes de recherche et le ralentissement du progrès technique.

 

Schéma d’ensemble

Même si la situation actuelle est plus complexe que celle du bon vieux téléphone, on peut la représenter à l’aide de quelques concepts simples.
Appelons « réseau public « un réseau ouvert, dont l’accès et l’usage sont offerts sur le marché et disponibles pour quiconque accepte d’en payer le prix (réseau téléphonique, Transpac, Internet), et « réseau privé « un réseau dont l’accès n’est pas offert sur le marché : soit il est utilisé par une seule entreprise, soit il est offert à un club d’utilisateurs auquel il faut appartenir pour pouvoir accéder au réseau (tel est le cas de RVA comme SITA dans le secteur du transport aérien, ou SWIFT dans le secteur bancaire).

Le réseau public jouera alors le rôle d’une place de marché sur laquelle seront offerts, outre les télécommunications proprement dites, des services diversifiés et payants. Des services « outils «, utiles pour l’exploitation des services à valeur ajoutée (annuaires, « kiosque «, reroutages, transcodages etc.) seront offerts sur des architectures dites de « réseau intelligent « capables d’interpréter une signalisation enrichie.
Le graphique ci-dessous reprend les notions définies dans le paragraphe précédent, en les classant par rapport au modèle OSI en sept couches.

– liaisons louées fournies par un exploitant télécoms aux entreprises ou aux opérateurs de RVA.
– services outils : taxation (« kiosque « du Minitel), administration de réseaux, annuaires, location d’équipements d’extrémité etc.
– services à valeur ajoutée (SVA) sur réseau public.
– réseaux à valeur ajoutée (RVA) : réseaux dont l’accès est réservé à un club d’utilisateurs et construits sur des LL fournies par l’exploitant du réseau public.
– services à valeur ajoutée sur RVA : services à valeur ajoutée offerts par les opérateurs de RVA sur leur réseau (messagerie, documentation, taxation).
– réseau public : désigne tous les réseaux dont l’accès est commercialisé auprès du public : réseau téléphonique classique, Transpac, Numéris, Internet, téléphonie mobile etc.

Image143

 

 

 

Commentaire sur les Datacenters

Longtemps, les réseaux informatiques publiques ont reposés sur les réseaux téléphoniques, voir sur des lignes RNIS, jusqu’à l’ADSL. Ces réseaux offraient des connections allant de 56 kbit/s pour un modem classique, à 2 Mbit/s avec une ligne RNIS. Avec le réseau dit FTTH (fiber to the home) on peut espérer atteindre des débit de 2 Gbit/s . La fibre optique est une technologie nouvelle, elle se déploie comme le réseau téléphonique avant elle, et ne se résume pas à emprunté les paire torsadée de cuivre traditionnels, via une compression de signal plus efficace.

Avec l’accroissement du débit internet le web et son contenu ont changés. Les contenus multimédias sont devenus accessibles, en même temps que publiables, et le web est devenu «participatif» (2.0). Ainsi c’est sans surprise que l’on s’attend à ce que la toile connaisse de grandes évolutions. Mais à ce propos, l’augmentation du débit coïncidera-t-il simplement avec une évolution linéaire des possibilité actuel du web? Il semblerai que les intentions des grands groupes internet soit beaucoup plus ambitieuses.

On le voit avec l’apparition de la logique de Cloud Computing «l’informatique dans les nuages». Le cloud consiste en la mise à disposition de puissance de calcul, ou d’espace de stockage à distance. L’informatique en nuage naît à la base dans le monde de l’entreprise, où petites ou grandes chacune nécessite une «machinerie» de traitement des données informatiques. Les plus grandes firmes gèrent donc leur propre datacenter en interne, d’autre choisissent de faire sous-traiter en hébergent leur intranet et leurs bases de données à distance. Mais cet éloignement est désormais possible grâce à la vitesse de transit des informations par l’internet.
Et les géants de la toile tel Google, Facebook, Apple ou Amazon sont bien décidés à étendre ce marché à celui du grand public. DropBox est un exemple de stockage des données à distance, ICloud, et même Facebook qui peut servir de plateforme d’échange et de stockage de documents. Le cloud permet aussi la synchronisation, aujourd’hui avec l’éclatement des terminaux (ordinateurs portables, tablette, smartphones etc.) synchroniser l’ensemble de ses possessions numériques en les stockant sur un serveur en ligne peut être séduisant. On peut également synchroniser des agendas entre devices, ou des notes avec Evernote. On peut même utiliser des logiciels à distance, installés sur un serveur lointain, notre terminal n’ayant qu’une fonction de récepteur et d’interface; tout comme jouer à distance avec le cloud gaming.
Cela pose de nombreuse questions : après avoir été inventé autour d’une logique de réseau, d’une toile tissée entre des calculateurs, sommes nous à l’aube d’une centralisation du réseau mondial? Les données déposés en ligne sont stockées dans d’immenses datacenters. Les futurs équipements seront ils conçus de manière à être dépendant de ces méga ordinateurs lointains? Qu’en est il de notre souveraineté sur nos contenus numérique si ils sont entreposés chez quelqu’un d’autre? S’agit il d’un éclatement de l’ordinateur traditionnel, avec un terminal qui fait office d’écran et le THD qui permet de le relier à la carte mère? Ou après tout cela va-t-il être synonyme pour l’individu d’une plus grande cohérence dans ses usages numériques?

Le questionnement peut être infini. Mais arrêtons nous sur la forme de ces datacenters. Ils seraient donc le fruit de l’augmentation du débit internet, du renforcement du réseau mondial, de la bonne desserte de millions de foyer au torrent de données planétaire. Je veux m’arrêter sur le datacenter du type des 30 très gros exploités par Google, tel son installation finlandaise sur les bords de la Baltique. Des images sont disponibles sur le site «Google data centers». Ces endroits sont inédits. Ils ne ressemble ni à une salle de calcul scientifique, ni à une usine. Pourtant leurs proportions sont industrielles, tous comme les flux entrants et sortants qui les alimentent : l’air pompé par les climatiseurs, ou l’eau par les circuits de refroidissement; la chaleur produit par les processeurs des serveurs, le système de nettoyage nécessaire à la maintenance des équipements… Leur consommation d’énergie est telle qu’il s’adossent parfois à une centrale électrique pour bénéficier de l’électricité au meilleur coût, tel les usines d’aluminium au début du XXe siècle qui ont fait construire les premières centrales. Un datacenter ressemble à peu d’usine car les stocks sont mélangés avec les moyens de production (disques durs, microprocesseur), il n’y à pas d’ouvrier dans les allées, ou à la limite des agents de maintenance.

Pour terminer disons que ces lieux, qui doivent être sources d’importants bénéfices, soulèvent des questionnements foisonnants, tant dans les champs industriel, salariaux, informatique, environnemental, historique et même symbolique! Malgré tout peu d’études scientifiques semblent s’être penchées, voir aucune facilement accessible, sur ce qui m’a semblé être l’aboutissement de l’usine automate décrite par Michel Volle.

 

Une des caractéristiques des datacenters sur lequel le designer pourrait intervenir est l’échelle. Elle est à coup sûr un défi majeur de ce type d’installation informatique. Si les concentrations atteignent cette densité aujourd’hui, malgré les enjeux techniques et énergétiques que cela impose, c’est qu’il existe des raisons qu’on peut imaginées d’ordre économique ou technologique.

Le designer en imaginant des scénarios alternatifs d’exploitation et d’installation de ces grappes de serveurs pourrait ouvrir de nouvelles perspectives en terme de format de datacenter. Certains parlent de re-localiser le nuage à échelle régionale, et si il existe des avantages environnementaux et territoriaux à le faire, alors le designer peut être un acteur décisif pour défendre ce type de solution.

Pierre Bourré

 

Bonus: Datacentermap.com, datacenter.silicon.fr

 

Diffusion des TIC et développement humain

Introduction

Les populations des pays en développement ont moins accès aux ordinateurs et à internet que celles des pays riches. Cet état de fait est souvent mis en avant par les gouvernements et les grandes entreprises, sous le nom de « fracture numérique », afin de montrer la nécessité d’équiper les Suds en matériel informatique, en infrastructures territoriales et en logiciels, pour accéder à internet. Cette diffusion des nouvelles technologies, certes profitable à ceux qui l’offrent, est-elle vraiment un vecteur de développement humain ? Dans quelles conditions les possibilités d’internet deviennent-elles bénéfiques aux utilisateurs ?

 

Références personnelles :

L’article de wikipédia sur la « fracture numérique géographique ».

La dé-construction du concept non-valide de « fracture numérique », et l’analyse des raisons de sa popularité. Par Éric Guichard en 2009.

Une explication de l’usage du terme « fracture » par le pouvoir, et une analyse de sa portée idéologique. Par Elise Vandeninden en 2007.

Article d’Ivan Deméocq sur les TIC et le développement en Afrique. Réalisé en septembre 2012 en humanité numérique à l’ENSCI.

L’observatoire des TIC au Burkina.

Un mot du président de l’Autorité de régulation des communications électroniques du Burkina Faso.

 

Extrait du document de recherche universitaire

Promotion de dispositifs multimédias au Burkina Faso : pratiques, discours et stratégies d’acteurs

Thèse de doctorat en sciences de l’information et de la communication d’Évariste Dakouré, dirigée par Philippe Quinton à l’université de Grenoble.

« Facteurs d’adhésion aux discours d’accompagnement des TIC au Burkina

La confrontation des hypothèses avec les données de terrain a permis de préciser les facteurs économiques, financiers, sociopolitiques qui amènent les acteurs, étatiques, privés et associatifs à promouvoir les dispositifs multimédias au Burkina Faso. Les deux premiers chapitres de la deuxième partie ont montré que les intérêts financiers, notamment ceux des opérateurs de télécommunication et ceux de l’État, sont imbriqués. Cela donne lieu à des conflits entre ces acteurs. L’observation du renouvellement des licences des opérateurs de téléphonie au Burkina a montré le type de conflit qui peut naître entre l’État et les acteurs privés des télécoms : telle la coupure momentanée du réseau de l’opérateur Télécel avec lequel les pouvoirs publics burkinabé ont décidé « de hausser le ton » face à ce qui peut être qualifié de lenteur de certains opérateurs quant à leurs engagements financiers avec l’État. Selon le point de vue défendu ici, on peut affirmer que cet aspect révèle un des facteurs qui amènent l’État à soutenir les discours selon lesquels les TIC amélioreront les conditions de vie des Burkinabé. Les deux premiers chapitres de la deuxième partie montrent comment le secteur des télécommunications du fait de son caractère capitalistique, de sa forte financiarisation, est source d’entrées financières importantes pour les acteurs du milieu, y compris l’État. Ce secteur étant moins développé en Afrique que dans les autres continents, cela fait de celui-ci (y compris du Burkina) un marché important pour des multinationales à la recherche de part de marché.

Au-delà de ces facteurs financiers, le travail montre l’importance d’autres facteurs d’adhésion de l’État aux discours d’accompagnement des TIC au Burkina, par exemple la création des emplois dans le domaine des télécommunications. On peut y ajouter la volonté pour l’État de montrer que ses politiques de libéralisation/privatisation dans le secteur des télécommunications (mais aussi dans d’autres domaines) ne répondent pas à des injonctions extérieures mais renvoient à une planification établie par l’État burkinabé avec l’appui de partenaires. Les analyses de la deuxième partie, montrent que pour certains acteurs associatifs notamment, les politiques publiques des TIC au Burkina sont « dictées » par des institutions d’aides au développement, entre autres. Cette conception est critiquable. Certes il a été montré que l’UE, l’UIT, le Conseil Economique pour l’Afrique (organisme onusien), pour ne citer que ces institutions, influencent les politiques publiques des TIC au Burkina. Mais pour autant, la démarche menée ici prend ses distances avec ceux qui pensent que l’État libéralise ou privatise dans le secteur des télécommunications parce qu’il est contraint, ou du moins uniquement pour cette raison. On peut affirmer que l’État burkinabé, et au-delà d’autres États africains comme ceux du Mali ou du Sénégal, trouvent leur compte dans ce libéralisme; à travers des entrées financières en termes de ventes et renouvellement de licences, en termes d’entrées fiscales ou de créations d’emplois, entre autres. Ces constats ont leur importance et conduisent à penser qu’il ne faudrait pas réduire les politiques publiques des TIC ou plus particulièrement la libéralisation du secteur des télécommunications dans des pays comme le Burkina, à l’intervention de puissances étrangères, qu’elles soient étatiques ou non. D’autres enjeux contribuent aussi à expliquer le fait que des ONG/associations alimentent les discours d’accompagnement des TIC au Burkina Faso. Il a été vu dans le chapitre 1 de la troisième partie que ces acteurs s’approprient les discours véhiculés par des promoteurs internationaux des TIC, des institutions de développement, des ONG internationales, entre autres. L’usage des TIC comme une « notion valise » par ces acteurs associatifs, les amènent à associer ces TIC à divers secteurs socio-économiques : TIC et agriculture, TIC et éducation etc., afin d’utiliser les possibilités offertes par ces dispositifs pour développer ces secteurs. Ces acteurs se sont également approprié la notion de « fracture numérique » et militent pour une vulgarisation de l’accès aux TIC. Cela a donnée lieu à la création d’un groupe TIC et télécentre regroupant un ensemble de télécentres communautaires qui œuvrent pour l’accessibilité des Burkinabé (notamment dans les milieux ruraux) aux TIC. L’appropriation par les ONG/associations des discours d’accompagnement, entre dans le cadre d’une démarche de légitimation des actions de celles-ci. Il s’agit pour elles, de justifier les apports de leurs actions de promotion des TIC pour l’amélioration des conditions de vie des personnes qui bénéficient de ces actions. Cette démarche a pour finalité, l’obtention de financement pour des projets TIC. Ce travail a montré que tous les acteurs associatifs ne sont pas logés à la même enseigne, selon qu’il s’agit d’associations ou de structures bénéficiant du statut d’ONG. En effet, ces dernières bénéficient de subventions de la part de l’État pour la conduite de leurs activités. Les ONG peuvent notamment obtenir des détaxes douanières pour l’importation de matériels informatiques utilisés pour le fonctionnement de ces organisations. Les associations de promotion des TIC n’ont pas droit à ces subventions, parce qu’elles ne répondent pas aux critères évolutifs que l’État met en place pour limiter le nombre d’attributions du statut d’ONG. Cette situation engendre deux conséquences : d’une part les associations sont limitées dans leur possibilité de vendre du matériel informatique et/ou des terminaux de téléphonie, à bas prix pour l’équipement des populations. Et d’autre part ces associations sont aussi limitées dans la possibilité d’importer des équipements de seconde main pour créer et/ou équiper des cybercafés communautaires dans les localités rurales notamment. Ce travail a permis de distinguer deux types de rapport entre les ONG/associations de promotion des TIC et l’État burkinabé. D’un côté cet État entretient des relations privilégiées avec les structures ayant un statut d’ONG, parce que l’État estime que leurs actions complètent avantageusement les plans et programmes de développement du gouvernement. En outre les autorités administratives considèrent ces ONG comme des partenaires privilégiés parce qu’elles disposent de moyens financiers, humains et techniques pour mener des actions qui auraient un impact concret sur les populations. D’un autre côté l’État burkinabé soutient les associations de promotion des TIC (celles qui n’ont pas le statut d’ONG) en leur offrant (par exemple) des salles équipées pour des formations, mais ces associations reçoivent moins d’aides de la part de l’État comparé aux bénéfices dont peuvent jouir les structures au statut d’ONG. Il est apparu aussi que les types de relations que l’État entretient avec les acteurs associatifs au Burkina sont similaires à ce qui se passe au Mali. Cependant, au Sénégal, la situation est différente. Dans ce pays, certains acteurs associatifs sont plus étroitement liés à la conception et à la conduite des politiques publiques des TIC que dans les deux premiers pays cités. Même s’il convient de préciser qu’au Sénégal aussi, certaines associations n’ont pas de relations privilégiées avec l’État. Ce travail s’est intéressé aux ONG/associations de promotion des TIC au Burkina, au Mali, et montre en quoi elles rencontrent des difficultés dans le financement de leurs activités. La fin de la période de projet, ou le manque de moyens financiers de certains bailleurs, constituent une difficulté majeure que rencontrent ces acteurs associatifs. Cet aspect, conjugué avec le peu de soutien que l’État burkinabé apporte aux associations de promotion des TIC, pourrait retarder davantage l’accès aux dispositifs multimédias, en particulier dans les milieux ruraux burkinabé. Les enquêtes de terrain ont permis de caractériser les diverses médiations que les dispositifs multimédias permettent dans le cadre de l’organisation et du fonctionnement des ONG/associations. On peut considérer cela comme faisant partie des facteurs d’adhésion de ces acteurs aux discours d’accompagnement des TIC. En effet, ces acteurs sont à la fois promoteurs et utilisateurs de ces dispositifs. Il convient de noter que les projets menés par ces acteurs leur permettent aussi d’acquérir des équipements pour leur propre utilisation. Par ailleurs les associations bénéficient de formations pour une meilleure appropriation des TIC. »

 

Ce que j’en retiens

Ce que j’en pense

Sous couvert de « fracture numérique », de réduction des inégalités d’accès aux technologies, de nombreux acteurs (états, entreprises multinationales, organisme de l’ONU) mettent en oeuvre des stratégies de diffusion. La relation entre ces acteurs sont complexes mais suivent toujours une logique capitaliste. On présente souvent les nouvelles technologies comme facteur de développement humain, sans poser la question de la pertinence des dispositifs dans leur contexte. Il semble pourtant qu’une adéquation avec des dynamiques sociales pré-existantes soit nécessaire. Le dispositif doit répondre au besoin de quelqu’un, sinon il ne sera pas utilisé, et n’aura aucune influence sur le niveau de développement.

D’un point de vue stratégique, la diffusion de TICs dans les pays en développement ne m’apparaît pas toujours pertinente. Si Cisco System voulait contribuer au développement du Burkina Faso, il ferait mieux de construire des écoles, au lieu de former les rares lettrés au métier d’administrateur réseau. D’un point de vue tactique, il apparaît évident que les dispositifs socio-techniques doivent être pensés pour un contexte donné, une certaine région, une certaine partie de la population. Actuellement, on a plutôt l’impression que des dispositifs inadaptés sont diffusés, et qu’ensuite on pointe leurs « mauvais usages ». Cela qui me semble très hypocrite.

Il semble difficile pour un designer de se placer comme stratège dans ce genre de problématique, tant le pouvoir à contrer est puissant. Du coup, d’un point de vue tactique, on pourrait aller dans le sens de ce travail de recherche, qui préconise l’emploi de modalité orale dans l’accès à l’information, et la production de contenu en langue locale. En effet, internet est une formidable source de connaissances transmissibles oralement, par le son et vidéo, mais le mode d’accès se fait par des recherches écrite…

Pour conclure, je dirait qu’en tant que citoyen, je n’arrive pas à imaginer des projets de design qui rendent accessible internet à des analphabètes. En revanche, j’ai beaucoup plus de facilités à imaginer des projets de diffusion, à grande échelle, d’établissements scolaires.

Paul Morin

La magie est morte, vive la magie.

Image

 

« Il était une fois un(e) pauvre enfant, et il n’avait pas de père et pas de mère, tout était mort, et il n’y avait plus personne au monde. Tout était mort, et il s’en est allé et il a pleuré jour et nuit. Et comme il n’y avait plus personne sur la terre, il a voulu aller au ciel, et la lune l’a regardé si gentiment, et quand il est enfin arrivé sur la lune, c’était un morceau de bois pourri, et alors il est allé vers le soleil et quand il est arrivé sur le soleil, c’était un tournesol fané, et quand il est arrivé sur les étoiles, c’étaient de petites mouches dorées piquées dans le ciel, comme fait la pie-grièche sur les épines de prunellier, et quand il a voulu revenir sur la terre, la terre était un pot renversé, et il était tout seul et alors il s’est assis et il a pleuré, et il est encore assis là et il est tout seul. »

Georg Büchner Woyzeck cité d’après la traduction nouvelle par Jean-Louis Besson et Jean Jourdheuil / Editions THEATRALES

 

 

Obsolescence programmée, omniprésence des nouvelles technologies, progrès scientifique applicable à tous les domaines… A l’heure du règne des sciences dures, on assiste aujourd’hui à une véritable course à l’innovation et à peine avons-nous posé un pied à terre, avons-nous eu le temps de le réaliser, que nous sommes déjà en train de lancer l’autre jambe avec encore plus de force. C’en est fini de la magie, « il ne s’agit plus pour nous, comme pour le sauvage qui croit à l’existence de ces puissances, de faire appel à des moyens magiques en vue de maîtriser les esprits ou de les implorer mais de recourir à la technique et à la prévision. »

L’avènement de la rationalité à travers les sciences et la technologie rend le monde objectivement explicable et potentiellement reproductible. Ce monde de Darwin met donc notre faculté à rêver à rude épreuve : le diktat de la vérité unique et objective ne nous laisserait aucune possibilité de rébellion ou de proposition d’une représentation du monde alternative. Ainsi, notre relation au sens de la vie, de la mort et à la dimension poétique et sacrée de notre existence serait bouleversée : il n’est ni utile ni rentable de chercher à trouver le sens caché des choses. La religion, la relation sociale au sacré qui nous permettaient d’avoir cette faculté de nous projeter par l’imagination dans l’avenir de notre groupe n’existent plus sous cette forme. On ne se projette plus, ou plutôt si, mais seul.

Comme a pu le remarquer Lipovetski dans son ouvrage L’Ere du Vide, le soi devient une partie du nouveau sacré, l’écran de nos outils numériques perd sa première dimension spectrale de fenêtre vers l’extérieur et devient à la fois miroir et vitrine d’un Narcisse qui se regarde et qui s’expose. En faisant l’état des lieux dans un tel monde, il ne suffirait que d’un regard dans le rétroviseur pour qu’une vague de scepticisme mêlée de nostalgie s’empare de nous. « Est-ce que finalement, ce n’était pas mieux avant ? »

Dans pareille situation survient alors une phase de rejet de cette réalité trop vraie et trop présente. La « logique du Père Noël » qu’explique Baudrillard dans Le Système des Objets, devient notre arme de résistance ; c’est une forme de refus qui nous permet d’admettre la réalité sans pour autant abdiquer, car si l’individu ne croit plus au monde magique et anthropomorphique, pour autant il y tient.

 

La magie est morte, vive la magie.

La rationalisation du monde est une conséquence de l’avancée technologique, qui pour le moment semble être irrémédiable. Néanmoins, est-ce une bonne raison pour affirmer que la disparition de la magie et de l’imaginaire soit corolaire ? Ne pourrait-on pas les trouver sous d’autres formes qui ne soient pas moins riches ? En effet, l’invention est nourrie du rêve des hommes, elle part d’un idéal. Cette force les pousse, d’une part, à sortir des sentiers battus pour tendre vers un mieux-vivre et d’autre part, à réfuter des hypothèses pour en proposer d’autres. Oser et s’opposer, c’est aussi ce que permet l’innovation.

D’autre part, l’innovation se caractérise par un apport constant de nouveauté. L’élaboration, tâche essentiellement liée à l’imaginaire et à la projection, en passant par l’espoir d’un « ce sera mieux maintenant » jusqu’à la magie qui opère pendant la création même, telles sont les trois étapes qui permettent d’affirmer qu’à travers la technologie de son époque, l’innovation permet de répondre aux mêmes fonctions que la magie d’autrefois.  Par exemple, les télécommunications répondent au même besoin que la télépathie. Il n’est pas étonnant, dans ce contexte, que la magie soit, comme l’indiquent Durkheim et Comte, une des premières façons d’expliquer le monde.

La vie quotidienne est, elle aussi, remplie d’exemples qui confortent cette idée.                   Par exemple, les nombreux dispositifs numériques utilisés dans le domaine du marketing sensoriel et expérientiel montrent que seule la magie et l’imaginaire sont susceptibles de toucher les consommateurs. C’est ce qui explique le succès des vitrines interactives comme les vitrines de Noël. Dans ce cas précis, la technique se met au service du mythe et, par la même, de l’imaginaire, celui de Noël et celui du Golem. Les yeux des enfants s’écarquillent et, dans le même temps, ceux de leurs parents.                                          Oui, la technologie sait aussi se faire ensorceleuse et nous transporter.

La robotique Kinect interactive ou la réalité augmentée sont aussi des exemples du même champ puisque dans ces deux cas, la technologie et l’homme communiquent, presque comme l’imaginaient les auteurs de science-fiction. Ici, la dimension ambivalente de la technologie prend également tout son sens et partage les technophobes des technophiles aux imaginaires différents. Inévitablement, il sera question des imaginaires, de la chaleur humaine des créateurs et des spectateurs à travers les usages, par exemple grâce aux robots Roombots et plus seulement d’une technologie froide et impassible.             Finalement, l’impression que « ça marche tout seul » propre à l’effet de la narration – une histoire que l’on aime se raconter ou que l’on nous raconte – créé la magie qui, bien qu’elle n’existe que dans les yeux de celui qui regarde, est pourtant bien réelle.

Enfin, pour répondre à la disparition du sacré dans la vie moderne, il faut effectuer plus qu’un recentrement mais une révolution copernicienne.

Effectivement, il est difficile de s’imaginer l’avenir sans innovation ou sans technologie plus avancée que la nôtre, quitte à dériver vers l’utopie ou la dystopie, Dans tous les cas, force est de constater que l’imaginaire est omniprésent et cette constante permet de supposer que le sacré n’aie pas complètement disparu. Par exemple, l’imaginaire (créé par des équipes design et marketing) autour de la marque Apple puis les comportements sociaux qui en résultent permettent de la comparer à une religion, avec ses codes, ses convertis et ses détracteurs. En d’autres termes, comme n’importe quelle religion, la technologie, l’innovation sont des domaines qui font débats et qui passionnent les foules. Le sacré a changé de place mais il n’a pas disparu.

En conclusion, la technologie et l’innovation défont les repères et les usages précédents pour les remplacer par de nouveaux et peuvent se vanter de réinventer chaque fois le quotidien. Le propre d’une innovation technologique réussie, c’est l’instant où la technologie sait se faire oublier au profit d’autre chose… et bien souvent du design.      Dans la plupart des cas, il sera la métaphore palpable de l’idée de l’objet.                        Le sacré de l’objet, sa dimension unique et son sens se trouve dans son design, au croisement entre poésie et technologie.