Le THD et le Cloud Computing

Quelle forme prennent les infrastructures qui relient les ordinateurs via internet? Quels sont les moyens matériels qui permettent à internet d’exister? Si aujourd’hui on entend beaucoup parler de la fibre optique, à quoi ressemble-t-elle? Quels étaient les réseaux antécédents?
Je me suis également intéressé aux datacenters, ces «ferme de serveurs». Quels sont leur rapport avec le reste des infrastructures? Pourquoi et comment sont ils apparus?
Au fil de mes lectures, j’ai pu découvrir le paysage matériel des réseaux informatiques, et arriver à un nouveau questionnement qui apparaît à la fois comme une synthèse, mais sortant du champs des infrastructures.
Le THD (Très Haut Débit : fibre optique, 4G), ou la superfluidité des liaisons internet, est il une plénitude technique atteinte pour l’internet, ou est il vecteur d’un changement fondamental de nature de celui ci?

 

Lectures référentielles annexes :

«Les cahiers de l’Arcep» n°4
De 2000 à 2009, 7,8 milliards de terminaux mobiles vendus.

«Le cloud computing est nécessairement du green computing.» Christian Fauré
«Chaque site n’à pas la même politique énergétique»

«L’Un et le multiple comme technologique du Cloud Computing.» Christian Fauré
«Des data centers de la superficie d’une grande surface commerciale, Google en possède plus de trente, et l’ensemble de ces data centers, localisés en différents endroits et sur plusieurs continents, doivent travailler de concert et en cohérence en eux.»

«EDF, l’Europe et les Data Centers.» Christian Fauré
Le coût de l’électricité est essentiel dans le choix d’un emplacement pour installer un datacenter : pour une installation de 10 000 m2, la consommation en énergie est égale à celle d’une ville de 50 000 habitants.

«Un datacenter transformé en chaudière géante» Actu-Environnement

«A rare look inside Facebook’s Oregon datacenter» Gigaom
Un reportage photo et vidéo.

Resources usuelles notables :
Articles Wikipédia : «grappe de serveurs», «hébergeurs web», «internet», «World Wide Web».

 

 

Télécommunication

Chapitre IX : «Télécommunication», extrait de Michel Volle, e-conomie, Economica 2000

 

Signal analogique et signal numérique

Le signal sonore est transporté dans l’air sur quelques mètres par des ondes mécaniques de pression. La téléphonie transforme les ondes sonores en ondes électromagnétiques, les transporte sur des supports qui préservent la qualité du signal sur de longues portées (paire torsadée, câble coaxial, faisceau hertzien terrestre ou par satellite, fibre optique), et reconstitue le signal sonore à l’arrivée.

Le signal sonore a d’abord été utilisé pour moduler l’onde porteuse (modulation en amplitude, en fréquence ou en phase) : c’est le codage analogique du signal. Le codage numérique repose sur une mesure périodique du signal. Avec le codage MIC, par exemple, le signal sonore est mesuré toutes les 125 µs et codé sur 8 bits ; cela donne un flux de 64 kbit/s transportant la largeur de bande de 4 kHz jugée suffisante pour la téléphonie (pour transmettre tous les sons perçus par l’oreille, il faudrait une largeur de bande de 21 kHz multipliée par deux pour la stéréophonie).

Le codage numérique est utilisable non seulement pour transmettre le son, mais pour transmettre tous les types de signaux (textes, images fixes ou animées). Il a permis d’utiliser dans le réseau téléphonique des technologies analogues à celles de l’informatique et de tirer parti de l’évolution de leur coût. Les commutateurs sont devenus des ordinateurs spécialisés. L’architecture des réseaux a été modifiée. Les techniques de codage se sont diversifiées, la qualité des services s’est accrue. Des codages élaborés permettent de transmettre, avec le même débit, une largeur de bande supérieure ; la compression du signal est devenue une des techniques les plus importantes pour les télécoms.

[…]
Internet

L’Internet fait alors irruption et perturbe les plans les mieux ourdis des exploitants. Il utilise un protocole simple et robuste de transmission en mode paquet associé à un adressage décentralisé. Utilisé d’abord par des chercheurs pour la messagerie, le partager de bases de données et l’échange de documents, il devient avec le « Web « le support d’un outil de documentation puissant. Peu coûteux, il banalise l’accès au transfert de données et devient l’objet d’un phénomène de mode (pour plus de détails sur l’Internet, cf. chapitre XIII).

L’efficacité et le prix des logiciels et protocoles de communication définis sur l’Internet les imposent dans les entreprises : on parle alors d’Intranet.

 

Concurrence commerciale et monopole technique

La déréglementation des télécommunications aux États-Unis, copiée ensuite par les autres pays, a été l’occasion d’une polémique entre des économistes qui soutenaient le monopole national d’un exploitant (AT&T, France Télécom, British Telecom, Deutsche Bundespost etc.) et d’autres qui jugeaient nécessaire l’introduction de la concurrence sur ce marché.
La défense du monopole tire argument de l’économie d’échelle propre au réseau, ainsi que de l’externalité de réseau (l’utilité du réseau pour un nouvel abonné est d’autant plus forte que le nombre des personnes qui y sont raccordées est plus élevé). Ces arguments sont irréfutables, même si dans la chaleur de la polémique certains ont cherché à les réfuter, mais ils peuvent être contournés. En effet l’économie d’échelle, et l’externalité de réseau peuvent se manifester même s’il existe plusieurs exploitants (et donc si le monopole est brisé), à condition que soit assuré un « monopole technique «

compatible avec la pluralité des exploitants : il faut que l’ensemble des réseaux que ceux-ci exploitent constitue, sur le plan technique, un seul réseau cohérent. Alors les économies d’échelle et l’externalité de réseau sont présentes, même avec plusieurs exploitants.

Cependant il faut assurer une coordination (investissements, choix technologiques, normes, protocoles de communication, efforts de recherche, relations avec les fournisseurs) qui a elle-même un coût.

En rompant avec le monopole de l’exploitation, les politiques espèrent en finir avec ses défauts : tarification visant à maximiser le profit, mais non optimale du point de vue de l’intérêt général, et paresse de l’innovation à laquelle les managers du monopole préfèrent la prolongation des situations acquises. La fin du monopole a toutefois un coût : coût de coordination si l’on respecte le « monopole technique « ci-dessus ; perte des économies d’échelle et de l’externalité de réseau si on ne le respecte pas. À ces coûts s’ajoute celui de l’incertitude sur la demande, donc sur le dimensionnement du réseau, plus élevé en situation de concurrence qu’en situation de monopole (chapitre VIII).

Le bilan de la déréglementation fait encore l’objet d’un débat. Du côté positif, on met la baisse des prix et la diversification de l’offre. Du côté négatif, on met les difficultés ou l’impossibilité de la coordination en situation de concurrence, entraînant la redondance des équipements et des réseaux commerciaux ainsi que le cloisonnement des équipes de recherche et le ralentissement du progrès technique.

 

Schéma d’ensemble

Même si la situation actuelle est plus complexe que celle du bon vieux téléphone, on peut la représenter à l’aide de quelques concepts simples.
Appelons « réseau public « un réseau ouvert, dont l’accès et l’usage sont offerts sur le marché et disponibles pour quiconque accepte d’en payer le prix (réseau téléphonique, Transpac, Internet), et « réseau privé « un réseau dont l’accès n’est pas offert sur le marché : soit il est utilisé par une seule entreprise, soit il est offert à un club d’utilisateurs auquel il faut appartenir pour pouvoir accéder au réseau (tel est le cas de RVA comme SITA dans le secteur du transport aérien, ou SWIFT dans le secteur bancaire).

Le réseau public jouera alors le rôle d’une place de marché sur laquelle seront offerts, outre les télécommunications proprement dites, des services diversifiés et payants. Des services « outils «, utiles pour l’exploitation des services à valeur ajoutée (annuaires, « kiosque «, reroutages, transcodages etc.) seront offerts sur des architectures dites de « réseau intelligent « capables d’interpréter une signalisation enrichie.
Le graphique ci-dessous reprend les notions définies dans le paragraphe précédent, en les classant par rapport au modèle OSI en sept couches.

– liaisons louées fournies par un exploitant télécoms aux entreprises ou aux opérateurs de RVA.
– services outils : taxation (« kiosque « du Minitel), administration de réseaux, annuaires, location d’équipements d’extrémité etc.
– services à valeur ajoutée (SVA) sur réseau public.
– réseaux à valeur ajoutée (RVA) : réseaux dont l’accès est réservé à un club d’utilisateurs et construits sur des LL fournies par l’exploitant du réseau public.
– services à valeur ajoutée sur RVA : services à valeur ajoutée offerts par les opérateurs de RVA sur leur réseau (messagerie, documentation, taxation).
– réseau public : désigne tous les réseaux dont l’accès est commercialisé auprès du public : réseau téléphonique classique, Transpac, Numéris, Internet, téléphonie mobile etc.

Image143

 

 

 

Commentaire sur les Datacenters

Longtemps, les réseaux informatiques publiques ont reposés sur les réseaux téléphoniques, voir sur des lignes RNIS, jusqu’à l’ADSL. Ces réseaux offraient des connections allant de 56 kbit/s pour un modem classique, à 2 Mbit/s avec une ligne RNIS. Avec le réseau dit FTTH (fiber to the home) on peut espérer atteindre des débit de 2 Gbit/s . La fibre optique est une technologie nouvelle, elle se déploie comme le réseau téléphonique avant elle, et ne se résume pas à emprunté les paire torsadée de cuivre traditionnels, via une compression de signal plus efficace.

Avec l’accroissement du débit internet le web et son contenu ont changés. Les contenus multimédias sont devenus accessibles, en même temps que publiables, et le web est devenu «participatif» (2.0). Ainsi c’est sans surprise que l’on s’attend à ce que la toile connaisse de grandes évolutions. Mais à ce propos, l’augmentation du débit coïncidera-t-il simplement avec une évolution linéaire des possibilité actuel du web? Il semblerai que les intentions des grands groupes internet soit beaucoup plus ambitieuses.

On le voit avec l’apparition de la logique de Cloud Computing «l’informatique dans les nuages». Le cloud consiste en la mise à disposition de puissance de calcul, ou d’espace de stockage à distance. L’informatique en nuage naît à la base dans le monde de l’entreprise, où petites ou grandes chacune nécessite une «machinerie» de traitement des données informatiques. Les plus grandes firmes gèrent donc leur propre datacenter en interne, d’autre choisissent de faire sous-traiter en hébergent leur intranet et leurs bases de données à distance. Mais cet éloignement est désormais possible grâce à la vitesse de transit des informations par l’internet.
Et les géants de la toile tel Google, Facebook, Apple ou Amazon sont bien décidés à étendre ce marché à celui du grand public. DropBox est un exemple de stockage des données à distance, ICloud, et même Facebook qui peut servir de plateforme d’échange et de stockage de documents. Le cloud permet aussi la synchronisation, aujourd’hui avec l’éclatement des terminaux (ordinateurs portables, tablette, smartphones etc.) synchroniser l’ensemble de ses possessions numériques en les stockant sur un serveur en ligne peut être séduisant. On peut également synchroniser des agendas entre devices, ou des notes avec Evernote. On peut même utiliser des logiciels à distance, installés sur un serveur lointain, notre terminal n’ayant qu’une fonction de récepteur et d’interface; tout comme jouer à distance avec le cloud gaming.
Cela pose de nombreuse questions : après avoir été inventé autour d’une logique de réseau, d’une toile tissée entre des calculateurs, sommes nous à l’aube d’une centralisation du réseau mondial? Les données déposés en ligne sont stockées dans d’immenses datacenters. Les futurs équipements seront ils conçus de manière à être dépendant de ces méga ordinateurs lointains? Qu’en est il de notre souveraineté sur nos contenus numérique si ils sont entreposés chez quelqu’un d’autre? S’agit il d’un éclatement de l’ordinateur traditionnel, avec un terminal qui fait office d’écran et le THD qui permet de le relier à la carte mère? Ou après tout cela va-t-il être synonyme pour l’individu d’une plus grande cohérence dans ses usages numériques?

Le questionnement peut être infini. Mais arrêtons nous sur la forme de ces datacenters. Ils seraient donc le fruit de l’augmentation du débit internet, du renforcement du réseau mondial, de la bonne desserte de millions de foyer au torrent de données planétaire. Je veux m’arrêter sur le datacenter du type des 30 très gros exploités par Google, tel son installation finlandaise sur les bords de la Baltique. Des images sont disponibles sur le site «Google data centers». Ces endroits sont inédits. Ils ne ressemble ni à une salle de calcul scientifique, ni à une usine. Pourtant leurs proportions sont industrielles, tous comme les flux entrants et sortants qui les alimentent : l’air pompé par les climatiseurs, ou l’eau par les circuits de refroidissement; la chaleur produit par les processeurs des serveurs, le système de nettoyage nécessaire à la maintenance des équipements… Leur consommation d’énergie est telle qu’il s’adossent parfois à une centrale électrique pour bénéficier de l’électricité au meilleur coût, tel les usines d’aluminium au début du XXe siècle qui ont fait construire les premières centrales. Un datacenter ressemble à peu d’usine car les stocks sont mélangés avec les moyens de production (disques durs, microprocesseur), il n’y à pas d’ouvrier dans les allées, ou à la limite des agents de maintenance.

Pour terminer disons que ces lieux, qui doivent être sources d’importants bénéfices, soulèvent des questionnements foisonnants, tant dans les champs industriel, salariaux, informatique, environnemental, historique et même symbolique! Malgré tout peu d’études scientifiques semblent s’être penchées, voir aucune facilement accessible, sur ce qui m’a semblé être l’aboutissement de l’usine automate décrite par Michel Volle.

 

Une des caractéristiques des datacenters sur lequel le designer pourrait intervenir est l’échelle. Elle est à coup sûr un défi majeur de ce type d’installation informatique. Si les concentrations atteignent cette densité aujourd’hui, malgré les enjeux techniques et énergétiques que cela impose, c’est qu’il existe des raisons qu’on peut imaginées d’ordre économique ou technologique.

Le designer en imaginant des scénarios alternatifs d’exploitation et d’installation de ces grappes de serveurs pourrait ouvrir de nouvelles perspectives en terme de format de datacenter. Certains parlent de re-localiser le nuage à échelle régionale, et si il existe des avantages environnementaux et territoriaux à le faire, alors le designer peut être un acteur décisif pour défendre ce type de solution.

Pierre Bourré

 

Bonus: Datacentermap.com, datacenter.silicon.fr