L’inquiétante trajectoire de la consommation énergétique du numérique

Le Conseil général de l’économie, de l’industrie, de l’énergie et des technologies (CGEIET) a publié en novembre un rapport sur la consommation d’énergie du numérique en France. L’étude recense le parc, liste les consommations et en déduit leur montant global.

Les résultats sont plutôt rassurants. Par rapport à 2008, la consommation numérique au niveau national semble stabilisée.

Les transformations en cours (croissance des usages vidéo, « numérisation de l’économie », « plate-formisation », etc.) ne semblent pas avoir de conséquences sur la dépense énergétique.

Un constat qui s’expliquerait par les gains en efficacité énergétique, et par le fait que la progression de la consommation des smartphones et data centers a été compensée par le déclin des télévisions et des PC.

Ces conclusions, au premier abord optimistes, méritent toutefois un examen plus approfondi.

61 millions de smartphones en France
Avant tout, voici quelques repères donnés par le rapport pour appréhender l’ampleur du parc numérique français. Le pays compte 61 millions de smartphones en service, 64 millions d’ordinateurs, 42 de téléviseurs, 6 millions de tablettes, 30 millions de box… Ces volumes déjà importants sont toutefois à prendre avec des pincettes, les auteurs du rapport estimant avoir fortement sous-évalué les équipements professionnels.

Le rapport prévoit dans les prochaines années une croissance du parc de smartphones (notamment chez les personnes âgées), une baisse de celui des PC, la stabilisation des tablettes et une saturation du temps passé sur écran (qui s’établit aujourd’hui à 41h/semaine).

Le texte suggère néanmoins de rester attentif, notamment sur les nouveaux usages : la vidéo 4K puis 8K, les jeux sur cloud via 5G, la voiture connectée ou autonome, l’installation grandissante de centres de données en France et le stockage de données… Une hausse de 10 % de la vidéo en 4K en 2030 produirait à lui seul une hausse de 10 % de la consommation électrique globale du numérique.

Nous pensons que ces conclusions rassurantes doivent être pour le moins tempérées, pour trois principales raisons

L’efficacité énergétique, pas éternelle
La première est l’efficacité énergétique. Le célèbre énergéticien Jonathan Koomey a établi en 2011 que la puissance de calcul par joule double tous les 1,57 ans.

Mais cette « loi » de Koomey résulte d’observations sur quelques décennies seulement : une éternité, à l’échelle du marketing. Pourtant, le principe de base du numérique est toujours le même, depuis l’invention du transistor (1947) : utiliser le déplacement des électrons pour mécaniser le traitement de l’information. La cause principale de la réduction de la consommation est la miniaturisation.

Or, il existe un seuil minimal de consommation d’énergie physique pour déplacer un électron, dit « minimum de Landauer ». Un tel minimum théorique ne peut être qu’approché, en termes technologiques. Ce qui signifie que l’efficacité énergétique va ralentir puis s’arrêter. Plus la technologie le côtoiera, plus les progrès seront difficiles : on retrouve en quelque sorte la loi des rendements décroissants établie par Ricardo voici deux siècles, à propos de la productivité de la terre.

La seule manière de surmonter la barrière serait de changer de paradigme technologique : déployer l’ordinateur quantique à grande échelle, dont la puissance de calcul est indépendante de sa consommation énergétique. Mais le saut à accomplir est gigantesque et prendra des décennies, s’il se produit.

Une croissance des données exponentielle
La seconde raison pour laquelle le constat du rapport est à relativiser est la croissance du trafic et de la puissance de calcul appelée.

Selon l’entreprise informatique américaine Cisco, le trafic décuple actuellement tous les 10 ans. Suivant cette « loi », il sera multiplié par 1 000 d’ici 30 ans. Aujourd’hui, un tel débit est impossible : l’infrastructure cuivre-4G ne le permet pas. La 5G et la fibre optique rendraient possible une telle évolution, d’où les débats actuels.

Regarder une vidéo sur un smartphone implique que des machines numériques – téléphone, centres de données – exécutent des instructions pour activer les pixels de l’écran, générant l’image et son changement. Les usages du numérique génèrent ainsi de la puissance de calcul, c’est-à-dire une quantité d’instructions exécutées par les machines. Cette puissance de calcul appelée n’a pas de rapport évident avec le trafic. Un simple SMS peut aussi bien déclencher quelques pixels sur un vieux Nokia ou un supercalculateur, même si bien entendu, la consommation d’énergie ne sera pas la même.

Dans un document datant déjà de quelques années, l’industrie des semi-conducteurs a tracé une autre « loi » : celle de la croissance régulière de la puissance de calcul appelée à l’échelle mondiale. L’étude montre qu’à ce rythme, le numérique aurait besoin, en 2040, de la totalité de l’énergie mondiale produite en 2010.

Ce résultat vaut pour des systèmes pourvus du profil moyen de performance de 2015, date de rédaction du document. L’étude envisage aussi l’hypothèse d’un parc mondial pourvu d’une efficacité énergétique 1000 fois supérieure. L’échéance ne serait décalée que de 10 ans : 2050. Si l’ensemble du parc atteignait la « limite de Landauer », ce qui est impossible, alors c’est en 2070 que la totalité de l’énergie mondiale (en date de 2010) serait consommée par le numérique.

Numérisation sans limites
Le rapport ne dit pas que les usages énergivores ne sont pas quelques pratiques isolées de consommateurs étourdis. Ce sont des investissements industriels colossaux, justifiés par le souci d’utiliser les fantastiques vertus « immatérielles » du numérique.

De toutes parts, on se passionne pour l’IA. L’avenir de l’automobile ne semble plus pouvoir être pensé hors du véhicule autonome. Microsoft envisage un marché de 7 milliards de joueurs en ligne. L’e-sport se développe. L’industrie 4.0 et l’Internet des objets (IdO) sont présentés comme des évolutions irréversibles. Le big data est le pétrole de demain, etc.

Or, donnons quelques chiffres. Strubell, Ganesh & McCallum ont montré, à partir d’un réseau de neurones courant utilisé pour traiter le langage naturel, qu’un entraînement consommait 350 tonnes de CO₂, soit 300 allers-retours New York – San Francisco. En 2016, Intel annonçait que la voiture autonome consommerait 4 petaoctets… par jour, sachant qu’en 2020 une personne génère ou fait transiter 2 GB/jour : 2 millions de fois plus. Le chiffre annoncé en 2020 est plutôt de 1 à 2 TB/heure, soit 5000 fois plus que le trafic individuel.

Une caméra de surveillance enregistre 8 à 15 images/seconde. Si l’image est de 4 Mo, on arrive à 60Mo/s, sans compression, soit 200 Go/heure : c’est tout sauf un détail dans l’écosystème énergétique du numérique. Le rapport EDNA de l’IEA pointe ce risque. La « vidéo volumétrique », à base de caméras 5K, génère un flux de 1 To… toutes les 10 secondes. Intel estime que ce format est « le futur d’Hollywood » !

Le jeu en ligne consomme déjà plus, en Californie, que la puissance appelée par les chauffe-eau électriques, les machines à laver, les machines à laver la vaisselle, les sèche-linge ou les cuisinières électriques.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s