“Le Serverless, quèsaco ?” : 1re partie de notre livre blanc sur le Cloud

Livre blanc cloud “Du monolithe au Serverless”

Le mot Serverless a fait couler beaucoup d’encre depuis sa première apparition dans un article de Ken Fromm en 2012, puisque son étymologie peut laisser penser, tout au moins pour les non-initiés, que nous serions en présence d’une informatique sans serveur.

Il n’en est rien !

Il reste difficile de synthétiser le terme Serverless, nous vous livrons notre définition :

“Se dit d’une technologie informatique affranchissant l’utilisateur de la gestion des serveurs, et qui ne consomme que les ressources strictement nécessaires à son fonctionnement.”

Une certaine controverse

En pratique, les applications Serverless sont des services exposés par des plateformes cloud qui répondent aux critères suivants :

> ne nécessitent aucune gestion des couches qui hébergent le service (serveurs, conteneurs, réseaux, processus du système d’exploitation…),
> s’adaptent automatiquement à la charge/au niveau de ressources nécessaires,
> offrent une facturation proportionnelle à l’usage du service, permettent implicitement une haute disponibilité.

L’objectif d’un service Serverless est donc de libérer le client de la gestion des couches IT plus basses afin de lui permettre de se concentrer sur ses problématiques business, le tout en lui facturant uniquement l’usage précis des ressources utilisées.

Les services que nous pourrions qualifier de Serverless sont par exemple :

> un service en mode SaaS (Software as a Service) que l’on consomme et pour lequel nous sommes facturés au nombre d’appels,
> les services de bases de données non-relationnelles type DynamoDB (AWS), CosmoDB (Azure), Google Cloud Datastore (GCP). Au delta près du coût du stockage des données, qui entraîne une facturation même si il n’y a aucune activité sur la base de données,
> les services d’exposition de fonction type AWS Lambda, Google Cloud Functions, Azure Functions.

Le Serverless c’est aussi du Green IT, ou encore être éco-responsable dans les usages des ressources cloud.

Lorsque nous utilisons des services cloud de type IaaS (Infrastructure as a Service), CaaS (Container as a Service), PaaS (Platform as a Service), le modèle de facturation est très souvent un mode de paiement à l’usage “Pay As You Go”.

En simplifiant, le coût calculé est proportionnel à la durée durant laquelle l’objet est instancié sur la plateforme cloud. Ce coût correspond donc non seulement à l’usage des ressources nécessaires au fonctionnement du composant (RAM, CPU, disque, réseau…), mais aussi aux ressources immobilisées afin de garantir qu’il puisse fonctionner dans les limites hautes des performances promises.

Concrètement, lorsque l’on instancie un objet de type Amazon EC2 (Elastic Compute Cloud) de type t4g.large sur la région Paris d’AWS, on réserve 2 vCPU et 8 GB de RAM dans un data center qui seront facturés environ 62,05$/mois, et ce même si nous n’utilisons que 10% des ressources CPU.

À l’échelle mondiale, en 2019 une estimation du coût des ressources de calcul gaspillées dans les data centers cloud serait de l’ordre de 17 milliards de dollars (fourchette basse, source ParkMyCloud).

Le FaaS, et plus généralement les services Serverless, ne demandent quant à eux aucune réservation de ressources lorsqu’ils sont non utilisés. Au-delà de la réduction de coût de ces architectures, c’est bien aussi une réduction de l’utilisation des composants physiques et une baisse de la consommation énergétique.

Utiliser les technologies Serverless c’est aussi être éco-responsable !
Amazon, et de facto AWS, souhaite atteindre 100% d’énergie renouvelable avant 2025. L’objectif à terme étant de parvenir à éliminer toute empreinte carbone d’ici 2040. Pour y parvenir, des projets comme des parcs éoliens et solaires ou encore des systèmes réduisant la consommation d’eau dans les data centers voient le jour (référence : ici). Ce qui ouvre la voie à des data centers plus écologiques.

Dans un environnement concurrentiel, il est à craindre que les entreprises qui n’auront pas franchi ce cap dans les cinq à dix années à venir seront en grande difficulté.

Pour découvrir la suite de ce chapitre et aller plus loin sur le sujet, téléchargez le livre blanc (disponible au format PDF interactif) !

Article Précedent

Lancement du livre blanc sur le cloud

Article Précedent

“Comment penser l’architecture ?” : 2e partie de notre livre blanc sur le cloud

Articles associés

Shopping Basket