47,5 % d'économie Cloud : retour d'expérience sur l'optimisation de la plateforme Mercure.rocks
Publié le 27 avril 2026
Fournir un service managé haute performance et temps réel comme Mercure.rocks exige une infrastructure robuste. Face à la croissance rapide de notre base d'utilisateurs, nous avons souhaité reprendre le contrôle sur notre consommation de ressources Cloud : nous avons donc passé notre infra au microscope. L'objectif ? Optimiser l'usage de nos ressources et réduire notre empreinte mensuelle, sans aucun compromis sur la performance pour nos clients.
En combinant une restructuration de l'infrastructure et des optimisations de code en profondeur, nous avons réalisé le défi de toute entreprise SaaS en pleine croissance : nous accueillons aujourd'hui nettement plus de clients tout en ayant réduit nos coûts d'infrastructure mensuels de près de 48 %. Voici le détail de la méthode qui nous a permis d'atteindre ce résultat tout en absorbant un trafic record.
#Audit d'infrastructure : identifier le goulot d'étranglement
La première étape de tout processus d'optimisation est l'observabilité. Nous avons mené un audit complet de notre facturation cloud et de l'allocation des ressources pour identifier précisément la composition de notre budget.
Les données ont désigné un coupable clair : nos load balancers. Ils consommaient une part disproportionnée de nos ressources. Nous sur-provisionnions des répartiteurs de charge statiques pour anticiper les pics de trafic, ce qui nous condamnait à payer pour une capacité inutilisée massive durant les périodes plus calmes.
Implémentation d’un Load Balancing élastique
Une fois le problème identifié, la solution s'est imposée d'elle-même : nous avons entièrement refondu notre infrastructure de routage en migrant vers un système d’Elastic Load Balancing (ELB).
Au lieu de maintenir des instances statiques et lourdes, notre nouvelle configuration dynamique s'adapte à la demande de trafic en temps réel. Ce pivot structurel a généré des bénéfices immédiats :
- Réduction drastique des coûts : nous avons cessé de payer pour des ressources en sommeil.
- Scalabilité fluide : à mesure que de nouveaux clients rejoignent le service managé, le système s'étend naturellement pour absorber la charge sans intervention manuelle.
- Fiabilité accrue : nous sommes désormais bien mieux équipés pour gérer les hausses soudaines de connexions simultanées.
Aller plus loin : l'audit du code de Mercure
L'infrastructure n'était qu'une partie de l'équation. Pour héberger plus de clients de manière efficiente sur nos serveurs, il était impératif d'intervenir sur la couche applicative.Notre équipe a lancé un audit au peigne fin du cœur du code de Mercure. Fidèles à l'esprit du logiciel libre, nous n'avons pas limité notre analyse à notre 'environnement cloud managé, mais avons également évalué la version open source, installable sur n’importe quel serveur. Nous avons profilé l'application sous forte charge pour localiser précisément les cycles CPU gaspillés et les allocations mémoire inefficaces.
Déploiement des correctifs : efficacité CPU et mémoire
Grâce aux données de profilage, nous avons ouvert une série de pull requests visant directement à améliorer les performances du coeur de Mercure. Nos optimisations se sont concentrées sur deux axes majeurs :
- L’efficience mémoire : en réduisant l'empreinte mémoire par connexion, nous pouvons supporter davantage d'utilisateurs simultanés sur des instances de calcul plus petites et donc plus économiques.
- La réduction de l'usage CPU : nous avons optimisé l’event-loop et le parsing interne, permettant au serveur d'utiliser moins de cycles pour traiter un volume croissant de messages.
Ces PR ayant été intégrées au cœur du logiciel, ces gains de performance ne profitent pas seulement à l'offre managée de Les-Tilleuls.coop, ils bénéficient directement à l’ensemble de la communauté open source utilisant Mercure en auto-hébergement.
Retrouvez-en quelques unes ici :
Résultat : faire mieux avec moins
En règle générale, scaler un service managé implique une hausse corrélée de la facture d'infrastructure. En combinant des changements stratégiques d'architecture et des améliorations fondamentales du code, notre équipe SRE a inversé cette tendance.
Nous avons réduit de moitié nos dépenses cloud mensuelles, tout en servant une base de clients nettement plus large. Grâce à cette architecture élastique et à l'optimisation de l'empreinte logicielle, la version managée de Mercure est aujourd'hui plus résiliente, plus disponible et plus performante que jamais.
Et si nous appliquions cette exigence à vos projets ? Contactez-nous pour en discuter !



