background

WebBeds

Étude de cas sur la gestion de l'API

Optimisation du moteur de recherche pour la place de marché WebBeds, afin de l'aider à mieux gérer les demandes d'API.
12-15%
Coût de l'infrastructure
réduit
20%
Sur le trafic en double dans l'inventaire mis en cache

Vue d'ensemble de l'entreprise

Notre équipe, en collaboration avec l'équipe d'ingénierie de la plateforme du client, a contribué à réduire le nombre de demandes d'API à traiter pour l'une des principales API du client. Nous avons fait évoluer et amélioré une solution de mise en cache initialement mise en œuvre par le client en langage Go, en la transformant en un système évolutif qui optimise le trafic réseau et réduit le temps de traitement et de calcul. Notre solution a permis de réduire les coûts de l'infrastructure en nuage en optimisant les recherches effectuées dans le moteur de recherche, qui consomme moins de ressources. En conséquence, l'entreprise a eu moins d'instances dans le nuage et a économisé environ 15 % du coût actuel.

Web-Beds-Logo

Background

Contexte

WebBeds est l'une des rares banques de lits mondiales qui rend les produits de voyage accessibles à plus de 430000 hôtels dans plus de 16000 destinations dans le monde entier.

WebBeds offre des solutions de distribution puissantes aux hôtels, facilitant ainsi la vente et l'achat d'hébergements. Des milliers d'agences de voyage se connectent régulièrement à la place de marché de WebBeds et génèrent plusieurs milliards de recherches par jour.

Business-need

Besoin de l'entreprise

Le service API XML que WebBeds fournit à ses multiples parties prenantes reçoit environ 4 millions de demandes de recherche par minute, dont beaucoup sont identiques même sur une courte période.

La mise en cache des demandes et de leurs réponses pendant un certain temps était un objectif clé pour permettre des réponses rapides aux demandes dupliquées (un hit dans le cache) et éviter leur traitement par le moteur de recherche de l'hôtel. Cette partie, qui réduit le traitement des recherches en double, pourrait réduire considérablement les coûts de l'infrastructure en nuage (trafic réseau et traitement par l'unité centrale). L'obtention d'un taux de réussite prudent entre 15 et 20 % peut directement réduire la même proportion de coûts dans la facture mensuelle du fournisseur de services en nuage. Lorsque nous parlons d'une plateforme avec environ 4 milliards de requêtes par jour, ce n'est pas un chiffre négligeable.

Solution

Nos spécialistes de l'architecture des solutions AWS, ainsi que l'équipe de développement, ont collaboré avec l'équipe d'ingénierie de la plateforme du client pour élaborer une solution. Nous avons fait évoluer et amélioré une solution de cache initialement mise en œuvre par le client en langage Go, en la transformant en un système évolutif qui optimise le trafic réseau et réduit le traitement et les calculs. Le cache implémenté est agnostique et adaptable pour servir de cache pour de multiples services à travers différentes plateformes WebBeds.

En outre, l'équipe a développé des outils personnalisés pour les benchmarks de cache qui permettent le contrôle et la maintenance ultérieure. En utilisant les meilleures pratiques comme l'Infrastructure as a Code ainsi que l'Intégration Continue et le Déploiement Continu, l'équipe a facilité l'évolution et la maintenance de la solution.

APIM-Lits en ligne-SS-Tile

Notre solution de gestion des API a permis :

results-icon

Temps de réponse rapide
(moins d'une milliseconde)

results-icon

Capacité à gérer un volume important de demandes (plusieurs millions par minute)

results-icon

En ajustant les coûts d'infrastructure, la solution permet d'économiser bien plus que son propre coût.

Résultats

Après le déploiement complet de la solution, toutes les recherches effectuées par les clients sur l'une des plateformes de WebBeds sont désormais mises en cache par la nouvelle application. La nouvelle application ne nécessite qu'une maintenance minimale et ses coûts d'exploitation sont faibles. Cela a permis de réduire le coût global de l'infrastructure de 12 à 15 %.

De plus, le temps nécessaire à la mise en cache des demandes dupliquées était de l'ordre de quelques secondes, alors qu'il est maintenant réduit à quelques millisecondes. Les connaissances, les améliorations et les évolutions apportées à l'application de cache permettent de continuer à améliorer d'autres parties de l'écosystème WebBeds.

Gestion de l'API
Notre environnement est complexe et nous gérons des milliards d'opérations par jour. L'équipe de Nagarro s'est adaptée à notre façon de travailler, en comprenant le défi qu'elle avait à relever et en apportant ses connaissances et sa créativité. Ils ont fait preuve de courage et de confiance en affrontant des scénarios complexes dans des délais courts. Webbeds est dans un processus de transformation rapide, et nous apprécions un partenaire qui comprend cela et travaille avec notre équipe.
Gabriel Pérez Salazar
Directeur de l'ingénierie - Webbeds
Prendre contact

Vous pensez que votre plateforme pourrait être améliorée avec un peu d'aide ? Consultez nos experts.