Chaque entreprise aspire à offrir des services rapides et disponibles à tout moment, sans latence. Bien que cela paraisse simple, atteindre cet objectif demande un investissement substantiel en temps et en ressources. Wellhub a décidé de franchir un cap décisif en adoptant une architecture multi-régionale pour son service d’autocomplete, utilisant des technologies de pointe comme Elasticsearch pour optimiser l’expérience de recherche. Ce choix stratégique a conduit à une amélioration significative de la latence, transformant la manière dont les utilisateurs interagissent avec la plateforme. Dans cette quête d’efficacité, plusieurs techniques et innovations ont été mises en œuvre pour garantir une réponse rapide et pertinente, même dans un environnement global.
Dans cet article, nous explorons comment Wellhub a investi dans une architecture multi-régionale pour offrir un service de suggestion automatique à faible latence. Cette solution, développée en Go, utilise Elasticsearch pour prédire les saisies des utilisateurs et affiner la pertinence des résultats de recherche en tenant compte de la géolocalisation. En s’appuyant sur des outils comme AWS Global Accelerator, l’entreprise a optimisé le routage du trafic, assurant des connexions à faible latence. De plus, une stratégie de réplication de données a été mise en place pour permettre la restauration des sauvegardes dans différentes régions, répondant ainsi aux exigences d’actualisation des données. Enfin, pour améliorer encore la performance perçue, Wellhub a introduit un point d’accès de pré-récupération, renforçant ainsi l’expérience utilisateur tout en allégeant le fardeau sur l’infrastructure principale.
Table of Contents
ToggleAmélioration de la latence du service autocomplete de Wellhub
Le service autocomplete de Wellhub repose sur une architecture multi-régionale conçue pour maximiser la vitesse et la réactivité. Avec une latence initiale atteignant jusqu’à 600 ms, il était essentiel de mettre en œuvre des optimisations afin d’améliorer l’expérience utilisateur. Grâce à l’utilisation d’AWS et à l’intégration d’Elasticsearch, nous avons réussi à réduire ce délai pour atteindre des niveaux considérés comme acceptables.
Stratégies mises en place
Pour réduire la latence, plusieurs stratégies ont été adoptées. Tout d’abord, la réplication des données à travers différentes régions permet de rapprocher les informations des utilisateurs, minimisant ainsi les délais de transfert. Les requêtes geo-localisées font également partie de cette approche, améliorant la pertinence des résultats basés sur la localisation. Ces méthodes ont été couplées à un pré-chargement intelligent des sous-ensembles de données, permettant de présenter des suggestions presque instantanément.
Résultats obtenus
Après la mise en place de ces améliorations, les performances du service ont été significativement augmentées. La latence des requêtes est passée à environ 123,3 ms sur iOS et 134,6 ms sur Android, rendant le système bien plus efficace. De plus, cette architecture a permis une utilisation optimisée des réseaux mobiles, avec une réduction notable de l’utilisation du Wi-Fi, prouvant que les utilisateurs profitent mieux des services mobiles qu’auparavant.