Latence
La latence désigne le temps écoulé entre le moment où une action est initiée et celui où elle produit une réponse. En informatique et dans les réseaux, elle mesure le délai entre l’envoi d’une requête (comme un clic sur un lien ou une requête réseau) et la réception de la réponse correspondante. La latence est généralement exprimée en millisecondes (ms).
Dans le contexte des réseaux, une faible latence est essentielle pour des applications en temps réel comme les jeux en ligne, la visioconférence ou les transactions financières, où un retard perceptible peut affecter l’expérience utilisateur ou l’efficacité.
Les causes courantes de latence incluent :
- Distance physique : Plus la distance entre l’utilisateur et le serveur est grande, plus la latence sera élevée.
- Trafic réseau : Des réseaux encombrés ou mal optimisés peuvent augmenter la latence.
- Traitement des données : Le temps que prennent les serveurs pour traiter et répondre à une requête contribue également à la latence.
La latence est un facteur critique de la performance réseau et peut significativement affecter la réactivité des applications web et la qualité des services en ligne. Les techniques pour la réduire incluent l’optimisation des réseaux, l’utilisation de CDN, ou des serveurs géographiquement plus proches des utilisateurs.