Dans une application NPB classique, le problème le plus problématique pour les administrateurs est la perte de paquets causée par la congestion des paquets en miroir et des réseaux NPB. La perte de paquets dans NPB peut entraîner les symptômes suivants dans les outils d'analyse back-end :
- Une alarme est générée lorsque l'indicateur de surveillance des performances du service APM diminue et que le taux de réussite des transactions diminue
- L'alarme d'exception de l'indicateur de surveillance des performances du réseau NPM est générée
- Le système de surveillance de sécurité ne parvient pas à détecter les attaques réseau en raison d'une omission d'événement
- Événements d'audit de comportement de perte de service générés par le système d'audit de service
... ...
En tant que système centralisé de capture et de distribution pour la surveillance du bypass, l'importance du NPB est évidente. Cependant, son traitement du trafic de paquets de données est très différent de celui d'un commutateur réseau traditionnel, et la technologie de contrôle de la congestion du trafic de nombreux réseaux de service n'est pas applicable au NPB. Pour résoudre les problèmes de perte de paquets liés au NPB, commençons par l'analyse des causes profondes de ces pertes.
Analyse des causes profondes de la congestion des pertes de paquets NPB/TAP
Tout d'abord, nous analysons le chemin de trafic réel et la relation de correspondance entre le système et les entrées et sorties du réseau NPB de niveau 1. Quelle que soit la topologie du réseau NPB, en tant que système de collecte, il existe une relation d'entrée et de sortie de trafic de type plusieurs-à-plusieurs entre les « accès » et les « sorties » de l'ensemble du système.
Nous examinons ensuite le modèle économique de NPB du point de vue des puces ASIC sur un seul appareil :
Fonctionnalité 1Le trafic et le débit physique des interfaces d'entrée et de sortie sont asymétriques, ce qui entraîne inévitablement un grand nombre de micro-rafales. Dans les scénarios d'agrégation de trafic typiques de type plusieurs-à-un ou plusieurs-à-plusieurs, le débit physique de l'interface de sortie est généralement inférieur au débit physique total de l'interface d'entrée. Par exemple, 10 canaux de collecte 10G et 1 canal de sortie 10G ; dans un scénario de déploiement multiniveau, l'ensemble des NPBBS peut être considéré comme un tout.
Fonctionnalité 2Les ressources de cache des puces ASIC sont très limitées. Parmi les puces ASIC couramment utilisées, une puce d'une capacité d'échange de 640 Gbit/s dispose d'un cache de 3 à 10 Mo ; une puce d'une capacité de 3,2 Tbit/s dispose d'un cache de 20 à 50 Mo. Parmi les fabricants de puces ASIC, on trouve notamment BroadCom, Barefoot, CTC, Marvell.
Fonctionnalité 3Le mécanisme de contrôle de flux PFC de bout en bout conventionnel n'est pas applicable aux services NPB. Son objectif principal est d'obtenir une rétroaction de suppression du trafic de bout en bout et, in fine, de réduire l'envoi de paquets à la pile de protocoles du point de terminaison de communication afin de réduire la congestion. Cependant, les services NPB étant des paquets en miroir, la stratégie de traitement de la congestion ne peut être que rejetée ou mise en cache.
Voici l’apparence d’une micro-rafale typique sur la courbe de débit :
Prenons l'exemple de l'interface 10G : dans le diagramme d'analyse des tendances du trafic de deuxième niveau, le débit est maintenu à environ 3 Gbit/s pendant une longue période. Sur le graphique d'analyse des tendances en micromillisecondes, le pic de trafic (MicroBurst) a largement dépassé le débit physique de l'interface 10G.
Techniques clés pour atténuer les microrafales NPB
Réduire l'impact de l'inadéquation des débits des interfaces physiques asymétriquesLors de la conception d'un réseau, réduisez autant que possible les débits asymétriques des interfaces physiques d'entrée et de sortie. Une méthode courante consiste à utiliser une liaison montante à débit plus élevé et à éviter les débits asymétriques (par exemple, en copiant simultanément le trafic de 1 Gbit/s et de 10 Gbit/s).
Optimiser la politique de gestion du cache du service NPBLa politique de gestion du cache commune applicable au service de commutation ne s'applique pas au service de transfert du service NPB. La politique de gestion du cache de garantie statique et de partage dynamique doit être mise en œuvre en fonction des fonctionnalités du service NPB. Ceci afin de minimiser l'impact des micro-rafales NPB dans le contexte actuel des limitations matérielles des puces.
Mettre en œuvre une gestion de l'ingénierie du trafic classifiée- Mettre en œuvre une gestion de la classification des services d'ingénierie du trafic prioritaire basée sur la classification du trafic. Garantir la qualité de service des différentes files d'attente prioritaires en fonction de la bande passante des files d'attente de catégorie et garantir que les paquets de trafic sensibles aux utilisateurs peuvent être transmis sans perte.
Une solution système raisonnable améliore la capacité de mise en cache des paquets et la capacité de mise en forme du trafic- Intégrer la solution par divers moyens techniques pour étendre la capacité de mise en cache des paquets de la puce ASIC. En modelant le flux à différents endroits, la micro-rafale devient une courbe de flux micro-uniforme après mise en forme.
Solution de gestion du trafic en micro-rafales Mylinking™
Schéma 1 - Stratégie de gestion du cache optimisée pour le réseau + gestion des priorités de qualité de service classifiée à l'échelle du réseau
Stratégie de gestion du cache optimisée pour l'ensemble du réseau
S'appuyant sur une compréhension approfondie des caractéristiques du service NPB et des scénarios opérationnels d'un grand nombre de clients, les produits de collecte de trafic Mylinking™ mettent en œuvre une stratégie de gestion du cache NPB « assurance statique + partage dynamique » pour l'ensemble du réseau, ce qui améliore considérablement la gestion du cache de trafic en présence d'un grand nombre d'interfaces d'entrée et de sortie asymétriques. La tolérance aux micro-rafales est optimale lorsque le cache de la puce ASIC est fixe.
Technologie de traitement des microrafales - Gestion basée sur les priorités de l'entreprise
Lorsque l'unité de capture de trafic est déployée indépendamment, sa priorité peut également être définie en fonction de l'importance de l'outil d'analyse back-end ou des données de service elles-mêmes. Par exemple, parmi de nombreux outils d'analyse, APM/BPC est plus prioritaire que les outils d'analyse et de surveillance de la sécurité, car il implique la surveillance et l'analyse de divers indicateurs de systèmes métier importants. Par conséquent, dans ce scénario, les données requises par APM/BPC peuvent être définies comme hautement prioritaires, celles requises par les outils de surveillance et d'analyse de la sécurité comme moyennes, et celles requises par les autres outils d'analyse comme faibles. Lorsque les paquets de données collectés entrent dans le port d'entrée, les priorités sont définies en fonction de leur importance. Les paquets de priorité supérieure sont prioritaires après les paquets de priorité supérieure, et les paquets d'autres priorités sont prioritaires après les paquets de priorité supérieure. Si des paquets de priorité supérieure continuent d'arriver, les paquets de priorité supérieure sont prioritaires. Si les données d'entrée dépassent la capacité de transfert du port de sortie pendant une période prolongée, l'excédent est stocké dans le cache du périphérique. Si le cache est plein, le périphérique rejette prioritairement les paquets d'ordre inférieur. Ce mécanisme de gestion prioritaire garantit que les outils d'analyse clés peuvent obtenir efficacement les données de trafic d'origine nécessaires à l'analyse en temps réel.
Technologie de traitement des microrafales - mécanisme de garantie de classification de la qualité de service de l'ensemble du réseau
Comme le montre la figure ci-dessus, la technologie de classification du trafic permet de distinguer les différents services sur tous les équipements de la couche d'accès, de la couche d'agrégation/cœur et de la couche de sortie, et de re-marquer les priorités des paquets capturés. Le contrôleur SDN centralise la politique de priorité du trafic et l'applique aux équipements de transfert. Tous les équipements participant au réseau sont mappés à différentes files d'attente de priorité en fonction des priorités des paquets. Ainsi, les paquets à faible trafic et à priorité avancée peuvent atteindre zéro perte de paquets. Résoudre efficacement le problème de perte de paquets lié à la surveillance APM et aux services de contournement du trafic d'audit de service spécial.
Solution 2 - Cache système d'extension au niveau Go + schéma de mise en forme du trafic
Cache étendu du système de niveau GB
Grâce à des capacités de traitement avancées, notre unité d'acquisition de trafic libère de l'espace mémoire (RAM) pour servir de mémoire tampon globale, ce qui améliore considérablement sa capacité. Un seul appareil d'acquisition peut disposer d'au moins un Go de mémoire cache. Cette technologie multiplie la capacité tampon de notre unité d'acquisition de trafic par des centaines de fois supérieure à celle d'un appareil traditionnel. À débit de transfert constant, la durée maximale des micro-rafales est allongée. Le niveau de la milliseconde supporté par les équipements d'acquisition traditionnels a été amélioré, et la durée de la micro-rafale supportée a été multipliée par des milliers.
Capacité de mise en forme du trafic multi-files d'attente
Technologie de traitement Microburst - une solution basée sur la mise en cache de tampons volumineux et la mise en forme du trafic
Grâce à une mémoire tampon ultra-large, les données de trafic générées par les micro-rafales sont mises en cache, et la technologie de mise en forme du trafic est utilisée dans l'interface sortante pour assurer une sortie fluide des paquets vers l'outil d'analyse. Grâce à cette technologie, le phénomène de perte de paquets causé par les micro-rafales est résolu de manière fondamentale.
Date de publication : 27 février 2024