Blogpost

Explosion des débits : quelle puissance nécessaire pour superviser les réseaux de demain ?

Voici un aperçu de l'une des valeurs fondamentales de NANO Corp, le fondement même sur lequel nous avons bâti notre entreprise. Nous sommes ravis de le partager avec vous.

Florian Thebault
November 22, 2022
Share
LinkedIn LogoX logo

Supervision des réseaux : évolution des enjeux

La supervision des réseaux répond à deux objectifs principaux : le contrôle de la sécurité et le suivi de la qualité de service (tant en matière d’intégrité que de performance). Une des technologies capable de superviser ces éléments est l’analyse de protocoles. Cette technologie, reposant sur des sondes réseau, existe depuis le début des années 2000, période où les débits atteignaient au maximum 1 Gbit/s.

Depuis, les débits ont augmenté de manière quasi-exponentielle :

Dans le domaine professionnel, les débits sont passés de 1 Gbit/s en 2000, à 10 Gbit/s en 2007 puis à 40 Gbit/s en 2010 ; Pour les particuliers, leur débit internet a progressé du 56k au 512k pour passer ensuite à l’ADSL (entre 1 Mbit et 20 Mbit) et enfin à la fibre (entre 200 Mbit et 1 Gbit). Or, la croissance de la puissance de calcul nécessaire à la supervision des réseaux n’a pas suivi le même rythme que celle des débits (croissance linéaire) aboutissant à une forme de décrochage.

Suivre l'augmentation des débits

Comment l’analyse de protocole a tenté de suivre l’explosion des débits au cours des 20 dernières années ?

La multiplication des sondes pourrait être une solution évidente pour faire faire à l’explosion des débits. Mais, garantir une analyse correcte suppose que tous les paquets d’une même session soient traités par une même unité de calcul.

Afin de garantir cette unité des sessions, 3 types de solutions ont été développées :

  1. La parallélisation des traitements qui nécessite de développer de nouvelles puces de parallélisation à chaque augmentation de débit et un code spécifique pour ces puces. Cela rend impossible l’évolution des capacités sans changement de hardware.
  2. L’augmentation de la puissance de calcul qui nécessite de développer de nouvelles puces à chaque augmentation de débit. Cela rend impossible l’évolution des capacités sans changement de hardware.
  3. La multiplication des sondes qui, limitée à certains cas précis, est sujette à des contraintes d’emplacement sur le réseau et peut engendrer des pertes d’informations.

Durant les deux dernières décenies, les travaux de R&D se sont principalement focalisés sur le développement de hardwares hyperspécialisés (FPGA, ASICS, etc.) visant à accroître les performances des sondes.

Chaque augmentation des flux ne peut être rattrapée qu’au moyen d’innovations technologiques majeures développées dans la durée qui expliquent un retard à la fois chronique et “mécanique” entre les sondes “anciennes générations” et des réseaux aux flux toujours plus denses et véloces.

Conséquence de ce décalage structurel, les différentes solutions employées par les industriels entraînent deux inconvénients majeurs. Soit les coûts explosent du fait des investissements en développement hardware pour avoir des sondes plus efficaces, soit l’empreinte au sol en terme d’infrastructure explose du fait de la multiplication du nombre de sondes.

Enfin, multiplier l’empreinte au sol ou alourdir le coût des sondes pour s’adapter aux augmentations des débits demeure une solution par défaut qui se heurte désormais à l’arrivée de la 100G.

100G : changement de paradigme

Aujourd’hui, il n’est ni crédible ni viable de croire à la pérennité de l’analyse de protocole au travers de l’augmentation de la puissance de calcul grâce à un hardware hyperspécialisé. Il n’est également ni sérieux ni viable de l’envisager au travers du déport des sondes loin des cœurs de réseaux. Il faut donc repenser le hardware et le software pour répondre aux défis de demain.

Le maintien dans la course nécessite de changer d’approche : utiliser, de base, les capacités de parallélisation des équipements conventionnels.

Les fabricants des cartes réseau ont placé la parallélisation comme norme (permettant une excellente scalabilité). De ce fait, la performance des sondes ne doit plus être uniquement basée sur la performance du hardware, mais également sur celle du software.

Une démarche fondée sur une librairie indépendante du hardware offre une plus grande liberté vis-à-vis des fournisseurs et garantit un logiciel de qualité.

NANO Corp, la solution d’avenir pour la supervision de vos réseaux

Leur expérience des réseaux et leur certitude d’une croissance prévisible des débits, de 100 Gbit/s aujourd’hui à 400 Gbit/s demain, ont guidé les équipes de NANO Corp : répondre aux enjeux globaux de supervision.

C’est de la parallélisation rendue possible, tant au niveau du hardware que du software, qu’elles sont parties pour aboutir au concept NANO Corp qui offre scalabilité aussi bien verticale qu’horizontale.

Florian Thebault
November 22, 2022
Share
LinkedIn LogoX logo

Prêt à débloquer
la visibilité complète de votre réseau ?

More blog posts

Go to the blog