Contacts

Surveillance et analyse des réseaux. OS - Système d'exploitation. § Guide de l'administrateur système, comprenant une description de l'interface utilisateur du système

27.06.2011 Nate McAlmond

J'ai sélectionné trois candidats : WhatsUp Gold Premium d'Ipswitch, OpManager Professional de ManageEngine et ipMonitor de SolarWinds. Chacun de ces scanners réseau ne coûte pas plus de 3 000 $ (pour 100 appareils), et chacun a une période d'essai pendant laquelle vous pouvez tester gratuitement le produit de votre choix

Je travaille pour une entreprise de taille moyenne et nous utilisons le même système de surveillance de réseau depuis environ sept ans maintenant. Il fournit à nos administrateurs des informations de base sur la disponibilité des serveurs et des services, et envoie également des SMS à nos téléphones portables en cas de problème. Je suis arrivé à la conclusion qu'il est nécessaire de mettre à jour le système, ou au moins d'ajouter un outil efficace qui peut offrir de meilleures performances et fournir des informations détaillées sur la santé des serveurs de terminaux, des systèmes Exchange et des systèmes SQL hébergés sur votre réseau . ... Comparons nos candidats.

Processus de découverte

Pour préparer les tests, la première étape consistait à activer le service SNMP sur tous les appareils, y compris les serveurs Windows. En modifiant les paramètres du service SNMP, je configure un accès en lecture seule sur tous les appareils que le processus de surveillance doit couvrir. Dans les systèmes Serveur Windows 2003/2000 SNMP est installé à l'aide de l'assistant Composants Windows situé dans le volet Ajout/Suppression de programmes, et sur Windows Server 2008, les composants SNMP sont ajoutés à l'aide de l'assistant Gestionnaire de serveur. Après avoir terminé l'assistant, vous devez lancer le composant logiciel enfichable Services situé dans le dossier Panneau de configuration et configurer le service SNMP — c'est facile. Les périphériques réseau gérés tels que les pare-feu, les commutateurs, les routeurs et les imprimantes disposent également d'une gestion des services SNMP, et le processus de configuration est généralement assez simple. Pour plus d'informations sur SNMP, consultez le protocole de gestion de réseau simple (technet.microsoft.com/en-us/library/bb726987.aspx).

Ensuite, j'ai installé les trois systèmes de surveillance sur l'un de mes deux systèmes de travail avec Windows XP SP3. Une fois installé, chaque système se composait de deux parties : une base de données et un serveur Web. Chacun des systèmes sélectionnés peut être géré via l'interface Web par plusieurs administrateurs, et vous avez la possibilité de configurer des comptes avec différents niveaux d'accès. Le point commun aux trois systèmes est que chaque utilisateur a la possibilité d'ajouter, de supprimer et de déplacer des panneaux dans son espace de travail. Les panneaux affichent des données du même type, telles que la charge CPU ou l'utilisation de la mémoire pour différents périphériques sur le réseau.

Avant de lancer l'analyse du réseau (appelée processus de découverte), j'ai défini les paramètres de compte que chaque système doit utiliser pour accéder aux périphériques découverts sur le réseau. Comme indiqué dans le tableau de comparaison, Ipswitch WhatsUp Gold Premium vous permet de configurer un compte pour les services SNMP, WMI, Telnet, SSH, ADO et VMware. ManageEngine OpManager Professional prend en charge SNMP, WMI, Telnet, SSH et URL, tandis que SolarWinds ipMonitor prend en charge SNMP, WMI et URL.

Après avoir configuré le service SNMP pour Périphériques réseau ah et comptes (Windows et SNMP) pour chacun des systèmes de surveillance réseau, j'ai commencé le processus de découverte d'une plage d'adresses IP dans mon réseau local. Tous les systèmes ont détecté environ 70 appareils. En utilisant les paramètres d'analyse par défaut, les systèmes testés ont bien réussi à identifier les types d'appareils et ont fourni des informations détaillées sur l'état des appareils. Les trois systèmes contiennent des capteurs pour les performances de base des périphériques et des serveurs, telles que l'utilisation du processeur, l'utilisation de la mémoire, l'utilisation / la plénitude du disque, la perte / la latence de paquets, l'état des services Exchange, Lotus, Active Directory et tous les services Windows. Chacun des systèmes avait la possibilité d'ajouter des capteurs à la fois pour des appareils individuels et pour de grands groupes d'appareils.

OpManager et WhatsUp Gold disposent d'une interface pour identifier et collecter les événements de service VMware à partir des serveurs et des invités. De plus, les deux produits disposent d'une fonction d'interrogation du gestionnaire de port de commutateur qui indique quels périphériques sont connectés à différents ports sur les commutateurs gérés. Les informations obtenues vous aideront à déterminer quel port du commutateur se connecte à une application métier particulière, sans avoir besoin de tracer manuellement les câbles dans salles de serveurs... À l'avenir, vous pourrez configurer des alertes pour des ports de commutateur spécifiques. Lorsque vous travaillez avec le package OpManager, pour obtenir les résultats de l'interrogation des ports, sélectionnez simplement le commutateur et exécutez l'outil Switch Port Mapper - le système renverra les résultats en quelques secondes. Un outil similaire inclus avec WhatsUp Gold s'appelle MAC Address et doit être exécuté avec l'option Get Connectivity cochée. WhatsUp Gold prend plus de temps pour obtenir un résultat car il essaie d'analyser les appareils et de collecter des informations sur les connexions sur l'ensemble du réseau.

Ipswitch WhatsUp Gold Premium

Ipswitch WhatsUp Gold Premium
PAR:
fournit les résultats les plus précis parmi trois concurrents, vous permet de créer vos propres capteurs, fournit des outils de surveillance complets pour les systèmes VMware, s'intègre à AD.
CONTRE: moins de capteurs intégrés et un coût plus élevé par rapport aux concurrents (si vous achetez une licence pour moins de 500 appareils).
NOTER: 4,5 sur 5.
LE PRIX: 7495$ pour 500 appareils, 2695$ pour 100 appareils, 2195$ pour 25 appareils.
RECOMMANDATIONS: Je recommande WhatsUp Gold aux services informatiques desservant de grands environnements VMware ou cherchant à créer leurs propres capteurs.
INFORMATIONS DE CONTACT: Ipswitch, www.ipswitch.com

Lorsque je travaillais avec les systèmes IpMonitor et OpManager, je tombais de temps en temps sur des lectures incompréhensibles qui me déconcertaient. Dans le système IpMonitor, les tableaux de bord pouvaient afficher des valeurs négatives lorsque la charge du processeur était considérablement réduite. Dans un autre cas, lorsque la charge du processeur était proche de zéro, le système IpMonitor m'a envoyé une notification indiquant que le processeur était utilisé à 11,490% ! Le système OpManager, en suivant et en m'envoyant les informations correctes sur l'utilisation du disque des contrôleurs de domaine, n'a dans certains cas inclus aucun des contrôleurs dans la liste des 10 serveurs avec l'utilisation maximale de l'espace disque. Dans le même temps, le panneau adjacent a annoncé qu'un de mes contrôleurs de domaine ne devrait même pas être dans les dix premiers, mais dans les trois premiers. Lors de l'utilisation de WhatsUp Gold, je n'ai pas rencontré de telles situations. WhatsUp Gold surveille l'utilisation du cœur du processeur dans ses tableaux de bord, et lorsque j'ai comparé les résultats des tableaux de bord WhatsUp Gold à l'Analyseur de performances Windows, ils correspondaient exactement pour chaque cœur. De même, les informations sur l'utilisation du disque dur ont été correctement signalées à toutes les applications pertinentes dans l'espace de travail.

WhatsUp Gold dispose d'une bibliothèque de capteurs intégrée qui vous permet de créer de nouveaux capteurs à partir de ceux existants. Les grandes organisations peuvent trouver cette fonctionnalité utile car elle vous permet de créer des ensembles uniques de capteurs pour surveiller différents types d'appareils - le moyen le plus efficace de configurer des capteurs pour un groupe d'appareils.

WhatsUp Gold n'a pas de capteurs pour les fabricants d'appareils individuels (à l'exception du capteur pour les alimentations APC UPS), contrairement à la suite OpManager, qui utilise ses propres capteurs pour les appareils Dell, HP et IBM, mais il vous permet de créer des capteurs comme Script actif. Ce type vous permet de développer vos propres processus de surveillance à l'aide des langages de programmation VBScript et JScript. Les capteurs Active Script disposent d'un centre d'assistance en ligne où les utilisateurs de WhatsUp Gold peuvent récupérer et télécharger des scripts prédéfinis.

La seule amélioration que je voudrais ajouter à WhatsUp Gold est l'interface (Figure 1), principalement parce qu'elle est trop linéaire. Par exemple, il faudra jusqu'à 5 clics sur les boutons Annuler et Fermer pour revenir de la fenêtre Active Monitor Library à l'espace de travail. Aussi, le système WhatsUp Gold manque d'un capteur (à moins, bien sûr, que vous l'écriviez manuellement) qui vérifie l'état du site, et cela peut être nécessaire, notamment dans les cas où le site est hébergé sur un serveur tiers et là n'y a pas d'autres moyens d'y accéder.


Figure 1 : L'interface Premium de WhatsUp Gold

Pour gérer les situations où les appareils sont inactifs depuis un certain temps, vous pouvez configurer des notifications à envoyer toutes les 2, 5 et 20 minutes. De cette façon, vous pouvez attirer l'attention de l'administrateur sur l'absence de réponses des nœuds critiques pendant un certain temps.

WhatsUp Gold est le seul système en cours d'examen qui a la capacité de s'intégrer dans un environnement LDAP - cela peut être crucial lors du choix d'une solution pour les grands réseaux.

ManageEngine OpManager

ManageEngine OpManager
PAR:
la meilleure interface utilisateur parmi les trois produits ; plus de capteurs intégrés que les deux autres systèmes ; le prix le plus bas lors de l'achat d'une licence pour 50 appareils ou moins.
CONTRE: pendant les tests, tous les indicateurs d'appareil n'étaient pas affichés correctement ; le débogage peut prendre un certain temps pour rendre le système pleinement fonctionnel.
NOTER: 4,5 sur 5.
LE PRIX: 1995 $ pour 100 appareils, 995 $ pour 50 appareils, 595 $ pour 25 appareils.
RECOMMANDATIONS : Les services informatiques cherchant à tirer le meilleur parti de la boîte (hors intégration AD) apprécieront OpManager Professional. Lorsque vous achetez des licences dans la gamme d'appareils 26-50, cela coûte près de la moitié du prix des deux autres produits.
INFORMATIONS DE CONTACT: ManageEngine, www.manageengine.com

Après avoir installé OpManager, j'ai trouvé qu'il était facile à configurer avec une myriade de fonctionnalités et qu'il était facile de naviguer entre elles. OpManager a la capacité d'envoyer (avec des e-mails et des SMS) des messages directs à votre compte Twitter - une alternative intéressante à l'e-mail. Utiliser les comptes Twitter de cette manière me permet de me tenir au courant de ce qui se passe sur le réseau, mais comme mon téléphone ne sonne pas lorsque les messages sont envoyés depuis le système Twitter, je souhaite simultanément recevoir des notifications par SMS sur les événements les plus importants. Je peux afficher les informations de seuil sur n'importe quel serveur à l'aide de messages Twitter et ainsi avoir un journal des événements en cours sur le réseau, mais il n'est pas nécessaire d'utiliser ce schéma pour envoyer des alertes sur des situations critiques.

En plus des capteurs standard, OpManager propose des technologies de surveillance des performances SNMP développées par des fournisseurs pour des périphériques tels que Dell Power-Edge, HP Proliant et IBM Blade Center. OpManager peut également être intégré à l'API Google Maps, vous pouvez donc ajouter vos appareils à la carte Google. Cependant, pour cela, vous devrez acheter un compte entrée google Maps API Premium (sauf si vous envisagez de rendre votre carte accessible au public) sous réserve des conditions de licence de la version gratuite du système Google Maps API.

Pour gérer les situations où un administrateur reçoit une alerte mais n'y répond pas dans un délai spécifié, OpManager peut être configuré pour envoyer une alerte supplémentaire à un autre administrateur. Par exemple, un employé généralement responsable de la gestion des événements critiques pour un groupe particulier de serveurs peut être occupé ou malade. Dans un tel cas, il est judicieux de configurer un avertissement supplémentaire qui attirera l'attention d'un autre administrateur si le premier avertissement n'a pas été consulté ou effacé dans un nombre d'heures/minutes spécifié.

Parmi les trois produits considérés, seul le système OpManager comportait une partie destinée à surveiller la qualité des échanges VoIP en réseau mondial... Pour utiliser les outils de surveillance VoIP, les appareils des réseaux source et de destination doivent prendre en charge la technologie Cisco IP SLA. De plus, le système OpManager, comme le montre la figure 2, comprend plus de capteurs et de tableaux de bord que tout autre produit concurrent.


Figure 2 : Interface professionnelle d'OpManager

SolarWinds ipMonitor

SolarWinds ipMonitor
PAR:
nombre illimité d'appareils à un prix très bas ; facilité d'utilisation.
CONTRE: il n'y a pas de mécanisme de coordination des actions des administrateurs.
NOTER: 4 sur 5.
LE PRIX: 1995 $ - le nombre d'appareils n'est pas limité (25 capteurs sont gratuits).
RECOMMANDATIONS : Si votre budget est serré et que vous devez surveiller un grand nombre d'appareils, si le processus de surveillance ne nécessite pas de solutions complexes et qu'une approche hors système pour coordonner les actions des administrateurs vous convient, le système SolarWinds est votre choix.
INFORMATIONS DE CONTACT: SolarWinds, www.solarwinds.com

Après ma première introduction à ipMonitor, l'interface illustrée à la figure 3 m'a dérouté. Il m'a fallu presque une éternité pour trouver un endroit où la fréquence de vérification du système de capteurs individuels du système est configurée (par défaut, le sondage était effectué toutes les 300 secondes). Cependant, après avoir utilisé ipMonitor pendant plusieurs semaines, j'ai trouvé que ce système est extrêmement facile à utiliser et a des capacités suffisantes pour une surveillance réseau de haute qualité. À l'aide d'ipMonitor, vous pouvez configurer l'analyse par défaut afin que tout paramètre de service ou de performance soit toujours inclus dans les futures analyses. En plus des capteurs standard (et nommés ci-dessus), ipMonitor propose un capteur de journal des événements Windows qui peut être utilisé pour envoyer des alertes lorsque des événements critiques sont détectés.


Figure 3 Interface SolarWinds ipMonitor

D'autre part, ipMonitor ne dispose pas de mécanismes de suivi/attribution de destinations d'alerte. Peu importe que l'entreprise dispose d'un administrateur réseau, mais les services informatiques plus importants sont susceptibles de considérer l'incapacité du système à accuser réception des alertes, à affecter des destinataires et à réinitialiser les alertes comme un inconvénient majeur. Si les administrateurs oublient de se coordonner en dehors du système, il est possible que plusieurs administrateurs reçoivent le même avertissement et commencent à travailler sur le même problème. Cependant, pour résoudre de tels conflits, il suffit de développer un algorithme cohérent pour répondre aux alertes - par exemple, si la responsabilité des périphériques réseau est répartie entre les administrateurs, il n'y aura aucune question sur qui devrait prendre en charge la solution d'un problème particulier. problème.

Il est temps de prendre une décision

J'ai déjà décidé moi-même lequel des trois produits est le plus adapté à mon environnement. J'ai opté pour ManageEngine OpManager avec une licence de 50 appareils pour plusieurs raisons.

Tout d'abord, je dois être capable de suivre autant de paramètres de mon environnement que possible, car c'est le meilleur moyen d'éviter les pannes inattendues. Dans ce domaine, le système OpManager est définitivement en avance sur la concurrence. La deuxième raison est budgétaire. Je peux continuer à utiliser nos anciens outils de surveillance on/off des postes de travail et des imprimantes et ainsi éviter le coût des licences supplémentaires. Enfin, j'ai vraiment aimé l'approche adoptée par ManageEngine pour développer OpManager pour tirer parti de la nouvelle technologie, et je pense que cela vaut la peine d'investir dans un package annuel de maintenance et de support pour télécharger les mises à jour au fur et à mesure que le produit se développe.

Nate McAlmond ( [email protégé]) - Directeur informatique d'une agence de services sociaux, MCSE, Sécurité et Réseau +, spécialisé dans les solutions clients légers et les bases de données médicales



Nom d'origine: Un résumé des techniques de surveillance et d'analyse du trafic réseau

Lien vers le texte original : http://www.cse.wustl.edu/~jain/cse567-06/ftp/net_monitoring/index.html

Recommandations : la traduction présentée n'est pas professionnelle. Il peut y avoir des écarts par rapport au texte, une interprétation incorrecte de certains termes et concepts, l'opinion subjective du traducteur. Toutes les illustrations ont été incluses dans la traduction sans modifications.

Alisha Cecil

Présentation des méthodes d'analyse et de surveillance du trafic réseau

Alors que les intranets privés continuent de se développer, il est impératif que les administrateurs réseau connaissent et soient capables de gérer manuellement les différents types de trafic qui transitent par leurs réseaux. La surveillance et l'analyse du trafic sont nécessaires pour diagnostiquer et résoudre plus efficacement les problèmes lorsqu'ils surviennent, empêchant ainsi les services réseau de rester inactifs pendant de longues périodes. Il existe de nombreux outils différents disponibles pour aider les administrateurs à surveiller et à analyser le trafic réseau. Cet article traite des méthodes de surveillance orientées routeur et des méthodes de surveillance non orientées routeur (méthodes actives et passives). Cet article fournit un aperçu des trois méthodes de surveillance de réseau disponibles et les plus largement utilisées intégrées aux routeurs (SNMP, RMON et Cisco Netflow) et fournit des informations sur deux nouvelles méthodes de surveillance qui utilisent une combinaison de méthodes de surveillance passive et active (WREN et SCNM) .

1. L'importance de la surveillance et de l'analyse du réseau

La surveillance du réseau (surveillance du réseau) est une tâche complexe et exigeante en main-d'œuvre qui constitue une partie essentielle du travail des administrateurs réseau. Les administrateurs s'efforcent continuellement d'assurer le bon fonctionnement de leur réseau. Si le réseau tombe en panne, même pour une courte période, la productivité de l'entreprise diminuera et (dans le cas des fournisseurs de services publics) la capacité même de fournir des services de base sera compromise. Par conséquent, les administrateurs doivent surveiller le trafic et les performances du réseau sur l'ensemble du réseau et rechercher les failles de sécurité.

2. Méthodes de suivi et d'analyse

« L'analyse du réseau est le processus de capture du trafic réseau et de son examen rapide pour déterminer ce qui est arrivé au réseau. » - Angela Orebauch. Les sections suivantes traitent de deux méthodes de surveillance du réseau, la première est orientée routeur et la seconde n'est pas orientée routeur. Les fonctionnalités de surveillance intégrées aux routeurs eux-mêmes et ne nécessitant pas d'installation logicielle ou matérielle supplémentaire sont appelées méthodes basées sur les routeurs. Les méthodes non basées sur un routeur nécessitent une installation matérielle et logicielle et offrent une grande flexibilité. Les deux techniques sont décrites ci-dessous dans leurs sections respectives.

2.1. Méthodes de surveillance basées sur un routeur

Les méthodes de surveillance basées sur les routeurs sont codées en dur dans les routeurs et ont donc peu de flexibilité. Une brève description des méthodes de surveillance les plus couramment utilisées est donnée ci-dessous. Chaque méthode a évolué au fil des années avant de devenir une méthode de suivi standardisée.

2.1.1. Protocole simple de surveillance de réseau (SNMP) RFC 1157

SNMP est un protocole de couche application qui fait partie du protocole TCP/IP. Il permet aux administrateurs de gérer les performances du réseau, de rechercher et de résoudre les problèmes de réseau et de planifier la croissance du réseau. Il collecte des statistiques de trafic vers l'hôte final via des capteurs passifs implémentés avec le routeur. Bien qu'il existe deux versions (SNMPv1 et SNMPv2), cette section ne décrit que SNMPv1. SNMPv2 s'appuie sur SNMPv1 et offre un certain nombre d'améliorations telles que l'ajout d'opérations de protocole. Une autre version SNMP est en cours de standardisation. La version 3 (SNMPv3) est à l'étude.

Pour le protocole SNMP a trois composants clés : les périphériques gérés ( Périphériques gérés), Agents ) et les systèmes de gestion de réseau ( Systèmes de gestion de réseau - NEM). Ils sont représentés sur la Fig. un.

Riz. 1. Composants SNMP

Les périphériques gérés incluent un agent SNMP et peuvent être composés de routeurs, de commutateurs, de commutateurs, de concentrateurs, d'ordinateurs personnels, d'imprimantes et d'autres éléments de ce type. Ils sont chargés de collecter les informations et de les mettre à disposition du système de gestion de réseau (NMS).

Les agents incluent un logiciel qui détient les informations de gestion et traduit ces informations sous une forme compatible SNMP. Ils sont fermés au dispositif de commande.

Les systèmes de gestion de réseau (NMS) exécutent des applications qui surveillent et contrôlent les dispositifs de gestion. Les ressources processeur et mémoire nécessaires à la gestion du réseau sont fournies par le NMS. Pour tout réseau géré, au moins un système de contrôle doit être créé. SNMP peut agir exclusivement en tant que NMS, ou agent, ou il peut remplir ses fonctions, etc.

Il existe 4 commandes principales utilisées par SNMP NMS pour surveiller et contrôler les périphériques gérés : opérations de lecture, d'écriture, d'interruption et de traversée. L'opération de lecture examine les variables stockées par les périphériques gérés. La commande d'écriture modifie les valeurs des variables stockées par les appareils contrôlés. Les opérations d'intersection contiennent des informations sur les variables des dispositifs contrôlés qui sont prises en charge et collectent des informations à partir des tables de variables prises en charge. L'opération d'interruption est utilisée par les périphériques gérés pour informer le NMS de l'occurrence de certains événements.

SNMP utilise 4 opérations de protocole dans l'ordre d'action : Get, GetNext, Set et Trap. La commande Get est utilisée lorsque NMS émet une demande d'informations pour les périphériques gérés. Une requête SNMPv1 se compose d'un en-tête de message et d'une unité de données de protocole (PDU). Le message PDU contient les informations nécessaires pour terminer avec succès la demande, qui recevra des informations de l'agent ou définira une valeur dans l'agent. Le dispositif géré utilise des agents SNMP qui s'y trouvent pour obtenir les informations nécessaires, puis envoie un message au NMS "y", avec une réponse à la requête. Si l'agent ne possède aucune information relative à la requête, il ne renvoyer quoi que ce soit. La commande GetNext recevra la valeur de ce qui suit Il est également possible pour le NMS d'envoyer une demande (opération Set) lorsque la valeur des éléments sans agent est définie. Lorsque l'agent a besoin de signaler des événements NMS, il utilisera l'opération Piège.

Comme indiqué précédemment, SNMP est un protocole de couche application qui utilise des capteurs passifs pour aider un administrateur à surveiller le trafic réseau et les performances du réseau. Alors que SNMP peut être un outil utile pour l'administrateur réseau, il crée un potentiel de risques de sécurité car il manque de capacités d'authentification. Il diffère de la surveillance à distance (RMON), qui est abordée dans la section suivante, en ce que RMON fonctionne au niveau de la couche réseau et en dessous, plutôt que de la couche application.

2.1.2. Surveillance à distance (RMON), RFS 1757

RMON comprend divers moniteurs de réseau et systèmes de console pour modifier les données obtenues lors de la surveillance du réseau. Il s'agit d'une extension de la base de données d'informations de gestion SNMP (MIB). Contrairement à SNMP, qui doit envoyer des demandes d'informations, RMON peut configurer des signaux qui « surveilleront » le réseau en fonction de certains critères. RMON offre aux administrateurs la possibilité de gérer des réseaux locaux ainsi qu'à distance à partir d'un emplacement/point spécifique. Ses moniteurs pour la couche réseau sont indiqués ci-dessous. RMON a deux versions RMON et RMON2. Cependant, cet article ne parle que de RMON. RMON2 permet la surveillance à tous les niveaux du réseau. Il se concentre sur le trafic IP et applicatif.

Bien qu'il existe 3 composants clés d'un environnement de surveillance RMON, seuls deux d'entre eux sont répertoriés ici. Ils sont représentés sur la Fig. 2 ci-dessous.


Riz. 2. Composants RMON

Les deux composants de RMON sont un capteur, également appelé agent ou moniteur, et un client, également appelé station de gestion. Contrairement à SNMP, un capteur ou un agent RMON collecte et stocke des informations sur le réseau. Un capteur est un logiciel intégré à un périphérique réseau (tel qu'un routeur ou un commutateur). Le capteur peut également être exécuté sur un ordinateur personnel. Le capteur doit être placé pour chaque segment LAN ou WAN différent, car ils sont capables de voir le trafic qui ne passe que par leurs liens, mais ils ne sont pas conscients du trafic au-delà de leurs frontières. Le client est généralement une station de gestion qui communique avec un capteur qui utilise SNMP pour recevoir et corriger les données RMON.

RMON utilise 9 groupes de surveillance différents pour obtenir des informations sur le réseau.

  • Statistiques - statistiques mesurées par le capteur pour chaque interface de surveillance pour cet appareil.
  • Historique - compte des échantillons statistiques périodiques du réseau et les stocke pour la recherche.
  • Alarme - prend périodiquement des échantillons statistiques et les compare à un ensemble de valeurs seuil pour générer un événement.
  • Hôte - Contient les statistiques associées à chaque hôte trouvé sur le réseau.
  • HostTopN - Prépare les tableaux qui décrivent le haut des hôtes (hôte maître).
  • Filtres - Active le filtrage de paquets basé sur une équation de filtre pour capturer les événements.
  • Capture de paquets - capture des paquets après leur passage dans le canal.
  • Événements - contrôle de la génération et de l'enregistrement des événements à partir de l'appareil.
  • Anneau à jetons - prise en charge des jetons d'anneau.

Comme indiqué ci-dessus, RMON est construit sur le protocole SNMP. Bien que la surveillance du trafic puisse être effectuée à l'aide de cette méthode, les informations analytiques obtenues par SNMP et RMON ont des performances médiocres. L'utilitaire Netflow, qui est décrit dans la section suivante, fonctionne avec succès avec de nombreux progiciels d'analyse pour rendre le travail de l'administrateur beaucoup plus facile.

2.1.3. Netflow, RFS 3954

Netflow est une extension introduite dans les routeurs Cisco qui permet de collecter le trafic réseau IP si cela est spécifié dans l'interface. En analysant les données fournies par Netflow, l'administrateur réseau peut déterminer des éléments tels que : la source et la destination du trafic, la classe de service, les raisons de la surpopulation. Netflow comprend 3 composants : FlowCaching (flux de mise en cache), FlowCollector (collecteur d'informations sur les flux) et Data Analyzer (analyseur de données). Riz. 3 montre le framework Netflow. Chaque composant montré dans la figure est expliqué ci-dessous.


Riz. 3. Infrastructure NetFlow

FlowCaching analyse et collecte des données sur les flux IP qui entrent dans l'interface et transforme les données pour l'exportation.

Les informations suivantes peuvent être obtenues à partir des packages Netflow :

  • Adresse source et destination.
  • Le numéro du périphérique entrant et sortant.
  • Numéro de port source et de destination.
  • Protocole de couche 4.
  • Le nombre de paquets dans le flux.
  • Le nombre d'octets dans le flux.
  • Horodatage dans le flux.
  • Le numéro du système autonome (AS) de la source et de la destination.
  • Type de service (ToS) et indicateur TCP.

Le premier paquet d'un flux qui passe par le chemin de saut standard est traité pour créer un cache. Des paquets avec des caractéristiques de flux similaires sont utilisés pour créer un enregistrement de flux qui est mis en cache pour tous les flux actifs. Cette entrée enregistre le nombre de paquets et le nombre d'octets dans chaque flux. Les informations mises en cache sont ensuite périodiquement exportées vers le collecteur de flux.

Flow Collector est responsable de la collecte, du filtrage et du stockage des données. Il comprend un historique des informations sur les flux qui ont été connectés à l'aide de l'interface. La réduction du volume de données se fait également à l'aide du Flow Collector, et à l'aide des filtres sélectionnés et de l'agrégation.

L'analyseur de données est essentiel lorsque vous devez présenter des données. Comme le montre la figure, les données collectées peuvent être utilisées à diverses fins, même autres que la surveillance du réseau, telles que la planification, la comptabilité et la construction d'un réseau.

L'avantage de Netflow par rapport aux autres méthodes de surveillance, telles que SNMP et RMON, est qu'il dispose de progiciels conçus pour diverses analyses de trafic, qui existent pour recevoir les données des paquets Netflow et les présenter sous une forme plus conviviale.

Lorsque vous utilisez des outils tels que Netflow Analyzer (ce n'est qu'un outil disponible pour analyser les paquets Netflow), les informations ci-dessus peuvent être obtenues à partir des paquets Netflow pour créer des graphiques et des graphiques réguliers, qu'un administrateur peut étudier pour mieux comprendre son réseau. Le plus grand avantage de l'utilisation de Netflow, contrairement aux packages analytiques disponibles, est que dans ce cas, de nombreux graphiques peuvent être construits pour décrire l'activité du réseau à un moment donné.

2.2. Technologies sans routeur

Bien que les technologies non intégrées à un routeur soient encore limitées dans leurs capacités, elles offrent plus de flexibilité que les technologies intégrées aux routeurs. Ces méthodes sont classées comme actives et passives.

2.2.1. Surveillance active

La surveillance active signale les problèmes de réseau en collectant des mesures entre deux points de terminaison. Le système de comptage actif traite des métriques telles que : utilitaire, routeurs/routes, délai de paquets, relance de paquets, perte de paquets, synchronisation erratique entre les arrivées, mesure de bande passante.

Principalement l'utilisation d'outils tels que la commande ping, qui mesure la latence et la perte de paquets, et traceroute, qui aide à déterminer la topologie du réseau, sont des exemples d'outils de mesure actifs de base. Ces deux outils envoient des paquets de sonde ICMP à la destination et attendent que cette destination réponde à l'expéditeur. Riz. 4 est un exemple de commande ping qui utilise une méthode de mesure active en envoyant une demande d'écho d'une source sur le réseau à un point de consigne. Le récepteur renvoie ensuite une demande d'écho à la source d'où provient la demande.


Riz. 4. commande ping (mesure active)

Cette méthode peut non seulement collecter des métriques uniques sur la dimension active, mais peut également déterminer la topologie du réseau. Un autre exemple important de mesure active est l'utilitaire iperf. Iperf est un utilitaire qui mesure la qualité de la bande passante des protocoles TCP et UDP. Il signale la bande passante du lien, la latence existante et la perte de paquets.

Le problème qui existe avec la surveillance active est que les échantillons soumis sur le réseau peuvent interférer avec le trafic normal. Souvent, les sondes actives sont gérées différemment du trafic normal, ce qui remet en question la validité des informations fournies par ces sondes.

Selon les informations générales décrites ci-dessus, la surveillance active est une méthode de surveillance extrêmement rare prise isolément. La surveillance passive, en revanche, ne nécessite pas de coûts de réseau importants.

2.2.2. Surveillance passive

La surveillance passive, contrairement à la surveillance active, n'ajoute pas de trafic sur le réseau et ne modifie pas le trafic déjà existant sur le réseau. De plus, contrairement à la surveillance active, passive collecte des informations sur un seul point du réseau. Les mesures sont bien meilleures qu'entre deux points avec une surveillance active. Riz. La figure 5 montre une configuration de système de surveillance passive dans laquelle un moniteur est placé sur un seul lien entre deux points de terminaison et surveille le trafic lorsqu'il traverse le lien.


Riz. 5. Installation de surveillance passive

Les mesures passives traitent des informations telles que le trafic et la combinaison de protocoles, le nombre de bits (débit), la synchronisation des paquets et le temps entre les arrivées. La surveillance passive peut être effectuée à l'aide de n'importe quel programme d'extraction de paquets.

Bien que la surveillance passive n'ait pas les mêmes coûts que la surveillance active, elle a ses inconvénients. Avec la surveillance passive, les mesures ne peuvent être analysées que hors ligne et ne représentent pas une collection. Cela crée un problème dans la gestion des grands ensembles de données qui sont collectés pendant la mesure.

La surveillance passive peut être meilleure que la surveillance active dans la mesure où les données de signalisation ne sont pas ajoutées au réseau, mais le post-traitement peut prendre du temps. C'est pourquoi il existe une combinaison de ces deux méthodes de surveillance.

2.2.3. Surveillance combinée

Après avoir lu les sections ci-dessus, vous pouvez conclure en toute sécurité que combiner la surveillance active et passive est un meilleur moyen que d'utiliser la première ou la seconde séparément. Les technologies combinées tirent parti à la fois de la surveillance passive et active des médias. Deux nouvelles technologies représentant des technologies de surveillance combinées sont décrites ci-dessous. Il s'agit de View Resources at End of the Network (WREN) et de Custom Configured Network Monitor (SCNM).

2.2.3.1. Afficher les ressources à la fin du réseau (WREN)

WREN utilise une combinaison de techniques de surveillance active et passive, traitant activement les données lorsque le trafic est faible et traitant passivement les données pendant les périodes de trafic élevé. Il examine le trafic à la fois de la source et de la destination, ce qui permet des mesures plus précises. WREN utilise le traçage des paquets à partir du trafic généré par l'application pour mesurer la bande passante utilisable. WREN est divisé en deux couches : la couche principale de traitement rapide des paquets et l'analyseur de trace au niveau de l'utilisateur.

La principale couche de traitement rapide des paquets est chargée de recevoir les informations relatives aux paquets entrants et sortants. Riz. 6 montre une liste d'informations qui sont collectées pour chaque paquet. Un tampon est ajouté au Web100 pour collecter ces caractéristiques. Le tampon est accessible à l'aide de deux appels système. Un appel démarre une trace et fournit les informations nécessaires pour la collecter, tandis qu'un deuxième appel renvoie une trace du noyau.

Riz. 6. Informations collectées au niveau principal des traces de paquets

Objet de trace de paquet- capable de coordonner les calculs entre différentes machines. Une machine réveillera une autre machine en définissant un indicateur dans l'en-tête du paquet sortant pour commencer à traiter une plage de paquets qu'elle trace. L'autre machine tracera à son tour tous les paquets pour lesquels elle voit qu'un indicateur similaire est défini dans l'en-tête. Cette coordination garantit que les informations sur des paquets similaires sont stockées à chaque point de terminaison, indépendamment de la communication et de ce qui se passe entre eux.

L'analyseur de traces personnalisé est une autre couche de l'environnement WREN. Il s'agit d'un composant qui commence à tracer n'importe quel paquet, collecte et traite les données renvoyées au niveau du noyau de l'opérateur. De par leur conception, les composants de niveau utilisateur n'ont pas besoin de lire les informations d'un objet de trace de paquet à tout moment. Ils peuvent être analysés immédiatement après la fin de la trace pour fournir une conclusion en temps réel, ou les données peuvent être enregistrées pour une analyse plus approfondie.

Lorsque le trafic est faible, WREN injectera activement du trafic dans le réseau tout en maintenant l'ordre des flux de mesure. Après de nombreuses études, il a été constaté que WREN présente des mesures similaires dans des environnements sursaturés et non sursaturés.

Dans la mise en œuvre actuelle de WREN, les utilisateurs ne sont pas obligés de simplement capturer les traces qu'ils ont initiées. Bien que n'importe quel utilisateur puisse surveiller le trafic des applications d'autres utilisateurs, ils sont limités dans les informations pouvant être obtenues à partir des traces d'autres utilisateurs. Ils ne peuvent recevoir que la séquence et la confirmation des numéros, mais ils ne peuvent pas recevoir les segments de données réels des paquets.

Dans l'ensemble, WREN est une configuration très utile qui tire parti à la fois de la surveillance active et passive. Bien que cette technologie en soit à ses premiers stades de développement, WREN peut fournir aux administrateurs des ressources utiles pour surveiller et analyser leurs réseaux. Le moniteur de réseau à configuration automatique (SCNM) est une autre boîte à outils qui utilise à la fois des technologies de surveillance active et passive.

2.2.3.2. Moniteur réseau auto-configuré (SCNM)

SCNM est un outil de surveillance qui utilise une liaison de mesure passive et active pour collecter des informations sur la pénétration de niveau 3, les routeurs sortants et d'autres points de surveillance réseau importants. L'environnement SCNM comprend à la fois des composants matériels et logiciels.

Le matériel est installé aux points critiques du réseau. Il est responsable de la collecte passive des en-têtes de paquets. Le logiciel s'exécute sur le point de terminaison du réseau. Riz. 7 ci-dessous montre le composant logiciel de l'environnement SCNM.


Riz. 7. Composant logiciel SCNM

Le logiciel est responsable de la création et de l'envoi packages activés qui sont utilisés pour démarrer la surveillance du réseau. Les utilisateurs enverront des packages d'activation au réseau contenant les détails des packages qu'ils souhaitent recevoir pour la surveillance et la collecte. Les utilisateurs n'ont pas besoin de connaître l'emplacement de l'hôte SCNM, en supposant que tous les hôtes sont ouverts au reniflage de paquets. Sur la base des informations qui existent dans le package d'activation, le filtre est placé dans le flux de collecte de données, qui fonctionne également au niveau du point de terminaison... Les en-têtes des paquets de couche réseau et transport sont collectés et correspondent au filtre. Le filtre expirera automatiquement après le délai spécifié s'il reçoit d'autres paquets d'application. Le service d'échantillonnage de paquets, qui s'exécute sur un hôte SCNM, utilise la commande tcpdump (similaire à un programme d'échantillonnage de paquets) dans l'ordre des demandes reçues et enregistre le trafic correspondant à la demande.

Lorsqu'un problème est identifié avec des outils de surveillance passive, le trafic peut être généré à l'aide d'outils de surveillance active, ce qui permet de collecter des données supplémentaires pour une étude plus détaillée du problème. En déployant ce moniteur sur le réseau sur chaque routeur en cours de route, nous ne pouvons examiner que les sections du réseau qui ont des problèmes.

SCNM est destiné à être installé et utilisé principalement par des administrateurs. Néanmoins, les utilisateurs réguliers peuvent utiliser certaines de ces fonctionnalités. Alors que les utilisateurs ordinaires peuvent utiliser des parties de l'environnement de surveillance SCNM, ils ne sont autorisés à afficher que leurs propres données.

En conclusion, SCNM est une autre technique de surveillance combinée qui utilise à la fois des méthodes actives et passives pour aider les administrateurs à surveiller et à analyser leurs réseaux.

3. Conclusion

Lors de la sélection des outils propriétaires à utiliser pour la surveillance du réseau, l'administrateur doit d'abord décider s'il souhaite utiliser des systèmes bien établis qui sont utilisés depuis de nombreuses années ou de nouveaux. Si les systèmes existants sont une solution plus appropriée, alors NetFlow est l'outil le plus utile à utiliser, car les paquets de données analysés peuvent être utilisés en conjonction avec cet utilitaire pour présenter les données d'une manière plus conviviale. Cependant, si un administrateur est prêt à essayer un nouveau système, des solutions de surveillance combinées telles que WREN ou SCNM sont la meilleure direction pour aller de l'avant.

Suivi et analyse du réseau - vital pour le travail administrateur du système... Les administrateurs doivent essayer de maintenir leur réseau en ordre, à la fois pour des performances non ségréguées au sein de l'entreprise et pour la communication avec les services publics existants. Comme décrit ci-dessus, un certain nombre de technologies basées sur un routeur et des technologies non basées sur un routeur conviennent pour aider les administrateurs réseau à surveiller et à analyser leurs réseaux au quotidien. Il décrit brièvement SNMP, RMON et NetFlow de Cisco - un exemple de plusieurs technologies basées sur un routeur. Les exemples de technologies non basées sur un routeur abordés dans cet article sont la surveillance active et passive et une combinaison des deux.

La gestion et la surveillance de l'infrastructure informatique est l'une des tâches principales du service informatique de toute entreprise. Les solutions logicielles HP simplifient la tâche des administrateurs système et organisent un contrôle efficace du réseau de l'entreprise

L'infrastructure informatique moderne est un réseau hétérogène complexe qui comprend des solutions de télécommunications, de serveurs et de logiciels de différents fabricants, fonctionnant sur la base de différentes normes. Sa complexité et son échelle déterminent le niveau élevé d'outils de surveillance et de contrôle automatisés qui doivent être utilisés pour assurer un fonctionnement fiable du réseau. Les produits HP Software peuvent vous aider à résoudre les problèmes de surveillance à tous les niveaux, de l'infrastructure (équipements réseau, serveurs et systèmes de stockage) au contrôle qualité des services et processus métier.

Systèmes de surveillance : qu'est-ce que c'est ?

Dans les plates-formes modernes de surveillance informatique, il existe 3 directions pour le développement et la sortie de la surveillance pour nouveau niveau... Le premier s'appelle « The Bridge » (« Umbrella System », « Manager of Managers »). Son concept est d'utiliser des investissements dans des systèmes existants qui effectuent les tâches de surveillance des parties individuelles de l'infrastructure et de transformer les systèmes eux-mêmes en agents d'information. Cette approche est une évolution logique de la surveillance conventionnelle des infrastructures informatiques. Comme préalable à la mise en place d'un système de type « Bridge », la DSI peut prendre la décision de consolider des systèmes de surveillance disparates pour la transition vers la surveillance des services/systèmes informatiques dans leur ensemble, systèmes disparates qui ne sont pas en mesure de montrer l'ensemble du tableau , un cas de non-diagnostic d'une défaillance grave de l'application, et un grand nombre d'avertissements et d'alarmes, un manque de couverture uniforme, de hiérarchisation et d'identification de la causalité.

Le résultat de la mise en œuvre sera une collecte automatisée de tous les événements et métriques disponibles de l'infrastructure informatique, une comparaison de leur état et de leur impact sur la « santé » du service. En cas de panne, l'opérateur aura accès à un panneau qui affiche la cause première de la panne avec des recommandations pour la résoudre. En cas de panne typique, il est possible d'attribuer un script qui automatise les actions nécessaires de l'opérateur.

La prochaine tendance s'appelle Anomaly Analytics. Ici, comme dans le premier cas, les métriques et les événements sont collectés à partir d'un certain nombre de systèmes de surveillance de l'infrastructure, et en plus, la collecte des journaux informatiques et de sécurité est configurée. Ainsi, une énorme quantité d'informations est accumulée chaque minute, et l'entreprise souhaite profiter de sa disposition. Il existe un certain nombre de raisons pour la mise en œuvre d'Anomaly Analytics : la complexité de la collecte, du stockage et de l'analyse en temps voulu de toutes les données, la nécessité d'éliminer de manière réactive les problèmes inconnus, l'incapacité d'identifier rapidement les informations importantes pour le dépannage, la complexité des opérations de recherche manuelle pour les journaux individuels, et la nécessité d'identifier les écarts et les plantages répétitifs.

La mise en œuvre du système permettra la collecte automatisée d'événements, de mesures et de journaux, le stockage de ces informations pendant la période requise, ainsi que l'analyse de toute information, y compris les journaux, les informations de performance et les données système. De plus, il sera possible de prévoir et de résoudre tout type de problème et de prévenir les pannes connues.

Et enfin - "Application Performance Management", ou identifier et corriger les défaillances dans les transactions des utilisateurs finaux. Cette solution peut être un complément utile, en étroite collaboration avec les deux précédentes. De plus, un tel système en lui-même peut également donner un résultat rapide dès la mise en œuvre. Dans ce cas, l'entreprise dispose d'applications critiques pour l'entreprise. Dans le même temps, la disponibilité et la qualité du service sont importantes, dont l'un des éléments clés est l'application (Internet banking, CRM, facturation, etc.). Lorsque la disponibilité ou la qualité de ce service diminue, cela se résume généralement à une proactivité et à une récupération rapide. Un tel système est généralement mis en œuvre lorsqu'il est nécessaire d'améliorer la disponibilité des services applicatifs et les performances, ainsi que de réduire le temps moyen de récupération. De plus, cette approche est bonne pour éliminer les coûts et les risques inutiles associés à un accord de niveau de service (SLA) et pour empêcher l'abandon du client (protection de l'entreprise).

Les résultats de la mise en œuvre peuvent différer selon la tâche principale. En général, cela permet la mise en œuvre d'actions typiques des utilisateurs par un « robot » de différentes régions/segments de réseau, l'analyse du trafic « miroir », la vérification de la disponibilité et de la qualité des services avec identification des goulots d'étranglement, l'information de l'opérateur sur la nécessité de rétablir l'opérabilité , indiquant le lieu de dégradation. Si nécessaire, un diagnostic approfondi de l'application devient possible pour trouver les raisons de la dégradation systématique des services.

Les approches ci-dessus peuvent être mises en œuvre à l'aide des produits HP Software, qui seront abordés ci-dessous.

"Pont" de HP

HP Operations Bridge présente dernière génération"Systèmes de surveillance parapluie". La solution combine les données de surveillance des agents propriétaires, divers modules de surveillance du logiciel HP et des outils de surveillance tiers. Le flux d'événements provenant de toutes les sources d'information se superpose au modèle ressource-service, des mécanismes de corrélation lui sont appliqués pour déterminer quels événements sont des causes, des symptômes et des conséquences.

Séparément, il convient de s'attarder sur le modèle ressource-service, et plus précisément sur les modèles, car il peut y avoir un nombre illimité de tels modèles pour analyser l'information sous différents angles. Son exhaustivité et sa pertinence dépendent de la capacité de la solution à effectuer la corrélation du flux d'événements. Pour maintenir la pertinence des modèles, des outils de veille basés sur des agents et des technologies sans agent sont utilisés pour obtenir des informations détaillées sur les composants du service, la relation entre eux et l'influence mutuelle les uns sur les autres. Il est également possible d'importer des données sur la topologie du service à partir de sources externes - des systèmes de surveillance.

Un autre aspect important est la facilité de gestion. Dans des environnements complexes et en évolution dynamique, il est important de s'assurer que le système de surveillance est ajusté lorsque la structure des systèmes change et que de nouveaux services sont ajoutés. Operations Bridge inclut le composant Monitoring Automation, qui vous permet de configurer automatiquement les systèmes entrés dans le périmètre de surveillance, pour lesquels les données sur les modèles de ressources de service sont utilisées. Dans le même temps, la configuration et la modification des paramètres de surveillance précédemment définis sont prises en charge.

Alors qu'auparavant, les administrateurs pouvaient effectuer les mêmes paramètres pour le même type de composants d'infrastructure (par exemple, des métriques sur des serveurs Windows, Linux ou UNIX), ce qui nécessitait beaucoup de temps et d'efforts, vous pouvez désormais configurer de manière dynamique et centralisée les valeurs de seuil pour une métrique dans le contexte d'un service ou d'un service.

Analyse des applications

L'utilisation de l'approche traditionnelle de la surveillance implique que l'on sache au départ quels paramètres surveiller et quels événements surveiller. La complexité et la dynamique croissantes du développement des infrastructures informatiques obligent à rechercher d'autres approches, car il devient de plus en plus difficile de contrôler tous les aspects du fonctionnement du système.

HP Operations Analytics vous permet de collecter et d'enregistrer toutes les données sur le fonctionnement d'une application : fichiers journaux, télémétrie, mesures commerciales et de performances, événements système, etc., et d'utiliser des moteurs d'analyse pour identifier les tendances et les prévoir. La solution rassemble les données collectées dans un format unique puis, faisant un choix contextuel, basé sur les données des fichiers journaux, affiche sur la timeline ce qui s'est passé, à quel moment et sur quel système. Le produit fournit plusieurs formes de visualisation des données (par exemple, une « carte thermique » interactive et une topologie des relations des fichiers journaux) et utilise la fonction d'assistance pour trouver l'ensemble des données collectées pour une période spécifique dans le contexte d'un événement ou par une requête saisie dans une barre de recherche. Cela aide l'opérateur à comprendre la cause de l'échec (ou, lorsqu'il utilise des données HP SHA conjointement avec des données HP OA, à faire une prédiction) et à identifier à la fois le coupable et la cause première de l'échec. HP Operations Analytics offre la possibilité de reproduire une image du service et de l'environnement au moment de la panne et de l'isoler dans le contexte et dans le temps.

Un autre outil analytique est HP Service Health Analyzer. HP SHA détecte le comportement anormal des éléments d'infrastructure surveillés afin d'empêcher un éventuel déni de fourniture de service ou une violation des paramètres spécifiés de leur fourniture. Le produit utilise des algorithmes spéciaux pour l'analyse des données statistiques sur la base du modèle de service-ressource topologique HP BSM. Avec leur aide, il est possible de construire un profil de valeurs normales de paramètres de performances collectées à la fois à partir de plates-formes logicielles et matérielles et à partir d'autres modules BSM (par exemple, HP RUM, HP BPM) qui caractérisent l'état des services. Des valeurs de paramètres typiques sont entrées dans ces profils, en tenant compte des jours de la semaine et de l'heure de la journée. SHA effectue une analyse historique et statistique des données accumulées (pour comprendre l'essence des données identifiées), et effectue également une comparaison avec le profil dynamique existant (baselining).

Surveillance des performances des applications

Lorsqu'il s'agit de surveiller les performances des applications, les composants suivants de la solution HP doivent être mis en évidence :
  • HP Real User Monitoring (HP RUM) - contrôle du passage des transactions vrais utilisateurs;
  • HP Business Process Monitoring (HP BPM) - contrôle de la disponibilité des applications en émulant les actions des utilisateurs ;
  • HP Diagnostics - surveillance du passage des requêtes à l'intérieur de l'application.
HP RUM et HP BPM mesurent la disponibilité des applications du point de vue de l'utilisateur final.

HP RUM analyse le trafic réseau, identifiant les transactions des utilisateurs réels qui s'y trouvent. Dans ce cas, vous pouvez contrôler l'échange de données entre les composants de l'application : côté client, serveur d'applications et base de données. Cela permet de suivre l'activité des utilisateurs, le temps de traitement de diverses transactions, ainsi que de déterminer la relation entre les actions des utilisateurs et les mesures commerciales. Grâce à HP RUM, les opérateurs de services de surveillance pourront recevoir instantanément des notifications rapides sur les problèmes de disponibilité des services et des informations sur les erreurs rencontrées par les utilisateurs.

HP BPM est un outil de surveillance active qui effectue des transactions utilisateur synthétiques impossibles à distinguer des transactions réelles pour les systèmes surveillés. Les données de surveillance HP BPM sont pratiques à utiliser pour calculer le SLA réel, car le « robot » effectue des contrôles identiques aux mêmes intervalles de temps, garantissant un contrôle qualité constant du traitement des demandes typiques (ou les plus critiques). En configurant des sondes pour effectuer des transactions synthétiques à partir de plusieurs points (par exemple, à partir de différents bureaux de l'entreprise), vous pouvez également évaluer la disponibilité du service pour différents utilisateurs, en tenant compte de leur emplacement et de leurs canaux de communication. HP BPM utilise le générateur d'utilisateur virtuel (VuGen) pour émuler l'activité, qui est également utilisé dans le produit de test de charge populaire HP LoadRunner. VuGen prend en charge une vaste gamme de protocoles et de technologies différents, vous pouvez donc contrôler la disponibilité de presque tous les services, ainsi qu'utiliser un seul ensemble de scripts pour les tests et la surveillance.
Si la cause des pannes ou des ralentissements de service réside dans des technologies telles que Java, .NET, etc., HP Diagnostics peut vous aider.

La solution offre un contrôle approfondi sur Java, .NET, Python sur les plates-formes Windows, Linux et Unix. Le produit prend en charge une variété de serveurs d'applications (Tomcat, Jboss, WebLogic, Oracle, etc.), MiddleWare et bases de données. Les agents spécialisés HP Diagnostics sont installés sur les serveurs d'applications et collectent des données spécifiques à la technologie. Par exemple, pour une application Java, vous pouvez voir quelles requêtes sont exécutées, quelles méthodes sont utilisées et combien de temps est passé à les traiter. La structure de l'application est dessinée automatiquement, il devient clair comment ses composants sont impliqués. HP Diagnostics suit les transactions commerciales à travers des applications complexes, identifie les goulots d'étranglement et fournit aux experts les informations dont ils ont besoin pour prendre des décisions.

Distribution de solutions HP en

ESSAI

Ce document est un projet technique pour le développement et la mise en œuvre d'un système de surveillance de réseau pour le réseau public de transmission de données de la ville de Verkhnepyshminsk de Gerkon LLC. Le projet a étudié les systèmes de surveillance de réseau existants, analysé la situation actuelle de l'entreprise et justifié le choix de composants spécifiques du système de surveillance de réseau.

Le document contient une description des solutions de conception et des spécifications de l'équipement.

Le résultat de la conception est les solutions développées pour la mise en œuvre et l'utilisation du système :

§ Description complète de toutes les étapes de conception, de développement et de mise en œuvre du système ;

§ Guide de l'administrateur système, qui comprend une description de l'interface utilisateur du système.

Ce document représente des solutions de conception complètes et peut être utilisé pour mettre en œuvre le système.

LISTE DES FICHES GRAPHIQUES

Tableau 1 - Liste des feuilles de documents graphiques

1Systèmes de surveillance du réseau220100 4010002Structure du réseau logique220100 4010003Algorithme du noyau de surveillance et d'alerte du réseau 220100 4010004Structure de l'analyseur de charge de l'interface réseau220100 4010005Structure du collecteur de journaux d'événements système220100 4010006Interface Nagios220100 4010001

LISTE DES SYMBOLES, SYMBOLES ET TERMES

Ethernet est une norme de transmission de données émise par l'IEEE. Détermine comment envoyer ou recevoir des données à partir d'un support de transmission de données commun. Forme la couche de transport inférieure et est utilisé par divers protocoles de haut niveau. Fournit un taux de transfert de données de 10 Mbps.

Fast Ethernet est une technologie de transmission de données 100Mbps utilisant la méthode CSMA/CD, comme 10Base-T.

FDDI - Fiber Distributed Data Interface - interface à fibre optique pour la transmission de données distribuée - une technologie de transmission de données à une vitesse de 100 Mbit/s utilisant la méthode Token Ring.

IEEE - Institute of Electrical and Electronic Engineers est une organisation qui développe et publie des normes.

LAN - Réseau local - réseau local, LAN. adresse - Media Access Control - numéro d'identification du périphérique réseau, généralement déterminé par le fabricant.

RFC - Request for Comments - une collection de documents publiés par l'organisation IEEE et comprenant des descriptions de normes, de spécifications, etc.

TCP / IP - Protocole de contrôle de transmission / Protocole Internet - Protocole de contrôle de transmission / Protocole Internet.

LAN - Réseau local.

OS - Système d'exploitation.

Logiciel - Logiciel.

SCS - Système de câblage structuré.

SGBD - Système de gestion de base de données.

Tendance - Statistiques à long terme qui vous permettent de construire une soi-disant tendance.

Ordinateur - Ordinateur électronique.

INTRODUCTION

L'infrastructure d'information d'une entreprise moderne est un conglomérat complexe de réseaux et de systèmes hétérogènes à différentes échelles. Pour assurer leur bonne coordination et travail efficace, une plate-forme de gestion à l'échelle de l'entreprise avec des outils intégrés est nécessaire. Jusqu'à récemment, cependant, la structure même de l'industrie de la gestion de réseau empêchait la création de tels systèmes - les "acteurs" de ce marché cherchaient à prendre la tête, libérant des produits de portée limitée, utilisant des outils et des technologies qui ne sont pas compatibles avec les systèmes d'autres fournisseurs .

Aujourd'hui, la situation s'améliore - il existe des produits qui revendiquent la polyvalence de la gestion de toute la variété des ressources d'information d'entreprise, des systèmes de bureau aux mainframes et des réseaux locaux aux ressources Internet. Dans le même temps, on se rend compte que les applications de contrôle doivent être ouvertes aux solutions de tous les fournisseurs.

La pertinence de ce travail tient au fait qu'en lien avec la généralisation des ordinateurs personnels et la création de postes de travail automatisés (AWP) sur leur base, l'importance des réseaux informatiques locaux (LAN) s'est accrue, dont le diagnostic est le objet de notre étude. Le sujet de la recherche est les principales méthodes d'organisation et de réalisation de diagnostics de réseaux informatiques.

Le "diagnostic de réseau local" est le processus d'analyse (continue) de l'état d'un réseau d'information. En cas de dysfonctionnement des appareils du réseau, le fait du dysfonctionnement est enregistré, sa place et son type sont déterminés. Le défaut est signalé, l'appareil est arrêté et remplacé par une sauvegarde.

L'administrateur du réseau, qui a le plus souvent la responsabilité d'effectuer des diagnostics, devrait commencer à étudier les caractéristiques de son réseau déjà au stade de sa formation, c'est-à-dire. connaître le schéma du réseau et une description détaillée de la configuration logicielle, indiquant tous les paramètres et interfaces. Pour l'enregistrement et le stockage de ces informations, des systèmes de documentation de réseau spéciaux sont appropriés. En les utilisant, l'administrateur système connaîtra à l'avance tous les "défauts cachés" et "goulots d'étranglement" possibles de son système, afin de savoir en cas d'urgence quel est le problème avec le matériel ou le logiciel, le programme est endommagé ou conduit à une erreur des actions de l'opérateur.

L'administrateur réseau doit se rappeler que du point de vue des utilisateurs, la qualité du logiciel d'application sur le réseau est déterminante. Tous les autres critères, tels que le nombre d'erreurs de transmission de données, le degré d'encombrement ressources réseau, les performances de l'équipement, etc., sont secondaires. Un « bon réseau » est un réseau dont les utilisateurs ne remarquent pas comment il fonctionne.

Compagnie

La pratique pré-diplôme a eu lieu dans l'entreprise Gerkon LLC dans le département de support en tant qu'administrateur système. La société propose des services d'accès Internet dans les villes de Verkhnyaya Pyshma et Sredneuralsk en utilisant la technologie Ethernet et des canaux commutés depuis 1993 et ​​est l'un des premiers fournisseurs de services Internet dans ces villes. Les règles de fourniture des services sont régies par une offre publique et un règlement.

Tâches scientifiques et de production de la division

Le service d'assistance résout l'éventail de tâches suivantes au sein d'une entreprise donnée :

§ organisation technique et technologique de fourniture d'accès à Internet via des canaux commutés et dédiés;

§ organisation technique et technologique d'accès Internet sans fil;

§ allocation d'espace disque pour le stockage et la maintenance des sites (hébergement) ;

§ aide au travail boîtes aux lettres ou un serveur de messagerie virtuel ;

§ placement des équipements du client sur le site du prestataire (colocation) ;

§ location de serveurs dédiés et virtuels ;

§ sauvegarde de données;

§ déploiement et support des réseaux d'entreprise d'entreprises privées.

1. SYSTÈMES DE SURVEILLANCE DU RÉSEAU

Malgré les nombreuses astuces et outils de détection et de dépannage des réseaux informatiques, le terrain pour les administrateurs réseau est encore assez fragile. Les réseaux informatiques intègrent de plus en plus de composants à fibres optiques et sans fil, ce qui rend inutile l'utilisation de technologies et d'outils traditionnels conçus pour les câbles en cuivre conventionnels. De plus, à des vitesses supérieures à 100 Mbit/s, les approches de diagnostic traditionnelles échouent souvent, même si le support de transmission est un câble en cuivre ordinaire. Cependant, le changement peut-être le plus important dans l'informatique technologies de réseau Les administrateurs ont été confrontés à la transition inévitable de l'Ethernet à média partagé vers les réseaux commutés, dans lesquels les serveurs ou les postes de travail individuels agissent souvent comme des segments commutés.

Certes, avec la mise en œuvre des transformations technologiques, certains problèmes anciens ont été résolus d'eux-mêmes. Le câble coaxial, qui a toujours été plus difficile à résoudre les problèmes électriques que le câble à paire torsadée, devient une rareté dans les environnements d'entreprise. Les réseaux Token Ring, dont le principal problème était leur dissemblance avec Ethernet (et pas du tout une faiblesse technique), sont progressivement remplacés par des réseaux Ethernet commutés. Les protocoles tels que SNA, DECnet et AppleTalk qui génèrent de nombreux messages d'erreur sur les protocoles de couche réseau sont remplacés par IP. La pile IP elle-même est devenue plus stable et plus facile à entretenir, comme le prouvent des millions de clients et des milliards de pages Web sur Internet. Même les adversaires inconditionnels de Microsoft doivent admettre que la connexion d'un nouveau client Windows à Internet est beaucoup plus facile et plus fiable que l'installation de précédentes piles TCP/IP tierces et d'un logiciel d'accès à distance séparé.

Comme si nombreux technologies modernes ni rendu difficile le dépannage et la gestion des performances du réseau, la situation pourrait être encore pire si l'ATM était répandu au niveau du PC. Un rôle positif a également été joué par le fait qu'à la fin des années 90, sans avoir le temps de se faire reconnaître, plusieurs autres technologies d'échange de données à haut débit ont été rejetées, notamment Token Ring avec une bande passante de 100 Mbps, 100VG-AnyLAN et les réseaux ARCnet avancés. . Enfin, une pile de protocoles OSI très complexe a été rejetée aux États-Unis (ce qui est cependant légalisé par un certain nombre de gouvernements européens).

Examinons quelques-uns des problèmes d'actualité auxquels sont confrontés les administrateurs de réseau d'entreprise.

La topologie hiérarchique des réseaux informatiques avec des canaux de jonction Gigabit Ethernet et des ports de commutation dédiés de 10 voire 100 Mbit/s pour les systèmes clients individuels a permis d'augmenter d'au moins 10 à 20 fois la bande passante maximale potentiellement disponible pour les utilisateurs. Bien entendu, dans la plupart des réseaux informatiques, il existe des goulots d'étranglement au niveau des serveurs ou des routeurs d'accès, puisque la bande passante par utilisateur est nettement inférieure à 10 Mbps. Par conséquent, le remplacement d'un port concentrateur 10 Mbps par un port commutateur 100 Mbps dédié pour un nœud d'extrémité n'entraîne pas toujours une augmentation significative de la vitesse. Cependant, si l'on considère que le coût des commutateurs a récemment diminué et que la plupart des entreprises disposent d'un câble de catégorie 5 prenant en charge la technologie Ethernet 100 Mbps et que des cartes réseau sont installées pouvant fonctionner à 100 Mbps immédiatement après un redémarrage du système, il devient comprendre pourquoi il est si difficile de résister à la tentation de la modernisation. Dans un réseau local à média partagé traditionnel, un analyseur ou un moniteur de protocole peut examiner tout le trafic sur un segment de réseau donné.

Riz. 1.1 - LAN traditionnel avec média partagé et analyseur de protocole

Bien que l'avantage des performances des réseaux commutés soit parfois subtil, la prolifération des architectures commutées a eu des conséquences désastreuses pour les diagnostics traditionnels. Dans un réseau hautement segmenté, les analyseurs de protocoles ne sont capables de voir le trafic de monodiffusion que sur un seul port de commutateur, par opposition à un réseau existant où ils pourraient examiner n'importe quel paquet dans le domaine de collision. Dans de telles conditions, les outils de surveillance traditionnels ne peuvent pas collecter de statistiques sur tous les « dialogues », car chaque paire de points de terminaison « parlants » utilise, par essence, son propre réseau.

Riz. 1.2 - Réseau commuté

Dans un réseau commuté, un analyseur de protocole ne peut « voir » qu'un seul segment à un moment donné si le commutateur est incapable de refléter plusieurs ports en même temps.

Pour garder le contrôle sur des réseaux très segmentés, les fournisseurs de commutateurs offrent une variété d'outils pour restaurer la « visibilité » complète du réseau, mais il y a de nombreux défis en cours de route. Les commutateurs actuellement commercialisés prennent généralement en charge la mise en miroir des ports, où le trafic de l'un d'eux est dupliqué vers un port précédemment inutilisé auquel un moniteur ou un analyseur est connecté.

Cependant, la « mise en miroir » présente plusieurs inconvénients. Premièrement, un seul port est visible à la fois, il est donc très difficile d'identifier les problèmes qui affectent plusieurs ports à la fois. Deuxièmement, la mise en miroir peut dégrader les performances du commutateur. Troisièmement, le port miroir ne reproduit généralement pas les défauts de la couche physique, et parfois même les désignations de VLAN sont perdues. Enfin, dans de nombreux cas, les liaisons Ethernet en duplex intégral peuvent ne pas être entièrement mises en miroir.

Une solution partielle à l'analyse des paramètres de trafic agrégés consiste à utiliser les capacités de surveillance des agents mini-RMON, d'autant plus qu'ils sont intégrés à chaque port de la plupart des commutateurs Ethernet. Bien que les agents mini-RMON ne prennent pas en charge le groupe d'objets Capture de la spécification RMON II, qui fournit une analyse complète du protocole, ils fournissent tout de même une estimation de l'utilisation des ressources, des taux d'erreur et du volume de multidiffusion.

Certains inconvénients de la technologie de mise en miroir des ports peuvent être surmontés en installant des "prises passives" telles que celles produites par Shomiti. Ces appareils sont des connecteurs en Y préinstallés et permettent de surveiller le signal réel avec des analyseurs de protocole ou un autre appareil.

Le prochain problème réel est le problème avec les caractéristiques de l'optique. Les administrateurs de réseaux informatiques utilisent généralement un équipement de diagnostic de réseau optique spécialisé uniquement pour résoudre les problèmes liés aux câbles optiques. Un logiciel de gestion de périphériques standard et standard basé sur SNMP ou CLI peut diagnostiquer les problèmes sur les commutateurs et les routeurs dotés d'interfaces optiques. Seuls quelques administrateurs réseau sont confrontés à la nécessité de diagnostiquer les appareils SONET.

En ce qui concerne les câbles à fibres optiques, les raisons de l'apparition d'éventuels dysfonctionnements sont nettement moindres que dans le cas des câbles en cuivre. Les signaux optiques ne provoquent pas de diaphonie en raison du fait que le signal d'un conducteur induit un signal sur l'autre - ce facteur complique le plus l'équipement de diagnostic pour le câble en cuivre. Les câbles optiques sont insensibles au bruit électromagnétique et aux signaux induits, ils n'ont donc pas besoin d'être éloignés des moteurs d'ascenseur et des lampes fluorescentes, ce qui signifie que toutes ces variables peuvent être exclues du scénario de diagnostic.

La force du signal, ou puissance optique, à un point donné est en fait la seule variable qui doit être mesurée lors du dépannage des réseaux optiques. S'il est possible de déterminer la perte de signal sur toute la longueur du canal optique, il sera alors possible d'identifier presque tous les problèmes. Des modules complémentaires peu coûteux pour les testeurs de câbles en cuivre permettent des mesures optiques.

Les entreprises qui déploient et maintiennent une grande infrastructure optique peuvent avoir besoin d'acheter un réflectomètre optique dans le domaine temporel (OTDR), qui remplit les mêmes fonctions pour la fibre optique qu'un réflectomètre dans le domaine temporel (TDR) pour le cuivre. L'appareil agit comme un radar : il envoie des signaux pulsés à travers le câble et analyse leurs réflexions, sur la base desquels il détecte des dommages dans le conducteur ou une autre anomalie, puis indique à l'examinateur où chercher la source du problème.

Bien que divers fournisseurs de connecteurs de câbles et de connecteurs aient facilité la terminaison et le déploiement de la fibre optique, cela nécessite toujours un certain niveau de compétence spécialisée, et avec une politique prudente, une entreprise dotée d'une infrastructure optique avancée devra former ses employés. Quelle que soit la qualité de la pose du réseau de câbles, il y a toujours la possibilité de dommages physiques au câble à la suite d'un incident inattendu.

Le dépannage des WLAN 802.11b peut également causer des problèmes. Le diagnostic lui-même est aussi simple que dans le cas des réseaux Ethernet basés sur des concentrateurs, puisque le média sans fil est partagé entre tous les propriétaires d'appareils radio clients. Sniffer TechHlogies a été le premier à proposer une solution d'analyse de protocole pour ces réseaux avec des bandes passantes allant jusqu'à 11 Mbps, et la plupart des principaux fournisseurs d'analyseurs ont depuis introduit des systèmes similaires.

Contrairement à un hub Ethernet avec des connexions filaires, la qualité des connexions client sans fil est loin d'être stable. Les signaux radio micro-ondes utilisés dans toutes les options de transmission locale sont faibles et parfois imprévisibles. Même de petits changements dans la position de l'antenne peuvent sérieusement affecter la qualité des connexions. Les points d'accès LAN sans fil sont équipés d'une console de gestion de périphériques, qui est souvent une méthode de diagnostic plus puissante que la visite de clients sans fil et la surveillance des conditions de débit et d'erreur avec un analyseur portable.

Alors que les problèmes de synchronisation des données et de configuration des appareils des utilisateurs de PDA relèvent plus naturellement de l'équipe d'assistance technique que de l'administrateur réseau, il n'est pas difficile de prévoir que dans un avenir pas trop lointain, nombre de ces appareils évolueront à partir d'aides autonomes. pour compléter les PC. , en clients réseau à part entière.

En règle générale, les opérateurs WLAN d'entreprise décourageront (ou devraient) décourager le déploiement de systèmes trop ouverts dans lesquels tout utilisateur de la portée du réseau avec une carte d'interface compatible peut accéder à chaque trame d'information du système. Le protocole de sécurité sans fil Wired Equivalent Privacy (WEP) fournit l'authentification de l'utilisateur, l'assurance de l'intégrité et le cryptage des données, mais comme c'est généralement le cas, une sécurité parfaite rend difficile l'analyse de la cause première des problèmes de réseau. Sur les réseaux sécurisés compatibles WEP, les diagnosticiens doivent connaître les clés ou les mots de passe qui protègent les informations et contrôlent l'accès au système. Lors de l'accès en mode réception de tous les paquets, l'analyseur de protocole pourra voir tous les en-têtes de trame, mais les informations qu'ils contiennent n'auront aucun sens sans la présence de clés.

Lors du diagnostic des liens tunnelés, que de nombreux fabricants appellent VPN avec accès à distance Les problèmes rencontrés sont similaires à ceux rencontrés lors de l'analyse de réseaux sans fil cryptés. Si le trafic ne passe pas par la liaison tunnelée, la cause de l'échec n'est pas facile à déterminer. Il peut s'agir d'une erreur d'authentification, d'une panne à l'un des points de terminaison ou d'une congestion sur l'Internet public. Essayer d'utiliser un analyseur de protocole pour détecter des erreurs de haut niveau dans le trafic tunnelé serait un gaspillage d'énergie car le contenu des données ainsi que les en-têtes des couches application, transport et réseau sont cryptés. En général, les mesures prises pour améliorer la sécurité des réseaux d'entreprise ont tendance à rendre les problèmes de dépannage et de performances difficiles à identifier. Les pare-feu, les serveurs proxy et les systèmes de détection d'intrusion peuvent encore compliquer la localisation des problèmes.

Ainsi, la problématique du diagnostic des réseaux informatiques est pertinente et, in fine, le diagnostic des pannes est une tâche de gestion. Pour la plupart des systèmes d'entreprise critiques, les longues opérations de récupération ne sont pas réalisables. La seule solution consiste donc à utiliser des périphériques et des processus redondants capables de prendre en charge les fonctions requises immédiatement après une panne. Dans certaines entreprises, les réseaux ont toujours un composant redondant supplémentaire en cas de défaillance principale, c'est-à-dire n x 2 composants, où n est le nombre de composants principaux requis pour fournir des performances acceptables. Si le temps moyen de réparation (MTTR) est suffisamment long, une redondance encore plus importante peut être nécessaire. Le fait est que le temps de dépannage n'est pas facile à prévoir et que des coûts importants pendant une période de récupération imprévisible sont le signe d'une mauvaise gestion.

Pour les systèmes moins critiques, la redondance peut ne pas être économiquement réalisable, auquel cas il est prudent d'investir dans les outils (et la formation) les plus efficaces pour accélérer le processus de dépannage et de diagnostic des problèmes dans l'entreprise. En outre, le support externalisé pour des systèmes spécifiques peut être externalisé, soit à l'entreprise, à des centres de données externes, à des fournisseurs de services d'application (ASP) ou à des fournisseurs de services de gestion. Outre les coûts, le facteur le plus important influençant la décision d'utiliser des services tiers est le niveau de compétence de son propre personnel. Les administrateurs réseau doivent décider si une fonction particulière est si étroitement liée à une tâche spécifique de l'entreprise qu'on ne peut pas s'attendre à ce qu'un tiers soit plus performant que les employés de l'entreprise.

Presque immédiatement après le déploiement des premiers réseaux d'entreprise, dont la fiabilité laissait beaucoup à désirer, fabricants et développeurs ont proposé le concept de « réseaux auto-réparateurs ». Les réseaux modernes sont certainement plus fiables qu'ils ne l'étaient dans les années 90, mais pas parce que les problèmes ont commencé à se régler d'eux-mêmes. L'élimination des pannes logicielles et matérielles dans les réseaux modernes nécessite encore une intervention humaine, et aucun changement majeur n'est attendu de cet état de fait à court terme. Les méthodes et outils de diagnostic sont conformes aux pratiques et à la technologie actuelles, mais ils n'ont pas encore atteint un niveau qui permettrait aux administrateurs réseau de gagner beaucoup de temps pour faire face aux problèmes de réseau et aux manques de performances.

1.1 Diagnostic logiciel

Parmi les outils logiciels de diagnostic des réseaux informatiques, on peut distinguer les systèmes spéciaux de gestion de réseau (Network Management Systems) - des systèmes logiciels centralisés qui collectent des données sur l'état des nœuds et des dispositifs de communication d'un réseau, ainsi que des données sur le trafic circulant dans le réseau. Ces systèmes non seulement surveillent et analysent le réseau, mais effectuent également des actions de gestion de réseau en mode automatique ou semi-automatique - activation et désactivation des ports de périphérique, modification des paramètres des ponts dans les tables d'adresses des ponts, commutateurs et routeurs, etc. Des exemples de systèmes de contrôle sont les systèmes populaires HPOpenView, SunNetManager, IBMNetView.

Les outils de gestion de système remplissent des fonctions similaires aux systèmes de gestion, mais en ce qui concerne les équipements de communication. Cependant, certaines des fonctions de ces deux types de systèmes de contrôle peuvent être dupliquées, par exemple, les contrôles du système peuvent effectuer l'analyse la plus simple du trafic réseau.

Systèmes experts. Ce type de systèmes accumule des connaissances humaines sur l'identification des causes de fonctionnement anormal des réseaux et les moyens possibles de mettre le réseau en état de fonctionnement. Les systèmes experts sont souvent mis en œuvre en tant que sous-systèmes distincts de divers outils de surveillance et d'analyse de réseau : systèmes de gestion de réseau, analyseurs de protocole, analyseurs de réseau. La variante la plus simple d'un système expert est un système d'aide contextuelle. Les systèmes experts plus complexes sont des bases de connaissances avec des éléments d'intelligence artificielle. Un exemple d'un tel système est le système expert intégré au système de contrôle Cabletron Spectrum.

1.1.1 Analyseurs de protocole

Lors de la conception d'un nouveau réseau ou de la modernisation d'un ancien réseau, il est souvent nécessaire de quantifier certaines caractéristiques du réseau, telles que l'intensité des flux de données sur les lignes de communication du réseau, les retards survenant à différentes étapes du traitement des paquets, les temps de réponse aux requêtes d'un type ou d'un autre, la fréquence d'occurrence, certains événements et d'autres caractéristiques.

A ces fins, divers moyens peuvent être utilisés, et surtout - des outils de surveillance dans les systèmes de gestion de réseau, qui ont déjà été discutés précédemment. Certaines mesures sur le réseau peuvent également être effectuées par des compteurs logiciels intégrés au système d'exploitation, dont un exemple est le composant Windows Performance Monitor. Même les testeurs de câbles modernes sont capables de capturer des paquets et d'analyser leur contenu.

Mais l'outil d'exploration de réseau le plus avancé est un analyseur de protocole. Le processus d'analyse de protocole implique la capture et l'examen des paquets circulant dans le réseau qui implémentent un protocole réseau particulier. Sur la base des résultats de l'analyse, vous pouvez apporter des modifications éclairées et équilibrées à tous les composants du réseau, optimiser ses performances et dépanner. Évidemment, pour pouvoir tirer des conclusions sur l'impact d'un changement sur le réseau, il est nécessaire d'analyser les protocoles avant et après le changement.

L'analyseur de protocole est soit un appareil spécialisé indépendant, soit un ordinateur personnel, généralement portable, de la classe Нtebook, équipé d'une carte réseau spéciale et d'un logiciel approprié. La carte réseau et le logiciel utilisés doivent correspondre à la topologie du réseau (anneau, bus, étoile). L'analyseur se connecte au réseau de la même manière qu'un nœud normal. La différence est que l'analyseur peut recevoir tous les paquets de données transmis sur le réseau, alors qu'une station ordinaire ne peut recevoir que ceux qui lui sont adressés. Le logiciel de l'analyseur se compose d'un noyau qui prend en charge le fonctionnement de la carte réseau et décode les données reçues, ainsi que d'un code de programme supplémentaire qui dépend du type de topologie du réseau à l'étude. De plus, un certain nombre de routines de décodage spécifiques au protocole sont fournies, telles que IPX. Certains analyseurs peuvent également inclure un système expert qui peut donner à l'utilisateur des recommandations sur les expérimentations à réaliser dans une situation donnée, ce que peuvent signifier ces ou ces résultats de mesure, et comment éliminer certains types de dysfonctionnements du réseau.

Malgré la relative diversité des analyseurs de protocoles sur le marché, certaines caractéristiques sont inhérentes à tous à un degré ou à un autre :

Interface utilisateur. La plupart des analyseurs ont une interface conviviale bien développée, généralement basée sur Windows ou Motif. Cette interface permet à l'utilisateur : d'afficher les résultats de l'analyse de l'intensité du trafic ; obtenir une estimation statistique instantanée et moyenne des performances du réseau ; définir des événements spécifiques et des situations critiques pour suivre leur occurrence ; décoder des protocoles de différents niveaux et présenter le contenu des paquets sous une forme compréhensible.

Tampon de capture. Les tampons des différents analyseurs diffèrent en taille. Le tampon peut être situé sur l'ensemble carte réseau, ou il peut se voir allouer une place dans la RAM de l'un des ordinateurs du réseau. Si le tampon est situé sur une carte réseau, il est alors géré matériellement et, de ce fait, la vitesse d'entrée augmente. Cependant, cela conduit à une augmentation du coût de l'analyseur. En cas de performance insuffisante de la procédure de capture, certaines informations seront perdues, et l'analyse sera impossible. La taille du tampon détermine les capacités d'analyse pour des échantillons plus ou moins représentatifs des données capturées. Mais quelle que soit la taille de la mémoire tampon de capture, elle se remplira tôt ou tard. Dans ce cas, soit la capture s'arrête, soit le remplissage commence au début du tampon.

Filtres. Les filtres vous permettent de contrôler le processus de capture des données, et ainsi d'économiser de l'espace tampon. Selon la valeur de certains champs du paquet, spécifié comme condition de filtre, le paquet est soit ignoré, soit écrit dans le tampon de capture. L'utilisation de filtres accélère et simplifie grandement l'analyse, car elle exclut la visualisation des packages qui ne sont pas nécessaires pour le moment.

Les commutateurs sont des conditions définies par l'opérateur pour démarrer et arrêter le processus de capture de données à partir du réseau. Ces conditions peuvent être l'exécution de commandes manuelles pour démarrer et arrêter le processus de capture, l'heure de la journée, la durée du processus de capture, l'apparition de certaines valeurs dans les trames de données. Les commutateurs peuvent être utilisés conjointement avec des filtres, permettant une analyse plus détaillée et subtile, ainsi qu'une utilisation plus productive d'une taille limitée de la mémoire tampon de capture.

Chercher. Certains analyseurs de protocole vous permettent d'automatiser la visualisation des informations dans la mémoire tampon et d'y trouver des données selon des critères spécifiés. Tandis que les filtres vérifient le flux d'entrée par rapport aux conditions de filtrage, les fonctions de recherche sont appliquées aux données déjà accumulées dans le tampon.

La méthodologie d'analyse peut être présentée selon les six étapes suivantes :

Capture de données.

Afficher les données capturées.

L'analyse des données.

Rechercher des erreurs. (La plupart des analyseurs facilitent cela en identifiant les types d'erreurs et en identifiant la station d'où provient le paquet d'erreurs.)

Recherche de performances. Le taux d'utilisation de la bande passante du réseau ou le temps de réponse moyen à une requête est calculé.

Étude détaillée de sections individuelles du réseau. Le contenu de cette étape se concrétise au fur et à mesure de l'analyse.

Habituellement, le processus d'analyse des protocoles prend relativement peu de temps - 1 à 2 jours ouvrables.

La plupart des analyseurs modernes vous permettent d'analyser plusieurs protocoles WAN à la fois, tels que les protocoles X.25, PPP, SLIP, SDLC/SNA, relais de trame, SMDS, ISDN, pont/routeur (3Com, Cisco, Bay Networks et autres). De tels analyseurs vous permettent de mesurer divers paramètres de protocoles, d'analyser le trafic réseau, la conversion entre les protocoles LAN et WAN, le délai sur les routeurs lors de ces conversions, etc. Des appareils plus avancés offrent la possibilité de simuler et de décoder les protocoles WAN, les tests de "stress", les mesures bande passante maximale, testant la qualité des services fournis. Par souci de polyvalence, presque tous les analyseurs de protocole WAN implémentent des tests LAN et des tests de toutes les interfaces principales. Certains instruments sont capables d'analyser des protocoles de téléphonie. Et les modèles les plus avancés peuvent décoder et représenter facilement les sept couches OSI. L'avènement de l'ATM a conduit les industriels à fournir à leurs analyseurs des outils de test de ces réseaux. Ces instruments peuvent effectuer des tests complets des réseaux ATM E-1 / E-3 avec un support de surveillance et de simulation. L'ensemble des fonctions de service de l'analyseur est très important. Certains d'entre eux, par exemple la possibilité télécommande appareil, sont tout simplement irremplaçables.

Ainsi, les analyseurs de protocoles WAN/LAN/DTM modernes peuvent détecter des erreurs dans la configuration des routeurs et des ponts ; définir le type de trafic envoyé sur le WAN ; déterminer la plage de débits utilisée, optimiser le rapport entre la bande passante et le nombre de canaux ; localiser la source du trafic incorrect ; effectuer des tests d'interface série et des tests ATM complets ; effectuer une surveillance et un décodage complets des principaux protocoles sur n'importe quel canal ; analyser les statistiques en temps réel, y compris l'analyse du trafic du réseau local sur les réseaux mondiaux.

1.1.2 Protocoles de surveillance

SNMP (Simple Network Management Protocol) est un protocole de gestion de réseau de communication basé sur l'architecture TCP/IP.

Basé sur le concept TMN en 1980-1990. divers organismes de normalisation ont développé un certain nombre de protocoles pour la gestion des réseaux de données avec un spectre différent de mise en œuvre des fonctions RGT. Un type d'un tel protocole de gestion est SNMP. SNMP a été développé pour tester la fonctionnalité des routeurs et des ponts réseau. Par la suite, la portée du protocole s'est étendue à d'autres périphériques réseau tels que les concentrateurs, les passerelles, les serveurs de terminaux, les serveurs LAN Manager, les machines Windows NT, etc. De plus, le protocole permet la possibilité d'apporter des modifications au fonctionnement de ces appareils.

Cette technologie est conçue pour assurer la gestion et le contrôle des appareils et des applications dans un réseau de communication en échangeant des informations de contrôle entre les agents situés sur les appareils du réseau et les gestionnaires situés dans les stations de contrôle. SNMP définit un réseau comme un ensemble de stations de gestion de réseau et d'éléments de réseau (hôtes, passerelles et routeurs, serveurs de terminaux) qui fournissent collectivement des liens administratifs entre les stations de gestion de réseau et les agents de réseau.

Avec SNMP, il existe des systèmes gérés et supervisés. Un système géré comprend un composant appelé agent qui envoie des rapports au système de gestion. Essentiellement, les agents SNMP transmettent les informations de gestion aux systèmes de gestion sous forme de variables (telles que « mémoire libre », « nom du système », « nombre de processus en cours d'exécution »).

L'agent SNMP est un élément de traitement qui permet aux gestionnaires situés aux postes de gestion du réseau d'accéder aux valeurs des variables MIB, et leur permet ainsi de mettre en œuvre les fonctions de gestion et de surveillance de l'appareil.

Un agent logiciel est un programme résident qui exécute des fonctions de gestion et collecte des statistiques pour les transférer vers la base d'informations d'un périphérique réseau.

Agent matériel - Matériel intégré (avec un processeur et de la mémoire) qui stocke les agents logiciels.

Les variables accessibles via SNMP sont organisées en hiérarchie. Ces hiérarchies et autres métadonnées (telles que le type et la description d'une variable) sont décrites par des bases d'informations de gestion (MIB).

Aujourd'hui, il existe plusieurs normes pour les bases de données. information de gestion... Les principales sont les normes MIB-I et MIB-II, ainsi que la version RMON MIB de la base de données pour la gestion à distance. En outre, il existe des normes pour des périphériques MIB spécifiques d'un type particulier (par exemple, des MIB pour les concentrateurs ou des MIB pour les modems), ainsi que des MIB propriétaires de fabricants d'équipements spécifiques.

La spécification MIB-I d'origine définissait uniquement les opérations de lecture sur les valeurs des variables. Les opérations de modification ou de paramétrage des valeurs d'un objet font partie des spécifications MIB-II.

La version MIB-I (RFC 1156) définit jusqu'à 114 objets, qui sont classés en 8 groupes :

Système - informations générales sur le périphérique (par exemple, l'ID du fournisseur, la dernière fois que le système a été initialisé).

Interfaces - décrit les paramètres des interfaces réseau de l'appareil (par exemple, leur nombre, types, taux de change, taille maximale des paquets).

AddressTranslationTable - décrit la correspondance entre les adresses réseau et physiques (par exemple, en utilisant le protocole ARP).

InternetProtocol - données relatives au protocole IP (adresses des passerelles IP, hôtes, statistiques sur les paquets IP).

ICMP - données relatives au protocole d'échange de messages de contrôle ICMP.

TCP - données liées au protocole TCP (par exemple, sur les connexions TCP).

UDP - données liées au protocole UDP (le nombre de datagrammes UPD transmis, reçus et erronés).

EGP - données relatives au protocole d'échange de routage ExteriorGatewayProtocol utilisé sur Internet (le nombre de messages reçus avec et sans erreurs).

À partir de cette liste de groupes de variables, on peut voir que la norme MIB-I a été développée avec une focalisation rigide sur la gestion des routeurs prenant en charge les protocoles de pile TCP/IP.

Dans la version de MIB-II (RFC 1213), adoptée en 1992, l'ensemble d'objets standard a été considérablement étendu (jusqu'à 185), et le nombre de groupes est passé à 10.

Agents du RMON

Le dernier ajout à la fonctionnalité SNMP est la spécification RMON, qui fournit une communication à distance avec la MIB.

La norme RMON a émergé en novembre 1991 lorsque l'Internet Engineering Task Force a publié la RFC 1271 intitulée "Remote Network Monitoring Management Information Base". Ce document contenait une description de RMON pour les réseaux Ethernet : - un protocole de surveillance de réseau informatique, une extension SNMP, qui, comme SNMP, est basé sur la collecte et l'analyse d'informations sur la nature des informations transmises sur le réseau. Comme dans SNMP, la collecte d'informations est effectuée par des agents matériels et logiciels, dont les données sont envoyées à l'ordinateur sur lequel l'application de gestion de réseau est installée. La différence entre RMON et son prédécesseur réside tout d'abord dans la nature des informations collectées - si dans SNMP, ces informations ne caractérisent que les événements se produisant sur l'appareil sur lequel l'agent est installé, alors RMON a besoin des données reçues pour caractériser le trafic entre le réseau dispositifs.

Avant RMON, SNMP ne pouvait pas être utilisé à distance ; il permettait uniquement la gestion locale des périphériques. Le RMON MIB a un ensemble amélioré de propriétés pour la gestion à distance, car il contient des informations agrégées sur le périphérique, ce qui ne nécessite pas le transfert de grandes quantités d'informations sur le réseau. Les MIB RMON incluent des compteurs d'erreurs de paquets supplémentaires, des tendances graphiques et des analyses statistiques plus flexibles, des outils de filtrage plus puissants pour capturer et analyser des paquets individuels et des conditions d'alerte plus complexes. Les agents RMON MIB sont plus intelligents que les agents MIB-I ou MIB-II et effectuent une grande partie du travail de traitement des informations de périphérique que les gestionnaires faisaient auparavant. Ces agents peuvent être situés à l'intérieur de divers dispositifs de communication et également être implémentés en tant que modules logiciels distincts fonctionnant sur des PC et des ordinateurs portables universels (par exemple, LANalyzerНvell).

L'intelligence des agents RMON leur permet d'effectuer des actions simples pour diagnostiquer les défauts et avertir des défaillances possibles - par exemple, en utilisant la technologie RMON, vous pouvez collecter des données sur le fonctionnement normal du réseau (c'est-à-dire effectuer ce que l'on appelle la base de référence), et puis émettre des alertes lorsque le mode de fonctionnement du réseau s'écartera de la ligne de base - cela peut indiquer, en particulier, l'entretien incomplet de l'équipement. En rassemblant les informations des agents RMON, l'application de gestion peut aider un administrateur réseau (situé, par exemple, à des milliers de kilomètres du segment de réseau analysé) à localiser un problème et à développer un plan d'action optimal pour le résoudre.

La collecte des informations RMON est réalisée par des sondes matérielles et logicielles qui sont directement connectées au réseau. Pour effectuer la tâche de collecte et d'analyse primaire des données, la sonde doit disposer de ressources de calcul suffisantes et de la quantité de RAM. Il existe actuellement trois types de sondes sur le marché : embarquées, informatisées et autonomes. Un produit est considéré comme compatible RMON s'il implémente au moins un groupe RMON. Bien entendu, plus il y a de groupes de données RMON implémentés dans un produit donné, plus il est cher, d'une part, et, d'autre part, plus l'information sur le fonctionnement du réseau qu'il fournit est complète.

Les sondes intégrées sont des modules d'extension pour les périphériques réseau. Ces modules sont disponibles auprès de nombreux fabricants, y compris de grandes entreprises telles que 3Com, Cabletron, Bay Networks et Cisco. (Par ailleurs, 3Com et Bay Networks ont récemment acquis Axon et ARMON, des leaders reconnus dans la conception et la fabrication de commandes RMON. Cet intérêt pour cette technologie de la part des principaux fabricants d'équipements de réseau démontre une fois de plus le besoin de surveillance à distance pour les utilisateurs.) La décision de construire RMON modules en hubs semble naturel, car c'est en observant ces appareils que l'on peut se faire une idée du fonctionnement du segment. L'avantage de telles sondes est évident : elles permettent d'obtenir des informations sur tous les grands groupes de données RMON à un prix relativement bas. L'inconvénient, tout d'abord, est le manque de performances très élevées, qui se manifeste notamment par le fait que les sondes intégrées ne prennent souvent pas en charge tous les groupes de données RMON. 3Com a récemment annoncé son intention de publier des pilotes compatibles RMON pour les adaptateurs réseau Etherlink III et Fast Ethernet. Ainsi, il sera possible de collecter et d'analyser les données RMON directement aux postes de travail du réseau.

Les sondes informatiques sont simplement des ordinateurs en réseau sur lesquels l'agent logiciel RMON est installé. Ces sondes (qui incluent, par exemple, l'agent Cornerstone 2.5 de Network General) offrent de meilleures performances que les sondes intégrées et prennent généralement en charge tous les ensembles de données RMON. Elles sont plus chères que les sondes intégrées, mais beaucoup moins chères que les sondes autonomes. De plus, les sondes informatisées sont assez volumineuses, ce qui peut parfois limiter leur applicabilité.

Les sondes autonomes ont les performances les plus élevées ; comme il est facile à comprendre, ce sont en même temps les produits les plus chers de tous ceux décrits. Typiquement, une sonde autonome est un processeur (classe i486 ou processeur RISC) équipé de suffisamment de RAM et d'une carte réseau. Les leaders du marché dans ce secteur sont Frontier et Hewlett-Packard. Les sondes de ce type sont de petite taille et très mobiles - elles sont très faciles à connecter et à déconnecter du réseau. Lors de la résolution du problème de la gestion d'un réseau à l'échelle mondiale, ce n'est bien sûr pas une propriété très importante, mais si les outils RMON sont utilisés pour analyser le fonctionnement d'un réseau d'entreprise de taille moyenne, alors (étant donné le coût élevé de dispositifs), la mobilité des sondes peut jouer un rôle très positif.

L'objet RMON est numéroté 16 dans l'ensemble d'objets MIB, et l'objet RMON lui-même est groupé conformément à la RFC 1271 et se compose de dix groupes de données.

Statistiques - statistiques accumulées actuelles sur les caractéristiques des paquets, le nombre de collisions, etc.

Historique - données statistiques enregistrées à intervalles réguliers pour une analyse ultérieure des tendances de leurs changements.

Alarmes - seuils statistiques au-dessus desquels l'agent RMON envoie un message au gestionnaire. Permet à l'utilisateur de définir un certain nombre de niveaux de seuil (ces seuils peuvent faire référence à une grande variété de choses - n'importe quel paramètre du groupe de statistiques, son amplitude ou son taux de changement, et bien plus encore), lors du dépassement duquel une alarme est générée. L'utilisateur peut également déterminer dans quelles conditions le dépassement de la valeur seuil doit être accompagné d'une alarme - cela évitera de générer un signal "pour rien", ce qui est mauvais, d'une part, car personne ne fait attention à la lumière rouge allumée en permanence, et deuxièmement parce que la transmission d'alarmes inutiles sur le réseau entraîne un encombrement inutile des lignes de communication. Le signal d'alarme est généralement transmis au groupe d'événements, où il est déterminé ce qu'il faut en faire ensuite.

Hôte - données sur les hôtes sur le réseau, y compris leurs adresses MAC ..

HostTopN est un tableau des hôtes les plus occupés du réseau. La table host N (HostTopN) contient une liste des N premiers hôtes avec la valeur la plus élevée de la statistique spécifiée pour l'intervalle spécifié. Par exemple, vous pouvez demander une liste de 10 hôtes qui ont rencontré le nombre maximal d'erreurs au cours des dernières 24 heures. Cette liste sera compilée par l'agent lui-même, et l'application de gestion ne recevra que les adresses de ces hôtes et les valeurs des paramètres statistiques correspondants. On voit dans quelle mesure cette approche économise les ressources du réseau.

TrafficMatrix - statistiques sur l'intensité du trafic entre chaque paire d'hôtes sur le réseau, triées dans une matrice. Les lignes de cette matrice sont numérotées en fonction des adresses MAC des stations - sources des messages, et les colonnes - en fonction des adresses des stations destinataires. Des éléments matriciels caractérisent l'intensité du trafic entre les stations respectives et le nombre d'erreurs. Après avoir analysé une telle matrice, l'utilisateur peut facilement savoir quelles paires de stations génèrent le trafic le plus intensif. Cette matrice, encore une fois, est formée par l'agent lui-même, il n'est donc pas nécessaire de transférer de grandes quantités de données vers un ordinateur central chargé de la gestion du réseau.

Filtre - conditions de filtrage des paquets. Les critères selon lesquels les paquets sont filtrés peuvent être très divers - par exemple, vous pouvez exiger de filtrer comme erronés tous les paquets dont la longueur est inférieure à une certaine valeur spécifiée. On peut dire que la mise en place du filtre correspond en quelque sorte à l'organisation du canal de transmission du paquet. L'utilisateur détermine où mène ce canal. Par exemple, tous les paquets erronés peuvent être interceptés et envoyés au tampon approprié. De plus, l'apparition d'un paquet correspondant au filtre défini peut être considérée comme un événement auquel le système doit réagir de manière prédéterminée.

PacketCapture - conditions de capture des paquets. Un groupe de capture de paquets comprend des tampons de capture, dans lesquels sont envoyés des paquets dont les caractéristiques satisfont aux conditions énoncées dans le groupe de filtres. Dans ce cas, ce n'est pas tout le paquet qui peut être capturé, mais, disons, seulement les premières dizaines d'octets du paquet. Le contenu des tampons d'interception peut ensuite être analysé à l'aide de divers outils logiciels, révélant un certain nombre de caractéristiques très utiles du réseau. En réorganisant les filtres pour certaines caractéristiques, on peut caractériser différents paramètres fonctionnement du réseau.

Événement - conditions d'enregistrement et de génération d'événements. Le groupe d'événements définit quand envoyer une alarme à l'application de gestion, quand intercepter des paquets, et en général comment répondre à certains événements survenant dans le réseau, par exemple, si les seuils définis dans le groupe d'alarmes sont dépassés : s'il faut définir l'application de contrôle est notifiée, ou il vous suffit de consigner cet événement et de continuer à travailler. Les événements peuvent être liés ou non à la transmission d'alarmes - par exemple, l'envoi d'un paquet au tampon de capture est également un événement.

Ces groupes sont numérotés dans l'ordre indiqué, par exemple, le groupe Hôtes porte le nom numérique 1.3.6.1.2.1.16.4.

Le dixième groupe se compose d'objets spéciaux du protocole TokenRing.

Au total, la norme RMON MIB définit environ 200 objets dans 10 groupes, enregistrés dans deux documents - RFC 1271 pour les réseaux Ethernet et RFC 1513 pour les réseaux TokenRing.

Une particularité de la norme RMON MIB est son indépendance par rapport au protocole de couche réseau (contrairement aux normes MIB-I et MIB-II, orientées vers les protocoles TCP/IP). Par conséquent, il est pratique de l'utiliser dans des environnements hétérogènes utilisant différents protocoles de couche réseau.

1.2 Systèmes de gestion de réseau populaires

Système de gestion de réseau - outils matériels et/ou logiciels pour la surveillance et la gestion des nœuds de réseau. Le logiciel du système de gestion de réseau se compose d'agents localisés sur des périphériques réseau et transmettant des informations à la plate-forme de gestion de réseau. La méthode de communication entre les applications de gestion et les agents sur les appareils est déterminée par des protocoles.

Les systèmes de gestion de réseau doivent avoir un certain nombre de qualités :

vraie distribution selon le concept client/serveur,

évolutivité,

ouverture pour faire face au matériel disparate des ordinateurs de bureau aux mainframes.

Les deux premières propriétés sont étroitement liées. Une bonne évolutivité est obtenue grâce au système de contrôle distribué. La distribution signifie qu'un système peut inclure plusieurs serveurs et clients. Les serveurs (gestionnaires) collectent des données sur l'état actuel du réseau auprès d'agents (SNMP, CMIP ou RMON) intégrés aux équipements du réseau et les accumulent dans leur base de données. Les clients sont des consoles graphiques gérées par les administrateurs réseau. Le logiciel client du système de contrôle accepte les demandes d'action de l'administrateur (par exemple, carte détaillée partie du réseau) et demande au serveur les informations nécessaires. Si le serveur dispose des informations nécessaires, il les transfère immédiatement au client, sinon, il essaie de les collecter auprès des agents.

Les premières versions des systèmes de contrôle combinaient toutes les fonctions dans un seul ordinateur, qui était géré par un administrateur. Pour les petits réseaux ou les réseaux avec une petite quantité d'équipements contrôlés, une telle structure s'avère tout à fait satisfaisante, mais avec une grande quantité d'équipements contrôlés, le seul ordinateur vers lequel circulent les informations de tous les appareils du réseau devient un goulot d'étranglement. Et le réseau ne peut pas faire face à l'important flux de données, et l'ordinateur lui-même n'a pas le temps de les traiter. De plus, un grand réseau est généralement géré par plus d'un administrateur. Par conséquent, en plus de plusieurs serveurs dans un grand réseau, il devrait y avoir plusieurs consoles pour les administrateurs réseau, et chaque console devrait fournir des informations spécifiques correspondant aux besoins actuels d'un administrateur particulier.

La prise en charge d'équipements dissemblables est une caractéristique souhaitable plutôt qu'une caractéristique réelle des systèmes de contrôle d'aujourd'hui. Les produits de gestion de réseau les plus populaires comprennent quatre systèmes : Spectrum de Cabletron Systems, OpenView de Hewlett-Packard, NetView d'IBM et Solstice de SunSoft, une division de SunMicrosystems. Trois entreprises sur quatre produisent elles-mêmes des équipements de communication. Naturellement, Spectrum gère le mieux les équipements Cabletron, OpenView contrôle les équipements Hewlett-Packard et NetView contrôle les équipements IBM.

Lors de la création d'une carte de réseau, qui se compose d'équipements d'autres fabricants, ces systèmes commencent à faire des erreurs et prennent un appareil pour un autre, et lors de la gestion de ces appareils, ils ne prennent en charge que leurs fonctions de base et de nombreuses fonctions supplémentaires utiles qui distinguent cet appareil de le reste, le système de contrôle est simple ne comprend pas et ne peut donc pas les utiliser.

Pour remédier à cette lacune, les développeurs de systèmes de gestion prennent en charge non seulement les MIB standard I, MIB II et RMON, mais également de nombreuses MIB propriétaires des fabricants. Le leader dans ce domaine est le système Spectrum, qui prend en charge environ 1000 MIB de différents fabricants.

Une autre façon de mieux prendre en charge un matériel spécifique consiste à utiliser une application basée sur une plate-forme de contrôle de l'entreprise qui produit ce matériel. Des entreprises leaders - fabricants d'équipements de communication - ont développé et fournissent des systèmes de contrôle hautement sophistiqués et multifonctionnels pour leurs équipements. Les systèmes les plus connus de cette classe incluent Optivity de BayNetworks, CiscoWorks de CiscoSystems, Transcend de 3Com. Optivity, par exemple, vous permet de surveiller et de gérer les réseaux de routeurs, de commutateurs et de concentrateurs de BayNetwork, en tirant pleinement parti de leurs capacités et fonctionnalités. Les équipements d'autres fabricants sont maintenus au niveau des fonctions de contrôle de base. Optivity fonctionne sur OpenView et SunNetManager de Hewlett-Packard (prédécesseur de Solstice) de SunSoft. Cependant, l'exécution sur n'importe quelle plate-forme de gestion avec plusieurs systèmes, telle qu'Optivity, est trop complexe et nécessite que les ordinateurs sur lesquels elle fonctionnera disposent de processeurs très puissants et de beaucoup de RAM.

Cependant, si le réseau est dominé par des équipements d'un seul fabricant, la disponibilité des applications de gestion de ce fabricant pour une plate-forme de gestion populaire permet aux administrateurs réseau de résoudre avec succès de nombreux problèmes. Par conséquent, les développeurs de plates-formes de contrôle fournissent avec eux outils qui simplifient le développement d'applications, et la disponibilité de telles applications et leur nombre sont considérés comme un facteur très important lors du choix d'une plate-forme de gestion.

L'ouverture de la plate-forme de gestion dépend également de la manière dont les données collectées sur l'état du réseau sont stockées. La plupart des principales plates-formes permettent de stocker des données dans des bases de données commerciales telles qu'Oracle, Ingres ou Informix. L'utilisation d'un SGBD universel réduit la vitesse du système de contrôle par rapport au stockage des données dans les fichiers du système d'exploitation, mais d'autre part, il permet le traitement de ces données par toute application pouvant fonctionner avec ces SGBD.

2. ÉNONCÉ DU PROBLÈME

Conformément à la situation actuelle, il a été décidé de développer et de mettre en œuvre un système de surveillance du réseau qui résoudrait tous les problèmes ci-dessus.

2.1 Termes de référence

Développer et mettre en œuvre un système de surveillance permettant de surveiller à la fois les commutateurs, les routeurs de différents fabricants et les serveurs de différentes plates-formes. Concentrez-vous sur l'utilisation de protocoles et de systèmes ouverts, avec une utilisation maximale des développements prêts à l'emploi du fonds du logiciel libre.

2.2 Termes de référence mis à jour

Au cours de la formulation plus poussée du problème et de la recherche du domaine, en tenant compte des investissements économiques et en temps, la tâche technique a été clarifiée :

Le système doit répondre aux exigences suivantes :

§ exigences minimales pour les ressources matérielles ;

§ codes open source de tous les composants du complexe ;

§ l'extensibilité et l'évolutivité du système ;

§ moyens standards fournir des informations de diagnostic;

§ disponibilité d'une documentation détaillée pour tous les produits logiciels utilisés ;

§ capacité à travailler avec des équipements de différents fabricants.

3. SYSTÈME PROPOSÉ

1 Choisir un système de surveillance de réseau

Conformément aux termes de référence mis à jour, le système Nagios est le mieux adapté en tant que cœur du système de surveillance du réseau, car il possède les qualités suivantes :

§ des outils de génération de schémas sont disponibles ;

§ des outils de reporting sont disponibles ;

§ il y a une possibilité de regroupement logique;

§ il existe un système intégré pour enregistrer les tendances et les prévoir;

§ il est possible d'ajouter automatiquement de nouveaux appareils (Autodiscovery) à l'aide du plug-in officiel ;

§ il y a la possibilité d'une surveillance avancée de l'hôte à l'aide d'un agent ;

§ Prise en charge du protocole SNMP via un plug-in ;

§ Prise en charge du protocole Syslog via un plug-in ;

§ prise en charge des scripts externes ;

§ prise en charge des plugins auto-écrits et possibilité de les créer rapidement et facilement ;

§ déclencheurs et événements intégrés ;

§ interface Web complète ;

§ la possibilité d'une surveillance distribuée ;

§ inventaire via plug-in ;

§ la possibilité de stocker des données à la fois dans des fichiers et dans des bases de données SQL, ce qui est très important lors de l'augmentation des volumes ;

§ Licence GPL, et donc livraison de base gratuite, support et codes open source du cœur du système et des composants qui l'accompagnent ;

§ cartes dynamiques et personnalisables ;

§ contrôle d'accès;

§ langage intégré pour décrire les hôtes, les services et les contrôles ;

§ la possibilité de suivre les utilisateurs.

Le système de surveillance du réseau Zabbix a un ensemble de paramètres similaire, mais au moment de la mise en œuvre, il avait beaucoup moins de fonctionnalités que Nagios et avait un statut de version bêta. De plus, l'étude des forums thématiques et des flux d'actualités a montré la plus grande prévalence parmi les utilisateurs de Nagios, ce qui signifie la présence d'une documentation écrite par l'utilisateur et la description la plus détaillée des points difficiles de la configuration.

Nagios vous permet de surveiller les services réseau tels que SMTP, TELNET, SSH, HTTP, DNS, POP3, IMAP, NNTP et bien d'autres. En outre, vous pouvez surveiller l'utilisation des ressources du serveur telles que la consommation d'espace disque, la mémoire libre et l'utilisation du processeur. Il est possible de créer vos propres gestionnaires d'événements. Ces gestionnaires seront exécutés lorsque certains événements déclenchés par des vérifications de services ou de serveurs se produisent. Cette approche vous permettra de répondre activement aux événements en cours et d'essayer de résoudre automatiquement les problèmes qui se sont posés. Par exemple, vous pouvez créer un gestionnaire d'événements qui redémarrera automatiquement un service en suspens. Un autre avantage du système de surveillance Nagios est la possibilité de le contrôler à distance en utilisant l'interface wap d'un téléphone mobile. En utilisant le concept d'hôtes "parents", il est facile de décrire la hiérarchie et les dépendances entre tous les hôtes. Cette approche est extrêmement utile pour les grands réseaux car elle permet des diagnostics complexes. Et cette qualité, à son tour, permet de distinguer les hôtes non fonctionnels de ceux qui ne sont pas disponibles pour le moment en raison de dysfonctionnements dans le fonctionnement des liaisons intermédiaires. Nagios est capable de créer des graphiques des systèmes surveillés et des cartes de l'infrastructure réseau surveillée.

De sa pratique de travail avec Nagios, l'auteur peut donner un exemple montrant à quel point il a été utile dans sa pratique personnelle. La perte de paquets a commencé sur l'interface réseau externe du pare-feu à des intervalles de plusieurs heures. En raison d'un dysfonctionnement, jusqu'à 20 pour cent du trafic de passage a été perdu. Après une minute, l'autre interface a recommencé à fonctionner comme prévu. En raison de la nature flottante de ce problème, il n'a pas été possible pendant plusieurs semaines de savoir pourquoi les interruptions intermittentes se produisent lors de l'utilisation d'Internet. Sans Nagios, le dépannage prendrait beaucoup de temps.

De nombreux administrateurs connaissent l'ancêtre de Nagios, NetSaint. Malgré le fait que le site du projet NetSaint fonctionne toujours correctement, de nouveaux développements sont déjà basés sur le code source de Nagios. Par conséquent, il est conseillé à tout le monde de passer lentement à Nagios.

La documentation fournie avec Nagios indique qu'il fonctionnera de manière stable avec de nombreux autres systèmes de type Unix. Pour afficher l'interface web de Nagios, nous avons besoin d'un serveur Apache. Vous êtes libre d'en utiliser un autre, mais dans ce travail nous considérerons Apache comme le serveur web le plus répandu sur les plateformes Unix. Il est possible d'installer un système de surveillance sans interface Web, mais nous ne le ferons pas, car cela réduit considérablement la convivialité.

4. DÉVELOPPEMENT DE LOGICIEL

En tant que partie matérielle du système en cours de mise en œuvre, vous pouvez utiliser un ordinateur compatible IBM standard, en tenant compte de la possibilité d'augmenter encore la charge et les exigences de fiabilité et de MTBF, ainsi que GosvyazNadzor, l'équipement de serveur certifié d'Aquarius a été acheté.

Le réseau existant utilise activement le système d'exploitation Debian basé sur le noyau Linux, possède une vaste expérience dans l'utilisation de ce système, a débogué la plupart des opérations pour gérer, configurer et assurer sa stabilité. De plus, cet OS est distribué sous licence GPL, ce qui signifie qu'il est gratuit et open source, ce qui correspond aux termes de référence mis à jour pour la conception d'un système de surveillance de réseau. ́ nux ", également dans certains langages " GNU + Linux ", " GNU-Linux ", etc.) est le nom général des systèmes d'exploitation de type UNIX basés sur le noyau du même nom et des bibliothèques et programmes système compilés pour celui-ci, développés dans le cadre du projet GNU./ Linux fonctionne sur des systèmes compatibles PC de la famille Intel x86, ainsi que IA-64, AMD64, PowerPC, ARM, et bien d'autres.

Le système d'exploitation GNU / Linux comprend également souvent des programmes qui complètent ce système d'exploitation et des applications qui en font un environnement d'exploitation multifonctionnel à part entière.

Contrairement à la plupart des autres systèmes d'exploitation, GNU/Linux n'est pas fourni avec un seul package "officiel". Au lieu de cela, GNU / Linux est disponible dans un grand nombre de soi-disant distributions dans lesquelles les programmes GNU sont liés au noyau Linux et à d'autres programmes. Les distributions GNU/Linux les plus connues sont Ubuntu, Debian GNU/Linux, Red Hat, Fedora, Mandriva, SuSE, Gentoo, Slackware, Archlinux. Distributions russes - ALT Linux et ASPLinux.

contrairement à Microsoft Windows(Windows NT), Mac OS (Mac OS X) et systèmes commerciaux de type UNIX, GNU/Linux n'a pas de centre géographique de développement. Il n'y a aucune organisation qui possède ce système ; il n'y a même pas un seul point focal. Le logiciel Linux est le résultat de milliers de projets. Certains de ces projets sont centralisés, d'autres concentrés dans des entreprises. De nombreux projets rassemblent des hackers du monde entier qui ne se connaissent que par correspondance. Tout le monde peut créer son propre projet ou rejoindre un projet existant et, en cas de succès, les résultats du travail seront connus de millions d'utilisateurs. Les utilisateurs participent aux tests de logiciels libres, communiquent directement avec les développeurs, ce qui leur permet de trouver et de corriger rapidement les bogues et de mettre en œuvre de nouvelles fonctionnalités.

L'histoire du développement des systèmes UNIX. GNU/Linux est compatible UNIX, mais basé sur son propre code source

C'est ce système de développement flexible et dynamique qui n'est pas possible pour les projets à code source fermé qui détermine la rentabilité exceptionnelle de [source non spécifiée 199 jours] GNU/Linux. Le faible coût du développement libre, les mécanismes de test et de distribution rationalisés, l'attraction de personnes de différents pays avec des visions différentes des problèmes, la protection du code sous licence GPL - tout cela est devenu la raison du succès du logiciel libre.

Bien entendu, une efficacité de développement aussi élevée ne pouvait manquer d'intéresser les grandes entreprises qui commençaient à ouvrir leurs projets. C'est ainsi qu'est apparu Mozilla (Netscape, AOL), OpenOffice.org (Sun), un clone gratuit d'Interbase (Borland) - Firebird, SAP DB (SAP). IBM a joué un rôle déterminant dans le portage de GNU/Linux sur ses mainframes.

D'autre part, l'open source réduit considérablement le coût de développement de systèmes fermés pour GNU/Linux et permet de réduire le coût de la solution pour l'utilisateur. C'est pourquoi GNU/Linux est devenu la plate-forme souvent recommandée pour des produits comme SGBD Oracle, DB2, Informix, SyBase, SAP R3, Domino.

La communauté GNU / Linux maintient la communication via des groupes d'utilisateurs Linux.

La plupart des utilisateurs utilisent des distributions pour installer GNU/Linux. Un kit de distribution n'est pas seulement un ensemble de programmes, mais un ensemble de solutions pour différentes tâches utilisateurs unis par des systèmes uniformes pour l'installation, la gestion et la mise à jour des packages, la configuration et la prise en charge.

Les distributions les plus répandues dans le monde sont : - un kit de distribution de plus en plus populaire axé sur la facilité d'apprentissage et d'utilisation - une version de distribution gratuite du kit de distribution SuSE, propriété de Novell. Il est facile à configurer et à maintenir grâce à l'utilisation de l'utilitaire YaST. - Soutenu par la communauté et la société RedHat, est antérieur à la version commerciale de RHEL. GNU/Linux est une distribution internationale, développée par une large communauté de développeurs pour les non -à des fins commerciales. A servi de base à de nombreuses autres distributions. Diffère par une approche stricte de l'inclusion de logiciels non libres. - Distribution franco-brésilienne, fusion de l'ancienne Mandrake et Conectiva (anglais). - Une des plus anciennes distributions, caractérisée par une approche conservatrice de développement et d'utilisation. - Une distribution qui est construite à partir de codes sources. Il permet une configuration très flexible du système final et une optimisation des performances, c'est pourquoi il s'appelle souvent une méta-distribution. Destinée aux experts et aux utilisateurs expérimentés - orientée vers les logiciels les plus récents et constamment mis à jour, prenant en charge le binaire ainsi que l'installation à partir de la source et construite sur la philosophie de simplicité KISS, cette distribution est destinée aux utilisateurs avertis qui souhaitent une pleine puissance et la possibilité de modifier Linux, mais pas au détriment du temps de maintenance.

En plus de celles répertoriées, il existe de nombreuses autres distributions, à la fois basées sur celles répertoriées et créées à partir de zéro et souvent conçues pour effectuer un nombre limité de tâches.

Chacun d'eux a son propre concept, son propre ensemble de packages, ses propres avantages et inconvénients. Aucun d'entre eux ne peut satisfaire tous les utilisateurs, et donc d'autres entreprises et associations de programmeurs coexistent avec bonheur aux côtés des leaders, proposant leurs solutions, leurs distributions et leurs services. Il existe de nombreux LiveCD construits sur GNU / Linux, tels que Knoppix. Le LiveCD vous permet d'exécuter GNU/Linux directement à partir d'un CD, sans l'installer sur un disque dur.

Pour ceux qui veulent bien comprendre GNU/Linux, n'importe laquelle des distributions est appropriée, mais assez souvent des distributions dites basées sur les sources sont utilisées à cette fin, c'est-à-dire en supposant auto-assemblage tous (ou une partie) des composants depuis la source, tels que LFS, Gentoo, ArchLinux ou CRUX.

4.1 Installation du noyau système

Nagios peut être installé de deux manières - à partir des sources et des packages construits. Les deux méthodes ont des avantages et des inconvénients, considérons-les.

Avantages de l'installation d'un package de leurs codes sources :

§ la possibilité de configuration détaillée du système ;

§ haut degré d'optimisation des applications;

§ la présentation la plus complète du programme.

Inconvénients de l'installation d'un package de leurs codes sources :

§ un temps supplémentaire est nécessaire pour assembler l'emballage, dépassant souvent le temps de sa configuration et de son réglage ;

§ l'impossibilité de supprimer le package avec les fichiers de configuration ;

§ l'impossibilité de mettre à jour le package avec les fichiers de configuration ;

§ impossibilité de contrôle centralisé sur les applications installées.

Lors de l'installation de Nagios à partir d'un package pré-construit, les avantages d'une méthode d'installation brute deviennent des inconvénients, et vice versa. Cependant, comme la pratique l'a montré, un emballage pré-assemblé répond à toutes les exigences du système et il ne sert à rien de perdre du temps à construire manuellement l'emballage.

Étant donné que les deux méthodes d'installation ont été initialement testées, nous examinerons chacune d'elles plus en détail.

4.1.1 Description de l'installation du noyau du système et des codes sources

Forfaits requis.

Vous devez vous assurer que les packages suivants sont installés avant de déployer Nagios. Un examen détaillé du processus de leur installation dépasse le cadre de ce travail.

· Apache 2

· PHP

· Compilateur GCC et bibliothèques de développement

· Bibliothèques de développement GD

Vous pouvez utiliser l'utilitaire apt-get (de préférence aptitude) pour les installer comme suit :

% sudo apt-get install apache2

% sudo apt-get install libapache2-mod-php5

% sudo apt-get install build-essential

% sudo apt-get install libgd2-dev

1) Créer un nouveau compte utilisateur non privilégié

Un nouveau compte est créé pour exécuter le service Nagios. Vous pouvez également le faire sous le compte superutilisateur, ce qui constituera une menace sérieuse pour la sécurité du système.

Devenez superutilisateur :

Créez un nouveau compte utilisateur nagios et attribuez-lui un mot de passe :

# / usr / sbin / useradd -m -s / bin / bash nagios

# passwd nagios

Créez un groupe nagios et ajoutez-y l'utilisateur nagios :

# / usr / sbin / groupadd nagios

# / usr / sbin / usermod -G nagios nagios

Créons un groupe nagcmd pour permettre l'exécution de commandes externes envoyées via l'interface Web. Ajoutez des utilisateurs nagios et apache à ce groupe :

# / usr / sbin / groupadd nagcmd

# / usr / sbin / usermod -a -G nagcmd nagios

# / usr / sbin / usermod -a -G nagcmd www-data

2) Téléchargez Nagios et les plugins pour cela

Créez un répertoire pour stocker les fichiers téléchargés :

# mkdir ~ / téléchargements

# cd ~ / téléchargements

Téléchargez le code source compressé de Nagios et de ses plugins (# "justify"> # wget # "justify"> # wget # "justify"> 3) Compilez et installez Nagios

Décompressons les codes sources compressés de Nagios :

# cd ~ / téléchargements

# tar xzf nagios-3.2.0.tar.gz

# cd nagios-3.2.0

Nous lançons le script de configuration Nagios en lui passant le nom du groupe que nous avons créé précédemment :

# ./configure --with-command-group = nagcmd

Liste complète des paramètres du script de configuration :

#. / configure --help

`configure" configure ce paquet pour s'adapter à de nombreux types de systèmes .: ./configure ... ... assignez des variables d'environnement (par exemple, CC, CFLAGS ...), spécifiez-les comme = VALUE. Voir ci-dessous pour les descriptions de certains des variables utiles.pour les options sont spécifiées entre parenthèses .:

h, --help affiche cette aide et quitte

Aide = options d'affichage courtes spécifiques à ce package

Help = affichage récursif de l'aide courte de tous les packages inclus

V, --version affiche les informations de version et quitte

q, --quiet, --silent n'affiche pas les messages "vérification ..."

Cache-file = résultats du test de cache FILE dans FILE

C, --config-cache alias pour `--cache-file = config.cache"

n, --no-create ne crée pas de fichiers de sortie

Srcdir = DIR trouver les sources dans les répertoires DIR :

Préfixe = PREFIX installer des fichiers indépendants de l'architecture dans PREFIX

Exec-prefix = EPREFIX installe les fichiers dépendants de l'architecture dans EPREFIXdefault, `make install" installera tous les fichiers dans `/ usr / local / nagios / bin", `/ usr / local / nagios / lib" etc. Vous pouvez spécifier un préfixe d'installation autre que `/ usr / local / nagios" en utilisant `--prefix", par exemple `--prefix = $ HOME" .meilleur contrôle, utilisez les options ci-dessous.réglage des répertoires d'installation :

Bindir = exécutables utilisateur DIR

Sbindir = exécutables d'administrateur système DIR

Libexecdir = exécutables du programme DIR

Datadir = DIR en lecture seule des données indépendantes de l'architecture

Sysconfdir = DIR en lecture seule données d'une seule machine

Sharedstatedir = DIR modifiables données indépendantes de l'architecture

Localstatedir = DIR données monomachine modifiables

Libdir = bibliothèques de code objet DIR

Inclusir = fichiers d'en-tête DIR C

Oldincludedir = fichiers d'en-tête DIR C pour les non-gcc

Infodir = documentation d'informations sur le DIR

Mandir = types de documentation DIR man :

Build = BUILD configurer pour construire sur BUILD

Hôte = HOST compilation croisée pour créer des programmes à exécuter sur HOST

Disable-FEATURE n'inclut pas FEATURE (identique à --enable-FEATURE = no)

Activer-FEATURE [= ARG] inclure FEATURE

Disable-statusmap = désactive la compilation de statusmap CGI

Disable-statuswrl = désactive la compilation de statuswrl (VRML) CGI

Enable-DEBUG0 affiche l'entrée et la sortie de la fonction

Enable-DEBUG1 affiche des messages d'informations générales

Enable-DEBUG2 affiche des messages d'avertissement

Enable-DEBUG3 affiche les événements programmés (contrôles de service et d'hôte, etc.)

Enable-DEBUG4 affiche les notifications de service et d'hôte

Enable-DEBUG5 affiche les requêtes SQL

Enable-DEBUGALL affiche tous les messages de débogage

Enable-nanosleep permet l'utilisation du nanosleep (au lieu du sommeil) dans la synchronisation des événements

Enable-event-broker permet l'intégration des routines du courtier d'événements

Enable-embedded-perl activera l'interpréteur Perl intégré

Enable-cygwin permet la construction sous l'environnement CYGWIN

Avec-PACKAGE [= ARG] utiliser PACKAGE

Sans-PACKAGE n'utilisez pas PACKAGE (identique à --with-PACKAGE = no)

Avec-nagios-utilisateur = définit le nom d'utilisateur pour exécuter nagios

Avec-nagios-groupe = définit le nom du groupe pour exécuter nagios

Avec-commande-utilisateur = définit le nom d'utilisateur pour l'accès aux commandes

Avec-groupe-commande = définit le nom du groupe pour l'accès aux commandes

Avec-mail = Définit le chemin d'accès au programme équivalent au courrier

Avec-init-dir = Définit le répertoire dans lequel placer le script d'initialisation

Avec-lockfile = Définit le chemin et le nom du fichier de verrouillage

With-gd-lib = DIR définit l'emplacement de la bibliothèque gd

With-gd-inc = DIR définit l'emplacement des fichiers d'inclusion gd

Avec-cgiurl = définit l'URL pour les programmes cgi (n'utilisez pas de barre oblique de fin)

Avec-htmurl = définit l'URL pour le html public

With-perlcache active la mise en cache des scripts Perl compilés en interne variables d'environnement influentes : -L si vous avez des bibliothèques dans un répertoire Indicateurs de préprocesseur C/C++, par ex. -JE si vous avez dans un répertoire non standard C préprocesseur ces variables pour remplacer les choix faits par "configure" ou pour aider à trouver des bibliothèques et des programmes avec des noms/emplacements non standard.

Compilation du code source de Nagios.

Installons les binaires, un script d'initialisation, des exemples de fichiers de configuration et définissons les permissions sur le répertoire des commandes externes :

# make install-init

# make install-config

# make install-commandmode

) Modifions la configuration

Des exemples de fichiers de configuration sont installés dans le répertoire /usr/local/nagios/etc. Ils devraient travailler tout de suite. Vous n'avez qu'à faire une modification avant de continuer.

Modifions le fichier de configuration /usr/local/nagios/etc/objects/contacts.cfg avec n'importe quel éditeur de texte et changeons l'adresse e-mail associée à la définition de contact nagiosadmin à l'adresse à laquelle nous allons recevoir les messages d'erreur.

# vi /usr/local/nagios/etc/objects/contacts.cfg

5) Configuration de l'interface Web

Installez le fichier de configuration du frontend Nagios dans le répertoire Apache conf.d.

# make install-webconf

Créez un compte nagiosadmin pour vous connecter à l'interface Web de Nagios

# htpasswd -c /usr/local/nagios/etc/htpasswd.users nagiosadmin

Redémarrez Apache pour que les modifications prennent effet.

# /etc/init.d/apache2 recharger

Il est nécessaire de prendre des mesures pour renforcer la sécurité du CGI afin d'empêcher le vol de ce compte, car les informations de surveillance sont assez sensibles.

) Compilez et installez les plugins Nagios

Décompressons les codes sources compressés des plugins Nagios :

# cd ~ / téléchargements

# tar xzf nagios-plugins-1.4.11.tar.gz


Compilez et installez les plugins :

# ./configure --with-nagios-user = nagios --with-nagios-group = nagios

#faire l'installation

) Démarrer le service Nagios

Configurons Nagios pour qu'il démarre automatiquement lorsque le système d'exploitation est allumé :

# ln -s /etc/init.d/nagios /etc/rcS.d/S99nagios

Vérifions l'exactitude syntaxique des exemples de fichiers de configuration :

# / usr / local / nagios / bin / nagios -v /usr/local/nagios/etc/nagios.cfg

S'il n'y a pas d'erreurs, lancez Nagios :

# /etc/init.d/nagios start

) Entrez dans l'interface Web

Vous pouvez maintenant vous connecter à l'interface Web de Nagios à l'aide de l'URL suivante. Vous serez invité à saisir le nom d'utilisateur (nagiosadmin) et le mot de passe que nous avons définis précédemment.

# "justifier">) Autres paramètres

Pour recevoir des rappels par e-mail sur les événements Nagios, vous devez installer le package mailx (Postfix) :

% sudo apt-get install mailx

% sudo apt-get install suffixe

Vous devez éditer les commandes de rappel Nagios dans le fichier /usr/local/nagios/etc/objects/commands.cfg et changer tous les liens de "/ bin / mail" en "/ usr / bin / mail". Après cela, vous devez redémarrer le service Nagios :

# sudo /etc/init.d/nagios redémarrer

La configuration détaillée du module de messagerie est décrite dans l'annexe D.

4.1.2 Description de l'installation du noyau système à partir du référentiel

Comme indiqué ci-dessus, l'installation de Nagios à partir des sources prend beaucoup de temps et n'a de sens que si vous avez besoin d'une optimisation minutieuse de l'application ou si vous voulez bien comprendre le fonctionnement du système. En production, la plupart des logiciels sont installés à partir des référentiels sous forme de packages précompilés. Dans ce cas, l'installation se réduit à la saisie d'une seule commande :

% sudo aptitude installer nagios

Le gestionnaire de packages satisfera indépendamment toutes les dépendances et installera les packages nécessaires.

4.2 Configuration du noyau système

Avant de configurer en détail, vous devez comprendre comment fonctionne le noyau Nagios. Sa description graphique est présentée ci-dessous dans l'illustration 6.2.

4.2.1 Description du fonctionnement du noyau système

La figure suivante montre un schéma simplifié du fonctionnement du service Nagios.

Riz. 4.1 - Cœur du système

Le service Nagios lit le fichier de configuration principal, qui, en plus des paramètres de base du service, contient des liens vers des fichiers de ressources, des fichiers de description d'objet et des fichiers de configuration CGI.

L'algorithme et la logique du noyau de surveillance du réseau sont indiqués ci-dessous.

Riz. 4.2 - Algorithme d'alerte de Nagios

2.2 Description de l'interaction des fichiers de configuration

Le répertoire /etc/apache2/conf.d/ contient le fichier nagios3.conf, à partir duquel le serveur web apache prend les paramètres de nagios.

Les fichiers de configuration de nagios se trouvent dans le répertoire /etc/nagios3.

Le fichier /etc/nagios3/htpasswd.users contient les mots de passe des utilisateurs de nagios. La commande pour créer un fichier et définir le mot de passe par défaut pour l'utilisateur nagios est donnée ci-dessus. À l'avenir, il sera nécessaire d'omettre l'argument "-c" lors de la spécification d'un mot de passe pour un nouvel utilisateur, sinon le nouveau fichier écrasera l'ancien.

Le fichier /etc/nagios3/nagios.cfg contient la configuration de base de nagios lui-même. Par exemple, les fichiers journaux d'événements ou le chemin d'accès au reste des fichiers de configuration que nagios lit au démarrage.

Les nouveaux hôtes et services sont définis dans le répertoire /etc/nagios/objects.

4.2.3 Compléter les descriptions des hébergeurs et des services

Comme indiqué ci-dessus, vous pouvez configurer le noyau du système à l'aide d'un seul fichier de description pour les hôtes et les services, mais cette méthode ne sera pas pratique avec une augmentation du nombre d'équipements surveillés, vous devez donc créer une sorte de structure de répertoires et de fichiers avec descriptions des hôtes et des services.

La structure créée est présentée à l'annexe H.

Fichier Hosts.cfg

Tout d'abord, vous devez décrire les hôtes qui seront surveillés. Vous pouvez décrire autant d'hôtes que vous le souhaitez, mais dans ce fichier nous nous limiterons aux paramètres généraux pour tous les hôtes.

L'hôte décrit ici n'est pas un véritable hôte, mais un modèle sur lequel toutes les autres descriptions d'hôte sont basées. Le même mécanisme peut être trouvé dans d'autres fichiers de configuration lorsque la configuration est basée sur un ensemble prédéfini de valeurs par défaut.

Fichier Hostgroups.cfg

C'est là que les hôtes sont ajoutés au groupe d'hôtes. Même dans une configuration simple, lorsqu'il n'y a qu'un seul hôte, il faut quand même l'ajouter au groupe pour que Nagios sache quel groupe de contacts utiliser pour envoyer des notifications. Plus d'informations sur le groupe de contact ci-dessous.

Fichier contactsgroups.cfg

Nous avons défini un groupe de contacts et ajouté des utilisateurs à ce groupe. Cette configuration garantit que tous les utilisateurs sont alertés en cas de problème avec les serveurs dont le groupe est responsable. Cependant, il convient de garder à l'esprit que les paramètres individuels de chaque utilisateur peuvent remplacer ces paramètres.

L'étape suivante consiste à fournir les informations de contact et les paramètres d'alerte.

Fichier contacts.cfg

En plus de fournir des informations de contact supplémentaires pour les utilisateurs dans ce fichier, l'un des champs, contact_name, a un autre objectif. Les scripts CGI utilisent les noms donnés dans ces champs pour déterminer si l'utilisateur a le droit d'accéder à une certaine ressource ou non. Vous devez configurer l'authentification basée sur .htaccess, mais à part cela, vous devez utiliser les mêmes noms que ceux utilisés ci-dessus pour que les utilisateurs puissent travailler via l'interface Web.

Maintenant que les hôtes et les contacts sont configurés, vous pouvez procéder à la configuration de la surveillance des services individuels qui doivent être surveillés.

Fichier services.cfg

Ici, comme dans le fichier hosts.cfg pour les hôtes, nous définissons uniquement les paramètres généraux pour tous les services.

Il existe un grand nombre de modules Nagios supplémentaires disponibles, mais s'il n'y a toujours pas de contrôle, vous pouvez toujours l'écrire vous-même. Par exemple, il n'y a pas de module qui vérifie si Tomcat est en cours d'exécution ou non. Vous pouvez écrire un script qui charge une page jsp à partir d'un serveur Tomcat distant et renvoie le résultat selon que la page chargée contient ou non du texte sur la page. (Lors de l'ajout d'une nouvelle commande, assurez-vous de la mentionner dans le fichier checkcommand.cfg, auquel nous n'avons pas touché).

De plus, pour chaque hôte individuel, nous créons notre propre fichier de description, dans le même fichier, nous stockerons les descriptions des services que nous surveillerons pour cet hôte. Ceci est fait pour la commodité et l'organisation logique.

Il convient de noter que les hôtes Windows sont surveillés via SNMP et NSClient a qui est livré avec Nagios. Vous trouverez ci-dessous un schéma de son travail.

Riz. 4.3 - Schéma de surveillance des hôtes Windows

Dans le même temps * les hôtes nix sont également surveillés via le plugin SNMP et NRPE. Le schéma de son travail est montré dans la figure.

Riz. 4.4 - Schéma de surveillance * hôtes nix

2.4 Écriture de plugins

En plus d'écrire des scripts d'initialisation, de définir des hôtes et des services, les plugins suivants ont été utilisés :

check_disk

check_dns

check_http

check_icmp

check_ifoperstatus

check_ifstatus

check_imap -> check_tcp

check_linux_raid

check_load

check_mrtg

check_mrtgtraf

check_nrpe

check_nt

check_ping

check_pop -> check_tcp

check_sensors

check_simap -> check_tcp

check_smtp

check_snmp

check_snmp_load.pl

check_snmp_mem.pl

check_spop -> check_tcp

check_ssh

check_ssmtp -> check_tcp

check_swap

check_tcp

check_time

La plupart d'entre eux sont fournis avec le package Nagios. Les textes sources des plugins qui ne sont pas inclus dans le kit de livraison et utilisés dans le système sont présentés à l'annexe I.

4.2.5 Configuration de SNMP sur des hôtes distants

Pour pouvoir surveiller à l'aide du protocole SNMP, vous devez d'abord configurer les agents de ce protocole sur l'équipement réseau. Le schéma de fonctionnement SNMP en conjonction avec le cœur du système de surveillance du réseau est illustré dans la figure ci-dessous.

Riz. 4.5 - Schéma de surveillance via protocole SNMP

Les paramètres de configuration des hôtes sont présentés à l'annexe H. La sécurité est réalisée en configurant individuellement le filtre de paquets sur chacun des hôtes séparément et en organisant des sous-réseaux de système sécurisés auxquels seul le personnel autorisé de l'entreprise a accès. De plus, le réglage est effectué de telle sorte que via le protocole SNMP, vous ne puissiez que lire les paramètres et non les écrire.

4.2.6 Configuration de l'agent sur des hôtes distants

Pour obtenir les capacités de surveillance avancées des hôtes et des services, vous devez y installer un agent Nagios appelé nagios-nrpe-server :

# aptitude install nagios-nrpe-server

La configuration de l'agent est illustrée à l'annexe K. Le flux de travail de l'agent est illustré à la figure 4.5 ci-dessus.

4.4 Installation et configuration du module de suivi des téléchargements

MRTG (Multi Router Traffic Grapher) est un service qui permet d'utiliser le protocole SNMP pour recevoir des informations de plusieurs appareils et afficher les graphiques de charge des canaux (trafic entrant, sortant, maximum, moyen) dans la fenêtre de votre navigateur par pas de minutes, heures, jours et par an.

Exigences d'installation

Les bibliothèques suivantes sont requises pour que MRTG fonctionne :

§ gd - bibliothèque de dessin graphique. La bibliothèque chargée de générer des graphiques (# "justifier"> § libpng - gd est requis pour créer des graphiques au format png (# "justifier"> Dans notre cas, l'installation est réduite à l'exécution d'une commande, puisque la méthode d'installation du package précompilé depuis le référentiel a été choisie :

# aptitude install mrtg

Vous pouvez créer des fichiers de configuration manuellement ou utiliser les générateurs de configuration inclus dans le package :

# cfgmaker @ >

Après avoir généré le fichier de configuration, il est recommandé de le vérifier, car il peut contenir des descriptions d'interfaces que nous n'avons pas besoin d'analyser pour la charge de travail. Dans ce cas, certaines lignes du fichier sont commentées ou supprimées. Un exemple de fichier de configuration MRTG est fourni à l'annexe M. En raison de la grande taille de ces fichiers, seul un exemple d'un fichier est fourni.

# indexeur >

Les pages d'index sont des fichiers html ordinaires et leur contenu ne présente pas d'intérêt particulier, il n'est donc pas logique d'en donner des exemples. L'annexe H montre un exemple d'affichage de graphiques de charge d'interface.

Enfin, il est nécessaire d'organiser un contrôle de la charge des interfaces sur un planning. Le moyen le plus simple d'y parvenir est d'utiliser le système d'exploitation, à savoir les paramètres crontab.

4.5 Installation et configuration du module de collecte des journaux d'événements système

Le package syslog-ng.ng (syslog next generation) a été choisi comme module de collecte des journaux d'événements système - il s'agit d'un service multifonctionnel pour la journalisation des messages système. Par rapport au service syslogd standard, il présente un certain nombre de différences :

§ schéma de configuration amélioré

§ filtrer les messages non seulement par priorité, mais aussi par leur contenu

§ prise en charge des expressions régulières (expressions régulières)

§ manipulation et organisation des logs plus flexibles

§ la possibilité de crypter le canal de transmission de données à l'aide d'IPSec / Stunnel

Le tableau suivant répertorie les plates-formes matérielles prises en charge.

Tableau 4.1 - Plateformes matérielles prises en charge

x86x86_64SUN SPARCppc32ppc64PA-RISCAIX 5.2 & 5.3NetNetNetDaPo zaprosuNetDebian etchDaDaNetNetNetNetFreeBSD 6,1 * DAPO zaprosuPo zaprosuNetNetNetHP-UNET 11iNetNetNetNetNetDaIBM Système iNetNetNetDaNetNetRed Hat ES 4 / CentOS 4DaDaNetNetNetNetRed Hat ES 5 / CentOS 5DaDaNetNetNetNetSLES 10 / openSUSE 10.0DaPo zaprosuNetNetNetNetSLES 10 SP1 / openSUSE 10.1DaDaNetNetNetNetSolaris 8NetNetDaNetNetNetSolaris 9Po zaprosuNetDaNetNetNetSolaris 10Après zaprosuDaDaNetNetNetWindowsDaDaNetNetNetNet Remarque : * L'accès à la base de données Oracle n'est pas pris en charge

Une comparaison détaillée des caractéristiques techniques est donnée à l'annexe A.

Les fichiers décrivant les règles et les filtres, ainsi que la configuration des hôtes distants sont donnés en Annexe P.

Il existe un document RFC qui décrit en détail le protocole syslog, en général, le fonctionnement du module collecteur de journaux système peut être représenté par le schéma suivant

Riz. 4.6 - Schéma du module de collecte des logs système

Sur l'hôte client, chaque application individuelle écrit son propre journal des événements, formant ainsi une source. En outre, le flux de messages pour les journaux passe par la détermination de l'emplacement de stockage, puis à travers les filtres, sa direction de réseau est déterminée, après quoi, en atteignant le serveur de journalisation, l'emplacement de stockage est à nouveau déterminé pour chaque message. Le module sélectionné a une grande évolutivité et une configuration complexe, par exemple, les filtres peuvent se ramifier afin que les messages d'événements système soient envoyés dans plusieurs directions en fonction de plusieurs conditions, comme le montre la figure ci-dessous.

Riz. 4.7 - Filtres de branchement

L'évolutivité implique que pour répartir la charge, l'administrateur déploiera un réseau de serveurs de filtrage auxiliaires, appelés relais.

Riz. 4.8 - Scaling et équilibrage de charge

En fin de compte, de la manière la plus simplifiée, le fonctionnement du module peut être décrit comme suit - les hôtes clients transmettent des messages des journaux d'événements de diverses applications aux serveurs de déchargement, qui, à leur tour, peuvent les transmettre le long de la chaîne de relais, et ainsi de suite vers les serveurs centraux de collecte.

Riz. 4.9 - Schéma généralisé du module

Dans notre cas, le flux de données n'est pas assez important pour déployer un système de déchargement des serveurs, il a donc été décidé d'utiliser un schéma client-serveur simplifié.

Riz. 4.10 - Plan de travail accepté

5. GUIDE DE L'ADMINISTRATEUR SYSTÈME

En général, il est conseillé à l'administrateur système de respecter la hiérarchie existante des fichiers et répertoires de configuration. L'ajout de nouveaux hôtes et services au système de surveillance revient à créer de nouveaux fichiers de configuration et scripts d'initialisation, comme indiqué dans la Section 5 - Développement de logiciels, il est donc inutile de redécrire les paramètres et les principes de configuration du système dans ce travail, mais il vaut la peine de s'attarder sur la description plus en détail des interfaces des modules individuels du système.

5.1 Description de l'interface Web du système

Afin d'effectuer une surveillance interactive des services, il était plus pratique d'intégrer une interface Web dans le système. L'interface Web est également bonne en ce sens qu'elle donne une image complète du système grâce à une utilisation habile outils graphiques et fournir des informations statistiques supplémentaires.

Lorsque vous vous connectez à la page Web de Nagios, vous serez invité à saisir le nom d'utilisateur et le mot de passe que nous avons configurés pendant le processus d'installation. page de démarrage L'interface Web est illustrée dans la figure ci-dessous.

Riz. 5.1 - Page de démarrage de l'interface web du système

A gauche se trouve le volet de navigation, à droite se trouvent les résultats de différentes vues des données sur l'état du réseau, des hôtes et des services. Nous nous intéresserons principalement à la section Monitoring. Jetons un coup d'œil à la page Aperçu tactique.

Riz. 5.2 - Page de démarrage de l'interface web du système

Cette page contient des informations récapitulatives sur tous les paramètres de surveillance et l'état des hôtes et des services, alors qu'aucun détail n'est fourni, cependant, si des problèmes surviennent, ils sont mis en évidence dans une couleur spéciale et deviennent un lien hypertexte menant à une description détaillée du problème qui a surgi. Dans notre cas, pour le moment, parmi tous les hébergeurs et services, il y a un problème non résolu, nous suivrons ce lien (1 Problèmes non résolus).

Riz. 5.3 - Problème de service détecté

Ici, sous forme de tableau, nous observons sur quel hôte le problème est survenu, quel service l'a causé (dans notre cas, il s'agit d'une charge processeur importante sur le routeur), l'état de l'erreur (il peut être normal, seuil et critique), l'heure de la dernière vérification, la durée du problème, le nombre de vérification du compte dans la boucle et des informations détaillées avec des valeurs précises renvoyées par le plugin utilisé.

Riz. 5.4 - Description détaillée de l'état du service

Ici, nous voyons une description complète du problème, cette page est utile pour une analyse approfondie du problème, lorsque la cause de son apparition n'est pas tout à fait claire, par exemple, il peut s'agir de valeurs seuil trop rigides du criticité de l'état ou des paramètres mal réglés pour le lancement du plugin, qui seront également évalués par le système comme un état critique... En plus de la description, à partir de cette page, il est possible d'exécuter des commandes sur le service, par exemple, désactiver les contrôles, définir une autre heure pour le prochain contrôle, accepter les données passivement, accepter le problème pour examen, désactiver les alertes, envoyer un manuel alerte, programmez un arrêt de service, désactivez la détection d'état instable et écrivez un commentaire.

Allons à la page Détails du service.

Riz. 5.5 - Vue détaillée de tous les services

Ici, nous voyons une liste de tous les hôtes et services, quel que soit leur état actuel. Cette fonctionnalité peut être utile, mais il n'est pas très pratique de parcourir une longue liste d'hôtes et de services et elle est plutôt nécessaire pour représenter visuellement la quantité de travail effectuée par le système de temps en temps. Ici, chaque hôte et service, comme dans la figure 6.3, est un lien menant à une description plus détaillée du paramètre.

Riz. 5.6 - Liste d'hôtes complète et détaillée

Ce tableau fournit une liste complète et détaillée des hôtes, leurs états, l'heure de la dernière vérification, la durée de l'état actuel et des informations supplémentaires. Dans notre système, il est accepté que le statut de l'hôte soit vérifié en vérifiant la disponibilité de l'hôte via le protocole ICMP (8), c'est-à-dire par la commande ping, cependant, en général, la vérification peut être tout ce que vous voulez . Les icônes dans la colonne à droite du nom d'hôte indiquent le groupe auquel il appartient ; ceci est fait pour faciliter la lecture des informations. Le feu tricolore est un lien menant à une liste détaillée des services pour cet hôte, cela n'a aucun sens de décrire ce tableau séparément, c'est exactement le même que sur la figure 10.4, seules les informations sont présentées sur un seul hôte.

Les liens suivants sur la liste sont diverses modifications des tableaux précédents et il ne sera pas difficile de comprendre leur contenu. La caractéristique la plus intéressante de l'interface Web est la possibilité de créer une carte du réseau en mode semi-automatique.

Riz. 5.7 - Carte circulaire complète du réseau

Grâce au paramètre parent de chaque hôte et service, nous pouvons créer une structure ou une hiérarchie de notre réseau, qui déterminera la logique du noyau de surveillance du réseau et la présentation des hôtes et des services sur la carte du réseau. Il existe plusieurs modes d'affichage, en plus du circulaire, les plus pratiques sont l'arbre équilibré et le sphérique.

Riz. 5.8 - Carte du réseau - Mode arborescence équilibrée

Riz. 5.9 - Carte du réseau - Mode boule

Dans tous les modes, l'image de chaque hôte est un lien vers sa table de services et leurs états.

La prochaine partie importante de l'interface du moteur de surveillance est le générateur de tendances. Avec son aide, vous pouvez envisager de remplacer un équipement par un équipement plus productif, nous allons donner un exemple. Cliquez sur le lien Tendances. Nous sélectionnons le type de rapport - service.

Étape 1 : Sélectionnez le type de rapport : Service

La troisième étape consiste à sélectionner la période de comptage et à générer un rapport.

Riz. 5.10 - Tendance

Nous avons généré une tendance dans l'utilisation du processeur pour le routage. De là, nous pouvons conclure qu'en un mois, ce paramètre se détériore constamment et qu'il est nécessaire de prendre des mesures soit pour optimiser le fonctionnement de l'hôte, soit pour se préparer à le remplacer par un autre plus productif.

5.2 Description de l'interface web du module de suivi de charge d'interface

L'interface Web du module de suivi de charge d'interface est une liste de répertoires qui contiennent des pages d'index des hôtes surveillés avec des graphiques de la charge de chaque interface.

Riz. 5.11 - Page de démarrage du module de suivi de charge de l'interface

En cliquant sur l'un des liens, nous obtenons les graphiques de téléchargement. Chaque graphique est un lien menant à des statistiques pour la semaine, le mois et l'année.

5.3 Description du module de collecte des journaux d'événements système

Pour le moment, un filtrage amélioré des journaux système et la possibilité de les rechercher via une seule interface Web ne sont pas nécessaires. les problèmes nécessitant l'affichage de ces journaux sont rares. Par conséquent, le développement d'une base de données pour ces magazines et l'interface Web a été reporté. Ils sont actuellement accessibles via ssh et la navigation dans les répertoires gestionnaire de fichiers mc.

À la suite du travail de ce module, nous avons obtenu la structure de répertoire suivante :

apache2

astérix

bgp_router

dbconfig-common

installateur

└── cdebconf

len58a_3lvl

surveillance

nagios3

└── archives

ocsinventory-client

├── ocsinventory-server

quagga

router_krivous36b

router_lenina58a

router_su

router_ur39a

façonneur

ub13_router

univer11_router

voip

Chaque répertoire est un référentiel de journaux d'événements pour chaque hôte individuel.

Riz. 5.13 - Visualisation des données collectées par le module de collecte du journal des événements système

6. TESTER LE TRAVAIL

Lors de la mise en œuvre du système, des tests progressifs du fonctionnement de chaque composant ont été effectués, en commençant par le cœur du système. L'extension de la fonctionnalité n'a été réalisée qu'après l'ajustement final des niveaux inférieurs des modules du système de surveillance de réseau dans la hiérarchie en raison des nombreuses dépendances de divers sous-systèmes. Étape par étape, en général, vous pouvez décrire le processus de mise en œuvre et de test comme suit :

) Installation et débogage du noyau basé sur Nagios ;

) Mise en place de la surveillance des hôtes distants avec les fonctionnalités de base de Nagios ;

) Mise en place du module de surveillance de la charge des interfaces réseaux au moyen de MRTG ;

) Extension de la fonctionnalité du cœur du système et son intégration avec le module MRTG ;

) Ajustement du module de collecte des journaux système ;

) Écriture d'un script d'initialisation du filtre de paquets du système de surveillance afin d'assurer la sécurité du système.

7. Sécurité des informations

1 Caractéristiques du lieu de travail

Les facteurs nocifs affectant le travail lors de l'utilisation d'un PC comprennent :

· valeur augmentée de la tension du courant électrique;

· bruit;

· un rayonnement électromagnétique;

· champ électrostatique.

Pour assurer les meilleures conditions pour un travail efficace et sûr, il est nécessaire de créer de telles conditions de travail qui seront confortables et minimiseront l'impact de ces facteurs nocifs. Il est nécessaire que les facteurs nocifs énumérés soient conformes aux règles et réglementations établies.

7.2 Sécurité au travail

2.1 Sécurité électrique

L'outil logiciel projeté est créé dans l'attente de travailler sur un serveur existant situé dans un local technique spécialement équipé. Il est équipé de goulottes pour l'acheminement des câbles. Chaque serveur est fourni avec une alimentation ~ 220V, fréquence 50Hz, avec une masse de travail. Avant d'introduire l'alimentation électrique dans la pièce, des machines automatiques sont installées qui coupent l'alimentation électrique en cas de court-circuit. La mise à la terre de protection est effectuée séparément.

Lors de la connexion d'un ordinateur, il est nécessaire de connecter le boîtier de l'équipement au conducteur de mise à la terre de protection afin qu'en cas de défaillance de l'isolement ou pour toute autre raison, la tension d'alimentation dangereuse, lorsqu'une personne touche le boîtier de l'équipement, ne puisse pas créer un courant dangereux à travers le corps humain.

Pour ce faire, utilisez le troisième contact dans les prises électriques, qui est connecté au conducteur de terre de protection. Les boîtiers des équipements sont mis à la terre via le câble d'alimentation via un conducteur dédié.

Des mesures techniques sont appliquées pour assurer la protection contre les blessures choc électrique au contact du corps d'une installation électrique en cas de rupture de l'isolation des parties conductrices de courant, qui comprennent :

· mise à la terre de protection ;

· mise à la terre de protection ;

· arrêt de protection.

7.2.2 Protection contre le bruit

La recherche montre que l'audition est la première à être affectée par le bruit. Mais l'effet du bruit ne se limite pas à l'effet uniquement sur l'audition. Il provoque des changements notables dans un certain nombre de fonctions mentales physiologiques. Le bruit affecte négativement le système nerveux et réduit la vitesse et la précision des processus sensorimoteurs, et le nombre d'erreurs dans la résolution des problèmes intellectuels augmente. Le bruit a un effet notable sur l'attention d'une personne et provoque des émotions négatives.

La principale source de bruit dans les pièces où se trouvent les ordinateurs est l'équipement de climatisation, l'équipement d'impression et de copie, et dans les ordinateurs eux-mêmes, les ventilateurs de refroidissement.

Les mesures de contrôle du bruit suivantes sont activement utilisées dans la zone de production :

· l'utilisation de mécanismes de refroidissement silencieux ;

· isolation des sources de bruit de l'environnement au moyen d'une isolation acoustique et d'une absorption acoustique ;

· l'utilisation de matériaux insonorisants pour le parement des locaux.

Les sources de bruit suivantes sont présentes sur le lieu de travail au travail :

· unité centrale (refroidisseur (25dB), disque dur (29dB), alimentation (20dB));

· imprimante (49dB).

Le bruit total L émis par ces appareils est calculé à l'aide de la formule :

où Li est le niveau de bruit d'un appareil, dB = 10 * log (316,23 + 794,33 + 100 + 79432,82) = 10 * 4,91 = 49,1 dB

Selon SN 2.2.4 / 2.1.8.562-96, le niveau de bruit sur le lieu de travail des mathématiciens-programmeurs et des opérateurs vidéo ne doit pas dépasser 50 dB.

7.2.3 Protection contre les rayonnements électromagnétiques

La protection contre les interférences électromagnétiques est assurée par des écrans avec une surface électriquement conductrice et l'utilisation de moniteurs équipés du système Low Radiation, qui minimise le niveau de rayonnement nocif, ainsi que des moniteurs à cristaux liquides dans lesquels il n'y a aucun rayonnement électromagnétique.

7.2.4 Protection contre les champs électrostatiques

Pour se protéger contre les effets de la charge électrostatique, un filtre de protection mis à la terre, des humidificateurs d'air sont utilisés et les sols sont recouverts d'un revêtement antistatique. Pour maintenir les valeurs normalisées de la concentration d'ions positifs et négatifs dans les pièces équipées d'ordinateurs, des climatiseurs, des dispositifs d'ionisation de l'air sont installés et une ventilation naturelle est effectuée pendant au moins 10 minutes toutes les 2 heures de fonctionnement.

Afin d'éviter l'effet nocif des particules de poussière avec des aéroinos sur le corps des travailleurs, un nettoyage humide des locaux est effectué quotidiennement et au moins 1 fois par quart de travail, la poussière est retirée des écrans lorsque le moniteur est éteint.

7.3 Conditions de travail

3.1 Microclimat de la zone de production

Les équipements considérés dans ce projet de diplôme ne génèrent aucune substance nocive en fonctionnement. Ainsi, l'air ambiant dans la pièce où ils sont utilisés n'a aucun effet nocif sur le corps humain et répond aux exigences de la catégorie I de travail, selon GOST 12.1.005-88.

Les normes optimales de température, d'humidité relative et de vitesse de l'air dans la zone de travail des locaux industriels sont normalisées par GOST 12.1.005-88 et sont présentées dans le tableau 7.1.

Tableau 7.1 - Paramètres du microclimat

Paramètre standardisé Valeur Optimal Admissible Réel Température de l'air, C20 - 2218 - 2020 Humidité,% 40 - 60 Pas plus de 8045 Vitesse de l'air, m / s0.20.30..0.3

Le microclimat correspond aux conditions optimales.

3.2 Éclairage industriel

Pour le calcul, nous sélectionnons le service d'assistance de Gerkon LLC dans la ville de Verkhnyaya Pyshma, où le développement de ce projet a eu lieu :

· la superficie de la pièce est de 60m2;

· surface des ouvertures lumineuses 10 m2 ;

· 4 postes de travail automatisés ont été installés.

Le calcul de l'éclairement naturel se fait selon la formule SNiP 23.05-95 :

S0 = Sп * en * Кз * N0 * KZD / 100 % * Т0 * Т1 (7.2)

Où S0 est la surface des ouvertures lumineuses, m2;

Sп - surface au sol de la pièce, m2, 60;

eн - coefficient d'éclairage naturel, 1,6;

Кз - facteur de sécurité, 1,5 ;

N0 - caractéristique lumineuse des fenêtres, 1;

KZD - coefficient tenant compte de l'obscurcissement des fenêtres par les bâtiments en vis-à-vis, 1,2 ;

T0 est le coefficient général de transmission lumineuse, 0,48 ;

T1 - coefficient de réflexion de la surface de la pièce, 1.2.

Les valeurs de tous les coefficients sont prises dans SNiP 23.05.-95.

À la suite du calcul, nous obtenons: la surface requise des ouvertures lumineuses des fenêtres S0 = 3,4m2. La surface réelle des ouvertures est de 10m2, ce qui dépasse la surface minimale autorisée d'ouvertures de lumière pour ce type de pièce et est suffisante pendant les heures de clarté.

Calcul d'éclairage artificiel pour une pièce éclairée par 15 lampes fluorescentes de type LDT-60 d'une puissance de 60W chacune.

Selon SNiP 23.05-95, la quantité d'éclairage par les lampes fluorescentes doit être d'au moins 300 lm dans le plan horizontal - pour un système d'éclairage général. En tenant compte du travail visuel de haute précision, la valeur d'éclairage peut être augmentée jusqu'à 1000lm.

Flux lumineux Lampe fluorescente calculé selon la formule du SNiP 23.05.-95 :

Phi = En * S * Z * K / N * η (7.3)

Fr - éclairage de la pièce normalisé, lux, 200 ;

S - surface au sol de la pièce, m2, 60;

Z - coefficient tenant compte du rapport entre l'éclairement moyen et minimal, 1,1 ;

K est le facteur de sécurité prenant en compte la pollution de l'air, 1,3 ;

N est le nombre de lampes, 15 ;

η - facteur d'utilisation du flux lumineux, 0,8.

En conséquence, nous obtenons Phi = 1340lm, le flux lumineux total de toutes les lampes est de 3740lm, par conséquent, l'éclairage du laboratoire est supérieur au minimum autorisé.

7.4 Ergonomie du lieu de travail

4.1 Organisation du lieu de travail

Conformément à SanPiN 2.2.2 / 4.2.1340-03, le VDT (terminal d'affichage vidéo) doit répondre aux exigences techniques suivantes :

· luminosité d'éclairage d'au moins 100cd / m2;

· la taille minimale du point lumineux n'est pas supérieure à 0,1 mm pour un écran couleur ;

· le contraste de l'image du signe n'est pas inférieur à 0,8;

· fréquence de balayage vertical d'au moins 7 kHz

· le nombre de points n'est pas inférieur à 640 ;

· revêtement antireflet de l'écran;

· taille de l'écran d'au moins 31 cm en diagonale ;

· la hauteur des caractères à l'écran n'est pas inférieure à 3,8 mm ;

· la distance entre les yeux de l'opérateur et l'écran doit être d'environ 40 à 80 cm;

Le RCCB doit être équipé d'un plateau tournant qui lui permet d'être déplacé dans les plans horizontal et vertical entre 130 et 220 mm et de modifier l'angle d'inclinaison de l'écran de 10 à 15 degrés.

Le projet de diplôme a été réalisé sur un ordinateur avec un VDT ​​ViewSonic de 39 cm. Ce moniteur est fabriqué conformément aux normes mondiales et répond à toutes les exigences techniques ci-dessus.

Les exigences suivantes sont imposées au clavier :

· peinture corporelle dans des tons doux et calmes avec diffusion diffuse de la lumière ;

· surface mate avec un coefficient de réflexion de 0,4 à 0,6 et ne présente pas de parties brillantes pouvant créer des reflets ;

Le projet a été réalisé sur un clavier de marque Logitech qui répond à toutes les exigences ci-dessus.

Les unités centrales sont installées sur le lieu de travail avec un accès facile aux lecteurs de disquettes et un accès facile aux connecteurs et aux commandes à l'arrière. Les disquettes fréquemment utilisées sont stockées à proximité de l'unité centrale dans une cellule protégée contre la poussière et les interférences électromagnétiques. Imprimante située à droite de l'utilisateur. Le texte imprimé est visible par l'opérateur lorsqu'il est dans la position de travail principale. Le papier vierge et les autres fournitures essentielles sont stockés à proximité de l'imprimante dans des compartiments dédiés.

Les câbles de raccordement sont posés dans des conduits spéciaux. La disposition des canaux doit être telle que les connecteurs ne gênent pas le retrait des câbles.

Pour un manipulateur comme la "souris" à droite de l'utilisateur sur la table, il y a une zone libre, qui doit être identique en forme et en taille à la surface de l'écran.

Lieu de travail l'opérateur répond aux exigences de GOST 12.2.032-78 SSBT.

L'organisation spatiale du poste de travail assure une posture de travail optimale :

· la tête est inclinée vers l'avant de 10 à 20 degrés;

· le dos a une emphase, le rapport entre l'épaule et l'avant-bras, et aussi entre la cuisse et le bas de la jambe est un angle droit.

Les principaux paramètres du poste de travail doivent être réglables. Cela garantit la possibilité de créer des conditions de travail favorables pour un individu, en tenant compte des caractéristiques géoanthropométriques.

Les principaux paramètres du lieu de travail et des meubles équipés d'un ordinateur personnel (Fig. 7.1)

Riz. 7.1 - Poste de travail de l'opérateur informatique

· hauteur d'assise 42 - 45 cm;

· la hauteur du clavier depuis le sol est de 70 à 85 cm;

· l'angle d'inclinaison du clavier par rapport à l'horizontale est de 7 à 15 degrés;

· éloignement du clavier du bord de la table 10 - 26cm;

· distance du centre de l'écran au sol 90 - 115 cm;

· angle d'inclinaison de l'écran par rapport à la verticale 0 - 30 degrés (optimal 15);

· distance de l'écran au bord de la table 50 - 75 cm;

· hauteur de la surface de travail pour les disques 74 - 78 cm;

Le poste de travail est muni d'un repose-pieds, recommandé pour tous les types de travaux liés à la conservation à long terme en position assise

Selon SanPiN 2.2.2.542-96, la nature du travail de l'opérateur informatique est considérée comme facile et appartient à la catégorie 1A.

Il y a des pauses après 2 heures du début du quart de travail et 2 heures après la pause déjeuner, chacune d'une durée de 15 minutes. Pendant les pauses régulées, afin de réduire le stress neuro-émotionnel, la fatigue et d'éliminer l'influence de l'hypodynamie, des complexes d'exercices sont effectués.

7.5 Sécurité incendie

La pièce où les travaux de ce projet ont été effectués, la catégorie de risque d'incendie a été établie dans le NPB 105-03 - liquides inflammables et ininflammables, substances et matériaux solides inflammables et ininflammables, y compris poussières et fibres, substances et matériaux capables d'interagir avec l'eau, l'oxygène de l'air ou entre eux uniquement pour brûler, à condition que les locaux dans lesquels ils sont disponibles ou formés n'appartiennent pas aux catégories A ou B. Bâtiment pour locaux de degré I de résistance au feu selon SNiP 21- 01-97.

Les règles de sécurité suivantes sont respectées dans la zone de production :

· les passages, les sorties des locaux, l'accès aux moyens d'extinction d'incendie sont libres ;

· l'équipement en fonctionnement est en bon état de fonctionnement et est vérifié à chaque fois avant le début des travaux ;

· à la fin des travaux, le local est examiné, l'alimentation électrique est coupée, le local est fermé.

Le nombre de sorties d'évacuation des bâtiments des locaux est de deux. La largeur de la sortie d'évacuation (porte) est de 2m. Sur les voies d'évacuation, des escaliers ordinaires et des portes battantes sont utilisés. Les cages d'escalier manquent de locaux, de communications technologiques, de sorties d'ascenseurs et de monte-charges. Les voies d'évacuation sont équipées d'un éclairage de secours naturel et artificiel.

En tant que principal moyen d'extinction d'incendie dans la pièce, il y a deux extincteurs à main au dioxyde de carbone dans la pièce.

Pour détecter la phase initiale d'allumage et alerter les pompiers, un système automatique et d'alarme incendie (APS) est utilisé. Il active indépendamment les installations d'extinction d'incendie jusqu'à ce que le feu atteigne une grande taille et informe service de la ville pompiers.

Les objets du parc des expositions, à l'exception de l'APS, doivent être équipés d'installations fixes d'extinction d'incendie. Applications de l'installation d'incendies d'extinction à gaz, dont l'action est basée sur le remplissage rapide des locaux avec une substance gazeuse d'extinction d'incendie, à la suite de laquelle la teneur en oxygène de l'air diminue.

7.6 Urgences

Dans les conditions de cette pièce, la situation d'urgence la plus probable peut être un incendie. En cas d'incendie, il est nécessaire d'évacuer le personnel et de signaler l'incident aux pompiers. Le plan d'évacuation est illustré à la figure 7.2.

Riz. 7.2 - Plan d'évacuation incendie

8. VOLET ÉCONOMIQUE

Cette section traite des coûts de développement d'un système de surveillance de réseau, de sa mise en œuvre et de sa maintenance, ainsi que des matériaux et équipements connexes.

Le coût du projet reflète le coût des moyens et objets de main-d'œuvre consommés dans le processus de développement et de production (amortissement, coût des équipements, des matériaux, du carburant, de l'énergie, etc.), une partie du coût de la main-d'œuvre vitale (rémunération du travail ), le coût des modules achetés du système.

Dans le processus d'activité et d'augmentation du volume de services, le problème de la détection proactive des points défectueux et faibles dans l'organisation du réseau s'est posé, c'est-à-dire qu'il s'agissait de mettre en œuvre une solution permettant de prévoir le besoin de remplacer ou de moderniser les tronçons du réseau avant que les défauts n'affectent le fonctionnement des nœuds d'abonnés.

Avec la croissance de la base de clients et, par conséquent, le nombre d'équipements actifs, il est devenu nécessaire de surveiller rapidement l'état du réseau dans son ensemble et de ses différents éléments en détail. Avant la mise en place du système de surveillance du réseau, l'administrateur du réseau devait se connecter en utilisant les protocoles telnet, http, snmp, ssh, etc. à chaque nœud de réseau d'intérêt et utilisez les outils de surveillance et de diagnostic intégrés. Actuellement, la capacité du réseau est de 5 000 ports, 300 commutateurs de couche 2, 15 routeurs et 20 serveurs internes.

De plus, la congestion du réseau et les défauts flottants n'étaient détectés que lorsque de graves problèmes d'utilisateurs survenaient, ce qui ne permettait pas de planifier les mises à niveau du réseau.

Tout cela a conduit, tout d'abord, à une détérioration constante de la qualité des services offerts et à une augmentation de la charge de travail des administrateurs système et du support technique aux utilisateurs, ce qui a entraîné des pertes colossales.

Conformément à la situation actuelle, il a été décidé de développer et de mettre en œuvre un système de surveillance du réseau qui résoudrait tous les problèmes ci-dessus, qui, résumés, peuvent être exprimés comme suit :

Il est nécessaire de développer et de mettre en œuvre un système de surveillance permettant de surveiller à la fois les commutateurs, les routeurs de différents fabricants et les serveurs de différentes plates-formes. Concentrez-vous sur l'utilisation de protocoles et de systèmes ouverts, avec une utilisation maximale des développements prêts à l'emploi du fonds du logiciel libre, ce qui, d'un point de vue économique, réduit à zéro le coût de la licence du système final.

Le système doit répondre aux exigences économiques suivantes :

· exigences minimales pour les ressources matérielles (conduit à des coûts inférieurs pour la partie matérielle du projet) ;

· codes source ouverts de tous les composants du complexe (vous permet de modifier indépendamment le principe de fonctionnement du système sans recourir à l'aide de développements propriétaires tiers et réduit le coût des licences de produits);

· extensibilité et évolutivité du système (vous permet d'étendre la portée de l'application sans recourir à l'aide de développements tiers et propriétaires et réduit le coût des licences de produits);

· moyen standard de fournir des informations de diagnostic (vous permet de réduire le coût de maintenance du système);

· disponibilité d'une documentation détaillée pour tous les produits logiciels utilisés (permet de former rapidement un nouvel employé) ;

· la capacité de travailler avec des équipements de différents fabricants (permet d'utiliser un seul produit logiciel). (Voir l'annexe B pour une liste complète de l'équipement).

En général, le développement du projet a pris 112 heures (2 semaines). La mise en œuvre de ce projet prendra 56 heures (1 semaine).

1 Calcul des coûts de développement du projet

Les coûts de développement du projet comprennent :

· charges salariales;

· les coûts d'amortissement des équipements et des produits logiciels ;

· le coût de paiement de l'électricité;

· frais généraux.

Frais de paie.

Lors du calcul du coût des salaires, nous tenons compte du fait que ce projet a été développé par une seule personne : un ingénieur système.

Le salaire moyen du marché d'un ingénieur système du niveau requis dans la région est de 30 000 roubles.

Calculons le coût d'une heure de travail d'un ingénieur, sur la base des données suivantes :

· prime 25 % ;

· coefficient d'arrondissement 15 % ;

· le fonds du temps de travail en 2010, conformément au calendrier de production, est de 1988 heures ;

Ainsi, le taux, compte tenu du coefficient régional, sera :

RF = 30 000 * 1,25 * 1,15 * 12/1988 = 260 roubles

Dans le calcul du coût des salaires, les déductions versées sur les salaires accumulés sont prises en compte, c'est-à-dire que la valeur totale du taux de prime d'assurance sera égale au taux maximum UST - 26%, y compris :

· Caisse de retraite - 20 % ;

· FSSR - 2,9%

· FFOMS - 1,1% ;

· GFOMS - 2 % ;

· Assurance sociale obligatoire contre les accidents - 0,2%.

Au total, les déductions seront :

CO = RF * 0,262 = 260 * 0,262 = 68 roubles

En tenant compte du temps de travail de l'ingénieur (112 heures pour le développement et 56 heures pour la mise en œuvre), nous calculerons les coûts salariaux :

ZP = (112 + 56) * (RF + CO) = 168 * 328 = 55104 roubles

Charges d'amortissement des produits matériels et logiciels.

Un ordinateur personnel et un serveur AQUARIUS SERVER T40 S41 ont été utilisés comme équipement principal au stade de l'élaboration du projet de réseau. Le coût d'un ordinateur est actuellement d'environ 17 000 roubles, tandis qu'un serveur coûte 30 000 roubles.

Ainsi, le coût d'un investissement ponctuel en équipement sera :

= 47000 roubles

Pendant la vie de l'ordinateur et du serveur, leur modernisation est autorisée, ce type de coût est également pris en compte dans le calcul. Nous mettons 50% du VR pour la modernisation :

РМА = РВ * 0,5 = 23500 roubles

L'ordinateur a été utilisé dans les étapes suivantes :

· recherche documentaire;

· recherche de solutions pour la conception d'un système de surveillance de réseau ;

· développement de structures et de sous-systèmes;

· la conception d'un système de surveillance du réseau ;

· formalités administratives.

Le serveur a été utilisé pendant la mise en œuvre du système et le travail direct avec le système.

Les produits logiciels utilisés dans le développement ont été obtenus sous licences libres, ce qui indique leur coût nul et l'absence de nécessité de leur amortissement.

Ainsi, le coût total des équipements, compte tenu des amortissements, sera :

OZA = + РМА = 47000 + 23500 = 70500 roubles

La durée de vie utile est supposée être de 2 ans. Le coût d'une heure de travail est (en supposant que le nombre de jours ouvrables dans un mois est de 22 et avec une journée de travail de 8 heures) :

SOCHR = OZA / BP = 70500/4224 = 16,69 roubles

Au moment de l'élaboration et de la mise en œuvre, le coût des déductions pour amortissement sera donc :

SACHRV = SOCHR * TRV = 16,69 * 168 = 2803,92 roubles

Frais d'électricité.

Les coûts d'électricité sont la somme de ceux consommés par l'ordinateur et utilisés pour l'éclairage. Coût de l'électricité :

SEN = 0,80 roubles / kW * h (En accord avec le propriétaire des lieux)

Рк, с = 200 W - la puissance consommée par l'ordinateur ou le serveur.

Trk = 168 heures - temps de fonctionnement de l'ordinateur au stade du développement et de la mise en œuvre du système.

Trs = 52 heures - temps de fonctionnement du serveur au stade du développement et de la mise en œuvre du système.

Ainsi, le coût de l'électricité au stade de l'élaboration et de la mise en œuvre du projet sera :

SENP = Rk * Trk * SEN + Rk * Trc * SEN = (200 * 168 * 0,80 + 200 * 52 * 0,80) / 1000 = (26880 + 8320) / 1000 = 35,2 roubles

Le lieu de travail où ce travail a été effectué est équipé d'une lampe de 100 W. Calculons le coût de l'électricité consommée par le dispositif d'éclairage lors du développement et de la mise en œuvre du système :

SENO = 100 * Trk * SEN = (100 * 168 * 0,80) / 1000 = 13,44 roubles

Les coûts totaux de l'électricité étaient :

OZEN = SENP + SENO = 35,2 + 13,44 = 48,64 roubles

8.2 Calcul des frais généraux

Ce poste de coût couvre le coût des autres équipements et consommables, ainsi que les frais accessoires.

Les frais généraux dans le budget de l'entreprise sont de 400 % des salaires à payer :

NR = salaire * 4 = 55104 * 4 = 220416 roubles.

Ainsi, les coûts de développement et de mise en œuvre du projet étaient les suivants :

SRV = ZP + SARV + OZEN + NR = 55104 + 2803,92 + 48,64 + 220416 = 278372,56 roubles

3 Efficacité

À la suite des calculs économiques, le prix minimum pour le développement et la mise en œuvre du système de surveillance du réseau a été fixé à 278372,56 roubles.

Comme le montrent les calculs, la plus grande partie du coût des dépenses incombe aux matériaux et à l'équipement. Cela est dû au fait que les principaux équipementiers sont des sociétés étrangères et, par conséquent, les prix de ces produits sont indiqués en dollars américains au taux CBRF + 3%. Et l'augmentation des droits de douane sur les produits importés affecte également négativement le prix pour les clients finaux.

Pour justifier le développement indépendant du système, comparons son coût avec les solutions toutes faites disponibles sur le marché :

· D-Link D-View - 360 000 roubles

Surveillance et analyse du réseau

Un contrôle constant du fonctionnement du réseau est nécessaire pour le maintenir en état de fonctionnement. Le contrôle est une première étape nécessaire qui doit être effectuée dans la gestion du réseau. Ce processus d'exploitation du réseau est généralement divisé en 2 étapes : la surveillance et l'analyse.

Au stade de la surveillance, une procédure plus simple est effectuée - la procédure de collecte des données primaires sur le fonctionnement du réseau: statistiques sur le nombre de trames et de paquets de divers protocoles circulant dans le réseau, l'état des ports des concentrateurs, des commutateurs et des routeurs , etc.

Ensuite, l'étape d'analyse est effectuée, qui est comprise comme un processus plus complexe et intelligent de compréhension des informations collectées lors de l'étape de surveillance, de comparaison avec les données obtenues précédemment et d'hypothèses sur les causes possibles d'un fonctionnement lent ou peu fiable du réseau. .

Les outils de surveillance du réseau et de détection des goulots d'étranglement dans son fonctionnement peuvent être divisés en deux classes principales :

  • stratégique;
  • tactique.

Le but des outils stratégiques est de contrôler une large gamme de paramètres de l'ensemble du réseau et de résoudre les problèmes de configuration LAN.

Le but des outils tactiques est de surveiller et de dépanner les périphériques réseau et les câbles réseau.

Les atouts stratégiques comprennent :

  • systèmes de gestion de réseau
  • systèmes de diagnostic intégrés
  • systèmes de surveillance distribués
  • outils de diagnostic pour les systèmes d'exploitation s'exécutant sur des machines et des serveurs de grande taille.

Les systèmes de gestion de réseau développés par des sociétés telles que DEC, Hewlett-Packard, IBM et AT&T offrent la supervision la plus complète. Ces systèmes sont généralement basés sur un ordinateur séparé et comprennent des systèmes de contrôle pour les postes de travail, les systèmes de câblage, les connecteurs et autres dispositifs, une base de données contenant les paramètres de contrôle pour les réseaux de différentes normes et une variété de documentation technique.

Un des meilleurs développements pour la gestion du réseau, permettant à l'administrateur réseau d'accéder à tous ses éléments jusqu'au poste de travail, est la suite LANDesk Manager d'Intel, qui fournit une surveillance des applications, un inventaire matériel et logiciel et une protection antivirus via une variété d'outils. Ce package fournit en temps réel diverses informations sur les applications et les serveurs, des données sur l'activité réseau des utilisateurs.

Les diagnostics intégrés sont devenus une fonctionnalité courante dans les périphériques réseau tels que les ponts, les répéteurs et les modems. Des exemples de tels systèmes sont Open - View Bridge Manager de Hewlett - Packard et Remote Bridge Management Software de DEC. Malheureusement, la plupart d'entre eux se concentrent sur l'équipement d'un fabricant et sont pratiquement incompatibles avec l'équipement d'autres entreprises.

Les systèmes de surveillance distribués sont des dispositifs spéciaux installés sur des segments de réseau et conçus pour obtenir des informations complètes sur le trafic, ainsi que sur les perturbations du réseau. Ces appareils, généralement connectés à un poste administrateur, sont principalement utilisés sur des réseaux multi-segments.

Les outils tactiques comprennent divers types de dispositifs de test (testeurs et scanners de câbles réseau), ainsi que des dispositifs d'analyse complexe du fonctionnement du réseau - des analyseurs de protocole. Les appareils de test aident l'administrateur à détecter les défauts de câble et de connecteur réseau, et les analyseurs de protocole aident à obtenir des informations sur l'échange de données sur le réseau. De plus, cette catégorie d'outils comprend un logiciel spécial qui vous permet de recevoir des rapports détaillés sur l'état du réseau en temps réel.

Outils de suivi et d'analyse

Classification

L'ensemble des outils utilisés pour la surveillance et l'analyse des réseaux informatiques peut être divisé en plusieurs grandes classes :

Systèmes de gestion de réseau(NetworkManagementSystems) - systèmes logiciels centralisés qui collectent des données sur l'état des nœuds et des dispositifs de communication du réseau, ainsi que des données sur le trafic circulant dans le réseau. Ces systèmes non seulement surveillent et analysent le réseau, mais effectuent également des actions de gestion de réseau en mode automatique ou semi-automatique - activation et désactivation des ports de périphérique, modification des paramètres des ponts dans les tables d'adresses des ponts, commutateurs et routeurs, etc. HPOpenView, SunNetManager , systèmes IBMNetView.

Contrôles du système(La gestion du système). Les commandes système exécutent souvent des fonctions similaires aux systèmes de commande, mais en relation avec d'autres objets. Dans le premier cas, l'objet de contrôle est le logiciel et le matériel des ordinateurs du réseau, et dans le second, l'équipement de communication. Cependant, certaines des fonctions de ces deux types de systèmes de contrôle peuvent être dupliquées, par exemple, les contrôles du système peuvent effectuer l'analyse la plus simple du trafic réseau.

Systèmes de diagnostic et de contrôle intégrés(Systèmes embarqués). Ces systèmes sont implémentés sous forme de modules logiciels et matériels installés dans des équipements de communication, ainsi que sous forme de modules logiciels intégrés dans des systèmes d'exploitation. Ils effectuent des fonctions de diagnostic et de contrôle pour un seul appareil, et c'est leur principale différence avec les systèmes de contrôle centralisés. Un exemple de cette classe d'outils est le module de gestion de hub Distrebuted 5000, qui implémente les fonctions d'auto-segmentation des ports lors de la détection de défauts, d'attribution de ports aux segments internes du hub, et quelques autres. En règle générale, les modules de gestion intégrés "en combinaison" agissent comme des agents SNMP qui fournissent des données d'état de périphérique pour les systèmes de gestion.

Analyseurs de protocole(Protocolanalyseurs). Ce sont des systèmes logiciels ou matériels-logiciels qui, contrairement aux systèmes de contrôle, ne sont limités que par les fonctions de surveillance et d'analyse du trafic dans les réseaux. Un bon analyseur de protocole peut capturer et décoder les paquets d'un grand nombre de protocoles utilisés dans les réseaux - généralement plusieurs dizaines. Les analyseurs de protocole vous permettent de définir des conditions logiques pour capturer des paquets individuels et d'effectuer un décodage complet des paquets capturés, c'est-à-dire qu'ils montrent, sous une forme pratique pour un spécialiste, l'imbrication de paquets de protocole de différents niveaux les uns dans les autres avec décodage du contenu des champs individuels de chaque paquet.

N.-É. systèmes experts... Ce type de systèmes accumule les connaissances des spécialistes techniques sur l'identification des causes d'un fonctionnement anormal des réseaux et les moyens possibles de mettre les réseaux en état de fonctionnement. Les systèmes experts sont souvent mis en œuvre en tant que sous-systèmes distincts de divers outils de surveillance et d'analyse de réseau : systèmes de gestion de réseau, analyseurs de protocole, analyseurs de réseau. La variante la plus simple d'un système expert est un système d'aide contextuelle. Les systèmes experts plus complexes sont des bases de connaissances avec des éléments d'intelligence artificielle. Un exemple d'un tel système est le système expert intégré au système de contrôle Cabletron Spectrum.

Équipement pour le diagnostic et la certification des systèmes de câbles... Classiquement, ces équipements peuvent être divisés en quatre groupes principaux : les moniteurs de réseau, les appareils de certification des systèmes de câbles, les scanners de câbles et les testeurs (multimètres).

Moniteurs réseau(également appelés analyseurs de réseau) sont conçus pour tester différentes catégories de câbles. Une distinction doit être faite entre les moniteurs de réseau et les analyseurs de protocole. Les moniteurs de réseau collectent des données uniquement sur les statistiques de trafic - trafic réseau total moyen, flux de paquets moyen avec un certain type d'erreur, etc.

Affectation d'appareils à certification des systèmes de câbles, découle directement de leur nom. La certification est effectuée conformément aux exigences de l'une des normes internationales pour les systèmes de câblage.

Scanners de câbles sont utilisés pour diagnostiquer les systèmes de câbles en cuivre.

Les testeurs sont conçus pour vérifier les câbles pour la rupture physique.

Appareils multifonctionnels pour l'analyse et le diagnostic. Ces dernières années, en raison de l'omniprésence des réseaux locaux, il est devenu nécessaire de développer des appareils portables peu coûteux qui combinent les fonctions de plusieurs appareils : analyseurs de protocoles, scanners de câbles, et même certaines fonctionnalités de logiciels de gestion de réseau. Compas de Microtest Inc. est un exemple de ce type d'appareil. ou 675 LANMeter de FlukeCorp.

Analyseurs de protocole

Lors de la conception d'un nouveau réseau ou de la modernisation d'un ancien réseau, il est souvent nécessaire de quantifier certaines caractéristiques du réseau, telles que l'intensité des flux de données sur les lignes de communication du réseau, les retards survenant à différentes étapes du traitement des paquets, les temps de réponse aux requêtes d'un type ou d'un autre, la fréquence d'occurrence, certains événements et d'autres caractéristiques.

À ces fins, différents moyens peuvent être utilisés, et surtout - des outils de surveillance dans les systèmes de gestion de réseau, qui ont déjà été abordés dans les sections précédentes. Certaines mesures sur le réseau peuvent également être effectuées par des compteurs logiciels intégrés au système d'exploitation, dont un exemple est le composant Windows NTPerformanceMonitor OS. Même les testeurs de câbles modernes sont capables de capturer des paquets et d'analyser leur contenu.

Mais l'outil d'exploration de réseau le plus avancé est un analyseur de protocole. Le processus d'analyse de protocole implique la capture et l'examen des paquets circulant dans le réseau qui implémentent un protocole réseau particulier. Sur la base des résultats de l'analyse, vous pouvez apporter des modifications éclairées et équilibrées à tous les composants du réseau, optimiser ses performances et dépanner. Évidemment, pour pouvoir tirer des conclusions sur l'impact d'un changement sur le réseau, il est nécessaire d'analyser les protocoles avant et après le changement.

L'analyseur de protocole est soit un appareil spécialisé autonome, soit un ordinateur personnel, généralement portable, de la classe Notebook, équipé d'une carte réseau spéciale et d'un logiciel approprié. La carte réseau et le logiciel utilisés doivent correspondre à la topologie du réseau (anneau, bus, étoile). L'analyseur se connecte au réseau de la même manière qu'un nœud normal. La différence est que l'analyseur peut recevoir tous les paquets de données transmis sur le réseau, alors qu'une station ordinaire ne peut recevoir que ceux qui lui sont adressés. Le logiciel de l'analyseur se compose d'un noyau qui prend en charge le fonctionnement de la carte réseau et décode les données reçues, ainsi que d'un code de programme supplémentaire qui dépend du type de topologie du réseau à l'étude. De plus, un certain nombre de routines de décodage spécifiques au protocole sont fournies, telles que IPX. Certains analyseurs peuvent également inclure un système expert qui peut donner à l'utilisateur des recommandations sur les expérimentations à réaliser dans une situation donnée, ce que peuvent signifier ces ou ces résultats de mesure, et comment éliminer certains types de dysfonctionnements du réseau.

Malgré la relative diversité des analyseurs de protocoles sur le marché, certaines caractéristiques sont inhérentes à tous à un degré ou à un autre :

  • Interface utilisateur. La plupart des analyseurs ont une interface conviviale bien développée, généralement basée sur Windows ou Motif. Cette interface permet à l'utilisateur : d'afficher les résultats de l'analyse de l'intensité du trafic ; obtenir une estimation statistique instantanée et moyenne des performances du réseau ; définir des événements spécifiques et des situations critiques pour suivre leur occurrence ; décoder des protocoles de différents niveaux et présenter le contenu des paquets sous une forme compréhensible.
  • Tampon de capture. Les tampons des différents analyseurs diffèrent en taille. Le tampon peut être situé sur la carte réseau installée ou il peut se voir allouer de l'espace dans la RAM de l'un des ordinateurs du réseau. Si le tampon est situé sur une carte réseau, il est alors géré matériellement et, de ce fait, la vitesse d'entrée augmente. Cependant, cela conduit à une augmentation du coût de l'analyseur. En cas de performance insuffisante de la procédure de capture, certaines informations seront perdues, et l'analyse sera impossible. La taille du tampon détermine les capacités d'analyse pour des échantillons plus ou moins représentatifs des données capturées. Mais quelle que soit la taille de la mémoire tampon de capture, elle se remplira tôt ou tard. Dans ce cas, soit la capture s'arrête, soit le remplissage commence au début du tampon.
  • Filtres. Les filtres vous permettent de contrôler le processus de capture des données, et ainsi d'économiser de l'espace tampon. Selon la valeur de certains champs du paquet, spécifié comme condition de filtre, le paquet est soit ignoré, soit écrit dans le tampon de capture. L'utilisation de filtres accélère et simplifie considérablement l'analyse, car elle élimine la visualisation des packages qui ne sont pas nécessaires pour le moment.
  • Les commutateurs sont des conditions définies par l'opérateur pour démarrer et arrêter le processus de capture de données à partir du réseau. Ces conditions peuvent être l'exécution de commandes manuelles pour démarrer et arrêter le processus de capture, l'heure de la journée, la durée du processus de capture, l'apparition de certaines valeurs dans les trames de données. Les commutateurs peuvent être utilisés conjointement avec des filtres, permettant une analyse plus détaillée et subtile, ainsi qu'une utilisation plus efficace d'une taille limitée de la mémoire tampon de capture.
  • Chercher. Certains analyseurs de protocole vous permettent d'automatiser la visualisation des informations dans la mémoire tampon et d'y trouver des données selon des critères spécifiés. Tandis que les filtres vérifient le flux d'entrée par rapport aux conditions de filtrage, les fonctions de recherche sont appliquées aux données déjà accumulées dans le tampon.

La méthodologie d'analyse peut être présentée selon les six étapes suivantes :

  1. Capture de données.
  2. Afficher les données capturées.
  3. L'analyse des données.
  4. Rechercher des erreurs. (La plupart des analyseurs facilitent cela en identifiant les types d'erreurs et en identifiant la station d'où provient le paquet d'erreurs.)
  5. Recherche de performances. Le taux d'utilisation de la bande passante du réseau ou le temps de réponse moyen à une requête est calculé.
  6. Étude détaillée de sections individuelles du réseau. Le contenu de cette étape se concrétise au fur et à mesure de l'analyse.

Habituellement, le processus d'analyse des protocoles prend relativement peu de temps - 1 à 2 jours ouvrables.

Analyseurs de réseau

Les analyseurs de réseaux (à ne pas confondre avec les analyseurs de protocoles) sont les outils de mesure de référence pour le diagnostic et la certification des câbles et systèmes de câblage. Un exemple est les analyseurs de réseau de HewlettPackard - HP 4195A et HP 8510C.

Les analyseurs de réseau contiennent un générateur de fréquence de haute précision et un récepteur à bande étroite. En transmettant des signaux de fréquences différentes à la paire émettrice et en mesurant le signal dans la paire réceptrice, l'atténuation et NEXT peuvent être mesurés. Les analyseurs de réseau sont des instruments de précision volumineux et coûteux (plus de 20 000 $) conçus pour être utilisés en laboratoire par des techniciens qualifiés.

Scanners de câbles

Ces appareils permettent de déterminer la longueur du câble, NEXT, l'atténuation, l'impédance, le schéma de câblage, le niveau de bruit électrique et d'évaluer les résultats obtenus. Le prix de ces appareils varie de 1 000 $ à 3 000 $. Il existe de nombreux appareils de cette classe, par exemple les scanners de Microtest Inc., Fluke Corp., Datacom Technologies Inc., Scope Communication Inc. Contrairement aux analyseurs de réseau, les scanners peuvent être utilisés non seulement par du personnel technique spécialement formé, mais même par des administrateurs novices.

La méthode du radar à câble, ou TimeDomainReflectometry (TDR), est utilisée pour localiser un défaut du système de câble (circuit ouvert, court-circuit, connecteur mal placé, etc.). L'essence de cette méthode est que le scanner émet une courte impulsion électrique dans le câble et mesure le temps de retard avant l'arrivée du signal réfléchi. La nature de l'endommagement du câble (court-circuit ou circuit ouvert) est déterminée par la polarité de l'impulsion réfléchie. Dans un câble correctement installé et connecté, il n'y a aucune impulsion réfléchie.

La précision de la mesure de distance dépend de la précision avec laquelle la vitesse de propagation des ondes électromagnétiques dans le câble est connue. Ce sera différent dans différents câbles. La vitesse de propagation des ondes électromagnétiques dans un câble (NVP - nominalvelocityofpropagation) est généralement donnée en pourcentage de la vitesse de la lumière dans le vide. Les scanners modernes contiennent une feuille de calcul des données NVP pour tous les principaux types de câbles et permettent à l'utilisateur de définir ces paramètres lui-même après un étalonnage préliminaire.

Les fabricants les plus connus de scanners de câbles compacts (leur taille ne dépasse généralement pas la taille d'une cassette vidéo VHS) sont Microtest Inc., WaveTek Corp., Scope Communication Inc.

Testeurs

Les testeurs de câbles sont les outils de diagnostic de câbles les plus simples et les moins chers. Ils vous permettent de déterminer la continuité du câble, cependant, contrairement aux scanners de câbles, ils ne fournissent pas de réponse à la question de savoir où la panne s'est produite.

Surveillance et analyse de réseau intégrées

Agents SNMP

Il existe aujourd'hui plusieurs normes pour les bases de données d'informations de contrôle. Les principales sont les normes MIB-I et MIB-II, ainsi que la version de la base de données pour la gestion à distance RMONMIB. En outre, il existe des normes pour des périphériques MIB spécifiques d'un type particulier (par exemple, des MIB pour les concentrateurs ou des MIB pour les modems), ainsi que des MIB propriétaires de fabricants d'équipements spécifiques.

La spécification MIB-I d'origine définissait uniquement les opérations de lecture sur les valeurs des variables. Les opérations de modification ou de paramétrage des valeurs d'un objet font partie des spécifications MIB-II.




Vous avez aimé l'article ? Partagez-le