DE69837180T2 - Korrelation von Netzwerkverwaltungs-Ereignissen in Umgebungen mit inaktiven Netzelementen - Google Patents

Korrelation von Netzwerkverwaltungs-Ereignissen in Umgebungen mit inaktiven Netzelementen Download PDF

Info

Publication number
DE69837180T2
DE69837180T2 DE69837180T DE69837180T DE69837180T2 DE 69837180 T2 DE69837180 T2 DE 69837180T2 DE 69837180 T DE69837180 T DE 69837180T DE 69837180 T DE69837180 T DE 69837180T DE 69837180 T2 DE69837180 T2 DE 69837180T2
Authority
DE
Germany
Prior art keywords
network
interface
network interfaces
interfaces
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69837180T
Other languages
English (en)
Other versions
DE69837180D1 (de
Inventor
Anthony Fort Collins Walker
Eric A. Fort Collins Pulsipher
Darren D. Fort Collins Smith
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Application granted granted Critical
Publication of DE69837180D1 publication Critical patent/DE69837180D1/de
Publication of DE69837180T2 publication Critical patent/DE69837180T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/0631Management of faults, events, alarms or notifications using root cause analysis; using analysis of correlation between notifications, alarms or events based on decision criteria, e.g. hierarchy, tree or time analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/12Discovery or management of network topologies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/22Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks comprising specially adapted graphical user interfaces [GUI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0805Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters by checking availability
    • H04L43/0811Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters by checking availability by checking connectivity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0805Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters by checking availability
    • H04L43/0817Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters by checking availability by checking functioning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/10Active monitoring, e.g. heartbeat, ping or trace-route

Description

  • Gebiet der Erfindung
  • Die Erfindung bezieht sich auf Netzwerkverwaltungssysteme und insbesondere auf eine Technik zum Unterscheiden zwischen defekten Netzwerkelementen und Netzwerkelementen, die auf Grund der defekten Elemente unzugänglich sind. Anschließend werden gesammelte Ereignisdaten einem Netzwerkadministrator auf eine einfache, deutliche und handhabbare Weise präsentiert.
  • Hintergrund der Erfindung
  • Netzwerkverwaltungssysteme wie z.B. das Produkt OpenView Network Node Manager sind dahin gehend entworfen, eine Netzwerktopologie (d.h. eine Liste aller Netzwerkelemente in einer Domain, ihren Typ und ihre Verbindungen) zu entdecken, die Gesundheit jedes Netzwerkelements zu überwachen und Probleme dem Netzwerkadministrator zu melden. OpenView Network Node Manager (NNM) ist ein Produkt, das von Hewlett-Packard Company, Palo Alto, Kalifornien, vertrieben wird.
  • Die Überwachungsfunktion eines derartigen Systems wird üblicherweise durch ein spezialisiertes Computerprogramm durchgeführt, das jedes Netzwerkelement periodisch abfragt und Daten sammelt, die etwas über die Gesundheit des Netzwerkelements aussagen. Ein Überwachungsprogramm läuft üblicherweise an einem einzelnen Host. Bei verteilten Netzwerken können Überwachungseinrichtungen jedoch an verschiedenen Knoten in dem Netzwerk laufen, wobei jede Überwachungseinrichtung ihre Ergebnisse einer zentralisierten Anzeige meldet.
  • Ein Netzwerkadministrator betrachtet eine Präsentation der Netzwerkgesundheit auf der Anzeige. Wenn ein Netzwerkelement ausfällt, identifizieren die dem Netzwerkadministrator präsentierten Informationen im Idealfall Folgendes: 1) welches Element eine Fehlfunktion aufweist; 2) welche anderen Netzwerkelemente durch eine Fehlfunktion beeinflusst werden – d.h. welche funktionstüchtigen Netzwerkelemente auf Grund einer ausfallenden Vorrichtung über das Netzwerk hin unzugänglich sind; und 3) welche unzugänglichen Netzwerkelemente für die Produktivität einer Organisation, die sich auf das Netzwerk stützt, von kritischer Bedeutung sind (somit hat ein Wiederherstellen ihrer Verfügbarkeit für den Netzwerkadministrator eine hohe Priorität).
  • Bei vielen handelsüblichen Netzwerkverwaltungsprodukten werden diese drei gesonderten Informationsklassen zu einer Klasse zusammengefügt. Da das Versagen eines einzelnen Netzwerkelements dazu führen kann, das tausende von Elementen (Knoten und Schnittstellen) plötzlich unzugänglich wer den, wird der Netzwerkadministrator (NA) mit Informationen überwältigt. Folglich kann der NA eine beträchtliche Zeit dazu brauchen, die Vielzahl von empfangenen Informationen zu analysieren und die Grundursache des Ausfalls und seine Auswirkung auf die Organisation zu ermitteln.
  • Wenn ein Netzwerkelement ausfällt und viele weitere Knoten unzugänglich werden, fährt eine Überwachungseinrichtung üblicherweise fort, sowohl die funktionierenden Knoten als auch die unzugänglichen Knoten abzufragen. Das Überwachen erfolgt üblicherweise unter Verwendung von ICMP-Pings (Internet Control Message Protocol Echo_Request), SNMP-Nachrichten (SNMP = Simple Network Management Protocol) oder IPX-Diagnostikanforderungen. Diese Aktivitäten werden nachfolgend als „Anfragen" bzw. „Pings" bezeichnet. Wenn ein Netzwerkelement zugänglich ist, benötigen diese Anfragen eine Größenordnung von Millisekunden zur Verarbeitung. Wenn jedoch ein Netzwerkelement unzugänglich ist, kann eine Anfrage Sekunden bis zu einer Zeitsperre benötigen.
  • Dies führt zu einer Flut von störendem Netzwerkverkehr, und folglich verschlechtert sich die Leistungsfähigkeit eines Netzwerks (z.B. das Überwachungsprogramm kann langsamer ablaufen – bis zu dem Punkt, dass es bezüglich seiner geplanten Abfragen „funktionierender" Knoten in Rückstand gerät. Dies kann zu einer noch weiteren Netzwerkverschlechterung führen.).
  • Ein Produkt, das die obigen Probleme zu lösen versucht, ist das von Seagate Software, Scotts Valley, Kalifornien, vertriebene Produkt NerveCenter. Jedoch enthält das Produkt NerveCenter kein Überwachungsprogramm. Ergebnisse werden somit dadurch erreicht, dass der NA dazu gezwungen wird, das Netzwerk unter Verwendung einer anwendereigenen Topologiebeschreibungssprache manuell zu beschreiben. Diese Aufgabe ist für Netzwerke jeglicher praktischen Größe unpraktisch. Ferner verlangen Veränderungen an dem Netzwerk, dass ein NA an der Topologiebeschreibung (manuell) äquivalente Änderungen vornimmt.
  • Ein weiteres Produkt, das die obigen Probleme zu lösen versucht, ist der von Hewlett-Packard Company, Palo Alto, Kalifornien, vertriebene OpenView Network Node Manager5.01. Versionen des OpenView Network Node Manager vor und einschließlich der Version 5.01 (NNM5.01) enthalten ein als netmon bezeichnetes Überwachungsprogramm, das ein Netzwerk, wie es oben beschrieben ist, überwacht. NNM5.01 unterstützt Umgebungen, die ein einziges netmon enthalten, und unterstützt ferner verteilte Umgebungen, die mehrere netmon-Prozesse enthalten. In einer verteilten Umgebung laufen eine Mehrzahl von netmon-Prozessen an verschiedenen Sammelstations-Hosts (Collection Station hosts), von denen jeder Topologie- und Statusinformationen an eine zentralisierte Verwaltungsstation (Management Station) (die auf einem anderen Host in dem Netzwerk läuft) kommuniziert, wo Informationen dem NA präsentiert werden.
  • Zur Vereinfachung der Beschreibung wird ein Großteil der folgenden Beschreibung im Kontext nicht-verteilter Umgebungen bereitgestellt. 1 veranschaulicht ein kleines Netzwerk 100 mit netmon, das auf MGR HOST N 110 läuft und unter Verwendung der Netzwerkschnittstelle Nr. 1 von MGR HOST N auf das Netzwerk 100 zugreift. Netmon entdeckt das Netzwerk 100 unter Verwendung von ICMP und SNMP und speichert die Topologie in die Topologiedatenbank 118 (topo DB) durch Dienste, die durch den ovtopmd-Datenbankserver 116 bereitgestellt werden. Die ipmap/ovw-Prozesse 104 sind mit ovtopmd 116 verbunden 106, und sie wandeln Topologieinformationen in eine graphische Anzeige 108 um, die alle entdeckten Netzwerkelemente, ihre Verbindungen und ihren Status zeigt.
  • Netmon ermittelt den Status jedes Netzwerkelements 124, 128-136, indem es an denselben ein Ping ausführt (z.B. unter Verwendung von ICMP). Wenn eine Ping-Antwort durch ein bestimmtes Netzwerkelement 124 zurückgegeben wird, dann ist das Element Aktiv bzw. Verfügbar (Up). Andernfalls ist das Element 128 Inaktiv bzw. Nicht Verfügbar (Down). Falls das Element 124 Aktiv ist, dann zeigt ipmap/ovw 104 das Element als grün an (durch einen leeren Kreis in 1, 108, und in 3, 302, vermittelt). Falls das Element 128 Inaktiv ist, wird es als rot angezeigt (durch einen ausgefüllten Kreis in 1, 108, und in 3, 304, vermittelt). Ferner ist es auch möglich, dass ein Knoten oder eine Schnittstelle einen Unbekannt (Unknown)-Status aufweist und als blau (durch einen unterteilten Kreis in 3, 306-312, vermittelt) angezeigt wird. Die Fälle, in denen Unbekannt durch eine herkömmliche Netzwerküberwachungseinrichtung verwendet wird, sind rar.
  • Zusätzlich zu der Topologieanzeige enthält NNM ein Ereignissystem 114 zur Kommunikation von Knotenstatus-, Schnittstellenstatus- und anderen Informationen unter NNM-Prozessen 120, 204 und Dritte-Hilfsmitteln 206 (2). Diese Ereignisse werden dem NA unter Verwendung des Hilfs mittels xnmevents.web-Ereignisbrowser 120 (als Liste von Ereignissen 122 in einer chronologischen Reihenfolge) angezeigt.
  • Bei 1 wurde die Schnittstelle B.1 des Knotens Router B 128 inaktiv und hat bewirkt, dass die Knoten Router B 128, Bridge_C 130, X 132, Y 134 und Z 136 plötzlich unzugänglich wurden. Dies bewirkt, dass die folgenden Ereignisse durch netmon emittiert werden, wenn es erfasst, dass diese Knoten 128-136 und ihre Schnittstellen inaktiv sind.
    • Schnittstelle C.2 Inaktiv
    • Schnittstelle C.1 Inaktiv
    • Schnittstelle B.1 Inaktiv
    • Schnittstelle B.2 Inaktiv
    • Schnittstelle Z.1 Inaktiv
    • Schnittstelle Y.1 Inaktiv
    • Schnittstelle X.1 Inaktiv
  • Man beachte, dass die Schnittstelle-Inaktiv-Ereignisse in der zufälligen Reihenfolge, in der netmon die Schnittstellen abfragt, emittiert werden. Dies verstärkt die Schwierigkeit des NA beim Ermitteln der Ursache eines Ausfalls unter Verwendung des Ereignisse-Browsers. Der Status jedes Knotens 124, 128-136 und jeder Schnittstelle wird auch auf dem ovw-Bildschirm 108 angezeigt. Wie zuvor erwähnt wurde, werden alle unzugänglichen Knoten und Schnittstellen in der Farbe rot (d.h. einem ausgefüllten Kreis) angezeigt.
  • In einem echten Netzwerk mit tausenden von Knoten auf der anderen Seite des Router_B 128 ermöglicht keine Anzeige (ovw 108 oder xnmevents.web 120) dem NA, die Ursache eines Versagens und die Dringlichkeit des Wiederbelebens entscheidender Knoten in einem kurzen Zeitraum zu ermitteln. Außerdem weist dieses System 100 die zuvor beschriebenen Verschlechterungen der Netzwerkleistungsfähigkeit auf, da netmon weiterhin unzugängliche Knoten 130-136 abfragt.
  • Die US-A-5,436,909 offenbart ein Netzwerkverwaltungssystem, das eine Benutzerschnittstelle, ein virtuelles Netzwerk und eine Vorrichtungskommunikationsverwaltungseinrichtung umfasst. Das virtuelle Netzwerk umfasst Modelle, die Netzwerkentitäten darstellen und Beziehungen modellieren, die Beziehungen zwischen Netzwerkentitäten darstellen. Jedes Modell umfasst Netzwerkdaten, die sich auf eine entsprechende Netzwerkentität beziehen, und eine oder mehrere Störungshandhabungseinrichtungen zum Verarbeiten der Netzwerkdaten, um Benutzerinformationen zu liefern. Das System führt eine Fehlereingrenzungstechnik durch, bei der der Fehlerstatus einer Netzwerkvorrichtung unterdrückt wird, wenn ermittelt wird, dass die Vorrichtung nicht defekt ist. Benutzeranzeigen umfassen hierarchische Positionierungsansichten und topologische Ansichten der Netzwerkkonfiguration. Netzwerkvorrichtungen werden auf den Anzeigen durch Multifunktions-Ikone dargestellt, die es dem Benutzer ermöglichen, zusätzliche Anzeigen auszuwählen, die ausführliche Informationen bezüglich unterschiedlicher Aspekte der entsprechenden Netzwerkvorrichtung zeigen.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, Probleme mit Netzwerkelementen auf eine Weise zu präsentieren, die die Grundursache eines Problems deutlich anzeigt, wobei es einem NA ermöglicht wird, rasch zu beginnen, an einer Lösung des Problems zu arbeiten.
  • Diese Aufgabe wird durch eine Netzwerküberwachungseinrichtung gemäß Anspruch 1, durch eine Netzwerkverwaltungseinrichtung gemäß Anspruch 3 und durch ein Verfahren gemäß Anspruch 6 gelöst.
  • Die vorliegende Erfindung liefert ein System und ein Verfahren zum Unterscheiden zwischen defekten und unzugänglichen Netzwerkelementen.
  • Ferner liefert die vorliegende Erfindung eine Einrichtung zum Unterdrücken und/oder Korrelieren von Netzwerkereignis sen, um 1) die Informationsschwemme, die ein NA auf ein Ausfallen eines Netzwerkelements hin empfängt, zu reduzieren, und 2) eine Einrichtung zu liefern, anhand derer der NA unterdrückte Informationen auf geordnete Weise betrachten kann.
  • Außerdem stattet diese Erfindung einen NA mit einer Netzwerküberwachungseinrichtung aus, die sehr stark an Kundenanforderungen anpassbar ist, wodurch eine Anzahl von Formaten zum Betrachten von Informationen geliefert werden.
  • Zusammenfassung der Erfindung
  • Bei der Lösung der vorstehenden Aufgaben haben die Erfinder eine Netzwerküberwachungseinrichtung zum Unterscheiden zwischen defekten und unzugänglichen Netzwerkelementen ersonnen. Die Netzwerküberwachungseinrichtung umfasst ein oder mehrere computerlesbare Speicherungsmedien (z.B. CD-ROM, Floppy-Disk, Magnetband, Festplattenlaufwerk usw.) und einen computerlesbaren Programmcode, der in dem einen oder den mehreren computerlesbaren Speicherungsmedien gespeichert ist. Der computerlesbare Programmcode umfasst 1) einen Code zum Entdecken der Topologie einer Mehrzahl von Netzwerkelementen, 2) einen Code zum periodischen Abfragen einer Mehrzahl von Netzwerkschnittstellen, die der Mehrzahl von Netzwerkelementen zugeordnet sind, 3) einen Code zum Berechnen oder Validieren eines kritischeRoute-Attributs (criticalRoute-Attributs) für jede der Mehrzahl von Netzwerkschnittstellen, und 4) einen Code zum Analysieren eines Status von Netzwerkschnittstellen, die durch das kritische-Route-Attribut einer betreffenden Schnittstelle (IIQ – interface in question), die nicht auf eine Abfrage reagiert, identifiziert wurden. Elemente des Codes zum Entdecken der Topologie einer Mehrzahl von Netzwerkelementen und des Codes zum periodischen Abfragen einer Mehrzahl von Netzwerkschnittstellen, die der Mehrzahl von Netzwerkelementen zugeordnet sind, sind in der US-Patentschrift 5,185,860 von Wu mit dem Titel „Automatic Discovery of Network Elements" und in der US-Patentschrift 5,276,789 von Besaw et al. mit dem Titel „Graphic Display of Network Topology" offenbart.
  • Die oben beschriebene Netzwerküberwachungseinrichtung (und Systeme und Verfahren zum Verwenden derselben) liefern viele Vorteile im Vergleich zu bisherigen Implementierungen von Netzwerküberwachungseinrichtungen.
  • Ein erster Vorteil ist eine automatische Topologie. Um die Grundursache eines Netzwerkversagens ordnungsgemäß zu identifizieren, erfordert ein Netzwerkausfall 1) eine Eingabe von einem topologischen Modell des Netzwerks, und 2) den aktuellen Status jedes Elements in dem Netzwerk. Bisher musste der NA diese Topologie manuell beschreiben. Der hierin offenbarte Entwurf verwendet Topologie- und Statusinformationen, die bereits erzeugt wurden.
  • Ein zweiter Vorteil ist eine topologische Anzeige. Eine topologische graphische Anzeige von Informationen ist viel hilfreicher beim Unterstützen eines Netzwerkadministrators in seinen Bemühungen, die Grundursache eines Netzwerkausfalls zu identifizieren und seine Prioritäten zu setzen. Die graphische Anzeige (ovw), die bei dem bevorzugten Ausführungsbeispiel der Erfindung verwendet wird, präsentiert deutlich einen Netzwerkelementstatus in drei Kategorien:
    • • Funktionierende Knoten und Schnittstellen werden in grün angezeigt, um einen Aktiv-Status anzugeben.
    • • Grundursachen-Ausfälle und unzugängliche Schnittstellen an kritischen Serverknoten werden in rot angezeigt, um einen Inaktiv-Status anzuzeigen.
    • • Nicht-entscheidende, unzugängliche Schnittstellen werden in blau angezeigt, um einen Unbekannt-Status anzugeben.
  • Ein dritter Vorteil ist eine neue Art und Weise, Ereignisse anzuzeigen. Die Anzeige des Ereignisbrowsers 120 (1) von Knoten- und Schnittstellenstatusinformationen 122 ist viel sinnvoller beim Unterstützen des Netzwerkadministrators in seinen Bemühungen, die Grundursache eines Netzwerkausfalls zu identifizieren und Prioritäten zu setzen. Sekundärausfallereignisse (d.h. Ereignisse, die auf unzugängliche Schnittstellen hinweisen) werden nicht mit Primärausfällen (d.h. Ereignissen, die auf tatsächlich ausgefallene Schnittstellen hinweisen) und unzugänglichen kritischen Knoten angezeigt. Sekundärausfälle sind über einen „Drill-Down"-Prozess beobachtbar.
  • Ein vierter Vorteil ist die Netzwerkleistungsfähigkeit. Bei vergangenen Entwürfen nimmt die Netzwerkleistungsfähigkeit ab, wenn ein Versagensfall auftritt, da auf Grund fehlgeschlagener Anfragen nach unzugänglichen Netzwerkelementen viel mehr Netzwerkverwaltungsnachrichten emittiert werden. Außerdem geraten die Netzwerküberwachungsprozesse bezüglich ihres Zeitplans in Verzug, da Ausfälle zu Auszeiten führen, die viel langsamer sind als erfolgreiche Anfragen. Der vorliegende Entwurf umfasst Rückkopplungs-Abfragealgorithmen (backoff polling algorithms) für einen Netzwerküberwachungsdienst, um diese Situationen zu vermeiden, wann immer es möglich ist.
  • Ein fünfter Vorteil ist eine Fähigkeit, Netzwerkelemente zu klassifizieren. Netzwerkelemente sind in zwei Kategorien unterteilt, regulär und kritisch, um dem System zu helfen, dem NA auf eine Weise Informationen anzuzeigen, die seine Prioritäten widerspiegelt. Dies wird bewerkstelligt, indem ein Mechanismus bereitgestellt wird, mit dem der Netzwerkadministrator ein „Filter" definiert, das Router, wichtige Server und andere Netzwerkelemente, die der NA als wichtig erachtet, beschreibt.
  • Ein sechster Vorteil ist die Skalierbarkeit. Andere Systeme sind bezüglich der Architektur zentralisiert und sind nicht zu großen Unternehmensnetzwerken skalierbar. Die vorliegende Implementierung baut auf der verteilten OpenView-Architektur auf und liefert eine neue Funktionalität für „große" Netzwerke.
  • Ein siebter Vorteil ist eine Fähigkeit, willkürliche Topologien zu handhaben. Algorithmen, die versuchen, eine Grundursache eines Netzwerkelements zu finden, werden auf Grund der Komplexität bei Kundennetzwerkkonfigurationen (z.B. können sie Schleifen und ein dynamisches Routen enthalten) oft hinters Licht geführt. Algorithmen in der vorliegenden Implementierung sind „Bottoms up" bzw. von unten nach oben programmiert, und sie werden nicht dahin gehend hinters Licht geführt, zu denken, dass ein Netzwerkelement inaktiv ist, wenn ein redundanter Router versagt.
  • Ein achter Vorteil besteht darin, dass das System extrem konfigurierbar ist. Ein Netzwerkadministrator darf somit Kompromisse machen, die sein Netzwerk, seinen Arbeitsstil und seine Leistungsfähigkeit optimieren. Andere Systeme sind tendenziell manuell konfigurierbar und/oder starr.
  • Ein letzter Vorteil ist ein „Ereignisordnen". Während Netzwerkausfallssituationen wird die Verwirrung durch Implementierungen, die unzugängliche Netzwerkelemente in willkürlicher Reihenfolge entdecken, noch verstärkt. Die vorliegende Implementierung enthält neue Warteschlangenalgorithmen, um Ausfälle in einer vorhersehbaren Reihenfolge zu entdecken. Diese Vorhersehbarkeit ist sowohl für den Netzwerkadministrator als auch andere Ereigniskorrelationsprozesse, die ein Benutzer oder Dritte einrichten könnten, hilfreich.
  • Diese und weitere wichtige Vorteile und Ziele der vorliegenden Erfindung werden nachfolgend in der beiliegenden Beschreibung, den beiliegenden Zeichnungen und den beiliegenden Patentansprüchen näher erläutert oder werden auf Grund derselben offensichtlich.
  • Kurze Beschreibung der Zeichnungen
  • Ein veranschaulichendes und derzeit bevorzugtes Ausführungsbeispiel der Erfindung ist in den Zeichnungen veranschaulicht, bei denen:
  • 1 ein Blockdiagramm einer NNM5.01-Netzwerkadministratoranzeige ist;
  • 2 ein Blockdiagramm eines NNM5.01-Ereignisverteilungssystems ist;
  • 3 eine graphische Anzeige der Netzwerkelementgesundheit ist;
  • 4 ein Blockdiagramm eines bevorzugten Ereignisverteilungssystems ist;
  • 5 ein Blockdiagramm einer bevorzugten Netzwerkadministratoranzeige in einer [<>,Down,Unknown,True]-Konfiguration ([<>,inaktiv,unbekannt,wahr]-Konfiguration) ist;
  • 6 ein Flussdiagramm ist, das die Funktionsweise einer ECS-Router-Inaktiv-Schaltung veranschaulicht;
  • 7 ein Blockdiagramm einer bevorzugten Netzwerkadministratoranzeige in einer [<serverFilter>,Down,Unknown,True]-Konfiguration ([<server-Filter>,inaktiv,unbekannt,wahr]-Konfiguration) ist; und
  • 8 ein Blockdiagramm einer bevorzugten Netzwerkadministratoranzeige in einer [<serverFilter>,Unknown,Ignore,True]-Konfiguration ([<serverFilter>,inaktiv,unbekannt,ignorieren,wahr]-Konfiguration) ist.
  • Beschreibung des bevorzugten Ausführungsbeispiels
  • Eine Netzwerkverwaltungsvorrichtung zum Unterscheiden zwischen defekten und unzugänglichen Netzwerkelementen in einem Netzwerk und zum Präsentieren dieser Informationen gegenüber einem Netzwerkadministrator in einem leicht verständlichen Format ist in 5, 7 und 8 gezeigt. Die Vorrichtung umfasst allgemein einen Anzeigeprozess 104, 120 und eine Netzwerküberwachungseinrichtung 110, die mittels eines oder mehrerer Ereignisbusse 114 verbunden sind. Die Netzwerküberwachungseinrichtung 110 umfasst eine Einrichtung zum Entdecken der Topologie einer Mehrzahl von mit derselben verbundenen Netzwerkelementen 124, 128-136, eine Einrichtung zum periodischen Abfragen einer Mehrzahl von Netzwerkschnittstellen, die der Mehrzahl von Netzwerkelementen 124, 128-136 zugeordnet sind, eine Einrichtung zum Berechnen oder Validieren eines kritischeRoute-Attributs für jede der Mehrzahl von Netzwerkschnittstellen und eine Einrichtung zum Analysieren des Status von Netzwerkschnittstellen (z.B. N.1, A.1, A.2, B.1, B.2, C.1, C.2, X.1, Y.1, Z.1), die durch das kritischeRoute-Attribut einer betreffenden Schnittstelle (IIQ), die nicht auf eine Abfrage antwortet, identifiziert werden.
  • Desgleichen kann ein computerimplementiertes Verfahren zum Unterscheiden zwischen defekten und unzugänglichen Netzwerkelementen und zum Präsentieren dieser Informationen gegenüber einem Netzwerkadministrator in einem leicht verständlichen Format die Schritte des 1) Entdeckens der Topologie einer Mehrzahl von Netzwerkelementen 124, 128-136, 2) des periodischen Abfragens einer Mehrzahl von Netzwerkschnittstellen, die der Mehrzahl von Netzwerkelementen 124, 128-136 zugeordnet sind, 3) des Berechnens oder Validierens eines kritischeRoute-Attributs für jede der Mehrzahl von Netzwerkschnittstellen, und 4) des Analysierens des Status von Netzwerkschnittstellen, die durch das kritischeRoute- Attribut einer betreffenden Schnittstelle (IIQ), die nicht auf eine Abfrage antwortet, identifiziert werden, umfassen. Nachdem ein Verfahren und eine Vorrichtung zum Unterscheiden zwischen defekten und unzugänglichen Netzwerkelementen im Allgemeinen beschrieben wurden, werden das Verfahren und die Vorrichtung nun ausführlicher beschrieben.
  • Das bevorzugte Ausführungsbeispiel der Erfindung ist dahin gehend entworfen, in Verbindung mit dem Produkt OpenView Network Node Manager für allein stehende und verteilte Umgebungen zu arbeiten (hiernach „NNM"). Der OpenView Network Node Manager ist ein Produkt, das von Hewlett-Packard Company, Palo Alto, Kalifornien, vertrieben wird. Dieses Produkt wird in einer Reihe von Endbenutzerhandbüchern, die durch HP-Teilenummern J1136-90000, J1136-90001, J1136-90002, J1136-90004 und J1136-90005 identifiziert sind, und in einer Reihe von Entwicklerhandbüchern, die durch HP-Teilenummern J1150-90001, J1150-90002, J1150-90003 und J1150-90005 identifiziert sind, ausführlich beschrieben.
  • Der erste Teil dieser Beschreibung erörtert, wie das System in einer nicht verteilten Umgebung arbeitet. Eine nicht verteilte Umgebung ist eine Umgebung, die aus einer Verwaltungsstation 110 und keinen Sammelstationen besteht, wobei ein NNM-netmon-Prozess an der Verwaltungsstation 110 läuft. Die ovw- und ovevents.web-NA-Anzeige läuft an der Verwaltungsstation 110.
  • Das kritischeRoute-Attribut
  • Netmon entdeckt die Topologie eines Netzwerkes 100 genau wie bei NNM5.01. Jedoch berechnet netmon während Netmons Konfigurationsabfrage (die üblicherweise einmal pro Tag erfolgt) und während der ersten Statusabfrage jedes Knotens (nachdem netmon zu laufen beginnt) ein als kritischeRoute (critical route) bezeichnetes Pro-Netzwerkschnittstelle-Attribut.
  • Das kritischeRoute-Attribut ist eine Sequenz von ovtopmd-DB-Objektidentifizierern, die der Route entsprechen, die ein Netzwerkpaket nehmen könnte, wenn es von netmon an eine bestimmte Schnittstelle gesendet würde. Das kritische-Route-Attribut verfolgt den Pfad der dazwischen liegenden Netzwerkschnittstellen.
  • Die folgende Liste zählt die kritischeRoute-Werte für jede Netzwerkschnittstelle in 1 auf.
    Netzwerkschnitt-stelle Kritische Route
    N.1 N.1
    A.1 N.1, A.1
    A.2 N.1, A.1, A.2
    B.1 N.1, A.1, A.2, B.1
    B.2 N.1, A.1, A.2, B.1, B.2
    C.1 N.1, A.1, A.2, B.1, B.2, C.1
    C.2 N.1, A.1, A.2, B.1, B.2, C.1, C.2
    X.1 N.1, A.1, A.2, B.1, B.2, C.1, C.2, X.1
    Y.1 N.1, A.1, A.2, B.1, B.2, C.1, C.2, Y.1
    Z.1 N.1, A.1, A.2, B.1, B.2, C.1, C.2, Z.1
  • KritischeRoute kann sogar dann berechnet werden, wenn das Netzwerk Schleifen enthält, da zu dem Zeitpunkt, da die Berechnung durchgeführt wird, lediglich eine Route vorliegt, die ein Paket nehmen würde. Bei der Berechnung der kritischeRoute wird, wenn mehrere Möglichkeiten existieren, Routen in demselben Netzwerk oder Teilnetz vor Routen, die außerhalb des Netzwerks verlaufen, Vorrang gegeben. Vorrang wird auch Routen, die Routerknoten enthalten, vor anderen Nicht-Router-„Multihomed"-Knoten gegeben.
  • PrimärAusfälle (primaryFailures) gegenüber SekundärAusfällen (secondaryFailures)
  • Nachdem für jede Netzwerkschnittstelle ein kritischeRoute-PrimärAusfall-Schnittstellen von SekundärAusfall-Schnittstellen zu unterscheiden. Gemäß der Verwendung hierin ist eine PrimärAusfall-Schnittstelle eine Schnittstelle, die ausgefallen ist, wohingegen eine SekundärAusfall-Schnittstelle eine Schnittstelle ist, die auf Grund einer ausgefallenen Schnittstelle unzugänglich ist.
  • Angenommen, dass netmon Netzwerkschnittstellen in derselben Reihenfolge abfragt, wie die Ereignisse in dem Ereignisbrowser 120 in 1 angezeigt sind. Das heißt:
    • Schnittstelle C.2
    • Schnittstelle C.1
    • Schnittstelle B.1
    • Schnittstelle B.2
    • Schnittstelle Z.1
    • Schnittstelle Y.1
    • Schnittstelle X.1
  • Vor der Statusabfrage der Schnittstellen des Knotens BRIDGE_C sind alle Knoten 124, 126-136 und Schnittstellen Aktiv, und sie werden in der Farbe grün auf der ovw-Abbildung 104/108 angezeigt. In dem Ereignisbrowser 120 befinden sich keine Schnittstelle-Inaktiv-Ereignisse. Wenn netmons Ping der Schnittstelle C.2 eine Zeitbegrenzung auslöst, weiß netmon, dass die Schnittstelle C.2 unzugänglich ist. Es weiß noch nicht, ob die Schnittstelle C.2 unzugänglich ist, weil sie auf Grund eines Hardware-/Softwareausfalls physisch inaktiv ist oder weil eine Verbindungsschnittstelle inaktiv ist.
  • Bei NNM5.01 würde netmon einfach den Status der Schnittstelle unter Verwendung der ovtopmd-API 116 auf Kritisch (Critical) einstellen. Ovtopmd 116 würde dann den Status der Schnittstelle in der Topologiedatenbank 118 ändern und das Schnittstellelnaktiv-Ereignis (interfaceDown-Ereignis) aussenden.
  • Als Teil des aktuellen Verfahrens analysiert netmon den Status von Schnittstellen entlang der kritischeRoute für die betreffende Schnittstelle (IIQ) und versucht, zu ermitteln, welche Schnittstelle den Hardware-/Softwareausfall enthält. Wie zuvor erwähnt wurde, wird die Schnittstelle, die auf Grund ihres eigenen HW/SW-Ausfalls unzugänglich ist, als PrimärAusfall-Schnittstelle betrachtet. Die Schnittstellen, die auf Grund des PrimärAusfalls unzugänglich sind, werden als SekundärAusfall-Schnittstellen betrachtet. Bei diesem Szenario haben wir die folgende Klassifizierung von Schnittstellen (unter der Annahme, dass Schnittstelle B.1 ausgefallen ist):
    Schnittstelle Klassifizierung des Ausfalls
    N.1 Weist keinen Ausfall auf.
    A.1 Weist keinen Ausfall auf.
    A.2 Weist keinen Ausfall auf.
    B.1 Primärer Ausfall.
    B.2 Sekundärer Ausfall.
    C.1 Sekundärer Ausfall.
    C.2 Sekundärer Ausfall.
    X.1 Sekundärer Ausfall.
    Y.1 Sekundärer Ausfall.
    Z.1 Sekundärer Ausfall.
  • Vor-kritischeRouteWarteListe-Klassifizierungsalgorithmus
  • Wenn netmons Ping der Schnittstelle C.2 eine Zeitbegrenzung auslöst, untersucht netmon den Im-Speicher-Status jeder Schnittstelle entlang des kritischeRoute-Pfades für die IIQ (Schnittstelle C.2). Wenn irgendeine Schnittstelle ent lang dieses Pfades Inaktiv (Kritisch) ist, dann ist die IIQ eine SekundärAusfall-Schnittstelle. Falls die IIQ eine SekundärAusfall-Schnittstelle ist, ändert netmon ihren Status unter Verwendung des libtopm changeSecondaryFailureStatus()-API-Aufrufs zu Unbekannt.
  • Ovtopmd 116 verändert den Status der Schnittstelle in der Topologiedatenbank 116 und emittiert eine spezielle SekundärAusfallSchnittstelleInaktiv-Nachricht, wie im Abschnitt 3.1.6 beschrieben ist. Dann stellt netmon die interne Darstellung der Schnittstelle in eine Langsamer-Ping-Liste (slowPingList) und setzt seine normale Statusabfrageverarbeitung anderer Schnittstellen in dem Netzwerk fort.
  • kritischeRouteWarteListe-Klassifizierungsalgorithmus
  • Falls der pre-kritischeRouteWarteListe-Schnittstellenausfallsklassifizierungsalgorithmus nicht in der Lage ist, eine Schnittstelle (die nicht die IIQ ist), die bereits inaktiv ist, entlang der kritischeRoute zu finden, so muss der Status aller Schnittstellen entlang der kritischeRoute(IIQ) überprüft werden, um zu gewährleisten, dass eine dieser Schnittstellen nicht ausgefallen ist, seit sie zum letzten Mal geprüft wurde.
  • Um dies zu erleichtern, sichert netmon die Tatsache, dass die Schnittstelle C.2 unzugänglich ist, indem es die Darstellung dieser IIQ aus der normalen PingListe zu einer als kritischeRouteWarteListe bezeichneten neuen Warteschlange verschiebt. Diese Liste weist die folgenden Charakteristika auf:
    • • Eine beliebige Anzahl von Schnittstellen kann auf der Liste platziert sein.
    • • Lediglich die erste Schnittstelle auf der Liste wird durch den kritischeRouteWarteListe- Algorithmus verarbeitet. Alle anderen Schnittstellen werden einfach beibehalten.
    • • Wenn sich eine Schnittstelle auf dieser Liste befindet, befindet sie sich auf keiner anderen Liste. Dies verhindert ein Verarbeiten dieser Schnittstelle durch andere netmon-Aktivitäten.
    • • Diese Liste weist Datenstrukturen auf, um ein sequentielles Durchgehen der kritischeRouteWarte-Liste(IIQ) zu ermöglichen. Dies ist auf Grund der verketteten Beschaffenheit von netmon wichtig. Nachdem es ein Ping an eine bestimmte Schnittstelle auf der kritischeRoute(IIQ) gesendet hat, erfüllt netmon andere Aufgaben, während es darauf wartet, dass die Ping-Antwort zurückkehrt oder dass eine Zeitbegrenzung erfolgt.
  • Netmon befragt jede Schnittstelle entlang der kritische-Route im Namen der betreffenden Schnittstelle (IIQ), indem es einen Ping sendet, und zwar jede Schnittstelle einzeln, wobei mit der Schnittstelle des netmon-Knotens (an der Verwaltungsstation 110) begonnen wird, bis es eine Schnittstelle findet, die inaktiv ist, oder bis es wieder an der unzugänglichen Schnittstelle der IIQ ankommt.
  • Wenn eine Schnittstelle (die nicht die IIQ ist) Inaktiv ist, dann wird sie als PrimärAusfall-Schnittstelle verarbeitet. Der Status der Schnittstelle wird unter Verwendung der NNM5.01 libtopm-API zu Kritisch verändert. Ovtopmd verändert den Status der Schnittstelle in der Topologiedatenbank 118 und emittiert eine spezielle PrimärAusfallSchnittstellelnaktiv-Nachricht. Dann bewegt netmon die interne Darstellung der Schnittstelle von der kritischeRouteWarte-Liste zu der Langsamer-Ping-Liste und setzt seine normale Statusabfrageverarbeitung anderer Schnittstellen in dem Netzwerk 100 fort.
  • Wenn ein PrimärAusfall (der nicht die IIQ ist) gefunden wird, dann ist der Ausfall der IIQ ein SekundärAusfall und wird so verarbeitet, wie dies oben für SekundärAusfälle beschrieben wurde. Netmon verändert den Zustand der IIQ unter Verwendung des libtopm SekundänAusfall()-API-Aufrufs zu Unbekannt. Ovtopmd 116 verändert den Status der Schnittstelle in der Topologiedatenbank 118 und emittiert eine spezielle SekundärAusfallSchnittstelleInaktiv-Nachricht, wie nachfolgend beschrieben wird. Dann setzt netmon die interne Darstellung der Schnittstelle auf die Langsamer-Ping-Liste und setzt seine normale Statusabfrageverarbeitung anderer Schnittstellen in dem Netzwerk 100 fort.
  • Wenn keine PrimärAusfall-Schnittstelle entlang der kritischeRoute(IIQ) gefunden werden kann, kehrt die kritische-RouteWarteListe-Verarbeitung schließlich zu der IIQ-Schnittstelle zurück. Wenn dies eintritt, wissen wir, dass die IIQ ein PrimärAusfall ist. Für die IIQ folgt eine reguläre PrimärAusfall-Verarbeitung.
  • Der Status der Schnittstelle wird unter Verwendung der NNM5.01 libtopm-API zu Kritisch geändert. Ovtopmd 116 verändert den Status der Schnittstelle in der Topologiedatenbank 118 und emittiert eine spezielle PrimärAusfallSchnittstellelnaktiv-Nachricht, wie nachfolgend beschrieben wird. Dann verschiebt netmon die interne Darstellung der Schnittstelle aus der kritischeRouteWarteListe zu der Langsamer-Ping-Liste und setzt seine normale Statusabfrageverarbeitung anderer Schnittstellen in dem Netzwerk fort.
  • Entnahme von Daten aus der kritischeRouteWarteListe
  • Während die kritischeRouteWarteListe verarbeitet wird, fährt netmon fort, andere Schnittstellen in dem Netzwerk 100 gemäß der Steuerung durch die PingListe abzufragen. Manche von diesen können unzugänglich sein und durch die obigen Algorithmen auf der kritischeRouteWarteListe landen. Viele dieser Schnittstellen könnten SekundärAusfall-Schnittstellen sein, die auf dieselbe PrimärAusfall- Schnittstelle zurückzuführen sind. Es wäre sehr ineffizient, den Status der gesamten kritischeRoute für jede SekundärAusfall-Schnittstelle zu überprüfen.
  • Zu dem Zeitpunkt, zu dem die erste SekundärAusfall-Schnittstelle identifiziert und verarbeitet wurde, wurde auch die PrimärAusfall-Schnittstelle identifiziert und verarbeitet. Dies bedeutet, dass es nun möglich ist, zu ermitteln, ob die neue IIQ (IIQ2) eine PrimärAusfall-Schnittstelle oder eine SekundärAusfall-Schnittstelle ist, indem der Im-Speicher-Status jeder Schnittstelle entlang der kritischeRoute (IIQ2) unter Verwendung des Vor- kritischeRouteWarteListe-Klassifizierungsalgorithmus untersucht wird, und eine Zeitverschwendung durch ein Senden zusätzlicher Pings zu vermeiden.
  • Wenn ermittelt werden kann, dass IIQ2 ein SekundärAusfall ist, dann erfolgt eine SekundärAusfall-Verarbeitung, die Schnittstelle wird aus der kritischeRouteWarteListe entnommen und in die Langsamer-Ping-Liste platziert, und keine Überprüfung des kritischeRoute-Status ist erforderlich. Andernfalls wird die Verarbeitung für die IIQ2 auf ähnliche Weise wie eine Verarbeitung der IIQ fortgesetzt.
  • Schnittstelle-Inaktiv-Ereignisse für PrimärAusfälle und SekundärAusfälle
  • Die obigen Erläuterungen legen nahe, dass die ovtopmd-Hintergrundroutine 116 für die Veränderung des Status der Netzwerkelemente 124, 128-136 in der Topologiedatenbank 118 und für das Aussenden darauf bezogener Ereignisse verantwortlich ist. Sie tut dies im Namen anderer Prozesse, wenn diese sie anweisen, die liptopm-API zu verwenden.
  • Es erfolgt keine Änderung dieser API für PrimärAusfall-Ereignisse, und PrimärAusfall-Ereignisse verwenden das NNM5.01-Ereignisformat ohne Änderung. Jedoch müssen für Se kundärAusfall-Ereignisse Informationen über den SekundärAusfall kommuniziert werden, und außerdem muss die Primär-Ausfall-Schnittstelle identifiziert werden. Dieses zusätzliche Erfordernis ist notwendig, so dass ein Ereigniskorrelationssystem wie z.B. ECS 408 (4; von Hewlett-Packard Company, Palo Alto, Kalifornien, vertrieben) zwischen den zwei Arten von Ereignissen unterscheiden und dieselben korrelieren und/oder unterdrücken kann.
  • Dies wird bewerkstelligt, indem ein zusätzliches Varbind (SNMP-Varbinds sind ausführlich in „Simple Book" von Marshall Rose beschrieben) zu dem regulären PrimärAusfall-Ereignisformat hinzugefügt wird. Dieses zusätzliche Varbind wird als ...PrimärAusfallUuid bezeichnet und enthält den Ereignis-UUID (Universally Unique IDentifier (universell einzigartiger Identifizierer) ist eine Kennung, die für jedes Ereignis einzigartig ist) des entsprechenden PrimärAusfall-Ereignisses. UUID ist eine Kennung, die für jedes Ereignis über jeglichen Computer in einem Netzwerk hinweg einzigartig ist. Es gibt einen separaten API-Aufruf, SekundärAusfallStatusVerändern (changeSecondaryFailureStatus)(), in libtopm, der zum Verändern des Status des Netzwerkelements verwendet wird. Die Parameter des API-Aufrufs sind identisch mit dem für PrimärAusfälle verwendeten Aufruf, plus die Hinzufügung des ovwDbld des PrimärAusfall-Netzwerkelements (und das Verhalten ist anders).
  • Wenn der PrimärAusfall-API-Aufruf StatusVerändern (changeStatus)() durchgeführt wird, verändert ovtopmd 116 den Status in der Topologiedatenbank 118 und sendet das entsprechende Ereignis wie bei NNM5.01 aus. Außerdem zeichnet es in seinem Prozessspeicher den UUID des Inaktiv-Ereignisses auf.
  • Wenn der SekundärAusfall-API-Aufruf SekundärAusfallStatusVerändern (changeSeconaryFailureStatus) () durchgeführt wird, verändert ovovtopmd 116 den Status in der Topologiedatenbank 118 und konstruiert ein Ereignis wie bei NNM5.01. Außerdem nimmt es den ovwDbld-Parameter und schlägt den entsprechen den PrimärAusfall-Ereignis-UUID nach und erzeugt einen PrimärAusfallUuid-Varbind, um ihn in das SekundärAusfall-Ereignis aufzunehmen. Dann emittiert es das Ereignis. Der UUID des SekundärAusfall-Ereignisses wird zur möglichen späteren Verwendung in dem Prozessspeicher von ovovtopmd aufgezeichnet.
  • Langsamer-Ping-Liste
  • Die Langsamer-Ping-Liste ermöglicht, dass netmon seine Abfrage von inaktiven Schnittstellen durchführt, ohne in Bezug auf Schnittstellen, die aktiv sind, in Verzug zu geraten. Durch das Trennen von Inaktiv-Schnittstellen (die wahrscheinlich auch das nächste Mal, wenn sie abgefragt werden, inaktiv sind) von Aktiv-Schnittstellen ist netmon in der Lage, den Netzwerkadministrator von Übergängen von Aktiv zu Inaktiv rechtzeitig zu benachrichtigen. Netmon unternimmt dann auch weniger Neuversuche für Schnittstellen auf der Langsamer-Ping-Liste, wodurch es die Zeit und die Netzwerkbandbreite, die beim Durchführen dieser Operationen „verschwendet" wird, beschränkt.
  • PMD/ECS-Ereignisverteilung
  • 1 ist eine vereinfachte Veranschaulichung der NNM5.01-Architektur, die einen Ereignissystembus 114 umfasst. Ein Ereignissystembus 114 existiert eventuell gar nicht. Vielmehr kann eine Anschlussdosenverbindung von jedem kommunizierenden Hilfsmittel 120, 202-206 zu und von dem PMD-Prozess (PMD = Post Master Daemon, Postmaster-Hintergrundroutine) 102 existieren (siehe 2). Ein Sender 202 sendet ein Ereignis an den PMD-Prozess 102, und der PMD 102 verteilt das Ereignis an jeden Zuhörer 120, 204, 206. Die Verbindungen können bidirektional sein, so dass jeder Prozess 102, 120, 202-296 ein Zuhörer und ein Urheber sein kann.
  • Bei dem bevorzugten Ausführungsbeispiel des hierin präsentierten Systems wird das Ereignissystem 200 verbessert, indem ein Ereigniskorrelationssystem (ECS – Event Correlation System) 408 in den PMD-Prozess 406 integriert wird (siehe 4). ECS 408 ist ein weiteres Produkt, das von der Hewlett-Packard Company vertrieben wird. Dieses Produkt wird in dem durch die HP-Teilenummer J1095-90203 identifizierten „ECS 2.0 Designer's Reference Manual" ausführlich beschrieben. Dieses Handbuch ist hiermit durch Bezugnahme mit Bezug auf alles, was es offenbart, in das vorliegende Dokument aufgenommen. 4 veranschaulicht die PMD/ECS-Architektur 502. Alle Ereignisse, die in die PMD 406 fließen, fließen in die ECS-Maschine 408, die die Ereignisse auf folgende Weise manipulieren kann:
    • • Ereignisse können einfach unverändert durch die ECS-Maschine 408 gelangen.
    • • Ereignisse können einen gewissen Zeitraum in der ECS-Maschine 408 gespeichert und später freigegeben werden.
    • • Ereignisse können durch die ECS-Maschine 408 unterdrückt werden. Das heißt, dass sie hereinkommen, aber nicht hinausfließen.
    • • Unabhängig von einer Unterdrückung können Ereignisse mit anderen Ereignissen korreliert werden. Das heißt, dass ein Attribut an das Ereignis angehängt wird, das ein Mutterereignis spezifiziert. Dies ermöglicht die neue DrillDown-Funktionalität in dem Ereignisse-Browser 120.
    • • Zusätzlich zu einem oder statt eines Ereignisses, das in das ECS 408 eintritt, können neue Ereignisse erzeugt werden.
    • • Ereignisse können über einen längeren Zeitraum im ECS 408 gesichert und als Zustandsinformationen verwendet werden, um eine Interpretation der Bedeutung nachfolgender Ereignisse zu unterstützen.
    • • Ereignisse können Anfragen von Daten, die sich außerhalb der PMD 406 und der ECS-Maschine 408 befinden, auslösen, um die Interpretation der Bedeutung des aktuellen Ereignisses zu unterstützen.
  • Der Ereignisse-Browser 120, manche NNM-Prozesse und die meisten Dritte-Hilfsmittel sind mit dem Korreliertes-Ereignis-Bus 402 verbunden. Dieser Bus 402 kann manche Ereignisse unterdrücken oder verzögern lassen, wenn die Logik in den Schaltungen 408 der Maschine dahin gehend ausgelegt ist. Viele der ursprünglichen NNM-Prozesse 204/206 sind mit dem Rohes- + Korreliertes-Ereignis-Bus 404 verbunden, so dass sie alle Ereignisse in dem System sehen können.
  • Eine detaillierte Beschreibung dessen, wie die Logik in der ECS-Maschine 408 organisiert ist, geht über den Umfang des vorliegenden Dokuments hinaus. Kurz gesagt ist die Logik in zwei Schichten organisiert. Die erste Schicht ist ein Graphikdatenflussentwurf (ECS-Schaltung), der unter Verwendung eines Entwickler-GUI und einer Folge von ECS-Schaltungsknoten verschiedener Typen mit verschiedenen Funktionalitäten erstellt wird. Jeder Knoten der Schaltung kann ein Computerprogramm enthalten, das in der Ereigniskorrelationsbeschreibungssprache (ECDL – Event Correlation Description Language) geschrieben ist. Eines der ECS-Schaltungselemente wird als Kommentarknoten (Annotate Node) 412 bezeichnet und wird dazu verwendet, den entsprechenden Kommentarserver (Annotation Server) 510, der sich außerhalb des ECS 408 befindet, bezüglich Daten, die nicht in dem ECS 408 enthalten sind, zu befragen.
  • Benutzerkonfigurationsattribute
  • Das oben beschriebene Ereignissystem kann durch den Benutzer dahin gehend konfiguriert werden, eines von vielen möglichen Verhalten zu erhalten, mit verschiedenen Kompromis sen in Bezug auf die Leistungsfähigkeit und Nutzbarkeit. Die folgende Liste beschreibt die wichtigsten konfigurierbaren Attribute:
    • • Critical_Node_Filter_Name <String> Dieser netmon-Parameter spezifiziert ein Topologiefilter, das es netmon ermöglicht, zwischen einem kritischen Knoten und einem regulären Knoten zu unterscheiden. Ereignisse für kritische Knoten können korreliert sein, werden jedoch niemals durch ECS 408 oder netmon unterdrückt, selbst wenn der Ausfall sekundär ist.
    • • Critical_Node_Sec_Status <Down|Unknown> Dieser netmon-Parameter beschreibt den neuen Status, der für das StatusVerändern-Ereignis (changeStatus-Ereignis) für einen kritischen Knoten mit einem SekundärAusfall zu verwenden ist. PrimärAusfälle erhalten immer den Status Inaktiv, ungeachtet dessen, ob der Knoten kritisch oder regulär ist.
    • • Normal_Node_Sec_Status <Down|Unknown|Ignore> Dieser netmon-Parameter beschreibt den neuen Status, der für das StatusVerändern-Ereignis für einen Regulärer-Knoten-SekundärAusfall zu verwenden ist. Falls der Wert ignorieren (ignore) ist, dann ist der Status des Knotens nicht verändert. Er wird auf der Abbildung als Aktiv verbleiben, obwohl er unzugänglich ist.
    • • Sec_Fail_Event_Suppress_Switch <False|True> Dieser Boolesche netmon-Parameter wird über eine Router-Inaktiv-Kommentarserver-Schnittstelle 410 an ECS 408 kommuniziert und informiert das ECS 408, ob SekundärAusfälle für normale Knoten (d.h. nicht-kritische Knoten) unterdrückt werden sollen.
  • Erörterungen in diesem Dokument, die sich auf diese Benutzerparameter beziehen, beziehen sich in der obigen Reihenfolge auf dieselben. Beispielsweise gibt [<>, Down, Ignore, True] kein Filter an, Critical_Node_Sec_Status=Down, Normal_Node_Sec_Status=Ignore und Sec_FailEvent_Suppress_Switch=True.
  • Verhalten mit [<>, Down, Unknown, True]-Konfiguration
  • 1 veranschaulicht das Systemverhalten für NNM5,01. 5 veranschaulicht das Systemverhalten für das hierin offenbarte System, wobei die [<>, Down, Unknown, True]-Konfiguration ausgewählt ist. Bei diesem System hat netmon erkannt, dass die Schnittstelle B.1 der PrimärAusfall ist und Schnittstellen B.2, C.1, C.2, X.1, V.1 und Z.1 SekundärAusfälle sind. Da B.1 eine PrimärAusfall-Schnittstelle ist, wird ihr der Status Kritisch verliehen, und sie wird in ovw 104 als rot angezeigt. Ferner wird ein Schnittstelle-B-Inaktiv-Ereignis emittiert.
  • Da kein Filter spezifiziert wurde (Critical_Node_Filter_Name=" "), werden alle Knoten als normal erachtet (d.h. keine Knoten werden als Kritisch erachtet), und das Attribut Critical_Node_Sec_Status wird nicht verwendet. Da Normal_Node_Sec_Status=Unknown, werden alle SekundärAusfall-Schnittstellen an allen Knoten 124, 128-136 als blau angezeigt, um einen Unbekannt-Status darzustellen (d.h. als durchgestrichenen Kreis in der Anzeige 108 der 5).
  • Das Ereignis changeStatus Unknown wird seitens netmon/ovtopmd 110/116 für alle SekundärAusfall-Schnittstellen emittiert, wenn netmon sie erst einmal als SekundärAusfall-Schnittstellen erkannt hat. Jedoch unterdrückt das ECS 408 die Ereignisse, denn Sec_Fail_Event_Suppress_Switch=True. Deshalb erscheinen die SekundärAusfall-Ereignisse nicht in dem Ereignisbrowser xnmevents.web 120 auf der Obere-Ebene-Anzeige 522.
  • Eine neue Funktionalität in dem Ereignisbrowser ermöglicht, dass der Benutzer eine Menüoption aufruft, die SekundärAusfälle hervorbringt, die dem ausgewählten Obere-Ebene-Ereignis zugeordnet (mit demselben korreliert) sind. In diesem Fall bringt ein Auswählen von Interface B.1 Down und ein Aufrufen von „Show Correlated Events" („Zeige korrelierte Ereignisse") einen weiteren Dialog zum Vorschein, der die darauf bezogenen SekundärAusfall-Ereignisse zeigt.
  • Wenn man 1 mit 5 vergleicht, wird man erkennen, dass Probleme, die in Abschnitt „Hintergrund" dieser Offenbarung umrissen werden, durch die Architektur und Konfiguration der 5 gelöst werden. Die ovw-Anzeige 104 identifiziert die funktionierenden Knoten und Schnittstellen (in grün), die PrimärAusfälle (in rot) und alle SekundärAusfälle (in blau). Die Ereignisbrowser-Anzeige 522 ist nicht mit SekundärAusfällen 524 überhäuft, und sie identifiziert problemlos die eine Instandhaltung benötigende Schnittstelle gegenüber dem NA.
  • Critical_Node_Filter_Name und der ECS-Kommentarserver
  • Das Critical_Node_Filter_Name-Attribut kann durch den Benutzer spezifiziert werden und definiert zwei Klassen (kritisch und regulär) von Netzwerkknoten unter Verwendung der NNM5.01-Netzverbindungsfiltersprache. Diese Sprache ermöglicht es Benutzern, eine Teilmenge von Elementen in der Topologiedatenbank 118 auf der Basis von Attributen in der Datenbank zu beschreiben. Beispielsweise könnte man ohne weiteres eine Gruppe spezifizieren, die aus allen Routern 124, 128 und Knoten mit der ipAdresse 15.1.2.* besteht.
  • Dieser Mechanismus ist vorgesehen, um es dem Benutzer zu ermöglichen, Netzwerkelemente zu identifizieren, deren Zu gänglichkeit für die Produktivität der Organisation wesentlich ist. Beispielsweise könnten die Router 124, 128 und Server kritisch sein, die Arbeitsstationen 132-136 und PCs aber eventuell nicht. Schnittstellen, die unzugänglich sind und PrimärAusfälle sind, wird immer ein Inaktiv-Status verliehen, ungeachtet dessen, zu welcher Klasse sie gehören. Wenn jedoch eine Schnittstelle unzugänglich ist und ein SekundärAusfall ist, so kann ein Kritischer-Knoten-Filter dazu verwendet werden, das Verhalten des Systems zu beeinflussen.
  • Wenn eine Schnittstelle unzugänglich ist und sich an einem kritischen Knoten (gemäß der Definition durch das Filter und der Auswertung durch netmon) befindet, so definiert der Critical_Node_Sec_Status-Attributwert den Status, der der Schnittstelle tatsächlich verliehen wird. Die möglichen Werte sind Inaktiv und Unbekannt. Dieses Attribut wird durch netmon ausgewertet, was die Entität ist, die ovtopmd 116 anweist, den Status der Schnittstelle zu verändern.
  • Wenn eine Schnittstelle unzugänglich ist sich an einem regulären Knoten (gemäß der Definition durch das Filter und der Auswertung durch netmon) befindet, so definiert der Normal_Node_Sec_Status-Attributwert den Status, der der Schnittstelle tatsächlich verliehen wird. Die möglichen Werte sind Inaktiv, Unbekannt und Ignorieren. Wiederum wird dieses Attribut durch netmon ausgewertet, was die Entität ist, die ovtopmd 116 anweist, den Status der Schnittstelle zu verändern.
  • Ein Wert von Inaktiv oder Unbekannt führt zu einem Verhalten für reguläre Knoten, das zu dem Verhalten von kritischen Knoten analog ist. Jedoch weist ein Wert von ignorieren netmon an, diese unzugängliche Schnittstelle an einem regulären Knoten zu ignorieren. Das heißt, verändere nicht den Status der Schnittstelle und sende keinerlei Ereignisse bezüglich dieser Schnittstelle aus. Sie bleibt auf der Abbildung als Aktiv, obwohl sie unzugänglich ist.
  • Diese Konfiguration ist nützlich, wenn es wünschenswert ist, Netzwerkverkehr und NNM-Leistungsfähigkeit bezüglich Knoten, die für die Produktivität der Organisation nicht entscheidend sind, zu minimieren. In dieser Situation setzt netmon die Schnittstelle trotzdem auf die Langsamer-Ping-Liste, so dass Netzwerkverkehr weiter minimiert wird und eine netmon-Statusabfrage weiterhin nach Plan verläuft.
  • Dieses Filter wird durch netmon verwendet (gemäß der obigen Beschreibung), wenn es entdeckt, dass eine SekundärAusfall-Schnittstelle Inaktiv ist. Ferner wird es durch die ECS-Maschine 408 benötigt, um zu bestimmen, ob das entsprechende Ereignis unterdrückt werden sollte. Da netmon bereits dahin gehend eingerichtet ist, zwischen kritischen und regulären Knoten zu unterscheiden, ist es sinnvoll, netmon diese Unterscheidung an die Router-Inaktiv-Schaltung in der ECS-Maschine 408 kommunizieren zu lassen.
  • Es tut dies über den durch das ECS 408 bereitgestellten Kommentarserver-Mechanismus 412. Immer dann, wenn eine Schaltung im ECS 408 wissen muss, ob ein Ereignis, das sie empfangen hat, einem kritischen Knoten oder einem regulären Knoten entspricht, fließt das Ereignis in einen entsprechenden Kommentarschaltungsknoten 412, der die Anfrage unter Verwendung von UNIX®-Domain-Anschlussdosen an den Kommentarserverprozess 510 sendet. Bei Windows® NT wird ein anderer Mechanismus als eine UNIX®-Domgin-Anschlussdose verwendet.
  • Die Anfrage kommt an dem Router-Inaktiv-Kommentarserver 510 an, der das ovwDbld-Argument durch seine Filterauswertungseinrichtung laufen lässt und das Boolesche Ergebnis an den Kommentarschaltungsknoten 412 in der ECS-Schaltung 408 zurücksendet. Dieser jeweilige Kommentarserver ist in netmon eingebaut (siehe 4).
  • Man beachte, dass sich in einem verteilten System, bei dem mehrere netmons laufen, das Critical_Node_Filter_Name-Attribut an der Verwaltungsstation 510 von dem Wert an einer Sammelstation unterscheiden kann.
  • ECS-Router-Inaktiv-Schaltung
  • Obwohl die ECS-Maschine 408 eine beträchtliche Leistung aufweist, wird sehr wenig dieses Potentials durch die Router-Inaktiv-Schaltung verwendet, da ein Großteil der Logik aus Gründen der Leistungsfähigkeit in den netmon-Prozess platziert wurde. 6 veranschaulicht die Schaltungslogik 600.
  • Falls das Ereignis kein StatusVerändern-Ereignis (KnotenInaktiv oder Schnittstellelnaktiv) 602/604 ist oder falls das Ereignis ein PrimärAusfall (da keine zusätzlichen Varbinds vorliegen) 606 ist, so wird das Ereignis unmittelbar an andere ECS-Schaltungselemente 608/626 weitergeleitet. Andernfalls fließt das Ereignis in den SekundärAusfall-Pfad 610, wo es mit dem PrimärAusfall-Ereignis 612 korreliert wird. Diese Korrelation ist nichts weiter als ein Protokollieren eines Attributs in einer Protokolldatei, die das Mutterereignis des aktuellen Ereignisses identifiziert. Dies ist möglich, da der Ereignis-UUID des Mutterereignisses (des PrimärAusfall-Ereignisses) in dem zusätzlichen Varbind vorliegt. Diese Korrelation ermöglicht ein Drill-Down mit dem Ereignisse-Browser.
  • An diesem Punkt muss die Schaltung entscheiden, ob das Ereignis unterdrückt werden sollte. Wenn das Ereignis einem kritischen Knoten 620 entspricht, wird das Ereignis nicht unterdrückt, da es wichtig ist, dass der NA weiß, dass dieser wichtige Server oder Router unmittelbar repariert wird 618. Die Schaltung ermittelt, ob der Knoten kritisch oder regulär ist, indem sie den in netmon 616 eingebetteten Router-Inaktiv-Kommentarserver befragt.
  • Wenn das Ereignis einem regulären Knoten 622 entspricht, dann untersucht die Schaltung den Wert des Sec_Fail_Event_Suppress_Switch-Attributs und verhält sich entsprechend 624/626/628. All diese Attribute sind in netmons Konfiguration konfiguriert. Dieses Attribut wird nicht wirklich durch netmon verwendet. Es wird lediglich durch die ECS-Schaltung 600 verwendet. Deshalb wird der Wert dieses Attributs über die Kommentarserver-Schnittstelle auch an ECS kommuniziert.
  • Verhalten bei [<serverFilter>, Down, Unknown, True]-Konfiguration
  • 7 veranschaulicht ein Systemverhalten bei der [<serverFilter>, Down, Unknown, True]-Konfiguration. Diese Konfiguration unterscheidet sich von der Konfiguration der 5, da der Benutzer unter Verwendung des Critical_Node-Filter_Name-Attributs ein Filter spezifiziert hat. Das Filter in 7 wurde dahin gehend entworfen, Knoten Z als kritischen Knoten zu identifizieren. Beispielsweise kann die Produktivität der Organisation von der Verfügbarkeit eines an dem Knoten Z laufenden Anwendungsservers abhängen.
  • Bei diesem Szenario hat netmon erkannt, dass die Schnittstelle B.1 der PrimärAusfall ist, und die Schnittstellen B.2, C.1, C.2, X.1, Y.1 und Z.1 sekundär sind. Da B.1 eine PrimärAusfall-Schnittstelle ist, wird ihr der Status Kritisch verliehen, der in ovw als rot angezeigt ist, und ein Schnittstelle-B-Inaktiv-Ereignis wird emittiert.
  • Da die Schnittstelle Z.1 eine an einem KritischerKnoten angeordnete SekundärAusfall-Schnittstelle ist, wird ihr ein Status verliehen, der durch das Critical_Node_Sec_Status-Attribut spezifiziert wird, das dahin gehend konfiguriert wurde, einen Wert von Inaktiv zu haben. Der Knoten Z und die Schnittstelle Z.1 sind in ovw als rot angezeigt, und ein Schnittstelle-Z.1-Inaktiv-Ereignis wird emittiert.
  • Allen verbleibenden SekundärAusfall-Schnittstellen wird der Status verliehen, der durch das Normal_Node_Sec_Status-Attribut spezifiziert ist, das einen Wert von Unbekannt aufweist. Diese Schnittstellen sind in blau angezeigt, um einen Unbekannt-Status darzustellen.
  • Das Ereignis changeStatus Unbekannt wird von netmon/ovtopmd für alle nicht-kritischen/SekundärAusfall-Schnittstellen emittiert, nachdem netmon sie als SekundärAusfall-Schnittstellen erkannt hat. Jedoch unterdrückt das ECS 408 die Ereignisse, da Sec_Fail_Event_Suppress_Switch=True. Deshalb erscheinen die SekundärAusfall-Ereignisse, die keinen kritischen Knoten entsprechen, nicht auf der Obere-Ebene-Anzeige 722 in dem xnmevents.web-Ereignisbrowser 120.
  • Eine neue Funktionalität bei dem Ereignisbrowser 120 ermöglicht, dass der Benutzer eine Menüoption aufruft, die SekundärAusfälle 724 zum Vorschein bringt, die dem ausgewählten Obere-Ebene-Ereignis zugeordnet (mit demselben korreliert) sind. In diesem Fall zeigt ein Auswählen von „Interface B.1 Down" und ein Aufrufen von „Show Correlated Events" einen weiteren Dialog 724 zum Vorschein, der die verwandten SekundärAusfall-Ereignisse zeigt. Man beachte, dass die Schnittstelle Z.1 in der Obere-Ebene-Anzeige 722 und in der Drill-Down-Anzeige 724 erscheint. Sie erscheint in der Obere-Ebene-Anzeige 722, da sie sich an einem Knoten befindet, der kritisch ist. Sie erscheint in der Drill-Down-Anzeige 724, da sie auf Grund des Ausfalls der Schnittstelle B.1 unzugänglich ist.
  • Beim Vergleichen von 1 mit 7 kann man erkennen, dass alle drei Anforderungen, die in dem Abschnitt „Hintergrund" dieser Offenbarung identifiziert wurden, nun durch die Architektur und Konfiguration der vorliegenden Erfin dung erfüllt sind. Die ovw-Anzeige 104/108 identifiziert die funktionierenden Knoten und Schnittstellen (in grün), die PrimärAusfall-Schnittstellen (in rot), die kritischen SekundärAusfall-Schnittstellen (in rot) und alle regulären SekundärAusfälle (in blau). Die Ereignisbrowseranzeige 722 ist nicht mit nicht-kritischen SekundärAusfällen überhäuft, und sie identifiziert ohne weiteres eine Schnittstelle, die eine Wartung benötigt, gegenüber dem NA.
  • Verhalten bei [<serverFilter>, Unknown, Ignore, True]-Konfiguration
  • 8 veranschaulicht ein Systemverhalten bei einer [<serverFilter>, Unknown, Ignore, True]-Konfiguration. Diese Konfiguration unterscheidet sich von der in 7 gezeigten Konfiguration darin, dass ein Benutzer spezifiziert hat, dass SekundärAusfälle von kritischen Knoten ein Unbekannt-Status verliehen werden sollte, und dass SekundärAusfälle an regulären Knoten ignoriert werden sollten.
  • Diese Konfiguration weist Vorteile und Nachteile auf. Der Hauptvorteil besteht darin, dass die System- und Netzwerk-Leistungsfähigkeit sehr gut ist, da an Sammel- und/oder Verwaltungsstationen weniger Statusänderungen und Ereignisse erzeugt werden. Die ovw-Anzeige 104/108 und die Ereignisbrowseranzeige 822 kommunizieren mehr von der Auswirkung des Ausfalls, da PrimärAusfälle und SekundärAusfälle von Schnittstellen von kritischen Knoten in unterschiedlichen Farben vorliegen und die Anhäufung von unwichtigen SekundärAusfällen nicht gezeigt ist.
  • Der Nachteil besteht darin, dass SekundärAusfälle von unwichtigen Knoten als zugänglich angezeigt werden, wenn sie nicht zugänglich sind. Dies ist ein Kompromiss, den der Netzwerkadministrator abwägen muss, wenn er diese Konfiguration wählt.
  • Bei diesem Szenario erkennt netmon, dass die Schnittstelle B.1 ein PrimärAusfall ist und Schnittstellen B.2, C.1, C.2, X.1, Y.1 und Z.1 sekundär sind. Da B.1 eine PrimärAusfall-Schnittstelle ist, wird ihr der Status Kritisch verliehen, und sie wird in ovw 104/108 als rot angezeigt. Ferner wird ein Schnittstelle-B-Inaktiv-Ereignis emittiert.
  • Da die Schnittstelle Z.1 ein SekundärAusfall ist, der sich an einem kritischen Knoten befindet, wird ihr ein Status verliehen, der durch das Critical_Node_Sec_Status-Attribut spezifiziert wird, das dahin gehend konfiguriert wurde, einen Unbekannt-Wert aufzuweisen. Die Schnittstelle Z.1 wird in ovw als blau angezeigt, und ein Schnittstelle Z|Unbekannt-Ereignis wird emittiert.
  • Alle übrigen SekundärAusfall-Schnittstellen werden ignoriert. Es erfolgen keine Statusänderungen, und es werden keine Ereignisse emittiert. Sie werden weiterhin als grün angezeigt, was einen Statuswert von Aktiv darstellt. Jedoch geht netmon trotzdem noch in seinen Sicherungsabfragemodus.
  • Man beachte, dass 8 mehrere Schnittstelle-Aktiv-Ereignisse zeigt, die kollektiv zu einer Überhäufung der Ereignisanzeige führen. Diese Veranschaulichung ist etwas irreführend. Diese Schnittstelle-Aktiv-Ereignisse sind gezeigt, um zu veranschaulichen, dass anfänglich, wenn netmon die Knoten und Schnittstellen entdeckt, die Schnittstelle-Aktiv-Ereignisse übertragen werden. Jedoch sollte das nur einmal geschehen. Es geschieht nie mehr wieder, es sei denn, der Knoten wird in dem Netzwerk physisch verschoben.
  • Während eines typischen Betriebs sieht der NA lediglich die zwei Ereignisse, Schnittstelle-B.1-Inaktiv und Schnittstelle-Z.1-Unbekannt. Desgleichen geschehen die Schnittstelle-Aktiv-Ereignisse in den 1, 5 und 7 nur, wenn die Knoten 124, 128-136 entdeckt werden. Die Anzeigen in jedem dieser vier Szenarios werden von einer Überhäufung gereinigt und sind für den NA nützlich, da sie ein fehlerhaftes Netzwerkelement genau zu lokalisieren versuchen.
  • Eine neue Funktionalität bei dem Ereignisbrowser 120 ermöglicht, dass der Benutzer eine Menüoption aufruft, die SekundärAusfälle zum Vorschein bringt, die dem ausgewählten Obere-Ebene-Ereignis zugeordnet (mit demselben korreliert) sind. In diesem Fall zeigt ein Auswählen von „Interface B.1 Down" und ein Aufrufen von „Show Correlated Events" einen weiteren Dialog zum Vorschein, der die verwandten SekundärAusfall-Ereignisse zeigt. Man beachte, dass die Schnittstelle Z.1 wiederum in der Obere-Ebene-Anzeige 822 und in der Drill-Down-Anzeige 824 erscheint. Sie erscheint in der Obere-Ebene-Anzeige 822, da sie sich an einem Knoten befindet, der als kritisch erachtet wird. Sie erscheint in der Drill-Down-Anzeige 824, da sie auf Grund des Ausfalls der Schnittstelle B.1 unzugänglich ist.
  • Verhalten bei [<>, Down, Down, False]-Konfiguration
  • Diese Konfiguration zwingt ein System, sich sehr ähnlich wie NNM5.01 zu verhalten, da allen unzugänglichen Schnittstellen ein Inaktiv-Status verliehen wird, in ovw als rot angezeigt, und keine Ereignisse unterdrückt werden (siehe 1). Das Systemverhalten unterscheidet sich auf folgende Weise:
    • • SekundärAusfall-Schnittstellen werden immer noch durch netmon erkannt, und ihre Knoten-Inaktiv- und Schnittstelle-Inaktiv-Ereignisse enthalten das zusätzliche Varbind.
    • • Obwohl die SekundärAusfälle nicht unterdrückt werden, werden sie trotzdem mit dem PrimärAusfall korreliert und sind ferner mittels Drill-Down sichtbar.
    • • Der Rückkopplungs-Abfragealgorithmus liefert immer noch Verbesserungen der Leistungsfähigkeit (d.h. die Langsamer-Ping-Liste wird verwendet).
  • Verteilte Architektur
  • Das hierin beschriebene System und Verfahren sind ohne weiteres an eine verteilte Umgebung, die sowohl Sammel- als auch Verwaltungsstationen umfasst, anpassbar. Eine exemplarische verteilte Umgebung, an die das offenbarte System und Verfahren ohne weiteres anpassbar sind, ist in der US-Patentanmeldung von Eric Pulsipher et al., die am 29. August 1996 eingereicht wurde, die Seriennummer 08/705,358 und den Titel „Distributed Internet Monitoring System and Method" trägt, beschrieben.

Claims (10)

  1. Eine Netzwerküberwachungseinrichtung (510) zum Unterscheiden zwischen defekten und unzugänglichen Netzwerkelementen, die folgende Merkmale aufweist: a) ein oder mehrere computerlesbare Speicherungsmedien; und b) einen computerlesbaren Programmcode, der in dem einen oder den mehreren computerlesbaren Speicherungsmedien gespeichert ist, wobei der computerlesbare Programmcode folgende Merkmale umfasst: i) einen Code zum Entdecken der Topologie einer Mehrzahl von Netzwerkelementen (124, 128-136); ii) einen Code zum periodischen Abfragen einer Mehrzahl von Netzwerkschnittstellen, die der Mehrzahl von Netzwerkelementen zugeordnet sind; iii) einen Code zum Berechnen oder Validieren, für jede der Mehrzahl von Netzwerkschnittstellen, einer Liste der Netzwerkschnittstellen, die dem Pfad entsprechen, den ein Netzwerkpaket nehmen würde, wenn es von der Netzwerküberwachungseinrichtung an die betreffende Netzwerkschnittstelle gesendet würde; und iv) einen Code zum Analysieren eines Status von Netzwerkschnittstellen, die durch die Liste von Netzwerkschnittstellen für die betref fende Netzwerkschnittstelle, die als IIQ (interface in question, betreffende Schnittstelle) bezeichnet wird, die nicht auf eine Abfrage reagiert, identifiziert werden.
  2. Eine Netzwerküberwachungseinrichtung (510) gemäß Anspruch 1, die ferner einen Code zum Erstellen einer Liste von defekten oder ausgefallenen Netzwerkschnittstellen, die mit einer langsameren Rate als andere Schnittstellen abzufragen sind, umfasst.
  3. Eine Netzwerkverwaltungsvorrichtung zum Unterscheiden zwischen defekten und unzugänglichen Netzwerkelementen und zum Präsentieren dieser Informationen gegenüber einem Netzwerkadministrator, wobei die Netzwerkverwaltungsvorrichtung folgende Merkmale aufweist: a) einen Anzeigeprozess zum Präsentieren der Informationen (104 oder 120); und b) eine Netzwerküberwachungseinrichtung (510), die folgende Merkmale aufweist: i) eine Einrichtung zum Entdecken der Topologie einer Mehrzahl von mit derselben verbundenen Netzwerkelementen (124, 128-136); ii) eine Einrichtung zum periodischen Abfragen einer Mehrzahl von Netzwerkschnittstellen, die der Mehrzahl von Netzwerkelementen zugeordnet sind; iii) eine Einrichtung zum Berechnen oder Validieren, für jede der Mehrzahl von Netzwerkschnittstellen, einer Liste der Netzwerkschnittstellen, die dem Pfad entsprechen, den ein Netzwerkpaket nehmen würde, wenn es von der Netzwerküberwachungseinrichtung an die betreffende Netzwerkschnittstelle gesendet würde; und iv) eine Einrichtung zum Analysieren eines Status von Netzwerkschnittstellen, die durch die Liste von Netzwerkschnittstellen identifiziert werden, für die betreffende Netzwerkschnittstelle, die als IIQ bezeichnet wird, die nicht auf eine Abfrage reagiert. wobei der Anzeigeprozess und die Netzwerküberwachungseinrichtung mittels eines oder mehrerer Ereignisbusse (114) kommunizieren.
  4. Netzwerkverwaltungsvorrichtung gemäß Anspruch 3, die ferner folgende Merkmale aufweist: a) ein Ereigniskorrelationssystem (408), das einen Kommentarknoten (408) umfasst; und b) einen Kommentarserver (510); wobei der eine oder die mehreren Ereignisbusse (114) einen Korrelierte-Ereignisse-Bus (402) umfassen, der Anzeigeprozess (120) Ereignisdaten über den Korrelierte-Ereignisse-Bus empfängt und der Kommentarserver und der Kommentarknoten mittels eines Kommunikationskanals (410) kommunizieren; wobei der Kommentarserver dahin gehend konfiguriert ist, die folgenden Kommentarinformationen zu verarbeiten: i) einen Kommentar, der eine Kritischer-Knoten-Erkennung vorsieht; ii) einen Kommentar, der angibt, wie unzugängliche Knoten in den Listen von Netzwerkschnittstellen verarbeitet und angezeigt werden sollten; iii) einen Kommentar, der angibt, wie unzugängliche Knoten, die sich nicht in den Listen von Netzwerkschnittstellen befinden, verarbeitet und angezeigt werden sollten; und iv) einen Kommentar, der eine Unterdrückung von unzugänglichen Knoten, die sich nicht in den Listen von Netzwerkschnittstellen befinden, vorsieht.
  5. Netzwerkverwaltungsvorrichtung gemäß Anspruch 4, bei der: a) das Ereigniskorrelationssystem eine Einrichtung zum Unterdrücken von Ereignissen umfasst, so dass sie nicht auf dem Korrelierte-Ereignisse-Bus (402) erscheinen; und b) der Anzeigeprozess (120) eine Drill-Down-Schnittstelle (522, 722, 822) umfasst, durch die verschiedene unterdrückte Ereignisse zum Zweck einer Betrachtung aufgerufen werden können.
  6. Ein computerimplementiertes Verfahren zum Unterscheiden zwischen defekten und unzugänglichen Netzwerkelementen und zum Präsentieren dieser Informationen gegenüber einem Netzwerkadministrator, wobei das Verfahren folgende Schritte umfasst: a) Entdecken der Topologie einer Mehrzahl von Netzwerkelementen (124, 128-136); b) periodisches Abfragen einer Mehrzahl von Netzwerkschnittstellen, die der Mehrzahl von Netzwerkelementen zugeordnet sind; c) Berechnen oder Validieren, für jede der Mehrzahl von Netzwerkschnittstellen, einer Liste der Netzwerkschnittstellen, die dem Pfad entsprechen, den ein Netzwerkpaket nehmen würde, wenn es von der Netzwerküberwachungseinrichtung an die betreffende Netzwerkschnittstelle gesendet würde; und d) Analysieren eines Status von Netzwerkschnittstellen, die durch eine Liste von Netzwerkschnittstellen identifiziert werden, für die betreffende Netzwerkschnittstelle, die als IIQ bezeichnet wird, die nicht auf eine Abfrage reagiert.
  7. Ein Verfahren gemäß Anspruch 6, bei dem der Schritt des Analysierens des Status von Netzwerkschnittstellen, die durch die Liste von Netzwerkschnittstellen für eine IIQ, die nicht auf eine Abfrage antwortet, identifiziert werden, folgende Schritte umfasst: a) erstens, Untersuchen des In-Speicher-Status einer oder mehrerer Netzwerkschnittstellen, um zu bestimmen, ob eine durch die Liste von Netzwerkschnittstellen für die IIQ identifizierte Netzwerkschnittstelle nicht verfügbar ist, und falls dies der Fall ist, Identifizieren dieser Netzwerkschnittstelle als defekte Schnittstelle; b) zweitens, falls eine durch die Liste von Netzwerkschnittstellen für die IIQ identifizierte Netzwerkschnittstelle nicht als defekte Schnittstelle identifiziert wurde, Verifizieren des Status einer oder mehrerer Netzwerkschnittstellen, die durch die Liste von Netzwerkschnittstellen für die IIQ identifiziert werden, um zu bestimmen, ob eine derselben eine defekte Schnittstelle ist; und c) drittens, falls eine durch die Liste von Netzwerkschnittstellen für die IIQ identifizierte Netzwerkschnittstelle nicht als defekte Schnittstelle identifiziert wurde, Identifizieren der IIQ als defekte Schnittstelle.
  8. Ein Verfahren gemäß Anspruch 6, das ferner den Schritt des Pflegens einer Liste von Netzwerkschnittstellen, die als nicht verfügbar identifiziert wurden, die jedoch nicht als unzugänglich oder defekt eingestuft wurden, umfasst, wobei ein Algorithmus zum Identifizieren unzugänglicher Netzwerkschnittstellen folgende Schritte umfasst: a) Untersuchen eines In-Speicher-Status einer oder mehrerer Netzwerkschnittstellen, um zu bestimmen, ob eine Netzwerkschnittstelle, die dahin gehend identifiziert ist, dass sie sich auf der Liste von Netzwerkschnittstellen befindet, die einem Pfad entsprechen, den ein Netzwerkpaket nehmen würde, wenn es von der Netzwerküberwachungseinrichtung an die Netzwerkschnittstelle für die IIQ gesendet würde, nicht verfügbar ist, und falls dies der Fall ist, Identifizieren dieser Netzwerkschnittstelle als defekte Schnittstelle; und b) falls der obige Schritt eine Netzwerkschnittstelle erfolgreich als defekte Schnittstelle identifiziert, i) Identifizieren der IIQ als unzugängliche Schnittstelle; ii) Emittieren eines Ereignisses, das angibt, dass die Netzwerkschnittstelle nicht verfügbar ist; und iii) Platzieren einer In-Speicher-Darstellung der IIQ auf einer Liste von Netzwerkschnittstellen, die mit einer langsameren Rate abzufragen sind als andere Schnittstellen.
  9. Ein Verfahren gemäß Anspruch 8, bei dem der Algorithmus zum Identifizieren von unzugänglichen Netzwerkschnittstellen folgende Schritte umfasst: a) falls keine der durch die Liste von Netzwerkschnittstellen für die IIQ identifizierten Netzwerkschnittstellen als defekte Schnittstelle identifiziert wurde, Überprüfen des Status einer oder mehrerer Netzwerkschnittstellen, die durch die Liste von Netzwerkschnittstellen für die IIQ identifiziert wurden, durch i) Bewegen einer In-Speicher-Darstellung der IIQ und aller durch die Liste von Netzwerkschnittstellen für die IIQ identifizierten Netzwerkschnittstellen zu der Liste von Netzwerkschnittstellen, die als nicht verfügbar identifiziert wurden, die jedoch nicht als unzugänglich oder defekt eingestuft wurden, und Entfernen dieser Netzwerkschnittstellen aus allen anderen Listen, die für eine Netzwerküberwachungseinrichtung, die dieses Verfahren ausführt, zugänglich sind; ii) sequentielles Durchgehen der Liste von Netzwerkschnittstellen, die als nicht verfügbar identifiziert wurden, die jedoch nicht als unzugänglich oder defekt eingestuft wurden, Abfragen jeder Netzwerkschnittstelle, um zu bestimmen, ob es sich dabei um eine defekte Schnittstelle handelt; und b) falls eine durch die Liste von Netzwerkschnittstellen für die IIQ identifizierte Netzwerkschnittstelle nicht als defekte Schnittstelle identifiziert wurde, Identifizieren der IIQ als defekte Schnittstelle, andernfalls Identifizieren der IIQ als unzugängliche Schnittstelle.
  10. Ein Verfahren gemäß Anspruch 6, das ferner den Schritt des Verwendens einer Netzwerkschnittstellen-Liste einer IIQ zum Identifizieren einer IIQ als defekte Schnittstelle oder als unzugängliche Schnittstelle umfasst.
DE69837180T 1997-10-08 1998-05-15 Korrelation von Netzwerkverwaltungs-Ereignissen in Umgebungen mit inaktiven Netzelementen Expired - Lifetime DE69837180T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US947219 1997-10-08
US08/947,219 US6061723A (en) 1997-10-08 1997-10-08 Network management event correlation in environments containing inoperative network elements

Publications (2)

Publication Number Publication Date
DE69837180D1 DE69837180D1 (de) 2007-04-12
DE69837180T2 true DE69837180T2 (de) 2008-02-21

Family

ID=25485764

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69837180T Expired - Lifetime DE69837180T2 (de) 1997-10-08 1998-05-15 Korrelation von Netzwerkverwaltungs-Ereignissen in Umgebungen mit inaktiven Netzelementen

Country Status (4)

Country Link
US (1) US6061723A (de)
EP (1) EP0909056B1 (de)
JP (1) JP3556842B2 (de)
DE (1) DE69837180T2 (de)

Families Citing this family (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7076784B1 (en) * 1997-10-28 2006-07-11 Microsoft Corporation Software component execution management using context objects for tracking externally-defined intrinsic properties of executing software components within an execution environment
US8127042B1 (en) * 1998-01-21 2012-02-28 Ciena Corporation Data driven connection rule/constraint engine applied to trail management
US6148338A (en) * 1998-04-03 2000-11-14 Hewlett-Packard Company System for logging and enabling ordered retrieval of management events
US6054987A (en) * 1998-05-29 2000-04-25 Hewlett-Packard Company Method of dynamically creating nodal views of a managed network
US6628304B2 (en) * 1998-12-09 2003-09-30 Cisco Technology, Inc. Method and apparatus providing a graphical user interface for representing and navigating hierarchical networks
US6859829B1 (en) * 1999-02-23 2005-02-22 Microsoft Corp. Method and mechanism for providing computer programs with computer system events
US6829770B1 (en) * 1999-02-23 2004-12-07 Microsoft Corporation Object connectivity through loosely coupled publish and subscribe events
NO315100B1 (no) 1999-12-03 2003-07-07 Ericsson Telefon Ab L M Analyse av datanett
US6697087B1 (en) * 1999-05-05 2004-02-24 Microsoft Corporation Updating diagrams of dynamic representational Models of dynamic systems
EP1179245A1 (de) * 1999-05-21 2002-02-13 Telefonaktiebolaget LM Ericsson (publ) Verfahren und vorrichtung zur anzeige von informationen in einem fehlerverwaltungssystem
US6748555B1 (en) * 1999-09-09 2004-06-08 Microsoft Corporation Object-based software management
US7287192B1 (en) * 1999-09-23 2007-10-23 Computer Associates Think, Inc. Identifying a failed device in a network
US6965934B1 (en) * 1999-11-12 2005-11-15 Crossroads Systems, Inc. Encapsulation protocol for linking storage area networks over a packet-based network
US6920636B1 (en) * 1999-12-15 2005-07-19 Microsoft Corporation Queued component interface passing for results outflow from queued method invocations
ATE531162T1 (de) * 1999-12-23 2011-11-15 Accenture Global Services Ltd Verfahren zur steuerung der datenerfassung, datenmanipulation und speicherung in einem netzwerk mit gesicherter service qualität
US6985901B1 (en) 1999-12-23 2006-01-10 Accenture Llp Controlling data collection, manipulation and storage on a network with service assurance capabilities
US6813634B1 (en) * 2000-02-03 2004-11-02 International Business Machines Corporation Network fault alerting system and method
US6661778B1 (en) * 2000-03-13 2003-12-09 Alcatel Canada Inc. Method and apparatus for statistics collection in a data communication network
JP2001268120A (ja) * 2000-03-17 2001-09-28 Fujitsu Ltd パケット通信システム
FR2806562B1 (fr) * 2000-03-20 2003-06-27 Futurocom Superviseur d'equipements, de reseaux et de services informatiques ou de telecommunication
US6941362B2 (en) * 2000-04-28 2005-09-06 Sheer Networks Inc. Root cause analysis in a distributed network management architecture
GB2362536B (en) * 2000-05-17 2002-05-15 3Com Corp Network management apparatus and method for identifying events on a network
US6865739B1 (en) * 2000-06-06 2005-03-08 Polysecure Systems, Inc. Method for implementing polyinstantiated access control in computer operating systems
US6748432B1 (en) * 2000-06-16 2004-06-08 Cisco Technology, Inc. System and method for suppressing side-effect alarms in heterogenoeus integrated wide area data and telecommunication networks
US6694364B1 (en) * 2000-06-16 2004-02-17 Cisco Technology, Inc. System and method for suppressing out-of-order side-effect alarms in heterogeneous integrated wide area data and telecommunication networks
US6954437B1 (en) 2000-06-30 2005-10-11 Intel Corporation Method and apparatus for avoiding transient loops during network topology adoption
US20060190587A1 (en) * 2000-06-30 2006-08-24 Mikael Sylvest Network topology management
JP4386634B2 (ja) * 2000-07-10 2009-12-16 富士通株式会社 ネットワーク統合管理システム
US7886054B1 (en) 2000-10-11 2011-02-08 Siddhartha Nag Graphical user interface (GUI) for administering a network implementing media aggregation
US7266683B1 (en) 2001-07-27 2007-09-04 Siddhartha Nag Selective encryption of application session packets
US7788354B2 (en) 2000-07-28 2010-08-31 Siddhartha Nag End-to-end service quality in a voice over Internet Protocol (VoIP) Network
US7013338B1 (en) * 2000-07-28 2006-03-14 Prominence Networks, Inc. Multiplexing several individual application sessions over a pre-allocated reservation protocol session
US7774468B1 (en) 2000-07-28 2010-08-10 Siddhartha Nag Network traffic admission control
US6915339B2 (en) * 2000-11-30 2005-07-05 International Business Machines Corporation Echo locator for computer network
US8255513B2 (en) * 2000-12-14 2012-08-28 Hewlett-Packard, Caribe B.V. Topology information system for a managed world
US7480713B2 (en) * 2000-12-15 2009-01-20 International Business Machines Corporation Method and system for network management with redundant monitoring and categorization of endpoints
US7003564B2 (en) * 2001-01-17 2006-02-21 Hewlett-Packard Development Company, L.P. Method and apparatus for customizably calculating and displaying health of a computer network
GB2372671B (en) * 2001-02-27 2003-04-30 3Com Corp Processing network events to reduce the number of events to be displayed
DE60140857D1 (de) * 2001-03-15 2010-02-04 Sony Deutschland Gmbh Steuerung von Heimnetzwerkgeräten
US7120693B2 (en) * 2001-05-08 2006-10-10 International Business Machines Corporation Method using two different programs to determine state of a network node to eliminate message response delays in system processing
US20030009552A1 (en) * 2001-06-29 2003-01-09 International Business Machines Corporation Method and system for network management with topology system providing historical topological views
DE10131533C2 (de) * 2001-06-29 2003-07-10 Siemens Ag Fehlertoleranter Verbindungstest
EP1286498A1 (de) 2001-08-21 2003-02-26 Alcatel Verfahren, Dienst-Agent und Netzwerk-Management-System zur Bedienung eines Telekommunikationsnetzes
US20030093509A1 (en) * 2001-10-05 2003-05-15 Li Raymond M. Storage area network methods and apparatus with coordinated updating of topology representation
CA2366183A1 (en) 2001-12-21 2003-06-21 Ibm Canada Limited-Ibm Canada Limitee Dynamic status tree facility
US6862698B1 (en) 2002-01-22 2005-03-01 Cisco Technology, Inc. Method of labeling alarms to facilitate correlating alarms in a telecommunications network
US7203748B2 (en) * 2002-02-15 2007-04-10 International Business Machines Corporation Method for detecting the quick restart of liveness daemons in a distributed multinode data processing system
US7804785B2 (en) * 2002-04-19 2010-09-28 Avaya Inc. Network system having an instructional sequence for performing packet processing and optimizing the packet processing
GB0215025D0 (en) * 2002-06-28 2002-08-07 Viewgate Networks Ltd Virtual private network validator
US7225258B2 (en) * 2002-09-09 2007-05-29 General Dynamics Corporation System and method for connecting dynamic networks with limited resources
US7962589B1 (en) 2002-11-07 2011-06-14 Cisco Technology, Inc. Method and apparatus for providing notification of network alarms using a plurality of distributed layers
US7475133B2 (en) * 2003-01-09 2009-01-06 Ricoh Company, Ltd Method for configuring a monitoring system to monitor selected network elements
US8463940B2 (en) * 2003-01-31 2013-06-11 Hewlett-Packard Development Company, L.P. Method of indicating a path in a computer network
CA2424006A1 (en) * 2003-03-28 2004-09-28 Ibm Canada Limited - Ibm Canada Limitee A technique to generically manage extensible correlation data
US20040225530A1 (en) * 2003-05-08 2004-11-11 Bell Mark Adam Displaying hierarchical service health of a network over time
US8024795B2 (en) 2003-05-09 2011-09-20 Q1 Labs, Inc. Network intelligence system
US7287193B2 (en) * 2003-05-15 2007-10-23 International Business Machines Corporation Methods, systems, and media to correlate errors associated with a cluster
GB0319950D0 (en) 2003-08-26 2003-09-24 Mitel Networks Corp Security monitor for PDA attached telephone
US7734763B2 (en) * 2003-10-24 2010-06-08 Sap Ag Application for testing the availability of software components
US7617462B2 (en) * 2003-10-24 2009-11-10 Sap Ag Graphical user interface (GUI) for displaying software component availability as determined by a messaging infrastructure
US8949403B1 (en) 2003-10-24 2015-02-03 Sap Se Infrastructure for maintaining cognizance of available and unavailable software components
CN100426804C (zh) * 2004-05-21 2008-10-15 华为技术有限公司 实现混合站点虚拟专用网的方法
US7512841B2 (en) * 2004-10-22 2009-03-31 Hewlett-Packard Development Company, L.P. Method and system for network fault analysis
JP4260723B2 (ja) * 2004-11-04 2009-04-30 株式会社日立製作所 情報処理装置、情報処理装置の制御方法、及びプログラム
US7680805B2 (en) * 2004-12-30 2010-03-16 Sap Ag Synchronization method for an object oriented information system (IS) model
US7711794B2 (en) * 2005-02-01 2010-05-04 International Business Machines Corporation Adjusting timing between automatic, non-user-initiated pollings of server to download data therefrom
JP4335157B2 (ja) * 2005-02-01 2009-09-30 富士通株式会社 ネットワーク構成管理装置、ネットワーク構成管理プログラム及びネットワーク構成管理方法
US8428074B2 (en) 2005-04-29 2013-04-23 Prom Ks Mgmt Limited Liability Company Back-to back H.323 proxy gatekeeper
US7757120B2 (en) * 2006-06-23 2010-07-13 International Business Machines Corporation Ignoring redundant symptoms in modular self-healing systems
EP1898554B1 (de) * 2006-09-06 2009-02-11 Alcatel Lucent Werkzeug für Netzausfallsicherheit
US7872982B2 (en) * 2006-10-02 2011-01-18 International Business Machines Corporation Implementing an error log analysis model to facilitate faster problem isolation and repair
EP2274874B1 (de) * 2008-05-05 2013-07-03 Siemens Aktiengesellschaft Überprüfung einer kommunikationsverbindung zwischen feldgeräten
US7778191B2 (en) * 2008-12-12 2010-08-17 Mitel Networks Corporation System and method for fast detection of communication path failures
WO2010093369A1 (en) * 2009-02-16 2010-08-19 Qualitest Technologies, Inc. Communications-network data processing methods, communications-network data processing systems, computer-readable storage media, communications-network data presentation methods, and communications-network data presentation systems
US20120084432A1 (en) * 2010-09-30 2012-04-05 Soprovich Greg F Method and apparatus for protocol event management
US20130297603A1 (en) * 2012-05-01 2013-11-07 Fujitsu Technology Solutions Intellectual Property Gmbh Monitoring methods and systems for data centers
US10003536B2 (en) 2013-07-25 2018-06-19 Grigore Raileanu System and method for managing bandwidth usage rates in a packet-switched network
WO2015167496A1 (en) * 2014-04-30 2015-11-05 Hewlett-Packard Development Company, L.P. Selecting from computing nodes for correlating events
US10924408B2 (en) 2014-11-07 2021-02-16 Noction, Inc. System and method for optimizing traffic in packet-switched networks with internet exchanges
US9769070B2 (en) 2015-01-28 2017-09-19 Maxim Basunov System and method of providing a platform for optimizing traffic through a computer network with distributed routing domains interconnected through data center interconnect links
US9935852B2 (en) * 2016-06-06 2018-04-03 General Electric Company Methods and systems for network monitoring

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0221360B1 (de) * 1985-11-04 1992-12-30 International Business Machines Corporation Digitale Nachrichtenübertragungsnetzwerke und Aufbau von Übertragungswegen in diesen Netzwerken
US5027269A (en) * 1989-04-27 1991-06-25 International Business Machines Corporation Method and apparatus for providing continuous availability of applications in a computer network
US5027342A (en) * 1989-05-03 1991-06-25 The University Of Toronto Innovations Foundation Local area network
US5185860A (en) * 1990-05-03 1993-02-09 Hewlett-Packard Company Automatic discovery of network elements
US5276789A (en) * 1990-05-14 1994-01-04 Hewlett-Packard Co. Graphic display of network topology
DE69126666T2 (de) * 1990-09-17 1998-02-12 Cabletron Systems Inc Netzwerkverwaltungssystem mit modellbasierter intelligenz
US5511108A (en) * 1991-05-31 1996-04-23 Itronix Corporation Apparatus and method for performing and controlling testing of electrical equipment
US5533093A (en) * 1994-04-29 1996-07-02 Harris Corporation Automated trouble-shooting mechanism resident in craftsperson's portable test and communications device
US5805578A (en) * 1995-10-27 1998-09-08 International Business Machines Corporation Automatic reconfiguration of multipoint communication channels
US5848243A (en) * 1995-11-13 1998-12-08 Sun Microsystems, Inc. Network topology management system through a database of managed network resources including logical topolgies
US5872911A (en) * 1995-12-29 1999-02-16 Mci Communications Corporations Method and system of service impact analysis in a communications network
US5751965A (en) * 1996-03-21 1998-05-12 Cabletron System, Inc. Network connection status monitor and display

Also Published As

Publication number Publication date
EP0909056B1 (de) 2007-02-28
EP0909056A3 (de) 1999-09-22
US6061723A (en) 2000-05-09
DE69837180D1 (de) 2007-04-12
JPH11184781A (ja) 1999-07-09
JP3556842B2 (ja) 2004-08-25
EP0909056A2 (de) 1999-04-14

Similar Documents

Publication Publication Date Title
DE69837180T2 (de) Korrelation von Netzwerkverwaltungs-Ereignissen in Umgebungen mit inaktiven Netzelementen
DE69628718T2 (de) Netzwerk - Topologie-Verwaltungssystem
DE69720857T2 (de) Systeme und Verfahren zum Betrieb einer Netzwerk-Verwaltungsstation
DE602005000383T2 (de) Fehlererkennung und -diagnose
DE69925557T2 (de) Überwachung des Durchsatzes eines Computersystems und eines Netzwerkes
DE60106467T2 (de) Verfahren zum Installieren Überwachungsagenten, System und Computerprogramm von Objekten in einem IT-Netz Überwachung
DE60220287T2 (de) System und verfahren zur überwachung von software-warteschlangenanwendungen
DE60024260T2 (de) Eingrenzung von netzwerkfehlern
DE69734373T2 (de) Anpassbare automatische Verwaltung von Netzwerkgeräten
EP0632617B1 (de) Verfahren und Einrichtung zur Unterstützung des Netzwerkmanagements
DE60207368T2 (de) Verfahren und Vorrichtung zur automatischen Erkennung von Netzelementen mit Datenübertragungsfähigkeiten
DE102004016850B4 (de) Verfahren, Management-Server und Computerprogramm zum Zuordnen von Status-Nachrichten überwachter Objekte einer IT-Ifrastruktur
DE60216221T2 (de) Verfahren und Vorrichtung zur automatischen Erkennung von logischen Verbindungen zwischen Netzvorrichtungen
DE69636914T2 (de) Verfahren und Vorrichtung für Netzwerkverwaltung
DE602005002374T2 (de) System und Verfahren zur unnumerierten Netzwerkverbindung-Erkennung
DE112011103876B4 (de) Bewertung des besten Pfades auf der Grundlage der Zuverlässigkeit von Netzwerkschnittstellenschichten
DE69927929T2 (de) Verfahren und System zur Netzwerkverwaltung
DE69637142T2 (de) Netzwerkverwaltung mit Erfassung von formatierten Abzugdaten aus einem Fernprozess
DE10393571T5 (de) Verfahren und System zum Validieren logischer End-to-End-Zugriffspfade in Storage Area Netzwerken
US20030225876A1 (en) Method and apparatus for graphically depicting network performance and connectivity
US20030135382A1 (en) Self-monitoring service system for providing historical and current operating status
US20010013107A1 (en) Method and apparatus for inter-domain alarm correlation
DE60220375T2 (de) Spezifischer Datenregistrierungsserver in einem Bedien- und Verwaltungszentrum für ein Telekommunikationssystem
DE102004045716A1 (de) Verfahren und maschinenlesbares Medium zur Verwendung von Matrizen zur automatischen Analyse von Netzereignissen und -objekten
DE112019002196T5 (de) Netzwerkgesundheitsüberwachung

Legal Events

Date Code Title Description
8327 Change in the person/name/address of the patent owner

Owner name: HEWLETT-PACKARD DEVELOPMENT CO., L.P., HOUSTON, US

8328 Change in the person/name/address of the agent

Representative=s name: SCHOPPE, ZIMMERMANN, STOECKELER & ZINKLER, 82049 P

8364 No opposition during term of opposition