ITSM Glossar

ITSM-Begriffe verständlich erklärt

Wer sich mit IT im Allgemeinen und IT-Dokumentation im Speziellen beschäftigt, stößt unweigerlich auf zahlreiche Fachbegriffe. In unserem Glossar erklären wir diese Begriffe auf leicht verständliche Weise. So können Sie auch dann mitreden, wenn Sie nicht in der Welt des ITSM zu Hause sind.

Ihnen fehlt noch ein Stichwort oder Sie haben einen Verbesserungsvorschlag? Lassen Sie es uns wissen. Wir erweitern unseren ITSM Glossar kontinuierlich und freuen uns über Anregungen.

Ausfallsimulation

Ausfallsimulationen dienen zur Untersuchung der IT-Infrastruktur hinsichtlich Sicherheit, Stabilität und Zuverlässigkeit. Mit den Ergebnissen können dann vorbeugende oder korrigierende Maßnahmen im Falle eines Impacts geplant werden. 

Durch eine Ausfallsimulation kann z.B. der Ausfall eines wichtigen Servers simuliert werden. Dazu müssen die Abhängigkeiten zwischen Systemen und Diensten bekannt sein. So kann nachverfolgt werden, welche Nebensysteme, Standorte, Personen oder Netze im Falle des Versagens eines Systems in Ihrer Funktion beeinträchtigt sind. Eine solche Untersuchung wird auch Impact-Analyse genannt.
Durch die daraus resultierenden Informationen und Erkenntnisse können weitergehende Planungen getätigt werden. Beispielsweise kann eine Folgemaßnahme die Beschaffung eines weiteren Systems sein, das bei einem Ausfall des Hauptsystems dessen Aufgaben übernimmt.

Active Directory

Active Directory ist ein Verzeichnisdienst von Microsoft. Er kommt bei Windows Server 2000 und Windows Server 2003 zum Einsatz. Mit einem Active Directory kann die Struktur und das Netzwerk einer oder mehrerer Organisationen mit seiner räumlichen Verteilung nachgebildet werden. Ab Windows Server 2008 wird Active Directory als Active Directory Domänendienste (ADDS) bezeichnet.

Active Directory kann über das LDAP (Lightweight Directory Access Protocol) / LDAPS (Lightweight Directory Access Protocol over SSL) Protokoll ausgelesen werden. Damit lassen sich Informationen über vorhandene Computer, Benutzer und Gruppen zu erhalten.

Grundvoraussetzung für die Einrichtung eines Active Directory Domänendienstes unter Windows Server 201X

  • DNS
  • SMB / SMBv3 (Server Message Block)
  • Kerberos (Benutzerauthentifizierung)
  • LDAP (Lightweight Directory Access Protocol)

Alternativen um einen Verzeichnisdienst auf LINUX / UNIX basierten Betriebssystemen einzurichten stellen Open-LDAP und Samba dar.

Berechtigungskonzept (Benutzer- und Rollenkonzept)

In einem Berechtigungskonzept wird beschrieben, welche Regeln beim Zugriff auf ein IT-System für einzelne Nutzer und Nutzergruppen gelten. Damit ist ein Berechtigungskonzept ein wichtiger Teil des Datenschutzes in einem Unternehmen.

Benutzer- und Rollenkonzepte haben sich in Software und Verwaltungsdiensten als sinnvolles Konzept bewährt. Sie dienen der Regelung des Zugriffs auf Daten, Funktionen, Ressourcen und Informationen.

Häufig werden dazu einheitliche Sicherheitsgruppen für die jeweiligen Abteilungen, externe Dienstleister oder Organisationen erstellt. Diese Sicherheitsgruppen besitzen jeweils einen eigenen Satz an Zugriffsrechten. Zu diesen Gruppen können Benutzer hinzugefügt werden. Diese erhalten dann automatisch die Berechtigungen der Gruppe, um auf bestimmte Teile eines Systems Zugriff zu erhalten.

Sicherheitsgruppen haben den Vorteil, dass der Aufwand gegenüber der Konfiguration für jeden einzelnen Benutzer drastisch reduziert wird. In den Benutzerrechten werden lediglich individuelle Anforderungen realisiert. Dies kann z. B. ein benötigter Zugriff auf eine Netzwerkressource sein, wenn der betroffene Mitarbeiter in einem Projekt mitwirken soll.

Bundesamt für Sicherheit in der Informationstechnik (BSI)

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) ist Ansprechpartner für alle Themen zur IT-Sicherheit. Es ist als Bundesbehörde dem Bundesministerium des Innern zugeordnet.

Das BSI arbeitet mit Unternehmen und öffentlichen Stellen gleichermaßen zusammen. Es informiert über wichtige Themen der Informations- und Kommunikationstechnik. Darüber hinaus entwirft und entwickelt es auch IT-Sicherheitsanwendungen und führt Zertifizierungen von IT-Systemen hinsichtlich Ihrer Sicherheitseigenschaften durch.

Das BSI stellt die IT-Grundschutzkataloge kostenlos zur Verfügung. Mit deren Umsetzung können Unternehmen ein hohes Maß an IT-Sicherheit erreichen. Aktuell ist auch eine ISO 27001-Zertifizierung nach IT-Grundschutz möglich.

Für Privatnutzer bietet das BSI ebenfalls einen Service an. Dieser wird “BSI für Bürger” genannt.

Business Service Management (BSM)

Das Business Service Management verbindet die IT-Services mit den Geschäftsprozessen. Es hat eine Verbesserung der Abstimmung zwischen IT und Geschäftsprozessen zur Aufgabe. Dies wird durch die Darstellung der Abhängigkeiten zwischen Geschäftsprozessen und IT erreicht. Ferner Untersucht das BSM die Auswirkungen von IT-Ausfällen auf die Geschäftsabläufe.

Grundsätzlich besteht im BSM immer eine Verknüpfung zwischen mindestens einem Geschäftsprozess und einem IT-Service. Ein Business Service kann aber auch ausschließlich aus einem IT-Service bestehen. Dies ist z. B. bei einem Onlineshop der Fall, über den Kunden Waren und Produkte bestellen können.

Change Management

Das Änderungsmanagement ist Teil des Konfigurationsmanagements und definiert Prozesse zur Dokumentation und Durchführung von Änderungen an Software und Systemen.

Ziel des Change Managements ist es, Änderungen nur dann durchzuführen wenn

  • Ressourcen ermittelt sind
  • mögliche Folgen eingeschätzt wurden
  • ein Zeitpunkt bestimmt ist und
  • die Freigabe durch eine autorisierte Stelle (Genehmigungsprozess) vorliegt.

Configuration Management Database (CMDB)

Eine CMDB ist eine Datenbank, die alle relevanten Informationen über die IT-Infrastruktur einer Organisation beinhaltet.

In der CMDB werden u.a.

  • Objekte (CI – Configuration Items) mit Informationen erfasst
  • die Beziehungen zwischen Objekten dargestellt (Standort, Integration, bestimmter Person zugewiesen / ausgehändigt),
  • Objekte mit Dokumenten verknüpft
  • der Status jedes Objekts (Betriebsbereit / defekt / in Reparatur) dokumentiert
  • verantwortliche Personen erfasst.

Die CMDB enthält bereits alle relevanten vorhandenen Informationen über die IT-Landschaft. Diese Informationen werden kontinuierlich durch entsprechende Prozesse (sog. Konfigurationsmanagementprozesse) aktuell gehalten.

Manche Systeme oder Systemumgebungen greifen auf die Daten der CMDB zurück. So ist eine CMDB immer die Basis für ein IT Service Magement.
Andere Systeme tauschen Daten mit der CMDB aus oder dienen im Rahmen des Konfigurationsmanagement der Aktualsierung des Datenbestandes. Dies trifft beispielsweise auf das ISMS (Information Security Management System) zu, aber auch auf Netzwerk-Monitoring und -Discovery.

Definitive Media Library

Die Definitive Media Library ist eine Bibliothek, in der alle Medien-CIs verfügbar gehalten werden. Besonders im Bereich Software ist es wichtig, alle Versionen aus dem Release Management zu dokumentieren. Dazu werden alle autorisierten Versionen als Software-Konfigurationselemente gespeichert. Bei auftretenden Fehlern kann so zügig zum letzten funktionierenden Release zurückgekehrt werden. Zusätzlich können die Medien-CIs mit anderen CIs in der CMDB verknüpft werden, um diese Beispielsweise mit Personen, Verträgen oder Systemen in Beziehung oder Abhängigkeit zu setzen.

DevOps

DevOps steht für Development Operations und ist als Prozessverbesserungsansatz entstanden, um Software schneller und besser (Qualität) zu entwickeln. Dabei sollen die zusammenarbeitenden Abteilungen (häufig Entwicklung, IT-Betrieb und Qualitätsmanagement) durch gemeinsame Ziele und die richtigen Werkzeuge effizienter zusammenarbeiten und gleichzeitig die Qualität des (Software-) Produkts steigern.

Im Fokus steht bei DevOps vor allem die Zusammenarbeit. Unternehmen mussten umdenken und Ihren Entwicklern und Administratoren passende Tools und Infrastrukturen zur Verfügung stellen, die flexibel ausgerollt und genau so schnell wieder entfernt werden konnten. Um diese Anforderungen zu erfüllen, wurden vermehrt Docker-Container und Cloud-Dienste wie Microsoft Azure und AWS eingesetzt. Dadurch konnte Software schneller entwickelt, gepackt, getestet und released werden. Nebenbei war es ohne großen Aufwand möglich, die Systeme, die nur kurzzeitig aktiv waren (Entwicklungs- / Testzeitraum), ins Monitoring aufzunehmen.

DHCP – Dynamic Host Configuration Protocol

DHCP ist einer der wichtigsten Serverdienste um angeschlossene Clients ohne zusätzliche Konfiguration in ein Netzwerk einzubinden. Dabei erhält der Client verschiedene Informationen vom DHCP-Server wie z.B. die ihm zugewiesene IP-Adresse, die Netzmaske, den zuständigen und ggf. alternativen DNS-Server und das Standardgateway. 
Auf einem DHCP-Server können verschiedene Bereiche festlegt werden. Aus diesen Bereichen (dynamisch oder reserviert) erhalten Clients Ihre Netzwerkkonfiguration.

DHCP verwendet auf IPv4 Basis die Ports 67/68 UDP und bei IPv6 546/547.

    DNS – Domain Name System

    Das DNS ist neben DHCP einer der wichtigsten Netzwerkdienste. Es ist für die Namensauflösung in Netzwerken verantwortlich. 

    Das DNS funktioniert grundlegend wie ein Telefonbuch. Der Anwender kennt in der Regel den Namen, z.B. die Adresse einer Website. Sendet er nun eine Anfrage an diese, übersetzt das DNS den angegebenen Namen in eine IP-Adresse.

    Das DNS kann auch eine Ursache für ernsthafte Netzwerkstörungen sein. Oftmals ist ein falsch konfigurierter oder nicht erreichbarer DNS-Server die Ursache dafür, dass Systeme, Dienste und Programme nicht ordnungsgemäß funktionieren.

    DCIM – Data Center Infrastruktur Management

    Das DCIM wird eingesetzt, um die Auslastung eines Rechenzentrums und den Energieverbrauch der Komponenten zu messen und steuern.
    Dabei erfasst das DCIM nicht nur die IT-Anlagen selbst, sondern auch Teile der Gebäudeinfrastruktur. Dazu zählen Stromanschlüsse, Steckdosen und Verteilerleisten sowie Klimaanlagen. Damit befasst sich das DCIM mit allem, was für die Verwaltung und Steuerung der Systeme, der Energieversorgung und Wärmeregulierung notwendig ist.

    Digitalisierung

    Digitalisierung beschreibt in der Regel Verfahren und Prozesse, die statt auf Papier oder Verbal nun in einem digitalen Medium durchgeführt werden. Ein einfaches Beispiel dafür sind Prozesse in HR (Personalabteilung). Während sich Bewerber früher auf dem Postweg für eine Stelle beworben haben, ist es durch die Digitalisierung der Prozesse z.B. über ein Online-Bewerberportal nun möglich, Bewerbungen einfacher anzunehmen. Statt die Bewerbungen zu sortieren und vorzubereiten, können Personaler die eingehende Bewerbung einfach Online ansehen und den Bewerber einladen oder ablehnen.

    Der gesamte Bewerbungs- und Auswahl-Prozess wurde somit “digitalisiert”. Digitalisierung verspricht oft die Einsparung von Ressourcen. Diese Einsparung sollte jedoch immer ganzheitlich betrachtet werden. Ressourcen werden eingespart, wenn keine Bewerbungen in Papierform mehr eingehen und diese bei Ablehnung händisch zurückgesandt werden müssen. Auch die Aufbereitung der Unterlagen entfällt, da die Bewerbungen in einer definierten Vorlage oder einem standardisierten Schema vorliegen. Ein Bewerbungsportal muss jedoch auch gepflegt und verwaltet werden. Es empfiehlt sich also in jedem Fall, die vorhandenen Ressourcen und Aufwände zu prüfen.

    Disaster Recovery

    Disaster Recovery beschreibt Maßnahmen und Prozesse für die Wiederaufnahme des IT-Betriebs nach einem Impact. Ursache für diese erheblichen Störungen können z.B. Stromausfälle, Systemausfälle, Datenverlust oder auch Brand-, Wasser und Überspannungsschäden sein.

    Im Falle einer Störung muss schnell und sicher reagiert werden, um den IT-Betrieb wiederherzustellen. Dazu empfiehlt es sich ein DR-Handbuch (Notfallplan) anzufertigen, mit dem Leitungspersonal und Administratoren bestmöglich unterstützt werden. In ihm sind z.B. Konfigurationen für geschäftskritische Systeme, Zugangsdaten, Lieferantendaten Ansprechpartner und Eskalationsstufen enthalten. Auch sollten Vorgänge beschrieben werden, wie und von wo Daten wiederhergestellt bzw. auch gesichert werden können, falls weitere Systeme auszufallen drohen. Oft ist es auch sinnvoll, eine Priorisierung einzufügen, um schnellstmöglich wieder leistungsfähig zu werden. Ein DR-Handbuch sollte nach der Erstellung unbedingt getestet werden, um zu Prüfen, ob im Ernstfall auch alle notwendigen Informationen enthalten sind.

    Bei der Erstellung eines DR-Handbuch sollten zudem zwei wichtige Faktoren betrachtet werden.

    Recovery Time Objective (RTO): Der RTO gibt an, wie schnell Systeme wiederhergestellt werden müssen. Dies schließt den Zeitraum vom Feststellen der Störung bis zur vollständigen Wiederherstellung ein. Auch hier kann wieder zwischen verschiedenen Systemen differenziert werden. Das Warenwirtschaftssystem beispielsweise muss deutlich höher priorisiert werden als Testumgebungen der Entwicklung. Hier sollte genau ermittelt werden, wie lange ohne die betroffenen Systeme gearbeitet werden kann. Daraus ergibt sich meist bereits eine natürliche Priorisierung.

    Recovery Point Objective (RPO): Der RPO gibt an, wie viele Daten verloren gehen dürfen. In der Regel ist der RPO exakt der Wert, der zwischen zwei Datensicherungen im Datensicherungskonzept festgelegt wurde. Wenn also festgelegt wurde, dass nur jeden Montag eine Datensicherung durchgeführt wird, ergibt sich ein RPO von 7 Tagen. In den meisten Fällen wäre dies aufgrund von wichtigen Finanz- und Buchhaltungsdaten nicht hinnehmbar.

    Discovery (Infrastruktur)

    Discovery ist ein Vorgang, um Infrastrukturen zu analysieren und zu erfassen. Häufig wird die Discovery zur Ersterfassung einer Infrastruktur genutzt, wenn nicht alle Geräte bekannt oder fremde Geräte vermutet werden. Dabei werden verschiedene Protokolle und Verfahren angewendet, um an Informationen über die Geräte zu gelangen.

    Neben den klassischen Protokollen über TCP/UDP wie DNS, LDAP/S, NetBIOS, SSH und SNMP, werden auch betriebssystemabhängige Protokolle wie WMI oder SMB genutzt. Häufig werden bei einer Discovery auch Zugangsdaten genutzt, um die benötigten Informationen direkt von den Systemen zu erhalten. Dabei werden verschiedene CLI-Befehle, wie z.B. ipconfig, ipaddr oder route print ausgeführt, um Informationen über das Netzwerk und die Konfiguration zu erhalten, die dann zurück an den Discovery Server gesendet werden.

    Der Erfolg einer Discovery hängt maßgeblich vom Standort der Software, der Firewall-Konfiguration und Erreichbarkeit / Verfügbarkeit der Systeme ab. Schlechte Ergebnisse resultieren häufig aus einer gut konfigurierten Firewall, die Anfragen über bestimmte Ports und Protokolle im Netzwerk blockt.

    Gateway (Layer 3-7)

    Ein Gateway sorgt dafür, das zwei Computernetzwerke miteinander kommunizieren können. Dies ist im Heimnetzwerk meist der DSL-Router, der das (private) heimische Netzwerk mit dem (öffentlichen) Internet verbindet. In Unternehmensnetzen ist das deutlicher komplexer. Hier wird nicht nur eine Verbindung zum Internet benötigt. Auch verschiedene Netzwerke innerhalb des Unternehmens, z. B. für Abteilungen oder Standorte, müssen miteinander Daten austauschen.

    Besonders im Bereich von Standortvernetzungen (Site 2 Site) wird häufig ein VPN-Gateway genutzt. Dieses wird oft über die Firewall in den jeweiligen Standorten realisiert. Dabei wird eine gesicherte Verbindung über das öffentliche Netz hergestellt. Die Firewalls an den verschiedenen Standorten stellen die Gateways dar, die dadurch die Kommunikation von Diensten zwischen den Standorten ermöglichen.

    Hersteller-Audit

    Ein Hersteller-Audit oder auch Lizenzaudit wird in den letzten Jahren vermehrt durch Hersteller von Hard- und Software initiiert. Aufgrund der abgeschlossenen Verträge haben die Hersteller die Möglichkeit, den ordnungsgemäßen Lizenzgebrauch zu überprüfen.

    Sollte die mögliche Auditierung kein Bestandteil der Lizenzvereinbarung sein, greift §101 des Urheberrechtsgesetzes. Dieser stellt einen Anspruch auf Auskunft sicher.
    Die Hersteller erhalten vor einem Audit eine Übersicht über die im Unternehmen eingesetzten herstellerspezifischen Lizenzen. Eine IT-Dokumentation mit einem Lizenzmanagement ist demnach eine gute Vorbereitung auf ein Audit.

    Hochverfügbarkeit

    Die Verfügbarkeit stellt sicher, dass Prozesse und Systeme im Unternehmen nicht beeinträchtigt werden. Als de facto Standard gilt heutzutage eine Verfügbarkeit von 99%. Dies würde einer maximalen Ausfallzeit von 7:18:18 Stunden im Monat oder 87,7 Stunden im Jahr entsprechen. 

    Der Ausfall von Systemen für mehr als 3 Tage kann geschäftskritische Prozesse stark beeinträchtigen und somit einen hohen wirtschaftlichen Schaden zur Folge haben. Daher wird 99% nicht als Hochverfügbarkeit angesehen.

    Erst ab einer Verfügbarkeit von 99,9% wird von einer Hochverfügbarkeit gesprochen. Dies entspricht einer maximalen Ausfallzeit der Systeme von 43:48 Minuten pro Monat oder 8:45:58 Stunden im Jahr. Eine Hochverfügbarkeit wird meist durch redundante Komponenten oder komplette Systeme erreicht. Dabei werden Daten z.B. als RAID Konfiguration auf mehrere Datenträger verteilt, um beim Ausfall eines Datenträgers den Betrieb weiterhin sicherzustellen. Um komplette Systeme vor Ausfall zu schützen, werden diese häufig redundant aufgebaut und mit einer Lastenverteilung oder als Cluster betrieben.

    IMAC/R/D

    IMAC/R/D ist ein Prozess für serviceorientiertes IT-Lifecycle Management. Er setzt sich aus den Phasen Install, Move, Add, Change, Remove und Dispose zusammen.

    Ursprünglich wurde IMAC/R/D für die serviceorientierte Verwaltung von PC-Arbeitsplätzen entwickelt. Mittlerweile wird es aber auch in vielen anderen Bereichen des IT-Managements verwendet wie z.B. bei der Verwaltung von Servern. Der Prozess beginnt mit der Installation und Inbetriebnahme des Systems. Darauf folgt der Transport und die Aufstellung. In der Phase Add werden alle Tätigkeiten zusammengefasst die das Hinzufügen neuer (Hardware-) Komponenten und Software beinhalten. Die umfangreichste Phase ist Change. Hier werden alle Änderungen am System durchgeführt, Beispielweise Software Updates, Austausch von defekten Komponenten oder Änderungen von Systemeinstellungen.

    Diese 4 Phasen stellen den Grundlegenden IMAC Prozess dar. Da der Lebenszyklus eines Systems jedoch nicht mit einem Change endet, wurden die Phasen Remove (entfernen von Komponenten oder Software) und Dispose (Entsorgung, Rückführung des Systems) hinzugefügt.

    Impact

    Ein Impact bezeichnet in der IT eine Auswirkung auf ein System oder eine Infrastruktur. Dabei wird zwischen eigenen Impacts und fremden Impacts unterschieden.

    Eigene Impacts betreffen vor allem Stromausfälle, fehlerhafte Sicherungen oder Brände. Fremde Impacts bezeichnen alle Störungen, die durch Dritte verursacht wurden, wie z.B. Schadsoftware, Diebstahl oder Social Engineering.

    Durch Ausfallsimulationen können verschiedene Impacts simuliert werden, ohne die IT-Infrastruktur zu gefährden. Das IT-Sicherheitskonzept sollte mögliche Impacts und deren Auswirkungen genau betrachten. So können Mitarbeiter sensibilisiert und geeignete Maßnahmen bereits im Vorfeld (präventiv und korrektiv) getroffen werden.

    IT-Verantwortliche müssen sich regelmäßig über neue mögliche Impacts (z.B. neu auftretende Schadsoftware) informieren. Weiterhin müssen sie ihr Sicherheitskonzept in regelmäßigen Abständen (PDCA-Zyklus) und bei Änderungen aktualisieren.

    Informationssicherheits-Managementsystem (ISMS)

    Ein ISMS bezeichnet den Prozess zum Aufbau der Informationssicherheit und deren kontinuierliche Verbesserung.

    Grundlage für das IT-Sicherheitsmanagement sind in der DACH-Region meist die vom Bundesamt für Sicherheit in der Informationstechnik (BSI) definierten Standards 200-1 und 200-2.

    Der BSI-Standard 200-1 “Managementsysteme für Informationssicherheit” beschreibt, wie ein Managementsystem aufgebaut werden kann. Der BSI-Standard 200-2 “IT Grundschutz Methodik” hingegen definiert Methoden des Aufbaus, der Überprüfung und der Erweiterung eines ISMS. Auch die Norm ISO 27001 ist eine bedeutende Grundlage in diesem Zusammenhang.

    Notwendige Punkte, um ein ISM einzuführen:

    • die Gefährdungslage muß analysiert werden
    • Sicherheitsziele sollten definiert sein
    • Strategien und Leitlinien müssen entwickelt werden
    • eine geeignete Organisationsstruktur für Informationssicherheit soll vorhanden sein
    • geeignete Sicherheitsmaßnahmen für die gesamte Informationsverarbeitung müssen festgelegt werden.

    IPAM – IP Address Management

    IP Adress Management ist ein Managementsystem zur Verwaltung von Netzwerken. Je mehr Hosts sich in einem Netzwerk befinden, desto komplexer wird auch die Verwaltung und die damit verbundenen Aufgaben. Das Ziel eines IPAM-Systems ist es Administratoren alle Informationen über die vorhandenen Netze bereitzustellen. Dies beinhaltet alle grundlegenden Informationen zu den Netzen wie den IP-Adressbereich, die verwendete Subnetzmasken / CIDR und das Standardgateway. Darüber hinaus ist natürlich auch eine Auflistung der im Netzwerk befindlichen Geräte sinnvoll um schnell ermitteln zu können, welche Hostnames und IP-Adressen verwenden die Geräte, welche VLANs sind im Netzwerk verfügbar und wie viele IP-Adressen stehen im Netzwerk noch zur Verfügung bzw. sind bereits belegt.

    Auf Basis dieser Informationen können Administratoren und IT-Führungskräfte neue Netze planen, einen Mangel an IP-Adressen feststellen und Geräte schnell zu einem Netz hinzufügen oder ändern.

      ISO 27001

      Die DIN ISO 27001 ist eine Internationale Norm und dient als Nachweis für einen hohen Informations-Sicherheitsstandard innerhalb einer Organisation. Neben der Einrichtung eines Informationssicherheits-Managementsystem (ISMS) fordert die ISO 27001 auch die Analyse und Behandlung von Risiken (präventive & korrektive Maßnahmen).

      Unternehmen können sich im Rahmen der ISO 27001 zertifizieren lassen. Die Vorbereitung der Zertifizierung ist aufwändig und stellt Organisationen vor eine Reihe Herausforderungen. Oft muss die IT-Dokumentation aufgearbeitet und alle Assets der Organisation identifiziert werden. Ebenso sind häufig auch Prozesse und Verantwortlichkeiten neu zu definieren oder umzugestalten.

      Die Zertifizierung nach ISO 27001 bietet aber auch eine Reihe von Vorteilen. Dazu zählt in erster Linie die Minimierung von Haftungs- und Geschäftsrisiken. Zertifizierte Unternehmen erreichen jedoch vor allem ein Wettbewerbsvorteil, da viele Ausschreibungen eine Zertifizierung nach ISO 27001 als Anforderung nennen.

      Durch die umfangreiche Analyse von Risiken und Sicherheitslücken sowohl aus technischer als auch organisatorischer Sicht, werden Bedrohungen im Vorfeld erkannt. So kann ein hohes Maß an Informationssicherheit erreicht werden. Unternehmen, die der KRITIS-Verordnung unterliegen, dient die Zertifizierung als Nachweis für das gesetzlich festgelegte Audit im 2 Jahres Turnus.

      IT-Dokumentation

      Eine IT-Dokumentation stellt den Ist-Zustand einer Organisation dar. Dabei werden alle benötigten Informationen (gemäß Dokumentationskonzept) erfasst und physisch oder digital abgelegt.

      Eine vollständige IT-Dokumentation gibt Auskunft über

      • eingesetzte Systeme
      • deren Version und Patchlevel
      • Hardwareeigenschaften
      • installierte und genutzte Software und Lizenzen
      • Peripherie
      • Netzwerkgeräte und
      • alles, was zum Betrieb der IT-Infrastruktur notwendig ist.

      Primär geht es bei der IT-Dokumentation um die Nutzbarmachung von Informationen für die Organisation.

      IT-Grundschutz

      IT-Grundschutz wird häufig in Zusammenhang mit den Grundschutzkatalogen des BSI (Bundesamt für Sicherheit in der Informationstechnik) bzw. dem IT-Grundschutz-Kompendium BSI-Standard 200-1, 200-2 & 200-3 genannt. Das IT-Grundschutz-Kompendium bietet Methoden und Vorgehensweisen zu verschiedenen Bereichen der Informationssicherheit. Sie wurden in verschiedene Prozess- und Systembausteine wie z.B. Sicherheitsmanagement, Konzepte und Vorgehensweisen, Anwendungen, IT-Systeme und Netze & Kommunikation unterteilt. Zusätzlich bietet es eine Übersicht von elementaren Gefährdungen, die die IT-Infrastruktur und den IT-Betrieb beeinträchtigen oder stören können (Brand, Missbrauch personenbezogener Daten, Schadprogramme u.v.m.).

      Darüber hinaus bietet das BSI auch verschiedene IT-Grundschutzprofile für Unternehmen und Institutionen an, die in bestimmten Branchen tätig sind. Dazu zählen beispielsweise Handwerksbetriebe, Reedereien, Handwerkskammern, große IT-Dienstleister oder Landesbehörden.

      Auch eine Zertifizierung nach ISO-27001 auf Basis des IT-Grundschutzes ist möglich.

      IT Service Management (ITSM)

      ITSM umfasst die Entwicklung, Verwaltung und Verbesserung von IT-(Dienst-)Leistungen, um die Geschäftsprozesse bestmöglich zu unterstützen. Neben der reinen Leistungsoptimierung wird beim IT Service Management vor allem die kundenorientierte Prozessqualität unter wirtschaftlichen Aspekten betrachtet. 

      ITSM-Systeme konsolidieren Informationen in einem zentralen System aus den Bereichen

      • Risikoanalyse und -management
      • Kostenstruktur
      • Services und Verträge
      • Qualität und Quantität der vorhandenen Daten
      • Auswertung vorhandener Daten
      • Prognose über zukünftige Daten.

      Ein gutes ITSM löst somit eine Vielzahl von “Insellösungen” ab. Es bietet eine Oberfläche, auf der die Daten verschiedener Systeme zusammengefasst dargestellt werden. Das schafft Transparenz und stellt sicher, dass alle Abteilungen mit dem gleichen Datenbestand arbeiten. Grundlage und zentrales Element eines ITSM ist eine CMDB.

      IT-Sicherheit

      Das Ziel der IT-Sicherheit ist es, physische und logische Schäden abzuwenden und sicherzustellen, dass Daten und Systeme verfügbar bleiben. Zum Schutz der Daten und Systeme können technische und organisatorische Maßnahmen umgesetzt werden. Das BSI hat mit den Grundschutzkatalogen eine entsprechende Bausteinsammlung veröffentlicht, um Unternehmen bei der Verbesserung Ihrer IT-Sicherheit zu unterstützen.

      Die 3 Säulen der IT-Sicherheit:

      Vertraulichkeit: Daten und Systeme dürfen nur von berechtigten Personen eingesehen und verändert werden.

      Integrität / Authentizität: Daten und Systeme können nicht unbemerkt geändert werden.

      Verfügbarkeit: Daten und Systemen müssen verfügbar sein.

      JDisc

      JDISC ist eine Discovery-Lösung für Netzwerke und deren Inventarisierung. Es eignet sich für die Erfassung einfacher und komplexer Infrastrukturen gleichermaßen. JDISC arbeitet Agentenlos, indem es Zugangsdaten von Systemen (z.B. root / Domänen-Admin, DHCP-Admin o.ä.) verwendet, um die Informationen direkt und unverfälscht zu ermitteln. Ebenfalls nutzt es verschiedene Protokolle wie z.B. WMI (Windows Management Instrumentation) oder SNMP (Simple Network Management Protocol) um die Konfigurationen von Systemen oder Verbindungen mit anderen Netzwerkgeräten zu identifizieren. Des Weiteren kann es virtuelle Maschinen, Port Konfigurationen, installierte Software und verwendete Lizenzen ermitteln. Alle Informationen werden in einer lokalen PostgreSQL Datenbank gespeichert. Von dort können die Daten automatisiert in andere Systeme wie z.B. i-doit exportiert werden. 

      Konfigurationsmanagement

      Das Konfigurationsmanagement ist eine Zusammenfassung verschiedener Prozesse. Diese dienen dazu, Systeme, Produkte und Software in Ihrer ganzheitlichen Konfiguration in allen Phasen Ihres Produktlebenszyklus abzubilden und zu steuern. Es werden dabei nicht nur die physischen, sondern auch die funktionalen Eigenschaften betrachtet.

      Dadurch können die Konfigurationen in allen Phasen und bei jeder Änderungen (Versionen) exakt nachvollzogen werden. Um diese Vielzahl an Informationen an einem Ort zu konsolidieren, wird eine CMDB genutzt. Mit ihrer Hilfe wird auch das Change-Management und seine Prozesse abgebildet.

      Korrektive Maßnahme

      Korrektive Maßnahmen werden für Risiken im Falle eines Eintritts geplant und sind Teil des Risiko- und Notfallmanagements. Im Falle eines Serverausfalls könnte beispielsweise ein spezielles IT-Dienstleistungsunternehmen mit der sofortigen Wiederherstellung des Systems beginnen.

      Durch die Planung von korrektiven Maßnahmen werden bei einer Störung bereits im Vorfeld geeignete Maßnahmen ermittelt, um den Betrieb der beeinträchtigten Systeme schnellstmöglich wiederherzustellen.

      Lizenzmanagement

      Das Lizenzmanagement beschreibt den Prozess im Unternehmen, der den effizienten Umgang mit Software-Lizenzen absichert. Es stellt sicher, dass die vorhandenen Lizenzen in ausreichender Menge und der richtigen Qualität vorliegen.

      Das Lizenzmanagement betrifft dabei viele andere Prozesse im Unternehmen. So werden Beschaffungsprozesse von PC-Arbeitsplätzen über das Server- und Kapazitätsmanagement bis zur Kosteneinsparung davon berührt. Ein gutes Lizenzmanagement sorgt dafür, dass sich nur die Lizenzen im Unternehmen befinden, die auch nach Soll-Konzept benötigt werden.
      Weiterhin sorgt es dafür, dass Prozesse zur Beschaffung oder Lizenzverlängerung angestoßen oder vollständig automatisiert werden. Durch die Umsetzung eines Lizenzmanagements ist die Abwicklung eines Hersteller-Audits erheblich einfacher, da eine Über- oder Unterlizenzierung ausgeschlossen wird. Durch Discovery-Lösungen wie JDISC können zudem automatisiert Informationen über die im Unternehmen eingesetzten Lizenzen abgefragt werden.

      MAC-Adresse

      Die MAC-Adresse (Media Access Control) ist die weltweit einzigartige Hardware-Adresse (physische Adresse) eines Netzwerkadapters. Die MAC-Adresse befindet sich in Schicht 2 (Sicherungsschicht) des OSI-Modells. Folglich benötigen Geräte, z.B. ein Client an einem Layer-2 Switch, eine MAC-Adresse, um direkt adressiert werden zu können. Dabei kommt das Address Resolution Protokoll (ARP) zum Einsatz. Eine MAC-Adresse besteht aus insgesamt 48 Bit und weist damit 16 Bit mehr auf als eine IPv4 Adresse. 

      Eine MAC-Adresse wird häufig in kanonischer Form dargestellt und kann wie folgt aussehen: 44-fe-3b-6f-3e-80.
      Da IP-Adresse auf Schicht 2 des OSI-Modells nicht verfügbar ist, wird ein Broadcast auf Schicht 2 über die MAC-Adresse FF-FF-FF-FF-FF-FF (alle Bits auf 1) realisiert.

      Durch die eindeutige MAC-Adresse können Netzwerke theoretisch geschützt werden. Durch die relativ einfache Manipulation der MAC-Adresse bietet dieses Vorgehen allerdings nur bedingten Schutz. 

      Als Hardware-Hersteller ist es möglich, einen eigenen MAC-Adressraum gegen eine Gebühr von der IEEE (Institute of Electrical and Electronics Engineers) zu erwerben.  

      Monitoring

      Monitoring dient der Überwachung von Netzen, Systemen und Geräten. Dabei werden über verschiedene Protokolle wie SNMP, WMI oder ICMP Konfigurationen und Informationen von Systemen abgefragt. Anschließend werden die erhaltenen Daten in der Monitoring-Lösung strukturiert dargestellt.

      Häufig werden auch durch eine Benutzerauthentifizierung Informationen von den Geräten ermittelt. Eine weitere Möglichkeit stellt die Installation eines Agenten auf dem Zielsystem dar. Zeitgemäße Monitoring-Lösungen können häufig an Ticket– und / oder Dokumentationssysteme angebunden werden. So kann ein Störungsbehebungsprozess automatisiert angestoßen und dessen Verlauf dokumentiert werden.

      Beim Monitoring werden grundsätzlich zwei Varianten unterschieden:

      Monitoring mit Agent

      Beim Monitoring mit Agent wird auf jedem zu überwachenden System eine Software installiert. Diese ermittelt die gewünschten Statusinformationen direkt vom System und sendet sie an die Monitoring-Software.
      Häufig wird auf jedem Gerät ein gesonderter Benutzer angelegt, um über die benötigten Berechtigungen zu verfügen. Der Agent sammelt unabhängig von der Verfügbarkeit des Netzwerks Daten. Dadurch kann er den Status des Geräts auch prüfen, wenn vorübergehend keine Kommunikation mit dem Managementsystem möglich ist. Zudem erhält er schneller Informationen. In manchen Szenarien kann der Agent umfangreichere Informationen sammeln, da er direkt auf dem System installiert ist.
      Nachteilig ist, dass der Agent Systemressourcen vom Host benötigt und regelmäßig gewartet werden muss. Außerdem können auftretende Fehler im Agenten auch den Host beeinträchtigen.

      Agentenloses Monitoring

      Beim Monitoring ohne Agenten werden die benötigten Informationen über Protokolle wie z.B. SNMP, WMI oder direkt vom System nach erfolgter Benutzerauthentifizierung abgefragt. Das Monitoring funktioniert jedoch nur, wenn die Zielsysteme über das Netzwerk erreicht werden können.

      Die Performance des Netzwerks hat direkten Einfluss darauf, wie schnell Daten erhoben werden können. Die Monitoring-Lösung ist in ihrer Funktionsvielfalt teilweise beschränkter als bei Nutzung eines Agenten.

      Bei großen Infrastrukturen empfiehlt es sich mehrere Monitoring-Server zu konfigurieren, um Informationen von den Zielsystemen abzufragen. Bei Ausfall eines Netzbereichs können so noch Informationen von Geräten in anderen Netzen überwacht und ein Totalausfall des Monitoring verhindert werden. Zusätzlich wird eine höhere Performance und geringe Netzauslastung erreicht.

      NTFS – New Technology File System

      Das NTFS gehört zu den meist­ver­brei­teten Dateisystemen der Welt und wurde von Microsoft entwickelt. Im Gegensatz zum Dateisystem FAT können auch Dateien gespeichert werden, die größer als 4 GiB sind. Es unterstützt u.a. erweiterte Dateiattribute, Verschlüsselung, Datenträger-Bereitstellungspunkte (Volume Mount Points), Benutzerverwaltung und Komprimierungen. Letztendlich wurde die Verbreitung von NTFS auch durch das rasante technologische Wachstum und die damit immer größer werdenden Dateien zusätzlich begünstigt.

      OSI-Modell (ISO/OSI-Modell)

      Das OSI-Modell (Open Systems Interconnection model) ist ein beliebtes Referenzmodell, das seine Ursprünge in den 1970er Jahren hat. Sein Zweck ist es, die Kommunikation zwischen technisch unterschiedlichen Systemen zu ermöglichen. Es definiert dazu sieben unterschiedliche Schichten. Jeder Schicht sind klar definierte Netzwerkprotokolle zugeordnet, die innerhalb einer Schicht untereinander austauschbar sind.

      Jede Schicht steht für eine eng eingegrenzte Gruppe von Aufgaben. Dies betrifft zum Einen die physikalische Verbindung zwischen den Geräten. Aber auch Aufgaben wie Zuverlässigkeit, Sicherheit und Leistungsfähigkeit werden durch das OSI-Modell abgedeckt.

      Schicht 1: Die Bitübertragungsschicht (Physical Layer): Grundsätzlich für die physische Verbindung von Systemen zuständig. Dies können z.B. Netzwerkkabel (LAN) oder   elektromagnetische Wellen (WLAN) sein.
      Häufig genutzte Protokolle: 1000BASE-T, Token Ring oder ARCNET

      Schicht 2: Die Sicherungsschicht (Data Link) ist verantwortlich für die fehlerfreie Übertragung und den Zugriff auf das jeweilige Medium. Die IEEE sieht zudem eine Unterteilung in zwei weitere Schichten vor: LLC (Logical Link Control) und MAC (Media Access Control). 
      Auf dieser Schichtebene arbeiten Bridges, Wireless Access Points und Unmanaged-Switche (Layer-2 Switche).
      Häufig genutzte Protokolle stellen IEEE 802.3 (Ethernet), MAC und IEEE 802.11 (WLAN) dar. 

      Schicht 3: Die Vermittlungsschicht (Network Layer) ist u.a. für die Weitervermittlung von Datenpaketen verantwortlich, das sogenannte Routing von Datenpaketen. Dieses wird entweder von Routern übernommen oder gemanagten Switchen (Layer-3 Switchen).
      Die wichtigsten Protokolle stellen IP, IPsec und ICMP dar.

      Schicht 4: Die Transportschicht (Transport Layer) sorgt für die Segmentierung der Datenpakete und deren fehlerfreie Übertragung. Hierzu werden konkrete Ports zur Kommunikation adressiert.
      Die wichtigsten Protokolle stellen hier TCP und UDP dar.

      Schicht 5: Die Sitzungsschicht (Session Layer) regelt die Kommunikation zwischen zwei Systemen. Ohne diese Schicht müssten wir uns bei z.B. Onlinediensten nach jedem Seitenwechsel erneut einloggen. Sollte es zu einem Abbruch der Verbindung kommen, wird einfach am letzten Checkpoint wieder angesetzt und die Session fortgesetzt.

      Schicht 6: Die Darstellungsschicht (Presentation Layer) ist für die Darstellung der Daten zwischen unterschiedlichen Systemen verantwortlich. Sie sorgt dafür, dass die systemabhängige Darstellung der Daten in eine systemunabhängige Darstellung überführt wird, um die korrekte Darstellung der Daten auf unterschiedlichen Systemen zu gewährleisten.
      Die wichtigsten Protokolle: X.216, X.226, ISO 9576

      Schicht 7: Die Anwendungsschicht stellt Funktionen für die jeweiligen Anwendungen und Dienste bereit. Sie ist auch für die Kommunikation mit darunterliegenden Schichten verantwortlich. Die Ein- und Ausgabe von Daten findet auf dieser Schicht statt. Ebenso stellt Schicht 7 die Verbindung zu den weiter unten liegenden Schichten her.

      OTRS

      OTRS ist eine webbasierte freie Servicedesk-Lösung, die unter GPLv3 lizenziert wurde und auch häufig als Issue-Tracker genutzt wird. Häufiges Einsatzgebiet ist die Abwicklung von Servicevorgängen zur Störungsfallbehebung, die sämtliche Korrespondenzen zwischen Mitarbeitern, Abteilungen, Kunden und Systemen in Service-Tickets zusammenfasst. In den vergangenen knapp 20 Jahren sind zahlreiche Funktionen und Schnittstellen entstanden, die OTRS besonders flexibel im Einsatz machen. Für Kunden können SLAs festgelegt werden, um die Reaktions- und Lösungszeiten einzuhalten. Diese werden durch zusätzliche Eskalations- und Benachrichtigungsfunktionen unterstützt. Alle Vorgänge (Tickets) können klassifiziert, durch Textbausteine erweitert und stets revisionssicher gespeichert werden.  

      Um Nebensysteme anzubinden, steht sowohl eine REST-API als auch SOAP-Schnittstelle zur Verfügung. Zusätzlich wurden zahlreiche systemspezifische Konnektoren entwickelt.

      PDCA-Zyklus

      PCDA ist die Abkürzung für “Plan – Do – Check – Act” und beschreibt einen vierphasigen Prozess. Mit seiner Hilfe soll eine kontinuierliche Verbesserung (KVP) von Systemen erreicht werden.

      Die einzelnen Phasen sind:

      Plan: Identifizierung von Verbesserungsmöglichkeiten und Planung der Maßnahmen zur Zielerreichung.

      Do: Umsetzung der vorangegangen Planung mit Prototyp oder Pilotmodell.

      Check: Controlling der umgesetzten Maßnahmen und Zielerreichung.

      Act: Betrachtung der Erkenntnisse aus allen vorangegangenen Phasen. Aus diesen Erkenntnissen können ggf. neue Verbesserungsmöglichkeiten identifiziert werden. In diesem Fall startet der Prozess erneut in der Phase “Plan”

      Präventive Maßnahme

      Präventive Maßnahmen sind Teil der Risikoanalyse und werden getroffen, um die Eintrittswahrscheinlichkeit eines Risikos zu mindern.
      Beispiel: Ein Server, der wichtige Dienste für das Netzwerk bereitstellt, hat eine relativ hohe Wahrscheinlichkeit auszufallen. Eine präventive Maßnahme könnte der Aufbau einer Redundanz sein. Durch ein zweites identisches System kann der Ausfall des Servers kompensiert und so das Risiko gemindert werden.

      Proxy

      Ein Proxy fungiert als Vermittler innerhalb eines Netzwerks. Er übernimmt für Geräte stellvertretend die Kommunikation. Wenn beispielsweise auf einem Client eine Internetseite aufgerufen werden soll, wird bei Verwendung eines Proxys die Anfrage an den Proxy-Server gestellt. Der leitet diese Anfrage unter Nutzung seiner eigenen IP-Adresse an den Zielserver weiter. Aufgrund der geänderten IP-Adresse wird nun auch die Antwort an den Proxy zurückgesendet, der diese wiederum an den Client weitergibt. Durch dieses Verfahren erzielt man eine erhöhte Sicherheit, da schadhafter Code den Proxy trifft und nicht den Client. Somit fungiert der Proxy als eine Art Schutzschild, um die eigene Netzwerkstruktur zu verschleiern und Angreifern weniger Ziele zu bieten. 

      Der Proxy kann aber auch als Layer-7-Firewall fungieren, indem er ein- und ausgehende Datenpakete auf Schadcode untersucht. So können beispielsweise POST & GET FTP-Befehle kontrolliert und administriert werden. Auch eine Lastenverteilung auf verschiedene Server lässt sich mit einem Proxy realisieren.

      Durch die Vermittlung von Datenpaketen wird die IP-Adresse der Clients zwar anonymisiert, jedoch ist dies auf bestimmte Protokolle (z.B. HTTP) beschränkt. Wenn Inhalte wie z.B. Flash abgerufen werden, wird die IP-Adresse des Clients für die Verbindung genutzt und kann dementsprechend auch ausgelesen werden.

      Quality of Service (QoS)

      Der QoS wird häufig dazu verwendet, die Qualität eines Dienstes oder einer Anwendung zu messen. Dies können z.B. die Übertragungsrate einer Anwendung oder eines Protokolls sein, die Verfügbarkeit eines Webdienstes oder dessen Fehlerrate oder Wartezeit.

      Um den QoS messen zu können, müssen Qualitätsparameter definiert werden, die die Anforderungen bestmöglich beschreiben. Ein Qualitätsparameter kann z.B. die Verfügbarkeit eines Servers sein. Um diesen Qualitätsparameter messen zu können, wird dieser Server ins Monitoring eingebunden und regelmäßig auf dessen Verfügbarkeit geprüft. Je nachdem welche Qualität erreicht werden soll, kann aus der Dauer der Ausfälle die Verfügbarkeit abgeleitet werden. Für extern bezogene Services wird meist ein Service-Level-Agreement vereinbart, das die Qualität der angebotenen Services beschreibt.

      Ransomware

      Ramsomware ist eine Schadsoftware, die Daten auf befallenen Systemen verschlüsselt und so den Zugriff auf diese Daten blockiert. Der Name leitet sich von den englischen Begriffen “Ransom” (dt. Lösegeld) und “Malware” (dt. Schadsoftware) ab.

      In der Regel gelangen Schädlinge dieses Typs über Social Engineering (z.B. manipulierte E-Mailanhänge) auf einen Computer. Nach einem erfolgten Angriff bieten die Autoren solcher Software häufig – nach Zahlung eines bestimmten Geldbetrages – einen Schlüssel an. Mit diesem sollen die Daten wieder freigegeben werden können. In der Regel unterbleibt jedoch die Lieferung dieses Schlüssels, auch wenn das “Lösegeld” gezahlt wurde.

      Das Prinzip der Ransomware existiert bereits seit den späten 1980er Jahren. Erstmals ins Licht der Öffentlichkeit trat diese Form der Schadsoftware 2005 mit dem Trojaner “PGPcoder”.

      Häufig werden bei Befall auch angebundene Systeme wie Storages oder Cloud-Speicher mit verschlüsselt. Die sichersten Maßnahmen gegen eine Infektion mit dieser Art der Schadsoftware sind sensibilisierte Nutzer und stets aktuelle Sicherungskopien.

      Redundanz

      Im IT-Umfeld steht der Begriff “Redundanz” für das Vorhandensein von zusätzlichen technischen Einrichtungen. Diese sind in ihrer Funktion gleich oder vergleichbar zu bereits vorhandenen Ressourcen. Sie dienen dazu, bei einem Ausfall der Hauptressource als Ersatz in Betrieb genommen zu werden.

      Der Aufbau einer Redundanz dient der Erhöhung der Ausfallsicherheit von Systemen und Daten. Dies kann z.B. ein zweiter Server sein. Bei einem Ausfall übernimmt dieser die Rolle und damit verbundene Dienste des eigentlichen Servers, wie z.B. DHCP oder DNS.

      Viele Redundanzsysteme können in Ihrer Auslegung konfiguriert werden. So ist es möglich, Sie aktiv als Redundanzsystem zu betreiben. Sie können jedoch auch als Lastenausgleich für ein- und ausgehende Datenpakete oder passiv als Standby-Systeme, die sich erst bei einem Ausfall aktivieren.

      Neben Servern können auch Dienste (Services) oder Speichersysteme redundant aufgebaut werden. Redundanzen sind immer dann sinnvoll, wenn Systeme für geschäftskritische Prozesse verantwortlich sind oder wichtige Daten vor Verlust geschützt werden müssen.

      Releasemanagement

      Das Release Management beschäftigt sich mit der Veröffentlichung von IT-Produkten und Funktionen. Häufig wird z.B. Software erst in Testumgebungen konfiguriert, um den IT-Betrieb bei auftretenden Fehlern nicht zu beeinträchtigen. Nach Abschluss wird diese Software in einem definierten Release-Prozess in die Produktivumgebung überführt und somit dem IT-Betrieb bereitgestellt. Mit dem Releasemanagement wird somit sichergestellt, das die notwendigen Ressourcen zur Verfügung stehen und reibungslos in den IT-Betrieb integriert werden. Darüber hinaus kann Releasemanagement auch zur Einführung und Änderung von Geschäftsprozessen genutzt werden. 

      RSA

      RSA ist ein asymmetrisches kryptographisches Verfahren zum Verschlüsseln und digitalen Signieren. RSA besteht immer aus einem privaten (private key) und einem öffentlichen (public key) Schlüssel. Der öffentliche Schlüssel wird für die Verschlüsselung und Prüfung von Signaturen verwendet. Der private Schlüssel wiederum dient der Entschlüsselung und Signierung von Daten. Der private Schlüssel muss geheim gehalten werden, da er sonst durch Dritte zur Signierung und Entschlüsselung wichtiger Daten verwendet werden kann. Aus dem öffentlichen Schlüssel lässt sich der zugehörige private Schlüssel nicht mit einem vertretbaren Aufwand berechnen.

      Das BSI (Bundesamt für Sicherheit in der Informationstechnik) empfiehlt eine Schlüssellänge von mindestens 2000 Bit bzw. 2048 Bit. Ab dem Jahr 2022 sollten Schlüssellängen von mindestens 3000 bzw. 3072 Bit verwendet werden.

      Der Name “RSA” leitet sich aus den Anfangsbuchstaben der Nachnamen der drei Mathematiker Rivest, Shamir und Adleman ab, die das Verfahren 1977 entwickelt haben.

      Simple Network Management Protocol (SNMP)

      SNMP ist ein Netzwerkprotokoll, das für die Administration, Steuerung und Überwachung von Netzwerkelementen eingesetzt wird. Dazu zählen insbesondere Router, Switches und Firewalls. Discovery- und Monitoring-Lösungen können über SNMP beispielsweise VLANs, Switchportkonfigurationen und Kommunikation erfassen. SNMP hat sich zum Standard in der Netzwerkverwaltung entwickelt und wird daher von einer Vielzahl von Geräten und Managementsystemen unterstützt.

      Software as a Service (SaaS)

      Software as a Service kommt aus dem Cloud-Bereich und beschreibt den Bezug einer Software von einem Provider als Dienstleistung. Dabei wird die Hardware, das Hosting und Bereitstellung vom Service-Provider (Anbieter) übernommen. Der Service-Nehmer bezieht diese Lösung häufig als Subskription (Abonnement) für einen unbefristeten oder definierten Zeitraum. Besonders beachtet werden muss bei SaaS-Leistungen, dass der Provider häufig als Auftragsdatenverarbeiter im Sinne der DSGVO gilt.

      Ticketsystem / Service Desk

      Ticketsysteme werden eingesetzt, um Vorfälle (Incidents) nachvollziehbar aufzulisten. Dazu wird die Kommunikation zwischen Help-Desk / Service und Kunden in Tickets gelistet. Bei einem Ticket handelt es sich um die elektronische Form eines formulierten Anliegens. Dies kann beispielsweise eine Störungsmeldung sein.

      Die Tickets werden mit einer eindeutigen Identifikationsnummer versehen, um Sie jederzeit eindeutig benennen und finden zu können. Eingehende Kommunikation (z. B. E-Mails) werden in der Regel automatisch zum jeweiligen Ticket hinzugefügt. Die Zuordnung erfolgt auch hier über die eindeutige ID.

      Durch die Sammlung aller Kommunikationsvorgänge innerhalb eines Tickets können sich auch Mitarbeiter, die bisher keine Informationen zum Vorfall hatten, schnell einen Überblick verschaffen.

      Durch die Anbindung eines Ticketsystems an eine CMDB können weitere Informationen zu den jeweiligen Systemen ermittelt und zur Verfügung gestellt werden. In der Regel werden auch die Tickets in der CMDB dokumentiert, um häufige Störungen von Systemen identifizieren zu können. Monitoring-Systeme können Störungen an Systemen und Netzen erkennen und – bei entsprechender Konfiguration – automatisch ein Ticket auslösen.

      Bekannte OpenSource-Ticketsysteme sind OTRS, Zammad, iTop und Request Tracker.

      Windows Management Instrumentation (WMI)

      WMI ist Microsofts Implementierung und Erweiterung des Common Information Models (CIM). In Microsoft Windows Infrastrukturen ist WMI ein wichtiges Protokoll, um Geräteinformationen von Workstations und Servern abzufragen. Verschiedene Monitoring– und Discovery-Lösungen nutzen WMI, um Informationen zur Hardware wie CPU, Speicher und Festplattenkapazität von Computern zu erhalten. Auch die installierte Software lässt sich über diesen Weg ermitteln.

      Zammad

      Zammad ist eine webbasierte Service-Desk Software die zur internen und externen Bearbeitung von Vorgängen sowie als Issue-Tracker verwendet werden kann. Neben Branchenüblichen Funktionen wie der Benutzer- und Gruppenverwaltung, Vergabe von Rollen innerhalb und außerhalb der Organisation, eines Kalenders, und System-gestützter Zeiterfassung bietet es auch Text-Bausteine, die Definition von SLAs und eine eigene Knowledgebase. Es bietet zudem verschiedene Schnittstellen, um Informationen und Daten mit anderen Plattformen und Systemen auszutauschen. Darunter E-Mail Dienste, Monitoring-Lösungen (Check_MK, Nagios…) Chat Applikationen (Slack), Dokumentationssysteme (i-doit), VoIP Telefonanlagen (sipgate, placetel…), Verzeichnisdienste (Active-Directory…) und soziale Netzwerke wie Facebook oder Twitter. Für die Anbindung steht eine REST API mittels Benutzerauthentifizierung oder Token zur Verfügung. Durch das integrierte Reportingsystem können Tickets nach Jahr, Monat, Woche, Tag oder in Echtzeit ausgewertet werden.

      Zammad ist unter GNU AGPLv3 Lizenz und kann über GitHub frei bezogen werden.