Abhilfe gegen hohe Latenz bei Azure

Abhilfe gegen hohe Latenz bei Azure

Unternehmen gelingt es nicht immer, ihre Cloud-Netzwerke optimal zu nutzen. Manchmal übersteigt der Bedarf die Kapazität, und es kommt zu Latenzproblemen im Netzwerk. Wenn Sie diesen Blog gefunden haben, wissen Sie vermutlich bereits, wie problematisch hohe Latenz für ein Unternehmen werden kann und wie aus Ineffizienz schnell Umsatzverluste werden können. Einem kürzlich veröffentlichten Bericht von Gartner zufolge kosten Ausfallzeiten ein Unternehmen im Schnitt 5.600 US-Dollar pro Minute – und unzuverlässige Latenz ist dabei ein zentraler Faktor. Wie kann man also den Bedarf decken und Latenzprobleme vermeiden, wenn die Anforderungen an das Netzwerk seine Kapazität übersteigen?

Die gute Nachricht: Den 70 Prozent der Unternehmen, die sich bei ihren Cloud-Netzwerken auf Microsoft Azure verlassen, stehen einfache Möglichkeiten zur Verfügung, die Latenz zu reduzieren, die sich nicht auf ihre Kosten niederschlagen und – in den meisten Fällen – eine optimale Nutzung vorhandener Assets ermöglichen. Hier sind drei wichtige Methoden, mit denen sich die Latenz von Azure reduzieren und eine bessere Netzwerkleistung erzielen lassen.

Methode 1: Accelerated Networking

Accelerated Networking, auch als „Single-Root Input-Output Virtualization“ (SR-IOV) bekannt, ist die am weitesten verbreitete Methode, die Latenz zu reduzieren. Vereinfacht gesagt: Bei Accelerated Networking geht es darum, den kürzesten Netzwerkpfad von A nach B zu finden.

Das Problem ist, dass viele Cloud-Systeme sich bei ihrer Administration zu stark auf einen Host verlassen. Mithilfe von Accelerated Networking fließt der Datenverkehr direkt über die Netzwerkschnittstelle der virtuellen Maschine (VM) und muss dabei nicht länger den Host und den virtuellen Switch passieren. Das Ergebnis: reduzierte Latenz, weniger Jitter und geringere CPU-Auslastung für die anspruchsvollsten Workloads.

Accelerated Networking ist wichtig, weil es unnötige Komplexität im Netzwerk beseitigt (das Rätselraten hatten wir bereits in einem früheren Blog-Beitrag beendet ). Ohne Accelerated Networking muss Datenverkehr in die und aus der VM den Host und den virtuellen Switch passieren. Accelerated Networking verringert die Anzahl der Sprünge, die der Datenverkehr benötigt, um sein Ziel zu erreichen.

Bei korrekter Umsetzung liefert der virtuelle Switch sämtliche Durchsetzung von Richtlinien, die vorher vom Host übernommen wurde, wie beispielsweise Zugriffskontrolle und Netzwerksicherheit.

Disaster Recovery ist hier das perfekte Beispiel für einen Anwendungsfall – ein Albtraum für jeden Netzwerkprofi und ein kostspieliger Vorgang für Unternehmen. In genau solch einer Situation zeigt eine Methode wie Accelerated Networking ihr Potenzial bei der Wiederherstellung des Netzwerkbetriebs, wenn der zentrale Host keine Option mehr ist und die virtuellen Switches seine Rolle übernehmen müssen.

Microsoft verfügt über umfassende Dokumentation zu diesem Anwendungsfall, die alle lesen sollten, denen nicht nur Latenz ein wichtiges Anliegen ist, sondern der allgemeine Zustand ihres Cloud-Netzwerks. Die technischen Details sind in Microsofts Erklärung zu Accelerated Networking zu finden.

Haben Sie bei Azure mit hohen Ausgangsgebühren zu kämpfen? In unserem Blog lesen Sie vier Möglichkeiten, diese Kosten zu senken.

Methode 2: Receive Side Scaling (RSS)

Natürlich ist Accelerated Networking nicht für alle geeignet. Unternehmen, deren VM nicht zu den kompatiblen Szenarien für Accelerated Networking passt, bietet Receive Side Scaling (RSS) die beste Möglichkeit, ihre allgemeine Netzwerkleistung zu optimieren – unter anderem in Form einer Latenzreduzierung. Mit RSS besteht ein wichtiges Ziel darin, den kürzesten Pfad von A nach B zu finden. Der Unterschied: Statt den Host zu umgehen, sucht RSS die effizienteste Verteilung der Netzwerkverarbeitung auf mehrere CPUs.

RSS ist dabei der „Verkehrspolizist“ für das Netzwerk – bestimmter Datenverkehr wird durchgewinkt, anderer Verkehr erhält eine niedrigere Priorität. Ohne RSS versucht das Netzwerk, den Datenverkehr über einen einzigen Netzwerkpfad zu verarbeiten. Latenz ist der natürliche Effekt, wenn versucht wird, alles auf einmal zu erledigen.

Azure bietet eine einfache Möglichkeit, RSS zu implementieren. Administratoren konfigurieren einfach die Netzwerkkarte (NIC) und den Miniport-Treiber so, dass die Deferred Procedure Calls (DPCs) auf anderen Prozessoren empfangen werden. Auch sehr praktisch: RSS garantiert, dass die Verarbeitung im Zusammenhang mit einer bestimmten Verbindung auf der zugewiesenen CPU bleibt. Netzwerkprofis müssen die Konfiguration nur einmal vornehmen und können sich dann anderen Aufgaben widmen. Die NIC kümmert sich um den Rest.

RSS ist ein wahrer Segen, wenn man Verzögerungen bei der Verarbeitung reduzieren möchte, indem die Empfangsverarbeitung von der NIC auf mehrere CPUs verteilt wird. Das Ziel besteht hierbei nicht nur darin, die Latenz zu reduzieren. Es geht auch darum, das Netzwerk intelligenter zu machen, sodass eine CPU nicht mit Anfragen überhäuft wird, während die anderen untätig bleiben.

Diese Methode der Latenzreduzierung eignet sich insbesondere für Unternehmen, die mit hochvolumigen Netzwerkvorgängen arbeiten, zum Beispiel Broker-Dealer, E-Commerce-Anbieter oder Unternehmen, die kurzfristig hohe Netzwerkkapazitäten benötigen. Wie bei Accelerated Networking bietet Microsoft eine hilfreiche Dokumentation , die Unternehmen bei einer schnellen und effizienten Einführung von RSS unterstützt.

Vergleichen Sie mit unserem Guide die private Konnektivität von Microsoft Azure mit AWS und Google Cloud.

Methode 3: Näherungsplatzierungsgruppen

Näherungsplatzierungsgruppen sind die unkomplizierteste Methode zur Latenzreduzierung und beziehen sich im Wesentlichen auf Colocation. Doch in diesem Fall betrifft Colocation nicht nur das Hosten von Netzwerk-Assets in derselben Hosting-Einrichtung. Der Begriff ist hier allgemeiner definiert und beschreibt die Verkürzung der Distanz zwischen den Rechenressourcen von Azure, um die allgemeine Netzwerklatenz zu reduzieren.

Näherungsplatzierungsgruppen können die Latenz zwischen On-Prem-VMs, VMs an mehreren Standorten (d. h. Verfügbarkeitsgruppen) oder mehreren Netzwerkgruppen (Skalierungsgruppen) reduzieren. Je weiter die Assets voneinander entfernt sind, desto größer ist natürlich die Wahrscheinlichkeit von Latenz und sonstigen Problemen. Das Ziel von Näherungsplatzierungsgruppen besteht darin, Netzwerkaufgaben über die Assets mit dem geringsten physischen Abstand zu routen.

Um diese Methode intelligenter zu machen, empfiehlt Microsoft die Kombination von Näherungsplatzierungsgruppen und Accelerated Networking. Die Grundidee hierbei: Wenn nach der ersten virtuellen Maschine in der Näherungsplatzierungsgruppe gefragt wird, wird automatisch das Rechenzentrum ausgewählt.

Die einzige Warnung, die wir aussprechen müssen, ist, dass bei elastischen Workloads die Wahrscheinlichkeit von Fehlzuweisungen und Latenz umso größer ist, je mehr Beschränkungen der Platzierungsgruppe auferlegt werden. Daher sollten die Netzwerkadministratoren auch dann wachsam bleiben, wenn der Datenverkehr durch Accelerated Networking verarbeitet wird. Beispielsweise bleibt die Kapazität nicht erhalten, wenn eine VM angehalten (ihre Zuweisung entzogen) wird.

Näherungsplatzierungsgruppen sind für Unternehmen am sinnvollsten, die versuchen, die Netzwerkfunktion in ihrer Heimatregion zu maximieren, und sicherstellen möchten, dass sie nicht zu viel Geld für Kapazität in einem neuen Markt ausgeben.

Die Dokumentation von Microsoft Azure enthält zusätzliche Best Practices zu Näherungsplatzierungsgruppen, insbesondere für Netzwerkprofis, die Latenz und intelligente Netzwerke ernst genug nehmen, um ihre Möglichkeiten durch Accelerated Networking zu erweitern.

Schnellere Azure-Konnektivität mit Network-as-a-Service

Bei der Beschleunigung Ihres Netzwerks können die besprochenen Azure-Methoden einen gewaltigen Unterschied ausmachen – aber der beste Ausgangspunkt ist eine Betrachtung des Unternehmensnetzwerks als Ganzes.

Bei der Verwendung des öffentlichen Internets ist ein Netzwerk Datenverkehrsschwankungen ausgesetzt, die seine Geschwindigkeit und Leistung stark ausbremsen können – worunter letztendlich das ganze Unternehmen leiden kann . Traditionelle Telekommunikationsanbieter können eine problematische Alternative sein, da sie Kunden an Verträge binden, unter denen die Bandbreite in Zeiträumen mit Nachfragespitzen nicht skaliert werden kann. Das Ergebnis: langsame, unzuverlässige Netzwerkleistung und der Bedarf nach ständigen Notfallbehebungsmaßnahmen durch die IT-Abteilung.

Mit Network-as-a-Service (NaaS) als Konnektivitätsmethode für Azure können Sie das öffentliche Internet umgehen und zu einem privaten Netzwerkpfad wechseln. Zusätzlich sichern Sie sich bei der Bereitstellung der NaaS-Konnektivität mit Megaport folgende Vorteile:

  • Bessere Leistung – vermeiden Sie durch Internet-Datenverkehrsschwankungen verursachte Engpässe und Ausfallzeiten. Mit Ihrer eigenen Verbindung zu AWS auf dem privaten Backbone von Megaport sichern Sie sich schnelle und konsistente Konnektivität.
  • Skalierbare Bandbreite – über das Megaport-Portal können Sie Verbindungen bereitstellen und die Bandbreite hochschrauben (in einigen Fällen bis zu 100 GB), um in Spitzenzeiten die benötigte Leistung zu erzielen, und diese wieder herunterfahren, wenn sie nicht mehr benötigt wird, um Geld zu sparen.
  • Immer verfügbare Redundanz – dank weltweit über 700 On-Ramps sind Sie mit dem Serviceverfügbarkeitsziel von Megaport von 100 Prozent vor Ausfallzeiten geschützt.
  • Megaport Cloud Router (MCR) – der virtuelle Routing-Service von Megaport bietet on-demand private Konnektivität auf Layer 3 für leistungsstarkes Routing von Cloud zu Cloud ohne Hairpinning zu und von On-Prem-Umgebungen.
  • Megaport Virtual Edge (MVE) – um die Vorteile eines latenzarmen Netzwerks auch am Edge zu ermöglichen, bietet MVE, der Megaport-Service zur Virtualisierung von Netzwerkfunktionen (NVF), eine direkte private Konnektivität von der Zweigstelle zur Cloud. So reduziert er Latenz und Jitter in geschäftskritischen Anwendungen.

Ob nur eines oder alle – mit Azure können Sie jede beliebige Kombination aus diesen Instrumenten nutzen, um Ihre Netzwerklatenz zu reduzieren. Unterstützt durch ein NaaS wie das von Megaport profitieren Sie von A bis Z von einem schnelleren Netzwerk und erzielen so produktivere Geschäftsabläufe und höhere Gewinne.

Verwandte Beiträge

Kurz erklärt: Kosten für private Konnektivität mit AWS, Azure und Google Cloud

Kurz erklärt: Kosten für private Konnektivität mit AWS, Azure und Google Cloud

Bei den Kosten für Clouddienste den Durchblick zu behalten, ist nicht einfach, und oft wird dabei die Komponente der Konnektivität nicht genau genug betrachtet.

Mehr erfahren
Der Unternehmensleitfaden zu AWS Direct Connect und Transit Gateway

Der Unternehmensleitfaden zu AWS Direct Connect und Transit Gateway

Die Entwicklungsgeschichte der Peering-Optionen für AWS Virtual Private Cloud (VPC) Seit dem Start von AWS Direct Connect im Jahr 2012 befinden sich dedizierte Verbindungen zu Clouddiensten auf dem Vormarsch.

Mehr erfahren
„Born-In-The-Cloud“ auf dem Vormarsch

„Born-In-The-Cloud“ auf dem Vormarsch

In der Vergangenheit gestaltete sich der Umstieg von traditioneller physischer Infrastruktur oft frustrierend, nervenaufreibend und kostspielig.

Mehr erfahren