QOS-Pakete. Lokale Netzwerkbandbreite – Einrichten des QoS-Paketplaners im TP-Link-, Asus-, Zyxel Keenetic- und D-Link-Router. Traffic-API

Niemand mag es, wenn es sehr lange dauert, eine Webseite beim Laden zu öffnen, und das Herunterladen von Dateien nicht in dem Maße erfolgt, wie er es gerne hätte. Obwohl bei der Bestellung eines Dienstes bei einem Anbieter eindeutig 20 oder sogar 100 Mbit/s angegeben wurden, erreichen wir in Wirklichkeit keine solche Geschwindigkeit.

Natürlich gibt es dafür eine Erklärung. Erstens benötigt das System etwa 20 % für seine Bedürfnisse, und zweitens erhält der Browser eine Antwort von den DNS-Servern, allerdings dauert dies einige Zeit.

Was auch immer es ist, wir werden jetzt herausfinden, wie wir die Internetgeschwindigkeit um ein Vielfaches erhöhen können.

Deaktivieren Sie die QoS-Geschwindigkeitsbegrenzung

Typischerweise gilt im System eine Geschwindigkeitsbegrenzung von 20 %, obwohl dies für jeden unterschiedlich sein kann. Um die Internetgeschwindigkeit zu erhöhen, müssen Sie diese Option deaktivieren. Dazu verwenden wir lokale Gruppenrichtlinien. Leider ist diese Funktion nur in den Pro-Editionen von Windows verfügbar.

Öffnen Sie mit der Kombination das Fenster „Ausführen“. Win+R und schreiben Sie im erscheinenden Fenster den folgenden Befehl: gpedit.msc .

Gehen Sie auf der linken Seite des sich öffnenden Fensters zum Abschnitt: ComputerkonfigurationAdministrative Vorlagen- Netz - QoS-PaketplanerBegrenzen Sie die reservierte Bandbreite.

Wir finden dort den Punkt „Backup-Bandbreite begrenzen“. Doppelklicken Sie darauf und setzen Sie den Parameter auf "Ermöglicht", und geben Sie dann die Nummer ein “0” in „Bandbreitenbegrenzung“. Klicken Sie auf Übernehmen.

Um sicherzustellen, dass ein Netzwerkgerät mit dem QoS-Paketplaner funktioniert, müssen Sie zum Netzwerkfreigabecenter gehen und gemeinsamer Zugriff. Sie können dorthin gelangen, indem Sie mit der rechten Maustaste auf das WLAN-Symbol in der Taskleiste klicken oder mit der rechten Maustaste auf eine Kabelverbindung klicken. Gehen Sie links zum Abschnitt „Adaptereinstellungen ändern“. Klicken Sie mit der rechten Maustaste auf Ihre Verbindung und wählen Sie „Eigenschaften“. Die Option sollte dort erscheinen "QoS-Paketplaner", markiert mit einem Häkchen.

Deaktivieren von QoS über die Registrierung

Wenn Sie eine andere Windows-Version als PRO haben, ist diese Anleitung möglicherweise für Sie geeignet. Gehen Sie zur Registrierung, dazu verwenden wir die Kombination Win + R und geben den Befehl ein regedit.

Gehen wir zum nächsten Abschnitt:

HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft

Hier finden wir den Abschnitt Windows, klicken Sie mit der rechten Maustaste darauf und erstellen Sie einen neuen Abschnitt mit dem Namen Psched.

Gehen Sie zum erstellten Abschnitt und erstellen Sie rechts einen 32-Bit-DWORD-Parameter mit dem Namen NonBestEffortLimit. Wir weisen diesem Parameter den Wert zu «0» .


Nachdem die Arbeit erledigt ist, starten Sie den Computer neu.

Deaktivieren Sie die Inin der Software

Es kommt vor, dass bei der Verwendung von Programmen, die das Internet benötigen, beispielsweise Torrent-Clients, Geschfür Sie aktiv sein können.

Nehmen Sie zum Beispiel einen Torrent-Client. Wenn Sie mit der rechten Maustaste auf den aktiven Download klicken, gibt es ein Element „Empfangsbeschränkung“. Zeigen Sie mit der Maus darauf und schauen Sie. Der Modus muss aktiv sein "Unbegrenzt".


Dasselbe gilt auch für andere Torrent-Clients. Bei anderen Arten von Programmen müssen Sie etwas Ähnliches finden.

Wie kann der DNS-Cache erhöht werden, um die Geschwindigkeit zu erhöhen?

Wie viele von Ihnen wissen, ermöglicht Ihnen der DNS-Cache, die IP-Adressen von Ressourcen zu speichern, die Sie bereits besucht haben. Bei einem erneuten Besuch wird der DNS-Cache verwendet, wodurch Sie Seiten viel schneller öffnen können. Leider ist sein Volumen nicht unendlich, aber es kann erhöht werden.

Gehen! Drücken Sie Win+R und geben Sie den Befehl zum Aufrufen der Registrierung ein – regedit. Es öffnet sich ein Fenster, in dem wir zu diesem Abschnitt auf der linken Seite gehen sollen:

HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\DNScache\Parameters

Auf der rechten Seite müssen Sie mit der rechten Maustaste auf den leeren Bereich klicken, 4 „DWORD“-Parameter erstellen und ihnen Namen wie diesen geben: CacheHashTableBucketSize, CacheHashTableSize, MaxCacheEntryTtlLimit, MaxSOACacheEntryTtlLimit.

Jeder von ihnen sollte diese Werte haben (in der jeweiligen Reihenfolge): 1, 384, 64000 und 301.

Um den Auftrag erfolgreich abzuschließen, starten Sie Ihren Computer neu.

TCP-Autooptimierung – deaktivieren

Es gibt eine Funktion im System, die dazu führen kann, dass Webseiten langsam geladen werden, und das alles, weil die Effizienz bei einigen Servern nicht sehr gut ist. Also schalten wir es einfach aus.

Um diese Aufgabe abzuschließen, müssen wir öffnen Befehlszeile mit erhöhten Rechten und führen Sie dort den folgenden Befehl aus:

Turbo-Modus von Browsern, um das Laden von Websites zu beschleunigen

Viele Browser verfügen über eine „Turbo-Modus“-Funktion, die das Öffnen von Seiten beschleunigt. Derzeit ist es unter folgendem Link verfügbar Beliebte Browser: Opera- und Yandex-Browser. Für andere können Sie spezielle Erweiterungen herunterladen.

In Opera wird diese Funktion durch Klicken auf die Schaltfläche „Opera“ in der oberen linken Ecke aktiviert. Finden der Funktion „Oper Turbo“ und aktivieren Sie es.

Im Yandex-Browser ist diese Funktion in den Einstellungen – Anzeigen – aktiviert zusätzliche Einstellungen. Neben dem Abschnitt „Turbo“ haben wir platziert "Immer auf".

NameBench-Dienstprogramm zur Verbesserung des Seitenladens

Viele Anbieter, vor allem kommerzielle, wollen immer Geld bei der Ausstattung sparen. Und wenn Sie beginnen, Websites zu besuchen, werden DNS-Server (Anbietergeräte) kontaktiert. Wenn es günstig ist, ist die Ladegeschwindigkeit Ihrer Seite sehr langsam. Um dieses Problem zu beheben, brauchen wir schnelle DNS-Server, und das NameBench-Programm wird uns dabei helfen, sie zu finden.„Benchmark starten“. Das Programm beginnt mit dem Testen große Menge DNS-Server und wählen Sie den schnellsten aus.

Wenn NameBench findet erforderlichen Server, zeigt es seine IP-Adresse an, die in Ihren Verbindungseinstellungen eingegeben werden muss.

Aktualisieren der Router-Firmware

Dies ist der letzte Punkt, aber nicht weniger wichtig. Wenn Sie einen Router verwenden, dessen Firmware sehr veraltet ist, dann erwarten Sie kein Wunder. Suchen Sie im Internet nach der Firmware für Ihren Router und finden Sie Anweisungen zur Installation sowie zum Speichern der alten Firmware, um Probleme zu vermeiden.

Dies sind eigentlich alle Methoden, die auf moderne Weise angewendet werden können Windows-Versionen. Obwohl es vielleicht noch etwas anderes gibt, und wenn es auftaucht, werden wir es nicht ignorieren.

In diesem Artikel schauen wir uns an, wie man reservierte Bandbreite in Windows 10 konfiguriert. Windows standard reserviert 20 % der gesamten Internetbandbreite.

Ja, ja, das Betriebssystem Windows 10 reserviert einen bestimmten Prozentsatz Ihrer Internetverbindungsbandbreite für Quality of Service (QoS).

Laut Microsoft:

QoS kann kritische Systemvorgänge wie Windows-Systemaktualisierungen, Lizenzstatusverwaltung usw. umfassen. Das Konzept der reservierten Bandbreite gilt für alle auf dem System ausgeführten Programme. Normalerweise begrenzt der Paketplaner das System auf 80 % seiner Konnektivitätskapazität. Das bedeutet, dass Windows 20 % Ihrer Internetbandbreite ausschließlich für QoS reserviert.

Wenn Sie diesen reservierten Prozentsatz der Bandbreite erhalten möchten, ist dieser Artikel genau das Richtige für Sie. Im Folgenden sehen wir uns zwei Möglichkeiten zum Konfigurieren der reservierten Bandbreite an Betriebssystem Windows 10

NOTIZ: Wenn Sie die gesamte für Ihr System reservierte Bandbreite deaktivieren, d. h. auf 0 % setzen, wirkt sich dies auf die Aktionen des Betriebssystems aus, insbesondere auf automatische Updates.

Ablehnung der Verantwortung: Zu den weiteren Schritten gehört die Bearbeitung der Registrierung. Fehler beim Bearbeiten der Registrierung können sich negativ auf Ihr System auswirken. Seien Sie daher beim Bearbeiten von Registrierungseinträgen vorsichtig und erstellen Sie zunächst einen Systemwiederherstellungspunkt.

Schritt 1: Öffnen Sie den Registrierungseditor(Wenn Sie mit dem Registrierungseditor nicht vertraut sind, klicken Sie auf ).

Schritt 2: Navigieren Sie im linken Bereich des Registrierungseditor-Fensters zum folgenden Abschnitt:

HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft\Windows\Psched

Notiz: Wenn der Abschnitt und der Parameter „ NonBestEffortLimit» existieren nicht, erstellen Sie sie einfach.

Schritt 3: Jetzt im rechten Bereich der Registrierungsschlüssel „Psched“ Suchen Sie den DWORD-Wert (32 Bit) mit dem Namen NonBestEffortLimit. Doppelklicken Sie darauf, um seine Werte zu ändern:

Standardmäßig hat der Parameter den Wert 50 in hexadezimal oder 80 im Dezimalsystem.

Schritt 4: Wählen Sie ein Dezimalsystem und legen Sie den Wert auf den Prozentsatz der erforderlichen reservierten Bandbreite fest.

Beispielsweise wenn Sie den Wert auf setzen 0 , wird die reservierte Bandbreite für Ihr Windows-Betriebssystem vollständig deaktiviert, d. h. gleich 0 %. Drück den Knopf "OK" und schließen Sie den Registrierungseditor.

Schritt 5: Starten Sie Ihren PC neu, damit die Änderungen wirksam werden.

Wenn Sie die reservierte Bandbreite auf mehreren Computern in Ihrer Organisation/Ihrem Arbeitsplatz konfigurieren oder begrenzen möchten, können Sie die entsprechende GPO-Einstellung bereitstellen.

Schritt 1:Öffnen Sie den Editor für lokale Gruppenrichtlinien

Schritt 2: Gehen Sie zum Abschnitt: „Computerkonfiguration“ → „Administrative Vorlagen“ → „Netzwerk“ → „Qos Packet Scheduler“


Schritt 3: Doppelklicken Sie im rechten Fenster, um die Richtlinie zu öffnen.

Standardmäßig ist diese Richtlinie nicht festgelegt und das System reserviert 20% Bandbreite der Internetverbindung. Sie müssen es aktivieren und den Parameter festlegen „Reservierte Bandbreite begrenzen“ Bedeutung "An."

Der Mythos von QoS

Es gibt keine einzige Person, die nicht mindestens einmal die FAQ zu Windows XP gelesen hat. Und wenn ja, dann weiß jeder, dass es einen so schädlichen Quality of Service-Dienst – kurz QoS – gibt. Es wird dringend empfohlen, es bei der Konfiguration Ihres Systems zu deaktivieren, da es die Netzwerkbandbreite standardmäßig um 20 % begrenzt, und dieses Problem scheint auch unter Windows 2000 zu bestehen.

Das sind die Zeilen:
„F: Wie kann ich den QoS-Dienst (Quality of Service) vollständig deaktivieren? Wie konfiguriere ich ihn? Stimmt es, dass er die Netzwerkgeschwindigkeit begrenzt?
A: Tatsächlich reserviert Quality of Service standardmäßig 20 % der Kanalkapazität für seine Bedürfnisse (jeder Kanal – sogar ein 14400-Modem, sogar ein Gigabit-Ethernet). Darüber hinaus wird dieser Kanal nicht freigegeben, selbst wenn Sie den QoS Packet Scheduler-Dienst aus der Eigenschaftenverbindung entfernen. Hier können Sie einen Kanal freigeben oder einfach QoS konfigurieren. Starten Sie das Gruppenrichtlinien-Applet (gpedit.msc). Suchen Sie in den Gruppenrichtlinien nach „Lokale Computerrichtlinie“ und klicken Sie auf „Administrative Vorlagen“. Wählen Sie Netzwerk – QoS-Paketplaner. Aktivieren Sie „Reservierbare Bandbreite begrenzen“. Jetzt senken wir die Bandbreitenbegrenzung um 20 % auf 0 % oder schalten sie einfach aus. Auf Wunsch können Sie hier auch weitere QoS-Parameter konfigurieren. Um die vorgenommenen Änderungen zu aktivieren, ist lediglich ein Neustart erforderlich.
20 % sind natürlich viel. Wirklich, Microsoft ist Mazda. Aussagen dieser Art wandern von FAQ zu FAQ, von Forum zu Forum, von Medium zu Medium und werden in allen möglichen „Tweaks“ verwendet – Programmen zum „Tuning“ von Windows XP (öffnen Sie übrigens „Gruppenrichtlinien“ und „ Lokale Richtlinien Sicherheit“ und kein einziger „Tweak“ kann sich mit ihnen an der Fülle an Konfigurationsmöglichkeiten messen). Unbegründete Aussagen dieser Art müssen sorgfältig aufgedeckt werden, was wir jetzt durch systematisches Vorgehen tun werden. Das heißt, wir werden Studieren Sie das problematische Thema gründlich und stützen Sie sich dabei auf offizielle Primärquellen.

Was ist ein Netzwerk mit Qualitätsservice?
Akzeptieren wir die folgende vereinfachte Definition eines Netzwerksystems. Anwendungen laufen und laufen auf Hosts und kommunizieren miteinander. Anwendungen senden Daten an das Betriebssystem zur Übertragung über das Netzwerk. Sobald Daten an das Betriebssystem übertragen wurden, werden sie zum Netzwerkverkehr.
Netzwerk-QoS hängt von der Fähigkeit des Netzwerks ab, diesen Datenverkehr so ​​zu verarbeiten, dass sichergestellt wird, dass bestimmte Anwendungsanforderungen erfüllt werden. Dies erfordert einen grundlegenden Mechanismus zur Verarbeitung des Netzwerkverkehrs, der den Verkehr identifizieren kann, der für eine Sonderbehandlung in Frage kommt, und das Recht hat, diese Mechanismen zu kontrollieren.
Die QoS-Funktionalität ist darauf ausgelegt, zwei Netzwerkakteure zufrieden zu stellen: Netzwerkanwendungen und Netzwerkadministratoren. Sie haben oft Meinungsverschiedenheiten. Der Netzwerkadministrator begrenzt die von einer bestimmten Anwendung verwendeten Ressourcen, während die Anwendung gleichzeitig versucht, so viele Netzwerkressourcen wie möglich zu beanspruchen. Unter Berücksichtigung der Tatsache, dass der Netzwerkadministrator gegenüber allen Anwendungen und Benutzern eine dominierende Rolle spielt, können ihre Interessen angeglichen werden.

Grundlegende QoS-Parameter
Unterschiedliche Anwendungen haben unterschiedliche Anforderungen an die Verarbeitung ihres Netzwerkverkehrs. Anwendungen vertragen Verzögerungen und Verkehrsverluste mehr oder weniger. Diese Anforderungen haben in den folgenden QoS-bezogenen Parametern Anwendung gefunden:
Bandbreite – die Geschwindigkeit, mit der der von einer Anwendung generierte Datenverkehr über das Netzwerk übertragen werden muss;
Latenz – Die Verzögerung, die eine Anwendung bei der Zustellung eines Datenpakets tolerieren kann.
Jitter – Ändern der Verzögerungszeit.
Verlust – Prozentsatz der verlorenen Daten.
Wenn unendliche Netzwerkressourcen verfügbar wären, könnte der gesamte Anwendungsverkehr mit der erforderlichen Geschwindigkeit, ohne Latenz, ohne Latenzschwankungen und ohne Verlust übertragen werden. Allerdings sind die Netzwerkressourcen nicht unbegrenzt.
Der QoS-Mechanismus steuert die Zuweisung von Netzwerkressourcen zum Anwendungsverkehr, um Übertragungsanforderungen zu erfüllen.

Grundlegende QoS-Ressourcen und Verkehrsverarbeitungsmechanismen
Die Netzwerke, die Hosts verbinden, verwenden eine Vielzahl von Netzwerkgeräte einschließlich Netzwerkadapter Hosts, Router, Switches und Hubs. Jeder von ihnen verfügt über Netzwerkschnittstellen. Jede Netzwerkschnittstelle kann Datenverkehr mit einer endlichen Rate empfangen und übertragen. Wenn die Rate, mit der der Datenverkehr an eine Schnittstelle gesendet wird, schneller ist als die Rate, mit der die Schnittstelle den Datenverkehr weiterleitet, kommt es zu einer Überlastung.
Netzwerkgeräte können Überlastungszustände bewältigen, indem sie den Datenverkehr im Speicher (Puffer) des Geräts in eine Warteschlange stellen, bis die Überlastung vorüber ist. In anderen Fällen kann es sein, dass Netzwerkgeräte den Datenverkehr ablehnen, um Überlastungen zu vermeiden. Infolgedessen kommt es bei Anwendungen zu Latenzänderungen (da der Datenverkehr in Warteschlangen auf Schnittstellen gespeichert wird) oder zu Datenverlusten.
Die Fähigkeit von Netzwerkschnittstellen, Datenverkehr weiterzuleiten, und die Verfügbarkeit von Speicher zum Speichern von Datenverkehr in Netzwerkgeräten (bis der Datenverkehr nicht mehr gesendet werden kann) bilden die grundlegenden Ressourcen, die für die Bereitstellung von QoS für Anwendungsdatenverkehrsströme erforderlich sind.

Verteilung von QoS-Ressourcen auf Netzwerkgeräte
Geräte, die QoS unterstützen, nutzen Netzwerkressourcen intelligent, um Datenverkehr zu übertragen. Das heißt, der Datenverkehr von latenztoleranteren Anwendungen wird in die Warteschlange gestellt (in einem Puffer im Arbeitsspeicher gespeichert), während der Datenverkehr von latenzkritischen Anwendungen weitergeleitet wird.
Um diese Aufgabe auszuführen, muss das Netzwerkgerät den Datenverkehr durch die Klassifizierung von Paketen identifizieren und außerdem über Warteschlangen und Mechanismen für deren Bearbeitung verfügen.

Mechanismus zur Verarbeitung des Datenverkehrs
Der Verkehrsverarbeitungsmechanismus umfasst:
802.1p
Differenzierte Dienste pro Hop-Verhalten (diffserv PHB).
Integrierte Dienste (intserv).
Geldautomat usw.
Die meisten lokalen Netzwerke basieren auf der IEEE 802-Technologie, einschließlich Ethernet, Token-Ring usw. 802.1p ist ein Verkehrsverarbeitungsmechanismus zur Unterstützung von QoS in solchen Netzwerken.

802.1p definiert ein Feld (Schicht 2 im OSI-Netzwerkmodell) im 802-Paket-Header, das einen von acht Prioritätswerten tragen kann. In der Regel markieren Hosts oder Router beim Senden von Datenverkehr an ein lokales Netzwerk jedes gesendete Paket und weisen ihm einen bestimmten Prioritätswert zu. Von Netzwerkgeräten wie Switches, Bridges und Hubs wird erwartet, dass sie Pakete mithilfe von Warteschlangenmechanismen ordnungsgemäß verarbeiten. Der Anwendungsbereich von 802.1p ist auf das lokale Netzwerk (LAN) beschränkt. Sobald das Paket das lokale Netzwerk durchquert (über OSI Layer 3), wird die 802.1p-Priorität entfernt.
Diffserv ist ein Layer-3-Mechanismus. Er definiert ein Feld im Layer-3-Header von IP-Paketen, das als Diffserv Codepoint (DSCP) bezeichnet wird.
Intserv ist eine ganze Reihe von Diensten, die einen garantierten Dienst und einen Dienst zur Verwaltung von Downloads definieren. Ein garantierter Dienst verspricht, eine bestimmte Menge an Datenverkehr mit messbarer und begrenzter Latenz zu übertragen. Der Dienst, der den Download verwaltet, erklärt sich damit einverstanden, einen Teil des Datenverkehrs zu übertragen, wobei „eine leichte Netzwerküberlastung auftritt“. Hierbei handelt es sich um quantifizierbare Dienste in dem Sinne, dass sie so definiert sind, dass sie für eine bestimmte Menge an Datenverkehr messbare QoS bereitstellen.

Da die ATM-Technologie Pakete in relativ kleine Zellen fragmentiert, kann sie eine sehr geringe Latenz bieten. Wenn ein Paket dringend gesendet werden muss, kann die ATM-Schnittstelle jederzeit für die Übertragung freigegeben werden, solange eine Zelle gesendet werden muss.
QoS verfügt über viele komplexere Mechanismen, die diese Technologie zum Funktionieren bringen. Beachten wir nur einen wichtigen Punkt: Damit QoS funktioniert, ist die Unterstützung dieser Technologie und eine entsprechende Konfiguration während der gesamten Übertragung vom Startpunkt bis zum Endpunkt erforderlich.

Betrachten Sie zur Verdeutlichung Abb. 1.
Wir akzeptieren Folgendes:
Alle Router sind an der Übertragung der erforderlichen Protokolle beteiligt.
Zwischen Host A und Host B wird eine QoS-Sitzung mit 64 Kbit/s initiiert.
Eine weitere Sitzung, die 64 Kbit/s erfordert, wird zwischen Host A und Host D initiiert.
Zur Vereinfachung des Diagramms gehen wir davon aus, dass die Router so konfiguriert sind, dass sie alle Netzwerkressourcen reservieren können.
In unserem Fall würde eine Anfrage für eine 64-Kbit/s-Reservierung drei Router auf dem Datenpfad zwischen Host A und Host B erreichen. Eine weitere Anfrage für 64 Kbit/s würde drei Router zwischen Host A und Host D erreichen. Die Router würden diese Ressourcenreservierungsanfragen berücksichtigen weil sie das Maximum nicht überschreiten. Wenn stattdessen jeder der Hosts B und C gleichzeitig eine 64-Kbit/s-QoS-Sitzung mit Host A initiieren würde, würde der Router, der diese Hosts (B und C) bedient, eine der Verbindungen verweigern.

Nehmen wir nun an, dass der Netzwerkadministrator die QoS-Verarbeitung in den drei Downstream-Routern deaktiviert, die die Hosts B, C, D und E bedienen. In diesem Fall würden Anfragen nach Ressourcen bis zu 128 Kbit/s erfüllt, unabhängig vom Standort des an der Verbindung beteiligten Hosts. Allerdings wäre die Qualitätssicherung gering, da der Datenverkehr zu einem Host den Datenverkehr zu einem anderen Host gefährden würde. Die Servicequalität könnte aufrechterhalten werden, wenn der obere Router alle Anfragen auf 64 Kbit/s begrenzen würde, aber dies würde zu einer ineffizienten Nutzung der Netzwerkressourcen führen.
Andererseits konnte der Durchsatz aller Netzwerkverbindungen auf 128 Kbit/s gesteigert werden. Die erhöhte Bandbreite wird jedoch nur genutzt, wenn die Hosts B und C (oder D und E) gleichzeitig Ressourcen anfordern. Ist dies nicht der Fall, werden die Netzwerkressourcen erneut ineffizient genutzt.

Microsoft QoS-Komponenten
Windows 98 enthält nur QoS-Komponenten auf Benutzerebene, darunter:
Anwendungskomponenten.
GQoS-API (Teil von Winsock 2).
QoS-Dienstanbieter.
Das Betriebssystem Windows 2000/XP/2003 enthält alles oben Beschriebene und die folgenden Komponenten:
Resource Reservation Protocol Service Provider (Rsvpsp.dll) und RSVP-Dienste (Rsvp.exe) und QoS ACS. Wird in Windows XP, 2003 nicht verwendet.
Verkehrsmanagement (Traffic.dll).
Allgemeiner Paketklassifikator (Msgpc.sys). Der Paketklassifikator bestimmt die Dienstklasse, zu der das Paket gehört. In diesem Fall wird das Paket in die entsprechende Warteschlange gestellt. Warteschlangen werden vom QoS Packet Scheduler verwaltet.
QoS-Paketplaner (Psched.sys). Definiert QoS-Parameter für einen bestimmten Datenstrom. Der Datenverkehr wird mit einem bestimmten Prioritätswert gekennzeichnet. Der QoS-Paketplaner bestimmt den Warteschlangenplan für jedes Paket und verarbeitet konkurrierende Anforderungen zwischen in der Warteschlange befindlichen Paketen, die gleichzeitig auf das Netzwerk zugreifen müssen.

Das Diagramm in Abb. 2 veranschaulicht den Protokollstapel. Windows-Komponenten und ihre Interaktion auf dem Host. Elemente, die in Windows 2000, aber nicht in Windows XP/2003 verwendet wurden, werden im Diagramm nicht angezeigt.
Anwendungen stehen ganz oben auf dem Stapel. Möglicherweise wissen sie etwas über QoS, vielleicht aber auch nicht. Um die volle Leistungsfähigkeit von QoS zu nutzen, empfiehlt Microsoft die Verwendung generischer QoS-API-Aufrufe in Ihren Anwendungen. Dies ist besonders wichtig für Anwendungen, die hochwertige Servicegarantien erfordern. Einige Dienstprogramme können verwendet werden, um QoS für Anwendungen aufzurufen, die QoS nicht kennen. Sie funktionieren über die Traffic Management API. NetMeeting verwendet beispielsweise die GQoS-API. Für solche Anwendungen ist die Qualität jedoch nicht garantiert.

Der letzte Nagel
Die oben genannten theoretischen Punkte liefern keine klare Antwort auf die Frage, wohin die berüchtigten 20 % gehen (die, wie ich anmerke, noch niemand genau gemessen hat). Basierend auf dem oben Gesagten sollte dies nicht passieren. Doch die Gegner bringen ein neues Argument vor: Das QoS-System sei gut, aber die Umsetzung sei schief. Daher sind immer noch 20 % „fett“. Offenbar hat das Problem auch den Softwareriesen geplagt, da er solche Erfindungen bereits vor langer Zeit separat widerlegt hat.
Erteilen wir jedoch den Entwicklern das Wort und präsentieren wir ausgewählte Punkte aus dem Artikel „316666 – Windows XP Quality of Service (QoS) Enhancements and Behavior“ in literarischem Russisch:
„Einhundert Prozent der Netzwerkbandbreite stehen zur Verteilung auf alle Programme zur Verfügung, es sei denn, ein Programm fordert ausdrücklich Prioritätsbandbreite an. Diese „reservierte“ Bandbreite steht anderen Programmen zur Verfügung, es sei denn, das Programm, das sie angefordert hat, sendet keine Daten.

Standardmäßig können Programme bis zu 20 % der Hauptverbindungsgeschwindigkeit auf jeder Computerschnittstelle reservieren. Wenn das Programm, das die Bandbreite reserviert hat, nicht genügend Daten sendet, um sie vollständig zu nutzen, steht der ungenutzte Teil der reservierten Bandbreite für andere Datenströme zur Verfügung.
In verschiedenen Fachartikeln und Newsgroups wurde behauptet, dass Windows XP immer 20 % der verfügbaren Bandbreite für QoS reserviert. Diese Aussagen sind falsch.“
Wenn jetzt jemand immer noch 20 % seiner Bandbreite verschlingt, kann ich Ihnen raten, weiterhin mehr Optimierungen aller Art und korrupte Netzwerktreiber zu verwenden. Es wird auch nicht so sehr sein, „mästigen“ zu werden.
Das ist es, der QoS-Mythos, stirb!

Juri Trofimow,

Einer der heißesten Trends in der heutigen Vernetzung ist die Konvergenz von Sprache und Video über herkömmliche Datennetze. Eines der Probleme bei dieser Art der Mischung besteht darin, dass Video- und Audiodatenpakete, damit sie ordnungsgemäß funktionieren, schnell und zuverlässig, ohne Unterbrechungen oder übermäßige Verzögerungen, an den Empfänger übertragen werden müssen. Gleichzeitig sollte diese Art von Verkehr jedoch die Übertragung traditionellerer Datenpakete nicht beeinträchtigen.

Eine mögliche Lösung für dieses Problem ist QoS. QoS oder Quality of Service ist eine Technologie zur Zuweisung von Prioritäten an Datenpakete. Mit QoS können Sie zeitkritische Pakete mit einer höheren Priorität als andere Pakete übertragen.

QoS ist ein Industriestandard, kein proprietärer Standard von Microsoft. Allerdings hat Microsoft diesen QoS-Standard erstmals in Windows 2000 eingeführt. Die QoS-Version von Microsoft hat sich seitdem erheblich weiterentwickelt, entspricht aber immer noch den Industriestandards.

In Windows XP Professional fungiert QoS hauptsächlich als Bandbreitenreservierungsmechanismus. Wenn QoS aktiviert ist, kann eine Anwendung bis zu 20 % der gesamten Netzwerkbandbreite reservieren, die vom Netzwerkadapter jedes Computers bereitgestellt wird. Allerdings kann die Menge an Netzwerkbandbreite, die eine Anwendung reserviert, konfiguriert werden. Im dritten Teil zeige ich Ihnen, wie Sie die Menge der reservierten Bandbreite ändern können.

Um zu sehen, wie freie Bandbreite genutzt wird, nehmen wir an, Sie haben eine Videokonferenzanwendung, die für die ordnungsgemäße Funktion Prioritätsbandbreite benötigt. Unter der Annahme, dass für diese Anwendung QoS aktiviert ist, können wir sagen, dass sie 20 % der gesamten Bandbreite der Maschine reserviert und 80 % der Bandbreite für den Rest des Netzwerkverkehrs übrig lässt.

Alle Anwendungen außer Videokonferenzanwendungen verwenden eine Technologie namens Best Effort Delivery. Dies bedeutet, dass Pakete mit der gleichen Priorität „Das erste Paket wird zuerst zugestellt, zuerst zugestellt“ gesendet werden. Andererseits hat der Datenverkehr von Videokonferenzanwendungen immer eine höhere Priorität als anderer Datenverkehr, die Anwendung darf jedoch niemals mehr als 20 % der Gesamtbandbreite verbrauchen.

Allerdings bedeutet die Tatsache, dass Windows XP etwas Bandbreite für prioritären Datenverkehr reserviert, nicht, dass Anwendungen mit normaler Priorität die freie Bandbreite nicht nutzen können. Obwohl Videokonferenzanwendungen die Vorteile einer reservierten Bandbreite mit höherer Priorität nutzen, sind die Chancen einer kontinuierlichen Nutzung solcher Anwendungen sehr gering. In diesem Fall ermöglicht Windows anderen Anwendungen, die reservierte und nicht reservierte Bandbreite für die bestmögliche Bereitstellung zu nutzen, solange die Anwendungen, für die ein Teil der Netzwerkbandbreite reserviert ist, nicht verwendet werden.

Sobald die Videokonferenzanwendung gestartet wird, erzwingt Windows die Nutzung der Reservierung. Aber auch in diesem Fall ist der Vorbehalt nicht absolut. Nehmen wir an, Windows reserviert 20 % der Netzwerkbandbreite für eine Videokonferenzanwendung, diese Anwendung benötigt jedoch nicht die vollen 20 %. In diesen Fällen erlaubt Windows anderen Anwendungen, die verbleibende Bandbreite zu nutzen, überwacht jedoch ständig die Anforderungen der Anwendung mit der höheren Priorität. Falls eine Anwendung mehr Bandbreite benötigt, wird ihr die Bandbreite bis zu maximal 20 % zugewiesen.

Wie ich bereits sagte, ist QoS ein Industriestandard und keine Microsoft-Technologie. Daher wird QoS in Windows verwendet, Windows kann diese Aufgabe jedoch nicht selbst erledigen. Damit QoS funktioniert, muss jede Hardware zwischen Sender und Empfänger QoS unterstützen. Das bedeutet, dass Netzwerkadapter, Switches, Router und alle anderen verwendeten Geräte QoS sowie die Betriebssysteme des Empfängers und des Senders kennen müssen.

Falls Sie sich das fragen: Sie müssen keine verrückte exotische Netzwerkinfrastruktur installieren, um QoS nutzen zu können. Der Asynchronous Transfer Mode (ATM) ist eine großartige Netzwerktechnologie zur Nutzung von QoS, da es sich um eine verbindungsorientierte Technologie handelt. Sie können QoS jedoch auch mit anderen Technologien wie Frame Relay, Ethernet und sogar Wi-FI (802.11 x) verwenden.

Der Grund, warum ATM eine so ideale Wahl für QoS ist, liegt darin, dass es in der Lage ist, Bandbreitenreservierung und Ressourcenzuweisung auf Hardwareebene zu implementieren. Diese Art der Verteilung übersteigt die Möglichkeiten von Ethernet und ähnlichen Netzwerktechnologien. Dies bedeutet nicht, dass QoS nicht genutzt werden kann. Es bedeutet lediglich, dass QoS anders angewendet werden muss als in einer ATM-Umgebung.

In einer ATM-Umgebung werden Ressourcen sofort auf der Ebene der physischen Geräte zugewiesen. Da Ethernet und andere ähnliche Technologien keine Ressourcen auf diese Weise zuweisen können, verlassen sich diese Technologien eher auf Priorisierung als auf echte Ressourcenzuweisung. Dies bedeutet, dass die Bandbreitenreservierung auf einer höheren Ebene des OSI-Modells erfolgt. Sobald die Bandbreite reserviert wurde, werden Pakete mit höherer Priorität zuerst übertragen.

Wenn Sie QoS über Ethernet, Wi-Fi oder andere ähnliche Technologien implementieren möchten, sollten Sie bedenken, dass diese Technologien verbindungslos sind. Das bedeutet, dass der Absender keine Möglichkeit hat, den Zustand des Empfängers oder den Zustand des Netzwerks zwischen Absender und Empfänger zu überprüfen. Dies bedeutet wiederum, dass der Absender garantieren kann, dass Pakete mit höherer Priorität zuerst gesendet werden, aber nicht garantieren kann, dass diese Pakete innerhalb einer bestimmten Zeit zugestellt werden. Andererseits kann QoS diese Art von Garantie in ATM-Netzwerken bieten, da es sich bei ATM um eine verbindungsorientierte Technologie handelt.

Windows 2000 vs. Windows Server 2003

Ich habe bereits erwähnt, dass Microsoft QoS erstmals in Windows 2000 eingeführt hat und dass sich die Verwendung von QoS seitdem erheblich weiterentwickelt hat. Deshalb möchte ich ein wenig über die Unterschiede zwischen QoS in Windows 2000 und in Windows XP und Windows Server 2003 sprechen (die diesen Standard weitgehend auf die gleiche Weise verwenden).

In Windows 2000 basierte QoS auf der Intserv-Architektur, die in Windows XP oder Windows Server 2003 nicht unterstützt wird. Der Grund, warum Microsoft sich gegen die Verwendung einer solchen Architektur entschieden hat, lag darin, dass die zugrunde liegende API schwierig zu verwenden war und die Architektur Probleme mit der Skalierung hatte .

Einige Organisationen verwenden immer noch Windows 2000, daher möchte ich Ihnen ein paar Hintergrundinformationen zur Funktionsweise der QoS-Architektur von Windows 2000 geben. Windows 2000 verwendet ein Protokoll namens RSVP, um Bandbreitenressourcen zu reservieren. Wenn Bandbreite angefordert wird, muss Windows ermitteln, wann Pakete übertragen werden können. Zu diesem Zweck verwendet Windows 2000 ein Signalisierungsprotokoll namens SBM (Sunbelt Bandwidth Manager), um dem Absender zu signalisieren, dass es bereit ist, Pakete anzunehmen. Der Admission Control Service (ACS) prüft, ob effektive Bandbreite verfügbar ist und gewährt oder lehnt dann die Bandbreitenanforderung ab.

Traffic-API

Eines der Hauptprobleme bei der Priorisierung des Netzwerkdatenverkehrs besteht darin, dass Sie den Datenverkehr nicht anhand des Computers priorisieren können, der ihn generiert. Es ist üblich, dass auf einzelnen Computern mehrere Anwendungen ausgeführt werden und für jede Anwendung (und jedes Betriebssystem) ein separater Datenverkehrsstrom erstellt wird. In diesem Fall muss jeder Verkehrsfluss einzeln priorisiert werden. Schließlich benötigt eine Anwendung möglicherweise freie Bandbreite, während eine andere Anwendung ideal für die optimale Bereitstellung geeignet ist.

Hier kommt die Traffic Control API (Traffic Control Software Interface) ins Spiel. Die Traffic Control API ist eine Anwendungsprogrammierschnittstelle, die es Ihnen ermöglicht, QoS-Parameter auf einzelne Pakete anzuwenden. Die Traffic Control API identifiziert einzelne Verkehrsflüsse und wendet verschiedene QoS-Kontrollmethoden auf diese Flüsse an.

Als Erstes erstellt die Traffic Control API eine sogenannte Filterspezifikation. Eine Filterspec ist im Wesentlichen ein Filter, der bestimmt, was es bedeutet, dass ein Paket zu einem bestimmten Stream gehört. Zu den von filterpec verwendeten Attributen gehören die Quell- und Ziel-IP-Adresse des Pakets sowie die Portnummer.

Sobald die Filterspezifikation definiert wurde, ermöglicht die API die Erstellung der Flussspezifikation. Flowspec definiert die QoS-Parameter, die auf eine Paketfolge angewendet werden. Zu den von Flowspec definierten Parametern gehören die Baudrate (zulässige Übertragungsrate) und der Diensttyp.

Das dritte von der Traffic Control API definierte Konzept ist das Flow-Konzept. Ein Fluss ist eine einfache Folge von Paketen, die einer einzelnen Flussspezifikation unterliegen. Vereinfacht ausgedrückt bestimmt Filterspec, welche Pakete in die Flowspec aufgenommen werden. Flowspec bestimmt, ob Pakete mit höheren Prioritäten verarbeitet werden, und Flow ist die tatsächliche Übertragung von Paketen, die der Flowspec-Verarbeitung unterliegen. Alle Pakete in einem Stream werden gleichermaßen verarbeitet.

Es sollte erwähnt werden, dass einer der Vorteile der Traffic Control API gegenüber der in Windows 2000 verwendeten Generic QoS API die Möglichkeit ist, Aggregation zu verwenden. Wenn auf einem Knoten mehrere Anwendungen mehrere Datenströme an ein gemeinsames Ziel senden, können diese Pakete zu einem gemeinsamen Strom zusammengefasst werden. Dies gilt auch dann, wenn Anwendungen unterschiedliche Portnummern verwenden, sofern die Quell- und Ziel-IP-Adressen identisch sind.

Allgemeiner Paketklassifikator

Im vorherigen Abschnitt habe ich über die Beziehung zwischen Flowspec, Filterspec und Flow gesprochen. Es ist jedoch wichtig zu bedenken, dass es sich bei der Traffic Control API lediglich um eine Anhandelt. Daher besteht seine Aufgabe darin, Verkehrsströme zu identifizieren und zu priorisieren, und nicht darin, diese zu erzeugen.

Der Generic Packet Classifier ist für die Erstellung von Streams verantwortlich. Wie Sie sich aus dem letzten Abschnitt erinnern, war eines der in der Flowspec definierten Attribute der Servicetyp. Der Diensttyp bestimmt im Wesentlichen die Priorität des Threads. Der Generic Packet Classifier ist für die Bestimmung des Diensttyps verantwortlich, der der Flowspec zugewiesen wurde, und stellt anschließend die zugehörigen Pakete in eine für den Diensttyp geeignete Warteschlange. Jeder Thread wird in eine separate Warteschlange gestellt.

QoS-Paketplaner (Paketplaner)

Die dritte QoS-Komponente, die Sie kennen müssen, ist der QoS-Paketplaner. Einfach ausgedrückt besteht die Hauptaufgabe eines QoS-Paketplaners darin, den Datenverkehr zu steuern. Dazu empfängt der Paketplaner Pakete aus verschiedenen Warteschlangen und markiert diese Pakete dann mit Prioritäten und Flussraten.

Wie ich im ersten Teil dieser Serie besprochen habe, müssen die verschiedenen Komponenten, die sich zwischen der Quelle der Pakete und ihrem Ziel befinden, QoS unterstützen (d. h. sich darüber im Klaren sein), damit QoS ordnungsgemäß funktioniert. Während diese Geräte wissen müssen, wie sie mit QoS umgehen, müssen sie auch wissen, wie sie mit regulärem, nicht priorisiertem Datenverkehr umgehen. Um dies zu ermöglichen, nutzt QoS eine Technologie namens Markierung.

Tatsächlich gibt es hier zwei Arten von Markierungen. Der QoS-Paketplaner verwendet Diffserv-Markierungen, die von Layer-3-Geräten erkannt werden, und 802.1p-Markierungen, die von Layer-2-Geräten erkannt werden.

Konfigurieren des QoS-Paketplaners

Bevor ich Ihnen zeige, wie Tagging funktioniert, sollten Sie beachten, dass Sie einen QoS-Paketplaner konfigurieren müssen, damit alles funktioniert. In Windows Server 2003 ist der QoS-Paketplaner eine optionale Netzwerkkomponente, ähnlich wie der Client für Microsoft-Netzwerke oder das TCP/IP-Protokoll. Um QoS Packet Scheduler zu aktivieren, öffnen Sie die Eigenschaftenseite der Netzwerkverbindung Ihres Servers und aktivieren Sie das Kontrollkästchen neben QoS Packet Scheduler, wie in Abbildung A dargestellt. Wenn QoS Packet Scheduler nicht aufgeführt ist, klicken Sie auf Installieren und befolgen Sie die Anweisungen.

Abbildung A: Der QoS-Paketplaner muss aktiviert sein, bevor Sie QoS verwenden können

Eine weitere Sache, die Sie über den QoS Packet Scheduler wissen müssen, ist, dass Ihr Netzwerkadapter 802.1p-Tagging unterstützen muss, damit er ordnungsgemäß funktioniert. Um Ihren Adapter zu überprüfen, klicken Sie auf die Schaltfläche „Konfigurieren“ (Abbildung A). Windows zeigt dann die Eigenschaften Ihres Netzwerkadapters an. Wenn Sie auf der Eigenschaftenseite auf der Registerkarte „Erweitert“ nachsehen, sehen Sie die verschiedenen Eigenschaften, die Ihr Netzwerkadapter unterstützt.

Wenn Sie sich Abbildung B ansehen, werden Sie sehen, dass eine der aufgeführten Eigenschaften 802.1Q/1P VLAN-Tagging ist. Sie sehen auch, dass diese Eigenschaft standardmäßig deaktiviert ist. Um 802.1p-Tagging zu aktivieren, aktivieren Sie einfach diese Eigenschaft und klicken Sie auf OK.

Abbildung B: Sie müssen 802.1Q/1P VLAN-Tagging aktivieren

Möglicherweise ist Ihnen in Abbildung B aufgefallen, dass die von Ihnen aktivierte Funktion eher mit VLAN-Tagging als mit Paket-Tagging zusammenhängt. Der Grund dafür ist, dass in VLAN-Tags Prioritätsmarkierungen enthalten sind. Der 802.1Q-Standard definiert VLANs und VLAN-Tags. Dieser Standard reserviert tatsächlich drei Bits im VLAN-Paket, die zur Aufzeichnung des Prioritätscodes verwendet werden. Leider definiert der 802.1Q-Standard nie, wie diese Prioritätscodes lauten sollten.

802.1P wurde als Ergänzung zu 802.1Q entwickelt. 802.1P definiert ein Prioritäts-Tagging, das in ein VLAN-Tag eingeschlossen werden kann.

802.1P-Signal

Wie ich im vorherigen Teil sagte, erfolgt die 802.1p-Signalübertragung auf der zweiten Schicht des OSI-Modells. Diese Schicht wird von physischen Geräten wie Switches verwendet. Layer-2-Geräte, die 802.1p unterstützen, können die den Paketen zugewiesenen Prioritätsmarkierungen anzeigen und diese Pakete dann in separate Verkehrsklassen gruppieren.

In Ethernet-Netzwerken sind Prioritätsmarkierungen in VLAN-Tags enthalten. VLANs und VLAN-Tags werden durch den 802.1Q-Standard definiert, der ein Drei-Bit-Prioritätsfeld definiert, aber nicht tatsächlich definiert, wie dieses Prioritätsfeld verwendet werden soll. Hier kommt der 802.1P-Standard ins Spiel.

802.1P definiert verschiedene Prioritätsklassen, die in Verbindung mit dem 802.1Q-Standard verwendet werden können. Letztendlich überlässt 802.1Q die Wahl der Prioritätsmarkierungen dem Administrator, sodass Sie sich technisch gesehen nicht an die Richtlinien von 802.1P halten müssen, aber 802.1P scheint das zu sein, was jeder wählt.

Während die Idee, 802.1P-Standards zur Bereitstellung von Layer-2-Tagging zu verwenden, wahrscheinlich nach reiner Theorie klingt, kann sie tatsächlich durch Gruppenrichtlinieneinstellungen bestimmt werden. Der 802.1P-Standard bietet acht verschiedene Prioritätsklassen (von 0 bis 7). Pakete mit höheren Prioritätsklassen werden von QoS mit einer höheren Zustellungspriorität verarbeitet.

Standardmäßig vergibt Microsoft die folgenden Prioritätsmarkierungen:

Aber wie ich bereits erwähnt habe, können Sie diese Prioritäten ändern, indem Sie verschiedene Gruppenrichtlinieneinstellungen ändern. Dazu müssen Sie den Gruppenrichtlinien-Editor öffnen und in der Konsolenstruktur unter den Zweigen Computerkonfiguration\Verwaltungsvorlagen\Netzwerke\QoS-Paketplaner\Prioritätswerte der zweiten Ebene navigieren. Wie Sie in Abbildung A sehen können, gibt es Gruppenrichtlinieneinstellungen, die jeder der oben aufgeführten Prioritätsbezeichnungen entsprechen. Sie können jedem dieser Servicetypen Ihre Prioritätsmarkierungsstufen zuweisen. Beachten Sie jedoch, dass diese Gruppenrichtlinieneinstellungen nur für Hosts gelten, auf denen Windows XP, 2003 oder Vista ausgeführt wird.

Abbildung A: Sie können den Gruppenrichtlinien-Editor verwenden, um die Kennzeichnung der zweiten Prioritätsebene zu konfigurieren.

Differenzierte Dienstleistungen

Wie ich in einem früheren Artikel erläutert habe, führt QoS Prioritätsmarkierungen auf den Schichten zwei und drei des OSI-Modells durch. Dadurch wird sichergestellt, dass im gesamten Paketzustellungsprozess Prioritäten berücksichtigt werden. Beispielsweise arbeiten Switches auf Layer 2 des OSI-Modells, Router jedoch typischerweise auf Layer 3. Wenn also Pakete nur 802.1p-Prioritätsmarkierungen verwenden würden, würde der Switch diesen Paketen Prioritäten zuweisen, diese Prioritäten würden jedoch von Netzwerkroutern ignoriert. Um dem entgegenzuwirken, nutzt QoS das Differentiated Services-Protokoll (Diffserv), um den Datenverkehr auf Schicht 3 des OSI-Modells zu priorisieren. Diffserv-Markierungen sind in IP-Headern von Paketen enthalten, die TCP/IP verwenden.

Die von Diffserv verwendete Architektur wurde ursprünglich durch RFC 2475 definiert. Viele der Architekturspezifikationen wurden jedoch in RFC 2474 neu geschrieben. RFC 2474 definiert die Diffserv-Architektur für IPv4 und IPv6.

Das Interessante an der Verwendung von IPv4 in RFC 2474 ist, dass Diffserv zwar vollständig außer Kraft gesetzt wurde, aber immer noch abwärtskompatibel mit der ursprünglichen RFC 2475-Spezifikation ist. Dies bedeutet, dass ältere Router, die die neuen Spezifikationen nicht unterstützen, möglicherweise die zugewiesenen Prioritäten erkennen können.

Die aktuelle Diffserv-Implementierung verwendet die Diensttyp-Oktette der TOS-Pakete (Type of Service), um den Diffserv-Wert (DSCP-Wert genannt) zu speichern. Innerhalb dieses Oktetts speichern die ersten sechs Bits den DSCP-Wert und die letzten beiden Bits werden nicht verwendet. Der Grund dafür, dass diese Markierungen abwärtskompatibel mit der RFC 2475-Spezifikation sind, liegt darin, dass RFC 2475 die ersten drei Bits im selben Oktett für die Verwendung in IP-Sequenzinformationen erforderte. Obwohl DSCP-Werte sechs Bits lang sind, spiegeln die ersten drei Bits immer noch die IP-Sequenz wider.

Wie beim 802.1p-Tagging, das ich zuvor demonstriert habe, können Sie Diffserv-Prioritäten über verschiedene Gruppenrichtlinieneinstellungen konfigurieren. Bevor ich Ihnen zeige, wie es geht, stelle ich die unter Windows verwendeten Standard-Diffserv-Prioritäten vor:

Möglicherweise ist Ihnen aufgefallen, dass die Diffserv-Prioritätsmarkierungen einen völlig anderen Bereich als 802.1P verwenden. Anstatt einen Bereich von 0 bis 7 zu unterstützen, unterstützt Diffserv einen Prioritätsmarkierungsbereich von 0 bis 63, wobei größere Zahlen höhere Prioritäten haben.

Wie ich bereits sagte, können Sie in Windows Diffserv-Prioritätsmarkierungen über Gruppenrichtlinieneinstellungen definieren. Beachten Sie jedoch, dass einige fortgeschrittenere Router Paketen ihre eigenen Diffserv-Werte zuweisen, unabhängig von den von Windows zugewiesenen Werten.

Vor diesem Hintergrund können Sie Diffserv-Prioritätsmarkierungen konfigurieren, indem Sie den Gruppenrichtlinien-Editor öffnen und in der Konsolenstruktur zu Computerkonfiguration\Administrationsvorlagen\Netzwerk\QoS-Paketplaner navigieren.

Wenn Sie sich Abbildung B ansehen, werden Sie feststellen, dass sich unterhalb der Registerkarte „QoS Packet Scheduler“ zwei DSCP-bezogene Registerkarten befinden. Auf einer dieser Registerkarten können Sie Paketen, die mit der Flussspezifikation übereinstimmen, DSCP-Prioritätsmarkierungen zuweisen, und auf der zweiten Registerkarte können Sie Paketen, die nicht übereinstimmen, DSCP-Prioritätsmarkierungen zuweisen. Die tatsächlichen Parameter selbst sind für beide Registerkarten ähnlich, wie in Abbildung C dargestellt.

Abbildung B: Windows verwaltet DSCP-Prioritätsmarkierungen getrennt für Pakete, die der Flowspec entsprechen, und solche, die dies nicht tun.

Abbildung C: Sie können verschiedenen Diensttypen manuell DSCP-Prioritätsmarkierungen zuweisen.

Verschiedene Gruppenrichtlinieneinstellungen

Wenn Sie sich Abbildung B ansehen, werden Sie feststellen, dass es drei Gruppenrichtlinieneinstellungen gibt, über die ich nicht gesprochen habe. Ich wollte kurz erwähnen, was diese Optionen sind und was sie für diejenigen bewirken, die interessiert sein könnten.

Der Parameter „Limit Outstanding Packets“ ist im Wesentlichen ein Service-Schwellenwert. Wenn die Anzahl der überwältigenden Pakete einen bestimmten Wert erreicht, verhindert QoS jegliche zusätzliche Bandbreitenzuweisungen an den Netzwerkadapter, bis der Wert unter den maximal zulässigen Schwellenwert fällt.

Die Einstellung „Reservierbare Bandbreite begrenzen“ steuert den Prozentsatz der Gesamtbandbreite, den QoS-fähige Anwendungen reservieren können. Standardmäßig können QoS-fähige Anwendungen bis zu 80 % der Netzwerkbandbreite reservieren. Natürlich kann jeder Teil der Bandbreite, der reserviert ist und derzeit nicht von QoS-Anwendungen genutzt wird, von anderen Anwendungen genutzt werden.

Der Parameter Set Timer Resolution steuert die minimalen Zeiteinheiten (in Mikrosekunden), die der QoS-Paketplaner zum Planen von Paketen verwendet. Im Wesentlichen steuert diese Einstellung die maximale Häufigkeit, mit der Pakete zur Zustellung in die Warteschlange gestellt werden können.

QoS und Modems

In diesem Zeitalter der nahezu universellen Verfügbarkeit von Breitbandtechnologien erscheint allein die Diskussion über Modems seltsam. Allerdings gibt es immer noch viele kleine Unternehmen und Heimanwender, die Modems als Mechanismus für die Internetverbindung verwenden. Kürzlich habe ich sogar gesehen, wie ein großes Unternehmen Modems nutzte, um mit Satellitenbüros zu kommunizieren, die sich an abgelegenen Standorten befinden, wo es keinen Zugang zu Breitbandtechnologie gibt.

Das größte Problem bei der Verwendung von Modems ist natürlich die begrenzte Bandbreite. Ein weniger offensichtliches, aber ebenso wichtiges Problem besteht darin, dass Benutzer dazu neigen, ihr Online-Verhalten bei der Nutzung von DFÜ-Verbindungen nicht zu ändern. Sicherlich neigen Benutzer möglicherweise weniger dazu, große Dateien herunterzuladen, wenn sie über ein Modem mit dem Internet verbunden sind, aber das übrige Benutzerverhalten bleibt das gleiche, als ob sie über eine Breitbandverbindung verbunden wären.

Benutzer machen sich normalerweise keine allzu großen Sorgen um die Aufbewahrung Microsoft OutlookÖffnen Sie die Seiten immer oder durchsuchen Sie sie, während Dateien heruntergeladen werden Hintergrund. Einige Benutzer halten ihr Instant-Messaging-System auch ständig geöffnet. Das Problem bei dieser Art von Verhalten besteht darin, dass jede dieser Anwendungen oder Aufgaben eine bestimmte Menge an Internetverbindungsbandbreite verbraucht.

Um zu sehen, wie QoS helfen kann, schauen wir uns an, was unter normalen Bedingungen passiert, wenn QoS nicht verwendet wird. Normalerweise verfügt die erste Anwendung, die versucht, auf das Internet zuzugreifen, über die meisten Rechte zur Nutzung der Verbindung. Dies bedeutet nicht, dass andere Anwendungen die Verbindung nicht nutzen können, sondern dass Windows davon ausgeht, dass andere Anwendungen die Verbindung nicht nutzen werden.

Sobald die Verbindung hergestellt ist, beginnt Windows damit, die Größe des TCP-Empfangsfensters dynamisch anzupassen. Die Größe des TCP-Empfangsfensters ist die Datenmenge, die gesendet werden kann, bevor auf die Bestätigung des Datenempfangs gewartet wird. Je größer das TCP-Empfangsfenster ist, desto größer sind die Pakete, die der Absender übertragen kann, bevor er auf die Bestätigung der erfolgreichen Zustellung wartet.

Die Größe des TCP-Empfangsfensters muss sorgfältig angepasst werden. Wenn das TCP-Empfangsfenster zu klein ist, leidet die Effizienz, da TCP sehr häufige Bestätigungen erfordert. Wenn das TCP-Empfangsfenster jedoch zu groß ist, überträgt das Gerät möglicherweise zu viele Daten, bevor es erkennt, dass bei der Übertragung ein Problem vorliegt. Dadurch müssen große Datenmengen erneut übertragen werden, was sich ebenfalls auf die Effizienz auswirkt.

Wenn eine Anwendung eine DFÜ-Internetverbindung verwendet, passt Windows die Größe des TCP-Empfangsfensters beim Senden von Paketen dynamisch an. Das Ziel von Windows besteht darin, einen stabilen Zustand zu erreichen, in dem die Größe des TCP-Empfangsfensters optimal konfiguriert ist.

Nehmen wir nun an, der Benutzer öffnet eine zweite Anwendung, die ebenfalls eine Internetverbindung erfordert. Sobald dies geschieht, initiiert Windows den langsamen TCP-Startalgorithmus, der für die Einstellung der TCP-Empfangsfenstergröße auf den optimalen Wert verantwortlich ist. Das Problem besteht darin, dass TCP bereits von der zuvor ausgeführten Anwendung verwendet wird. Dies betrifft die zweite Anwendung in zweierlei Hinsicht. Erstens dauert es viel länger, bis die zweite Anwendung ihre optimale TCP-Empfangsfenstergröße erreicht. Zweitens ist die Datenübertragungsrate für die zweite Anwendung immer langsamer als die Übertragungsgeschwindigkeit für die vorhergehende Anwendung.

Die gute Nachricht ist, dass Sie diese Probleme unter Windows XP und Windows Server 2003 vermeiden können, indem Sie einfach den QOS Packet Scheduler ausführen. Der QOS Packet Scheduler verwendet dann automatisch eine Technologie namens Deficit Round Robin, wenn Windows eine langsame Verbindungsgeschwindigkeit erkennt.

Die Funktionsweise von Deficit Round Robin besteht darin, dynamisch separate Warteschlangen für jede Anwendung zu erstellen, die Zugriff auf das Internet benötigt. Windows stellt diese Warteschlangen als bereit zyklischer Algorithmus, was die Effizienz aller Anwendungen, die Zugang zum Internet benötigen, deutlich verbessert. Falls Sie sich fragen: Deficit Round Robin ist auch in Windows 2000 Server verfügbar, wird jedoch nicht automatisch aktiviert.

Internetverbindung teilen

In Windows XP und Windows Server 2003 erleichtert QoS auch die gemeinsame Nutzung von Internetverbindungen. Wie Sie wahrscheinlich wissen, ist die gemeinsame Nutzung von Internetverbindungen eine vereinfachte Option zum Erstellen eines NAT-basierten Routers. Der Computer, mit dem die Internetverbindung physisch verbunden ist, fungiert als Router und DHCP-Server für andere Computer im Netzwerk und ermöglicht ihnen so den Zugriff auf das Internet über diesen Host. Die gemeinsame Nutzung von Internetverbindungen wird normalerweise nur in kleinen Peer-to-Peer-Netzwerken ohne Domäneninfrastruktur verwendet. Größere Netzwerke nutzen typischerweise physische Geräterouter oder Routing- und Fernzugriffsdienste.

Im obigen Abschnitt habe ich bereits erklärt, wie Windows die Größe des TCP-Empfangsfensters dynamisch anpasst. Allerdings, z dynamische Einstellung kann beim Teilen einer Internetverbindung zu Problemen führen. Der Grund dafür ist, dass die Verbindung zwischen Computern in einem lokalen Netzwerk normalerweise relativ schnell ist. Normalerweise besteht eine solche Verbindung aus 100 Mbit Ethernet oder einer drahtlosen 802.11G-Verbindung. Obwohl diese Art von Verbindungen bei weitem nicht die schnellsten sind, sind sie doch viel schneller als die meisten in den Vereinigten Staaten verfügbaren Internetverbindungen. Hier liegt das Problem.

Client-Computer muss über das Internet interagieren, kann dies jedoch nicht direkt tun. Stattdessen wird der Internet Connection Sharing Host als Zugriffsmodul verwendet. Wenn Windows die optimale Größe des TCP-Empfangsfensters berechnet, basiert es auf der Geschwindigkeit der Verbindung zwischen dem lokalen Computer und dem Computer mit gemeinsamer Internetverbindung. Der Unterschied zwischen der Datenmenge, die ein lokaler Computer tatsächlich aus dem Internet abrufen kann, und der Menge, die er aufgrund der Geschwindigkeit seiner Verbindung zum Internet Connection Sharing-Host zu erhalten glaubt, kann zu Problemen führen. Genauer gesagt können Unterschiede in der Verbindungsgeschwindigkeit möglicherweise dazu führen, dass Daten in einer Warteschlange gesichert werden, die mit einer langsamen Verbindung verbunden ist.

Hier kommt QoS ins Spiel. Wenn Sie den QOS-Paketplaner auf einem Host mit gemeinsamer Internetverbindung installieren, deaktiviert der Host mit gemeinsamer Internetverbindung die Größe des TCP-Empfangsfensters. Dies bedeutet, dass der Host für die gemeinsame Nutzung der Internetverbindung die Größe des TCP-Empfangsfensters für lokale Hosts auf denselben Wert festlegt, den sie hätten, wenn sie direkt mit dem Internet verbunden wären. Dadurch werden Probleme beseitigt, die durch nicht übereinstimmende Netzverursacht werden.

Abschluss

In dieser Artikelserie habe ich über QoS gesprochen und wie es zur Gestaltung des Verkehrsflusses auf verschiedene Arten verwendet werden kann Netzwerkverbindungen. Wie Sie sehen, kann QoS dafür sorgen, dass ein Netzwerk wesentlich effizienter arbeitet, indem der Datenverkehr so ​​gestaltet wird, dass er die Zeiten mit der höchsten Auslastung im Netzwerk ausnutzt und sicherstellt, dass Datenverkehr mit höherer Priorität schnell übermittelt wird.

Brian Posey

Es gibt keine einzige Person, die nicht mindestens einmal die FAQ zu Windows XP gelesen hat. Und wenn ja, dann weiß jeder, dass es einen so schädlichen Quality of Service-Dienst – kurz QoS – gibt. Es wird dringend empfohlen, es bei der Konfiguration Ihres Systems zu deaktivieren, da es die Netzwerkbandbreite standardmäßig um 20 % begrenzt, und dieses Problem scheint auch unter Windows 2000 zu bestehen.

Das sind die Zeilen:

F: Wie kann ich den QoS-Dienst (Quality of Service) vollständig deaktivieren? Wie richtet man es ein? Stimmt es, dass dadurch die Netzwerkgeschwindigkeit begrenzt wird?
A: Tatsächlich reserviert Quality of Service standardmäßig 20 % der Kanalkapazität für seine Bedürfnisse (jeder Kanal – sogar ein 14400-Modem, sogar ein Gigabit-Ethernet). Darüber hinaus wird dieser Kanal nicht freigegeben, selbst wenn Sie den QoS Packet Scheduler-Dienst aus der Eigenschaftenverbindung entfernen. Hier können Sie einen Kanal freigeben oder einfach QoS konfigurieren. Starten Sie das Gruppenrichtlinien-Applet (gpedit.msc). Suchen Sie in den Gruppenrichtlinien nach „Lokale Computerrichtlinie“ und klicken Sie auf „Administrative Vorlagen“. Wählen Sie Netzwerk – QoS-Paketplaner. Aktivieren Sie „Reservierbare Bandbreite begrenzen“. Jetzt senken wir die Bandbreitenbegrenzung um 20 % auf 0 % oder schalten sie einfach aus. Auf Wunsch können Sie hier auch weitere QoS-Parameter konfigurieren. Um die vorgenommenen Änderungen zu aktivieren, ist lediglich ein Neustart erforderlich.

20 % sind natürlich viel. Wirklich, Microsoft ist Mazda. Aussagen dieser Art wandern von FAQ zu FAQ, von Forum zu Forum, von Medium zu Medium, werden in allen möglichen „Tweaks“ verwendet – Programmen zum „Tuning“ von Windows XP (öffnen Sie übrigens „Gruppenrichtlinien“ und „Lokal“) Sicherheitsrichtlinien“ und kein einziger Tweaker kann sich mit ihnen in Bezug auf die Fülle an Anpassungsmöglichkeiten messen. Unbegründete Vorwürfe dieser Art müssen sorgfältig aufgedeckt werden, was wir jetzt mit einem systematischen Vorgehen tun werden. Das heißt, wir werden das problematische Thema gründlich untersuchen und uns dabei auf offizielle Primärquellen stützen.

Was ist ein Netzwerk mit Qualitätsservice?

Akzeptieren wir die folgende vereinfachte Definition eines Netzwerksystems. Anwendungen laufen und laufen auf Hosts und kommunizieren miteinander. Anwendungen senden Daten an das Betriebssystem zur Übertragung über das Netzwerk. Sobald Daten an das Betriebssystem übertragen wurden, werden sie zum Netzwerkverkehr.

Netzwerk-QoS hängt von der Fähigkeit des Netzwerks ab, diesen Datenverkehr so ​​zu verarbeiten, dass sichergestellt wird, dass bestimmte Anwendungsanforderungen erfüllt werden. Dies erfordert einen grundlegenden Mechanismus zur Verarbeitung des Netzwerkverkehrs, der den Verkehr identifizieren kann, der für eine Sonderbehandlung in Frage kommt, und das Recht hat, diese Mechanismen zu kontrollieren.

Die QoS-Funktionalität ist darauf ausgelegt, zwei Netzwerkakteure zufrieden zu stellen: Netzwerkanwendungen und Netzwerkadministratoren. Sie haben oft Meinungsverschiedenheiten. Der Netzwerkadministrator begrenzt die von einer bestimmten Anwendung verwendeten Ressourcen, während die Anwendung gleichzeitig versucht, so viele Netzwerkressourcen wie möglich zu beanspruchen. Unter Berücksichtigung der Tatsache, dass der Netzwerkadministrator gegenüber allen Anwendungen und Benutzern eine dominierende Rolle spielt, können ihre Interessen angeglichen werden.

Grundlegende QoS-Parameter

Unterschiedliche Anwendungen haben unterschiedliche Anforderungen an die Verarbeitung ihres Netzwerkverkehrs. Anwendungen vertragen Verzögerungen und Verkehrsverluste mehr oder weniger. Diese Anforderungen haben in den folgenden QoS-bezogenen Parametern Anwendung gefunden:

  • Bandbreite – die Geschwindigkeit, mit der der von einer Anwendung generierte Datenverkehr über das Netzwerk übertragen werden muss;
  • Latenz – die Verzögerung, die eine Anwendung bei der Zustellung eines Datenpakets tolerieren kann;
  • Jitter – Verzögerungszeit ändern;
  • Verlust – Prozentsatz der verlorenen Daten.

Wenn unendliche Netzwerkressourcen verfügbar wären, könnte der gesamte Anwendungsverkehr mit der erforderlichen Geschwindigkeit, ohne Latenz, ohne Latenzschwankungen und ohne Verlust übertragen werden. Allerdings sind die Netzwerkressourcen nicht unbegrenzt.

Der QoS-Mechanismus steuert die Zuweisung von Netzwerkressourcen zum Anwendungsverkehr, um Übertragungsanforderungen zu erfüllen.

Grundlegende QoS-Ressourcen und Verkehrsverarbeitungsmechanismen

Die Netzwerke, die Hosts verbinden, verwenden eine Vielzahl von Netzwerkgeräten, darunter Host-Netzwerkadapter, Router, Switches und Hubs. Jeder von ihnen verfügt über Netzwerkschnittstellen. Jede Netzwerkschnittstelle kann Datenverkehr mit einer endlichen Rate empfangen und übertragen. Wenn die Rate, mit der der Datenverkehr an eine Schnittstelle gesendet wird, schneller ist als die Rate, mit der die Schnittstelle den Datenverkehr weiterleitet, kommt es zu einer Überlastung.

Netzwerkgeräte können Überlastungszustände bewältigen, indem sie den Datenverkehr im Speicher (Puffer) des Geräts in eine Warteschlange stellen, bis die Überlastung vorüber ist. In anderen Fällen kann es sein, dass Netzwerkgeräte den Datenverkehr ablehnen, um Überlastungen zu vermeiden. Infolgedessen kommt es bei Anwendungen zu Latenzänderungen (da der Datenverkehr in Warteschlangen auf Schnittstellen gespeichert wird) oder zu Datenverlusten.

Die Fähigkeit von Netzwerkschnittstellen, Datenverkehr weiterzuleiten, und die Verfügbarkeit von Speicher zum Speichern von Datenverkehr in Netzwerkgeräten (bis der Datenverkehr nicht mehr gesendet werden kann) bilden die grundlegenden Ressourcen, die für die Bereitstellung von QoS für Anwendungsdatenverkehrsströme erforderlich sind.

Verteilung von QoS-Ressourcen auf Netzwerkgeräte

Geräte, die QoS unterstützen, nutzen Netzwerkressourcen intelligent, um Datenverkehr zu übertragen. Das heißt, der Datenverkehr von latenztoleranteren Anwendungen wird in die Warteschlange gestellt (in einem Puffer im Arbeitsspeicher gespeichert), während der Datenverkehr von latenzkritischen Anwendungen weitergeleitet wird.

Um diese Aufgabe auszuführen, muss das Netzwerkgerät den Datenverkehr durch die Klassifizierung von Paketen identifizieren und außerdem über Warteschlangen und Mechanismen für deren Bearbeitung verfügen.

Mechanismus zur Verarbeitung des Datenverkehrs

Der Verkehrsverarbeitungsmechanismus umfasst:

  • 802.1p;
  • Differenzierte Dienste pro Hop-Verhalten (diffserv PHB);
  • Integrierte Dienste (intserv);
  • Geldautomat usw.

Die meisten lokalen Netzwerke basieren auf der IEEE 802-Technologie, einschließlich Ethernet, Token-Ring usw. 802.1p ist ein Verkehrsverarbeitungsmechanismus zur Unterstützung von QoS in solchen Netzwerken.

802.1p definiert ein Feld (Schicht 2 im OSI-Netzwerkmodell) im 802-Paket-Header, das einen von acht Prioritätswerten tragen kann. In der Regel markieren Hosts oder Router beim Senden von Datenverkehr an ein lokales Netzwerk jedes gesendete Paket und weisen ihm einen bestimmten Prioritätswert zu. Von Netzwerkgeräten wie Switches, Bridges und Hubs wird erwartet, dass sie Pakete mithilfe von Warteschlangenmechanismen ordnungsgemäß verarbeiten. Der Anwendungsbereich von 802.1p ist auf das lokale Netzwerk (LAN) beschränkt. Sobald das Paket das lokale Netzwerk durchquert (über OSI Layer 3), wird die 802.1p-Priorität entfernt.

Diffserv ist ein Layer-3-Mechanismus. Er definiert ein Feld im Layer-3-Header von IP-Paketen, das als Diffserv Codepoint (DSCP) bezeichnet wird.

Intserv ist eine ganze Reihe von Diensten, die einen garantierten Dienst und einen Dienst zur Verwaltung von Downloads definieren. Ein garantierter Dienst verspricht, eine bestimmte Menge an Datenverkehr mit messbarer und begrenzter Latenz zu übertragen. Der Dienst, der den Download verwaltet, erklärt sich damit einverstanden, einen Teil des Datenverkehrs zu übertragen, wobei „eine leichte Netzwerküberlastung auftritt“. Hierbei handelt es sich um quantifizierbare Dienste in dem Sinne, dass sie so definiert sind, dass sie für eine bestimmte Menge an Datenverkehr messbare QoS bereitstellen.

Da die ATM-Technologie Pakete in relativ kleine Zellen fragmentiert, kann sie eine sehr geringe Latenz bieten. Wenn ein Paket dringend gesendet werden muss, kann die ATM-Schnittstelle jederzeit für die Übertragung freigegeben werden, solange eine Zelle gesendet werden muss.

QoS verfügt über viele komplexere Mechanismen, die diese Technologie zum Funktionieren bringen. Beachten wir nur einen wichtigen Punkt: Damit QoS funktioniert, ist die Unterstützung dieser Technologie und eine entsprechende Konfiguration während der gesamten Übertragung vom Startpunkt bis zum Endpunkt erforderlich.

gastroguru 2017