Definition Was ist Latenz?

Autor / Redakteur: TheRacoon / Heidemarie Schuster

Das Wort Latenz (Latency) stammt aus dem Englischen und bedeutet so viel wie Verzögerung. In Datennetzen sowie im Telekommunikationswesen ist damit die Verzögerung bei der Datenübertragung zwischen dem Sender und Empfänger gemeint.

Firmen zum Thema

Grundlagenwissen zum IT-Business
Grundlagenwissen zum IT-Business
(Bild: © adiruch na chiangmai - Fotolia.com)

Vom Wortsinn her bedeutet Latenz sowie viel wie Verborgenheit oder Verstecktheit. Allgemein bezeichnet die Latenz in unterschiedlichsten Teilbereichen des Lebens die Zeitspanne, die zwischen einem Reiz und der daraus folgenden Reaktion vergeht. Im Technikbereich und insbesondere in der Netzwerktechnik bezeichnet die Latenz (engl. Latency) die Signallaufzeit.

Gemessen wird dabei die Wege-Zeit übermittelter Daten von der Quelle (Sender) bis zum Ziel (Empfänger) in Millisekunden. Gemeinsam mit der bei der Datenübertragung auftretenden Fehlerrate sowie der Bandbreite gehört die Latency (auch: Verzögerungszeit) zu den zentralen Kriterien, um die Datenübertragungsqualität bzw. die Netzwerkverbindungsqualität zu bestimmen.

Zur Anwendung kommt die Latenz z.B. klassischerweise bei der Ermittlung der Ping-Zeit. Die Ping-Zeit (Paketumlaufzeit) setzt sich aus den Latenzzeiten zusammen, die ein Datenpaket jeweils auf dem Hin- und Rückweg von Sender zu Empfänger und umgekehrt benötigt.

So setzt sich die Latenz bei paketbasierter Datenübertragung zusammen

Datenpakete sind die Grundlade der modernen Kommunikation. Sowohl im kabelgebundenen Internet als auch bei Mobilfunknetzen spielt damit auch die Latenz eine entscheidende Rolle. Grundsätzlich gilt: Je zeitkritischer eine Datenübertragung, desto geringer sollte die Latenz sein.

Während die Verzögerung bei der Übermittlung einer E-Mail kaum eine Rolle spielt, ist sie bei Echtzeitanwendungen wie Videospielen, Webkonferenzen oder der Sensortechnik beim autonomen Fahren umso wichtiger. Grundsätzlich setzt sich die Latenz aus unterschiedlichen Latenzzeiten bzw. Einflussfaktoren zusammen. Dazu zählen unter anderem:

  • Welche Eigenschaften weißt das Übertragungsprotokoll auf?
  • Bestehen auf einzelnen Teilstrecken im Netzwerk Warteschlangen?
  • Welche Laufzeit haben die Signale auf dem Übertragungsmedium?
  • Wird das Datenpaket auf seinem Weg durch eine bestimmte Bandbreite beschränkt?
  • Wie schnell verarbeiten die beteiligten Netzkomponenten die gesendeten Pakete?

Wie sich Latenzzeiten verringern lassen

Eine möglichst geringe Latenzzeit ist für die Echtzeitanwendungen der Gegenwart und Zukunft essenziell. Ziel muss daher die Verkürzung der Latenzen sein. Am effektivsten lässt sich die Latenz durch die Verkürzung der Distanz zwischen Sender und Empfänger erreichen. Für diese sogenannte Low Latency sollte es vermieden werden, Daten um den halben Globus zu schicken, sofern dies nicht notwendig ist.

Der Aufbau von Serverfarmen, die nahe an Sender und Empfänger liegen, ist somit ein Schlüssel zu niedrigen Latenzen. Hinzu kommt der Ausbau des Glasfasernetzes. Immerhin erreicht die Übertragung dort eine Geschwindigkeit von zwei Dritteln der Lichtgeschwindigkeit, was rund 200 Kilometern pro Millisekunde entspricht. Um eine Latenz von rund 1 ms zu erreichen, darf die Distanz zwischen Nutzer und Serverfarm (zumindest in der Theorie) höchstens 100 km betragen.

(ID:47338153)