- Bitzeit
-
Die Bitzeit bezeichnet bei Computernetzwerken die Zeit, in der genau ein Bit vom Sender zum Empfänger gesendet werden kann. Sie entspricht dem Bitintervall, dass den zeitlichen Abstand zwischen zwei Bits angibt.
Damit der Empfänger eine binäre 1 oder 0 lesen kann, muss es einen festen Intervall geben, in dessen Segmenten der logische Zustand eines Bits bestimmt werden kann. Im einfachsten Fall entspricht der logische Zustand eines Bits auch dem Pegel auf der physikalischen Leitung. Es gibt aber auch andere Leitungscodierungen.
Die Übertragungszeit entspricht dem Produkt aus der Anzahl der gesendeten Bits und dem Bitintervall für die betreffende Technologie. In einem 10MBit-Ethernet beträgt das Bitintervall 100ns. 1 Byte sind 8 Bits, die Übertragungszeit für 1 Byte wäre also 800ns. Die Mindestframegröße des kleinsten zulässigen 10BASE-T-Frames, damit CSMA/CD funktioniert, beträgt 64 Byte. Eine Übertragung würde also 51.200 ns (51,2 Mikrosekunden) dauern (64 Oktette x 800 ns).
Bei allen Ethernet-Datenübertragungsraten von 1000 Mbit/s oder weniger kann die Übertragung nie langsamer sein als die Zeitkanaleinheit (Slot Time). Die Zeitkanaleinheit (für 10 Mbit/s- und 100 Mbit/s-Ethernet) beträgt 512 Bitintervalle – 51,2 Mikrosekunden also. Für 1000 Mbit/s-Ethernet beträgt sie 4096 Bitintervalle (512 Oktette) - 409,600 Mikrosekunden.
Weblinks
- http://home.arcor.de/burkhard-john/kombiampel/kdfue.htm - Abschnitt: Prinzip der seriellen Datenübertragung
Kategorie:- Rechnernetze
Wikimedia Foundation.