Bit-Genauigkeit

Bit-Genauigkeit

Die digitale Auflösung beschreibt,

  • wie fein gestuft eine ursprünglich kontinuierlich veränderliche Größe bei einer digitalen Mess- oder Rechenoperation digital dargestellt werden kann - oder
  • wie genau - allein von der Digitalisierung her, ohne weitere Messgerätefehler - die Größe digital abgebildet werden kann.

Die Genauigkeit wird in DIN EN 60051 definiert als "Grad der Übereinstimmung zwischen angezeigtem und gemessenen Wert". Wenn die Anzahl der binären Ziffern als Maß für die Genauigkeit verwendet wird, spricht man von Bit-Genauigkeit.

Inhaltsverzeichnis

Bit-Genauigkeit

Bitgenau heißt, dass in einer binären Darstellung alle Stellen der Zahl signifikant sind.

In der Datenverarbeitung muss aber im Allgemeinen ein gewisses vorgegebenes Intervall von Messwerten über eine große Menge an Datensätzen verarbeitet werden. Die Größenordnung n einer binären Darstellung A \cdot 2^n einer Exponentialdarstellung muss nur ein einziges Mal erfasst werden; in einem Gleitkommaformat zwar jedes Mal, sie ist aber meist nur auf wenige Bit beschränkt. Daher ist die Anzahl der binären Stellen des Faktors A das entscheidende Maß der Gesamtdatenmenge, die anfällt. Wie viele Stellen angegeben werden müssen, um eine hinreichende Genauigkeit bei annehmbarer Datenmenge zu erzielen, ist ein typisches Optimierungsproblem.

Digitale Auflösung

Die digitale Auflösung eines Intervalls liefert eine Aussage über die Anzahl der Werte, die in diesem Intervall dargestellt werden können.

Ein Intervall I wird in 2n Schritte der Breite I / 2n unterteilt, wobei n für die Anzahl der Bits steht; der Vorrat darstellbarer Werte reicht damit von 0 bis 2n − 1.

Eine Auflösung von 8 Bit, also 1 Byte, entspricht einer relativen Genauigkeit von 1 / 28 = 1 / 256 oder Schritten zu 0,39… Prozent bezüglich des Intervalls.

Anwendung

Kennlinie für einen AD-Umsetzer mit einer Auflösung von 2 Bit

Digitalisierung

Die digitale Auflösung ist etwa beim Umsetzen eines Analog-Signals zum Digital-Wert wichtig, wenn ein Messwert eines Sensors (Helligkeit, Lautstärke oder ähnliches) digital weiterverarbeitet werden soll.

Ein einfaches Beispiel soll das verdeutlichen:

Ein analoger Wert Um in einem Messintervall 0 ... 10 V (= Ur) wird in einen digitalen Wert mit einer Auflösung von 2 Bit umgesetzt (n = 2; 2n = 4). Dann hat man einen Vorrat von 4 Werten im Darstellungsintervall: dezimal 0, 1, 2, 3 oder binär 00, 01, 10, 11 mit der Zuordnung
00 ↔ 0 … 2,5 V; 01 ↔ 2,5 … 5,0 V; 10 ↔ 5,0 … 7,5 V; 11 ↔ 7,5 … 10 V
Ein Digit oder Ziffernschritt entspricht einem Spannungsschritt von 2,5 V. Die relative Auflösung ergibt sich zu 25 %

Die Genauigkeit ist umso höher, je mehr Bit bei der Umsetzung zur Verfügung stehen. Ein Analog-Digital-Umsetzer mit 12 Bit hat eine wesentlich feinere Auflösung (im Beispiel rund 2,5 mV) als einer mit 8 Bit (39 mV).

Computergrafik

Unter normalen Bedingungen kann das menschliche Auge etwa 100 Helligkeitsstufen einer Farbe unterscheiden.

Beim Schwarzweißsignal einer Computergrafik reicht eine Genauigkeit von 8 Bit aus, um mit den daraus resultierenden 256 Schattierungen ein natürlich erscheinendes Bild abzuspeichern (Grauwertbild). Nur wenn der Kontrast später stark verändert werden soll, ist eine höhere Genauigkeit nötig.

Anders verhält es sich mit Farbbildern: 256 Farben führen zu mangelhaften, körnigen oder comichaften Aufnahmen, so dass heute meistens jeder der drei Farbkanäle (rot, grün, blau) mit 8 Bit gespeichert wird.

Je nach Ausgabegerät (Monitor, Drucker) ergeben sich auch hier nochmal Einschränkungen, die ggf. berücksichtigt werden müssen.

Tonaufnahmen

Bis ungefähr 1995 arbeiteten die meisten Soundkarten mit Acht-Bit-Genauigkeit, wo noch ein leises Hintergrundrauschen zu hören ist. Bei Audio-CDs und moderneren Soundkarten sind je 16 Bit pro Kanal üblich (rechts und links). Bei der Sprachübertragung mittels ISDN wird das analoge Eingangssignal mit einer Genauigkeit von 12 Bit pro Wert abgetastet und anschließend auf 8 Bit komprimiert, wobei die Besonderheiten der menschlichen Wahrnehmung berücksichtigt werden.

Viele Programme der Musikproduktion arbeiten mit 32 Bit (Gleitkomma), was zwar für die Programmierer bequemer ist, aber nur in Räumen genutzt werden kann, die eine entsprechende Dynamik erlauben (unter der Voraussetzung dass auch das Orginalsignal mit mehr als 16 Bit Genauigkeit aufgezeichnet wurde).

Die gängige Bezeichnung bei Soundkarten und Software ist einfach 'Auflösung'. Meist zu finden in Verbindung mit der Samplingfrequenz (Abtastrate). Beispiel: 16 Bit / 48 kHz.

Siehe auch

Digitale Messtechnik


Wikimedia Foundation.

Игры ⚽ Поможем написать курсовую

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Acht-Bit-Genauigkeit — Die digitale Auflösung beschreibt, wie fein gestuft eine ursprünglich kontinuierlich veränderliche Größe bei einer digitalen Mess oder Rechenoperation digital dargestellt werden kann oder wie genau allein von der Digitalisierung her, ohne weitere …   Deutsch Wikipedia

  • Genauigkeit — ist ein Begriff, der in sämtlichen Wissenschaften eine zentrale Rolle spielt. Genauigkeit bedeutet Sorgfalt, Gründlichkeit, Richtigkeit, Zielgerichtetheit, Übereinstimmung. Der Begriff Exaktheit (v. lat.: exigere abwägen) wird beispielsweise in… …   Deutsch Wikipedia

  • Hidden bit — Eine Gleitkommazahl (auch Gleitpunktzahl oder Fließkommazahl; engl. floating point number) ist eine approximative Darstellung einer reellen Zahl. Die Menge der Gleitkommazahlen ist eine endliche Teilmenge der rationalen Zahlen. Zusammen mit den… …   Deutsch Wikipedia

  • Doppelte Genauigkeit — Format einer Zahl in doppelter Genauigkeit nach IEEE 754 In der Informatik ist doppelte Genauigkeit (engl. double precision oder auch nur double) eine Bezeichnung für ein Zahlenformat, das acht Byte im Rechner belegt (statt nur vier, wie es bei… …   Deutsch Wikipedia

  • Einfache Genauigkeit — In der Informatik ist einfache Genauigkeit (engl. single precision oder auch nur single) eine Bezeichnung für ein Gleitkommaformat, das eine Speichereinheit im Rechner belegt. Damit sind die genauen Details abhängig vom Rechnerhersteller und… …   Deutsch Wikipedia

  • Vierfache Genauigkeit — In der Informatik ist vierfache Genauigkeit (engl. quad precision) eine Bezeichnung für ein Zahlenformat, das vier Speichereinheiten im Rechner belegt. Damit sind die genauen Details abhängig vom Rechnerhersteller und dessen Speicherarchitektur.… …   Deutsch Wikipedia

  • Akribie — Genauigkeit ist ein Begriff, der in den gesamten Wissenschaften eine zentrale Rolle spielt. Genauigkeit bedeutet Sorgfalt, Gründlichkeit, Richtigkeit, Zielgerichtetheit, Übereinstimmung, Akribie. Der Begriff Exaktheit (v. lat.: exigere abwägen)… …   Deutsch Wikipedia

  • Exaktheit — Genauigkeit ist ein Begriff, der in den gesamten Wissenschaften eine zentrale Rolle spielt. Genauigkeit bedeutet Sorgfalt, Gründlichkeit, Richtigkeit, Zielgerichtetheit, Übereinstimmung, Akribie. Der Begriff Exaktheit (v. lat.: exigere abwägen)… …   Deutsch Wikipedia

  • Genau — Genauigkeit ist ein Begriff, der in den gesamten Wissenschaften eine zentrale Rolle spielt. Genauigkeit bedeutet Sorgfalt, Gründlichkeit, Richtigkeit, Zielgerichtetheit, Übereinstimmung, Akribie. Der Begriff Exaktheit (v. lat.: exigere abwägen)… …   Deutsch Wikipedia

  • Denormalisierte Zahl — Die Norm IEEE 754 (ANSI/IEEE Std 754 1985; IEC 60559:1989 International version) definiert Standarddarstellungen für binäre Gleitkommazahlen in Computern und legt genaue Verfahren für die Durchführung mathematischer Operationen, insbesondere für… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”