Messdaten erfassen

5 Tipps, um die passende Hardware für die Datenerfassung zu finden

Seite: 2/2

Anbieter zum Thema

3. Wie schnell müssen Abtastwerte erfasst oder erzeugt werden?

Eine der wichtigsten Spezifikationen eines Datenerfassungsgeräts ist die Abtastrate. Diese gibt die Geschwindigkeit an, mit der der A/D-Wandler des Geräts Abtastwerte eines Signals erfasst. Typische Abtastraten sind entweder hardware- oder softwaregesteuert und erreichen Geschwindigkeiten bis zu 2 MS/s. Die Abtastrate einer Anwendung hängt von der Maximalfrequenz des Signals ab, das gemessen oder erzeugt werden soll.

Das Nyquist-Theorem besagt, dass ein Signal originalgetreu rekonstruiert werden kann, indem mit einer Frequenz abgetastet wird, die mindestens zweimal so hoch ist wie die höchste relevante Frequenz des Signals. In der Praxis ist es besser, die Maximalfrequenz mindestens zehn Mal abzutasten, um die Form des Signals wiederzugeben. Die Entscheidung für ein Datenerfassungsgerät mit einer Abtastrate, die mindestens dem Zehnfachen der Frequenz des Signals entspricht, stellt sicher, dass eine präzisere Darstellung des Signals gemessen oder erzeugt wird.

Als Beispiel soll eine Sinuskurve gemessen werden, die eine Frequenz von 1 kHz hat. Gemäß dem Nyquist-Theorem muss die Abtastung bei mindestens 2 kHz erfolgen. Es wird jedoch empfohlen, bei 10 kHz abzutasten, um eine präzisere Signaldarstellung zu messen oder zu erzeugen. Bild 1 zeigt den Vergleich zwischen einer 1-kHz-Sinuskurve, die einmal mit 2 kHz und einmal mit 10 kHz gemessen wird. Sobald die Maximalfrequenz des zu messenden bzw. zu erzeugenden Signals bekannt ist, kann ein Datenerfassungsgerät mit der entsprechenden Abtastrate ausgewählt werden.

4. Wie gering kann die kleinste noch feststellbare Veränderung eines Signals sein?

Die kleinste noch feststellbare Veränderung eines Signals bestimmt die Auflösung, über die das Datenerfassungsgerät verfügen muss. Die Auflösung beschreibt die Anzahl der binären Zahlenwerte, die dem A/D-Wandler zur digitalen Repräsentation eines Analogsignals zur Verfügung stehen. Als Beispiel dient eine Sinuskurve, die mit unterschiedlichen Auflösungen durch einen A/D-Wandler digitalisiert wird.

Bild 2 zeigt den Vergleich zwischen einem A/D-Wandler mit 3 Bit und mit 16 Bit. Ein 3-Bit-Wandler kann bis zu acht (2³) diskrete Spannungswerte darstellen. Ein 16-Bit-Wandler kann bis zu 65.536 (216) Werte darstellen. Die Darstellung der Sinuskurve mit einer 3-Bit-Auflösung gleicht mehr einer Schrittfunktion als einer Sinuskurve. Der A/D-Wandler mit 16 Bit hingegen bietet eine saubere Sinuskurve. Typische Datenerfassungsgeräte haben einen Spannungsbereich von ±5 V oder ±10 V. Die Spannungswerte, die darstellbar sind, werden gleichmäßig über einen ausgewählten Bereich verteilt, um so die komplette Auflösung zu nutzen. So kann ein Datenerfassungsgerät mit einem Bereich von ±10 V und einer Auflösung von 12 Bit (212 oder 4096 gleichmäßig verteilte Werte) eine Veränderung von 5 mV erkennen. Ein Gerät mit einer Auflösung von 16 Bit (216 oder 65.536 gleichmäßig verteilte Werte) kann dagegen eine Veränderung von 300 µV feststellen.

Mit Geräten, die eine Auflösung von 12, 16 oder 18 Bit besitzen, werden etliche Anwendungsanforderungen erfüllt. Werden allerdings Sensoren mit kleinen und großen Spannungsbereichen gemessen, kann der Dynamikbereich eines Geräts mit 24 Bit von Vorteil sein. Der Spannungsbereich und die Auflösung für eine Anwendung sind bestimmende Faktoren bei der Auswahl des geeigneten Geräts.

5. In welchem Umfang werden Messfehler von einer Anwendung toleriert?

Genauigkeit ist ein Maß für die Fähigkeit eines Messgeräts, den Wert eines gemessenen Signals verlässlich anzugeben. Obwohl dieser Begriff nichts mit der Auflösung zu tun hat, kann die Genauigkeit nie größer sein als die Auflösung des Messgeräts.

Wie die Genauigkeit der Messung angegeben wird, hängt von der Art des Messgeräts ab. Ein ideales Messgerät misst den wahren Wert immer mit 100-prozentiger Sicherheit. In der Realität geben Messgeräte allerdings einen Wert mit einer vom Hersteller festgelegten Unsicherheit an. Die Unsicherheit hängt von etlichen Faktoren wie Systemrauschen, Verstärkungsfehler, Offset-Fehler und Nichtlinearität ab.

Eine geläufige Spezifikation für die vom Hersteller festgelegte Unsicherheit ist die absolute Genauigkeit. Diese Spezifikation definiert den Fehler eines Datenerfassungsgeräts im ungünstigsten Fall in einem bestimmten Bereich. Eine Beispielrechnung für die absolute Genauigkeit eines Multifunktionsgeräts von National Instruments ist folgende: Absolute Genauigkeit = ([Messwert x Verstärkungsfehler] + [Spannungsbereich x Offset-Fehler] + Unsicherheit des Rauschens). Als Ergebnis beträgt die Absolute Genauigkeit 2,2 mV. Zu beachten ist dabei, dass die Genauigkeit eines Messgeräts nicht nur vom Gerät selbst abhängt, sondern auch vom gemessenen Signaltyp.

Ist das gemessene Signal verrauscht, wird die Genauigkeit der Messung davon stark in Mitleidenschaft gezogen. Der Markt bietet ein großes Angebot an Datenerfassungsgeräten mit unterschiedlichen Genauigkeitsgraden und in verschiedenen Preisklassen. Einige Geräte bieten Selbstkalibrierung, Isolierung und weitere Schaltkreise, um die Genauigkeit zu verbessern.

Ein einfaches Datenerfassungsgerät stellt eine absolute Genauigkeit von über 100 mV bereit, wohingegen ein Gerät mit den genannten Funktionen eine absolute Genauigkeit von um die 1 mV haben kann. Sobald klar ist, welche Anforderungen die Genauigkeit erfüllen soll, kann ein Datenerfassungsgerät mit einer entsprechenden absoluten Genauigkeit für eine Anwendung ausgesucht werden.

* Stefan Albert ist Regional Product Engineer bei National Instruments in München.

(ID:32295110)