Digitales Speicheroszilloskop und digitaler Spektrum

Transcription

Digitales Speicheroszilloskop und digitaler Spektrum
INSTITUT FÜR MESS- UND REGELUNGSTECHNIK
MIT MASCHINENLABORATORIUM
UNIVERSITÄT KARLSRUHE (TH)
76131 KARLSRUHE
ENGLER-BUNTE-RING 21
FON: (0721) 608 23 34
FAX: (0721) 66 18 74
PROF. DR.-ING. C. STILLER
Digitales Speicheroszilloskop und
digitaler Spektrum-Analysator
F. Mesch, A. Worch, A. Kapp, C. Duchow, M. Roser
Lernziele
1. Aufbau und Arbeitsweise eines digitalen Speicheroszilloskops
2. Aufbau und Anwendungsmöglichkeiten eines digitalen Spektrum-Analysators
Inhaltsverzeichnis
1
Einleitung
3
2
Digitales Speicheroszilloskop
3
2.1
Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
2.2
Aufbau des digitalen Speicheroszilloskops . . . . . . . . . . . . . . . . . .
3
2.3
Triggerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
2.4
Einfluss der Abtastung . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
2.5
Betriebsarten und Rechenfunktionen . . . . . . . . . . . . . . . . . . . . .
6
3
Digitaler Spektrum-Analysator
7
3.1
Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
3.2
Aufbau eines Spektrum-Analysators . . . . . . . . . . . . . . . . . . . . .
8
3.3
Diskrete Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . .
8
3.4
Stochastische Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
3.4.1
Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
3.4.2
Korrelationsfunktion . . . . . . . . . . . . . . . . . . . . . . . . .
17
A2 – 1
3.4.3
Leistungsdichte-Spektrum . . . . . . . . . . . . . . . . . . . . . .
18
3.4.4
Streuung der Schätzwerte . . . . . . . . . . . . . . . . . . . . . .
20
3.4.5
Anwendung: Laufzeitmessung . . . . . . . . . . . . . . . . . . . .
22
4 Versuchsdurchführung
23
4.1
Digitales Speicheroszilloskop . . . . . . . . . . . . . . . . . . . . . . . . .
23
4.2
Spektrum-Analysator . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
A Abbildungen
26
A2 – 2
1
Einleitung
Ingenieure aller Fachrichtungen werden in zunehmendem Maße mit der Aufgabe konfrontiert, schnell und ohne ausführliche Einarbeitung elektrische Signale messen oder analysieren zu müssen. Ziel des Versuchs ist es deshalb, die gängigsten Werkzeuge zum Messen,
Darstellen und Auswerten elektrischer Signale, das digitale Oszilloskop und den SpektrumAnalysator, kennen und bedienen zu lernen. Die Arbeitsweise der Geräte und der theoretische Hintergrund sollen kurz erläutert und konkrete, praxisrelevante Signale untersucht und
ausgewertet werden.
2
Digitales Speicheroszilloskop
2.1 Allgemeines
Konventionelle analoge Oszilloskope [9] können nur periodisch wiederholte Signale darstellen. Zur analogen Speicherung einmaliger Signale behalf man sich früher mit einer speziellen nachleuchtenden Beschichtung des Bildschirms. Mit dem Aufkommen der Digitaltechnik
entstanden Transientenrekorder, mit denen elektrische Einzelsignale digital gespeichert und
weiterverarbeitet werden konnten.
Die heutigen digitalen Speicheroszilloskope vereinen im Prinzip einen Transientenrekorder
mit einem Oszilloskop. Dazu kommen meistens noch Signalprozessoren zur digitalen Signalverarbeitung. Bei diesen Oszilloskopen wird das digital gespeicherte Signal in beliebig
einstellbarem Zeitmaßstab ausgelesen und periodisch wiederholt, so dass auch bei einmaligen Originalsignalen ein stehendes Bild auf dem Schirm entsteht. Die obere Grenzfrequenz
digitaler Oszilloskope ist nur durch die maximale Abtastrate der verfügbaren A/D- Wandler bestimmt, die mit der rasch fortschreitenden Halbleitertechnologie zunimmt. Bei analogen Oszilloskopen dagegen ist die maximale Schreibgeschwindigkeit physikalisch durch die
Strahlablenkung begrenzt.
Die digitale Signalspeicherung bietet neben der Sichtdarstellung auch die Möglichkeit, die
Signale extern aufzuzeichnen und zu dokumentieren. Darüber hinaus ermöglicht sie weitere
Funktionen wie die Detektion von Spitzenwerten, die Dehnung von Signalausschnitten, das
genaue Ausmessen von Signalwerten mit einem Cursor, die automatische Wahl und Speicherung der Einstellparameter und andere Komfortfunktionen. Je nach Gerätetyp ist auch eine
weitere Verarbeitung der gespeicherten Signale möglich (Abschnitt 2.5). Diesen Vorteilen
stehen gewisse Nachteile und Fehlermöglichkeiten gegenüber, die auf der Diskretisierung
von Zeit und Amplitude beruhen (Abschnitt 2.4).
Im Folgenden werden Arbeitsweise und Besonderheiten heutiger Digitaloszilloskope allgemein erläutert, ohne auf bestimmte Gerätetypen einzugehen.
2.2 Aufbau des digitalen Speicheroszilloskops
Abbildung 1 zeigt das Blockschaltbild eines zweikanaligen Speicheroszilloskops. Die
Eingangsverstärker (links im Bild) für Eingangs- und Triggersignale, der Wahlschalter für
A2 – 3
die Triggerquelle und der Schwellwertschalter entsprechen einem analogen Oszilloskop.
Darauf folgt in jedem der beiden Kanäle nach einem Tiefpass (s. Abschnitt 2.4) ein A/DWandler.
Abbildung 1: Blockschaltbild eines digitalen Zweikanal-Oszilloskops (entnommen [7]).
Die digitalisierten Signale gelangen in den Speicher, welcher aus einem schnellen Aufnahmespeicher, einem Arbeitsspeicher und einem Wiedergabespeicher besteht. Aus dem
Wiedergabe/-speicher werden die Signale zyklisch ausgelesen und D/A-gewandelt. Die BildWiederholfrequenz ist unabhängig vom Zeitmaßstab und wird automatisch so gewählt, dass
sich ein stehendes, flackerfreies Bild ergibt.
Wie in Abbildung 1 rechts angedeutet kann für die Visualisierung eine konventionelle Elektronenstrahlröhre mit elektrostatischer Ablenkung verwendet werden. Üblicher sind heute
Rasterbildschirme, das sind Elektronenstrahlröhren, bei denen eine magnetische Ablenkung
wie bei herkömmlichen Fernsehern ein Raster erzeugt, das punktweise hellgesteuert wird.
Hiermit ist es viel einfacher, neben den Signalen auch alphanumerische Zeichen darzustellen.
Da die Bildschirmgrößen bei Oszilloskopen begrenzt sind, bieten sich heute auch Flachbildschirme z.B. in LCD-Technik (Liquid-Crystal-Display) an. Diese ermöglichen eine verzerrungsfreie Darstellung. Es handelt sich hier um passive (nicht selbst leuchtende) Bildschirme
mit einer Hintergrundbeleuchtung. Mit entsprechendem Aufwand können diese Flachbildschirme auch für eine farbige Darstellung ausgeführt werden. Wesentliche technische Vorteile der Flachbildschirme gegenüber Elektronenstrahlröhren sind die geringe Einbautiefe,
das relativ geringe Gewicht und der Entfall der aufwendigen Hochspannungsversorgung.
2.3 Triggerung
Besonders vorteilhaft sind beim Speicheroszilloskop die Triggermöglichkeiten. Bei analogen Oszilloskopen (ohne Speicher) war es schwierig, das Signal unmittelbar zum Triggerzeitpunkt darzustellen. Hier behalf man sich mit analogen Verzögerungsleitungen, die das
Eingangssignal gegenüber dem Triggersignal verzögerten.
A2 – 4
Im Gegensatz dazu werden bei digitalen Oszilloskopen die Eingangssignale laufend gewandelt und zwischengespeichert. Durch die Triggerung wird die Wandlung angehalten, so dass
der Speicher auch vorher liegende Messwerte enthält (Vor-Triggerung, engl. pre-trigger).
Damit kann sogar ein Teil der Vorgeschichte des Signals vor dem Triggerereignis gezeigt
werden.
Die übrigen Triggerfunktionen (Triggerniveau, Anstiegsflanke, Triggerquelle) entsprechen
denen bei Analog-Oszilloskopen.
2.4 Einfluss der Abtastung
Das in [8] ausführlich behandelte Abtasttheorem besagt, dass ein Signal aus seinen Abtastwerten rekonstruiert werden kann, wenn drei Bedingungen erfüllt sind:
1. Das Eingangssignal ist bandbegrenzt mit der Grenzfrequenz fg .
2. Die Abtastfrequenz ist mindestens gleich der doppelten Nyquistfrequenz fg , d. h. fa ≥
2fg .
3. Für die Rekonstruktion steht ein idealer Tiefpass zur Verfügung.
Speicheroszilloskope verletzen diese Bedingungen in zweierlei Hinsicht.
Erstens wird der Eingangstiefpass (links in Abbildung 1) meist nur für die höchstmögliche
Abtastfrequenz fa ausgelegt, die durch den A/D-Wandler gegeben ist. Bei einer um den
Faktor N langsameren Zeitablenkung würden mit dieser Abtastfrequenz N mal soviele Daten (pro Bildschirmbreite) anfallen. Daher wird die effektive Abtastrate abhängig von der
gewählten Zeitablenkung so gewählt, dass über die Bildschirmbreite typisch 1000 Abtastwerte zur Verfügung stehen. Die Grenzfrequenz des analogen Eingangstiefpasses wird dabei
aber üblicherweise nicht angepasst.
Realisiert wird die Untersetzung der Abtastrate fa /N dadurch, dass der A/D-Wandler zwar
mit seiner maximalen Abtastrate fa weiterläuft, dass aber nur jeder N -te Abtastwert aufgezeichnet wird. Dieses Verfahren bietet die Möglichkeit, die mit fa gewonnenen Daten für
eine Vorverarbeitung zu nutzen. Beispielsweise ist eine digitale Tiefpassfilterung – im einfachsten Fall eine Mittelwertbildung – möglich, so dass der analoge Eingangstiefpass vor der
Abtastung durch ein digitales Filter nach der Abtastung ersetzt wird. Oder man kann den Extremwert des (mit fa abgetasteten) Signalverlaufs innerhalb eines Intervalls N/fa erfassen,
um so eine angenäherte Spitzenwertdetektion zu realisieren. In diesem Fall ist folglich die
erste Bedingung des Abtasttheorems – die Bandbegrenztheit des Eingangssignals – verletzt.
Zweitens fehlt der ideale Tiefpass zur Rekonstruktion des Signals, der nach Bedingung 3 des
Abtasttheorems erfordert wird.
Für die Darstellung der Kurvenzüge auf dem Bildschirm gibt es verschiedene Verfahren.
Bei der Punktdarstellung werden die fa /N Abtastpunkte einzeln und ohne jede Interpolation hellgetastet. Das Auge ist kein idealer Tiefpass, sondern es verbindet die jeweils
nächstliegenden Punkte. Gehören diese zu verschiedenen Perioden eines hochfrequenten
Signals, werden fälschlicherweise Schwebungen wahrgenommen, die tieffrequente Signale vortäuschen. Besser ist daher die Verbindung benachbarter Punkte durch eine Gerade,
A2 – 5
anders ausgedrückt, die lineare Interpolation, die einer Tiefpassfilterung entspricht [8].
Ein idealer Tiefpass würde die Interpolation mit sin(t)/t-Funktionen bedeuten [8], die zeitlich nicht beschränkt und daher nicht realisierbar ist.
Wegen der genannten beiden Abweichungen vom Abtasttheorem muss die wirkliche Abtastfrequenz deutlich höher sein als die Nyquistfrequenz.
Diese Überlegungen betreffen in erster Linie die Hersteller digitaler Speicheroszilloskope.
Der Anwender bemerkt davon wenig, wenn er das Speicheroszilloskop nur zur Anzeige von
Signalen benutzt. Bei den wenigsten Geräten kann er die Abtastrate überhaupt unabhängig
von der Zeitablenkung einstellen.
Bei den Geräten wird eine weitgehende Narrensicherheit durch eine Speichertiefe von typisch 1000 Abtastwerten je Bildschirmbreite erreicht, die ungefähr 10 Abtastwerten/mm
entsprechen. Da das Auge höchstens eine Schwingungsperiode/mm auflösen kann, bedeutet dies eine fünffache Überabtastung. Probleme können aber entstehen, wenn die Zeitbasis
nach der Abtastung gedehnt wird, z.B. um den Faktor 10 ( Zooming“). In diesem Fall, ins”
besondere in der Betriebsart Punktdarstellung, ist Vorsicht geboten.
Selbstverständlich muss der Benutzer auch auf Abtastprobleme achten, wenn die Daten nicht
nur unter den beschriebenen Bedingungen angezeigt, sondern bereits im Rechner vorverarbeitet werden.
Bei manchen Speicheroszilloskopen stößt man auf unterschiedliche Angaben zur Bandbreite
für einmalige und für periodische Eingangssignale: erstere ist durch die maximale Abtastfrequenz fa der A/D-Wandler begrenzt, letztere kann viel höher sein. Erreicht wird dies
durch das Prinzip des sequentiellen Abtastens, das auch schon bei analogen Geräten unter
der Bezeichnung Sampling-Oszilloskope bekannt war. Bei periodischen Signalen erhöht man
die effektive Abtastfrequenz um den Faktor N dadurch, dass man insgesamt N Perioden des
Eingangssignals verarbeitet. Jede Periode der Länge T bewirkt eine Triggerung, die eine Abtastung auslöst, wobei die Zeit zwischen Triggerung und Abtastung jeweils um ein kleines
Zeitintervall T /N verlängert wird. Werden diese Abtastwerte der Reihe nach abgespeichert,
so ergibt sich beim Auslesen der Zeitverlauf des Eingangssignals.
Bedingung für dieses Verfahren ist natürlich ein stabiles, streng periodisches Eingangssignal
und eine entsprechend genaue, phasenfehlerfreie Triggerung.
2.5 Betriebsarten und Rechenfunktionen
Die bei analogen Oszilloskopen möglichen Funktionen wie etwa X-Y-Betrieb und die Addition bzw. Subtraktion von Eingangssignalen sind bei digitalen Speicheroszilloskopen natürlich
auch möglich und werden hier nicht besprochen.
Eine Betriebsart speziell für sehr langsame Vorgänge ist der Roll-Modus. Bei diesen
Vorgängen stört die normale, periodisch von vorn beginnende Zeitablenkung, da man entweder nur eine sehr schlechte Zeitauflösung hat oder nur einen Teil des Signals auf dem
Bildschirm sieht. Beim Roll-Modus werden die eingelesenen Werte von rechts nach links
über den Bildschirm geschoben, als ob sie von einer Papierrolle abgewickelt würden.
Im Fall der Vielfachdarstellung werden die letzten paar Signalverläufe mit dargestellt, so
dass man den aktuellen mit früheren Verläufen vergleichen kann.
A2 – 6
Unter der Einstellung Mittelwertbildung (engl. average mode) werden mehrere Signalverläufe punktweise gemittelt. Bei Signalen mit periodischem Nutzanteil und überlagertem
Rauschen ist so eine Störunterdrückung möglich, sofern die Triggerung nicht selbst durch
das Rauschen gestört wird. In dieser Betriebsart ist daher eine externe Triggerung auf ein
unverrauschtes Signal empfehlenswert.
Bei der Hüllkurvendarstellung (engl. envelope mode) werden nur Maxima und Minima der
Signale dargestellt. So werden bei modulierten Signalen nur die Hüllkurven sichtbar.
Digitale Speicheroszilloskope bieten eine Reihe von Messfunktionen. So können Frequenzen/Perioden, Maximalwerte und Anstiegs- und Abfallzeiten automatisch vermessen werden. Man kann auch mit eingeblendeten senkrechten oder waagrechten Bezugslinien (engl.
cursor) Amplituden- oder Zeitwerte messen. Die Genauigkeit ist dabei durch die Auflösung
der A/D-Wandler bestimmt und wird nicht durch Nichtlinearitäten der Bildschirmröhre beeinträchtigt.
Weitere Funktionen finden sich in [6], [4].
3
Digitaler Spektrum-Analysator
3.1 Allgemeines
Für eingehende Signalanalysen bietet das sogenannte Spektrum viele Vorteile. Der Ausdruck
entstammt der Optik, wo er für das in Spektralfarben zerlegte Licht verwendet wurde. Heutzutage wird damit die Zerlegung eines Signals in seine Frequenzanteile bezeichnet, also
die Darstellung von Signalamplituden über der Frequenz. Damit lassen sich die einzelnen
harmonischen Anteile eines Signals leicht erkennen, wie dies z.B. bei der Geräuschanalyse
oder in der Schwingungstechnik von Interesse ist. Auch bei stochastischen Signalen (Zufallsschwingungen) bietet die Spektralanalyse viele Vorteile.
Für die Analyse linearer dynamischer Systeme müssen deren Ein- und Ausgangssignale miteinander in Beziehung gebracht werden. Spektralanalysatoren bieten daher auch die
Möglichkeit, zwei Signale zu verknüpfen und auf lineare Abhängigkeiten zu untersuchen,
wie dies etwa bei der Korrelation geschieht.
Die Spektralanalyse beruht auf der Fouriertransformation, die bereits in [8] behandelt wurde.
In Abschnitt 3.3 wird deren diskrete Form eingeführt. Die untersuchten Signale können dabei
periodisch oder stochastisch sein.
Die Analyse stochastischer Signale erfordert – im Vergleich zur Untersuchung deterministischer Signale – weitergehende Überlegungen. Die Ergebnisse müssen gemittelt werden,
und es treten stochastische Fehler auf. Eine Beschreibung stochastischer Signale ist nur mit
Methoden der Wahrscheinlichkeitslehre möglich, deren Darstellung eine Versuchsanleitung
nicht leisten kann. In Abschnitt 3.4 wird daher versucht, einige Grundbegriffe elementar und
anschaulich zu erklären.
A2 – 7
3.2 Aufbau eines Spektrum-Analysators
Digitale Spektrum-Analysatoren sind im Prinzip ähnlich aufgebaut wie in Bild 1 für das
Speicheroszilloskop gezeigt. Der Rechner ist allerdings wesentlich leistungsfähiger, insbesondere was arithmetische Operationen (v.a. Addition und Multiplikation) anbetrifft. Die
wichtigste Operation ist die schnelle Fourier-Transformation (FFT, siehe Abschnitt 3.3),
wofür spezielle Prozessoren verwendet werden.
Wichtig ist ferner das Verknüpfen zweier Signale, weswegen immer zwei Eingangskanäle
mit genau synchroner Abtastung vorhanden sind.
3.3 Diskrete Fourier-Transformation
Ausgangspunkt ist die Fourier-Transformation [8]
Z ∞
x(t)e−j2πf t dt
X(f ) = F{x(t)} =
(1)
−∞
und ihre Umkehrung
x(t) = F
−1
{X(f )} =
Z
∞
X(f )ej2πf t df .
(2)
−∞
Beide Integrale sind gleich aufgebaut und besitzen eine reelle Integrationsvariablen t bzw. f .
Sie unterscheiden sich nur im Vorzeichen des Exponenten. Aufgrund dieser Symmetrie sind
bei den Korrespondenzen
X(f ) •−−◦ x(t)
die Variablen f und t – unter Beachtung des Vorzeichenwechsels – vertauschbar:
X(t) ◦−−• x(−f ) .
(3)
Für die digitale Verarbeitung müssen Gl. (1) und (2) diskretisiert werden. Die zeitliche Diskretisierung wird mathematisch beschrieben durch Multiplikation der Zeitfunktion mit einem δ-Kamm:
∞
X
xa (t) = x(t) · ∆t
δ(t − k∆t) .
(4)
k=−∞
|
Die zugehörige Fourier-Transformierte lautet
∞
X
{z
δ-Kamm
µ
k
Xa (f ) =
X f−
∆t
k=−∞
}
¶
.
(5)
Die Faktoren ∆t und ∆f wurden ergänzt, damit die δ-Kämme dimensionslos sind.
Die Fouriertransformierte ist periodisch in f, was bedeutet, dass das ursprüngliche Spektrum
bei Vielfachen der Abtastfrequenz fa = 1/∆t periodisch fortgesetzt wird.
A2 – 8
Analog zur Diskretisierung im Zeitbereich wird die Diskretisierung der Frequenz beschrieben durch Multiplikation des Spektrums mit einem Frequenz-δ-Kamm:
Xaa (f ) = Xa (f ) · ∆f
∞
X
δ(f − i∆f ) .
(6)
i=−∞
Wegen der Symmetrie (3) bewirkt dies im Zeitbereich eine entsprechende periodische Fortsetzung der abgetasteten Zeitfunktion mit der Periode 1/∆f :
xaa (t) =
∞
X
i=−∞
xa
µ
i
t+
∆f
¶
.
(7)
Abbildung 2: Diskrete Fourier-Transformation.
Bild 2 stellt die Diskretisierung in Zeit und Frequenz dar.
Auf der linken Seite sind die Zeitfunktionen, rechts die zugehörigen Spektren aufgetragen.
Die Zeitfunktionen sind als um den Nullpunkt gerade symmetrisch angenommen, die Spektren sind daher reell und ebenfalls gerade.
Bild 2a) zeigt die Funktion x(t) und ihr Spektrum vor dem Abtasten, der zeitlichen Diskretisierung.
Bild 2b) zeigt das abgetastete Zeitsignal und das zugehörige, periodische Spektrum. Die Abtastfrequenz wurde gerade so gewählt (frei wählbar!), dass sich die einzelnen Spektren nicht
überlappen, d.h. die Abtastfrequenz entspricht der doppelten Nyquistfrequenz: fa = 2fg .
Bild 2c) zeigt Zeitsignal und Spektrum, nachdem auch die Frequenz diskretisiert worden ist.
Sowohl Zeitfunktion als auch Spektrum sind periodisch. Die Periode 1/∆f wurde gleich der
Länge T der ursprünglichen Zeitfunktion gewählt (frei wählbar!), d.h.
A2 – 9
1
.
∆f
T =
(8)
Da sowohl die diskrete Zeitfunktion xaa (t) als auch das diskrete Spektrum Xaa (f ) periodisch
sind, kann man die Integrationsgrenzen in (1) ersetzen durch die Periode T und in (2) durch
die Periode fa . Wegen der Diskretisierung stehen im Zeitbereich während der Periode nur N
Abtastwerte zur Verfügung, also T = N ∆t. Wegen (8) ist damit aber
1
= N ∆f ,
∆t
fa =
(9)
d.h. auch im Frequenzbereich stehen nur N Abtastwerte zur Verfügung. Damit erhält man
bei Einsetzen von (4) in (1) und von (6) in (2) zunächst
X(i∆f ) = ∆t
N
−1
X
x(k∆t)e−j2πi∆f k∆t
(10)
X(i∆f )ej2πi∆f k∆t ,
(11)
k=0
und
x(k∆t) = ∆f
N
−1
X
i=0
(der Index a wurde weggelassen).
In der Literatur ist es üblich, den Vorfaktor ∆t von (10) dem Vorfaktor ∆f in (11) zuzuschlagen. Mit (9) erhält man dann die Diskrete Fourier-Transformation (DFT)
N
−1
X
X(i∆f ) = DFT{x(k∆t)} =
x(k∆t)e−j2πik/N
(12)
k=0
und ihre Umkehrung
x(k∆t) = DFT−1 {X(i∆f )} =
N −1
1 X
X(i∆f )ej2πik/N .
N n=0
(13)
Zur numerischen Realisierung sei bemerkt, dass die Exponentialfunktionen in (12) und (13)
für ein gegebenes N nur einmal als komplexe Faktoren W ±ik mit W = ej2π/N berechnet
werden müssen. Bei der Berechnung der Summen sind dann N komplexe, d.h. 4N reelle
Multiplikationen für einen Funktionswert nötig, für N Funktionswerte folglich 4N 2 Multiplikationen. Das bedeutet ein quadratisches Anwachsen des Rechenaufwandes mit der Zahl
der Abtastwerte.
In den 60er Jahren wurde nun ein wesentlich effizienterer Algorithmus entwickelt, die
schnelle Fourier- Transformation (engl. Fast Fourier Transform, kurz: FFT). Bei ihr wird
N auf Potenzen 2n beschränkt. Durch geschicktes Ausnutzen von Zwischenergebnissen gelingt es, die Zahl der Multiplikationen auf 2N log2 N zu reduzieren [1]. Dieser Algorithmus
ist so effizient, dass Operationen im Zeitbereich wie etwa die Korrelation (Abschnitt 3.4)
A2 – 10
schneller auf dem Umweg über den Frequenzbereich als direkt im Zeitbereich realisiert werden.
Jedoch auch mit solchen effizienten Algorithmen ist N durch die Rechenzeit und den Speicherplatzbedarf begrenzt. Für den Anwender spielt daher die einfache Gl. (9) eine entscheidende Rolle. Sie besagt, dass bei gegebenem N eine höhere Auflösung im Zeitbereich auf
Kosten der Auflösung im Frequenzbereich geht und umgekehrt.
Gl. (13) entspricht der Entwicklung einer periodischen Funktion in eine Fourierreihe, deren Koeffizienten durch (12) gegeben sind, allerdings beide in etwas ungewohnter, diskreter
Form. Die Grundschwingung dieser Funktion hat die Periode T . Die höchste Oberwelle mit
der Frequenz fg wird mit fa = 2fg abgetastet.
Folglich tritt bei der DFT einer periodischen Funktion – bis zur Oberwelle der Frequenz
fg – überhaupt kein Informations verlust auf, wenn die Periode T = N ∆t der DFT genau
mit der Signalperiode Ts übereinstimmt. Die Werte X(i∆f ) lassen sich dann als diskrete
Spektrallinien, mathematisch als δ-Funktionen, über der Frequenz auftragen. Daher triggern
Spektrum-Analysatoren auf T , wenn dies möglich ist. Wenn dies dagegen bei stark verrauschten Signalen oder bei Signalgemischen mit nicht ganzzahligen Frequenzvielfachen
nicht möglich ist, können beträchtliche Fehler auftreten.
Abbildung 3: Periodisch forgesetztes Sinussignal.
Das wird am Beispiel eines Sinussignals verdeutlicht. Bild 3 zeigt links eine Sinusschwingung, aus der ein Stück der Länge T ≥ Ts herausgeschnitten wird. Dieses Stück wird durch
die DFT periodisch wiederholt und ergibt nach Bild 3 rechts ein Signal, das gegenüber der
Originalschwingung stark verfälscht ist und eine Reihe von Oberschwingungen enthält.
Daher wird jetzt die Auswirkung der Zeitbegrenzung einer Zeitfunktion allgemein und für
den kontinuierlichen Fall betrachtet.
Das Ausschneiden eines Stückes der Länge T aus einer Zeitfunktion x(t) läßt sich mathematisch beschreiben durch Multiplikation von x(t) mit einer Fensterfunktion“, wie sie in
”
Bild 4 links dargestellt ist:
xT (t) = x(t) · rect
mit
A2 – 11
t
T
(14)
t
rect =
T
½
1 für
0 für
|t| < T /2
.
|t| > T /2
(15)
Die Fouriertransformierte dieser Rechteckfunktion ist die sogenannte Sinc-Funktion (auch
Spaltfunktion)
t
sin(πT f )
F{rect } = T
,
T
πT f
(16)
die Abbildung 4 rechts zeigt. Der Multiplikation (14) im Zeitbereich entspricht im Frequenzbereich die Faltung
XT (f ) = T
Z
∞
−∞
X(ϕ)
sin(πT (f − ϕ))
dϕ .
πT (f − ϕ)
(17)
Abbildung 4: Rechteckfensterfunktion und deren Fouriertransformierte.
Das Originalspektrum X(f ) wird mit der Sinc-Funktion gefaltet und somit verschmiert.
Fehler entstehen insbesondere dadurch, dass die Nebenkeulen der Sinc-Funktion Spektralanteile erfassen, die nicht zur Hauptkeule gehören, was man als Leckeffekt bezeichnet (engl.
leakage). Abbildungen 3 und 5 zeigen das für eine periodische Funktion, bei der T = 1, 25Ts
erfasst wurde.
Abbildung 5: Fourier- und DF-Transformation eines Sinussignals mit der Frequenz f = 100 Hz.
A2 – 12
Um derartige Effekte zu vermindern, werden andere Fensterfunktionen verwendet, die die
Zeitfunktion sanfter“ beschneiden und deren Nebenkeulen wesentlich kleiner sind, wie z.B.
”
Dreieckfenster, Cosinusfenster oder die nach ihren Autoren benannten Hamming- und von
Hann- (engl. Hanning-) Fenster [10].
3.4 Stochastische Signale
3.4.1
Grundbegriffe
Die Grundbegriffe werden am Beispiel eines Würfels dargestellt. Der Wurf eines Würfels
ist ein Zufallsexperiment, die geworfene Augenzahl ist eine diskrete Zufallsvariable. (Die
Behandlung kontinuierlicher Zufallsvariablen unterscheidet sich hiervon in einigen Punkten.
Es ist jedoch einfacher, diskrete als kontinuierliche Zufallsprozesse intuitiv zu begreifen.)
Erfasst man von einer Zufallsvariablen Messwerte, stellt dieser Datensatz eine Stichprobe
dar.
Wird der Würfel mehrere Male geworfen, kann der arithmetische Mittelwert der geworfenen
Augenzahlen gemäß
N
1 X
x̄ =
xi
(18)
N i=1
bestimmt werden. (Neben dem arithmetischen Mittelwert gibt es weitere Mittelwerte, etwa
das geometrische Mittel oder den Median.)
Zusätzlich zum Mittelwert ist auch ein Maß für die Streuung der Zufallsvariablen um den
Mittelwert x̄ interessant. Diese Streuung wird mit der Varianz
N
s2x
1 X
(xi − x̄)2 ;
=
N − 1 i=1
(19)
bzw. deren Wurzel sx , Standardabweichung genannt, erfasst.
Beispiel:
Ein normaler“ Würfel mit den Augenzahlen eins bis sechs wird zehnmal geworfen. Das
”
( zufällige“ ) Ergebnis ist: 5, 6, 3, 5, 1, 6, 2, 1, 2, 4. Der Mittelwert berechnet sich daraus zu
”
3,5, die Varianz zu 3,833 und die Standardabweichung zu 1,9579.
Werden zwei Würfel N -mal geworfen, erhält man N zusammengehörende Wertepaare xi , yi ,
für die Mittelwert und Varianz gemäß der obigen Formeln berechnet werden können.
Als Kovarianz der Stichprobe bezeichnet man
N
sxy
1 X
=
(xi − x̄)(yi − ȳ) ;
N − 1 i=1
(20)
Daraus ergibt sich der Korrelationskoeffizient zu
rxy =
sxy
.
sx sy
A2 – 13
(21)
Er ist ein Maß für den linearen Zusammenhang zwischen den Variablen x und y, wie Bild 6
andeutet. Hängt die geworfene Augenzahl des einen Würfels von der des zweiten überhaupt
nicht ab, ist der Korrelationskoeffizient gleich 0. Stimmen die geworfenen Augenzahlen beider Würfel immer überein, nimmt der Korrelationskoeffizient den Maximalwert 1 an.
Abbildung 6: Graphische Darstellung des Ausgangs von zehn Würfen mit jeweils zwei Würfeln
unter Angabe des Korrelationskoeffizienten r.
Anmerkung
Die Stichproben-Größen (18) bis (21) bezeichnet man als Schätzwerte für die wahren“ Werte, die eine unend”
lich groß gedachte Grundgesamtheit (Grundkollektiv) beschreiben. Mathematisch erhält man die wahren Werte
als Erwartungswerte, definiert als
∞
X
µx = E{x} =
xi pi (x)
(22.a)
i=1
∞
X
(xi − µx )2 pi (x) dx
σx2 = E{(x − µx )2 } =
(23.a)
i=1
σxy = E{(x − µx )(y − µy )} =
∞
∞ X
X
(xi − µx )(yj − µy )pi,j
(24.a)
i=1 j=1
für die diskrete Zufallsvariable x mit den Einzelwahrscheinlichkeiten pi und den Verbundwahrscheinlichkeiten
pi,j bzw.
µx = E{x} =
Z
∞
Z
∞
xw(x) dx
(22.b)
(x − µx )2 w(x) dx
(23.b)
−∞
σx2 = E{(x − µx )2 } =
σxy = E{(x − µx )(y − µy )} =
Z
∞
−∞
−∞
Z
∞
(x − µx )(y − µy )w(xy) dxdy
(24.b)
−∞
für die kontinuierliche Zufallsvariable x mit der Wahrscheinlichkeitsverteilungsdichte w(x) und der Verbundverteilungsdichte w(x, y) der beiden Zufallsvariablen (x, y).
Die Schätzwerte sind selbst Zufallsgrößen. Für verschiedene Stichproben streuen die Werte um den wahren
Wert. Die Streuung beispielsweise von x̄ wird beschrieben durch die Varianz
σx̄2 = σx2 /N ,
A2 – 14
(25)
wobei unkorrelierte Werte xi vorausgesetzt wurden.
Man nennt einen Schätzer erwartungstreu, wenn sein Erwartungswert gleich dem wahren Wert ist. Für die
Schätzer (19) bis (20) trifft dies zu:
E{x̄} = µx , E{s2x } = σx2 , E{sxy } = σxy .
(26)
Bei den bisher betrachteten Zufallsgrößen x, y spielte die Zeit keine Rolle. Es wird nun ein
von der Zeit zufällig abhängiges Signal x(t) betrachtet.
Die (unendlich groß gedachte) Schar solcher Signale, die unter genau gleichen Bedingungen
erzeugt wurden, nennt man stochastischer Prozess, der begrifflich der Grundgesamtheit entspricht. Ein einzelnes Zeitsignal nennt man Realisierung oder Musterfunktion des Prozesses.
Wenn man nun zu einem festen Zeitpunkt t1 die Werte xi (t1 ) der Schar betrachtet, so stellen
diese eine Zufallsvariable im obigen Sinne dar, für welche Mittelwert und Varianz nach (22,
23) und deren Schätzwerte nach (18, 19) bestimmt werden können.
Führt man noch einen weiteren festen Zeitpunkt t2 ein, erhält man eine zweite Zufallsvariable
xi (t2 ). Ersetzt man in (20) und (24) y durch xi (t2 ), erhält man entsprechend die Kovarianz
und ihren Schätzwert für den an zwei verschiedenen Zeitpunkten betrachteten Prozess.
Wieder am Beispiel des Würfels:
Die gleichzeitige Erzeugung mehrerer solcher Signale bedeutet, dass zu jedem betrachteten Zeitpunkt mehrere Würfel geworfen werden, deren Augenzahlen getrennt in einem Diagramm aufgetragen werden können. Die Gesamtheit aller“ Würfel stellt einen stochasti”
schen Prozess dar, ein einzelner Würfel ist eine Realisierung dieses Prozesses.
Untersucht man die geworfenen Augenzahlen der einzelnen Würfel zu einem festen Zeitpunkt k1 , handelt es sich um eine Zufallsvariable, die angibt, mit welcher Wahrscheinlichkeit
welche Augenzahl gefallen ist.
Wird ein weiterer Zeitpunkt k2 festgelegt, kann die Kovarianz bestimmt werden.
Abbildung 7: Stochastischer Prozess.
Für das Folgende wird die wichtige Voraussetzung getroffen, dass der Prozess stationär sei.
A2 – 15
Damit ist gemeint, dass seine Statistik unabhängig von der Zeit ist. Speziell für die Zufallsvariablen xi (t1 ) und xi (t2 ) bedeutet dies, dass die Verteilungsdichte w(x) gar nicht von der
Zeit und die Verbundverteilungsdichte w(x(t1 ), x(t2 )) nur von der Zeitdifferenz τ = t2 − t1
abhängt.
Wieder am Beispiel des Würfels: Die Einzelwahrscheinlichkeit, z.B. eine 2“ zu würfeln, ist
”
unabhängig davon, wann gewürfelt wird, wenn der Prozess stationär ist. Wäre er instationär,
wäre die Wahrscheinlichkeit abhängig vom Zeitpunkt des Würfelns. (Vorsicht: Die Einzelwahrscheinlichkeit kann nicht aus einem oder vielen Würfen bestimmt werden sondern nur
über die Gesamtheit aller (unendlich vieler) möglichen Realisierungen.)
Wenn weiterhin vorausgesetzt, dass der Prozess auch ergodisch [2] ist, kann der Scharmittelwert über viele Realisierungen zu einem festen Zeitpunkt t1 ersetzt werden durch das
zeitliche Mittel über eine einzige Realisierung. Der Datensatz xi kann dann aufgefasst werden als Folge von Abtastwerten xi = x(i∆t) eines einzigen Signals x(t). Die zugehörigen
Schätzer (18)–(20) behalten damit die gleiche Form.
Am Beispiel des Würfels:
Ist der zugrundeliegende stochastische Prozess ergodisch, erhält man den gleichen Mittelwert, wenn man einen Würfel sehr viele Male (eigentlich unendlich oft) wirft (zeitliches
Mittel über eine Realisierung) oder wenn man zu einem festen Zeitpunkt sehr viele Würfel
wirft (Scharmittelwert).
Da oft nur eine einzige Realisierung des stochastischen Prozesses vorliegt, wird häufig die
Annahme getroffen, der Prozess sei ergodisch. Unter dieser Annahme kann der Mittelwert
oder die Varianz mit nur einer Realisierung bestimmt werden.
Abbildung 8: Einteilung technischer Signale.
A2 – 16
3.4.2
Korrelationsfunktion
Unter der Voraussetzung, dass der stochastische Prozess stationär und ergodisch ist, beschreibt die Kovarianz zweier im zeitlichen Abstand τ gewonnenen Zufallsvariablen die lineare Ähnlichkeit dieser beiden Zufallsvariablen, also den inneren zeitlichen Zusammenhang
des Prozesses und damit sein dynamisches Verhalten. Bei einem hochfrequenten Signal, d.h.
die Amplitude ändert sich rasch“, wird dieser Zusammenhang für ein bestimmtes τ geringer
”
sein als für ein tieffrequentes. Deswegen hat die Kovarianz für stochastische zeitabhängige
Signale besondere Bedeutung, da sie eine Aussage macht, wie ausgeprägt zufällig“ bzw.
”
stochastisch das Signal ist. (Die Autokorrelation des weißen Rauschens1 ist ein Dirac-Stoß,
also unendlich schmal. Vergangene Werte und jetziger Wert hängen überhaupt nicht voneinander ab.)
In der Technik gebräuchlicher ist die mit der Kovarianz verwandte Korrelationsfunktion, die
ähnlich Gleichung (24) definiert ist, jedoch ohne die Zentrierung um den Mittelwert µ:
Φxx (τ ) = E{x(t − τ )x(t)} .
(27)
Da das Signal mit sich selbst korreliert wird, heißt diese Funktion Auto-Korrelationsfunktion
(AKF). Wendet man dieselbe Operation auf zwei unterschiedliche Signale x(t) und y(t) an,
die beispielsweise Ein- und Ausgangssignal eines linearen Systems darstellen, erhält man
die sogen. Kreuz-Korrelationsfunktion (KKF)
Φxy (τ ) = E{x(t − τ )y(t)} .
(28)
Gebräuchlich ist auch die zentrierte, normierte Form
ρxy (τ ) =
Φxy (τ ) − µx µy
,
σx σy
die Korrelationskoeffizient genannt wird (vgl. Gl. (21)).
Anmerkung
Einen Schätzer für (28) gewinnt man, wenn man den Scharmittelwert ersetzt durch den Zeitmittelwert über
Datensätze der Länge T . Wegen der Zeitverschiebung der Datensätze um τ überlappen sich die Datensätze nur
auf einer Länge von T − |τ |, was sowohl bei der Integrationsgrenze als auch beim Vorfaktor zu berücksichtigen
ist:
Z T −|τ |
1
x(t − τ )y(t)dt ,
(29)
Φ̂xy (τ ) =
T − |τ | 0
wobei jetzt der Schätzwert durch das Symbol ( ˆ ) vom wahren Wert unterschieden wird. Der Schätzer für die
AKF entspricht (27) mit x = y.
Bei der AKF sind die Faktoren in (27) vertauschbar. Daher ist es gleichgültig, in welche
Richtung man um τ verschiebt. Somit ist die AKF eine gerade Funktion, deren Maximum
bei τ = 0 liegt, da die um 0 verschobene Funktion sich selbst am ähnlichsten ist.
Abbildung 9 zeigt die AKF für ein stochastisches Signal mit überlagertem Gleichanteil
µx . (Beispiel: Die Spannung, die über einem rauschenden“ Widerstand (→ stochastisch)
”
abfällt plus einer Gleichspannungsquelle (→ deterministisch; Gleichanteil).) Dabei gilt
1
Stochastischer Prozess X(t), der unkorreliert ist, dessen Erwartungswert null ist und der konstante Varianz
hat. X(t) heißt Gauß’sch, wenn die Amplitude normalverteilt ist.
A2 – 17
Φxx (∞) = µ2x . Der Wert der AKF für τ = 0 entspricht dem quadratischen Mittel, der sogen.
Leistung“ des Signals: Φxx (0) = E{x2 (t)} = σx2 + µ2x nach (23).
”
Angedeutet ist auch die Korrelationslänge τ0 , die ungefähr angibt, bis zu welcher Zeitverschiebung ein innerer Zusammenhang des Signals besteht. Die Erwartungswertbildung zur
Bestimmung der Korrelation (29) muss mindestens diesen Bereich umfassen, während der
Signalverlauf außerhalb dieser Grenzen kaum noch Einfluss auf die Korrelation hat .
Bei stochastischen Signalen ist also die Fensterlänge in (15) ungefähr zu T = 2τ0 zu wählen.
Die Korrelationslänge ergibt sich aus dem Schnitt der um τ = 0 durch eine Parabel angenäherten AKF und
dem quadrierten Gleichanteil µ2x .
Abbildung 9: Autokorrelationsfunktion eines stochastischern Signals mit Gleichanteil µx und Korrelationslänge τ0 .
Abbildung 9 zeigt die nach Gl. (29) geschätzte AKF für ein sinusförmiges Signal, das durch
ein hochfrequentes Rauschen gestört ist. (Im Praktikum wird einem sinusförmigen Spannungssignal ein Rauschsignal (Pseudorauschen), das einem Rauschgenerator entstammt,
überlagert.)
Offensichtlich eignet sich die AKF dazu, periodische von stochastischen Signalanteilen zu
trennen. (Rauschen ist gerade gekennzeichnet durch eine AKF, die für τ 6= 0 rasch auf 0
abfällt.) Die Fensterlänge ist wie in Abschnitt 3.3 nach Möglichkeit der Periodendauer anzupassen.
Kleine Rechnung, die zeigt, dass die AKF einer periodischen Funktion periodisch (in τ ) ist:
E{cos(2πf t) · cos(2πf (t − τ ))} = E{0,5(cos(2πf τ )} + E{0,5 cos(2πf (2t − τ ))} .
|
{z
} |
{z
}
=0,5 cos(2πf τ )
=0
Der zweite Erwartungswert ist gleich 0, da zur Bestimmung des Erwartungswerts die in der Integrationsvariablen t periodische Funktion cos(2πf (t − τ )) über eine Periode integriert wird. Der erste Erwartungswert ist
gleich dem Argument cos(2πf τ ), da der Erwartungswert bezüglich t gebildet wird und das Argument somit
konstant ist.
3.4.3
Leistungsdichte-Spektrum
Analog der Bestimmung des Spektrums eines Zeitsignals kann die Fouriertransformierte der
Korrelationsfunktion ermittelt werden:
A2 – 18
Abbildung 10: Gemessene Autokorrelationsfunktion eines sinusförmigen, stochastisch gestörten Signals.
Sxy (f ) =
Z
∞
Z
∞
Φxy (τ )e−j2πf τ dτ
(30)
Sxy (f )ej2πf τ df .
(31)
−∞
mit der Umkehrung
Φxy (τ ) =
−∞
Das Ergebnis nennt sich Kreuz-Leistungsdichte-Spektrum (KLS).
Für x = y erhält man entsprechend das Auto-Leistungsdichte-Spektrum (ALS).
Der Name Leistungsdichte-Spektrum stammt daher, dass in (31) für τ = 0 links die Leistung
steht und rechts das Integral über Sxy (f ).
Bei der praktischen Schätzung der Leistungsdichtespektren wählt man nicht den Weg über
die Korrelationsfunktion, da für die Berechnung von (29) kein effizienter Algorithmus existiert. Statt dessen geht man aus von den Fouriertransformierten XT (f ) und YT (f ) der Signalausschnitte xT (t) und yT (t) nach (14), die mittels FFT bestimmt werden.
Das komplexe Produkt
1
Ŝxy (f ) = XT∗ (f )YT (f ) ,
(32)
T
heißt Periodogramm und ist ein Schätzer für das KLS Sxy (f ). Praktisch berechnet werden
die Faktoren diskret entsprechend (12) mit dem FFT-Algorithmus.
Wichtig für das Verständnis ist, dass die Fouriertransformation trotz der Integration über
die Zeit keine statistische Mittelung bewirkt. Die Spektren XT (f ) und YT (f ) und damit
deren Produkt (32) sind daher ebenso stochastische Prozesse wie die Signalfunktionen
xT (t) und yT (t). Folglich muss über mehrere Periodogramme gemittelt werden, was einer
Scharmittelung entspricht.
A2 – 19
Das Periodogramm (32) ist als Schätzer allerdings nicht erwartungstreu.
Anmerkung
Es läßt sich zeigen [5], dass
E{Ŝxy (f )} = T
Z
∞
−∞
Sxy (ϕ)
µ
sin(πT (f − ϕ))
πT (f − ϕ)
¶2
dϕ
(33)
gilt, d.h. das wahre Leistungsdichtespektrum Sxy (f ) wird mit dem Quadrat der Sinc-Funktion verschmiert, wie
es bei (17) schon diskutiert wurde. Erst für T → ∞ ginge (33) über in Sxy (f ).
Analog zum Leckeffekt infolge einer endlichen Fensterlänge bei der Bestimmung der
DFT wird auch das Leistundsdichtespektrum verschmiert. Im praktischen Fall endlicher
Fensterlängen T passt man T entweder der Korrelationslänge an oder – bei periodischen
Komponenten – der Periodendauer entsprechend den Überlegungen in Abschnitt 3.3. Hierbei muss auch wieder gemäß (9) ein Kompromiss zwischen der Auflösung im Zeit- und
Frequenzbereich getroffen werden.
Abbildung 11: Auto-Leistungsdichtespektren zu den Bildern 9 und 10.
Zur Veranschaulichung ist in Bild 11a) das ALS Sxx (f ) zur AKF Φxx (τ ) von Bild 9 dargestellt. Der Gleichanteil (Frequenz f = 0) wird zur Spektrallinie bei f = 0, während 1/τ0
eine Art Mittenfrequenz bedeutet und die Breite des Spektrums bestimmt.
Bild 11b) gehört entsprechend zu Bild 10. Der periodische Anteil bildet sich in zwei Spektrallinien bei ±f0 ab (f0 : Frequenz des Sinus), während die stochastische Störung einem
breiten, nahezu weißen“ Spektrum entspricht.(Ein Spektrum ist weiß, wenn alle Frequen”
zen mit gleicher Leistung vorkommen: das Leistungsdichtespektrum hat konstanten Betrag.)
3.4.4
Streuung der Schätzwerte
Der allgemeine Zusammenhang zwischen Messzeit und Streuung für die verschiedenen
Schätzwerte zeitabhängiger stochastischer Prozesse ist ziemlich kompliziert. Werden jedoch
unkorrelierte Datensätze verwendet, gilt für das gemittelte Ergebnis von N Schätzwerten
sinngemäß die einfache Beziehung (25), also
A2 – 20
Var{Mittel} =
Var{Einzelschätzwert}
.
N
(34)
Unkorreliert bedeutet für die zeitunabhängigen Schätzwerte (18) bis (20), dass die Daten xi
in Zeitabständen größer als die Korrelationslänge τ0 gewonnen werden. Das Abtasttheorem
spielt hier keine Rolle. Für die zeit- und frequenzabhängigen Schätzwerte (29) und (32)
müssen entsprechend Datensätze der Länge T > τ0 verwendet werden.
Unkorreliert bedeutet, dass der Korrelationskoeffizient gleich 0 ist. Die betrachteten Zufallsvariablen sind sich
komplett unähnlich.
Statistisch unabhängig bedeutet, dass die Verbundwahrscheinlichkeitsdichte gleich dem Produkt der Einzelwahrscheinlichkeitsdichten ist.
Am Beispiel der Würfel: Die Wahrscheinlichkeit, dass ich mit dem ersten Würfel eine 1 würfle und mit dem
zweiten eine 5, ist gleich dem Produkt der Einzelwahrscheinlichkeiten, dass ich mit dem ersten eine 1 und
mit dem zweiten eine 5 würfle, sofern die Zufallsvariablen Würfel 1“ (bzw. Augenzahl von Würfel 1“) und
”
”
Würfel 2“ statistisch unabhängig sind. Ein Gegenbeispiel wäre etwa, dass beide Würfel immer das Gleiche
”
anzeigen.
Ein Beispiel für zwei diskrete Zufallsvariablen X und Y , die zwar unkorreliert, jedoch nicht
statistisch unabhängig sind (aus [3]).
Die gemeinsame Verteilung zweier Zufallsvariablen X und Y sei durch
P (X = 0, Y = 0) = 1/2, P (X = 1, Y = 1) = P (X = −1, Y = 1) = 1/4
gegeben. Es folgt
E{X · Y } = 0 · 0 · 1/2 + 1 · 1 · 1/4 + (−1) · 1 · 1/4 = 0
und wegen P (X = 0) = 1/2, P (X = 1) = P (X = −1) = 1/4
E{X} = 0,
und somit C(X, Y ) = 0, d. h. X und Y sind statistisch unkorreliert.
Wegen P (Y = 0) = 1/2 gilt weiter
1/2 = P (X = 0, Y = 0) 6= P (X = 0) · (P (Y = 0) = 1/4.
Somit sind X und Y nicht statistisch unabhängig.
A2 – 21
3.4.5
Anwendung: Laufzeitmessung
In Bild 12 ist das Prinzip der Geschwindigkeitsmessung mit Laufzeit-Korrelationsverfahren
dargestellt:
Ein sich mit der Geschwindigkeit v bewegendes Messgut (im Praktikums-Versuch: ein
Kraftfahrzeug-Keilriemen) wird mit Leuchtdioden beleuchtet. Die vom Keilriemen reflektierte Strahlung (das reflektierte Licht) wird mit einem optischen System auf zwei Detektoren eines Sensors abgebildet. Die Sichtbereiche der beiden Detektoren sind (in Laufrichtung)
gegeneinander versetzt. Wird der Riemen angetrieben, sieht“ der zweite Detektor zeitlich
”
versetzt, was der erste gerade sieht“.
”
Die von den Detektoren empfangenen Signale x(t) und y(t) entstehen durch (i.a. stochastisch) ortsabhängige Oberflächeneigenschaften des Keilriemens wie z.B. Helligkeitsunterschiede. Im Idealfall sind beide Signale identisch, jedoch um eine Laufzeit T gegeneinander
verschoben:
y(t) = x(t − T ) .
Sensor
optische
Abbildung
L
x
T
t
y
t
Beleuchtung
Korrelation
v
Fxy
Geschwindigkeit: v=L/T
T
t
Abbildung 12: Geschwindigkeitsmessung mit Korrelationsverfahren.
Setzt man diesen Zusammenhang in (28) ein, ergibt sich die KKF zu
Φxy (τ ) = E{x(t − τ )x(t − T )}
= Φxx (τ − T ) ,
(35)
(36)
die in diesem Fall identisch ist mit der um T verschobenen AKF (Bild 9). Man findet also
die Laufzeit beim Maximum der KKF, woraus man die Geschwindigkeit des Keilriemens
ν = L/T
bestimmen kann.
A2 – 22
(37)
4
Versuchsdurchführung
4.1 Digitales Speicheroszilloskop
1. Zuerst sollen die Grundfunktionen des Oszilloskops zur Darstellung von Signalen kennengelernt werden. (Die Bedienung des Oszilloskops ist recht intuitiv. Für
zusätzliche Informationen liegt eine Bedienungsanleitung aus.)
Mittels eines Signalgenerators wird ein Sinussignal mit einem Gleichanteil erzeugt,
wobei Amplitude und Frequenz des Sinus und Gleichanteil frei wählbar sind.
Mit der richtigen Einstellung von Zeitablenkung und Trigger sollen das Signal dargestellt und die Frequenz, die Amplitude (des Sinus) und der Gleichanteil mit Hilfe der
Cursor-Funktionen abgelesen werden.
Anschließend sollen die so bestimmten Werte mit den vom Oszilloskop automatisch
ermittelten verglichen werden.
2. Nun wird die Dehnfunktion eingesetzt.
Ein Rechtecksignal der Frequenz 1 kHz wird erzeugt und am Oszilloskop dargestellt.
Das Signal soll in zwei Fenstern übereinander mit Hilfe der Dehnfunktion dargestellt
werden, so dass im unteren Fenster die Anstiegszeit eines Rechtecks bestimmt werden
kann. Die von der automatischen Rechenfunktion ermittelte Anstiegszeit soll mit dem
abgelesenen Wert verglichen werden.
3. Der Trigger soll zur Erfassung einmaliger Vorgänge eingestellt und ausgelöst werden.
Mit Hilfe eines an einem Stoßpendel angebrachten Beschleunigungsmessers soll ein
Impuls erzeugt werden. Das erfasste Signal soll abgespeichert, der Versuch anschließend wiederholt und ein neuer Impuls aufgezeichnet werden. Das neu aufgezeichnete
und das abgespeicherte Signal sollen zusammen dargestellt und kurz verglichen werden (etwa hinsichtlich ihrer Breite“).
”
4. Am Beispiel einer stark verrauschten Sprungantwort eines RC-Glieds soll der Unterschied zwischen Ensemble- und zeitlicher Mittelung erläutert werden. Für verschiedene Mittelungszahlen N sollen zeitliche und Ensemble-Mittelungen durchgeführt
und die Streuung geschätzt werden.
Frage: Ist der Prozess stationär?
4.2 Spektrum-Analysator
1. Da sich der Leck-Effekt, der bei der DFT mit endlicher Fensterlänge auftritt, nur
bei einer sehr geringen Stützstellenanzahl (der DFT) deutlich sichtbar auswirkt, wird
dieser Effekt in der Matlab-Simulation Leckeffekt“ gezeigt (vgl. Bild 13).
”
Wählbare Parameter sind das Eingangssignal (Sinus, Rechteck oder Sägezahn), die
Anzahl der Punkte der DFT (16, 32, 64, 128, 256, 512 oder 1024) und das Fenster
(Rechteck, Dreieck (Bartlett), Hanning, Hamming). Mittels Schieberegler lässt sich
die Breite des Fensters einstellen.
A2 – 23
Abbildung 13: Oberfläche des Matlab-Programms Leckeffekt.m.
2. Für ein stark verrauschtes Sinussignal (analoge Addiererschaltung mit Rauschen und
Sinus als Eingänge) soll die Grundfrequenz des Sinus im Zeitbereich bestimmt werden.
Auch nach zeitlicher Mittelung des Signals lässt sich die Grundfrequenz nicht richtig bestimmen. Nun soll die AKF und das Periodogramm (die Schätzung des ALS)
dargestellt werden und daraus die gesuchte Frequenz ermittelt werden.
3. Mit Hilfe von Stoßpendel und Beschleunigungsmesser sollen erneut Impulse erzeut
werden. Dabei ist darauf zu achten, wie Auslenkwinkel, Breite des zeitlichen Signals
und Breite des Spektrums zusammenhängen. Weiterhin ist festzuhalten, wie Auflösung
im Zeitbereich und Auflösung im Frequenzbereich zusammenhängen.
A2 – 24
4. An einem Versuchsstand zur Geschwindigkeitsmessung von Kfz-Keilriemen soll der
Einsatz der KKF in der Praxis gezeigt werden.
Demonstriert wird die Geschwindigkeitsmessung sowohl mit dem closed-Loop als
auch mit dem open-Loop Korrelator. Der closed-Loop Korrelator benutzt dabei die
aktuellste Geschwindigkeitsmessung zur Bestimmung des neuen Messergebnisses,
während der open-Loop Korrelator kein Vorwissen berücksichtigt.
Welche Vorteile könnte ein Korrelator gegenüber einer klassischen Geschwindigkeitsmessung mit Umdrehungszähler bieten?
A2 – 25
A Abbildungen
Die folgenden Abbildungen dienen der Vertiefung des Stoffs bzw. schlicht der Erheiterung.
Abbildung 14: DFT eines bandbegrenzten periodischen Signals: Fensterbreite und Signalperiode
stimmen überein (aus [1], S. 124).
A2 – 26
Abbildung 15: DFT eines bandbegrenzten periodischen Signals: Die Fensterbreite ist kein ganzzahliges Vielfaches der Signalperiode, was zum Leckeffekt führt (aus [1], S. 128).
A2 – 27
Dass Statistik nicht nur trockene Materie behandelt, zeigt das letzte Bild.
Abbildung 16: Zweidimensionale Verteilung von Hüft- und Oberweite (nach Messungen an englischen Frauen; [11], S. 2).
A2 – 28
Literatur
[1] B RIGHAM , E. O RAN: The Fast Fourier Transform and its Applications. Prentice Hall,
1988.
[2] H ÄNSLER , E.: Statistische Signale. Grundlagen und Anwendungen. Springer Verlag,
1997.
[3] H ENZE , N ORBERT: Stochastik I. Universitdt Karlsruhe, 2004.
[4] M AYER , G ERHARD: Oszilloskope. H—thig-Verlag, 1997.
[5] M ESCH , F RANZ: Vorlesung: Korrelationsverfahren in der Mess- und Regelungstechnik. Institut f—r Mess- und Regelungstechnik, Karlsruhe.
[6] PATZELT, R., H. S CHWEINZER: Elektrische Messtechnik. Springer Verlag, 1996.
[7] P FEIFFER , W OLFGANG: Digitale Messtechnik. Springer Verlag, 1998.
[8] P RAKTIKUM , M ESSTECHNISCHES: Versuch: Analoge Verarbeitung digitaler Signale.
Institut für Mess- und Regelungstechnik, Karlsruhe, 2004.
[9] P RAKTIKUM , M ESSTECHNISCHES: Versuch: Messen elektrischer Signale. Institut für
Mess- und Regelungstechnik, Karlsruhe, 2004.
[10] S CHR ÜFER , E LMAR: Signalverarbeitung – Numerische Verarbeitung digitaler Signale.
Hanser Verlag, 1990.
[11] S TANGE , K URT: Angewandte Statistik II: Mehrdimensionale Probleme. Springer Verlag, 1971.
A2 – 29

Documents pareils