Digitales Speicheroszilloskop und digitaler Spektrum
Transcription
Digitales Speicheroszilloskop und digitaler Spektrum
INSTITUT FÜR MESS- UND REGELUNGSTECHNIK MIT MASCHINENLABORATORIUM UNIVERSITÄT KARLSRUHE (TH) 76131 KARLSRUHE ENGLER-BUNTE-RING 21 FON: (0721) 608 23 34 FAX: (0721) 66 18 74 PROF. DR.-ING. C. STILLER Digitales Speicheroszilloskop und digitaler Spektrum-Analysator F. Mesch, A. Worch, A. Kapp, C. Duchow, M. Roser Lernziele 1. Aufbau und Arbeitsweise eines digitalen Speicheroszilloskops 2. Aufbau und Anwendungsmöglichkeiten eines digitalen Spektrum-Analysators Inhaltsverzeichnis 1 Einleitung 3 2 Digitales Speicheroszilloskop 3 2.1 Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2.2 Aufbau des digitalen Speicheroszilloskops . . . . . . . . . . . . . . . . . . 3 2.3 Triggerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 2.4 Einfluss der Abtastung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.5 Betriebsarten und Rechenfunktionen . . . . . . . . . . . . . . . . . . . . . 6 3 Digitaler Spektrum-Analysator 7 3.1 Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 3.2 Aufbau eines Spektrum-Analysators . . . . . . . . . . . . . . . . . . . . . 8 3.3 Diskrete Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . 8 3.4 Stochastische Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 3.4.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 3.4.2 Korrelationsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . 17 A2 – 1 3.4.3 Leistungsdichte-Spektrum . . . . . . . . . . . . . . . . . . . . . . 18 3.4.4 Streuung der Schätzwerte . . . . . . . . . . . . . . . . . . . . . . 20 3.4.5 Anwendung: Laufzeitmessung . . . . . . . . . . . . . . . . . . . . 22 4 Versuchsdurchführung 23 4.1 Digitales Speicheroszilloskop . . . . . . . . . . . . . . . . . . . . . . . . . 23 4.2 Spektrum-Analysator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 A Abbildungen 26 A2 – 2 1 Einleitung Ingenieure aller Fachrichtungen werden in zunehmendem Maße mit der Aufgabe konfrontiert, schnell und ohne ausführliche Einarbeitung elektrische Signale messen oder analysieren zu müssen. Ziel des Versuchs ist es deshalb, die gängigsten Werkzeuge zum Messen, Darstellen und Auswerten elektrischer Signale, das digitale Oszilloskop und den SpektrumAnalysator, kennen und bedienen zu lernen. Die Arbeitsweise der Geräte und der theoretische Hintergrund sollen kurz erläutert und konkrete, praxisrelevante Signale untersucht und ausgewertet werden. 2 Digitales Speicheroszilloskop 2.1 Allgemeines Konventionelle analoge Oszilloskope [9] können nur periodisch wiederholte Signale darstellen. Zur analogen Speicherung einmaliger Signale behalf man sich früher mit einer speziellen nachleuchtenden Beschichtung des Bildschirms. Mit dem Aufkommen der Digitaltechnik entstanden Transientenrekorder, mit denen elektrische Einzelsignale digital gespeichert und weiterverarbeitet werden konnten. Die heutigen digitalen Speicheroszilloskope vereinen im Prinzip einen Transientenrekorder mit einem Oszilloskop. Dazu kommen meistens noch Signalprozessoren zur digitalen Signalverarbeitung. Bei diesen Oszilloskopen wird das digital gespeicherte Signal in beliebig einstellbarem Zeitmaßstab ausgelesen und periodisch wiederholt, so dass auch bei einmaligen Originalsignalen ein stehendes Bild auf dem Schirm entsteht. Die obere Grenzfrequenz digitaler Oszilloskope ist nur durch die maximale Abtastrate der verfügbaren A/D- Wandler bestimmt, die mit der rasch fortschreitenden Halbleitertechnologie zunimmt. Bei analogen Oszilloskopen dagegen ist die maximale Schreibgeschwindigkeit physikalisch durch die Strahlablenkung begrenzt. Die digitale Signalspeicherung bietet neben der Sichtdarstellung auch die Möglichkeit, die Signale extern aufzuzeichnen und zu dokumentieren. Darüber hinaus ermöglicht sie weitere Funktionen wie die Detektion von Spitzenwerten, die Dehnung von Signalausschnitten, das genaue Ausmessen von Signalwerten mit einem Cursor, die automatische Wahl und Speicherung der Einstellparameter und andere Komfortfunktionen. Je nach Gerätetyp ist auch eine weitere Verarbeitung der gespeicherten Signale möglich (Abschnitt 2.5). Diesen Vorteilen stehen gewisse Nachteile und Fehlermöglichkeiten gegenüber, die auf der Diskretisierung von Zeit und Amplitude beruhen (Abschnitt 2.4). Im Folgenden werden Arbeitsweise und Besonderheiten heutiger Digitaloszilloskope allgemein erläutert, ohne auf bestimmte Gerätetypen einzugehen. 2.2 Aufbau des digitalen Speicheroszilloskops Abbildung 1 zeigt das Blockschaltbild eines zweikanaligen Speicheroszilloskops. Die Eingangsverstärker (links im Bild) für Eingangs- und Triggersignale, der Wahlschalter für A2 – 3 die Triggerquelle und der Schwellwertschalter entsprechen einem analogen Oszilloskop. Darauf folgt in jedem der beiden Kanäle nach einem Tiefpass (s. Abschnitt 2.4) ein A/DWandler. Abbildung 1: Blockschaltbild eines digitalen Zweikanal-Oszilloskops (entnommen [7]). Die digitalisierten Signale gelangen in den Speicher, welcher aus einem schnellen Aufnahmespeicher, einem Arbeitsspeicher und einem Wiedergabespeicher besteht. Aus dem Wiedergabe/-speicher werden die Signale zyklisch ausgelesen und D/A-gewandelt. Die BildWiederholfrequenz ist unabhängig vom Zeitmaßstab und wird automatisch so gewählt, dass sich ein stehendes, flackerfreies Bild ergibt. Wie in Abbildung 1 rechts angedeutet kann für die Visualisierung eine konventionelle Elektronenstrahlröhre mit elektrostatischer Ablenkung verwendet werden. Üblicher sind heute Rasterbildschirme, das sind Elektronenstrahlröhren, bei denen eine magnetische Ablenkung wie bei herkömmlichen Fernsehern ein Raster erzeugt, das punktweise hellgesteuert wird. Hiermit ist es viel einfacher, neben den Signalen auch alphanumerische Zeichen darzustellen. Da die Bildschirmgrößen bei Oszilloskopen begrenzt sind, bieten sich heute auch Flachbildschirme z.B. in LCD-Technik (Liquid-Crystal-Display) an. Diese ermöglichen eine verzerrungsfreie Darstellung. Es handelt sich hier um passive (nicht selbst leuchtende) Bildschirme mit einer Hintergrundbeleuchtung. Mit entsprechendem Aufwand können diese Flachbildschirme auch für eine farbige Darstellung ausgeführt werden. Wesentliche technische Vorteile der Flachbildschirme gegenüber Elektronenstrahlröhren sind die geringe Einbautiefe, das relativ geringe Gewicht und der Entfall der aufwendigen Hochspannungsversorgung. 2.3 Triggerung Besonders vorteilhaft sind beim Speicheroszilloskop die Triggermöglichkeiten. Bei analogen Oszilloskopen (ohne Speicher) war es schwierig, das Signal unmittelbar zum Triggerzeitpunkt darzustellen. Hier behalf man sich mit analogen Verzögerungsleitungen, die das Eingangssignal gegenüber dem Triggersignal verzögerten. A2 – 4 Im Gegensatz dazu werden bei digitalen Oszilloskopen die Eingangssignale laufend gewandelt und zwischengespeichert. Durch die Triggerung wird die Wandlung angehalten, so dass der Speicher auch vorher liegende Messwerte enthält (Vor-Triggerung, engl. pre-trigger). Damit kann sogar ein Teil der Vorgeschichte des Signals vor dem Triggerereignis gezeigt werden. Die übrigen Triggerfunktionen (Triggerniveau, Anstiegsflanke, Triggerquelle) entsprechen denen bei Analog-Oszilloskopen. 2.4 Einfluss der Abtastung Das in [8] ausführlich behandelte Abtasttheorem besagt, dass ein Signal aus seinen Abtastwerten rekonstruiert werden kann, wenn drei Bedingungen erfüllt sind: 1. Das Eingangssignal ist bandbegrenzt mit der Grenzfrequenz fg . 2. Die Abtastfrequenz ist mindestens gleich der doppelten Nyquistfrequenz fg , d. h. fa ≥ 2fg . 3. Für die Rekonstruktion steht ein idealer Tiefpass zur Verfügung. Speicheroszilloskope verletzen diese Bedingungen in zweierlei Hinsicht. Erstens wird der Eingangstiefpass (links in Abbildung 1) meist nur für die höchstmögliche Abtastfrequenz fa ausgelegt, die durch den A/D-Wandler gegeben ist. Bei einer um den Faktor N langsameren Zeitablenkung würden mit dieser Abtastfrequenz N mal soviele Daten (pro Bildschirmbreite) anfallen. Daher wird die effektive Abtastrate abhängig von der gewählten Zeitablenkung so gewählt, dass über die Bildschirmbreite typisch 1000 Abtastwerte zur Verfügung stehen. Die Grenzfrequenz des analogen Eingangstiefpasses wird dabei aber üblicherweise nicht angepasst. Realisiert wird die Untersetzung der Abtastrate fa /N dadurch, dass der A/D-Wandler zwar mit seiner maximalen Abtastrate fa weiterläuft, dass aber nur jeder N -te Abtastwert aufgezeichnet wird. Dieses Verfahren bietet die Möglichkeit, die mit fa gewonnenen Daten für eine Vorverarbeitung zu nutzen. Beispielsweise ist eine digitale Tiefpassfilterung – im einfachsten Fall eine Mittelwertbildung – möglich, so dass der analoge Eingangstiefpass vor der Abtastung durch ein digitales Filter nach der Abtastung ersetzt wird. Oder man kann den Extremwert des (mit fa abgetasteten) Signalverlaufs innerhalb eines Intervalls N/fa erfassen, um so eine angenäherte Spitzenwertdetektion zu realisieren. In diesem Fall ist folglich die erste Bedingung des Abtasttheorems – die Bandbegrenztheit des Eingangssignals – verletzt. Zweitens fehlt der ideale Tiefpass zur Rekonstruktion des Signals, der nach Bedingung 3 des Abtasttheorems erfordert wird. Für die Darstellung der Kurvenzüge auf dem Bildschirm gibt es verschiedene Verfahren. Bei der Punktdarstellung werden die fa /N Abtastpunkte einzeln und ohne jede Interpolation hellgetastet. Das Auge ist kein idealer Tiefpass, sondern es verbindet die jeweils nächstliegenden Punkte. Gehören diese zu verschiedenen Perioden eines hochfrequenten Signals, werden fälschlicherweise Schwebungen wahrgenommen, die tieffrequente Signale vortäuschen. Besser ist daher die Verbindung benachbarter Punkte durch eine Gerade, A2 – 5 anders ausgedrückt, die lineare Interpolation, die einer Tiefpassfilterung entspricht [8]. Ein idealer Tiefpass würde die Interpolation mit sin(t)/t-Funktionen bedeuten [8], die zeitlich nicht beschränkt und daher nicht realisierbar ist. Wegen der genannten beiden Abweichungen vom Abtasttheorem muss die wirkliche Abtastfrequenz deutlich höher sein als die Nyquistfrequenz. Diese Überlegungen betreffen in erster Linie die Hersteller digitaler Speicheroszilloskope. Der Anwender bemerkt davon wenig, wenn er das Speicheroszilloskop nur zur Anzeige von Signalen benutzt. Bei den wenigsten Geräten kann er die Abtastrate überhaupt unabhängig von der Zeitablenkung einstellen. Bei den Geräten wird eine weitgehende Narrensicherheit durch eine Speichertiefe von typisch 1000 Abtastwerten je Bildschirmbreite erreicht, die ungefähr 10 Abtastwerten/mm entsprechen. Da das Auge höchstens eine Schwingungsperiode/mm auflösen kann, bedeutet dies eine fünffache Überabtastung. Probleme können aber entstehen, wenn die Zeitbasis nach der Abtastung gedehnt wird, z.B. um den Faktor 10 ( Zooming“). In diesem Fall, ins” besondere in der Betriebsart Punktdarstellung, ist Vorsicht geboten. Selbstverständlich muss der Benutzer auch auf Abtastprobleme achten, wenn die Daten nicht nur unter den beschriebenen Bedingungen angezeigt, sondern bereits im Rechner vorverarbeitet werden. Bei manchen Speicheroszilloskopen stößt man auf unterschiedliche Angaben zur Bandbreite für einmalige und für periodische Eingangssignale: erstere ist durch die maximale Abtastfrequenz fa der A/D-Wandler begrenzt, letztere kann viel höher sein. Erreicht wird dies durch das Prinzip des sequentiellen Abtastens, das auch schon bei analogen Geräten unter der Bezeichnung Sampling-Oszilloskope bekannt war. Bei periodischen Signalen erhöht man die effektive Abtastfrequenz um den Faktor N dadurch, dass man insgesamt N Perioden des Eingangssignals verarbeitet. Jede Periode der Länge T bewirkt eine Triggerung, die eine Abtastung auslöst, wobei die Zeit zwischen Triggerung und Abtastung jeweils um ein kleines Zeitintervall T /N verlängert wird. Werden diese Abtastwerte der Reihe nach abgespeichert, so ergibt sich beim Auslesen der Zeitverlauf des Eingangssignals. Bedingung für dieses Verfahren ist natürlich ein stabiles, streng periodisches Eingangssignal und eine entsprechend genaue, phasenfehlerfreie Triggerung. 2.5 Betriebsarten und Rechenfunktionen Die bei analogen Oszilloskopen möglichen Funktionen wie etwa X-Y-Betrieb und die Addition bzw. Subtraktion von Eingangssignalen sind bei digitalen Speicheroszilloskopen natürlich auch möglich und werden hier nicht besprochen. Eine Betriebsart speziell für sehr langsame Vorgänge ist der Roll-Modus. Bei diesen Vorgängen stört die normale, periodisch von vorn beginnende Zeitablenkung, da man entweder nur eine sehr schlechte Zeitauflösung hat oder nur einen Teil des Signals auf dem Bildschirm sieht. Beim Roll-Modus werden die eingelesenen Werte von rechts nach links über den Bildschirm geschoben, als ob sie von einer Papierrolle abgewickelt würden. Im Fall der Vielfachdarstellung werden die letzten paar Signalverläufe mit dargestellt, so dass man den aktuellen mit früheren Verläufen vergleichen kann. A2 – 6 Unter der Einstellung Mittelwertbildung (engl. average mode) werden mehrere Signalverläufe punktweise gemittelt. Bei Signalen mit periodischem Nutzanteil und überlagertem Rauschen ist so eine Störunterdrückung möglich, sofern die Triggerung nicht selbst durch das Rauschen gestört wird. In dieser Betriebsart ist daher eine externe Triggerung auf ein unverrauschtes Signal empfehlenswert. Bei der Hüllkurvendarstellung (engl. envelope mode) werden nur Maxima und Minima der Signale dargestellt. So werden bei modulierten Signalen nur die Hüllkurven sichtbar. Digitale Speicheroszilloskope bieten eine Reihe von Messfunktionen. So können Frequenzen/Perioden, Maximalwerte und Anstiegs- und Abfallzeiten automatisch vermessen werden. Man kann auch mit eingeblendeten senkrechten oder waagrechten Bezugslinien (engl. cursor) Amplituden- oder Zeitwerte messen. Die Genauigkeit ist dabei durch die Auflösung der A/D-Wandler bestimmt und wird nicht durch Nichtlinearitäten der Bildschirmröhre beeinträchtigt. Weitere Funktionen finden sich in [6], [4]. 3 Digitaler Spektrum-Analysator 3.1 Allgemeines Für eingehende Signalanalysen bietet das sogenannte Spektrum viele Vorteile. Der Ausdruck entstammt der Optik, wo er für das in Spektralfarben zerlegte Licht verwendet wurde. Heutzutage wird damit die Zerlegung eines Signals in seine Frequenzanteile bezeichnet, also die Darstellung von Signalamplituden über der Frequenz. Damit lassen sich die einzelnen harmonischen Anteile eines Signals leicht erkennen, wie dies z.B. bei der Geräuschanalyse oder in der Schwingungstechnik von Interesse ist. Auch bei stochastischen Signalen (Zufallsschwingungen) bietet die Spektralanalyse viele Vorteile. Für die Analyse linearer dynamischer Systeme müssen deren Ein- und Ausgangssignale miteinander in Beziehung gebracht werden. Spektralanalysatoren bieten daher auch die Möglichkeit, zwei Signale zu verknüpfen und auf lineare Abhängigkeiten zu untersuchen, wie dies etwa bei der Korrelation geschieht. Die Spektralanalyse beruht auf der Fouriertransformation, die bereits in [8] behandelt wurde. In Abschnitt 3.3 wird deren diskrete Form eingeführt. Die untersuchten Signale können dabei periodisch oder stochastisch sein. Die Analyse stochastischer Signale erfordert – im Vergleich zur Untersuchung deterministischer Signale – weitergehende Überlegungen. Die Ergebnisse müssen gemittelt werden, und es treten stochastische Fehler auf. Eine Beschreibung stochastischer Signale ist nur mit Methoden der Wahrscheinlichkeitslehre möglich, deren Darstellung eine Versuchsanleitung nicht leisten kann. In Abschnitt 3.4 wird daher versucht, einige Grundbegriffe elementar und anschaulich zu erklären. A2 – 7 3.2 Aufbau eines Spektrum-Analysators Digitale Spektrum-Analysatoren sind im Prinzip ähnlich aufgebaut wie in Bild 1 für das Speicheroszilloskop gezeigt. Der Rechner ist allerdings wesentlich leistungsfähiger, insbesondere was arithmetische Operationen (v.a. Addition und Multiplikation) anbetrifft. Die wichtigste Operation ist die schnelle Fourier-Transformation (FFT, siehe Abschnitt 3.3), wofür spezielle Prozessoren verwendet werden. Wichtig ist ferner das Verknüpfen zweier Signale, weswegen immer zwei Eingangskanäle mit genau synchroner Abtastung vorhanden sind. 3.3 Diskrete Fourier-Transformation Ausgangspunkt ist die Fourier-Transformation [8] Z ∞ x(t)e−j2πf t dt X(f ) = F{x(t)} = (1) −∞ und ihre Umkehrung x(t) = F −1 {X(f )} = Z ∞ X(f )ej2πf t df . (2) −∞ Beide Integrale sind gleich aufgebaut und besitzen eine reelle Integrationsvariablen t bzw. f . Sie unterscheiden sich nur im Vorzeichen des Exponenten. Aufgrund dieser Symmetrie sind bei den Korrespondenzen X(f ) •−−◦ x(t) die Variablen f und t – unter Beachtung des Vorzeichenwechsels – vertauschbar: X(t) ◦−−• x(−f ) . (3) Für die digitale Verarbeitung müssen Gl. (1) und (2) diskretisiert werden. Die zeitliche Diskretisierung wird mathematisch beschrieben durch Multiplikation der Zeitfunktion mit einem δ-Kamm: ∞ X xa (t) = x(t) · ∆t δ(t − k∆t) . (4) k=−∞ | Die zugehörige Fourier-Transformierte lautet ∞ X {z δ-Kamm µ k Xa (f ) = X f− ∆t k=−∞ } ¶ . (5) Die Faktoren ∆t und ∆f wurden ergänzt, damit die δ-Kämme dimensionslos sind. Die Fouriertransformierte ist periodisch in f, was bedeutet, dass das ursprüngliche Spektrum bei Vielfachen der Abtastfrequenz fa = 1/∆t periodisch fortgesetzt wird. A2 – 8 Analog zur Diskretisierung im Zeitbereich wird die Diskretisierung der Frequenz beschrieben durch Multiplikation des Spektrums mit einem Frequenz-δ-Kamm: Xaa (f ) = Xa (f ) · ∆f ∞ X δ(f − i∆f ) . (6) i=−∞ Wegen der Symmetrie (3) bewirkt dies im Zeitbereich eine entsprechende periodische Fortsetzung der abgetasteten Zeitfunktion mit der Periode 1/∆f : xaa (t) = ∞ X i=−∞ xa µ i t+ ∆f ¶ . (7) Abbildung 2: Diskrete Fourier-Transformation. Bild 2 stellt die Diskretisierung in Zeit und Frequenz dar. Auf der linken Seite sind die Zeitfunktionen, rechts die zugehörigen Spektren aufgetragen. Die Zeitfunktionen sind als um den Nullpunkt gerade symmetrisch angenommen, die Spektren sind daher reell und ebenfalls gerade. Bild 2a) zeigt die Funktion x(t) und ihr Spektrum vor dem Abtasten, der zeitlichen Diskretisierung. Bild 2b) zeigt das abgetastete Zeitsignal und das zugehörige, periodische Spektrum. Die Abtastfrequenz wurde gerade so gewählt (frei wählbar!), dass sich die einzelnen Spektren nicht überlappen, d.h. die Abtastfrequenz entspricht der doppelten Nyquistfrequenz: fa = 2fg . Bild 2c) zeigt Zeitsignal und Spektrum, nachdem auch die Frequenz diskretisiert worden ist. Sowohl Zeitfunktion als auch Spektrum sind periodisch. Die Periode 1/∆f wurde gleich der Länge T der ursprünglichen Zeitfunktion gewählt (frei wählbar!), d.h. A2 – 9 1 . ∆f T = (8) Da sowohl die diskrete Zeitfunktion xaa (t) als auch das diskrete Spektrum Xaa (f ) periodisch sind, kann man die Integrationsgrenzen in (1) ersetzen durch die Periode T und in (2) durch die Periode fa . Wegen der Diskretisierung stehen im Zeitbereich während der Periode nur N Abtastwerte zur Verfügung, also T = N ∆t. Wegen (8) ist damit aber 1 = N ∆f , ∆t fa = (9) d.h. auch im Frequenzbereich stehen nur N Abtastwerte zur Verfügung. Damit erhält man bei Einsetzen von (4) in (1) und von (6) in (2) zunächst X(i∆f ) = ∆t N −1 X x(k∆t)e−j2πi∆f k∆t (10) X(i∆f )ej2πi∆f k∆t , (11) k=0 und x(k∆t) = ∆f N −1 X i=0 (der Index a wurde weggelassen). In der Literatur ist es üblich, den Vorfaktor ∆t von (10) dem Vorfaktor ∆f in (11) zuzuschlagen. Mit (9) erhält man dann die Diskrete Fourier-Transformation (DFT) N −1 X X(i∆f ) = DFT{x(k∆t)} = x(k∆t)e−j2πik/N (12) k=0 und ihre Umkehrung x(k∆t) = DFT−1 {X(i∆f )} = N −1 1 X X(i∆f )ej2πik/N . N n=0 (13) Zur numerischen Realisierung sei bemerkt, dass die Exponentialfunktionen in (12) und (13) für ein gegebenes N nur einmal als komplexe Faktoren W ±ik mit W = ej2π/N berechnet werden müssen. Bei der Berechnung der Summen sind dann N komplexe, d.h. 4N reelle Multiplikationen für einen Funktionswert nötig, für N Funktionswerte folglich 4N 2 Multiplikationen. Das bedeutet ein quadratisches Anwachsen des Rechenaufwandes mit der Zahl der Abtastwerte. In den 60er Jahren wurde nun ein wesentlich effizienterer Algorithmus entwickelt, die schnelle Fourier- Transformation (engl. Fast Fourier Transform, kurz: FFT). Bei ihr wird N auf Potenzen 2n beschränkt. Durch geschicktes Ausnutzen von Zwischenergebnissen gelingt es, die Zahl der Multiplikationen auf 2N log2 N zu reduzieren [1]. Dieser Algorithmus ist so effizient, dass Operationen im Zeitbereich wie etwa die Korrelation (Abschnitt 3.4) A2 – 10 schneller auf dem Umweg über den Frequenzbereich als direkt im Zeitbereich realisiert werden. Jedoch auch mit solchen effizienten Algorithmen ist N durch die Rechenzeit und den Speicherplatzbedarf begrenzt. Für den Anwender spielt daher die einfache Gl. (9) eine entscheidende Rolle. Sie besagt, dass bei gegebenem N eine höhere Auflösung im Zeitbereich auf Kosten der Auflösung im Frequenzbereich geht und umgekehrt. Gl. (13) entspricht der Entwicklung einer periodischen Funktion in eine Fourierreihe, deren Koeffizienten durch (12) gegeben sind, allerdings beide in etwas ungewohnter, diskreter Form. Die Grundschwingung dieser Funktion hat die Periode T . Die höchste Oberwelle mit der Frequenz fg wird mit fa = 2fg abgetastet. Folglich tritt bei der DFT einer periodischen Funktion – bis zur Oberwelle der Frequenz fg – überhaupt kein Informations verlust auf, wenn die Periode T = N ∆t der DFT genau mit der Signalperiode Ts übereinstimmt. Die Werte X(i∆f ) lassen sich dann als diskrete Spektrallinien, mathematisch als δ-Funktionen, über der Frequenz auftragen. Daher triggern Spektrum-Analysatoren auf T , wenn dies möglich ist. Wenn dies dagegen bei stark verrauschten Signalen oder bei Signalgemischen mit nicht ganzzahligen Frequenzvielfachen nicht möglich ist, können beträchtliche Fehler auftreten. Abbildung 3: Periodisch forgesetztes Sinussignal. Das wird am Beispiel eines Sinussignals verdeutlicht. Bild 3 zeigt links eine Sinusschwingung, aus der ein Stück der Länge T ≥ Ts herausgeschnitten wird. Dieses Stück wird durch die DFT periodisch wiederholt und ergibt nach Bild 3 rechts ein Signal, das gegenüber der Originalschwingung stark verfälscht ist und eine Reihe von Oberschwingungen enthält. Daher wird jetzt die Auswirkung der Zeitbegrenzung einer Zeitfunktion allgemein und für den kontinuierlichen Fall betrachtet. Das Ausschneiden eines Stückes der Länge T aus einer Zeitfunktion x(t) läßt sich mathematisch beschreiben durch Multiplikation von x(t) mit einer Fensterfunktion“, wie sie in ” Bild 4 links dargestellt ist: xT (t) = x(t) · rect mit A2 – 11 t T (14) t rect = T ½ 1 für 0 für |t| < T /2 . |t| > T /2 (15) Die Fouriertransformierte dieser Rechteckfunktion ist die sogenannte Sinc-Funktion (auch Spaltfunktion) t sin(πT f ) F{rect } = T , T πT f (16) die Abbildung 4 rechts zeigt. Der Multiplikation (14) im Zeitbereich entspricht im Frequenzbereich die Faltung XT (f ) = T Z ∞ −∞ X(ϕ) sin(πT (f − ϕ)) dϕ . πT (f − ϕ) (17) Abbildung 4: Rechteckfensterfunktion und deren Fouriertransformierte. Das Originalspektrum X(f ) wird mit der Sinc-Funktion gefaltet und somit verschmiert. Fehler entstehen insbesondere dadurch, dass die Nebenkeulen der Sinc-Funktion Spektralanteile erfassen, die nicht zur Hauptkeule gehören, was man als Leckeffekt bezeichnet (engl. leakage). Abbildungen 3 und 5 zeigen das für eine periodische Funktion, bei der T = 1, 25Ts erfasst wurde. Abbildung 5: Fourier- und DF-Transformation eines Sinussignals mit der Frequenz f = 100 Hz. A2 – 12 Um derartige Effekte zu vermindern, werden andere Fensterfunktionen verwendet, die die Zeitfunktion sanfter“ beschneiden und deren Nebenkeulen wesentlich kleiner sind, wie z.B. ” Dreieckfenster, Cosinusfenster oder die nach ihren Autoren benannten Hamming- und von Hann- (engl. Hanning-) Fenster [10]. 3.4 Stochastische Signale 3.4.1 Grundbegriffe Die Grundbegriffe werden am Beispiel eines Würfels dargestellt. Der Wurf eines Würfels ist ein Zufallsexperiment, die geworfene Augenzahl ist eine diskrete Zufallsvariable. (Die Behandlung kontinuierlicher Zufallsvariablen unterscheidet sich hiervon in einigen Punkten. Es ist jedoch einfacher, diskrete als kontinuierliche Zufallsprozesse intuitiv zu begreifen.) Erfasst man von einer Zufallsvariablen Messwerte, stellt dieser Datensatz eine Stichprobe dar. Wird der Würfel mehrere Male geworfen, kann der arithmetische Mittelwert der geworfenen Augenzahlen gemäß N 1 X x̄ = xi (18) N i=1 bestimmt werden. (Neben dem arithmetischen Mittelwert gibt es weitere Mittelwerte, etwa das geometrische Mittel oder den Median.) Zusätzlich zum Mittelwert ist auch ein Maß für die Streuung der Zufallsvariablen um den Mittelwert x̄ interessant. Diese Streuung wird mit der Varianz N s2x 1 X (xi − x̄)2 ; = N − 1 i=1 (19) bzw. deren Wurzel sx , Standardabweichung genannt, erfasst. Beispiel: Ein normaler“ Würfel mit den Augenzahlen eins bis sechs wird zehnmal geworfen. Das ” ( zufällige“ ) Ergebnis ist: 5, 6, 3, 5, 1, 6, 2, 1, 2, 4. Der Mittelwert berechnet sich daraus zu ” 3,5, die Varianz zu 3,833 und die Standardabweichung zu 1,9579. Werden zwei Würfel N -mal geworfen, erhält man N zusammengehörende Wertepaare xi , yi , für die Mittelwert und Varianz gemäß der obigen Formeln berechnet werden können. Als Kovarianz der Stichprobe bezeichnet man N sxy 1 X = (xi − x̄)(yi − ȳ) ; N − 1 i=1 (20) Daraus ergibt sich der Korrelationskoeffizient zu rxy = sxy . sx sy A2 – 13 (21) Er ist ein Maß für den linearen Zusammenhang zwischen den Variablen x und y, wie Bild 6 andeutet. Hängt die geworfene Augenzahl des einen Würfels von der des zweiten überhaupt nicht ab, ist der Korrelationskoeffizient gleich 0. Stimmen die geworfenen Augenzahlen beider Würfel immer überein, nimmt der Korrelationskoeffizient den Maximalwert 1 an. Abbildung 6: Graphische Darstellung des Ausgangs von zehn Würfen mit jeweils zwei Würfeln unter Angabe des Korrelationskoeffizienten r. Anmerkung Die Stichproben-Größen (18) bis (21) bezeichnet man als Schätzwerte für die wahren“ Werte, die eine unend” lich groß gedachte Grundgesamtheit (Grundkollektiv) beschreiben. Mathematisch erhält man die wahren Werte als Erwartungswerte, definiert als ∞ X µx = E{x} = xi pi (x) (22.a) i=1 ∞ X (xi − µx )2 pi (x) dx σx2 = E{(x − µx )2 } = (23.a) i=1 σxy = E{(x − µx )(y − µy )} = ∞ ∞ X X (xi − µx )(yj − µy )pi,j (24.a) i=1 j=1 für die diskrete Zufallsvariable x mit den Einzelwahrscheinlichkeiten pi und den Verbundwahrscheinlichkeiten pi,j bzw. µx = E{x} = Z ∞ Z ∞ xw(x) dx (22.b) (x − µx )2 w(x) dx (23.b) −∞ σx2 = E{(x − µx )2 } = σxy = E{(x − µx )(y − µy )} = Z ∞ −∞ −∞ Z ∞ (x − µx )(y − µy )w(xy) dxdy (24.b) −∞ für die kontinuierliche Zufallsvariable x mit der Wahrscheinlichkeitsverteilungsdichte w(x) und der Verbundverteilungsdichte w(x, y) der beiden Zufallsvariablen (x, y). Die Schätzwerte sind selbst Zufallsgrößen. Für verschiedene Stichproben streuen die Werte um den wahren Wert. Die Streuung beispielsweise von x̄ wird beschrieben durch die Varianz σx̄2 = σx2 /N , A2 – 14 (25) wobei unkorrelierte Werte xi vorausgesetzt wurden. Man nennt einen Schätzer erwartungstreu, wenn sein Erwartungswert gleich dem wahren Wert ist. Für die Schätzer (19) bis (20) trifft dies zu: E{x̄} = µx , E{s2x } = σx2 , E{sxy } = σxy . (26) Bei den bisher betrachteten Zufallsgrößen x, y spielte die Zeit keine Rolle. Es wird nun ein von der Zeit zufällig abhängiges Signal x(t) betrachtet. Die (unendlich groß gedachte) Schar solcher Signale, die unter genau gleichen Bedingungen erzeugt wurden, nennt man stochastischer Prozess, der begrifflich der Grundgesamtheit entspricht. Ein einzelnes Zeitsignal nennt man Realisierung oder Musterfunktion des Prozesses. Wenn man nun zu einem festen Zeitpunkt t1 die Werte xi (t1 ) der Schar betrachtet, so stellen diese eine Zufallsvariable im obigen Sinne dar, für welche Mittelwert und Varianz nach (22, 23) und deren Schätzwerte nach (18, 19) bestimmt werden können. Führt man noch einen weiteren festen Zeitpunkt t2 ein, erhält man eine zweite Zufallsvariable xi (t2 ). Ersetzt man in (20) und (24) y durch xi (t2 ), erhält man entsprechend die Kovarianz und ihren Schätzwert für den an zwei verschiedenen Zeitpunkten betrachteten Prozess. Wieder am Beispiel des Würfels: Die gleichzeitige Erzeugung mehrerer solcher Signale bedeutet, dass zu jedem betrachteten Zeitpunkt mehrere Würfel geworfen werden, deren Augenzahlen getrennt in einem Diagramm aufgetragen werden können. Die Gesamtheit aller“ Würfel stellt einen stochasti” schen Prozess dar, ein einzelner Würfel ist eine Realisierung dieses Prozesses. Untersucht man die geworfenen Augenzahlen der einzelnen Würfel zu einem festen Zeitpunkt k1 , handelt es sich um eine Zufallsvariable, die angibt, mit welcher Wahrscheinlichkeit welche Augenzahl gefallen ist. Wird ein weiterer Zeitpunkt k2 festgelegt, kann die Kovarianz bestimmt werden. Abbildung 7: Stochastischer Prozess. Für das Folgende wird die wichtige Voraussetzung getroffen, dass der Prozess stationär sei. A2 – 15 Damit ist gemeint, dass seine Statistik unabhängig von der Zeit ist. Speziell für die Zufallsvariablen xi (t1 ) und xi (t2 ) bedeutet dies, dass die Verteilungsdichte w(x) gar nicht von der Zeit und die Verbundverteilungsdichte w(x(t1 ), x(t2 )) nur von der Zeitdifferenz τ = t2 − t1 abhängt. Wieder am Beispiel des Würfels: Die Einzelwahrscheinlichkeit, z.B. eine 2“ zu würfeln, ist ” unabhängig davon, wann gewürfelt wird, wenn der Prozess stationär ist. Wäre er instationär, wäre die Wahrscheinlichkeit abhängig vom Zeitpunkt des Würfelns. (Vorsicht: Die Einzelwahrscheinlichkeit kann nicht aus einem oder vielen Würfen bestimmt werden sondern nur über die Gesamtheit aller (unendlich vieler) möglichen Realisierungen.) Wenn weiterhin vorausgesetzt, dass der Prozess auch ergodisch [2] ist, kann der Scharmittelwert über viele Realisierungen zu einem festen Zeitpunkt t1 ersetzt werden durch das zeitliche Mittel über eine einzige Realisierung. Der Datensatz xi kann dann aufgefasst werden als Folge von Abtastwerten xi = x(i∆t) eines einzigen Signals x(t). Die zugehörigen Schätzer (18)–(20) behalten damit die gleiche Form. Am Beispiel des Würfels: Ist der zugrundeliegende stochastische Prozess ergodisch, erhält man den gleichen Mittelwert, wenn man einen Würfel sehr viele Male (eigentlich unendlich oft) wirft (zeitliches Mittel über eine Realisierung) oder wenn man zu einem festen Zeitpunkt sehr viele Würfel wirft (Scharmittelwert). Da oft nur eine einzige Realisierung des stochastischen Prozesses vorliegt, wird häufig die Annahme getroffen, der Prozess sei ergodisch. Unter dieser Annahme kann der Mittelwert oder die Varianz mit nur einer Realisierung bestimmt werden. Abbildung 8: Einteilung technischer Signale. A2 – 16 3.4.2 Korrelationsfunktion Unter der Voraussetzung, dass der stochastische Prozess stationär und ergodisch ist, beschreibt die Kovarianz zweier im zeitlichen Abstand τ gewonnenen Zufallsvariablen die lineare Ähnlichkeit dieser beiden Zufallsvariablen, also den inneren zeitlichen Zusammenhang des Prozesses und damit sein dynamisches Verhalten. Bei einem hochfrequenten Signal, d.h. die Amplitude ändert sich rasch“, wird dieser Zusammenhang für ein bestimmtes τ geringer ” sein als für ein tieffrequentes. Deswegen hat die Kovarianz für stochastische zeitabhängige Signale besondere Bedeutung, da sie eine Aussage macht, wie ausgeprägt zufällig“ bzw. ” stochastisch das Signal ist. (Die Autokorrelation des weißen Rauschens1 ist ein Dirac-Stoß, also unendlich schmal. Vergangene Werte und jetziger Wert hängen überhaupt nicht voneinander ab.) In der Technik gebräuchlicher ist die mit der Kovarianz verwandte Korrelationsfunktion, die ähnlich Gleichung (24) definiert ist, jedoch ohne die Zentrierung um den Mittelwert µ: Φxx (τ ) = E{x(t − τ )x(t)} . (27) Da das Signal mit sich selbst korreliert wird, heißt diese Funktion Auto-Korrelationsfunktion (AKF). Wendet man dieselbe Operation auf zwei unterschiedliche Signale x(t) und y(t) an, die beispielsweise Ein- und Ausgangssignal eines linearen Systems darstellen, erhält man die sogen. Kreuz-Korrelationsfunktion (KKF) Φxy (τ ) = E{x(t − τ )y(t)} . (28) Gebräuchlich ist auch die zentrierte, normierte Form ρxy (τ ) = Φxy (τ ) − µx µy , σx σy die Korrelationskoeffizient genannt wird (vgl. Gl. (21)). Anmerkung Einen Schätzer für (28) gewinnt man, wenn man den Scharmittelwert ersetzt durch den Zeitmittelwert über Datensätze der Länge T . Wegen der Zeitverschiebung der Datensätze um τ überlappen sich die Datensätze nur auf einer Länge von T − |τ |, was sowohl bei der Integrationsgrenze als auch beim Vorfaktor zu berücksichtigen ist: Z T −|τ | 1 x(t − τ )y(t)dt , (29) Φ̂xy (τ ) = T − |τ | 0 wobei jetzt der Schätzwert durch das Symbol ( ˆ ) vom wahren Wert unterschieden wird. Der Schätzer für die AKF entspricht (27) mit x = y. Bei der AKF sind die Faktoren in (27) vertauschbar. Daher ist es gleichgültig, in welche Richtung man um τ verschiebt. Somit ist die AKF eine gerade Funktion, deren Maximum bei τ = 0 liegt, da die um 0 verschobene Funktion sich selbst am ähnlichsten ist. Abbildung 9 zeigt die AKF für ein stochastisches Signal mit überlagertem Gleichanteil µx . (Beispiel: Die Spannung, die über einem rauschenden“ Widerstand (→ stochastisch) ” abfällt plus einer Gleichspannungsquelle (→ deterministisch; Gleichanteil).) Dabei gilt 1 Stochastischer Prozess X(t), der unkorreliert ist, dessen Erwartungswert null ist und der konstante Varianz hat. X(t) heißt Gauß’sch, wenn die Amplitude normalverteilt ist. A2 – 17 Φxx (∞) = µ2x . Der Wert der AKF für τ = 0 entspricht dem quadratischen Mittel, der sogen. Leistung“ des Signals: Φxx (0) = E{x2 (t)} = σx2 + µ2x nach (23). ” Angedeutet ist auch die Korrelationslänge τ0 , die ungefähr angibt, bis zu welcher Zeitverschiebung ein innerer Zusammenhang des Signals besteht. Die Erwartungswertbildung zur Bestimmung der Korrelation (29) muss mindestens diesen Bereich umfassen, während der Signalverlauf außerhalb dieser Grenzen kaum noch Einfluss auf die Korrelation hat . Bei stochastischen Signalen ist also die Fensterlänge in (15) ungefähr zu T = 2τ0 zu wählen. Die Korrelationslänge ergibt sich aus dem Schnitt der um τ = 0 durch eine Parabel angenäherten AKF und dem quadrierten Gleichanteil µ2x . Abbildung 9: Autokorrelationsfunktion eines stochastischern Signals mit Gleichanteil µx und Korrelationslänge τ0 . Abbildung 9 zeigt die nach Gl. (29) geschätzte AKF für ein sinusförmiges Signal, das durch ein hochfrequentes Rauschen gestört ist. (Im Praktikum wird einem sinusförmigen Spannungssignal ein Rauschsignal (Pseudorauschen), das einem Rauschgenerator entstammt, überlagert.) Offensichtlich eignet sich die AKF dazu, periodische von stochastischen Signalanteilen zu trennen. (Rauschen ist gerade gekennzeichnet durch eine AKF, die für τ 6= 0 rasch auf 0 abfällt.) Die Fensterlänge ist wie in Abschnitt 3.3 nach Möglichkeit der Periodendauer anzupassen. Kleine Rechnung, die zeigt, dass die AKF einer periodischen Funktion periodisch (in τ ) ist: E{cos(2πf t) · cos(2πf (t − τ ))} = E{0,5(cos(2πf τ )} + E{0,5 cos(2πf (2t − τ ))} . | {z } | {z } =0,5 cos(2πf τ ) =0 Der zweite Erwartungswert ist gleich 0, da zur Bestimmung des Erwartungswerts die in der Integrationsvariablen t periodische Funktion cos(2πf (t − τ )) über eine Periode integriert wird. Der erste Erwartungswert ist gleich dem Argument cos(2πf τ ), da der Erwartungswert bezüglich t gebildet wird und das Argument somit konstant ist. 3.4.3 Leistungsdichte-Spektrum Analog der Bestimmung des Spektrums eines Zeitsignals kann die Fouriertransformierte der Korrelationsfunktion ermittelt werden: A2 – 18 Abbildung 10: Gemessene Autokorrelationsfunktion eines sinusförmigen, stochastisch gestörten Signals. Sxy (f ) = Z ∞ Z ∞ Φxy (τ )e−j2πf τ dτ (30) Sxy (f )ej2πf τ df . (31) −∞ mit der Umkehrung Φxy (τ ) = −∞ Das Ergebnis nennt sich Kreuz-Leistungsdichte-Spektrum (KLS). Für x = y erhält man entsprechend das Auto-Leistungsdichte-Spektrum (ALS). Der Name Leistungsdichte-Spektrum stammt daher, dass in (31) für τ = 0 links die Leistung steht und rechts das Integral über Sxy (f ). Bei der praktischen Schätzung der Leistungsdichtespektren wählt man nicht den Weg über die Korrelationsfunktion, da für die Berechnung von (29) kein effizienter Algorithmus existiert. Statt dessen geht man aus von den Fouriertransformierten XT (f ) und YT (f ) der Signalausschnitte xT (t) und yT (t) nach (14), die mittels FFT bestimmt werden. Das komplexe Produkt 1 Ŝxy (f ) = XT∗ (f )YT (f ) , (32) T heißt Periodogramm und ist ein Schätzer für das KLS Sxy (f ). Praktisch berechnet werden die Faktoren diskret entsprechend (12) mit dem FFT-Algorithmus. Wichtig für das Verständnis ist, dass die Fouriertransformation trotz der Integration über die Zeit keine statistische Mittelung bewirkt. Die Spektren XT (f ) und YT (f ) und damit deren Produkt (32) sind daher ebenso stochastische Prozesse wie die Signalfunktionen xT (t) und yT (t). Folglich muss über mehrere Periodogramme gemittelt werden, was einer Scharmittelung entspricht. A2 – 19 Das Periodogramm (32) ist als Schätzer allerdings nicht erwartungstreu. Anmerkung Es läßt sich zeigen [5], dass E{Ŝxy (f )} = T Z ∞ −∞ Sxy (ϕ) µ sin(πT (f − ϕ)) πT (f − ϕ) ¶2 dϕ (33) gilt, d.h. das wahre Leistungsdichtespektrum Sxy (f ) wird mit dem Quadrat der Sinc-Funktion verschmiert, wie es bei (17) schon diskutiert wurde. Erst für T → ∞ ginge (33) über in Sxy (f ). Analog zum Leckeffekt infolge einer endlichen Fensterlänge bei der Bestimmung der DFT wird auch das Leistundsdichtespektrum verschmiert. Im praktischen Fall endlicher Fensterlängen T passt man T entweder der Korrelationslänge an oder – bei periodischen Komponenten – der Periodendauer entsprechend den Überlegungen in Abschnitt 3.3. Hierbei muss auch wieder gemäß (9) ein Kompromiss zwischen der Auflösung im Zeit- und Frequenzbereich getroffen werden. Abbildung 11: Auto-Leistungsdichtespektren zu den Bildern 9 und 10. Zur Veranschaulichung ist in Bild 11a) das ALS Sxx (f ) zur AKF Φxx (τ ) von Bild 9 dargestellt. Der Gleichanteil (Frequenz f = 0) wird zur Spektrallinie bei f = 0, während 1/τ0 eine Art Mittenfrequenz bedeutet und die Breite des Spektrums bestimmt. Bild 11b) gehört entsprechend zu Bild 10. Der periodische Anteil bildet sich in zwei Spektrallinien bei ±f0 ab (f0 : Frequenz des Sinus), während die stochastische Störung einem breiten, nahezu weißen“ Spektrum entspricht.(Ein Spektrum ist weiß, wenn alle Frequen” zen mit gleicher Leistung vorkommen: das Leistungsdichtespektrum hat konstanten Betrag.) 3.4.4 Streuung der Schätzwerte Der allgemeine Zusammenhang zwischen Messzeit und Streuung für die verschiedenen Schätzwerte zeitabhängiger stochastischer Prozesse ist ziemlich kompliziert. Werden jedoch unkorrelierte Datensätze verwendet, gilt für das gemittelte Ergebnis von N Schätzwerten sinngemäß die einfache Beziehung (25), also A2 – 20 Var{Mittel} = Var{Einzelschätzwert} . N (34) Unkorreliert bedeutet für die zeitunabhängigen Schätzwerte (18) bis (20), dass die Daten xi in Zeitabständen größer als die Korrelationslänge τ0 gewonnen werden. Das Abtasttheorem spielt hier keine Rolle. Für die zeit- und frequenzabhängigen Schätzwerte (29) und (32) müssen entsprechend Datensätze der Länge T > τ0 verwendet werden. Unkorreliert bedeutet, dass der Korrelationskoeffizient gleich 0 ist. Die betrachteten Zufallsvariablen sind sich komplett unähnlich. Statistisch unabhängig bedeutet, dass die Verbundwahrscheinlichkeitsdichte gleich dem Produkt der Einzelwahrscheinlichkeitsdichten ist. Am Beispiel der Würfel: Die Wahrscheinlichkeit, dass ich mit dem ersten Würfel eine 1 würfle und mit dem zweiten eine 5, ist gleich dem Produkt der Einzelwahrscheinlichkeiten, dass ich mit dem ersten eine 1 und mit dem zweiten eine 5 würfle, sofern die Zufallsvariablen Würfel 1“ (bzw. Augenzahl von Würfel 1“) und ” ” Würfel 2“ statistisch unabhängig sind. Ein Gegenbeispiel wäre etwa, dass beide Würfel immer das Gleiche ” anzeigen. Ein Beispiel für zwei diskrete Zufallsvariablen X und Y , die zwar unkorreliert, jedoch nicht statistisch unabhängig sind (aus [3]). Die gemeinsame Verteilung zweier Zufallsvariablen X und Y sei durch P (X = 0, Y = 0) = 1/2, P (X = 1, Y = 1) = P (X = −1, Y = 1) = 1/4 gegeben. Es folgt E{X · Y } = 0 · 0 · 1/2 + 1 · 1 · 1/4 + (−1) · 1 · 1/4 = 0 und wegen P (X = 0) = 1/2, P (X = 1) = P (X = −1) = 1/4 E{X} = 0, und somit C(X, Y ) = 0, d. h. X und Y sind statistisch unkorreliert. Wegen P (Y = 0) = 1/2 gilt weiter 1/2 = P (X = 0, Y = 0) 6= P (X = 0) · (P (Y = 0) = 1/4. Somit sind X und Y nicht statistisch unabhängig. A2 – 21 3.4.5 Anwendung: Laufzeitmessung In Bild 12 ist das Prinzip der Geschwindigkeitsmessung mit Laufzeit-Korrelationsverfahren dargestellt: Ein sich mit der Geschwindigkeit v bewegendes Messgut (im Praktikums-Versuch: ein Kraftfahrzeug-Keilriemen) wird mit Leuchtdioden beleuchtet. Die vom Keilriemen reflektierte Strahlung (das reflektierte Licht) wird mit einem optischen System auf zwei Detektoren eines Sensors abgebildet. Die Sichtbereiche der beiden Detektoren sind (in Laufrichtung) gegeneinander versetzt. Wird der Riemen angetrieben, sieht“ der zweite Detektor zeitlich ” versetzt, was der erste gerade sieht“. ” Die von den Detektoren empfangenen Signale x(t) und y(t) entstehen durch (i.a. stochastisch) ortsabhängige Oberflächeneigenschaften des Keilriemens wie z.B. Helligkeitsunterschiede. Im Idealfall sind beide Signale identisch, jedoch um eine Laufzeit T gegeneinander verschoben: y(t) = x(t − T ) . Sensor optische Abbildung L x T t y t Beleuchtung Korrelation v Fxy Geschwindigkeit: v=L/T T t Abbildung 12: Geschwindigkeitsmessung mit Korrelationsverfahren. Setzt man diesen Zusammenhang in (28) ein, ergibt sich die KKF zu Φxy (τ ) = E{x(t − τ )x(t − T )} = Φxx (τ − T ) , (35) (36) die in diesem Fall identisch ist mit der um T verschobenen AKF (Bild 9). Man findet also die Laufzeit beim Maximum der KKF, woraus man die Geschwindigkeit des Keilriemens ν = L/T bestimmen kann. A2 – 22 (37) 4 Versuchsdurchführung 4.1 Digitales Speicheroszilloskop 1. Zuerst sollen die Grundfunktionen des Oszilloskops zur Darstellung von Signalen kennengelernt werden. (Die Bedienung des Oszilloskops ist recht intuitiv. Für zusätzliche Informationen liegt eine Bedienungsanleitung aus.) Mittels eines Signalgenerators wird ein Sinussignal mit einem Gleichanteil erzeugt, wobei Amplitude und Frequenz des Sinus und Gleichanteil frei wählbar sind. Mit der richtigen Einstellung von Zeitablenkung und Trigger sollen das Signal dargestellt und die Frequenz, die Amplitude (des Sinus) und der Gleichanteil mit Hilfe der Cursor-Funktionen abgelesen werden. Anschließend sollen die so bestimmten Werte mit den vom Oszilloskop automatisch ermittelten verglichen werden. 2. Nun wird die Dehnfunktion eingesetzt. Ein Rechtecksignal der Frequenz 1 kHz wird erzeugt und am Oszilloskop dargestellt. Das Signal soll in zwei Fenstern übereinander mit Hilfe der Dehnfunktion dargestellt werden, so dass im unteren Fenster die Anstiegszeit eines Rechtecks bestimmt werden kann. Die von der automatischen Rechenfunktion ermittelte Anstiegszeit soll mit dem abgelesenen Wert verglichen werden. 3. Der Trigger soll zur Erfassung einmaliger Vorgänge eingestellt und ausgelöst werden. Mit Hilfe eines an einem Stoßpendel angebrachten Beschleunigungsmessers soll ein Impuls erzeugt werden. Das erfasste Signal soll abgespeichert, der Versuch anschließend wiederholt und ein neuer Impuls aufgezeichnet werden. Das neu aufgezeichnete und das abgespeicherte Signal sollen zusammen dargestellt und kurz verglichen werden (etwa hinsichtlich ihrer Breite“). ” 4. Am Beispiel einer stark verrauschten Sprungantwort eines RC-Glieds soll der Unterschied zwischen Ensemble- und zeitlicher Mittelung erläutert werden. Für verschiedene Mittelungszahlen N sollen zeitliche und Ensemble-Mittelungen durchgeführt und die Streuung geschätzt werden. Frage: Ist der Prozess stationär? 4.2 Spektrum-Analysator 1. Da sich der Leck-Effekt, der bei der DFT mit endlicher Fensterlänge auftritt, nur bei einer sehr geringen Stützstellenanzahl (der DFT) deutlich sichtbar auswirkt, wird dieser Effekt in der Matlab-Simulation Leckeffekt“ gezeigt (vgl. Bild 13). ” Wählbare Parameter sind das Eingangssignal (Sinus, Rechteck oder Sägezahn), die Anzahl der Punkte der DFT (16, 32, 64, 128, 256, 512 oder 1024) und das Fenster (Rechteck, Dreieck (Bartlett), Hanning, Hamming). Mittels Schieberegler lässt sich die Breite des Fensters einstellen. A2 – 23 Abbildung 13: Oberfläche des Matlab-Programms Leckeffekt.m. 2. Für ein stark verrauschtes Sinussignal (analoge Addiererschaltung mit Rauschen und Sinus als Eingänge) soll die Grundfrequenz des Sinus im Zeitbereich bestimmt werden. Auch nach zeitlicher Mittelung des Signals lässt sich die Grundfrequenz nicht richtig bestimmen. Nun soll die AKF und das Periodogramm (die Schätzung des ALS) dargestellt werden und daraus die gesuchte Frequenz ermittelt werden. 3. Mit Hilfe von Stoßpendel und Beschleunigungsmesser sollen erneut Impulse erzeut werden. Dabei ist darauf zu achten, wie Auslenkwinkel, Breite des zeitlichen Signals und Breite des Spektrums zusammenhängen. Weiterhin ist festzuhalten, wie Auflösung im Zeitbereich und Auflösung im Frequenzbereich zusammenhängen. A2 – 24 4. An einem Versuchsstand zur Geschwindigkeitsmessung von Kfz-Keilriemen soll der Einsatz der KKF in der Praxis gezeigt werden. Demonstriert wird die Geschwindigkeitsmessung sowohl mit dem closed-Loop als auch mit dem open-Loop Korrelator. Der closed-Loop Korrelator benutzt dabei die aktuellste Geschwindigkeitsmessung zur Bestimmung des neuen Messergebnisses, während der open-Loop Korrelator kein Vorwissen berücksichtigt. Welche Vorteile könnte ein Korrelator gegenüber einer klassischen Geschwindigkeitsmessung mit Umdrehungszähler bieten? A2 – 25 A Abbildungen Die folgenden Abbildungen dienen der Vertiefung des Stoffs bzw. schlicht der Erheiterung. Abbildung 14: DFT eines bandbegrenzten periodischen Signals: Fensterbreite und Signalperiode stimmen überein (aus [1], S. 124). A2 – 26 Abbildung 15: DFT eines bandbegrenzten periodischen Signals: Die Fensterbreite ist kein ganzzahliges Vielfaches der Signalperiode, was zum Leckeffekt führt (aus [1], S. 128). A2 – 27 Dass Statistik nicht nur trockene Materie behandelt, zeigt das letzte Bild. Abbildung 16: Zweidimensionale Verteilung von Hüft- und Oberweite (nach Messungen an englischen Frauen; [11], S. 2). A2 – 28 Literatur [1] B RIGHAM , E. O RAN: The Fast Fourier Transform and its Applications. Prentice Hall, 1988. [2] H ÄNSLER , E.: Statistische Signale. Grundlagen und Anwendungen. Springer Verlag, 1997. [3] H ENZE , N ORBERT: Stochastik I. Universitdt Karlsruhe, 2004. [4] M AYER , G ERHARD: Oszilloskope. H—thig-Verlag, 1997. [5] M ESCH , F RANZ: Vorlesung: Korrelationsverfahren in der Mess- und Regelungstechnik. Institut f—r Mess- und Regelungstechnik, Karlsruhe. [6] PATZELT, R., H. S CHWEINZER: Elektrische Messtechnik. Springer Verlag, 1996. [7] P FEIFFER , W OLFGANG: Digitale Messtechnik. Springer Verlag, 1998. [8] P RAKTIKUM , M ESSTECHNISCHES: Versuch: Analoge Verarbeitung digitaler Signale. Institut für Mess- und Regelungstechnik, Karlsruhe, 2004. [9] P RAKTIKUM , M ESSTECHNISCHES: Versuch: Messen elektrischer Signale. Institut für Mess- und Regelungstechnik, Karlsruhe, 2004. [10] S CHR ÜFER , E LMAR: Signalverarbeitung – Numerische Verarbeitung digitaler Signale. Hanser Verlag, 1990. [11] S TANGE , K URT: Angewandte Statistik II: Mehrdimensionale Probleme. Springer Verlag, 1971. A2 – 29