Class Hub
Randomness · 4·~22 min read·🟢 Light exam — load-bearing for noise

Stationarity & ergodicity

Χρειάζεσαι:Random processes

Στο προηγούμενο κεφάλαιο είδαμε ότι η αυτοσυσχέτιση του random-phase cosine εξαρτάται μόνο από τη διαφορά χρόνων . Αυτή η ιδιότητα — οι στατιστικές να είναι αμετάβλητες σε χρονική μετατόπιση — είναι τόσο σημαντική που της δίνουμε όνομα: stationarity.

Σε αυτό το κεφάλαιο:

  1. Ορίζουμε strict-sense stationarity (SSS) — αυστηρή έννοια.
  2. Ορίζουμε wide-sense stationarity (WSS) — πρακτική έννοια που χρησιμοποιούμε.
  3. Συζητάμε ergodicity — πότε time average ισούται με ensemble average.
  4. Λύνουμε ένα παράδειγμα όπου ένα process δεν είναι WSS και ένα όπου είναι αλλά όχι ergodic.

1. Strict-sense stationarity

Ένα random process είναι strict-sense stationary αν όλες οι joint distributions του είναι αμετάβλητες σε χρονική μετατόπιση. Επίσημα, για κάθε και κάθε χρονική μετατόπιση :

Δηλαδή: η πιθανότητα να βρεθώ σε συγκεκριμένη συνδυαστική κατάσταση είναι ίδια όποτε κι αν βρίσκομαι. Πολύ ισχυρή συνθήκη — δύσκολο να εξακριβωθεί στην πράξη.

2. Wide-sense stationarity (WSS) — αυτό που χρησιμοποιούμε

Στην πράξη χρειαζόμαστε μόνο τις πρώτες δύο ροπές (mean και autocorrelation) να είναι σταθερές. Αυτό είναι το wide-sense stationary:

Δύο συνθήκες:

  1. Σταθερός μέσος στον χρόνο.
  2. Autocorrelation εξαρτάται μόνο από τη διαφορά χρόνων.

Σχέση με SSS: SSS ⇒ WSS (αλλιώς θα ήταν SSS και όχι ισχυρότερη). Αλλά WSS ⇏ SSS γενικά. Για Gaussian processes ισχύει WSS ⇔ SSS (γιατί η Gaussian οικογένεια ορίζεται πλήρως από mean και covariance).

Γιατί WSS αρκεί συνήθως

Στις περισσότερες εφαρμογές (θόρυβος σε δέκτες, διαμόρφωση), μάς ενδιαφέρει η ισχύς του σήματος και το φάσμα του. Και τα δύο εκφράζονται μέσω της autocorrelation:

  • ισχύς
  • PSD (επόμενο κεφάλαιο)

Άρα το WSS αρκεί για όλη τη φαρδιά συμβατική ανάλυση SNR / spectrum / filtering.

Decomposition R_X(τ) = μ_X² + R_N(τ) για non-zero-mean

Αν ένα WSS process έχει σταθερό αλλά μη μηδενικό μέσο , μπορούμε να το αναλύσουμε ως:

Τότε η αυτοσυσχέτιση γίνεται:

(Οι σταυρωτοί όροι και μηδενίζονται λόγω zero-mean.)

Σημαντική παρατήρηση: η έχει έναν σταθερό όρο που δεν εξαρτάται από το . Αυτό σημαίνει ότι όταν (για processes που «ξεχνούν» γρήγορα), και άρα . Δηλαδή ο μέσος όρος μπορεί να βρεθεί από το asymptotic της autocorrelation:

Αυτή η decomposition εμφανίζεται όταν αναλύουμε modulated σήματα όπου ένα DC offset συνυπάρχει με τυχαίο message — π.χ. AM σήμα με ως DC + message ως random.

3. Ιδιότητες της R_X(τ) για WSS process

Από WSS η είναι συνάρτηση μόνο του :

ΙδιότηταΤύπος
Άρτια
Maximum στο 0
Ισχύς
Asymptote για ασυσχέτιστες τιμές καθώς $

Πρόσθετη: η είναι non-negatively definite — δηλαδή είναι FT μιας μη αρνητικής συνάρτησης (της PSD). Δεν την αποδεικνύουμε εδώ, αλλά την χρησιμοποιούμε στο επόμενο κεφάλαιο.

4. Ergodicity — πότε μία καταγραφή αρκεί

Σκέψου: στην πράξη δεν μπορούμε να καταγράψουμε χίλιες διαφορετικές realizations του ίδιου random process. Έχουμε μία, που γράφεται μέσα από έναν δέκτη.

Πώς υπολογίζουμε τότε τις στατιστικές (); Παίρνουμε time averages από αυτή τη μία καταγραφή:

Ergodicity είναι η συνθήκη που κάνει αυτή την ιδέα να δουλεύει:

Όπου «η.π.» = με πιθανότητα 1. Δηλαδή, για σχεδόν κάθε realization, ο time-average ισούται με τον ensemble-average.

Σχέση με stationarity: Ergodic ⇒ WSS (γιατί πρέπει να είναι σταθερός για να ορίζεται). Αλλά WSS ⇏ ergodic γενικά.

Ergodicity — time-average vs ensemble-average

Ergodic στον μέσο — ο time-average (μπλε) και ο ensemble-average (μωβ) τείνουν στην ίδια τιμή. Άρα μπορούμε να εκτιμήσουμε τον μέσο του process από μία αρκετά μακροχρόνια καταγραφή.

Δες τα presets:

  • Λευκός θόρυβος: time-average και ensemble-average συγκλίνουν στο 0. Ergodic ✓
  • Random-phase cosine: ίδιο. Ergodic ✓
  • Random DC: το time-average σε κάθε realization είναι η DC τιμή της — όχι ο ensemble mean! Δείχνει το process είναι WSS αλλά όχι ergodic.

Γιατί δεν είναι πάντα ergodic

Στο random-DC παράδειγμα, κάθε realization είναι μια σταθερά (δειγματισμένη μία φορά κατά την έναρξη). Ο μέσος όρος στον χρόνο ισούται με αυτό το η συγκεκριμένη realization του πειράματος, όχι το . Διαφορετική realization → διαφορετικό time-average.

Σε αντίθεση, ο λευκός θόρυβος αλλάζει τόσο γρήγορα που η ίδια η μία realization καλύπτει «όλη την κατανομή» στον χρόνο — ο time-average στατιστικά ίδιος με τον ensemble average.

5. Worked example — διάκριση WSS / not WSS

Σύγκρινε: το random-phase cosine είναι WSS, το random-amplitude cosine δεν είναι. Αυτό φαίνεται οπτικά στο <RandomProcessRealizationsViz /> του προηγούμενου κεφαλαίου — δες το preset «A cos(2π f₀ t), A ~ N(0,1)» και θα παρατηρήσεις ότι όλες οι realizations έχουν το ίδιο σχήμα αλλά διαφορετικά πλάτη: όταν είναι στο peak, οι statistics εξαρτώνται από το .

6. Joint stationarity (για δύο processes)

Δύο processes και είναι jointly WSS αν:

  1. Καθένα από μόνο του είναι WSS.
  2. Το cross-correlation εξαρτάται μόνο από τη διαφορά: .

Παράδειγμα: ο θόρυβος εισόδου και ο θόρυβος του δέκτη είναι από διαφορετικές πηγές → uncorrelated, jointly WSS.

7. Σύνοψη

ΈννοιαΣυνθήκη
SSSΌλες οι joint distributions αμετάβλητες σε time shift
WSS const και
Ergodic στον μέσο
Ergodic στην autocorrelation
ΣχέσειςSSS ⇒ WSS, ergodic ⇒ WSS. Για Gaussian: WSS ⇔ SSS.

Εξάσκηση

0 / 5 λυμένα

Πέντε ερωτήσεις για να ξεχωρίσεις WSS από non-WSS και να καταλάβεις τι κάνει η ergodicity.

Τι μάθαμε

  • WSS είναι η πρακτική έννοια stationarity: σταθερός μέσος + autocorrelation που εξαρτάται μόνο από .
  • Random-phase cosine είναι WSS. Random-amplitude cosine δεν είναι.
  • Ergodicity σου επιτρέπει να μετράς ensemble statistics από μία μακροχρόνια καταγραφή — απαραίτητο στην πράξη.
  • Στις εξετάσεις του K21, τα random signals που εμφανίζονται είναι σχεδόν πάντα WSS και ergodic εκτός αν αναφέρεται διαφορετικά.
  • Επόμενο κεφάλαιο: η PSD ενός WSS process — η FT της autocorrelation, που γενικεύει την Wiener-Khinchin που είδαμε για ντετερμινιστικά σήματα.
Επόμενο
Power spectral density
Φόρτωση σχολίων…
Stationarity & ergodicity · Signal Processing Class Hub