Aspettativa matematica di un processo casuale. Il concetto di processo casuale in matematica. Metodo analitico grafico per la determinazione della varianza

Gli antipiretici per i bambini sono prescritti da un pediatra. Ma ci sono situazioni di emergenza per la febbre in cui il bambino ha bisogno di ricevere immediatamente medicine. Quindi i genitori si assumono la responsabilità e usano farmaci antipiretici. Cosa è consentito dare ai neonati? Come abbassare la temperatura nei bambini più grandi? Quali farmaci sono i più sicuri?

Ministero dell'Istruzione e della Scienza della Federazione Russa

Università statale di Cherepovets

Istituto di Ingegneria ed Economia

Il concetto di processo casuale in matematica

Eseguito da uno studente

gruppo 5 GMU-21

Ivanova Julia

Cherepovets


introduzione

Parte principale

Definizione di processo casuale e sue caratteristiche

Processi stocastici di Markov a stati discreti

Processi casuali stazionari

Proprietà ergodica dei processi casuali stazionari

Letteratura


introduzione

Il concetto di processo casuale è stato introdotto nel XX secolo ed è associato ai nomi di A.N. Kolmogorov (1903-1987), A.Ya. Khinchin (1894-1959), E.E. Slutsky (1880-1948), N. Wiener (1894-1965).

Questo concetto oggi è uno dei centrali non solo nella teoria della probabilità, ma anche nelle scienze naturali, nell'ingegneria, nell'economia, nell'organizzazione della produzione e nella teoria della comunicazione. La teoria dei processi casuali appartiene alla categoria delle discipline matematiche in più rapido sviluppo. Indubbiamente, questa circostanza è in gran parte determinata dai suoi profondi legami con la pratica. Il XX secolo non poteva accontentarsi dell’eredità ideologica ricevuta dal passato. Infatti, mentre un fisico, un biologo, un ingegnere era interessato al processo, ad es. il cambiamento del fenomeno studiato nel tempo, la teoria della probabilità offriva loro come apparato matematico solo il mezzo che studiava gli stati stazionari.

Per studiare i cambiamenti nel tempo, la teoria della probabilità tra la fine del XIX e l'inizio del XX secolo non aveva schemi particolari sviluppati, tanto meno tecniche generali. E la necessità di crearli ha letteralmente bussato alle finestre e alle porte della scienza matematica. Lo studio del moto browniano in fisica ha portato la matematica sulla soglia della creazione di una teoria dei processi casuali.

Ritengo necessario menzionare due gruppi di studi più importanti, iniziati in tempi diversi e per ragioni diverse.

Innanzitutto, questo lavoro di A.A. Markov (1856-1922) sullo studio delle dipendenze a catena. In secondo luogo, le opere di E.E. Slutsky (1880-1948) sulla teoria delle funzioni casuali.

Entrambe queste direzioni hanno svolto un ruolo molto significativo nella formazione della teoria generale dei processi casuali.

A questo scopo era già stato accumulato un notevole materiale iniziale e la necessità di costruire una teoria aleggiava per così dire nell'aria.

Restava da effettuare un'analisi approfondita delle opere esistenti, delle idee e dei risultati in esse espressi e, sulla base di essa, effettuare la necessaria sintesi.


Definizione di processo casuale e sue caratteristiche

Definizione: processo casuale X(t) è un processo il cui valore per qualsiasi valore dell'argomento t è una variabile casuale.

In altre parole, un processo casuale è una funzione che, a seguito del test, può assumere una o un'altra forma specifica, sconosciuta in anticipo. Per un fisso t=t 0 X(t 0) è una variabile casuale ordinaria, cioè sezione processo casuale al tempo t 0.

Esempi di processi casuali:

1. la popolazione della regione nel tempo;

2. il numero di richieste pervenute al servizio di riparazione dell'azienda nel tempo.

Un processo casuale può essere scritto come funzione di due variabili X(t,ω), dove ω€Ω, t€T, X(t, ω) € ≡ e ω è un evento elementare, Ω è lo spazio degli eventi elementari , Т è l'insieme dei valori dell'argomento t, ≡ - insieme dei possibili valori del processo casuale X(t, ω).

Implementazione il processo casuale X(t, ω) è una funzione non casuale x(t), in cui il processo casuale X(t) si trasforma come risultato del test (per un ω fisso), cioè forma specifica assunta dal processo casuale X(t), its traiettoria.

Così, processo casuale X(t,ω) combina le caratteristiche di una variabile casuale e di una funzione. Se fissi il valore dell'argomento t, il processo casuale si trasforma in una variabile casuale ordinaria, se fissi ω, come risultato di ogni test si trasforma in una normale funzione non casuale. In quanto segue ometteremo l'argomento ω, ma sarà assunto per impostazione predefinita.

La Figura 1 mostra diverse implementazioni di alcuni processi casuali. Sia la sezione d'urto di questo processo per un dato t una variabile casuale continua. Allora il processo casuale X(t) per un dato t è completamente determinato dalla probabilità φ(x‚ t). Ovviamente la densità φ(x, t) non è una descrizione esaustiva del processo casuale X(t), perché non esprime la dipendenza tra le sue sezioni in tempi diversi.

Il processo casuale X(t) è una raccolta di tutte le sezioni per tutti i possibili valori di t, pertanto, per descriverlo, è necessario considerare una variabile casuale multidimensionale (X(t 1), X(t 2), ..., X(t n)), costituito da tutte le combinazioni di questo processo. In linea di principio, esistono infinite combinazioni di questo tipo, ma per descrivere un processo casuale è spesso possibile cavarsela con un numero relativamente piccolo di combinazioni.

Si dice che abbia un processo casuale ordineN, se è completamente determinato dalla densità di distribuzione congiunta φ(x 1, x 2 , …, x n ; t 1 , t 2 , …, t n) n sezioni arbitrarie del processo, cioè densità di una variabile casuale n-dimensionale (X(t 1), X(t 2), …, X(t n)), dove X(t i) è una combinazione di un processo casuale X(t) al tempo ti , i =1, 2 , …, n.

Come una variabile casuale, un processo casuale può essere descritto da caratteristiche numeriche. Se per una variabile casuale queste caratteristiche sono numeri costanti, allora per un processo casuale - caratteristiche non casuali.

aspettativa matematica il processo casuale X(t) è una funzione non casuale a x (t), che, per qualsiasi valore della variabile t, è uguale all'aspettativa matematica della sezione corrispondente del processo casuale X(t), cioè ascia(t)=M.

dispersione il processo casuale X(t) è una funzione non casuale D x (t), per qualsiasi valore della variabile t uguale alla varianza della corrispondente combinazione del processo casuale X(t), cioè Dx(t)=D.

Deviazione standardσ x (t) di un processo casuale X(t) è il valore aritmetico della radice quadrata della sua varianza, cioè σx(t)= Dx(t).

Caratterizza l'aspettativa matematica di un processo casuale mezzo la traiettoria di tutte le sue possibili realizzazioni e la sua varianza o deviazione standard - spargere realizzazioni relative alla traiettoria media.

Le caratteristiche di un processo casuale introdotte sopra non sono sufficienti, poiché sono determinate solo da una legge di distribuzione unidimensionale. Se un processo casuale X 1 (t) è caratterizzato da una lenta variazione dei valori delle implementazioni con una variazione di t, allora per un processo casuale X 2 (t) questo cambiamento è molto più veloce. In altre parole, un processo casuale X 1 (t) è caratterizzato da una stretta relazione probabilistica tra le sue due combinazioni X 1 (t 1) e X 1 (t 2), mentre per un processo casuale X 2 (t) questa dipendenza tra la combinazione di X 2 (t 1) e X 2 (t 2) è praticamente assente. Questa dipendenza tra combinazioni è caratterizzata da una funzione di correlazione.

Definizione: funzione di correlazione il processo casuale X(t) è detto funzione non casuale

K x (t 1 , t 2) = M[(X(t 1) – a x (t 1))(X(t 2) – a x (t 2))] (1.)

due variabili t 1 e t 2 , che per ciascuna coppia di variabili t 1 e t 2 è pari alla covarianza delle corrispondenti combinazioni X(t 1) e X(t 2) del processo casuale.

Ovviamente, per un processo casuale X (t 1) la funzione di correlazione K x 1 (t 1, t 2) diminuisce al crescere della differenza t 2 - t 1 molto più lentamente di K x 2 (t 1 , t 2) per un processo casuale X (t2).

La funzione di correlazione K x (t 1 , t 2) caratterizza non solo il grado di rigidità della relazione lineare tra due combinazioni, ma anche la diffusione di queste combinazioni rispetto all'aspettativa matematica a x (t). Pertanto, viene considerata anche la funzione di correlazione normalizzata del processo casuale.

Funzione di correlazione normalizzata il processo casuale X(t) è chiamato funzione:

P x (t 1 , t 2) = K x (t 1 , t 2) / σ x (t 1)σ x (t 2) (2)

Esempio 1

Il processo casuale è definito dalla formula X(t) = X cosωt, dove X è una variabile casuale. Trovare le caratteristiche principali di questo processo se M(X) = a, D(X) = σ 2 .

SOLUZIONE:

Basandosi sulle proprietà dell’aspettativa matematica e della dispersione, abbiamo:

a x (t) = M(X cosωt) = cosωt * M(X) = a cosωt,

D x (t) = D(X cosωt) = cos 2 ωt * D(X) = σ 2 cos 2 ωt.

Troviamo la funzione di correlazione con la formula (1.)

K x (t 1, t 2) = M[(X cosωt 1 - a cosωt 1) (X cosωt 2 - a cosωt 2)] =

Cosωt 1 cosωt 2 * M[(X - a)(X - a)] = cosωt 1 cosωt 2 * D(X) = σ 2 cosωt 1 cosωt 2 .

Troviamo la funzione di correlazione normalizzata con la formula (2.):

P x (t 1, t 2) \u003d σ 2 cosωt 1 cosωt 2 / (σ cosωt 1) (σ cosωt 2) ≡ 1.

I processi casuali possono essere classificati a seconda che gli stati del sistema in cui si verificano cambino in modo graduale o brusco, ovviamente (numerabile) o in un numero infinito di questi stati, ecc. Tra i processi casuali un posto speciale spetta al processo casuale di Markov.

Teorema. Un processo casuale X(t) è Hilbert se e solo se esiste R(t, t^) per ogni (t, t^) e T*T.

La teoria dei processi casuali di Hilbert è chiamata teoria delle correlazioni.

Si noti che l'insieme T può essere discreto e continuo. Nel primo caso, il processo casuale X t è chiamato processo a tempo discreto, nel secondo a tempo continuo.

Di conseguenza, le combinazioni di X t possono essere variabili casuali discrete e continue.

Il processo casuale si chiama X(t) selettivamente irregolare, differenziabile e integrabile in un punto ω€Ω se la sua realizzazione x(t) = x(t, ω) è rispettivamente continua, differenziabile e integrabile.

Il processo casuale X(t) è detto continuo: quasi, probabilmente Se

P(A)=1, A = (ω € Ω : lim x(t n) = x(t))

IN significa quadrato, Se

Lim M[(X(t n) – X(t)) 2 ] = 0

Per probabilità, Se

Aδ ≥ 0: limP[| X(tn) – X(t)| > δ] = 0

La convergenza quadratica media è anche indicata da:

X(t) = limX(t n)

Risulta che dalla continuità selettiva segue la continuità quasi sicuramente, dalla continuità quasi sicuramente, e nel quadrato medio implica continuità in probabilità.

Teorema. Se X(t) è un processo casuale di Hilbert continuo nel quadrato medio, allora m x (t) è una funzione continua e la relazione

Lim M = M = M .

Teorema. Il processo casuale di Hilbert X(t) è continuo medio quadrato se e solo se la sua funzione di covarianza R(t, t^) è continua nel punto (t, t).

Un processo casuale di Hilbert X(t) è detto differenziabile medio quadratico se esiste una funzione casuale X(t) = dX(t)/dt tale che

X(t) = dX(t)/ dt = limX(t+∆t) – X(t) / ∆t

(t € T, t +∆t € T),

quelli. Quando

Lim M [((X(t + ∆t) – X(t) / (∆t)) – X(t)) 2 ] = 0

Verrà chiamata la funzione casuale X(t). derivata quadrata media processo casuale X(t), rispettivamente nel punto to su T.

Teorema. Un processo casuale di Hilbert X(t) è differenziabile nel punto medio se e solo se esiste

δ 2 R(t, t^) / δtδt^ nel punto (t, t^). In cui:

R x (t, t^) = M = δ 2 R(t, t^) / δtδt^.

Se un processo casuale di Hilbert è differenziabile su T, allora anche la sua derivata quadratica media è un processo casuale di Hilbert; se le traiettorie campionarie del processo sono differenziabili su T con probabilità 1, allora con probabilità 1 le loro derivate coincidono con le derivate quadratiche medie su T.

Teorema. Se X(t) è un processo casuale di Hilbert, allora

M = (d/dt) M = dm x (t)/dt.

Sia (0, t) un intervallo finito, 0

X(t) - Processo casuale di Hilbert.

Y n \u003d ∑ X (t i) (t i - t i-1) (n \u003d 1.2, ...).

Quindi la variabile casuale

max (t i – t i -1)→0

chiamato integrale quadrato medio processo X(t) su (0, t) ed è denotato da:

Y(t) = ∫ X(τ)dτ.

Teorema . L'integrale quadratico medio Y(t) esiste se e solo se la funzione di covarianza R(t, t^) del processo di Hilbert X(t) è continua su T×T ed esiste un integrale

R y (t, t^) = ∫ ∫ R(τ, τ^) dτdτ^

Se esiste l'integrale nella funzione quadratica media X(t), allora

M = ∫ Mdτ,

R Y (t, t^) = ∫ ∫ R(τ, τ^)dτdτ^

K y (t, t^) = ∫ ∫ K(τ, τ^)dτdτ^

Qui R y (t, t^) = M, K y (t, t^) = M sono le funzioni di covarianza e correlazione del processo casuale Y(t).

Teorema. Sia X(t) un processo casuale di Hilbert con funzione di covarianza R(t, t^), φ(t) sia una funzione reale e sia un integrale

∫ ∫ φ(t)φ(t^)R(t, t^)dtdt^

Allora esiste l'integrale quadratico medio

∫ φ(t)X(t)dt.

Processi casuali:

X io (t) = V i φ io (t) (i = 1n)

Dove φ i (t) sono date funzioni reali

V i - variabili casuali con caratteristiche

Si chiamano elementari.

Decomposizione canonica processo casuale X(t) è chiamata la sua rappresentazione nella forma

Dove V i sono i coefficienti, e φ i (t) sono le funzioni coordinate dello sviluppo canonico del processo X(t).

Dalle relazioni:

M(V I = 0), D(V I) = D I , M(V io V j) = 0 (i ≠ j)

X(t) = m x (t) + ∑ V i φ i (t) (t € T)

K(t, t^) = ∑ D i φ i (t)φ i (t^)

Questa formula si chiama decomposizione canonica funzione di correlazione di un processo casuale.

Nel caso dell'equazione

X(t) = m x (t) + ∑ V i φ i (t) (t € T)

Ci sono formule:

X(t) = mx(t) + ∑ V iφ(t)

∫ x(τ)dt = ∫ m x (τ)dτ + ∑ V i ∫ φ i (t)dt.

Pertanto, se il processo X(t) è rappresentato dal suo sviluppo canonico, allora anche la sua derivata e il suo integrale possono essere rappresentati come sviluppi canonici.

Processi stocastici di Markov a stati discreti

Un processo casuale che avviene in un sistema S con possibili stati S 1 , S 2 , S 3 , ... è chiamato Markovsky, O processo casuale senza conseguenze, se per qualsiasi istante di tempo t 0 le probabili caratteristiche del processo nel futuro (at > t 0) dipendono solo dal suo stato nell'istante attuale t 0 e non dipendono da quando e come il sistema è arrivato a questo stato ; quelli. non dipendono dal suo comportamento nel passato (a t

Un esempio di processo di Markov: il sistema S è un contatore in un taxi. Lo stato del sistema al tempo t è caratterizzato dal numero di chilometri (decine di chilometri) percorsi dall'auto fino a quel momento. Lascia che al momento t 0 il contatore mostri S 0 / La probabilità che al momento t>t 0 il contatore mostri questo o quel numero di chilometri (più precisamente, il numero corrispondente di rubli) S 1 dipende da S 0 , ma non dipende in quale momento le letture del contatore sono cambiate fino al momento t 0 .

Molti processi possono essere considerati approssimativamente come processi di Markov. Ad esempio, il processo di giocare a scacchi; il sistema S è un gruppo di pezzi degli scacchi. Lo stato del sistema è caratterizzato dal numero di pezzi dell'avversario rimasti sulla scacchiera al momento t 0 . La probabilità che al momento t>t 0 il vantaggio materiale sia dalla parte di uno degli avversari dipende principalmente dallo stato del sistema al momento t 0, e non da quando e in quale sequenza i pezzi con le assi in alto al momento t 0 .

In alcuni casi, la preistoria dei processi in esame può essere semplicemente trascurata e si possono utilizzare modelli di Markov per studiarli.

Processo casuale di Markov a stati discreti e tempo discreto (o catena di Markov ) è chiamato processo di Markov in cui i suoi possibili stati S 1 , S 2 , S 3, ... possono essere elencati in anticipo e la transizione da stato a stato avviene istantaneamente (salto), ma solo in determinati momenti t 0, t 1, t 2, ... chiamato passi processi.

Denotare p ij – probabilità di transizione processo casuale (sistema S) dallo stato I allo stato j. Se queste probabilità non dipendono dal numero di passi del processo, allora tale catena di Markov è detta omogenea.

Sia finito il numero degli stati del sistema e pari a m. Quindi può essere caratterizzato matrice di transizione P 1 , che contiene tutte le probabilità di transizione:

p 11 p 12 … p 1m

p 21 p 22 … p 2m

P m1 p m2 … p mm

Naturalmente per ogni riga ∑ p ij = 1, I = 1, 2, …, m.

Indichiamo p ij (n) come la probabilità che, come risultato di n passi, il sistema si sposti dallo stato I allo stato j. In questo caso, per I = 1, abbiamo le probabilità di transizione che formano la matrice P 1 , cioè p ij (1) = p ij

È necessario, conoscendo le probabilità di transizione p ij , trovare p ij (n) – le probabilità della transizione del sistema dallo stato I allo stato j in n passi. A tal fine, considereremo uno stato r intermedio (tra I e j), ovvero assumiamo che dallo stato iniziale I in k passi il sistema andrà allo stato intermedio r con probabilità p ir (k), dopodiché nei restanti n-k passi dallo stato intermedio r andrà allo stato finale j con probabilità prj (nk). Quindi secondo la formula della probabilità totale

P ij (n) = ∑ p ir (k) p rj (n-k) è l'uguaglianza di Markov.

Assicuriamoci che, conoscendo tutte le probabilità di transizione p ij = p ij (1), cioè matrice P 1 transizione da stato a stato in un solo passaggio, puoi trovare la probabilità p ij (2), cioè transizione della matrice P 2 da stato a stato in due passaggi. E conoscendo la matrice P 2, trova la transizione della matrice P 3 da stato a stato in tre passaggi e così via.

Infatti, ponendo n = 2 nella formula P ij (n) = ∑ p ir (k) p rj (n-k), cioè k=1 (stato intermedio tra i passaggi), otteniamo

P ij (2) = ∑ p ir (1)p rj (2-1) = ∑ p ir p rj

L'uguaglianza risultante significa che P 2 \u003d P 1 P 1 \u003d P 2 1

Assumendo n = 3, k = 2, otteniamo analogamente P 3 = P 1 P 2 = P 1 P 1 2 = P 1 3 , e nel caso generale P n = P 1 n

Esempio

La totalità delle famiglie di una determinata regione può essere divisa in tre gruppi:

1. famiglie che non hanno l'auto e non la compreranno;

2. famiglie che non possiedono un'auto, ma intendono acquistarne una;

3. famiglie con auto.

L’indagine statistica condotta ha mostrato che la matrice di transizione per un intervallo di un anno ha la forma:

(Nella matrice P 1, l'elemento p 31 = 1 indica la probabilità che una famiglia che possiede un'auto ne avrà anche una, e, ad esempio, l'elemento p 23 = 0,3 è la probabilità che una famiglia che non aveva un'auto macchina, ma ha deciso di acquistarla, realizzare la sua intenzione l'anno prossimo, ecc.)

Trova la probabilità che:

1. una famiglia che non aveva un'auto e non intendeva comprarne una si troverà nella stessa situazione tra due anni;

2. Una famiglia che non aveva un'auto, ma intende acquistarne una, avrà un'auto tra due anni.

SOLUZIONE: trovare la matrice di transizione Р 2 in due anni:

0,8 0,1 0,1 0,8 0,1 0,1 0,64 0,15 0,21

0 0,7 0,3 0 0,7 0,3 0 0,49 0,51

0 0 1 0 0 1 0 0 1

Cioè, le probabilità cercate negli esempi 1) e 2) sono, rispettivamente,

p 11 \u003d 0,64, p 23 \u003d 0,51

Quindi, considera Processo stocastico di Markov con stati discreti e tempo continuo, nella quale, a differenza della catena di Markov considerata sopra, i momenti di possibili transizioni del sistema da uno stato non sono prefissati, ma sono casuali.

Quando si analizzano processi casuali con stati discreti, è conveniente utilizzare uno schema geometrico, il cosiddetto programma degli eventi. Di solito, gli stati del sistema sono rappresentati da rettangoli (cerchi) e le possibili transizioni da stato a stato sono rappresentate da frecce (archi orientati) che collegano gli stati.

Esempio. Costruisci un grafico di stato del seguente processo casuale: il dispositivo S è costituito da due nodi, ciascuno dei quali può guastarsi in un momento di tempo casuale, dopodiché inizia immediatamente la riparazione del nodo, continuando per un tempo casuale precedentemente sconosciuto.

SOLUZIONE. Possibili stati del sistema: S 0 – entrambi i nodi sono operativi; S 1: il primo nodo è in riparazione, il secondo è riparabile; S 2: il secondo nodo è in riparazione, il primo è riparabile; S 3: entrambi i nodi sono in riparazione.

Una freccia, direzioni, ad esempio, da S 0 a S 1, indica la transizione del sistema al momento del guasto del primo nodo, da S 1 a S 0 - la transizione nel momento in cui la riparazione di questo nodo è completata .

Non ci sono frecce sul grafico da S 0 a S 3 e da S 1 a S 2 . Ciò è spiegato dal fatto che si presuppone che i guasti dei nodi siano indipendenti l'uno dall'altro e, ad esempio, le probabilità di guasto simultaneo di due nodi (transizione da S 0 a S 3) o di completamento simultaneo delle riparazioni di due nodi (transizione da da S 3 a S 0) può essere trascurato.

Processi casuali stazionari

stazionario in senso stretto, Se

F(x 1 , …, x n ; t 1 , …, t n) = F(x 1 , …, x n ; t 1 +∆, …, t n +∆)

Per arbitrario

n≥1, x 1 , …, x n , t 1 , …, t n ; ∆; t 1 € T, t i + ∆ € T.

Qui F(x 1 , …, x n ; t 1 , …, t n) è la funzione di distribuzione n-dimensionale del processo casuale X(t).

Viene chiamato il processo casuale X(t). stazionario in senso lato, Se

Ovviamente, la stazionarietà in senso stretto implica la stazionarietà in senso lato.

Dalle formule:

m(t) = m(t + ∆), K(t, t^) = K(t + ∆, t^ + ∆)

(t€ T, t^€ T, t + ∆€ T), t^ + ∆€ T)

Ne consegue che per un processo stazionario in senso lato si può scrivere

m(t) = mx(0) = cost;

D (t) = K(t, t) = K(0,0) = cost;

K(t, t^) = K(t – t^, 0) = K (0, t^ - t)

Pertanto, per un processo stazionario in senso lato, l'aspettativa matematica e la varianza non dipendono dal tempo e K(t, t^) è una funzione della forma:

Si può vedere che k(τ) è una funzione pari, while

Dove D è la varianza del processo stazionario

X(t), α i (I = 1, n) sono numeri arbitrari.

La prima uguaglianza del sistema

K(0) \u003d B \u003d σ 2; |k(τ)| ≤ k(0); ∑ ∑ ά io α j K(t i - t j) ≥ 0

segue dall'equazione K(t, t^) = k(τ) = k(-τ), τ = t^ – t. Prima uguaglianza

K(0) \u003d B \u003d σ 2; |k(τ)| ≤ k(0); ∑ ∑ ά i α j k(t i - t j) ≥ 0 è una semplice conseguenza della disuguaglianza di Schwartz per le sezioni X(t), X(t^) del processo casuale stazionario X(t). Ultima disuguaglianza:

K(0) \u003d B \u003d σ 2; |k(τ)| ≤ k(0); ∑ ∑ ά io α j K(t i - t j) ≥ 0

Ottienilo così:

∑ ∑ α io α j K(t i - t j) = ∑ ∑ K(t i , t j)α i α j = ∑ ∑ M[(α i X i)(α j X j)] = M[(∑ α i X i) 2] ≥0

Tenendo conto della formula per la funzione di correlazione della derivata dX(t)/dt del processo aleatorio, per la funzione aleatoria stazionaria X(t) otteniamo

K 1 (t, t^) = M[(dX(t)/dt)*(dX(t^)/dt^)] = δ 2 K(t, t^) / δtδt^ = δ 2 k(t ^ - t) / δtδt^

Perché il

δk(t^ ​​​​- t) / δt = (δk(τ) / δτ) * (δτ / δτ) = - δk(τ) / δτ,

δ 2 k(t^ - t) / δtδt^ = - (δ 2 k(τ) / δτ 2) * (δτ / δt^) = - (δ 2 k(τ) / δτ 2)

allora K 1 (t, t^) = k 1 (τ) = - (δ 2 k(τ) / δτ 2), τ = t^ – t.

Qui K 1 (t, t^) e k 1 (τ) sono la funzione di correlazione della derivata prima del processo casuale stazionario X(t).

Per la derivata n-esima di un processo casuale stazionario, la formula per la funzione di correlazione è:

K n (τ) = (-1) n * (δ 2 n *k(τ) / δτ 2 n)

Teorema. Un processo casuale stazionario X(t) con funzione di correlazione k(τ) è medio quadratico continuo in un punto t ∈ T se e solo se

Limk(τ) = k(0)

Per dimostrarlo, scriviamo l’ovvia catena di uguaglianze:

M [|X(t+τ)-X(T)| 2] = M[|X(t)| 2 ] – 2M[|X(t+τ)X(t)|] + M =

2D-2k(τ) = 2.

Quindi è ovvio che la condizione di continuità nel processo quadratico medio X(t) nel punto t ∈ T

LimM[|X(t+τ) – X(t)| 2] = 0

Si verifica se e solo se Lim k(τ) = k(0)

Teorema. Se la funzione di correlazione k(τ) di un processo casuale stazionario X(t) è continua nel quadrato medio nel punto τ=0, allora è continua nel quadrato medio in ogni punto τ ∈ R 1 .

Per dimostrarlo scriviamo le ovvie uguaglianze:

k(τ+∆τ)-k(τ) = M – M =

M(X(t))

Quindi, applicando la disuguaglianza di Schwartz ai fattori nella parentesi graffa e tenendo conto delle relazioni:

K(t, t^) = k(τ) = k(-τ), τ = t^ – t.

K(0) \u003d B \u003d σ 2; |k(τ)| ≤ k(0); ∑ ∑ ά io α j K(t i - t j) ≥ 0

0 ≤ 2 ≤ MM[|X(t+τ+∆τ)-X(t+τ)| 2] =

Passando al limite per ∆τ→0 e tenendo conto della condizione del teorema di continuità k(τ) nel punto τ=0, nonché della prima uguaglianza del sistema

K(0) \u003d B \u003d σ 2, troviamo

Limk(τ+∆τ) = k(τ)

Poiché qui τ è un numero arbitrario, il teorema è da considerarsi dimostrato.

Proprietà ergodica dei processi casuali stazionari

Sia X(t) un processo casuale stazionario su un intervallo di tempo con caratteristiche

τ = t^ – t, (t, t^) € T×T.

La proprietà ergodica di un processo casuale stazionario risiede nel fatto che, attraverso un'implementazione sufficientemente lunga del processo, è possibile giudicare la sua aspettativa matematica, la sua varianza e la sua funzione di correlazione.

Verrà chiamato un processo casuale più strettamente stazionario X(t). ergodico nell'attesa, Se

Lim M (|(1 / T)∫ X(t)dt| 2 ) = 0

Teorema

Processo casuale stazionario X(t) con caratteristiche:

M = 0, K(t, t^) = M = k(τ),

τ = t^ – t, (t, t^) € T×T

l'aspettativa è ergodica se e solo se

Lim (2 / T) ∫ k(τ) (1 – τ/t)dτ = 0.

Per dimostrarlo è ovviamente sufficiente verificare che l’uguaglianza

Scriviamo le relazioni ovvie

C = M (|(1 / T)) ∫X(t)dt| 2 ) = (1 / T 2) ∫ ∫ k(t^ - t)dt^dt = (1/T) ∫ dt ∫ k(t^ - t)dt^.

Impostando qui τ = t^ – t, dτ = dt^ e tenendo conto delle condizioni (t^ = T) → (τ = T - t),

(t^ = 0)→(τ = -t), otteniamo

С = (1/T 2) ∫ dt ∫ k(τ)dτ = (1/T 2) ∫ dt ∫ k(τ)dτ + (1/T 2) ∫ dt ∫ k(τ)dτ =

= -(1/T2) ∫ dt ∫ k(τ)dτ - (1/T2) ∫ dt ∫ k(τ)dτ

Assumendo nel primo e nel secondo termine del membro destro di questa uguaglianza, rispettivamente, τ = -τ^, dτ = -dτ^, τ = T-τ^, dτ = -dτ^, troviamo

С = (1/T 2) ∫ dt ∫ k(τ)dτ + (1/T 2) ∫ dt ∫ k(T - τ)dτ

Applicando la formula di Dirichlet per gli integrali doppi, scriviamo

С = (1/T 2) ∫ dt ∫ k(τ)dτ + (1/T 2) ∫ dt ∫ k(T - τ)dτ = (1/T 2) ∫ (T - τ) k(τ) dτ + (1/T 2) / τk (T – τ)dτ

Nel secondo termine a destra possiamo porre τ^ = T-τ, dτ = -dτ^, dopo di che abbiamo

Da ciò e dalla definizione delle costanti risulta chiaro che l'uguaglianza

M((1 / T) ∫X(t)dt| 2 ) = (2 / T) ∫ k(τ) (1 – τ/t)dτ

Giusto.

Teorema

Se la funzione di correlazione k(τ) del processo casuale stazionario X(t) soddisfa la condizione

Lim (1/T) ∫ |k(τ)| dt = 0

Allora X(t) è l'aspettativa ergodica.

Infatti, dato il rapporto

M((1 / T) ∫X(t)dt| 2 ) = (2 / T) ∫ k(τ) (1 – τ/t)dτ

Può essere scritto

0 ≤ (2/Т) ∫ (1 – τ/t) k(τ)dτ ≤ (2/T) ∫ (1- τ/t) |k(τ)|dτ ≤ (1/T) ∫ |k (τ)|dτ

Ciò dimostra che se la condizione è soddisfatta, allora

Lim (2/T) ∫ (1 – τ/T) k(τ)dτ = 0

Ora, tenendo conto dell'uguaglianza

C \u003d (1 / T 2) ∫ (T - τ) k (τ) dτ - (1 / T 2) ∫ (T - τ) k (τ) dτ \u003d 2 / T ∫ (1- (τ / T) )k(τ)dτ

E la condizione Lim M (|(1 / T)∫ X(t)dt| 2 ) = 0

Ergodicità in attesa di un processo casuale stazionario X(t), troviamo che la richiesta è dimostrata.

Teorema.

Se la funzione di correlazione k(τ) di un processo casuale stazionario

X(t) è integrabile e decresce illimitatamente per τ → ∞, cioè la condizione

Per ε > 0 arbitrario, allora X(t) è un processo casuale stazionario ergodico aspettativa.

Infatti, data l'espressione

Per Т≥Т 0 abbiamo

(1/T) ∫ |k(τ)|dτ = (1/T)[ ∫ |k(τ)|dτ + ∫ |k(τ)|dτ ≤ (1/T) ∫ |k(τ)| dτε(1 – T 1 /T).

Passando al limite per Т → ∞, troviamo

0 ≤ lim ∫ |k(τ)|dτ = ε.

Poiché qui ε > 0 è un valore arbitrario, arbitrariamente piccolo, la condizione di ergodicità rispetto all'aspettativa matematica è soddisfatta. Poiché ciò deriva dalla condizione

Sulla diminuzione illimitata di k(τ), allora il teorema è da considerarsi dimostrato.

I teoremi dimostrati stabiliscono criteri costruttivi per l'ergodicità dei processi casuali stazionari.

X(t) = m + X(t), m=cost.

Allora M = m, e se X(t) è un processo casuale stazionario ergodico, allora la condizione di ergodicità Lim M (|(1 / T)∫ X(t)dt| 2 ) = 0 dopo trasformazioni semplici può essere rappresentata come

Lim M([(1/T) ∫ X(t)dt – m] 2 ) = 0

Ne consegue che se X(t) è un processo casuale stazionario ergodico nell'aspettativa matematica, allora l'aspettativa del processo X(t) = m + X(t) può essere calcolata approssimativamente dalla formula

M = (1/T) / x(t)dt

Qui T è un periodo di tempo sufficientemente lungo;

x(t) è l'implementazione del processo X(t) sull'intervallo temporale .

Possiamo considerare l'ergodicità del processo casuale stazionario X(t) rispetto alla funzione di correlazione.

Viene chiamato un processo casuale stazionario X(t). ergodico nella funzione di correlazione, Se

Lim M ([ (1/T) ∫ X(t) X(t + τ)dt – k(τ)] 2 ]) = 0

Ciò implica che per un processo casuale stazionario X(t) ergodico nella funzione di correlazione, possiamo porre

k (τ) = (1/T) ∫ x(t)x(t + τ)dt

con un T sufficientemente grande.

Si scopre che la condizione

la limitatezza di k(τ) è sufficiente per l'ergodicità nella funzione di correlazione del processo stazionario normalmente distribuito X(t).

Si noti che viene chiamato il processo casuale normalmente distribuito se una qualsiasi delle sue funzioni di distribuzione a dimensione finita è normale.

Una condizione necessaria e sufficiente per l'ergodicità di un processo casuale stazionario normalmente distribuito è la relazione

τ 0: lim (1/T) ∫ (1 – τ/T)dτ = 0


Letteratura

1. N.Sh. Kremer "Teoria della probabilità e statistica matematica" / UNITI / Mosca 2007.

2. Yu.V. Kozhevnikov "Teoria della probabilità e statistica matematica" / Ingegneria meccanica / Mosca 2002.

3. B.V. Gnedenko "Corso di teoria della probabilità" / Edizione principale di letteratura fisica e matematica / Mosca 1988.

Considerando un processo casuale come un sistema di tre o quattro variabili casuali, sorgono difficoltà nell'espressione analitica delle leggi di distribuzione di un processo casuale. Pertanto, in alcuni casi, sono limitati alle caratteristiche di un processo casuale, simili alle caratteristiche numeriche delle variabili casuali.

Le caratteristiche di un processo casuale, in contrasto con le caratteristiche numeriche delle variabili casuali, sono funzioni non casuali. Tra questi, le funzioni dell'aspettativa matematica e della varianza di un processo casuale, nonché la funzione di correlazione di un processo casuale, sono ampiamente utilizzate per valutare un processo casuale.

L'aspettativa matematica di un processo casuale X(t)è detta funzione non casuale che, per ogni valore dell'argomento t, è uguale all'aspettativa matematica della corrispondente sezione del processo casuale

.

Dalla definizione dell'aspettativa matematica di un processo casuale, ne consegue che se la densità di probabilità unidimensionale è nota, allora

. (6.3)

processo casuale X(t) può sempre essere rappresentato come una somma di funzioni casuali elementari

, dove è una funzione casuale elementare.

. (6.4)

Se viene fornito un insieme di realizzazioni di un processo casuale X(t), quindi per la rappresentazione grafica dell'aspettativa matematica si eseguono una serie di sezioni e in ciascuna di esse si trova la corrispondente aspettativa matematica (valore medio), quindi si traccia una curva attraverso questi punti (Fig. 6.3).

Figura 6.3 - Grafico della funzione aspettativa

Più sezioni verranno disegnate, più accuratamente verrà costruita la curva.

Valore atteso processo casuale è una funzione non casuale attorno alla quale sono raggruppate le implementazioni del processo casuale.

Se l'implementazione di un processo casuale è una corrente o una tensione, l'aspettativa matematica viene interpretata come il valore medio della corrente o della tensione.

La varianza del processo casuale X(t)è detta funzione non casuale che, per ogni valore dell'argomento t, è uguale alla varianza della corrispondente sezione del processo casuale.

.

Dalla definizione della varianza di un processo casuale, ne consegue che se la densità di probabilità unidimensionale è nota, allora

o (6.5)

Se il processo casuale è rappresentato come , Quello

La varianza di un processo casuale caratterizza la dispersione o dispersione delle implementazioni rispetto alla funzione di aspettativa.

Se le realizzazioni di un processo casuale sono corrente o tensione, allora la varianza viene interpretato come la differenza tra la potenza dell'intero processo e la potenza della componente media di corrente o tensione in una determinata sezione, vale a dire

. (6.7)

In alcuni casi, invece della varianza di un processo casuale, viene utilizzata la deviazione standard di un processo casuale

.

L'aspettativa matematica e la varianza di un processo casuale consentono di identificare il tipo di funzione media, attorno alla quale sono raggruppate le implementazioni del processo casuale, e di stimare la loro diffusione rispetto a questa funzione. Tuttavia, la struttura interna del processo casuale, ad es. la natura e il grado di dipendenza (connessione) tra le varie sezioni del processo rimangono sconosciuti (Fig. 6.4).

Figura 6.4 - Implementazione di processi casuali X(t) E Y(t)

Per caratterizzare la connessione tra le sezioni di un processo aleatorio, viene introdotto il concetto di funzione momento mista del secondo ordine - funzione di correlazione.

funzione di correlazione processo casuale X(t)è detta funzione non casuale, che per ogni coppia di valori è pari al momento di correlazione delle corrispondenti sezioni del processo casuale:

Dove , .

Relazione (vedi Fig. 6.4) tra sezioni di un processo casuale X(t) più che tra le sezioni di un processo casuale Y(t), cioè.

.

Ne consegue dalla definizione che se viene data una densità di probabilità bidimensionale processo casuale X(t), Quello

La funzione di correlazione è un insieme di momenti di correlazione di due variabili casuali volte , entrambi i momenti considerati in qualsiasi combinazione di tutti i possibili valori attuali dell'argomento T processo casuale. Pertanto, la funzione di correlazione caratterizza la relazione statistica tra valori istantanei in diversi momenti nel tempo.

Proprietà della funzione di correlazione.

1) Se, allora. Pertanto, la varianza di un processo casuale è un caso speciale della funzione di correlazione.

I processi casuali (stocastici) sono interferenze esterne, rumore di fluttuazione all'uscita del discriminatore e di altri dispositivi RAS, disturbi interni nel RAS: instabilità di frequenza del PG, instabilità dei dispositivi di ritardo temporale regolabili, ecc.

In linea di principio, lo studio RAS sotto impatti casuali può essere effettuato con metodi convenzionali, determinando i parametri della qualità RAS ai valori più sfavorevoli (massimi) del disturbo ( caso peggiore ).

Tuttavia, poiché il valore massimo della variabile casuale è improbabile e verrà rispettato raramente, ovviamente alla RAS verranno imposti requisiti rigorosi. Soluzioni più razionali possono essere ottenute considerando valore molto probabilmente variabile casuale.

È possibile considerare la legge di distribuzione delle componenti di fluttuazione nel RAS lineare normale (gaussiano). La legge della distribuzione normale è caratteristica delle perturbazioni interne. Quando un processo casuale passa attraverso un sistema lineare, la legge di distribuzione normale rimane invariata . Se all'ingresso del RAS o in qualunque altro punto (ad esempio all'uscita del discriminatore) si verifica una perturbazione con legge di distribuzione diversa da quella normale e ad ampio spettro S(ω), questa perturbazione è efficace normalizza elementi filtranti PAC a banda stretta.

Un processo casuale con distribuzione normale è completamente determinato da aspettativa matematica M(T) E funzione di correlazione R(τ).

Valore atteso(aspettativa) di un processo casuale X(T) è alcuni regolare funzione mx(T), attorno al quale si raggruppano tutte le realizzazioni di questo processo ( è la densità di probabilità) . È anche chiamato impostare la media (insieme).

mx(T) = M{X(T)} = . (6.1)

processo casuale ( T) senza una componente regolare mx(T) è chiamato centrato .

Prendere in considerazione il grado di dispersione di un processo casuale rispetto al suo valore medio mx(T) introducono il concetto dispersione :

Dx(T) = M{( (T)) 2 } = . (6.2)

Il valore medio del quadrato di un processo casuale è legato alla sua aspettativa mx(T) e dispersione Dx(T) formula: .

In pratica, è conveniente valutare un processo casuale in base a caratteristiche statistiche x bene(T) e s X(T) avente la stessa dimensione del processo stesso.

Valore efficace x bene(T) processo casuale:

Deviazione standard x rms (t) processo casuale:

. (6.4)

L’aspettativa e la dispersione matematica non danno un’idea sufficiente della natura delle realizzazioni individuali di un processo casuale. Per tenere conto del grado di variabilità del processo o della relazione tra i suoi valori in diversi momenti nel tempo, il concetto di correlazione ( autocorrelazione ) funzioni.

funzione di correlazione processo centrato ( T) è uguale a

dove è la densità di probabilità bidimensionale.

La funzione di correlazione è Anche : R(τ ) = R(–τ ).

Se le funzioni di distribuzione e la densità di probabilità del processo non dipendono dallo spostamento temporale della stessa quantità di tutti gli argomenti temporali, tale processo casuale viene chiamato stazionario .

Se il processo stazionario ha gli stessi valori impostare la media E media temporale , viene chiamato questo processo casuale ergodico .

Conoscere R(τ) si può determinare la varianza del processo stazionario:

Densità spettrale S l (ω) processo di output (T) in un sistema lineare e la densità spettrale S l (ω) dell'azione di input sono legati dalla relazione:

. (6.7)

funzione di correlazione R(τ) di un processo casuale stazionario e sua densità spettrale S(ω) sono legati dalla trasformata di Fourier, quindi l'analisi viene spesso eseguita nel dominio della frequenza. Dopo aver eseguito la trasformata di Fourier per (6.7), otteniamo un'espressione per la funzione di correlazione del processo di output Ry(τ):

Densità spettrali S l (ω) e S l (ω) sono bilaterale .

Puoi entrare unilaterale densità spettrale N(F), che è determinato solo per positivo frequenze().

Parità R(τ) e le formule di Eulero (6.8) possono essere semplificate:

. (6.9)

La qualità del lavoro della RAS è relativamente casuale segnali e interferenze sono caratterizzati errore quadratico medio totale (SKO).

Consideriamo un RAS generalizzato, il cui schema è mostrato in fig. 2.11. Consideriamo l'impatto λ( T) deterministico, e la perturbazione ξ( T) all'uscita del discriminatore c'è un processo casuale. Usando le formule (2.28)–(2.31), determiniamo il TF per l'errore sotto l'azione e la perturbazione.

Nel caso generale, tra i processi di influenza e di perturbazione, può esistere correlazione (connessione). In questo caso, a parte autocorrelazione funzioni del modulo (6.8) per ciascuno dei processi, è necessario tenerne conto correlazione reciproca funzioni del processo le une rispetto alle altre. Attraverso le densità spettrali per errore i dati di accoppiamento vengono scritti come segue:

Dopo aver sostituito l'espressione (6.11) nella formula (6.8), otteniamo i componenti corrispondenti della dispersione:

Se non c'è correlazione tra i processi, allora S lx(ω) = S x l (ω) = 0, e anche D l x = D x l = 0, e la formula (6.12) è semplificata

Aspettativa di errore X(T) è simile alla definizione in stato stazionario: .

Se la densità spettrale Sx(ω) è descritta da una funzione frazionaria razionale rispetto a ω, quindi da calcolare Dx si presenta nella forma:

dove è un polinomio contenente Anche gradi ioω fino a 2 N–2 compreso; a è un polinomio di grado N, le cui radici giacciono nel semipiano superiore della variabile complessa ω.

Gli integrali (6.14) possono essere calcolati utilizzando la formula (6.15):

, (6.15)

dove D Nè il determinante senior di Hurwitz della forma (4.7), composto dai coefficienti un j, UN Qn– determinante di tipo D N, dove nella prima riga i coefficienti un j sostituito da bj.

Per l'integrale (6.15) esistono tabelle di valori per N ≤ 7.

Valori a N≤ 4 sono determinati dalle formule:

, , ,

Esempio 6.1. Definiamo l'RMS del sistema PLL dall'Esempio 4.2.

Sia il segnale λ( T) = 1 + 0,1T, e la perturbazione ξ( T) è rumore bianco con ampiezza N0= 1 mV ().

I tassi di errore per un dato PAC sono già stati trovati nell'Esempio 5.1.

.

Per il PF, l'errore di perturbazione dalla formula (2.30) dopo il cambio di variabili R ® ioω otteniamo ( K1 = S d , K 0 = K 1 S d , K 1 = k f k e):

Dopo aver sostituito la formula (6.17) nella (6.13) ( D l = 0) otteniamo:

Confrontando la (6.18) con l'espressione (6.14), troviamo l'ordine e i coefficienti dei polinomi (6.14): N = 3, b2 = 0, b1\u003d - (T2) 2, b0 = 1; un 3 = T f T d, un 2 = Tf+ T d , un 1 = 1 + K 0 T2, uno 0 = K 0 .

Dopo aver sostituito i valori numerici, il risultato è:

mx= 5×10 -4 (1/s), Dx\u003d 1,06 × 10 -3 (1 / s 2) (a K 0 = 200, S d = 10, K 1 = 20) o

mx= 5×10 -4 (1/s), Dx\u003d 0,66 (1 / s 2) (a K 0 = 200, S d = 0,4 , K 1 = 500).

Dalle (6.3), (6.4) segue che x velocità≈ s X= 0,032 (1/s) a S d= 10, mentre S d = 0,4 x velocità≈ s X= 0,81 (1/s).

Esempio 6.2. Determiniamo RAS RAS dall'Esempio 4.5 per gli stessi segnali: λ( T) = 1 + 0,1T e ξ( T) = N0= 1mV. λ'( T) = λ 1 , λ″( T) = 0

I tassi di errore per un dato RAS possono essere trovati utilizzando la formula (5.19): .

v = 0, d1 = 0, d0 = S d, b3 = T1 T2 T3, b2 = T1 T2+T2 T3+T1 T3, b1 = T1 + T2 + T3, b0 = 1.

Dalle formule (5.19)–(5.22) otteniamo

Per il PF, l'errore di perturbazione dalla formula (2.30) dopo il cambio di variabili p ® ioω nella (6.20) otteniamo:

Sostituendo la formula (6.20) nella (6.13) (D l = 0), otteniamo:

Confrontando la (6.21) con l'espressione (6.14), troviamo i coefficienti dei polinomi (6.14): N = 3, b2 = b1 = 0, b0 = 1; un 3 = T1 T2 T3, un 2 = T1 T2 + T2 T3 + T1 T3, un 1 = T1 + T2 + T3, uno 0 = S d + 1.

Dopo la sostituzione nella formula (6.16) e le trasformazioni, otteniamo:

Dopo aver sostituito i valori numerici, otteniamo come risultato:

mx= (9,2 + 0,9 t)10 -2, Dx\u003d 4,2 × 10 -4.

6.2. Metodo grafo-analitico per la determinazione della dispersione.

L'interferenza nei sistemi di comunicazione è descritta mediante metodi della teoria dei processi casuali.

Una funzione si chiama casuale se, a seguito dell'esperimento, assume una forma o un'altra, non si sa in anticipo quale. Un processo casuale è una funzione casuale del tempo. La forma specifica che un processo casuale assume come risultato di un esperimento è chiamata implementazione di un processo casuale.

Nella fig. 1.19 mostra un insieme di diverse (tre) implementazioni di un processo casuale , , . Un tale insieme è chiamato insieme di implementazioni. Con un valore fisso dell'istante di tempo nel primo esperimento otteniamo un valore specifico , nel secondo - , nel terzo - .

Il processo casuale ha un duplice carattere. Da un lato, in ogni specifico esperimento, è rappresentato dalla propria implementazione, una funzione del tempo non casuale. D'altra parte, un processo casuale è descritto da un insieme di variabili casuali.

Infatti, consideriamo un processo casuale in un punto fisso nel tempo. Quindi, in ogni esperimento, assume un valore e non si sa in anticipo quale. Pertanto, un processo casuale considerato in un dato istante temporale è una variabile casuale. Se due punti nel tempo e sono fissi, in ogni esperimento otterremo due valori e . In questo caso la considerazione congiunta di questi valori porta ad un sistema di due variabili casuali. Analizzando processi casuali in N punti nel tempo, arriviamo a un insieme o sistema di N variabili casuali .

Aspettativa matematica, varianza e funzione di correlazione di un processo casuale Poiché un processo casuale considerato in un punto fisso nel tempo è una variabile casuale, possiamo parlare di aspettativa matematica e varianza di un processo casuale:

, .

Così come per una variabile casuale, la varianza caratterizza la diffusione dei valori di un processo casuale rispetto al valore medio. Più grande è, maggiore è la probabilità di valori di processo positivi e negativi molto grandi. Una caratteristica più conveniente è la deviazione quadratica media (MSD), che ha la stessa dimensione del processo casuale stesso.

Se un processo casuale descrive, ad esempio, un cambiamento nella distanza da un oggetto, l'aspettativa matematica è la distanza media in metri; la varianza è misurata in metri quadrati e Sco - in metri e caratterizza la diffusione dei possibili valori di intervallo rispetto alla media.

Il valore medio e la varianza sono caratteristiche molto importanti che consentono di giudicare il comportamento di un processo casuale in un determinato momento. Tuttavia, se è necessario stimare la "velocità" del cambiamento nel processo, le osservazioni in un determinato momento non sono sufficienti. Per fare ciò, utilizzare due variabili casuali considerate insieme. Proprio come per le variabili casuali, viene introdotta una caratteristica della connessione o dipendenza tra e. Per un processo casuale, questa caratteristica dipende da due punti nel tempo ed è chiamata funzione di correlazione: .

Processi casuali stazionari. Molti processi nei sistemi di controllo procedono in modo uniforme nel tempo. Le loro caratteristiche di base non cambiano. Tali processi sono chiamati stazionari. Una definizione precisa può essere data come segue. Un processo casuale si dice stazionario se nessuna delle sue caratteristiche probabilistiche non dipende dallo spostamento del riferimento temporale. Per un processo casuale stazionario, l'aspettativa matematica, la varianza e la deviazione standard sono costanti: , .

La funzione di correlazione del processo stazionario non dipende dall'origine t, cioè dipende solo dalla differenza di fuso orario:

La funzione di correlazione di un processo casuale stazionario ha le seguenti proprietà:

1) ; 2) ; 3) .

Spesso le funzioni di correlazione dei processi nei sistemi di comunicazione hanno la forma mostrata in Fig. 1.20.

Riso. 1.20. Funzioni di correlazione dei processi

L'intervallo di tempo su cui la funzione di correlazione, ad es. l'entità della connessione tra i valori di un processo casuale, diminuisce di M volte, è chiamata intervallo o tempo di correlazione del processo casuale. Di solito o. Possiamo dire che i valori di un processo casuale che differiscono nel tempo per l'intervallo di correlazione sono debolmente correlati tra loro.

Pertanto, la conoscenza della funzione di correlazione consente di giudicare la velocità di variazione di un processo casuale.

Un'altra caratteristica importante è lo spettro energetico di un processo casuale. È definita come la trasformata di Fourier della funzione di correlazione:

.

Ovviamente vale anche la trasformazione inversa:

.

Lo spettro energetico mostra la distribuzione di potenza di un processo casuale, come il rumore, sull'asse della frequenza.

Quando si analizza l'ACS, è molto importante determinare le caratteristiche di un processo casuale all'uscita di un sistema lineare con caratteristiche note del processo all'ingresso ACS. Supponiamo che il sistema lineare sia dato dalla risposta all'impulso. Quindi il segnale di uscita in quel momento è determinato dall'integrale di Duhamel:

,

dove è il processo all'ingresso del sistema. Per trovare la funzione di correlazione, scriviamo e dopo la moltiplicazione troviamo l'aspettativa matematica

- il numero di maschi su 10 neonati.

È abbastanza chiaro che questo numero non è noto in anticipo, e nei prossimi dieci bambini che nasceranno potrebbero esserci:

O ragazzi - uno ed uno solo delle opzioni elencate.

E, per mantenersi in forma, un po' di educazione fisica:

- Distanza del salto in lungo (in alcune unità).

Anche il maestro dello sport non è in grado di prevederlo :)

Ma quali sono le vostre ipotesi?

2) Variabile casuale continua - prende Tutto valori numerici da un intervallo finito o infinito.

Nota : le abbreviazioni DSV e NSV sono popolari nella letteratura educativa

Innanzitutto, analizziamo una variabile casuale discreta, quindi: continuo.

Legge di distribuzione di una variabile casuale discreta

- Questo corrispondenza tra i possibili valori di questa quantità e le loro probabilità. Molto spesso, la legge è scritta in una tabella:

Il termine è abbastanza comune riga distribuzione, ma in alcune situazioni sembra ambiguo, e quindi mi atterrò alla "legge".

E adesso punto molto importante: poiché la variabile casuale Necessariamente accetterà uno dei valori, quindi si formano gli eventi corrispondenti gruppo completo e la somma delle probabilità del loro verificarsi è pari a uno:

oppure, se scritto piegato:

Quindi, ad esempio, la legge della distribuzione delle probabilità dei punti su un dado ha la seguente forma:

Non ci sono commenti.

Potresti avere l'impressione che una variabile casuale discreta possa assumere solo valori interi "buoni". Dissolviamo l'illusione: possono essere qualsiasi cosa:

Esempio 1

Alcuni giochi hanno la seguente legge di distribuzione dei guadagni:

…probabilmente sogni questo tipo di compiti da molto tempo :) Lascia che ti sveli un segreto, anch'io. Soprattutto dopo aver finito di lavorare teoria del campo.

Soluzione: poiché una variabile casuale può assumere solo uno dei tre valori, si formano gli eventi corrispondenti gruppo completo, il che significa che la somma delle loro probabilità è uguale a uno:

Esponiamo il "partigiano":

– quindi, la probabilità di vincere unità convenzionali è 0,4.

Controllo: cosa ti serve per assicurarti.

Risposta:

Non è raro che la legge sulla distribuzione debba essere compilata in modo indipendente. Per questo uso definizione classica di probabilità, Teoremi di moltiplicazione/addizione per le probabilità degli eventi e altri chip tervera:

Esempio 2

Nella scatola ci sono 50 biglietti della lotteria, 12 dei quali vincono, e 2 di loro vincono 1000 rubli ciascuno, e il resto - 100 rubli ciascuno. Elabora una legge di distribuzione di una variabile casuale: l'entità della vincita, se un biglietto viene estratto casualmente dalla scatola.

Soluzione: come hai notato, è consuetudine inserire i valori di una variabile casuale in ordine ascendente. Pertanto, iniziamo con la vincita più piccola, ovvero i rubli.

In totale, ci sono 50 - 12 = 38 di questi biglietti e secondo definizione classica:
è la probabilità che un biglietto estratto a caso non vinca.

Gli altri casi sono semplici. La probabilità di vincere rubli è:

Controllo: - e questo è un momento particolarmente piacevole di tali compiti!

Risposta: la legge di distribuzione del payoff richiesta:

Il seguente compito per una decisione indipendente:

Esempio 3

La probabilità che il tiratore colpisca il bersaglio è . Crea una legge di distribuzione per una variabile casuale: il numero di colpi dopo 2 colpi.

...sapevo che ti mancava :) Ricordiamo Teoremi di moltiplicazione e addizione. Soluzione e risposta alla fine della lezione.

La legge della distribuzione descrive completamente una variabile casuale, ma in pratica è utile (e talvolta più utile) conoscerne solo alcune. caratteristiche numeriche .

Aspettativa matematica di una variabile casuale discreta

In termini semplici, questo valore medio atteso con test ripetuti. Lascia che una variabile casuale assuma valori con probabilità rispettivamente. Quindi l'aspettativa matematica di questa variabile casuale è uguale a somma di prodotti tutti i suoi valori con le probabilità corrispondenti:

o in forma piegata:

Calcoliamo, ad esempio, l'aspettativa matematica di una variabile casuale: il numero di punti lasciati cadere su un dado:

Ora ricordiamo il nostro ipotetico gioco:

La domanda sorge spontanea: è davvero redditizio giocare a questo gioco? ... chi ha qualche impressione? Quindi non si può dire “improvvisamente”! Ma a questa domanda si può facilmente rispondere calcolando l'aspettativa matematica, in sostanza: media ponderata probabilità di vincita:

Quindi, l'aspettativa matematica di questo gioco perdere.

Non fidarti delle impressioni: fidati dei numeri!

Sì, qui puoi vincere 10 o anche 20-30 volte di seguito, ma alla lunga saremo inevitabilmente rovinati. E non ti consiglierei di giocare a questi giochi :) Beh, forse solo per divertimento.

Da tutto quanto sopra ne consegue che l'aspettativa matematica NON è un valore CASUALE.

Compito creativo per la ricerca indipendente:

Esempio 4

Il signor X gioca alla roulette europea secondo il seguente sistema: punta costantemente 100 rubli sul rosso. Componi la legge di distribuzione di una variabile casuale: il suo profitto. Calcola l'aspettativa matematica di vincita e arrotondala a kopecks. Quanti media il giocatore perde per ogni cento puntate?

Riferimento : La roulette europea contiene 18 settori rossi, 18 neri e 1 verde ("zero"). In caso di caduta del “rosso”, il giocatore riceve una doppia scommessa, altrimenti va alle entrate del casinò

Esistono molti altri sistemi di roulette per i quali puoi creare le tue tabelle di probabilità. Ma questo è il caso in cui non abbiamo bisogno di leggi e tabelle di distribuzione, perché è stabilito con certezza che l'aspettativa matematica del giocatore sarà esattamente la stessa. Cambia solo da sistema a sistema

Sostieni il progetto: condividi il link, grazie!
Leggi anche
Pillole per interrompere precocemente la gravidanza senza prescrizione medica: un elenco con i prezzi Quali pillole eliminano la gravidanza Pillole per interrompere precocemente la gravidanza senza prescrizione medica: un elenco con i prezzi Quali pillole eliminano la gravidanza Invenzioni ingegnose dei fratelli Wright Invenzioni ingegnose dei fratelli Wright Passaggio di STALKER Folk hodgepodge: una guida alle missioni e alle cache Passaggio di STALKER Folk hodgepodge: una guida alle missioni e alle cache