Processus stochastique


Processus stochastique
Page d'aide sur l'homonymie Pour les articles homonymes, voir Processus.

Le calcul classique des probabilités concerne des épreuves où chaque résultat possible (ou réalisation) est mesuré par un nombre, ce qui conduit à la notion de variable aléatoire. Un processus stochastique ou processus aléatoire (voir Calcul stochastique) ou fonction aléatoire (voir Probabilité) représente une évolution, discrète ou à temps continu, d'une variable aléatoire.

Sommaire

Approche mathématique des processus stochastiques

Définitions et propriété de base

On désigne par (\Omega , \mathcal{F} , P) un espace de probabilité, T un ensemble arbitraire et S un espace métrique muni de la Tribu borélienne notée \mathcal{B}(S). T est souvent appelé ensemble des indices (souvent, on aura T=\mathbb{R}, \mathbb{R}_+, \mathbb{R}^p, \mathbb{N}, ...). T peut faire référence au temps, à l'espace ou aux deux à la fois.

L'indice t\in{T} désigne alors un instant (\mathbb{R}_+), une date (\mathbb{N}), un point, ou encore un point à un certain instant. S est appelé espace d'état (souvent, on aura S=\mathbb{R}, \mathbb{C}, \mathbb{C}^{\mathbb{N}}, un ensemble fini ou dénombrable).

Un processus stochastique (ou aléatoire) est une famille de variables aléatoires (c'est-à-dire, des applications mesurables) définies sur le même espace de probabilité (\Omega , \mathcal{F} , P) indexé par T et à valeurs dans S. Si T est un sous-ensemble d'une espace multidimensionnel, on préfère utiliser la dénomination de champ stochastique. Un processus stochastique est noté par \{X_t\}_{t\in{T}}. La valeur de la variable aléatoire Xt en un certain \omega\in\Omega est désignée par Xt(ω).

Trajectoire d'un processus stochastique

Notons par ST l'ensemble des applications définies sur T en tout point et à valeur dans S. Fixons \omega\in\Omega et désignons par X_{.}(w)\in{S^T} l'application : t\mapsto{X_t(w)}. Une telle application est appelée trajectoire (ou réalisation) du processus stochastique \{X_t\}_{t\in{T}}.

Mesure de probabilité induite par un processus stochastique

Soit \{X_t\}_{t\in{T}} un processus stochastique, \mathcal{B}(S^T) la σ-algèbre borélienne de ST (c'est-à-dire, la σ-algèbre engendrée par les ouverts de la topologie produit de ST) et l'application suivante :

\begin{align}
 \Phi_X\colon (\Omega , \mathcal{F}) &\to (S^T , \mathcal{B}(S^T)) \\
 w &\mapsto \Phi_X(w)=X_{.}(w)
\end{align}

ΦX est mesurable. Désignons par \tilde{\mathbb{P}}_X la mesure de probabilité sur (S^T , \mathcal{B}(S^T)) définie pour tout \tilde{D}\in\mathcal{B}(S^T) par \tilde{\mathbb{P}}_X (\tilde{D}) = P \circ {\Phi_X}^{-1}(\tilde{D}) mesure de probabilité sur un espace de fonctions.

La probabilité \tilde{\mathbb{P}}_X est appelée induite par le processus stochastique \{X_t\}_{t\in{T}} sur l'espace mesuré (S^T , \mathcal{B}(S^T)).

Lois fini-dimensionnelles

Soient deux processus stochastiques \{X_t\}_{t\in{T}} et \{Y_t\}_{t\in{T}}. On suppose que ces deux processus sont à valeur dans (S,\mathcal{B}(S)). Dans cette définition, on ne suppose pas qu'ils sont définis sur le même espace de probabilité. On dit alors que \{X_t\}_{t\in{T}} et \{Y_t\}_{t\in{T}} possèdent les mêmes lois finis dimensionnelles si pout tout k\in\mathbb{N}^* et pout tout t_1, ..., t_k\in{T}, les vecteurs (donc de dimension finie) aléatoires (X_{t_1}, ..., X_{t_k}) et (Y_{t_1}, ..., Y_{t_k}) sont de même loi. Pour tout A\in\mathcal{B}(S^k), on a :

P_X\{\omega_X\in\Omega_X : (X_{t_1}, ..., X_{t_k})\in{A}\}=P_Y\{\omega_Y\in\Omega_Y : (Y_{t_1}, ..., Y_{t_k})\in{A}\}

On suppose que le processus \{X_t\}_{t\in{T}} est défini sur l'espace de probabilité (\Omega_X , \mathcal{F}_X , P_X) et le processus \{Y_t\}_{t\in{T}} est défini sur l'espace de probabilité (\Omega_Y , \mathcal{F}_Y , P_Y).

Lorsque deux processus stochastiques \{X_t\}_{t\in{T}} et \{Y_t\}_{t\in{T}} possèdent les mêmes lois finis dimensionnelles, ils induisent alors la même mesure de probabilité sur (S^T , \mathcal{B}(S^T)), c'est-à-dire :

\forall\tilde{D}\in\mathcal{B}(S^T), \tilde{\mathbb{P}}_X (\tilde{D})=\tilde{\mathbb{P}}_Y (\tilde{D})

Version d'un processus stochastique

Soient deux processus stochastiques \{X_t\}_{t\in{T}} et \{Y_t\}_{t\in{T}} définis sur le même espace de probabilité (\Omega , \mathcal{F} , P). On dit que \{Y_t\}_{t\in{T}} est une version (ou modification) du processus stochastique \{X_t\}_{t\in{T}} si \forall t\in{T}, P(X_t=Y_t)=1. Il est clair que si \{Y_t\}_{t\in{T}} est une version \{X_t\}_{t\in{T}}, alors ils ont les mêmes lois finis dimensionnelles.

Processus stochastiques indistinguables

Soient deux processus stochastiques \{X_t\}_{t\in{T}} et \{Y_t\}_{t\in{T}} définis sur le même espace de probabilité (\Omega , \mathcal{F} , P). On dit que \{X_t\}_{t\in{T}} et \{Y_t\}_{t\in{T}} sont deux processus stochastiques indistinguables s'il existe \Omega'\in\mathcal{F} tel que :

P(\Omega')=1, \forall{\omega\in\Omega', \forall{t\in{T}}}, X_t(w)=Y_t(w)

Il en découle plusieurs propriétés :

  1. si T est dénombrable, deux processus sont induistinguables si et seulement s'ils sont des versions l'un de l'autre.
  2. si T est non dénombrable, deux processus peuvent être une version l'un de l'autre sans pour autant être indistinguables.
  3. supposons T=\mathbb{R} ou \mathbb{R}_+ et \{X_t\}_{t\in{T}} et \{Y_t\}_{t\in{T}} deux processus stochastiques tels que \forall\omega\in\Omega, les applications de T dans S, t \mapsto X_t(w) et t \mapsto Y_t(w) sont continues à droite (resp. à gauche). Alors, \{X_t\}_{t\in{T}} et \{Y_t\}_{t\in{T}} sont des versions l'un de l'autre si et seulement si \{X_t\}_{t\in{T}} et \{Y_t\}_{t\in{T}} sont indistinguables.

Mutuelle indépendance

On dit que m processus stochastiques {\{X^1_t\}}_{t\in{T}}, ...,{\{X^m_t\}}_{t\in{T}} sont mutuellement indépendants si \forall k^1, ...,k^m\in\mathbb{N}^* et \forall (t^1_1, ..., t^1_{k_1})\in(T^1)^{k_1}, ..., (t^m_1, ..., t^m_{k_m})\in(T^m)^{k_m}, les vecteurs aléatoires ({\{X^1_{t^1_1}\}}_{t\in{T}}, ...,{\{X^1_{t^1_{k_1}}\}}_{t\in{T}}), ..., ({\{X^m_{t^m_1}\}}_{t\in{T}}, ...,{\{X^m_{t^m_{k_m}}\}}_{t\in{T}}) sont mutuellement indépendants.

Mesurabilité d'un processus stochastique

On suppose T\in\mathbb{R}^n. On dit qu'un processus stochastique \{X_t\}_{t\in{T}} est mesurable si l'application suivante est mesurable :

\begin{align}
 (\Omega\times{T} , \mathcal{F}\otimes\mathcal{B}(T)) &\to (S , \mathcal{B}(S)) \\
 (w, t) &\mapsto X_t(w)
\end{align}

Supposons que T=\mathbb{R} ou \mathbb{R}_+ et que \{X_t\}_{t\in{T}} est un processus à trajectoires continues à droite (resp. continues à gauches), i.e. \forall w\in\Omega, X_{.}(w) est continue à droite (resp. continues à gauches). Alors, \{X_t\}_{t\in{T}} est mesurable.

Utilité

Notion de processus

De nombreux domaines utilisent des observations en fonction du temps (ou, plus exceptionnellement, d'une variable d'espace). Dans les cas les plus simples, ces observations se traduisent par une courbe bien définie. En réalité, des sciences de la Terre aux sciences humaines, les observations se présentent souvent de manière plus ou moins erratique. Il est donc tentant d'introduire des probabilités.

Un processus aléatoire généralise la notion de variable aléatoire utilisée en statistiques élémentaires. On le définit comme une famille de variables aléatoires X(t)\, associées à toutes les valeurs t \in T\,. L'ensemble des observations disponibles x(t)\, constitue une réalisation du processus.

Un premier problème concerne le fait que la durée sur laquelle est construit le processus est généralement infinie alors qu'une réalisation porte sur une durée finie. Il est donc impossible de représenter parfaitement la réalité. Il y a une seconde difficulté beaucoup plus sérieuse : à la différence du problème des variables aléatoires, la seule information disponible sur un processus se réduit généralement à une seule réalisation.

Types de processus

On distingue généralement les processus en temps discret et en temps continu, à valeurs discrètes et à valeurs continues.

Si l'ensemble T\, est dénombrable on parle de processus discret ou de série temporelle, si l'ensemble est indénombrable on parle de processus continu. La différence n'a rien de fondamental : en particulier la stationnarité, constance en fonction du temps des propriétés statistiques, se définit de la même façon. Il ne s'agit même pas d'une différence pratique car les calculs sur un processus continu s'effectuent à partir de l'échantillonnage d'une réalisation du processus. La différence porte plutôt sur l'attitude adoptée face à l'utilisation d'une seule réalisation.

Il existe une différence un peu plus nette entre les processus à valeurs continues et les processus de comptage à valeurs discrètes. Les seconds remplacent par des sommes algébriques les intégrales utilisées par les premiers.

Exemples

En matière de processus à valeurs continues, les processus de Gauss sont particulièrement utilisés pour les mêmes raisons que les variables de Gauss en statistiques élémentaires. Une application intuitive du théorème de la limite centrale conduit à penser que bon nombre de phénomènes, dus à des causes nombreuses, sont approximativement gaussiens. D'autre part, un tel processus présente l'avantage d'être entièrement défini par ses caractéristiques au second ordre, espérance et autocovariance.

La description d'un phénomène par des valeurs discrètes conduit à des processus de comptage dont le plus simple est le processus de Poisson utilisé dans la théorie des files d'attente

La notion de propriété markovienne définit une classe de processus discrets ou continus, à valeurs discrètes ou continues, qui repose sur l'hypothèse selon laquelle l'avenir ne dépend que de l'instant présent.

Voir aussi

Articles connexes

Livres

Comets, F. & Meyre, T : "Calcul stochastique et modèles de diffusions", Dunod (2006). ISBN : 9782100501359

  • (en) (en) Y. K. Lin, Probabilistic Theory of Structural Dynamics, New York, Robert E. Krieger Publishing Company, juillet 1976, 368 p. (ISBN 0882753770) 


  • Portail des probabilités et des statistiques Portail des probabilités et des statistiques

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Processus stochastique de Wikipédia en français (auteurs)

Regardez d'autres dictionnaires:

  • Processus stochastique — ● Processus stochastique famille de variables aléatoires Xt, où les valeurs croissantes du temps t appartiennent à un ensemble T ⊂ R et où les Xt prennent leurs valeurs dans un ensemble E …   Encyclopédie Universelle

  • processus stochastique — atsitiktinis vyksmas statusas T sritis Standartizacija ir metrologija apibrėžtis Tikimybinių veiksnių lemiamas vyksmas. atitikmenys: angl. random process; stochastic process vok. stochastischer Prozess, m; zufälliger Prozess, m rus. случайный… …   Penkiakalbis aiškinamasis metrologijos terminų žodynas

  • processus stochastique — atsitiktinis vyksmas statusas T sritis fizika atitikmenys: angl. random process vok. zufälliger Prozeß, m rus. случайный процесс, m pranc. processus aléatoire, m; processus stochastique, m …   Fizikos terminų žodynas

  • processus stochastique — stochastinis vyksmas statusas T sritis fizika atitikmenys: angl. stochastic process vok. stochastischer Vorgang, m rus. стохастический процесс, m pranc. processus aléatoire, m; processus stochastique, m …   Fizikos terminų žodynas

  • stochastique — [ stɔkastik ] adj. et n. f. • 1953; du gr. stokhastikos « conjectural » ♦ Didact. 1 ♦ Qui est le fruit du hasard, au moins en partie. ⇒ aléatoire. Phénomènes stochastiques, dont le déterminisme n est pas absolu, et pouvant être étudiés par la… …   Encyclopédie Universelle

  • Processus aléatoire — Processus stochastique Pour les articles homonymes, voir Processus. Le calcul des probabilités classique concerne des épreuves où chaque résultat possible (ou réalisation) est un nombre, ce qui conduit à la notion de variable aléatoire. Un… …   Wikipédia en Français

  • Processus stochastiques — Processus stochastique Pour les articles homonymes, voir Processus. Le calcul des probabilités classique concerne des épreuves où chaque résultat possible (ou réalisation) est un nombre, ce qui conduit à la notion de variable aléatoire. Un… …   Wikipédia en Français

  • Processus de Décision Markovien — Un processus de décision markovien (MDP) aussi appelé problème de décision markovien est un modèle stochastique issu de la théorie de la décision et de la théorie des probabilités. Le modèle MDP peut être vu comme une chaîne de Markov à laquelle… …   Wikipédia en Français

  • Processus de decision markovien — Processus de décision markovien Un processus de décision markovien (MDP) aussi appelé problème de décision markovien est un modèle stochastique issu de la théorie de la décision et de la théorie des probabilités. Le modèle MDP peut être vu comme… …   Wikipédia en Français

  • Processus de decision markovien partiellement observable — Processus de décision markovien partiellement observable Un Processus de décision markovien partiellement observable (POMDP) est un modèle stochastique issu de la théorie de la décision et de la théorie des probabilités. Les modèles de cette… …   Wikipédia en Français


We are using cookies for the best presentation of our site. Continuing to use this site, you agree with this.