Exercice 1

Question 1

On note \(\mathcal D = \left\lbrace (u,\,v)\in\left\lbrack 0,\, 1 \right\rbrack ^2,\, u^2 + v^2 \leq 1 \right\rbrace\). Si on fait le dessin, on remarque que \(\mathcal D\) est un quart de cercle.

Pour tout \(n\) dans \(\mathbb N\), \[ \mathrm P(X_n = 1) = \mathrm P((U,\,V)\in\mathcal{D}) = \int_{\mathcal D}p(u,\,v)\mathrm{d}u\,\mathrm{d}v = \int_{\mathcal D}\mathrm{d}u\,\mathrm{d}v = \mathrm{Aire}(\mathcal D) = \dfrac{\pi}{4}. \] On en déduit pour tout \(n\) dans \(\mathbb N\) : \[ \mathrm P(X_n = 0) = 1 - \mathrm{P}(X_n=1) = 1 - \dfrac{\pi}{4}. \]

On en déduit les espérances de \(X_n\) et de \(X_n^2\) pour tout \(n\) dans \(\mathbb N\) : \[ \mathrm E(X_n) = 0 \times (1 - \dfrac{\pi}{4}) + 1 \times \dfrac{\pi}{4} = \dfrac{\pi}{4}. \] \[ \mathrm E(X_n^2) = 0^2 \times (1 - \dfrac{\pi}{4}) + 1^2\times\dfrac{\pi}{4}=\dfrac{\pi}{4}. \]

La variance de \(X_n\) pour tout \(n\) dans \(\mathbb N\) est alors : \[ \mathrm V(X_n) = \mathrm E(X_n^2) - \mathrm E(X_n)^2 = \dfrac{\pi}{4} - \dfrac{\pi^2}{16}. \]

Les lois \((X_n)\) sont mutuellement indépendantes. Les propriétés de la variance donnent, pour tout \(n\) dans \(\mathbb N\) : \[ \mathrm V(Z_n) = \mathrm V\left(\frac{4}{n}\sum\limits_{i=1}^{n} X_i\right) = \dfrac{16}{n^2}\sum\limits_{i=1}^{n}\mathrm V(X_i) = \dfrac{16}{n^2}\sum\limits_{i=1}^{n}\left(\dfrac{\pi}{4} - \dfrac{\pi^2}{16}\right) = \dfrac{16}{n}\left( \dfrac{\pi}{4} - \dfrac{\pi^2}{16}\right) = \dfrac{\pi(4-\pi)}{n}. \]

De même, les propriétés de l’espérance donnent, pour tout \(n\) dans \(\mathbb N\) : \[ \mathrm E(Z_n) = \mathrm E\!\left(\frac{4}{n}\sum\limits_{i=1}^{n} X_i\right) = \dfrac{4}{n}\sum\limits_{i=1}^{n}\mathrm E(X_i) = \dfrac{4}{n}\sum\limits_{i=1}^{n}\dfrac{\pi}{4} = \pi. \]

D’après la loi des grands nombres, \((Z_n)\) converge vers \(\pi\).

Question 2

L’inégalité de Bienaymé-Tchebychev donne, pour tout \(n\) dans \(\mathbb N\) : \[ \begin{array}{rrcl} & \mathrm P(\vert Z_n - \mathrm E(Z_n) \vert > \varepsilon) & \leq & \dfrac{\mathrm V(Z_n)}{\varepsilon^2} \\ \iff & \mathrm P(\vert Z_n -\pi \vert > \varepsilon) & \leq & \dfrac{\pi(4-\pi)}{n\varepsilon^2}. \end{array} \] On cherche alors \(n_0\in\mathbb N\) tel que pour tout \(n \geq n_0\), \[ \begin{array}{rrcl} & \dfrac{\pi(4-\pi)}{n\varepsilon^2} & \leq & \alpha \\ \iff & \dfrac{\pi(4-\pi)}{\varepsilon^2\alpha} & \leq & n. \end{array} \]

Ainsi, on trouve : \[ n_0 = \dfrac{\pi(4-\pi)}{\alpha \varepsilon^2}. \]

Un algorithme pour trouver une valeur approchée de \(\pi\) est :

eps = 1e-4
alpha = 0.95
n = 4 / (eps * eps * alpha)
X = [int(uniform()**2 + uniform()**2 <= 1) for _ in range(n)]
Z = 4 * sum(X) / n
print("Une valeur approché à 10^-4 de \pi est :", Z)

Question 3

Avec les propriétés de la variance, on a pour tout \(n\) dans \(\mathbb N\) : \[ \mathrm{V}(\sqrt{n}(Z_n-\pi)) = n\mathrm{V}(Z_n-\pi)=n\mathrm{V}(Z_n) = 16\left( \dfrac{\pi}{4}-\dfrac{\pi^2}{16}\right) = \pi(4-\pi). \]

La variance de \(\sqrt{n}(Z_n-\pi)\) est constante pour tout \(n\) dans \(\mathbb N\).

Une bonne approximation de \(\sqrt{n}(Z_n-\pi)\) est la loi normale.

Exercice 2

Question 1

\(U_1, ..., U_n\) est une suite de variables aléatoires de même loi. Donc \(\varphi(U_1), ..., \varphi(U_n)\) est également une suite de variables aléatoires de même loi.

Donc d’après la loi des grands nombres, \[ \lim_{n \to +\infty} Y_n = \mathbb{E}[\varphi(U_1)] = \mathbb{E}[\sqrt{(1-U_1)U_1^3}] \\ = \int_{-\infty}^{\infty} \sqrt{(1-u)u^3} \times 1_{[0, 1]}\; du = \int_0^1 \varphi(u)\;du = I \]

Question 2

\[ Var(Y_n) = Var(\frac{1}{n}\sum_{i=1}^n\varphi(U_i)) = \frac{1}{n^2}\times Var(\sum_{i=1}^n\varphi(U_i)) \] Or \(U_1, ..., U_n\) est une suite de variables aléatoires indépendantes, donc \(\varphi(U_1), ..., \varphi(U_n)\) l’est aussi. Donc \[ Var(Y_n) = \frac{1}{n^2}\times \sum_{i=1}^nVar(\varphi(U_i)) \] Or \[ \forall i \in 1..n, Var(\varphi(U_i)) = Var(\varphi(U_1)) = \mathbb{E}(\varphi(U_1)^2) - \mathbb{E}(\varphi(U_1))^2 \\ = \int_0^1(u^3-u^4)\;du - I^2 = \frac{1}{20}- \frac{\pi^2}{16^2} = \frac{64-5\pi^2}{1280} \] Donc \[ Var(Y_n) = \frac{1}{n^2} \times n\frac{64-5\pi^2}{1280} = \frac{64-5\pi^2}{1280n} \] Or d’après l’inégalité de Bienaymé-Chebychev, \[ \forall \epsilon>0, \\ \mathbb{P}(|Y_n - \mathbb{E}(Y_n)| \geq \epsilon) \leq \frac{Var(Y_n)}{\epsilon^2} \\ \] Donc \[ \mathbb{P}(|Y_n - \mathbb{E}(Y_n)| \leq \epsilon) \geq 1 - \frac{Var(Y_n)}{\epsilon^2} \] Or \[ \mathbb{E}(Y_n) = \mathbb{E}(\frac{1}{n}\sum_{i=1}^n\varphi(U_i)) = \frac{1}{n}\sum_{i=1}^n\mathbb{E}(\varphi(U_i)) = \frac{1}{n}\times n \times \mathbb{E}(\varphi(U_1)) = I = \frac{\pi}{16} \] Donc \[ \mathbb{P}(|Y_n - I| \leq \epsilon) \geq 1 - \frac{64-5\pi^2}{\epsilon^2\times 1280n} \geq 0.95 \] Or, pour \(\epsilon = 10^{-3}\), \[ 1 - \frac{64-5\pi^2}{\epsilon^2\times 1280n} \geq 0.95 \Leftrightarrow \frac{64-5\pi^2}{\epsilon^2\times 1280n} \leq 0.05 \Leftrightarrow n \geq \frac{64-5\pi^2}{\epsilon^2\times 1280\times 0.05} \approx 228 937.2 \] Or \(n \in \mathbb{N}\). Donc on obtient \(n \geq 228 938\).

Question 3

\(V_1, ..., V_n\) est une suite de variables aléatoires de même loi. Donc \(\frac{\varphi(V_1)}{f(V_1)}, ..., \frac{\varphi(V_n)}{f(V_n)}\) est également une suite de variables aléatoires de même loi.

Donc d’après la loi des grands nombres, \[ \lim_{n \to +\infty} Z_n = \mathbb{E}[\frac{\varphi(V_1)}{f(V_1)}] = \int_0^1 \frac{\varphi(v)}{f(v)}\times f(v)\;dv = \int_0^1 \varphi(v)\;dv = I \]

\[ Var(Z_n) = Var(\frac{1}{n}\sum_{i=1}^n\frac{\varphi(V_i)}{f(V_i)}) = \frac{1}{n^2}\times Var(\sum_{i=1}^n\frac{\varphi(V_i)}{f(V_i)}) \] Or \(V_1, ..., V_n\) est une suite de variables aléatoires indépendantes, donc \(\frac{\varphi(V_1)}{f(V_1)}, ..., \frac{\varphi(V_n)}{f(V_n)}\) l’est aussi. Donc \[ Var(Z_n) = \frac{1}{n^2}\times \sum_{i=1}^nVar(\frac{\varphi(V_i)}{f(V_i)}) \] Or \[ \forall i \in 1..n, Var(\frac{\varphi(V_i)}{f(V_i)}) = Var(\frac{\varphi(V_1)}{f(V_1)}) = \mathbb{E}((\frac{\varphi(V_1)}{f(V_1)})^2) - \mathbb{E}(\frac{\varphi(V_1)}{f(V_1)})^2 \\ = \int_0^1\frac{(1-v)v^3}{(6v(1-v))^2}6v(1-v)\;du - I^2 =\int_0^1\frac{v^2}{6}\;du - I^2 \\ \frac{1}{18} - \frac{\pi^2}{16^2} \] Donc \[ Var(Z_n) = \frac{1}{n^2} \times n (\frac{1}{18} - \frac{\pi^2}{16^2}) = \frac{\frac{1}{18} - \frac{\pi^2}{16^2}}{n} \] Donc \[ Var(Z_n) = \frac{\frac{1}{18} - \frac{\pi^2}{16^2}}{n} \geq \frac{\frac{1}{20}- \frac{\pi^2}{16^2}}{n} = Var(Y_n) \]

Question 4 : Algorithmes pour le calcul de l’intégrale \(I = \frac{\pi}{16}\)

Algorithme 1 : Simulation avec densité uniforme

phi <- function(u) { sqrt((1 - u) * u^3) }

n <- 1000000
u <- runif(n)
I_uniform <- mean(phi(u))
var_uniform <- var(phi(u))

cat("Algorithme 1 (Uniforme):\n")
## Algorithme 1 (Uniforme):
cat("- Estimation de l'intégrale I:", I_uniform, "\n")
## - Estimation de l'intégrale I: 0.1962871
cat("- Variance:", var_uniform, "\n")
## - Variance: 0.01145824

Algorithme 2 : Importance sampling avec densité Beta(2,2)

f <- function(v) { dbeta(v, 2, 2) }
v <- rbeta(n, 2, 2)
I_importance <- mean(phi(v) / f(v))
var_importance <- var(phi(v) / f(v))

cat("Algorithme 2 (Importance Sampling):\n")
## Algorithme 2 (Importance Sampling):
cat("- Estimation de l'intégrale I:", I_importance, "\n")
## - Estimation de l'intégrale I: 0.1963667
cat("- Variance:", var_importance, "\n")
## - Variance: 0.01697272

Comparaison

L’Algorithme 2 est plus précis que l’Algorithme 1 pour un même nombre de simulations, à cause de la majoration de l’écart avec I

Question 5 : Optimisation avec la famille de densités \(f_\alpha(v)\)

Utilisation de \(f_\alpha(v)\)

On utilise la densité \(f_\alpha(v) = c_\alpha v^\alpha (1-v)\), avec \(c_\alpha = (\alpha+2)(\alpha+1)\).*

Pour chaque valeur de \(\alpha\), nous calculons une majoration différente de la variance \(\text{Var}(Z_n)\) donnée par la formule :

\[ \text{Var}(Z_n) = \frac{1}{n} \left( \beta(\alpha) - \left(\frac{\pi}{16}\right)^2 \right) \]

Avec \(\beta(\alpha)\) est en fonction du résultat de l’intégrale:

Pour \(\alpha\) est égale à 1: \(\beta(\alpha)\) = \(\frac{1}{18}\).

Pour \(\alpha\) est égale à 2: \(\beta(\alpha)\) = \(\frac{1}{24}\).

Pour \(\alpha\) est égale à 3: \(\beta(\alpha)\) = \(\frac{1}{20}\).

Conclusion

Le choix optimal de la densité \(\alpha\) est alors 2.