Leçon 266 : Utilisation de la notion d’indépendance en probabilités.

(2024) 266

Dernier rapport du Jury :

(2024 : 266 - Utilisation de la notion d'indépendance en probabilités.) Il s'agit d'une leçon de synthèse autour de l'indépendance, concept incontournable qui démarque la théorie des probabilités de celle de l'intégration. Les notions importantes de probabilité conditionnelle, d'indépendance de deux événements, d'indépendance mutuelle d'une suite d'événements et d'indépendance de familles de variables aléatoires, doivent être connues. Le programme fournit plusieurs utilisations élémentaires de l'indépendance : lien avec l'espérance, la variance, la covariance et le coefficient de corrélation, loi faible des grands nombres, lemmes de Borel-Cantelli, stabilité de certaines lois, en lien avec les fonctions génératrices et caractéristiques. Des thèmes pouvant également être abordés sont le théorème central limite, ou l'étude de la marche aléatoire symétrique sur Z. Les candidates et candidats solides peuvent aborder la loi forte des grands nombres, l'indépendance d'une suite de tribus, la loi du 0-1 de Kolmogorov, la convergence des séries de variables aléatoires indépendantes, les vecteurs gaussiens ou le théorème de Cochran.

(2022 : 266 - Illustration de la notion d’indépendance en probabilités.) L'indépendance est centrale en probabilités et démarque cette théorie de celle de l'intégration. À partir de la notion élémentaire de probabilité conditionnelle, on pourra introduire l'indépendance de deux événements, l'indépendance mutuelle d'une suite d'événements, voire celle d'une suite de tribus, puis l'indépendance de familles de variables aléatoires. Le programme fournit plusieurs utilisations élémentaires de l'indépendance : lien avec l'espérance, la variance et la covariance, loi faible des grands nombres, lemmes de Borel-Cantelli, stabilité de certaines lois (normale, Cauchy). Pour aller plus loin, on pourra aborder la loi forte des grands nombres ou le théorème central limite, ou l'étude de la marche aléatoire symétrique sur Z. Les candidats aguerris pourront aborder la loi du 0-1 de Kolmogorov, la convergence des séries de variables aléatoires indépendantes, la loi du logarithme itéré, les vecteurs gaussiens.
(2020 : 266 - Illustration de la notion d’indépendance en probabilités.) L’indépendance est centrale en probabilités et démarque cette théorie de celle de l’intégration. La motivation de cette leçon est de présenter cette notion de façon cohérente et de l’illustrer par des énoncés fondamentaux et des modèles importants. $\\$ À partir de la notion élémentaire de probabilité conditionnelle, on pourra introduire l’indépendance de deux événements, l’indépendance mutuelle d’une suite d’événements, voire celle d’une suite de tribus, puis l’indépendance de familles de variables aléatoires. Ces notions doivent être illustrées par des exemples et des énoncés simples (indépendance deux à deux et indépendance mutuelle,indépendance et opérations ensemblistes, etc). Il est important de pouvoir présenter un espace de probabilité sur lequel sont définies $n$ variables aléatoires indépendantes, au moins à un niveau élémentaire pour des variables discrètes ou à densité. De façon plus sophistiquée, on peut envisager de donner une construction d’un espace de probabilité sur lequel est définie une suite de variables aléatoires réelles indépendantes ayant des lois prescrites. $\\$ Au delà des définitions, il est nécessaire de décliner quelques propriétés simples de l’indépendance,notamment celles en lien avec l’espérance et, plus spécifiquement, les notions de variance et de covariance, ce qui peut s’illustrer par exemple par l’obtention de lois faibles des grands nombres. $\\$ Une autre illustration possible consiste en la représentation des variables usuelles (binomiales, géométriques, hypergéométriques,...) à l’aide d’expériences indépendantes élémentaires. Grâce aux divers critères utilisant les fonctions ou transformées caractérisant les lois (densité, fonction génératrice, fonction de répartition à $n$ variables, fonction caractéristique, etc) il est possible de présenter les propriétés d’indépendance remarquables dont jouissent les lois usuelles (lois de Poisson, lois normales, lois exponentielles, lois de Cauchy ou, pour aller plus loin, par exemple,la traduction de l’indépendance des vecteurs gaussiens en termes d’algèbre bilinéaire). $\\$ Les réciproques du lemme de Borel-Cantelli et la loi du 0-1 de Kolmogorov, plus sophistiquée, tiennent une place de choix dans cette leçon ; elles permettent notamment d’obtenir des convergences presque sûres. De manière générale, il est important d’illustrer cette leçon par desexemples tels que l’étude des records ou les propriétés du minimum de variables exponentielles in-dépendantes ou bien les statistiques d’ordre, ou encore le principe du « singe tapant à la machine »,etc. Enfin, la promenade aléatoire simple symétrique sur $\textbf{Z}$ est une riche source d’exemples.

Développements :

Plans/remarques :

2025 : Leçon 266 - Utilisation de la notion d’indépendance en probabilités.

  • Auteur :
  • Remarque :
    Méta-plan appris pour le jour J. Fait en juin 2024 et non validé par une personne compétente :

    I. De l'intégration aux proba : indépendance
    1) Evenements indépendants
    2) Indépendance de va
    3) DVT Zêta
    II. Pptes autours de l'indépendance
    1) Critères
    2) produit et somme de va indépendantes, fonctions (car, géné, répart)
    III. Thm limites en proba
    1) Borel Cantelli
    2) LDGN
    3) TCL
    4) DVT : suite de va
  • Auteur :
  • Remarque :
    Plans faits pendant l'année à 3. Pas toujours vérifiés ni forcément aboutis. N'étaient pas faits pour être partagés donc il y a des commentaires/remarques personnelles que vous ne comprendrez sûrement pas ! En espérant que le métaplan puisse tout de même aider !
  • Fichier :

2024 : Leçon 266 - Utilisation de la notion d'indépendance en probabilités.

  • Auteur :
  • Remarque :
    Je suis plutôt content de plan que j'ai fait. Il y a beaucoup de développements possibles pour cette leçon, je ne peux que vous conseiller d'en choisir qui se recasent dans les autres leçons de probabilités.

    Les références sont indiquées à la fin du plan. N'hésitez pas à me contacter pour me signaler toute erreur ou imprécision.
  • Fichier :
  • Auteur :
  • Remarque :
    Retrouvez tous nos plans de leçons ainsi que les fichiers latex associés à nos leçons sur notre site : https://sites.google.com/view/tribalchiefandwiseman/home?authuser=0
    Bonne preparation à vous !
  • Auteur :
  • Remarque :
    Il y a de bonnes références pour les probabilités, le Chabanol par exemple, même s'il n'y a pas toutes les démonstrations.
    La difficulté des leçons de probabilités est qu'elles se ressemblent toutes plus ou moins, mais il faut pour chacune d'elles orienter le plan de façon à insister sur la notion mentionnée par le titre.
    Ici, il faut centrer sur l'indépendance mais comme le mentionne le rapport du jury, c'est une leçon sur les APPLICATIONS de l'indépendance, il faut donc en mettre le plus possible.
    Les vecteurs Gaussiens ne sont pas du tout obligatoires, mais j'aime bien cette notion donc j'en ai parlé.
    Le DEV2 se trouve dans le Zuily-Queffelec mais il faut un peu remanier les preuves car elles utilisent des outils surpuissants pour pas grand chose...
    Le DEV1 est dans le Queffelec-Queffelec d'analyse complexe mais les amis qui m'avaient filé ce DEV ont un peu remanié la preuve, voir ma version du DEV si vous voulez.
  • Références :
  • Fichier :

2023 : Leçon 266 - Illustration de la notion d’indépendance en probabilités.

  • Auteur :
  • Remarque :
    Possibilité d'avoir ma version complète manuscrite en me contactant par mail.

2022 : Leçon 266 - Illustration de la notion d’indépendance en probabilités.


2020 : Leçon 266 - Illustration de la notion d’indépendance en probabilités.


Retours d'oraux :

2025 : Leçon 266 - Utilisation de la notion d’indépendance en probabilités.

  • Leçon choisie :

    266 : Utilisation de la notion d’indépendance en probabilités.

  • Autre leçon :

    230 : Séries de nombres réels et complexes. Comportement des restes ou des sommes partielles des séries numériques. Exemples.

  • Développement choisi : (par le jury)

    Théorème central limite

  • Autre(s) développement(s) proposé(s) :
  • Liste des références utilisées pour le plan :
  • Résumé de l'échange avec le jury (questions/réponses/remarques) :

    Le jury était composé de deux hommes et une femme. Ils m'ont rappelé les modalités de l'épreuve avant de me laisser commencer.

    J'ai fais ma présentation en 6 minutes, en insistant bien sur l'intuition derrière la notion d'indépendance. J'ai également parlé de l'intuition derrière la LGN, et que le TCL nous donne l'ordre de grandeur de cette convergence. Ils avaient l'aire d'apprécier cette précision.

    Ils m'ont ensuite demandé de rappeler quels étaient mes deux développements. Ils ont choisi le premier, celui sur la preuve du TCL. Ils m'ont dit que j'avais le droit de regarder mes notes rapidement avant de commencer. Ils m'ont aussi dit que j'avais le droit de regarder mon plan à tout moment pendant le développement.

    J'ai fais mon développement en expliquant bien au fur et à mesure les étapes importantes mais sans les écrire, juste à l'oral. Cela me permettait de gagner du temps et de n'écrire que le contenu mathématique essentiel. Je n'ai pas eu de soucis majeur, j'ai même pensé à faire un dessin pour illustrer les quantiles de la loi normale, ce qui est apprécié je crois. A la fin, je n'ai pas eu le temps d'écrire proprement mon intervalle de confiance asymptotique donc j'ai dit à l'oral comment il fallait faire et ils avaient l'air satisfaits.

    Est venu ensuite le moment des questions :
    J : Dans la preuve du TCL, vous faites un développement limité de la fonction caractéristique à l'ordre 2, pourquoi on peut le faire ?
    M : C'est une propriété dans le plan, et car ici nos variables aléatoires admettent un moment d'ordre 2.
    J : Comment vous démontrez cette propriété ?
    M : En utilisant le théorème de dérivation sous le signe intégrale, je leur ait dit que les dérivées successives était bornées par les moments de $X$, qui étaient bien intégrables par hypothèse.
    J : Vous avez admis le théorème de Lévy, est-ce que vous avez une idée de la preuve.
    M : Il faut utiliser la transformée de Fourier dans l'espace de Schwarz mais je ne sais pas le faire (ça leur a suffit heureusement).
    J : Dans votre application du TCL, vous faites un intervalle de confiance. Quel est votre estimateur ?
    M : C'est la moyenne empirique $\overline{X_n}$.
    J : Vous pouvez repréciser quel va être votre intervalle de confiance à l'oral ?
    M : Il faut « pivoter » pour isoler p et ensuite notre intervalle ne va dépendre que de $\overline{X_n}$, $\sqrt{n}$ et des quantiles de la N(0,1).
    J : Est ce que vous connaissez des conditions sur le paramètre $p$ et le nombre $n$ de répétitions qu'il faut faire pour que cet intervalle asymptotique soit assez précis ?
    M : Non là je ne vois pas.
    J : Okay c'est pas grave.
    J : Dans le développement on a donc la convergence $\phi_\frac{S_n}{\sqrt{n}}(t)\underset{n\to+\infty}{\longrightarrow}e^{-t^{2}/2}$. Comment on ferait pour avoir une idée de la vitesse de convergence ? (Il m'a lui même avoué que la question était vague).
    M : Après avoir séché pendant un petit moment, j'ai dis qu'il fallait faire un développement limité de $\phi_\frac{S_n}{\sqrt{n}}(t)$ à l'ordre supérieur.
    J : Okay et ça change quoi pour nos hypothèses ?
    M : Il faut que nos variables aléatoires aient un moment d'ordre 3.
    J : Vous avez utilisé le lemme de Slutsky dans votre application (j'utilisais que $\overline{X_n}$ convergait presque-sûrement vers $p$ et que donc dans la convergence en loi on pouvait remplacer $p$ par $\overline{X_n}$ sans changer la convergence), vous pouvez nous l'énoncer à l'oral ?
    M : Je l'ai fait sans trop de soucis.
    J : Est-ce que du coup la convergence presque sûr est nécessaire ?
    M : Non, la convergence en loi suffit, et c'est même une convergence en probabilités étant donné que l'on converge vers une constante.
    J : Dans la preuve du TCL, vous avez admis un lemme (j'avais bien insisté sur l'utilité de ce lemme, que l'on a un o(1/n) mais qui est complexe donc on ne peut pas utiliser un DL du logarithme réel). Vous pouvez nous le démontrer à l'oral ?
    M : J'ai dis que l'on allait se ramener au cas réel en utilisant le binôme de Newton et l'inégalité triangulaire. Celui qui m'a posé la question n'était pas convaincu.
    J : Finalement vous pouvez nous l'écrire au tableau ?
    M : J'ai écrit $|(1+\frac{z_n}{n})^{n}-1|$ et quand j'ai utilisé le binôme de Newton et la majoration, ils m'ont dit que c'était bon pour eux.

    J : Dans votre plan vous parlez d'une LGN faible et une LGN forte. Comment vous démontrez la LGN faible (cas $L^{2}$) ?
    M : Cela va juste être un calcul. J'ai ré-écris la définition de convergence dans $L^{2}$ et dans ce cas précis ce qu'il fallait montrer. Ils ne m'ont pas demandé de faire la preuve.
    J : Dans votre plan, vous parlez des lemmes de Borel-Cantelli qui permettent de montrer la convergence presque-sûre ou non quand on a indépendance des VA. Est-ce que vous avez un exemple de suite de variables aléatoires qui convergent en probabilité mais pas presque-sûrement ?
    M : Oui, on prend $X_n~\sim Ber(1/n)$ indépendantes. J'ai redémontré la convergence en probabilités vers 0 en utilisant la définition et l'inégalité de Bienaymé-Tchebychev. Puis avec le critère de Borel-Cantelli, comme $\sum_{n} \mathbb{P}(|X_n|>\varepsilon)=\sum_{n}\frac{1}{n}=+\infty$ car on reconnait la série harmonique, alors $\mathbb{P}(limsup \left\{|X_{n}|>\varepsilon\right\})=1$ donc $X_n$ ne converge pas presque-sûrement vers 0.

    J : On va passer aux exercices. On considère une suite de VA $(X_n)_{n\ge1}$ indépendantes (au début c'était seulement deux à deux indépendantes mais très vite ils ont rectifié). On suppose que $X_n$ suit une loi de Bernoulli de paramètre $p_n\in\mathbb{R}$, avec $p_{n}\underset{n\to+\infty}{\longrightarrow}p\in\mathbb{R}$. Montrez que si $S_{n}=\sum_{k=1}^{n}X_k$, alors $\frac{S_n}{n}$ converge en probabilité.
    M : Alors on ne va pas pouvoir appliquer la LGN car nos variables aléatoires n'ont pas la même loi. On peut s'en inspirer pour conjecturer que la limite va être $p$. J'ai pris un temps de réflexion et j'ai dit qu'on va essayer de le montrer en revenant à la définition de la convergence en probabilités. Et là j'ai voulu appliquer l'inégalité de Hoeffding. Le problème est que je me suis embrouillé avec les espérances car ici l'espérance de $S_n$ était juste égale à $\sum_{k=1}^{n}p_k$. On a rectifié ça et après je voulais tellement que la majoration tende vers 0 que j'ai dit que $e^{\frac{-1}{n}}$ tendait vers 0 (!!). Ils ne s'en sont eux même pas rendu compte tout de suite (un des jury a même dit que c'était à cause de la chaleur). Ils m'ont demandé d'énoncer proprement l'inégalité de Hoeffding en toute généralité, ce que j'ai fais. Malheureusement, cela n'aboutissait toujours pas.
    J'ai donc dit que l'on pouvait faire plus simple en utilisant l'inégalité de Bienaymé-Tchebychev. On l'a fait et on est arrivé à la conclusion qu'il fallait que $\frac{1}{n}\sum_{k=1}^{n}p_k$ converge. Ils m'ont demandé à quoi cela me faisait penser, et après un temps de réflexion j'ai dit que c'était la moyenne de Césaro de la suite des $p_n$. Or comme la suite convergeait, alors on avait convergence de la moyenne de Césaro. Ouf !
    J : Très bien donc est-ce que on ne peut pas affaiblir les hypothèses de l'exercice ?
    M : On peut seulement demander que la moyenne de Césaro des $p_n$ converge.
    J : Vous avez un exemple d'une suite dont la moyenne de Césaro converge mais pas la suite elle même ?
    M : Oui on prend $u_n=(-1)^{n}$. Alors $u_n$ ne converge pas mais $\frac{1}{n}\sum_{k=1}^{n}(-1)^{k}$ converge.
    J : Elle converge vers quoi ?
    M : Vers zéro.
    J : Autre exercice. Soit $(X_n)_{n\ge1}$ une suite de VA indépendantes. On considère la série entière aléatoire $\sum_{n}X_n z^n$. Quand est-ce que le rayon de convergence est constant presque sûrement ? (je ne suis même pas sûr que la question ce soit ça, je n'avais pas trop compris)
    M : D'habitude on utiliserait la règle de d'Alembert en regardant $\frac{X_{n+1}}{X_n}$ mais là on a pas assez d'informations. Si la suite est constante, alors la rayon de convergence va être 1 (franchement j'avais zéro idées).
    J : Okay est-ce que vous connaissez des critères pour que la probabilité d'un événement soit 0 ou 1.
    M : Oui comme on a indépendance on peut utiliser les lemmes de Borel-Cantelli.
    J : Vous connaissez une généralisation de ce résultat ?
    M : Il s'agit de la loi du 0-1 de Kolmogorov.
    J : Qui dit quoi ?
    M : Que quand on a des événements dans la tribu de queue, leur probabilité va être 0 ou 1.
    J : Très bien l'oral est fini.

  • Quelle a été l'attitude du jury (muet/aide/cassant) ?

    Jury très bienveillant, qui m'a invité plusieurs fois à boire de l'eau à cause de la chaleur.
    Les trois membres du jury ont posé des questions, même si il y en avait un qui avait clairement pris le commandement de l'oral.

  • L'oral s'est-il passé comme vous l'imaginiez ou avez-vous été surpris par certains points ? Cette question concerne aussi la préparation.

    Pas grand chose à dire, tout est très bien organisé. On a bien 3h de préparation, et avant de monter dans notre salle d'oral on a bien 10 minutes d'attente, ce qui permet de relire ses développements.
    Attention la place sur les feuilles est assez petite à cause des grandes marges, et sur la première page le bandeau prend beaucoup de place. Il faut donc être prêt à enlever des items du plan si nécessaire.

    Je suis positivement surpris de ma note. Je savais que l'oral s'était bien passé, mais je ne pensais pas à ce point, étant donné que j'avais bien galéré sur les exercices. Cela confirme que le jury n'attend pas que l'on réponde parfaitement aux questions, mais que l'on ait les bons réflexes en fonction de leurs indications.

  • Note obtenue :

    18.75


Références utilisées dans les versions de cette leçon :

Algèbre et probabilités, Gourdon (utilisée dans 86 versions au total)
Probabilités et statistiques pour l'épreuvre de modélisation à l'agrégation de mathématiques, Chabanol, Ruch (utilisée dans 63 versions au total)
De l'intégration aux probabilités, Garet, Kurtzman (utilisée dans 96 versions au total)
Probabilités, Barbe-Ledoux (utilisée dans 40 versions au total)
Analyse pour l'agrégation de mathématiques, 40 développements, 2de édition, Julien Bernis, Laurent Bernis (utilisée dans 17 versions au total)
Exercices de probabilités, M. Cottrell, V. Genon-Catalot, C.Duhamel et T. Meyre (utilisée dans 15 versions au total)
Algèbre , Gourdon (utilisée dans 341 versions au total)
Les contre-exemples en mathématiques , Hauchecorne (utilisée dans 48 versions au total)
Probabilités pour les non-probabilistes, Walter Appel (utilisée dans 38 versions au total)
Analyse complexe et applications, Martine Queffélec, Hervé Queffélec (utilisée dans 32 versions au total)
Probabilités 2 , Ouvrard (utilisée dans 42 versions au total)
Tout-en-un MP/MP*, Claude Deschamps (utilisée dans 40 versions au total)
ORAUX X-ENS 6 (nouvelle édition), Francinou, Gianella, Nicolas (utilisée dans 8 versions au total)
Analyse pour l'agrégation, Queffelec, Zuily (utilisée dans 224 versions au total)
Statistique mathématique en action, Rivoirard, Stoltz (utilisée dans 9 versions au total)
131 Développements pour l’oral, D. Lesesvre, P. Montagnon, P. Le Barbenchon, T. Pierron (utilisée dans 81 versions au total)
Analyse pour l'agrégation de mathématiques, 40 développements, Julien Bernis et Laurent Bernis (utilisée dans 158 versions au total)