Mathématiques : la loi binomiale

À lire dans cet article :

Dans cet article, nous faisons le point avec toi sur la loi binomiale, un élément très important de ton programme de spécialité mathématiques en classe de terminale.

Évènements indépendants et successifs

Indépendance

Soit \((\Omega,\mathcal T,P)\) un espace probabilisé.

On sait que deux évènements \(A, B \in \Omega\) sont indépendants si :

\(P(A\cap B)=P(A)P(B)\)

Probabilité conditionnelle

D’autre part, \( \forall A,B\in\mathcal P(\Omega), P(A\cap B)=P(A)P_A(B)=P(B)P_B(A)\)

Où \(P_A(B)\) (aussi noté \(P(B|A)\) est la probabilité que \(B\) soit réalisé sachant que \(A\) est réalisé.

Donc, \(\forall A, B \in P(\Omega)\), \(A\) et \(B\) sont indépendants si :

\(P_B(A)=P(A)\) et \(P_A(B)=P(B)\)

Indépendance mutuelle

Soit \((A_i)_{i\in I}\) une famille d’évènements. On dit que \((A_i)_{i\in I}\) sont mutuellement indépendants si pour toute partie \(J\) finie de \(I\), on a : \(P\left(\bigcap_{j\in J}A_j\right)=\prod_{j\in J}P(A_j)\)

Formule des probabilités composées

Soient \(A_1,\dots,A_m\) des évènements tels que \(P(A_1\cap\dots\cap A_m)\neq 0\).

D’après la formule des probabilités composées :

\(P(A_1\cap\dots\cap A_m)=P(A_1)P(A_2|A_1)P(A_3|A_1\cap A_2)\cdots P(A_m|A_1\cap \dots\cap A_{m-1})\)

En pratique, cette formule s’avère assez utile pour calculer la probabilité que des évènements successifs dépendant les uns des autres soient réalisés.

Exemple : Soit \(n \in \mathbb{N}^{*}\), on considère une urne contenant \(2n\) boules numérotées de \(1\) à \(2n\). On réalise \(n\) tirages successifs dans l’urne, sans remise. Quelle est la probabilité qu’on tire uniquement les boules avec un numéro pair ?

Pour tout \(i\) de \([1:n]\), on pose \(A_i\) : “on tire un numéro pair au \(i\)-ème tirage”.
Ici, on cherche à déterminer \(P\left(\bigcap_{i\in [1:n]}A_i\right)\).

Or \(P(A_1\cap\dots\cap A_n)\neq 0\), donc d’après la formule des probabilités composées :

\( \begin{align}P(A_1\cap\dots\cap A_n) &=P(A_1)P(A_2|A_1)P(A_3|A_1\cap A_2)\cdots P(A_n|A_1\cap \dots\cap A_{n-1})
\\ &=\frac{n}{2n} \times\frac{n-1}{2n-1}\times…\times \frac{1}{n+1}\\ &=\frac {n!}{\frac{(2n)!}{n!}}\\&=\frac{(n!)^2}{(2n)!} \end{align}\)

En effet, on sait que l’urne contient \(2n\) boules numérotées de \(1\) à \(2n\). Il y a donc \(n\) boules portant un numéro pair et \(n\) boules avec un numéro impair. Les tirages se font successivement sans remise.

Ainsi au premier tirage, il y a \(n\) boules “paires” dans l’urne qui contient \(2n\) boules; au \(2\)-ème tirage, sachant que l’on vient de tirer une boule “paire” il reste \(n-1\) boules “paires” dans l’urne de \(2n-1\) boules; et ainsi de suite…

Arbre pondéré

Lorsqu’on s’intéresse à une expérience aléatoire qui se caractérise par des épreuves successives, pour chaque épreuve on peut considérer un système complet d’évènements qui permet de représenter une situation par un arbre pondéré.

Définition : 

un arbre pondéré est une liste de segments, appelés branches, et d’évènements appelés noeuds, chaque branche porte une probabilité associée à l’évènement se trouvant à l’extrémité droite. Un chemin est une suite de branches et de noeuds partant de l’extrémité gauche à une des extrémités de droite.

  • La somme des probabilités sur les branches issues d’un même noeud fait toujours \(1\)(propriété d’un système complet d’évènements). Ici, on a bien : \(P(A)+P(B)+P(C)=0,4+0,4+0,2=1\)

 

  • Pour déterminer la probabilité de l’intersection de deux évènements situés à des noeuds différents, il suffit de multiplier les probabilités qui se trouvent sur le chemin emprunté. Ainsi :\(P(A\cap E)=P(A)P_A(E)=0.2 \times 0.1=0.02\)

Loi binomiale

Loi de Bernoulli

Soit \(p \in [0;1]\).On considère une expérience aléatoire et deux évènements contraires, non vides :

  • \(S\) appelé succès de probabilité \(p\)
  • \(\overline{S}\) appelé échec avec une probabilité \(1-p\)

Cette situation constitue une épreuve de Bernoulli.

On s’intéresse alors à la variable aléatoire \(X\) qui compte le nombre de succès. On a alors :

  • \(X(\Omega)=[\![0,1]\!]\)
  • \(P(X=1)=p\)
  • \(P(X=0)=1-p\)

Et :

  • \( E(X)=p\)
  • \(V(X)=p(1-p)\)

Loi binomiale

Soit \(n \in \mathbb{N}^{*}\) et \(p \in [0;1]\). On répète \(n\) fois de manière indépendante une épreuve de Bernouilli de paramètre \(p\). On note \(X\) le nombre de succès obtenu. On dit alors que \(X\) suit une loi binomiale de paramètres \(n,p\) ce qui se note :

\(X \hookrightarrow\mathcal{B}(n,p)\)

On a alors :

\(\forall k \in [0,n], P(X=k)=\binom nk p^k (1-p)^{n-k}\)

Démonstration :

Soit \(k \in [0:n]\), l’évènement \( [X=k]\) est la réunion des intersections d’évènements constituées de \(k\) succès (\(S\))et de \(n-k\) échecs (\(\overline{S}\)) comme \( A=S \cap S\cap.. \cap S\cap \bar S\cap \bar S\cap..\cap \bar S\) avec \(k\) “\(S\)” et \(n-k\) ” \( \bar S\)”.

Or par indépendance des épreuves, \( P(A)=p^k(1-p)^n-k\) et tous les évènements qui constituent \({X=k}\) ont cette même probabilité.

De plus, il existe \(\binom nk\) manières d’obtenir \(k\) succès et \(n-k\) échecs sur les \(n\) épreuves.

Et par incompatibilité des évènements qui constituent \([X=k]\), il vient que: \( \forall k \in [0:n], P(X=k)=\binom nk p^k (1-p)^{n-k}\)

On sait de plus que \(X\) admet une espérance et une variance et :

  • \( E(X)=np\)
  • \(V(X)=np(1-p)\)

Exemple d’utilisation de la loi binomiale :

On lance \(5\) fois un dé non pipé.

1. Quelle est la probabilité que l’on obtienne trois \(6\)

2. Quelle est la probabilité qu’on obtienne au moins trois \(6\) ?

3. Combien de 6 peut-on espérer obtenir environ ?

Corrigé :

1. Comme le dé est non pipé, à chaque lancer la probabilité d’obtenir un \(6\) est de \(1/6\). Donc, on répète \(5\) fois et de manière indépendante, une expérience de Bernouilli de probabilité de succès \(1/6\). En posant \(X\) le nombre de \(6\) obtenu, on sait que :

\(X \hookrightarrow\mathcal{B}(5,1/6)\)

Ainsi, \(P(X=k)=\binom 53 (1/6)^3(5/6) ^2\)

2. \( [X \ge 3]= [X=3] \cup [X=4] \cup [X=5]\)

Et par disjonction des évènements, \( P(X \ge 3)= P(X=3)+P(X=4)+P(X=5)=\binom 53 (1/6)^3(5/6) ^2+\binom 54 (1/6)^4(5/6)+\binom 55 (1/6)^5(5/6) ^0\)

3. \( E(X)=5 \times \frac{1}{6}=\frac{5}{6}\)

On remarque que l’entier le plus proche de la valeur de l’espérance est \(1\). Par conséquent, on peut espérer obtenir un six environ sur les cinq lancers.

Tu veux plus d’informations et de conseils pour réussir tes examens et trouver ton orientation ? Rejoins-nous sur Instagram et TikTok !

À la une