Probabilités et Statistiques : Calcul des probabilités 1 Exercices Corrigés
Télécharger PDFCalcul des probabilités : Exercices corrigés
Exercice 1: Tirage de composants électroniques avec remise conditionnelle
Soit une boîte contenant 20 composants électroniques dont 4 sont défectueux. On y tire au hasard et successivement 3 composants, avec remise si le composant est normal, sinon on le garde.
- Calculer la probabilité d’avoir les trois composants défectueux.
- Calculer la probabilité d’avoir les trois composants normaux.
Solution:
Si on note les événements :
- Di = « avoir un composant défectueux au ième tirage »
- Ni = « avoir un composant normal au ième tirage »
-
Probabilité d'avoir les trois composants défectueux :
P(D1 ∩ D2 ∩ D3) = P(D1) ∙ P(D2|D1) ∙ P(D3|D1 ∩ D2)
P(D1 ∩ D2 ∩ D3) = (4/20) × (3/19) × (2/18) = 0,0035.
-
Probabilité d'avoir les trois composants normaux :
P(N1 ∩ N2 ∩ N3) = P(N1) ∙ P(N2|N1) ∙ P(N3|N1 ∩ N2)
P(N1 ∩ N2 ∩ N3) = P(N1) × P(N2) × P(N3) (car il y a remise si le composant est normal)
P(N1 ∩ N2 ∩ N3) = (16/20) × (16/20) × (16/20) = (4/5)3 = 0,512.
Exercice 2: Pièce défectueuse et théorème de Bayes
Dans une usine, 3 machines fabriquent des pièces mécaniques dans les proportions respectives suivantes : p1 = 25%, p2 = 35% et p3 = 40%. On sait que les taux de production de pièces défectueuses par les 3 machines sont respectivement de 10%, 5% et 1%. On choisit au hasard une pièce dans un lot de pièces fabriquées par l’usine et on constate qu’elle est défectueuse. Quelle est la probabilité qu’elle soit fabriquée par la 3ème machine ?
Solution:
Si on note les événements :
- D = « la pièce est défectueuse »
- Mi = « la pièce est fabriquée par la ième machine »
On a :
- i) P(M1) = 0,25 ; P(M2) = 0,35 et P(M3) = 0,4.
- ii) P(D|M1) = 0,1 ; P(D|M2) = 0,05 et P(D|M3) = 0,01.
Par le théorème de la probabilité totale, la probabilité qu'une pièce soit défectueuse est :
P(D) = P(D|M1)P(M1) + P(D|M2)P(M2) + P(D|M3)P(M3)
P(D) = (0,1 × 0,25) + (0,05 × 0,35) + (0,01 × 0,4)
P(D) = 0,025 + 0,0175 + 0,004 = 0,0465.
Par le théorème de Bayes, on calcule la probabilité a posteriori P(M3|D) :
P(M3|D) = [P(D|M3)P(M3)] / P(D)
P(M3|D) = (0,01 × 0,4) / 0,0465 = 0,004 / 0,0465 ≈ 0,0860.
Exercice 3: Tirage de pièces défectueuses avec remise (Loi Binomiale)
Un lot de pièces mécaniques contient 5% de pièces défectueuses. On tire au hasard 7 pièces avec remise dans ce lot. Calculer la probabilité d'avoir 2 pièces défectueuses parmi les 7 pièces tirées.
Solution:
Soit A l'événement "avoir une pièce défectueuse lors d'un tirage", d'où, P(A) = p = 0,05.
Tirer 7 pièces avec remise revient à effectuer 7 expériences de Bernoulli indépendantes. Soit X la variable aléatoire associée au nombre de pièces défectueuses parmi les 7 pièces tirées. D'où, X suit une loi Binomiale B(n=7; p=0,05).
La probabilité P(X=k) pour une loi Binomiale est donnée par la formule : P(X=k) = Cnk pk (1-p)n-k.
Ici, k=2, n=7, p=0,05 et 1-p=0,95.
On calcule alors : P(X=2) = C72 (0,05)2 (0,95)7-2 = C72 (0,05)2 (0,95)5
P(X=2) = 21 × (0,0025) × (0,773785) ≈ 0,0406.
Exercice 4: Échantillon de personnes malades (Loi Hypergéométrique et approximation Binomiale)
On sait que 4% d'une population de 1000 personnes ont une maladie M. On choisit au hasard et sans remise un échantillon de 10 personnes dans cette population. Calculer la probabilité d'avoir 1 seule personne malade dans l'échantillon.
Solution:
On a, N=1000 (taille de la population) et p=0,04 (proportion de malades).
Donc, N1 = pN = 40 (nombre de personnes malades) et N2 = N - N1 = 960 (nombre de personnes non malades).
Soit X la variable aléatoire associée au nombre de personnes malades parmi les 10 choisies. D'où, X suit une loi Hypergéométrique H(N=1000; n=10; K=40).
La probabilité P(X=k) pour une loi Hypergéométrique est donnée par la formule : P(X=k) = [CKk CN-Kn-k] / CNn.
Ici, k=1, n=10, N=1000, K=40, N-K=960.
-
Avec la loi exacte de X (loi Hypergéométrique) :
P(X=1) = [C401 C96010-1] / C100010 = [C401 C9609] / C100010 ≈ 0,2791. (Calcul fait par Excel)
-
Approximation par la loi Binomiale :
Le taux de sondage (n/N) = 10/1000 = 0,01 < 0,1, donc on peut utiliser l'approximation d'une loi hypergéométrique par une loi binomiale B(n=10; p=0,04).
D'où, on calcule une valeur approchée de P(X=1) par la loi Binomiale :
P(X=1) ≈ C101 (0,04)1 (0,96)10-1 = 10 × 0,04 × (0,96)9 ≈ 0,2770.
Exercice 5: Nombre de pannes d'une machine (Loi de Poisson)
Le nombre de pannes d'une machine sur une période donnée suit une loi de Poisson. Sachant qu'en moyenne la machine fait 2 pannes par trimestre.
- Calculer la probabilité de n'avoir aucune panne à un mois donné.
- Calculer la probabilité d'avoir 4 pannes pendant une année.
Solution:
Si l'unité de temps est le trimestre, le paramètre λ = 2.
Soient les variables aléatoires X, Y et Z associées respectivement au nombre de pannes de la machine pendant un trimestre, un mois et une année.
Donc :
- X ~ P(λ=2)
- Y ~ P(λ/3 = 2/3) (pour un mois)
- Z ~ P(λ × 4 = 8) (pour une année, car 4 trimestres)
La probabilité P(X=k) pour une loi de Poisson est donnée par la formule : P(X=k) = (λk e-λ) / k!.
-
Probabilité de n'avoir aucune panne à un mois donné (Y=0) :
P(Y=0) = ( (2/3)0 e-(2/3) ) / 0! = e-2/3 ≈ 0,5130.
-
Probabilité d'avoir 4 pannes pendant une année (Z=4) :
P(Z=4) = ( 84 e-8 ) / 4! ≈ 0,0573.
Exercice 6: Vente de journaux (Loi Binomiale et approximation par Loi de Poisson)
À l’entrée d’une station de train un marchand de journaux remarque qu’entre 8h et 9h en moyenne, une personne sur 10 achète un journal. Sachant que 120 personnes passent entre 8h et 9h, et soit X la variable aléatoire définie par : X = « nombre de journaux vendus pendant cette période ».
- Indiquer la loi de probabilité exacte de X.
- Par quelle loi peut-on approcher la loi de X ?
- Calculer P(X = 15) par la loi exacte puis par la loi approximative.
Solution:
-
Les personnes achètent les journaux indépendamment les unes des autres. Donc d'après la définition de X, X suit une loi Binomiale B(n=120; p=0,1).
-
On a n=120 ≥ 50 et p=0,1 ≤ 0,1 ; donc on peut utiliser l'approximation d'une loi binomiale par une loi de Poisson :
B(120; 0,1) ≈ P(λ = n × p) = P(120 × 0,1) = P(12).
-
Calcul de P(X=15) :
- Par la loi exacte (Binomiale) :
- Par la loi approximative (Poisson) :
P(X=15) = C12015 (0,1)15 (0,9)120-15 = C12015 (0,1)15 (0,9)105 ≈ 0,0742. (Calcul fait par Excel)
P(X=15) ≈ (1215 e-12) / 15! ≈ 0,0739.
Exercice 7: Tirage de boules blanches (Loi Géométrique et Binomiale Négative)
Une urne contient une proportion p = 3/5 de boules blanches et une proportion q=1-p de boules noires. On considère un tirage avec remise et on pose X : « le nombre de tirages nécessaires pour avoir une boule blanche » et Y : « le nombre de tirages nécessaires pour avoir 3 boules blanches ».
- Quelle est la loi de X ? Calculer P(X=2).
- Quelle est la loi de Y ? Calculer P(Y=5).
Solution:
On a p = 3/5 = 0,6 et q = 0,4. Le tirage étant avec remise, les tirages successifs sont indépendants.
-
X est le nombre de tirages nécessaires pour obtenir le premier succès (boule blanche). X suit une loi Géométrique G(p=0,6).
L'ensemble des valeurs possibles de X est N* (entiers naturels strictement positifs). Pour tout k ∈ N*, P(X=k) = p (1-p)k-1 = 0,6 × (0,4)k-1.
Donc, P(X=2) = 0,6 × (0,4)2-1 = 0,6 × 0,4 = 0,24.
-
Y est le nombre de tirages nécessaires pour obtenir le 3ème succès. Y suit une loi Binomiale Négative (ou loi de Pascal) NB(r=3; p=0,6), de paramètres p=0,6 et r=3.
L'ensemble des valeurs possibles de Y est {k ∈ N : k ≥ r}. Pour tout k ∈ DY, P(Y=k) = Ck-1r-1 pr (1-p)k-r.
Donc, pour r=3 : P(Y=k) = Ck-12 (0,6)3 (0,4)k-3.
On calcule P(Y=5) :
P(Y=5) = C5-13-1 (0,6)3 (0,4)5-3 = C42 (0,6)3 (0,4)2
P(Y=5) = 6 × 0,216 × 0,16 ≈ 0,2074.
Exercice 8: Durée de vie des ampoules (Loi Normale)
On suppose que la durée de vie des ampoules électriques est une variable aléatoire continue X de loi normale d'espérance m = 1000 heures et de variance σ2 = 10000.
Calculer la probabilité qu'une ampoule fonctionne :
- entre 1000 et 1200 heures ?
- moins de 750 heures ?
Solution:
On a, X ~ N(m=1000; σ=100), car σ = √10000 = 100.
Pour calculer les probabilités, on utilise la variable centrée réduite U = (X - m) / σ, qui suit une loi normale centrée réduite N(0; 1).
-
Probabilité que l'ampoule fonctionne entre 1000 et 1200 heures :
P(1000 ≤ X ≤ 1200) = P( (1000-1000)/100 ≤ (X-1000)/100 ≤ (1200-1000)/100 )
P(1000 ≤ X ≤ 1200) = P(0 ≤ U ≤ 2)
P(0 ≤ U ≤ 2) = Φ(2) - Φ(0).
Or, Φ(2) = 0,9772 et Φ(0) = 0,5.
Donc P(1000 ≤ X ≤ 1200) = 0,9772 - 0,5 = 0,4772.
-
Probabilité que l'ampoule fonctionne moins de 750 heures :
P(X ≤ 750) = P( (X-1000)/100 ≤ (750-1000)/100 )
P(X ≤ 750) = P(U ≤ -2,5)
P(U ≤ -2,5) = Φ(-2,5).
Or, Φ(-2,5) = 1 - Φ(2,5) = 1 - 0,9938 = 0,0062.
Donc, P(X ≤ 750) = 0,0062.
Exercice 9: Combinaisons de variables de Bernoulli (Loi conjointe et indépendance)
Soient X et Y deux variables aléatoires discrètes indépendantes suivant la même loi de Bernoulli de paramètre p (0 < p < 1). On pose Z = X + Y et T = X - Y.
- Déterminer la loi de Z et la loi de T.
- Déterminer la loi conjointe du couple (Z ; T).
- Z et T sont-elles indépendantes ? Justifier la réponse.
Solution:
X et Y suivent une loi de Bernoulli, donc P(X=1)=p, P(X=0)=1-p=q et P(Y=1)=p, P(Y=0)=1-p=q. X et Y sont indépendantes.
-
Loi de Z = X + Y :
DZ = {0, 1, 2}
- P(Z=0) = P(X=0 et Y=0) = P(X=0)P(Y=0) = q × q = q2.
- P(Z=1) = P(X=1 et Y=0) + P(X=0 et Y=1) = P(X=1)P(Y=0) + P(X=0)P(Y=1) = pq + qp = 2pq.
- P(Z=2) = P(X=1 et Y=1) = P(X=1)P(Y=1) = p × p = p2.
z ∈ DZ 0 1 2 Total P(Z=z) q2 2pq p2 1 Loi de T = X - Y :
DT = {-1, 0, 1}
- P(T=-1) = P(X=0 et Y=1) = P(X=0)P(Y=1) = qp = pq.
- P(T=0) = P(X=0 et Y=0) + P(X=1 et Y=1) = P(X=0)P(Y=0) + P(X=1)P(Y=1) = q2 + p2.
- P(T=1) = P(X=1 et Y=0) = P(X=1)P(Y=0) = pq.
t ∈ DT -1 0 1 Total P(T=t) pq p2+q2 pq 1 -
Loi conjointe du couple (Z ; T) :
Z \ T -1 0 1 Loi marginale de Z 0 0 q2 0 q2 1 pq 0 pq 2pq 2 0 p2 0 p2 Loi marginale de T pq p2+q2 pq 1 -
Z et T sont-elles indépendantes ?
Pour que Z et T soient indépendantes, il faut que P(Z=z, T=t) = P(Z=z) × P(T=t) pour toutes les valeurs possibles de z et t.
On a P(Z=0, T=-1) = 0 (d'après la table).
Cependant, P(Z=0) × P(T=-1) = q2 × pq = q3p.
Comme 0 < p < 1, alors p ≠ 0 et q ≠ 0, donc q3p ≠ 0.
Puisque P(Z=0, T=-1) ≠ P(Z=0) × P(T=-1), Z et T ne sont pas indépendantes.
Exercice 10: Détermination d'une loi de probabilité à partir d'une relation de récurrence
Soit X une variable aléatoire discrète telle que DX = N (ensemble des entiers naturels) et la loi de probabilité de X, P(X=n) = f(n), vérifie : f(n) = (2/n)f(n-1) pour tout n ∈ N*.
Déterminer explicitement l’expression de f.
Solution:
On pose f(0) = c.
En utilisant la relation de récurrence f(n) = (2/n)f(n-1) :
- f(1) = (2/1)f(0) = 2c
- f(2) = (2/2)f(1) = (2/2) × (2c) = 2c
- f(3) = (2/3)f(2) = (2/3) × (2c) = (22/3)c
- f(4) = (2/4)f(3) = (2/4) × (22/3)c = (23/(4 × 3))c
De manière générale, f(n) = (2/n) × (2/(n-1)) × ... × (2/1) × f(0)
f(n) = (2n / n!) × c.
Puisque f(n) est une distribution de probabilité, la somme des probabilités doit être égale à 1 :
∑n=0∞ f(n) = 1
∑n=0∞ c × (2n / n!) = 1
c × ∑n=0∞ (2n / n!) = 1
On reconnaît la série de Taylor de ex où x=2 : ∑n=0∞ (2n / n!) = e2.
Donc, c × e2 = 1, ce qui implique c = e-2.
L'expression explicite de f(n) est donc : f(n) = (2n e-2) / n!.
Ainsi, X suit une loi de Poisson de paramètre λ = 2.
Exercice 11: Détermination des paramètres d'une loi Normale
Une machine fabrique des pièces cylindriques caractérisées par leurs diamètres. Soit X la variable aléatoire continue associée à la mesure des diamètres en centimètre. On suppose que X suit une loi normale générale d’espérance m et d’écart type σ. Sachant que sur 50000 pièces fabriquées, on dénombre 16500 pièces dont le diamètre est inférieur à 1,6 cm et 5100 dont le diamètre est supérieur à 1,8 cm. Déterminer l’espérance m et l’écart type σ.
Solution:
X ~ N(m; σ). Nous avons E(X) = m et V(X) = σ2.
Les informations données sont :
- P(X < 1,6) = 16500 / 50000 = 0,33
- P(X > 1,8) = 5100 / 50000 = 0,102
En utilisant la standardisation U = (X - m) / σ ~ N(0; 1) :
1. Pour P(X < 1,6) = 0,33 :
P(U < (1,6 - m)/σ) = 0,33.
À partir de la table de la loi normale centrée réduite (Φ), Φ(-0,44) ≈ 0,33.
Donc, (1,6 - m) / σ = -0,44 ⇒ m - 0,44σ = 1,6 (Équation 1)
2. Pour P(X > 1,8) = 0,102 :
P(U > (1,8 - m)/σ) = 0,102 ⇒ 1 - Φ((1,8 - m)/σ) = 0,102.
Φ((1,8 - m)/σ) = 1 - 0,102 = 0,898.
À partir de la table de la loi normale centrée réduite (Φ), Φ(1,27) ≈ 0,898.
Donc, (1,8 - m) / σ = 1,27 ⇒ m + 1,27σ = 1,8 (Équation 2)
Nous avons un système de deux équations à deux inconnues :
{ m - 0,44σ = 1,6 (1)
{ m + 1,27σ = 1,8 (2)
En soustrayant (1) de (2) :
(m + 1,27σ) - (m - 0,44σ) = 1,8 - 1,6
1,27σ + 0,44σ = 0,2
1,71σ = 0,2
σ = 0,2 / 1,71 ≈ 0,117 cm.
En remplaçant σ dans l'équation (1) :
m - 0,44 × 0,117 = 1,6
m - 0,05148 = 1,6
m = 1,6 + 0,05148 ≈ 1,651 cm.
Les paramètres sont donc m ≈ 1,651 cm et σ ≈ 0,117 cm.
FAQ sur le Calcul des Probabilités
Qu'est-ce qu'une loi de probabilité ?
Une loi de probabilité est une fonction mathématique qui décrit la probabilité de différents résultats pour une expérience aléatoire. Elle associe une probabilité à chaque valeur possible d'une variable aléatoire, qu'elle soit discrète (par exemple, le nombre de faces obtenues en lançant une pièce) ou continue (par exemple, la taille d'une personne).
Quand utiliser la loi Binomiale et la loi de Poisson ?
La loi Binomiale est utilisée pour modéliser le nombre de succès dans une série fixe d'expériences indépendantes de Bernoulli (deux résultats possibles, succès ou échec), où la probabilité de succès est constante à chaque essai (par exemple, le nombre de pièces défectueuses dans un lot de 100, avec remise).
La loi de Poisson est appropriée pour modéliser le nombre d'événements rares qui se produisent pendant un intervalle de temps ou dans une région d'espace donnée, lorsque ces événements surviennent avec une fréquence moyenne connue et indépendamment les uns des autres (par exemple, le nombre d'appels reçus par un centre d'appels en une heure, ou le nombre de défauts par mètre carré de tissu).
À quoi sert le théorème de Bayes ?
Le théorème de Bayes est une formule fondamentale en probabilités qui permet de calculer la probabilité d'un événement en tenant compte de nouvelles informations. Il est utilisé pour mettre à jour les probabilités d'une hypothèse à la lumière de preuves observées. En d'autres termes, il permet de calculer une probabilité "a posteriori" (après l'observation) à partir d'une probabilité "a priori" (avant l'observation) et de la vraisemblance des nouvelles informations. Il est largement utilisé dans des domaines comme le diagnostic médical, la finance, le filtrage de spams et l'apprentissage automatique.