Les probabilité : Origines et découvertes
Considérées aujourd'hui comme une branche à part entière des mathématiques, et ayant de nombreuses applications pratiques, les probabilités sont pourtant nées des jeux de hasard.
Définitions de la probabilité d'un évènement
Définition classique historique :
Initialement, la probabilité d'un événement était définie comme le nombre de cas favorables pour l'événement, divisé par le nombre total d'issues possibles à l'expérience aléatoire.
Par exemple on a une probabilité de 1/2 d'obtenir un nombre pair en lançant un dé non pipé.
C'est la définition historique qui n'est pas valable dans toutes les configurations, elle n'est en fait applicable que lors des cas d'équiprobabilité.
Définition moderne rigoureuse. [EscoJ] p 14
Étant donné un espace probabilisable ( Ω ; A ), on appelle probabilité sur ( Ω ; A ) toute application P : A → IR satisfaisant aux trois axiomes suivants :
- Axiome (1) : ∀ A ∈ A, P(A) ≥0.
- Axiome (2) : P( Ω) = 1.
- Axiome (3) : Pour toute suite (An) d'éléments deux à deux disjoints, P( U An) = ∑ P(An) (additivité)
Remarque 1: A est une tribue de parties de l'univers Ω (ensemble des résultats possibles liés à une expérience aléatoire).
Remarque 2: Pour être une tribue, l'ensemble A doit appartenir à l'ensemble des parties de Ω et vérifier les propriétés suivantes :
A contient l'ensemble vide et l'univers, il est stable pour les opérations de réunion et d'intersection finies ou dénombrables, ainsi que par passage au complémentaire.
Histoire de la notion de probabilités
Les probabilités sont aujourd'hui l'une des branches les plus importantes et les plus pointues des mathématiques. Pourtant,c'est en cherchant à résoudre des problèmes posés par les jeux de hasard que les mathématiciens donnent naissance aux probabilités.
Les archéologues ont montré que ces jeux ont été pratiqués dans de nombreuses sociétés antiques. Pourtant, on ne trouve nul part trace de leur étude.
Le problème initial le plus fameux est celui de la répartition équitable des enjeux d'une partie inachevée, à un moment où l'un des joueurs a un pris un avantage, non décisif évidemment.
Le mathématicien italien Luca Pacioli l'évoque dans son Summa de Arithmetica, Geometrica, Proportio et Proportionalita , publié en 1494.
1. L'exemple historique initial
L'exemple considéré par Luca Pacioli est celui de deux équipes misant chacune 11 ducats, dans une partie en 60 points. La partie est interrompue alors qu'une équipe a marqué 50 points et l'autre 30 points : pour être équitable, quelle somme doit récupérer chaque équipe?
La solution de Luca Pacioli.
Solution :
La solution de Luca Pacioli :est de répartir les enjeux proportionnellement aux points acquis par chaque équipe. Si cette solution a le mérite de la simplicité, elle ne s'appuie sur aucun raisonnement.
Critique :
Elle est d'ailleurs critiquée, 60 ans plus tard, par un autre mathématicien italien, Niccolo Tartaglia.
Il faisait remarquer que si une équipe a, par exemple, marqué 10 points et l'autre 0 au moment de l'interruption, la répartition proportionnelle aux points acquis attribue l'intégralité des 22 ducats à la première équipe; pourtant, la seconde a encore des chances de gain non négligeables.
La solution de CARDAN.
Solution :
Elle consiste à considérer que la répartition doit se faire en fonction des points que chaque équipe a encore besoin de marquer pour gagner la partie.
Critique :
Cette solution résiste à la critique précédente, mais n'est pas davantage étayée par un quelconque raisonnement. Aucun de ces mathématiciens n'a encore trouvé comment attaquer le problème.
Finalement, c'est Pascal qui va y parvenir.
Le même type de problème est posé à Pascal par son ami le Chevalier de Méré (joueur réputé). Ce problème est à l'origine d'une correspondance entre Pascal et Fermat.
La solution finale du problème avec la méthode de Pascal.
Dans la ligne de l'intuition de CARDAN, PASCAL a l'idée de prolonger, fictivement, la partie. Il simule un tour supplémentaire, qui peut donner deux résultats.
Soit le joueur en retard gagne, les deux joueurs partent chacun avec ses 11 ducats.
Soit le joueur en avance gagne encore une manche et emporte la partie : il gagne alors les 2 ×11 = 22 ducats.
En définitive, le joueur en avance a donc de toute façon droit à 11 ducats.
Quant aux 11 ducats restant, il faut les partager en deux, puisque les deux joueurs auraient eu les mêmes chances de gagner le coup supplémentaire.
En définitive, le joueur en avance a droit à 11 + 5,5 = 16,5 ducats, et l'autre à 5,5 ducats. Le résultat est cette fois tiré d'un raisonnement, incontestable, et qui d'ailleurs n'a jamais été contesté depuis.
Ce raisonnement peut ensuite facilement se généraliser à des parties comprenant autant de manches que l'on veut. Pascal est particulièrement satisfait de sa solution mais il n'écrira jamais de traité sur le sujet.
Une solution moderne.
- La probabilité que le joueur en avance gagne est p1 = 3/4.
En effet, Il gagne soit à la partie suivante (1/2), soit il la perd et gagne à la 3ème manche soit p1 = 1/2 + 1/2 × 1/2 = 3/4.
- La probabilité que le joueur en retard gagne est bien p2 = 1 - p1 = 1/4.
En effet, il doit gagner les deux parties suivantes, soit p2 = 1/2 × 1/2 = 1/4
Donc on donne les 3/4 de 22 ducats soit 16,5 ducats au joueurs en avance, et le reste, soit 5,5 ducats à l'autre.
2. Le premier traité de probabilité
Lors d'un voyage à Paris, le physicien et mathématicien hollandais, Christiaan Huygens (1629-1695), prend connaissance de la correspondance entre Fermat et Pascal. Il étudie ces réflexions et publie un traité sur le sujet en 1657, Tractatus de ratiociniis in aleae ludo (Traité sur les raisonnements dans le jeu de dés). C'est le premier traité consacré à cette nouvelle théorie des probabilités.
Huygens comprend déjà, que cette théorie n'est pas uniquement destinée à régler les querelles de joueurs, qu'elle va ouvrir une nouvelle voie et fonder une branche importante des mathématiques modernes.
Le contenu du livre de Huygens est assez limité mais il y introduit ce qui deviendra la notion d'espérance mathématique.
Il donne une solution au problème du partage des mises, analogue à celle de Pascal. Enfin, il propose à ses lecteurs cinq problèmes relatifs à des lancers de dés, à des tirages dans des urnes, à des tirages de cartes. [HaSu] p179.
3. Bernoulli et la loi des grands nombres
Un autre traité, plus complet, sur les probabilités, est l'oeuvre d'un mathématicien suisse, Jacques Bernoulli (1662-1716).Son œuvre majeure est Ars Conjectandi publiée après sa mort à Bâle en 1713, avec une préface de son neveu Nicolas Bernoulli. Il y pose les principes du calcul des probabilités et introduit les nombres de Bernoulli.
Cet ouvrage aborde un aspect nouveau, le lien entre probabilités et fréquences en cas de tirages répétés (d'un jeu de pile ou face). Il énonce et démontre la loi faible des grands nombres pour le jeu de pile ou face, appelé théorème de Bernoulli. [HaSu]
On peut résumer ce théorème en le simplifiant : Pour un grand nombres de lancers de pièces (jeu de pile ou face) l'écart entre fréquence et probabilité tend vers zéro. C'est à dire que si l'on effectue beaucoup de lancers, la fréquence d'apparition du pile va tendre vers 1/2, c'est assez intuitif.
En termes plus rigoureux, on considère un tirage aléatoire dont l'un des résultats possibles a une probabilité p ; on répète l'expérience n fois, et l'on obtient m fois le résultat considéré; alors :
∀ ε > 0 et ∀ α > 0, il existe N tel que, si n > N, \(P\left( | \dfrac{m}{n} - p | > \alpha\right)< \epsilon\)
Théorème de Bernoulli (Jacques 1654 - 1705). [EscoJ] p161
On considère des variables de Bernoulli indépendantes associées à la répétition de la même expérience aléatoire (pour laquelle on s'intéresse à un événement, appelé succès, noté S).
\(X_n = 0\) si à la nième épreuve, on n'a pas S, et \(X_n = 1\) si à la nième épreuve, on a S.
En notant \(p = P(S)\), on a pour tout entier n non nul, \(X_n\) suit la loi B(p) et \( \dfrac{X1 + X2 + ... + Xn}{n}\) tend vers \(p\) en probabilité quand \(n\) tend vers l'infini.
Bernoulli, dans son traité, énonce d'autres éléments intéressants concernant les problèmes de dénombrement
Prolongeant des résultats obtenus par les Chinois et les Indiens, puis par Leibniz, il met la théorie des permutations et des combinaisons sous une forme qui n'a pas changé depuis. Il donne aussi la première expression de la loi binomiale.
4. Une définition
Il manquait une définition de la probabilité d'un événement. Elle viendra en fait du mathématicien français LAPLACE Pierre Simon (1749-1827), qui écrit en 1795 tout en l'attribuant à PASCAL :
"La probabilité est une fraction, dont le numérateur est le nombre de cas favorables, et dont et le dénominateur est le nombre de cas possibles."
C'est la définition historique qui n'est pas valable dans toutes les configurations, elle n'est en fait applicable que lors des cas d'équiprobabilité.
5. Quelques noms et découvertes célèbres
Le mathématicien français LAPLACE Pierre Simon, marquis de (1749-1827), dès 1774, travaille sur la théorie des probabilité. Il utilise les densités continues et obtient la première formule : [HaSu]p 207.
$$\displaystyle \int_{-\infty}^{+\infty} \text{e}^{-t^2}~\text{dt}=\sqrt{\pi}$$
6. Bibliographie
- [HaSu] : B. Hauchecorne et D. Surateau, Des mathématiciens de A à Z, Ellipse, Paris, 1996.
- [DaDaPe] : A.DAHAN-DALMEDICO/J.PEIFFER, Une histoire des mathématiques, Seuil, Paris, 1986.
- [TanHs10] : Tangente, Mille ans d'histoire des mathématiques, HS n°10, Pole, Paris, 2005.