Probabilités : Conjecture à démontrer


  • S

    Il y a quelques temps j'ai essayé sur mon ordinateur (lui peut la faire plein de fois) une expérience aléatoire comme suit :
    On définit une variable n qui commence à 0.
    On choisit un nombre aléatoirement entre 0 et 1 et on l'ajoute à n.
    tant que n < 1 on choisit un nombre aléatoire entre 0 et 1 et on l'ajoute à n.
    Si n devient ≥1 dans ce cas on s'arrête.
    Ce qui nous intéresse c'est le nombre de lancés aléatoires effectués avant de s'arrêter.

    Par exemple :
    On pose n=0
    premier tirage on tombe sur 0.3 donc n=0.3
    comme n<1 on fait un deuxième tirage qui tombe sur 0.5 donc n=0.8
    comme n<1 on fait un troisième tirage qui tombe sur 0.85 donc n=1.65
    Là n≥1 donc on s'arrête. On a fait 3 lancés.

    En faisant cette expérience des milliards de fois on se rend compte qu'il faut en moyenne 2.71828183... bref après une cinquantaine de décimales de e j'avais plus trop de doutes quand à l'espérance mathématique du nombre de lancés nécessaire à ce que n dépasse 1. Mais le problème est de le démontrer (ou de démontrer que ce n'est pas vrai le cas échéant, mais j'en doute ^^).

    Je vous laisse pour le moment le problème tel quel. Je posterais mes pistes de calculs et ce que j'ai déjà réussi à démontrer sous peu.
    Sachez aussi que j'ai passé des semaines à plancher sur ce problème dont plusieurs nuits d'insomnie sans réussir à faire cette démonstration. Et on ne peut pas dire que je sois une bille en mathématiques (je suis actuellement en math sup).
    Bonne chance.


  • S

    Et bien ? Personne, rien, pas une idée ? Je voudrais pas vous polluer l'esprit avec mes résultats incomplets qui peuvent ne mener à rien avant que vous ayez commencé (si jamais quelqu'un commence un jour ^^).


  • J

    Salut.

    Ben si on suppose que l'implémentation de ton random suit une loi normale, alors pour le n-ième lancé on suit une loi N(n/2 ; n/(2√(3))).

    Tu peux partir de là pour tes calculs. Pour t'amuser tu peux aller regarder dans une table. Par exemple pour n=3 on n'a plus que 16% de chance d'être inférieur à 1.

    Après le truc c'est d'arriver à formaliser exactement ce que tu veux : tu cherches exactement l'espérance de quoi (E[?]) si on l'exprime mathématiquement ? Les calculs en découlent.

    @+


  • S

    Mais mon random il suit pas une loi normale, plutôt une loi uniforme entre 0 et 1. Pourquoi lui donner une répartition aussi compliquée ? On prend un nombre quelconque entre 0 et 1 et on l'ajoute à n.
    Comme on est entre 0 et 1 la probabilité de tomber dans un intervalle est égale à la taille de l'intervalle.
    Ou alors je n'ai pas bien compris ce que tu disais par là, mais même si tu peux démontrer la conjecture en conjecturant qu'elle suit une loi normal ça nous avance, certes, mais il faut encore démontrer qu'elle suit une loi normale.

    Ce qu'on cherche c'est l'espérance du nombre de lancés nécessaire à ce que n dépasse 1. J'aurais pas du l'appeler n car ce n'est pas un nombre entier et j'ai besoin de définir une autre lettre pour représenter le nombre de lancés.
    Tant pis je vais appeler x le nombre de lancés. Donc x∈n\mathbb{n}n tandis que n∈r\mathbb{r}r. Ça oblige à un peu de gymnastique je l'admet mais si je change toutes mes définitions on va s'embrouiller encore plus.

    Déjà on démontre aisément que x≥2.
    En effet on a choisit aléatoirement un nombre réel entre 0 et 1. Ce nombre ne peut être 1 car la probabilité de choisir un élément en particulier dans un intervalle est nulle (en théorie, mais en pratique un bon générateur de nombres aléatoires ne tombera jamais sur 1, il choisit dans ]0;1[ et c'est réglé).
    Donc après un unique lancé n<1 donc il faut au moins un deuxième lancé pour excéder 1.

    On veut calculer E(x).
    En notant p(i), i∈n∗\mathbb{n}*n la probabilité qu'il faille exactement i lancés pour que n excède 1.
    Ainsi E(x) = 1p(1)+2p(2)+3p(3)+...+ip(i)+...
    E(x) = ∑i=1+∞ip(i)\sum_{i=1}^{{+} \infty} {ip(i)}i=1+ip(i)
    On vient de démontrer que p(1)=0 donc
    E(x) = ∑i=2+∞ip(i)\sum_{i=2}^{{+} \infty} {ip(i)}i=2+ip(i)
    A partir de là j'ai étendu la conjecture (j'ai vérifier su PC jusqu'à environ p(10)) en supposant que pour tout i≥2; p(i)=1i(i−2)!\frac{1}{i(i-2)!}i(i2)!1 de manière à ce que l'espérance colle avec la définition d'exponentielle en suite infinie (e=∑i=0+∞1i!e=\sum_{i=0}^{{+} \infty} {\frac{1}{i!}}e=i=0+i!1)

    Étant donné la forme que la conjecture prend alors j'ai pensé qu'une démonstration par récurrence pouvais marcher.
    J'ai réussi à faire l'initialisation, c'est à dire à montrer que p(2)=1/2.
    Par contre l'hérédité est problématique. Je ne vois pas de moyen de passer de p(i) à p(i+1).

    Pour l'initialisation. Je construits mon p(2) par approximation que je fais tendre vers infiniment précis (donc exacte).
    Je coupe l'intervalle [0;1] en m parties égales que je numérote de 1 à m. J'obtiens donc les intervalles [0; 1/m], ]1/m; 2/m],...,](m-1)/m; 1].

    1. Si le premier lancé tombe dans le premier intervalle : [0; 1/m] (ce qui a une probabilité 1/m de se produire) dans ce cas, pour ne pas devoir faire de troisième lancé, il faudra nécessairement que le second lancé tombe dans le dernier intervalle : ](m-1)/m; 1].
      C'est nécessaire mais pas suffisant. Mais plus les intervalles sont petits (donc plus m est grand) plus la marge d'erreur diminue jusqu'à s'annuler complètement vers +∞.
      L'évènement "le 1er lancé tombe dans le 1er intervalle et le 2d lancé tombe dans le dernier intervalle" a une probabilité de 1/m².
    2. Si le premier lancé tombe dans le deuxième intervalle, il faudra que le second lancé tombe dans l'un des deux derniers intervalles. L'évènement à donc une probabilité de 2/(m²)
      ...
      m) Si le m-ième lancé tombe dans le dernier intervalle, peu importe où tombera le second lancé. L'évènement est de probabilité 1/m

    D'après le théorème des probabilités totales on obtient donc :
    p(2),=,lim⁡<em>m→+∞∑</em>p=1mpm2p(2), =, \lim <em>{m \rightarrow {+} \infty}\sum</em>{p=1}^{m} {\frac{p}{m^2}}p(2),=,lim<em>m+</em>p=1mm2p
    Ce qui donne bien p(2)=1/2

    J'ai bien essayé d'étendre ce raisonnement à un p(i) quelconque, ce qui fait sauter la récurrence, mais je n'y suis pas parvenu pas même jusqu'à p(3). Je m'embrouille systématiquement.


  • J

    Salut.

    Oui zut, pardon. Le random suit effectivement une loi uniforme, tu peux le voir immédiatement en regardant l'espérance et l'écart type (oui d'ailleurs on a tendance à donner la variance, faut donc mettre au carré le σ) que j'ai donnés. Mais je faisais plutôt allusion à la loi que suit notre problème.

    On travaille en probabilités continues, donc [0;1] et ]0;1[ reviennent au même vu que l'on calcule des intégrales : une probabilité ponctuelle n'a aucun poids face au reste. Donc oui p(1) = 0 pour le calcul discret.

    Dans le cas général on suppose une loi normale (loi d'entropie maximale, donc du hasard maximum) quand on n'a pas plus d'information que ça. Ensuite faut voir ce que l'on peut obtenir en faisant le calcul, on a plein d'infos. On doit pouvoir arriver à comprendre ce qu'il se passe par là.

    Sinon par somme c'est clair que saisir pourquoi on a une probabilité de 1/3 serait pas mal, ça nous permettrait de lier n et n+1.

    @+

    PS : au fait il suffisait de prendre N pour le nombre de lancers. 😉


  • S

    J'ai bien peur d'être incapable de faire ces calculs alors car je n'ai jamais vu dans un cour de maths les lois de probabilités normales et wikipédia n'est pas un assez bon prof pour que je puisse m'en sortir seul (enfin j'essaie tout de même, on sait jamais).

    A moins que quelqu'un n'ai une astucieuse idée qui permettrait de le démontrer simplement ou que j'arrive à formaliser un peu mieux les différents p(i) j'ai bien peur de ne devoir attendre quelques années avant de démontrer cette conjecture.


Se connecter pour répondre