exercice cour: limites



  • on considère une fonction définie sur R telle que pour tout x réel, -2 <= f(x) <= 4.
    1°) déterminer la limite de f(x) div/ x, lorsque x tend vers +inf/ .
    2°) on sait de pus que pour tout x réel, f'(x) <= 1, et f(0)=1 et f(2)=1.5.
    Démontrer que l'équation f(x)=x admet une solution sur [1 ; 1.5 ].

    (on pourra considérer la fonction g définie par g(x)=f(x)-x)



  • Bonjour,
    Pas de mot magique pas de réponse.
    Merci, je vais aller me coucher de bonne heure !



  • f(x)/x est encadrée par -2/x et 4/x or ces deux fonctions tendent vers 0 quand x tends vers l'infini. Donc f(x)/x tends vers 0 (théorème des gendarmes).

    Dire que f(x)=x admet une solution => f(x)-x=0 a une solution
    on dérive f(x)-x et on trouve f'(x)-1. Or f'(x)<1 donc f'(x)-1 <0
    Ce qui revient à dire que f(x)-x est décroissante. Or f(0)=1 donc f(0)-0=1
    et f(2)=1.5 donc f(2)-2=-0.5. D'apres le théorème des valeurs intermédiaires, comme f(x)-x est décroissante, que f(0)-0 >0 et f(2)-2 <0 il existe une unique solution A tel que f(A)-A=0


 

Encore plus de réponses par ici

Il semble que votre connexion ait été perdue, veuillez patienter pendant que nous vous re-connectons.