Forum de mathématiques - Bibm@th.net
Vous n'êtes pas identifié(e).
- Contributions : Récentes | Sans réponse
Répondre
Résumé de la discussion (messages les plus récents en premier)
- matpulvinci
- 21-12-2023 00:38:49
Merci pour vos réponses.
Et excellente vidéo, elle explique très bien la différence. (Peut-être qu’elle gagnerait à être référencé dans l’article?)
- Fred
- 20-12-2023 18:09:07
Bonjour,
En complément, une vidéo expliquant la différence entre convergence simple et convergence uniforme.
F.
- bridgslam
- 20-12-2023 18:05:54
De plus, la convergence simple semble également impliquer la convergence uniforme. Dire que, pour toute valeur de [tex]x[/tex], la suite [tex](f_n(x))[/tex] converge vers [tex]f(x)[/tex] revient à dire que, pour un [tex]\varepsilon > 0[/tex] choisi, pour tout [tex]x[/tex], la distance entre [tex]f_n(x)[/tex] et [tex]f(x)[/tex] est inférieure à [tex]\varepsilon[/tex] à partir d’un rang [tex]n_0[/tex]. En prenant le maximum de tous ces [tex]n_0[/tex] (pour chaque [tex]x[/tex]), on retrouve la définition de la convergence uniforme.
Ce raisonnement est probablement faux. Est-ce parce que le maximum des [tex]n_0[/tex] n’est pas forcément défini?
(1): Il me semble logique que [tex]\exists y \forall x ~ P(x, y) \implies \forall x \exists y ~ (P(x, y) [/tex]. Est-ce que cette propriété a un nom? Une démonstration?
la famille $(n0_{x} \;\; x \in I ) $ est une partie de $\mathbb{N}$ pas forcément majorée ( car pouvant très bien être infinie ), et il est impossible donc dans ce cas
d'en prendre le max.
Pour la propriété logique (1) indiquée , c'est juste, celle de gauche est plus forte que celle de droite. Je ne connais pas de nom.
A.
- matpulvinci
- 20-12-2023 16:43:43
Bonjour à tous,
Je lisais l’article consacrée au sujet (que je découvrais en même temps) de la convergence simple et de la convergence monotone.
À première vue, il me semblait qu’il n’y avait aucune différence entre les deux définitions.
En effet, la convergence uniforme implique la convergence simple:
[tex]\forall \varepsilon > 0 ~~ \exists n_0 \in \mathbb{N} ~~ \forall x \in I ~~~ n \geq n_0 \implies |f_n(x) - f(x)| < \varepsilon[/tex]
Ce qui implique (en déplaçant le quantificateur universel avant l’existentiel (1):
[tex]\forall x \in I ~~ \forall \varepsilon > 0 ~~ \exists n_0 \in \mathbb{N} ~~~ n \geq n_0 \implies |f_n(x) - f(x)| < \varepsilon[/tex]
Ce qui est la définition de la convergence simple.
De plus, la convergence simple semble également impliquer la convergence uniforme. Dire que, pour toute valeur de [tex]x[/tex], la suite [tex](f_n(x))[/tex] converge vers [tex]f(x)[/tex] revient à dire que, pour un [tex]\varepsilon > 0[/tex] choisi, pour tout [tex]x[/tex], la distance entre [tex]f_n(x)[/tex] et [tex]f(x)[/tex] est inférieure à [tex]\varepsilon[/tex] à partir d’un rang [tex]n_0[/tex]. En prenant le maximum de tous ces [tex]n_0[/tex] (pour chaque [tex]x[/tex]), on retrouve la définition de la convergence uniforme.
Ce raisonnement est probablement faux. Est-ce parce que le maximum des [tex]n_0[/tex] n’est pas forcément défini?
Merci!
(1): Il me semble logique que [tex]\exists y \forall x ~ P(x, y) \implies \forall x \exists y ~ (P(x, y) [/tex]. Est-ce que cette propriété a un nom? Une démonstration?







