Bibm@th

Forum de mathématiques - Bibm@th.net

Bienvenue dans les forums du site BibM@th, des forums où on dit Bonjour (Bonsoir), Merci, S'il vous plaît...

Vous n'êtes pas identifié(e).

#1 Re : Entraide (supérieur) » Interprétation des tests d'indépendance [Résolu] » 30-10-2009 14:10:07

Je ne suis pas certain de comprendre la dernière question, mais concernant la première question : j'essaie "simplement", sur un échantillon d'individus ayant répondu à un questionnaire, de vérifier certaines hypothèses (sociologiques) en observant les relations statistiquement significatives entre plusieurs variables. Je ne sais pas trop quoi répondre d'autre et me sens un peu bête d'écrire cela.

#2 Entraide (supérieur) » Interprétation des tests d'indépendance [Résolu] » 30-10-2009 13:05:27

Lunatic
Réponses : 2

Bonjour à tous,

Ma question porte plus sur l'interprétation des tests d'indépendance dans le cas de variables qualitatives, qui sur l'utilisation des tests proprement dite. C'est pourquoi la consultation des documents de ce site n'a pas pu répondre à la dite question (je le précise avant que l'on me renvoie dessus ;-).

J'ai le tableau de contingence suivant :

                             Malade     Pas malade
Contraignant                  37                20
Pas contraignant              29                36

Il s'agit d'un tri croisé sur un échantillon d'individus sous traitement médical et qui devaient répondre aux questions "Trouvez-vous votre traitement contraignant ou pas" et "Estimez-vous que vous êtes malade" (c'est pas tout à fait ça, mais je fais vite).

Un test du chi2 me permet de rejeter H0 :
(sous R)

> chisq.test(tab3)

Pearson's Chi-squared test with Yates' continuity correction

data:  tab3
X-squared = 4.254, df = 1, p-value = 0.03916

Ok, bonne nouvelle. Mais je veux rentrer dans les détails et observer les résidus :

> chisq.test(tab3)$residuals
                 
                    D'accord Pas d'accord
  Contraignant      1.110014    -1.205054
  Peu contraignant -1.039464     1.128463

Normalement, les cases pour lesquelles l'écart à l'indépendance est significatif ont un résidu inférieur ou supérieur à 2. Sauf que là, aucune case n'est dans ce cas.

Alors comment suis-je censé interpréter cela ? J'ai bien un test qui m'indique une dépendance statistiquement significative, mais en même temps, les résidus ne permettent pas d'isoler des cases dont l'écart serait satistiquement significatif…

J'ai une seconde question que je place dans ce même topic puisqu'elle concerne également l'interprétation d'un tel tableau de contingence. Si je lui applique le test exact de Fisher, je peux là encore rejeter l'hypothèse nulle :

> fisher.test(tab3)

    Fisher's Exact Test for Count Data

data:  tab3
p-value = 0.02966
alternative hypothesis: true odds ratio is not equal to 1
95 percent confidence interval:
 1.040010 5.104121
sample estimates:
odds ratio
  2.280563

Mais comment, avec un tel test, déterminer les cases dont les effectifs s'écartent significativement de la situation d'indépendance ?

Merci d'avance pour vos réponses :)

edit : coquille

#3 Re : Entraide (supérieur) » Erreur standard de la moyenne et intervalles de confiance [Résolu] » 11-09-2009 15:10:43

D'un point de vue purement intuitif, il y a quelque chose que je ne parviens pas à saisir avec cette formule, c'est qu'elle ne prend pas en compte la taille de la population mère, mais seulement la taille de l'échantillon.

Si, par exemple, je cherche à calculer le nombre moyen de pages dans les livres d'une bibliothèque, j'aurais a priori pensé que prendre au hasard 100 livres d'une bibliothèque en contenant 1000, et 100 livres d'une autre bibliothèque en contenant 100 000 n'était pas vraiment la même chose (j'aurais pensé que l'intervalle de confiance serait plus "précis" dans le premier cas, puisqu'on "extrait" 10% des livres, que dans le second où on en "extrait" 0,1% seulement). Pourtant les deux intervalles seront les mêmes, sauf grossière erreur de ma part…

#4 Re : Entraide (supérieur) » Erreur standard de la moyenne et intervalles de confiance [Résolu] » 11-09-2009 09:30:03

Merci beaucoup Freddy pour tes réponses.

Concernant "l'avertissement d'utilisation", c'est justement l'avantage du bouquin que d'initier à de tels tests sans pour autant nécessiter de faire des maths à outrance (quoique le terme « outrance » est fort relatif et ne signifie sans doute pas la même chose pour tout le monde ;) ) Il insiste donc bien sur les conditions de réalisation de tels tests.

Le lien est également très intéressant :)

Bonne journée.

#5 Entraide (supérieur) » Erreur standard de la moyenne et intervalles de confiance [Résolu] » 10-09-2009 11:00:32

Lunatic
Réponses : 6

Bonjour à tous,

Je suis en train de "m'auto-former" aux statistiques, en vue de réaliser différents tests sur des questionnaires dont je vais analyser les résultats (par là, il faut entendre "j'y connais rien !" ;-). Pour ce faire, j'utilise le livre "Stastiques sans maths pour psychologues" que l'on m'a conseillé. À la section traitant de l'erreur standard de la moyenne, il est précisé que l'on doit multiplier cette valeur par le score z 1,96 pour établir l'intervalle de confiance au niveau de confiance de 95%.

Jusqu'ici, tout va bien, j'arrive à comprendre le principe.

Là où ça commence à s'embrouiller, c'est lorsque je cherche à réaliser cette opération sous le logiciel R. Ce ne sont pas les calculs en tant que tels qui m'embêtent, mais les exemples que je trouve dans tous les documents sur lesquels je tombe : ces derniers ne prennent pas systématiquement la valeur 1,96 pour un intervalle de confiance de 95%, mais font entrer en jeu la taille de l'échantillon (en employant la formule qt(0.975,n) où n est la taille de l'échantillon).

Bien évidemment, cela change pas mal les résultats quand n est petit : l'intervalle de confiance proposé par un tel calcule est plus large que celui que proposé par le bouquin.

Ma question est en gros "qui a raison" ? Comment comprendre ces différentes approches ?

Merci d'avance pour votre aide.

Pied de page des forums