, Si nous exécutons cette ANOVA, nous obtenons une statistique F de F(1,16) = 1,71, et une valeur p = 0,21. Comme nous n'avons que deux groupes, je n'ai pas besoin de recourir à une ANOVA, j'aurais pu simplement décider de faire un t de Student. Voyons ce qui se passe quand je fais ça : J'obtiens une statistique t de t(16) = -1,3068 et une valeur p = 0.21. Curieusement, les valeurs p sont identiques, qu'au lieu d'exécuter une analyse de variance sur notre modèle mood.gain ~ drug, nous utilisons plutôt la therapy comme prédicteur, p.7077

, Il y a une façon de le faire, connue sous le nom de ANOVA pour mesures répétées, qui apparaîtra plus tard. Je n'ai pas non plus discuté de la façon d'exécuter une analyse de variance lorsque vous vous intéressez à plus d'une variable de regroupement, mais cela sera discuté en détail au chapitre 14. Pour ce que nous avons présenté, les sujets clés étaient : ? La logique de base du

, ANOVA pour mesures appariées (section 13.8) et l'équivalent non paramétrique, le test de Friedman (section 13, vol.9

R. , L. , C. Le-nombre-de, and . Colonnes, nous pouvons nous référer à cela comme une ANOVA factorielle RxC. Dans ce cas, R = 3 et C = 2. Nous utiliserons des lettres minuscules pour faire référence à des lignes et colonnes spécifiques, de sorte que µrc se réfère à la moyenne de population associée au r-ième niveau du facteur A (c'est-à-dire le numéro de ligne r) et au c-ième niveau du facteur B (numéro de colonne c). 130 Ainsi, les moyennes de la population sont maintenant écrites comme ceci : Bien, qu'en est-il des cases restantes ? Par exemple, comment décrire le gain d'humeur moyen dans l'ensemble de la population (hypothétique) qui pourraient recevoir du Joyzepam dans le cadre d'une expérience comme celle-ci, qu'elles aient été ou non en thérapie ? Nous utilisons la notation « point » pour l'exprimer. Dans le cas de Joyzepam, notez qu'il s'agit de la moyenne associée à la troisième ligne du tableau. C'est-à-dire que nous calculons la moyenne sur deux moyennes cellules (c.-à-d. µ31 et µ32). Le résultat de ce calcul de la moyenne est appelé moyenne marginale et, dans ce cas, il s'agit de µ3.. La moyenne marginale de la TCC correspond à la moyenne de la population associée à la deuxième colonne du tableau ; nous Cette comparaison forme notre test d'hypothèse sur l'effet principal de millk. Dans un sens, cette approche est très élégante : l'hypothèse alternative du premier test forme l'hypothèse nulle pour le second. C'est dans ce sens que la méthode de type I est strictement séquentielle. Chaque test s'appuie directement sur les résultats du dernier. Cependant, dans un autre sens, c'est très peu élégant, Ce n'est pas un bon livre pour les débutants, mais c'est un excellent livre pour les lecteurs plus avancés qui sont intéressés à comprendre les fondements mathématiques de l'ANOVA. tous ces chiffres, ainsi que les moyennes marginales et générales, dans un tableau unique qui ressemble à celui-ci : Chacune de ces moyennes correspond bien sûr à un échantillon de statistiques. C'est une quantité qui se rapporte aux observations précises que nous avons faites dans notre étude, 2000.

«. Jamovi and . Model, Figure 14-27 : Tableau des résultats ANOVA utilisant la somme des carrés de type I dans Jamovi Le gros problème avec l'utilisation de la somme des carrés de type I est le fait que cela dépend vraiment de l'ordre dans lequel vous entrez les variables. Pourtant, dans de nombreuses situations, le chercheur n'a aucune raison de préférer un ordre à un autre. C'est probablement le cas pour notre problème du lait et du sucre. Doit-on ajouter du lait d'abord ou du sucre d'abord ? C'est exactement aussi arbitraire qu'une question d'analyse de données sur la préparation du café. En fait, il y a peut-être des gens qui ont des opinions fermes sur l'ordre, mais il est difficile d'imaginer une réponse fondée sur des principes à cette question, Cela nous donne le tableau ANOVA illustré à la figure 14, vol.27

, Figure 14-28 : Tableau des résultats de l'analyse de variance utilisant la somme des carrés de type I dans le Jamovi, mais avec les facteurs saisis dans un ordre différent

. L'idée-de-base-se, Par exemple, supposons que nous essayions d'exécuter une analyse de variance avec trois facteurs, A, B et C, et que nous voulions considérer tous les effets principaux possibles et toutes les interactions possibles, y compris l'interaction triple A*B*C. Le tableau ci-dessous vous montre à quoi ressemblent les tests du type III dans cette situation : Aussi moche que ce tableau ait l'air, il est assez simple

. Au, Et parce que nous traitons maintenant tous les termes de la même façon, les résultats des tests d'hypothèse ne dépendent pas de l'ordre dans lequel nous les spécifions. C'est définitivement une bonne chose. Cependant, l'interprétation des résultats des tests pose un gros problème, surtout en ce qui concerne les effets principaux. Pensez aux données sur le café. Supposons qu'il s'avère que l'effet principal de milk ne soit pas significatif selon les tests du type III. Ce que cela nous dit, c'est que babble ~ sugar + sugar*milk est un meilleur modèle pour les données que le modèle complet. Mais qu'est-ce que ça veut dire ? Si le terme d'interaction sugar*milk était également non significatif, nous serions tentés de conclure que les données nous disent que la seule chose qui compte est le sucre. Mais supposons que nous ayons un terme d'interaction significatif, mais un effet principal non significatif du lait. Dans ce cas, faut-il supposer qu'il y a vraiment un « effet du sucre », une « interaction entre le lait et le sucre », mais pas un « effet du lait » ? Cela semble fou. La bonne réponse doit simplement être qu'il est inutile de parler de l'effet principal 140 si l'interaction est importante. En général, c'est ce que la plupart des statisticiens nous conseillent de faire, et je pense que c'est le bon conseil. Mais s'il est vraiment inutile de parler d'effets principaux non significatifs en présence d'une interaction significative, il n'est pas du tout évident de savoir pourquoi les essais de type III devraient permettre à l'hypothèse nulle de s'appuyer sur un modèle qui, les tests de type III semblent être une bonne idée. Premièrement, nous avons éliminé l'asymétrie qui nous causait des problèmes lors de l'exécution des tests de type I

. Qui-en-dépendent, . Ainsi, A. Par-exemple-;-a*b, and . *c-et-b*c-;-~-b-+-c-+-a*b-+-a*c-+-b*c-+-a*b*c-modèle-;-~-a-+-b-+-c-+-c-+-a*b-+-a*c-+-b*c-+-a*b*c, Les essais de type III violent systématiquement le principe de marginalité. Par exemple, examinons le test de l'effet principal de A dans le contexte d'une analyse de variance à trois facteurs qui comprend tous les termes d'interaction possibles. Selon les essais de type III, nos modèles nuls et alternatifs le sont : Modèle d'hypothèse nulle :outcome, alors il devrait contenir les effets principaux A et B (termes de 1er ordre

, Ce que nous devrions plutôt faire, si nous voulons vérifier l'hypothèse nulle selon laquelle A n'est pas pertinent pour notre variable résultat, est de spécifier l'hypothèse nulle qui est le modèle le plus compliqué qui ne repose d'aucune façon sur A, même dans une interaction. L'hypothèse alternative correspond à ce modèle d'hypothèse nulle plus un terme d'effet principal de A. C'est beaucoup plus proche de ce que la plupart des gens penseraient intuitivement d'un « effet principal de A», D'après les tests du type II, ce n'est pas un bon choix d'hypothèse nulle

~. B-+-c-+-b*c-modèle-;-~-a-+-b-+-c-+-c-+-b*c-quoi and . Qu, il en soit, pour vous donner une idée du déroulement des essais de type II, voici le tableau complet de modèles qui serait appliqué dans une ANOVA factorielle à trois facteurs : Dans le contexte de l'analyse de variance à deux facteurs que nous avons utilisée dans les données sur le café, les tests d'hypothèse sont encore plus simples

B. Notez and . Sûr, Si le modèle ANOVA original ne contient pas de terme d'interaction pour B*C, il est évident qu'il n'apparaîtra ni dans la valeur nulle ni dans l'alternative. Mais c'est vrai pour les types I, II et III. Ils n'incluent jamais de termes que vous n'avez pas inclus, mais ils font des choix différents sur la

, Au chapitre 4, j'ai parlé de deux types de corrélation : Pearson et Spearman. Ces deux méthodes d'évaluation de la corrélation s'appliquent au cas où vous avez deux variables continues et voulez évaluer la relation entre elles. Qu'en est-il du cas où vos variables sont toutes les deux sur une échelle nominale ? Ou lorsque l'une est nominale et l'autre est continue ? Il existe en fait des méthodes de calcul des corrélations dans de tels cas

, En général, je pense que le traitement de la taille de l'effet tout au long du livre est un peu plus superficiel qu'il ne devrait l'être. Dans presque tous les cas, j'ai eu tendance à ne choisir qu'une seule mesure de la taille de l'effet (habituellement la plus populaire) et à décrire cela. Cependant, pour presque tous les tests et modèles, il existe de multiples façons de penser la taille de l'effet, ? Plus de détails sur les tailles d'effet

, A plusieurs endroits dans le livre, j'ai parlé de ce que vous pouvez faire lorsque vous constatez que les hypothèses de votre test (ou modèle) sont violées, mais je pense que je devrais en dire plus à ce sujet. En particulier, je pense qu'il aurait été sympa de parler beaucoup plus en détail de la façon dont vous pouvez transformer des variables pour résoudre des problèmes, ? Faire face à des suppositions violées

, Au chapitre 14, j'ai parlé du fait que l'on peut avoir des termes d'interaction dans une analyse de variance, et j'ai également souligné que l'analyse de variance peut être interprétée comme une sorte de modèle de régression linéaire. Pourtant, lorsque j'ai parlé de régression au chapitre 12, je n'ai pas du tout parlé des interactions. Cependant, rien ne vous empêche d'inclure des termes d'interaction dans un modèle de régression. C'est juste un peu plus compliqué de comprendre ce qu'une « interaction » signifie réellement quand on parle de l'interaction entre deux prédicteurs continus, ? Termes d'interaction pour la régression

. ?-méthode-de-comparaison-planifiée, Comme je l'ai mentionné au chapitre 14, il n'est pas toujours approprié d'utiliser une correction post hoc comme le HSD de Tukey lors d'une analyse de variance, surtout lorsque vous aviez une série de comparaisons très claire (et limitée) à laquelle vous teniez avant le début

. ?-méthodes-de-comparaison-multiples, Même dans le contexte des tests post hoc et des comparaisons multiples, j'aurais aimé parler plus en détail des méthodes et parler des autres méthodes qui existent à part les quelques options que j'ai mentionnées

, Il y a tellement de situations d'analyse de données que ces outils ne couvrent pas, et ce serait formidable de vous donner une idée de ce qu'il en reste, par exemple : ? Régression non linéaire. Lorsque nous avons discuté de la régression au chapitre 12, nous avons vu que la régression suppose que la relation entre les prédicteurs et les résultats est linéaire. D'autre part, lorsque nous avons parlé du problème plus simple de la corrélation au chapitre 4, nous avons vu qu'il existe des outils (p. ex., les corrélations de Spearman) qui permettent d'évaluer les relations non linéaires entre les variables. Il existe un certain nombre d'outils statistiques qui peuvent être utilisés pour effectuer une régression non linéaire. Par exemple, certains modèles de régression non linéaire supposent que la relation entre les prédicteurs et les résultats est monotone (p. ex., régression isotonique), tandis que d'autres supposent qu'elle est lisse mais pas nécessairement monotone, La statistique est un domaine énorme. Les outils de base que j'ai décrits dans ce livre (tests du chi carré, tests t, régression et ANOVA) sont des outils de base qui sont largement utilisés dans l'analyse quotidienne des données, et ils forment le noyau de la plupart des livres de statistiques d'introduction. Cependant, il existe bien d'autres outils

. ?-régression-logistique, Une autre variation de la régression se produit lorsque la variable de résultat est binaire, mais que les prédicteurs sont continus. Supposons, par exemple, que vous enquêtiez sur les médias sociaux et que vous vouliez savoir s'il est possible de prédire si quelqu'un est sur Twitter en fonction de son revenu, de son âge et d'une série d'autres variables. Il s'agit essentiellement d'un modèle de régression, mais vous ne pouvez pas utiliser la régression linéaire standard parce que la variable résultat est binaire (vous êtes sur Twitter ou vous ne l'êtes pas)

?. Le, Le GLM est en fait une famille de modèles qui inclut la régression logistique, la régression linéaire, (certaines) régressions non linéaires, ANOVA et beaucoup d'autres. L'idée de base du GLM est essentiellement la même que celle qui sous-tend les modèles linéaires, mais elle tient compte de l'idée que vos données pourraient ne pas être normalement distribuées et permet des relations non linéaires entre les prédicteurs et les résultats

, Disons que vous suivez le bonheur dans le temps, pour deux personnes. Le bonheur d'Aaron commence à 10 ans, puis descend à 8 ans, puis à 6 ans. Le bonheur de Belinda commence à 6 ans, puis monte à 8 et ensuite à 10 ans. Ces deux personnes ont le même niveau « global » de bonheur (la moyenne sur les trois points dans le temps est de 8), une analyse ANOVA pour mesures répétées traiterait Aaron et Belinda de la même manière. Mais c'est clairement faux. Le bonheur d'Aaron diminue, tandis que celui de Belinda augmente, la tendance des gens à quitter l'étude de façon non aléatoire. À l'époque, j'en parlais comme d'un problème méthodologique potentiel, mais il y a beaucoup de situations où l'attrition différentielle est en fait ce qui vous intéresse

. ?-mise-À-l'échelle-multidimensionnelle, L'analyse factorielle est un exemple de modèle « d'apprentissage non supervisé ». Cela signifie que, contrairement à la plupart des outils « d'apprentissage supervisé » que j'ai mentionnés

. Données, Il est clair que c'est important. Mais le faire raisonnablement est plus compliqué qu'il n'y paraît. Tout à l'heure, je vous ai suggéré de me traiter comme Carol, puisque nous avons donné la même réponse à la question de l'exercice. Mais ce n'est pas tout à fait juste. Il y a une différence systématique entre nous. Elle a répondu à la question, et je ne l'ai pas fait. Étant donné les pressions sociales auxquelles font face les personnes en surpoids, n'est-il pas probable que je sois plus obèse que Carol ? Et bien sûr, c'est toujours ignorer le fait qu'il n'est pas raisonnable de m'imputer un poids unique, comme si vous connaissiez réellement mon poids. Au lieu de cela, vous devez imputer une série de suppositions plausibles (appelées imputation multiple), afin de saisir le fait que vous êtes plus incertain au sujet de mon poids que vous ne l'êtes de celui de Carol, Supposons que vous faites un sondage et que vous vous intéressez à l'exercice et au poids. Vous envoyez des données à quatre personnes. Adam dit qu'il fait beaucoup d'exercice et qu'il n'est pas en surpoids. Briony dit qu'elle fait beaucoup d'exercice et qu'elle n'est pas en surpoids. Carol dit qu

. ?-analyse-de-puissance, Au chapitre 9, j'ai discuté du concept de puissance (c.-à-d., dans quelle mesure êtes-vous pouvez de détecter un effet s'il existe réellement) et j'ai fait référence à l'analyse de la puissance, un ensemble d'outils qui sont utiles pour évaluer la puissance dont dispose votre étude, p.18

G. Adair, The Hawthorne effect: A reconsideration of the methodological artifact, Journal of Applied Psychology, vol.69, pp.334-345, 1984.

A. Agresti, An Introduction to Categorical Data Analysis, 1996.

H. Akaike, A new look at the statistical model identification, IEEE Transactions on Automatic Control, vol.19, pp.716-723, 1974.

F. J. Anscombe, Graphs in statistical analysis, American Statistician, vol.27, pp.17-21, 1973.

P. J. Bickel, E. A. Hammel, and J. W. O'connell, Sex bias in graduate admissions: Data from Berkeley, Science, vol.187, pp.398-404, 1975.

G. E. Box, Non-normality and tests on variances, Biometrika, vol.40, pp.318-335, 1953.

G. E. Box, Science and Statistics". In: Journal of the American Statistical Association, vol.71, pp.791-799, 1976.

J. F. Box, . Guinness, F. Gosset, and S. Samples, Statistical Science, vol.2, pp.45-52, 1987.

M. B. Brown and A. B. Forsythe, Robust tests for equality of variances, Journal of the American Statistical Association, vol.69, pp.364-367, 1974.

D. T. Campbell and J. C. Stanley, Experimental and Quasi-Experimental Designs for Research, 1963.

L. J. Chronbach, Coefficient alpha and the internal structure of tests, Psychometrika, vol.16, issue.3, pp.297-334, 1951.

W. G. Cochran, The ? 2 test of goodness of fit, The Annals of Mathematical Statistics, vol.23, pp.315-345, 1954.

J. Cohen, Statistical Power Analysis for the Behavioral Sciences, 1988.

H. Cramer, Mathematical Methods of Statistics, 1946.

O. J. Dunn, Multiple comparisons among means, Journal of the American Statistical Association, vol.56, pp.52-64, 1961.

P. D. Ellis, The Essential Guide to Effect Sizes: Statistical Power, Meta-Analysis, and the Interpretation of Research Results, 2010.

M. Ellman, Soviet repression statistics: some comments, Europe-Asia Studies, vol.54, pp.1151-1172, 2002.

J. Evans, J. B. St, P. Barston, and . Pollard, On the conflict between logic and belief in syllogistic reasoning, Memory and Cognition, vol.11, pp.295-306, 1983.

M. Evans, N. Hastings, and B. Peacock, Statistical Distributions, 2011.

B. S. Everitt, Making Sense of Statistics in Psychology. A Second-Level Course, 1996.

L. R. Fabrigar, Evaluating the use of exploratory factor analysis in psychological research, Psychological Methods, vol.4, pp.272-299, 1999.

R. A. Fisher, On the interpretation of ? 2 from contingency tables, and the calculation of p, Journal of the Royal Statistical Society, vol.84, pp.87-94, 1922.

, On the mathematical foundation of theoretical statistics, Philosophical Transactions of the Royal Society A, vol.222, pp.309-368, 1922.

, Statistical Methods for Research Workers, 1925.

J. Fox and S. Weisberg, An R Companion to Applied Regression. 2nd, 2011.

A. Gelman and H. Stern, The difference between "significant" and "not significant" is not itself statistically significant, The American Statistician, vol.60, pp.328-331, 2006.

A. Gelman and E. Loken, The statistical crisis in science, American Scientist, vol.102, 2014.

N. Geschwind, Language and the brain, Scientific American, vol.226, issue.4, pp.76-83, 1972.

W. L. Hays, Statistics. 5th. Fort Worth, 1994.

L. V. Hedges, Distribution theory for Glass's estimator of effect size and related estimators, Journal of Educational Statistics, vol.6, pp.107-128, 1981.

L. V. Hedges and I. Olkin, Statistical Methods for Meta-Analysis, 1985.

A. K. Hewitt, D. R. Foxcroft, and J. Macdonald, Multitrait-multimethod confirmatory factor analysis of the Attributional Style Questionnaire, Personality and Individual Differences, vol.37, issue.7, pp.1483-1491, 2004.

R. V. Hogg, J. V. Mckean, and A. T. Craig, Introduction to Mathematical Statistics. 6th, 2005.

S. Holm, A simple sequentially rejective multiple test procedure, Scandinavian Journal of Statistics, vol.6, pp.65-70, 1979.

D. Hothersall, History of Psychology, 2004.

J. C. Hsu, Multiple Comparisons: Theory and Methods, 1996.

J. P. Ioannidis, Why Most Published Research Findings Are False, PLoS Med, vol.2, issue.8, pp.697-701, 2005.

H. Jeffreys, The Theory of Probability, 1961.

V. E. Johnson, Revised standards for statistical evidence, Proceedings of the National Academy of Sciences, vol.48, pp.19313-19317, 2013.

D. Kahneman and A. Tversky, On the psychology of prediction, Psychological Review, vol.80, pp.237-251, 1973.

R. E. Kass and A. E. Raftery, Bayes factors, Journal of the American Statistical Association, vol.90, pp.773-795, 1995.

J. Keynes and . Maynard, A Tract on Monetary Reform, 1923.

J. K. Kruschke, Doing Bayesian Data Analysis: A Tutorial with R and BUGS, 2011.

W. H. Kruskal and W. A. Wallis, Use of ranks in one-criterion variance analysis, Journal of the American Statistical Association, vol.47, pp.583-621, 1952.

A. Ku¨hberger, T. Fritz, and . Scherndl, Publication bias in psychology: A diagnosis based on the correlation between effect size and sample size, Public Library of Science One 9, pp.1-8, 2014.

K. Larntz, Small-sample comparisons of exact levels for chi-squared goodness-of-fit statistics, Journal of the American Statistical Association, vol.73, pp.253-263, 1978.

M. D. Lee and E. Wagenmakers, Bayesian cognitive modeling: A practical course, 2014.

E. L. Lehmann, Fisher, Neyman, and the Creation of Classical Statistics, 2011.

H. Levene, Robust tests for equality of variances, Contributions to Probability and Statistics: Essays in Honor of Harold Hotelling, pp.278-292, 1960.

R. E. Mcgrath and G. J. Meyer, When effect sizes disagree: The case of r and d, Psychological Methods, vol.11, pp.386-401, 2006.

Q. Mcnemar, Note on the sampling error of the difference between correlated proportions or percentages, Psychometrika, vol.12, pp.153-157, 1947.

P. H. Meehl, Theory testing in psychology and physics: A methodological paradox, Philosophy of Science, vol.34, pp.103-115, 1967.

K. Pearson, On the criterion that a given system of deviations from the probable in the case of a correlated system of variables is such that it can be reasonably supposed to have arisen from random sampling, Philosophical Magazine, vol.50, pp.157-175, 1900.

C. Peterson and M. Seligman, Causal Explanations as a Risk Factor for Depression: Theory and Evidence, Psychological Review 91, pp.347-74, 1984.

O. Pfungst, Clever Hans (The horse of Mr. von Osten): A contribution to experimental animal and human psychology, Trans. by C. L. Rahn, 1911.

R. Rosenthal, Experimenter effects in behavioral research, 1966.

H. Sahai and M. I. , The Analysis of Variance: Fixed, Random and Mixed Models, 2000.

J. P. Shaffer, Multiple hypothesis testing, Annual Review of Psychology, vol.46, pp.561-584, 1995.

S. S. Shapiro and M. B. Wilk, An analysis of variance test for normality (complete samples), Biometrika, vol.52, pp.591-611, 1965.

R. R. Sokal and F. J. Rohlf, Biometry: the principles and practice of statistics in biological research, vol.3, 1994.

S. S. Stevens, On the theory of scales of measurement, Science 103, pp.677-680, 1946.

S. M. Stigler, The probable error of a mean, Biometrika, vol.6, pp.1-2, 1908.

B. L. Welch, The generalization of "Student's" problem when several different population variances are involved, Biometrika, vol.34, pp.28-35, 1947.

, On the comparison of several mean values: An alternative approach, Biometrika, vol.38, pp.330-336, 1951.

L. Wilkinson, The grammar of graphics, 2006.

F. Yates, Contingency tables involving small numbers and the ? 2 test, Supplement to the Journal of the Royal Statistical Society, vol.1, pp.217-235, 1934.