Dans le domaine de la recherche et de l’évaluation en psychologie, en santé et dans de nombreux autres domaines, l’emploi d’échelles et d’instruments de mesure est fondamental. Ces outils nous permettent de quantifier des concepts parfois abstraits tels que la qualité de vie, le bien-être psychologique, ou encore d’autres concepts. Cependant, pour qu’un instrument de mesure soit reconnu comme fiable et valide, il doit exhiber des propriétés psychométriques spécifiques, également désignées sous le terme de qualités psychométriques, qui sont essentielles.

Cet article se propose de détailler et d’expliciter ces propriétés psychométriques, en accordant une attention particulière à la validité et à la fiabilité, deux piliers fondamentaux de toute échelle de mesure psychologique. En examinant les différentes formes de validité – validité de contenu, validité de critère, validité divergente, validité de groupe connu, et l’analyse factorielle – nous explorerons comment chaque type soutient l’assurance qu’une échelle mesure effectivement ce qu’elle est censée mesurer. En outre, nous aborderons les diverses formes de fiabilité, telles que l’analyse test-retest, l’Alpha de Cronbach, et l’Omega de McDonald, pour montrer comment ces mesures de qualités psychométriques garantissent la cohérence et la stabilité des résultats obtenus avec une échelle donnée.

La compréhension de ces propriétés et qualités psychométriques permet aux chercheurs, praticiens, et étudiants d’évaluer plus précisément la qualité des instruments de mesure qu’ils emploient ou rencontrent dans leurs travaux. Cette expertise est cruciale pour interpréter de manière adéquate les résultats des études, pour le développement de nouveaux outils de mesure, et pour l’application clinique des échelles existantes, en soulignant l’importance vitale des propriétés psychométriques dans le processus.

validité

La validité évalue si un instrument mesure bien ce qu’il est sensé mesurer, par exemple la qualité vie dans la maladie d’Alzheimer en institution. 

La validité de surface est la forme la plus élémentaire de validité. Elle consiste à examiner les items d’une échelle et à évaluer dans quelle mesure ils semblent mesurer de manière adéquate le concept d’intérêt. Pour cela, un examen visuel des items suffit, sans qu’il soit nécessaire de mener des analyses statistiques. La validité de surface permet donc d’obtenir rapidement un premier aperçu de la pertinence apparente d’une échelle. Cependant, cette approche reste subjective et superficielle. Elle doit être complétée par d’autres formes de validité, en particulier la validité de contenu et la validité de construit, basées sur des données empiriques. La validité de surface est donc une étape préliminaire utile mais insuffisante pour établir pleinement la validité d’un instrument de mesure.

La validité de critère ou validité critériée, parfois appelée validité convergente sert à mesurer le degré de corrélation entre deux échelles évaluant le même concept, le même construit. Dans l’idéal, il est pertinent de confronter l’échelle que l’on souhaite valider à un autre instrument dit « gold standard » (échelle de référence) et qui possède d’excellente qualités psychométriques. En l’absence de gold standard, on peut utiliser une autre échelle mesurant le même concept. Par exemple, pour établir la validité de critère d’une nouvelle échelle de qualité de vie dans la maladie d’Alzheimer, on examinera sa corrélation avec une échelle de référence déjà validée dans ce domaine. Plus la corrélation entre les deux instruments est positivement forte, plus cela confirme que la nouvelle échelle mesure bien le concept de qualité de vie dans la maladie d’Alzheimer. La validité de critère permet donc d’évaluer la justesse d’une mesure par comparaison avec un standard externe fiable.

La validité divergente, contrairement à la validité critériée (ou convergente) permet de confronter l’échelle que l’on souhaite valider à un autre instrument dont on suppose qu’il ne mesure pas le même concept et dont on fait l’hypothèse qu’il entretient une corrélation négative avec celui-ci. Par exemple, pour établir la validité divergente d’une nouvelle échelle de qualité de vie dans la maladie d’Alzheimer, on examinera sa corrélation avec un instrument mesurant la dépression car on présuppose une corrélation négative entre les deux échelles. Plus la corrélation entre les deux instruments est fortement négative, plus cela confirme que la nouvelle échelle mesure bien le concept spécifique de qualité de vie dans la maladie d’Alzheimer.

Il s’agit d’un type de validité de construit dans lequel un test ou une mesure fait la différence entre les groupes qu’il est censé différencier. Essentiellement, si une mesure a une validité de groupe connu, elle peut faire la distinction entre des groupes dont on sait qu’ils diffèrent sur le concept particulier mesuré. Prenons l’exemple d’une échelle de qualité de vie dans la maladie d’Alzheimer. Si cette échelle a une validité de groupe connu, elle devrait pouvoir différencier des groupes dont les différences de qualité de vie sont connues, comme les personnes souffrant de la maladie d’Alzheimer par rapport aux personnes en bonne santé. En pratique, pour établir la validité de groupe connu, les chercheurs administreraient la mesure aux différents groupes et compareraient ensuite les résultats. Si la mesure est valide, il devrait y avoir des différences statistiquement significatives dans les scores entre les groupes dont on sait ou dont on s’attend à ce qu’ils diffèrent sur le concept en question.

On distingue deux types d’analyses factorielles : l’analyse factorielle exploratoire (Exploratory Factor Analysis or EFA) et l’analyse factorielle confirmatoire (Confirmatory Factor Analysis or CFA). L’analyse exploratoire doit être menée lorsqu’on ne connait pas encore la structure factorielle de l’outil alors que la démarche confirmatoire comme son nom l’indique devra confirmer l’analyse exploratoire lors d’une autre étude menée après d’un autre échantillon, ou bien si ce dernier est suffisamment large, il sera scindé en deux parties pour mener d’abord l’analyse exploratoire puis l’analyse confirmatoire. L’analyse factorielle fait partie de la validité de construit (construct validity) afin de déterminer la structure dimensionnelle d’un instrument de mesure. Elle permet de vérifier si l’échelle évalue un concept unidimensionnel, c’est-à-dire si tous les items saturent sur un facteur unique correspondant au phénomène mesuré (par exemple la qualité de vie dans la maladie d’Alzheimer). Alternativement, l’analyse factorielle peut révéler que l’instrument présente une structure multidimensionnelle, avec plusieurs dimensions ou facteurs, par exemple une échelle de qualité de vie dans la maladie d’Alzheimer reposant sur 5 facteurs qui seraient :  1) l’estime de soi 2) les affects positifs et l’humour 3) les affects négatifs 4) le sentiment d’appartenance et 5) le sens de l’esthétique.

Il existe différentes méthodes statistiques pour extraire les facteurs lors d’une analyse factorielle exploratoire. Les plus courantes sont l’analyse en composantes principales (ACP), et l’analyse factorielle classique basée sur la méthode du maximum de vraisemblance. L’ACP transforme les variables originales en nouvelles composantes linéaires non corrélées. Mais elle a pour but de réduire le nombre d’items par exemple pour la construction d’une échelle et elle est souvent utilisée à tort dans les validations transculturelles. L’analyse factorielle de son côté estime les facteurs comme des variables latentes (non observables et pas directement mesurables) en se basant sur un modèle statistique. D’autres techniques existent mais ce sont les principales et les plus utilisées.

L’analyse parallèle est une technique statistique employée pour identifier le nombre de facteurs à retenir dans le cadre d’une analyse factorielle exploratoire. Dans l’analyse parallèle, deux séries de valeurs propres (eigenvalues) sont générées :

–          Des valeurs propres réelles extraites de la matrice de corrélation ou de la matrice de covariance de l’ensemble des données

–          Des valeurs générées aléatoirement provenant de multiples ensembles de données créés au hasard, qui ont le même nombre de variables et d’observations que l’ensemble de données original.

Détermination des facteurs : Le nombre de facteurs à retenir est généralement déterminé en identifiant le point où les valeurs propres réelles dépassent les valeurs propres aléatoires. Les facteurs associés à des valeurs propres réelles supérieures aux valeurs propres aléatoires correspondantes sont retenus.

Avantage : L’analyse parallèle est considérée comme l’une des méthodes les plus précises et les plus recommandées pour déterminer la rétention des facteurs par rapport à d’autres méthodes telles que le critère de Kaiser (KMO) ou le coude de Catell (scree plot). En effet, elle prend en considération la distribution des valeurs propres pouvant résulter de données aléatoires, offrant ainsi un critère plus objectif pour la rétention des facteurs.

En substance, en comparant l’ensemble de données réel à des ensembles de données aléatoires, l’analyse parallèle fournit une détermination plus robuste du nombre de facteurs qui ne sont pas susceptibles d’être dus au hasard.

L’ESEM est une approche statistique hybride qui combine des aspects de l’analyse factorielle exploratoire (Exploratory Factor Analysis or EFA) et de l’analyse factorielle confirmatoire (Confirmatory Factor Analysis or CFA) dans le cadre de la modélisation par équations structurelles (Structural Equation Modeling or SEM). Elle permet d’explorer les structures factorielles tout en incorporant les avantages du cadre SEM, tels que la modélisation des erreurs de mesure et l’estimation simultanée des paramètres de mesure et des paramètres structurels.

L’ESEM est particulièrement utile lorsque les chercheurs ne sont pas sûrs de la structure factorielle exacte d’un ensemble d’éléments ou lorsqu’ils s’attendent à des cross loadings (c’est-à-dire des saturations croisées où les items saturent plusieurs facteurs). L’analyse factorielle confirmatoire traditionnelle exige que chaque élément ne soit lié qu’à un seul facteur et suppose que les saturations croisées sont nulles, ce qui n’est pas toujours réaliste. L’ESEM relâche cette contrainte et permet aux items de se charger sur plusieurs facteurs, offrant ainsi une représentation plus flexible et potentiellement plus précise de la structure factorielle sous-jacente.

En conséquence, L’ESEM peut donc être considéré comme un compromis entre la flexibilité de l’analyse factorielle exploratoire et la rigueur des modèles d’équations structurales (Marsh et al., 2014). Bien que son application relève principalement d’une démarche confirmatoire, l’ESEM a déjà été utilisé lorsque les structures factorielles n’étaient pas encore bien établies (Maïano et al., 2013; Morin & Maïano, 2011). Cette possibilité en fait un outil indispensable pour les chercheurs confrontés à des structures factorielles incertaines ou complexes, garantissant ainsi des analyses plus précises et adaptées.

Le concept d`invariance, dans le contexte de l’évaluation des propriétés d’une échelle de qualité de vie, fait référence à la manière dont l’échelle peut être comprise par différents groupes ou périodes. En cela, il s’agit de déterminer si l’outil mesure de la même manière pour les différents groupes ou périodes, par exemple pour des groupes d’âges, des groupes en fonction du niveau cognitif ou du niveau socioculturel.

L’établissement de l’invariance garantit que les variations observées entre groupes ou dans le temps reflètent de réelles différences dans la qualité de vie, et non des artefacts de l’échelle. Trois niveaux d’invariance sont généralement testés :

Invariance configurationnelle (Configural Invariance) : Cette étape vérifie si la structure factorielle de l’échelle est la même dans les différents groupes.

Invariance du chargement factoriel (Factor Loading Invariance) : Cela implique que les relations entre les items et les facteurs sont cohérentes entre les groupes.

Invariance de l’ordonnée à l’origine (Intercept Invariance) : Cette invariance vérifie si la moyenne d’un item, à une valeur fixe du facteur latent (variable non-observée), est la même pour tous les groupes.

Si ces niveaux d’invariance sont établis, on peut alors conclure avec plus de confiance que l’échelle mesure la qualité de vie de la même manière à travers les groupes ou les périodes comparés.

Après avoir examiné la validité d’un instrument, il est tout aussi crucial d’évaluer sa fiabilité. La fiabilité fait référence à la capacité de l’instrument à produire des résultats stables et cohérents sur différentes occasions ou utilisations.

fidélité

L’analyse en test-retest permet d’évaluer la stabilité temporelle d’un instrument de mesure. Elle consiste à administrer le même questionnaire à un échantillon de participants à deux moments différents. Il existe plusieurs manières de calculer la fiabilité test-retest. Les deux indices les plus couramment utilisés sont le coefficient de corrélation de Pearson et le coefficient de corrélation intra-classe (ICC en anglais). Plus la corrélation entre les deux passations est élevée, plus l’instrument est considéré comme fiable sur le plan temporel. Un coefficient de fiabilité test-retest satisfaisant se situe généralement au-dessus de .70. Cette analyse permet de s’assurer que l’échelle fournit des mesures stables dans le temps, à condition que le phénomène mesuré soit lui-même supposé stable.

L’alpha de Cronbach permet d’évaluer la cohérence interne d’une échelle (consistance interne), c’est-à-dire le degré d’homogénéité entre les différents items qui la composent. Concrètement, ce coefficient statistique mesure les corrélations entre les réponses aux différents items. Plus les items sont corrélés, plus leur combinaison est considérée comme fiable pour mesurer le concept étudié. Selon Kline (2016), un alpha de Cronbach est jugé acceptable à partir de 0,70 ; un coefficient autour de 0,80 est considéré comme très bon ; un alpha supérieur à .90 est généralement considéré comme excellent. Cependant, à partir .95, on peut soupçonner une certaine redondance entre certains items. En effet, des items trop corrélés mesurent vraisemblablement le même aspect du concept et certains d’entre eux pourraient être éliminés sans perte d’information. De plus, l’alpha de Cronbach est sensible au nombre des items, dans le sens où plus il y a d’items dans une échelle, plus l’alpha de Cronbach a tendance à être élevé, indépendamment de la qualité ou de la pertinence du nombre d’items ; ce qui peut biaiser son évaluation.

L’évaluation de la fiabilité d’une échelle est primordiale en psychométrie pour garantir la cohérence des résultats d’une mesure. Historiquement, l’alpha de Cronbach (α) a été la mesure de référence pour la fiabilité de la cohérence interne. Toutefois, il repose sur l’hypothèse que tous les éléments d’une échelle ont des charges égales sur un seul facteur latent, une hypothèse souvent violée dans la pratique. Pour pallier les limites de l’α, l’oméga de McDonald (ω) s’est imposé comme une alternative plus robuste (Hayes & Coutts, 2020; McDonald, 2013; Watkins, 2017).

ωT est similaire à α en ce sens qu’il fournit une estimation de la fiabilité globale d’un ensemble d’éléments. Cependant, il ne suppose pas des charges factorielles égales pour tous les items. Il peut être interprété de la même manière que l’α, les valeurs d’oméga supérieures à .70 indiquent un niveau acceptable de fiabilité.

Lorsque les échelles sont multidimensionnelles (c’est-à-dire qu’elles mesurent plus d’un facteur), ωH fournit une estimation de la fiabilité du facteur général qui peut sous-tendre plusieurs sous-facteurs (Rodriguez et al., 2016). En ce sens que l’oméga hiérarchique indique la proportion de la variance attribuable à un facteur général. Par exemple, dans une échelle de bien-être comportant des sous-échelles pour le bien-être physique, émotionnel et social, ωH estimerait la fiabilité du concept général de bien-être. Une valeur supérieure à .50 pour l’oméga hiérarchique de bas niveau suggère une fiabilité acceptable pour les sous-échelles, ce qui indique qu’elles peuvent mesurer de manière fiable leurs construits spécifiques après avoir pris en compte l’influence du facteur général (Watkins, 2017).

    ωHs donne un aperçu de la fiabilité de sous-échelles ou de composantes spécifiques au sein d’une mesure multidimensionnelle (Reise et al., 2013). Il quantifie la manière dont les scores des sous-échelles individuelles reflètent la variance de leur facteur spécifique, distinct du facteur général. La valeur de la sous-échelle hiérarchique supérieure à .50 est considérée comme suffisante pour la fiabilité d’une sous-échelle (Watkins, 2017).     

        Omega ne suppose pas l’équivalence tau (charges factorielles égales) comme le fait l’α. En outre, omega fournit des estimations de fiabilité plus précises pour les échelles multidimensionnelles. Enfin, lorsque les hypothèses sont respectées, α et ω donnent des résultats similaires. Toutefois, lorsque les hypothèses ne sont pas respectées (par exemple, lors de charges factorielles inégales), ω est souvent préféré pour sa précision.

Calcul des différentes valeurs d’oméga :

        Alors que l’α est traditionnellement plus facile à calculer et donc plus largement utilisé, le calcul de l’ω est devenu plus accessible grâce aux logiciels modernes et aux progiciels d’environnements statistiques tels que R et R Studio (Flora, 2020).

La fiabilité est essentielle pour établir la cohérence et la fiabilité des échelles de mesure. Bien que l’α de Cronbach ait longtemps été la norme, l’ω de McDonald offre une alternative plus flexible et potentiellement plus précise, en particulier dans les contextes où les hypothèses de l’α ne sont pas respectées. Les chercheurs et les praticiens devraient connaître l’ω et envisager de l’utiliser pour évaluer la fiabilité de leurs échelles.

Il existe d’autres propriétés psychométriques qui relèvent de mesures répétées et qui ont lieu lors de phases confirmatoires et parfois après : il s’agit de la sensibilité au changement (sensitivity to change) et de la réactivité (responsiveness) qui évaluent la capacité de l’instrument à détecter de réels changements au fil du temps, même minimes.

résumé sur les propriétés psychométriques

Les différentes formes de validité évaluent la capacité d’un instrument à mesurer le construit qu’il prétend mesurer.

  • Validité de surface : Elle offre une première impression de la pertinence apparente de l’instrument.
  • Validité de critère : Elle compare l’instrument à un gold standard afin d’évaluer sa précision.
  • Validité divergente : Elle confronte l’instrument à un autre qui mesure un construit différent.
  • Validité de groupe connu : Elle vérifie si l’instrument peut différencier des groupes qui sont censés différer.
  • Analyse factorielle : Elle étudie la structure dimensionnelle de l’instrument.
  • Analyse parallèle : Elle détermine le nombre de facteurs pertinents à considérer.
  • ESEM (Exploratory Structural Equation Modeling) : Elle fusionne l’analyse factorielle exploratoire et confirmatoire.
  • Invariance de mesure : Elle s’assure que l’instrument est utilisé de manière équivalente dans différents groupes.

Les différentes formes de fiabilité font référence à la capacité de l’instrument à produire des résultats stables et cohérents sur différentes occasions ou utilisations.

  • Test-retest : Il évalue la stabilité de l’instrument dans le temps.
  • Alpha de Cronbach : Il apprécie la cohérence interne des items.
  • Oméga de McDonald : Il offre une alternative plus robuste à l’alpha.
  • Sensibilité au changement : Elle estime la capacité de l’instrument à identifier de véritables changements.
  • Réactivité : Elle évalue la magnitude des changements perçus.
  • Response shift : le changement dans la réponse peut influencer les réponses face à des changements.

Vous devriez maintenant avoir une bonne connaissance des propriétés psychométriques. Nous allons voir par la suite de manière plus pratique leur application.

propriétés psychométriques dans la partie méthode

Comme je l’évoquais dans un article concernant les choix à faire dans une recherche, la sélection et la description des échelles de mesure dans la partie « Méthode » sont essentielles pour assurer la validité et la fiabilité de la recherche. Ces outils, choisis pour évaluer les variables d’intérêt, doivent être accompagnés d’une justification claire quant à leur adéquation avec les objectifs de l’étude et leurs propriétés psychométriques.

Sélection des échelles : Le choix des échelles est guidé par leur pertinence pour les hypothèses de recherche et leur capacité à mesurer précisément les concepts étudiés. La description de ce choix devrait mettre en lumière la correspondance entre les échelles et les variables, soulignant comment ces outils permettent d’explorer efficacement les questions de recherche.

Propriétés psychométriques : Il est crucial de discuter des qualités psychométriques des échelles sélectionnées, notamment leur validité (aptitude de l’échelle à mesurer ce qu’elle est censée mesurer) et leur fiabilité (consistance des résultats à travers le temps et différents échantillons). Cette discussion reflète la rigueur méthodologique et renforce la crédibilité des données collectées. Vous devez fournir des preuves ou des références attestant de ces propriétés, issues de la littérature scientifique ou de validations préalables. Par la suite vous devrez comparer les qualités psychométriques issues de vos résultats à ceux de la littérature antérieures, notamment des articles de validation.

Justification et adaptation : Enfin, il est pertinent de justifier pourquoi certaines échelles ont été préférées à d’autres options disponibles, en tenant compte de leur applicabilité au contexte spécifique de l’étude. Si des adaptations ont été nécessaires (par exemple, traduction, modification des items pour une meilleure clarté), ces changements doivent être expliqués et justifiés pour garantir que les propriétés psychométriques restent intactes.

En résumé, la section « Méthode » doit clairement décrire le choix des échelles de mesure, en se concentrant sur leur adéquation avec les objectifs de l’étude et en mettant en évidence leurs propriétés psychométriques. Cette approche renforce la validité de la recherche et contribue à l’avancement des connaissances dans le domaine d’étude.

étude de cas des propriétés psychométriques

Il existe plusieurs types d’articles scientifiques. Un exemple palpable de l’application des propriétés psychométriques se trouve dans notre recherche originale sur l’adaptation et la validation transculturelle de l’échelle de qualité de vie, la QoL-AD NH. Dans ce travail, nous avons entrepris le processus complexe d’adapter cette échelle pour qu’elle soit pertinente et valide dans un nouveau contexte culturel, tout en préservant son intégrité originale et sa capacité à mesurer de manière fiable le concept de qualité de vie chez les personnes âgées.

L’application des principes de fidélité et de validité a été cruciale à chaque étape de ce processus. Nous avons d’abord évalué la validité de contenu en consultant des experts du domaine et en adaptant les items de l’échelle pour qu’ils reflètent fidèlement les aspects culturellement spécifiques de la qualité de vie. Ensuite, des analyses factorielles ont été menées pour examiner la structure de l’échelle et assurer sa validité de construct dans le nouveau contexte, tandis que des tests de fiabilité, tels que l’Alpha de Cronbach, l’Omega de Mc Donald et l’analyse test-retest, ont confirmé la cohérence et la stabilité des scores obtenus.

À travers cet exemple, il est manifeste que la considération attentive des propriétés psychométriques — de la validité de contenu, de critère et de construct à la fiabilité — est indispensable pour l’adaptation et la validation transculturelle d’instruments de mesure. Ce processus garantit non seulement que l’échelle modifiée mesure ce qu’elle est censée mesurer dans le nouveau contexte culturel, mais également qu’elle le fait de manière fiable et cohérente, contribuant ainsi à la production de données de recherche valides et significatives.

conclusion sur les propriétés psychométriques
Conclusion sur ChatGPT

L’évaluation rigoureuse des qualités psychométriques des instruments de mesure est bien plus qu’une étape méthodologique ; c’est un impératif éthique et scientifique qui garantit que les instruments mesurent de manière fiable et valide les construits latents visés. Ces qualités psychométriques – fidélité, validité, et bien d’autres – sont le socle sur lequel repose l’intégrité des résultats de recherche. Sans une évaluation minutieuse de ces propriétés, les données recueillies risquent d’être non seulement inexactes mais également trompeuses, mettant en péril la validité des conclusions tirées et, par extension, la crédibilité de toute l’entreprise scientifique.

La compréhension et l’application approfondies des qualités psychométriques facilitent non seulement la sélection d’instruments de mesure adéquats pour des études spécifiques mais renforcent également la confiance dans les connaissances produites par ces recherches. Ce processus critique contribue à la construction d’une base de connaissances solide et fiable dans les domaines de la psychologie, de la santé, et au-delà, permettant aux chercheurs, praticiens et décideurs de prendre des décisions éclairées basées sur des données probantes.

En définitive, alors que le champ de la recherche continue d’évoluer et de s’étendre, l’importance de bien comprendre et d’appliquer rigoureusement les principes des propriétés psychométriques demeure constante. Elle est essentielle non seulement pour la validation d’instruments existants mais également pour le développement de nouvelles mesures qui peuvent mieux capturer les nuances des construits psychologiques complexes. Ainsi, en mettant l’accent sur une évaluation minutieuse des qualités psychométriques, la recherche peut continuer à progresser de manière éthique, précise et significative.

références bibliogrpahiques sur les propriétés psychométriques

Cousi, C., Igier, V., & Quintard, B. (2021). French cross-cultural adaptation and validation of the Quality of Life-Alzheimer’s Disease scale in Nursing Homes (QOL-AD NH). Health and Quality of Life Outcomes, 19(1), 219. https://doi.org/10.1186/s12955-021-01853-2

Flora, D. B. (2020). Your Coefficient Alpha Is Probably Wrong, but Which Coefficient Omega Is Right? A Tutorial on Using R to Obtain Better Reliability Estimates. Advances in Methods and Practices in Psychological Science, 3(4), 484‑501. https://doi.org/10.1177/2515245920951747

Hayes, A. F., & Coutts, J. J. (2020). Use Omega Rather than Cronbach’s Alpha for Estimating Reliability. But…. Communication Methods and Measures, 14(1), 1‑24. https://doi.org/10.1080/19312458.2020.1718629

Kline, R. B. (2016). Principles and practice of structural equation modeling (Fourth edition). The Guilford Press.

Maïano, C., Morin, A. J. S., Lanfranchi, M.-C., & Therme, P. (2013). The Eating Attitudes Test-26 Revisited using Exploratory Structural Equation Modeling. Journal of Abnormal Child Psychology, 41(5), 775‑788. https://doi.org/10.1007/s10802-013-9718-z

Marsh, H. W., Morin, A. J. S., Parker, P. D., & Kaur, G. (2014). Exploratory Structural Equation Modeling: An Integration of the Best Features of Exploratory and Confirmatory Factor Analysis. Annual Review of Clinical Psychology, 10(1), 85‑110. https://doi.org/10.1146/annurev-clinpsy-032813-153700

McDonald, R. P. (2013). Test Theory: A Unified Treatment (0 éd.). Psychology Press. https://doi.org/10.4324/9781410601087

Morin, A. J. S., & Maïano, C. (2011). Cross-validation of the short form of the physical self-inventory (PSI-S) using exploratory structural equation modeling (ESEM). Psychology of Sport and Exercise, 12(5), 540‑554. https://doi.org/10.1016/j.psychsport.2011.04.003

Reise, S. P., Bonifay, W. E., & Haviland, M. G. (2013). Scoring and Modeling Psychological Measures in the Presence of Multidimensionality. Journal of Personality Assessment, 95(2), 129‑140. https://doi.org/10.1080/00223891.2012.725437

Rodriguez, A., Reise, S. P., & Haviland, M. G. (2016). Evaluating bifactor models : Calculating and interpreting statistical indices. Psychological Methods, 21(2), 137‑150. https://doi.org/10.1037/met0000045

Watkins, M. W. (2017). The reliability of multidimensional neuropsychological measures : From alpha to omega. The Clinical Neuropsychologist, 31(6‑7), 1113‑1126. https://doi.org/10.1080/13854046.2017.1317364

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.