TROCHANTERIC FRACTURES: ARE THE CLASSIFICATIONS RELIABLE?
- PMID: 40206452
- PMCID: PMC11978310
- DOI: 10.1590/1413-785220243201e279781
TROCHANTERIC FRACTURES: ARE THE CLASSIFICATIONS RELIABLE?
Abstract
Objective: To evaluate classification use based on the assessment of agreement in trochanteric fractures between different observers through a simple proposal of bimodal classification.
Methodology: A total of 50 radiographic images of femur trochanteric fractures were selected and classified by 22 evaluators, 10 traumatologists and 12 residents, as STABLE or UNSTABLE. The assessment of reproducibility was done using the kappa statistical index. After the evaluation, the groups were isolated and submitted to the ANOVA test with Bonferroni correction to evaluate the statistical differences between them.
Results: When evaluated by the kappa index, the results of the 50 fractures assessed by the 22 evaluators were k = 0.272. The reproducibility of the classification proposal was considered statistically weak.
Conclusion: Based on this study, it is recommended that the classifications be extensively tested and reach a minimum level of interobserver reproducibility (kappa > 0.8). It is suggested that classifications that do not achieve this result be improved or abandoned. Level of evidence II, Prospective study.
Objetivo: Avaliar a utilização das classificações a partir da avaliação de concordância nas fraturas trocantéricas entre diferentes observadores através de uma proposta simples de classificação bimodal.
Métodos: Foram selecionadas 50 imagens radiográficas de fraturas trocantéricas do fêmur e classificadas por 22 avaliadores, sendo 10 traumatologistas e 12 residentes que definiram as fraturas como ESTÁVEIS ou INSTÁVEIS. A avaliação da reprodutibilidade foi dada pelo índice estatístico Kappa. Após a avaliação, os grupos foram isolados e submetidos ao teste ANOVA com correção Bonferroni para avaliar as diferenças estatísticas entre eles.
Resultados: Quando submetidos a avaliação pelo índice Kappa os resultados das 50 fraturas avaliadas pelos 22 avaliadores foi de k = 0,272. A reprodutibilidade da proposta de classificação foi considerada estatisticamente fraca.
Conclusão: A partir deste estudo recomenda-se que as classificações sejam extensamente testadas e atinjam um nível mínimo de reprodutibilidade (Kappa > 0,8) interobservadores. Sugere-se que as classificações que não atinjam este resultado sejam aprimoradas ou abandonadas. Nível de evidencia II, Estudo prospectivo.
Keywords: Classification; Interobserver agreement; Reliability; Trochanteric fracture.
Conflict of interest statement
The authors declare no conflict of interest.
Figures






References
-
- Everitt BS. The analysis of contingency tables. 2. New York: Chapman & Hall; 1992.
-
- Cohen J. A coefficient of agreement for nominal scales. Educ Psychol Meas. 1960;20(1):37–46.
-
- Svanholm H, Starklint H, Gundersen HJ, Fabricius J, Barlebo H, Olsen S. Reproducibility of histomorphologic diagnoses with special reference to the kappa statistic. APMIS. 1989;97(8):689–698. - PubMed
LinkOut - more resources
Full Text Sources