Your browser doesn't support javascript.
loading
Show: 20 | 50 | 100
Results 1 - 1 de 1
Filter
Add filters








Language
Year range
1.
Acta ortop. bras ; 24(2): 90-93, Mar.-Apr. 2016. tab, graf
Article in English | LILACS | ID: lil-775077

ABSTRACT

Objetivo: Avaliar a reprodutibilidade intra e inter observadores da Classificação Tomográfica de Sanders das fraturas do calcâneo entre observadores mais e menos experientes em cirurgia do pé e tornozelo.Métodos: Foram avaliadas imagens tomográficas de 46 pacientes com diagnóstico de fratura do calcâneo. Quatro observadores, dois com dez anos de experiência em cirurgia do pé e tornozelo e dois residentes do terceiro ano em Ortopedia e Traumatologia classificaram as fraturas independentemente. Após três semanas, os mesmos observadores classificaram as fraturas apresentadas em ordem alterada aleatoriamente.A concordância intra e inter observadores foi analisada através do índice Kappa. Resultados: Houve boa concordância intra observador para os dois observadores mais experientes e um observador menos experiente (valores de Kappa 0,640; 0,632 e 0,629, respectivamente). Quando analisada a concordância inter observador, houve concordância fraca entre os mais experientes (Kappa = 0,289) e moderada entreos menos experientes (Kappa = 0,527). Conclusões: A Classificação Tomográfica de Sanders apresentou boa concordância intra observador,porém reprodutibilidade inter observadores abaixo da ideal, tanto entre observadores mais experientes quanto aqueles menos experientes.Nível de Evidência III, Estudos Diagnósticos.


Objective: To assess intra- and interobserver reproducibilityof Sanders Classification System of calcaneal fracturesamong experienced and less experienced observers. Methods:Forty-six CT scans of intra-articular calcaneal fractureswere reviewed. Four observers, two with ten years ofexperience in foot and ankle surgery and two third-year residentsin Orthopedics and Traumatology classified the fractureson two separate occasions three weeks apart from eachother. The intra and inter-observer reliability was analyzedusing the Kappa index. Results: There was good intraobserverreliability for the two experienced observers and oneless experienced observer (Kappa values 0.640, 0.632 and0.629, respectively). The interobserver reliability was fairbetween the experienced observers (Kappa = 0.289) andmoderate among the less experienced observers (Kappa= 0.527). Conclusions: The Sanders Classification Systemshowed good intraobserver reliability, but interobserver reproducibilitybelow the ideal level, both among experiencedand less experienced observers. Level of Evidence III,Diagnostic Studies.


Subject(s)
Humans , Bone and Bones , Calcaneus , Heel , Reproducibility of Results , Tomography , Wounds and Injuries
SELECTION OF CITATIONS
SEARCH DETAIL