Avaliando a confiabilidade interavaliadores de um instrumento para classificação de pacientes: coeficiente Kappa
DOI:
https://doi.org/10.1590/S0080-62342003000100009Palavras-chave:
Avaliação em enfermagem, Confiabilidade e validadeResumo
Este estudo teve como objetivo determinar a confiabilidade interavaliadores do instrumento de classificação de pacientes proposto por Perroca. Cinqüenta pacientes escolhidos aleatoriamente foram avaliados por enfermeiras lotadas na UTI de um hospital de ensino. O coeficiente Kappa foi utilizado para a avaliação do grau de concordância nos escores totais obtidos pelas enfermeiras. A análise de confiabilidade revelou um Kappa entre 0,68 e 0,90 com IC de 95%, indicando uma boa concordância. O estudo permitiu concluir que o instrumento apresenta evidência de confiabilidade.Downloads
Os dados de download ainda não estão disponíveis.
Downloads
Publicado
2003-03-01
Edição
Seção
Artigos Originais
Licença
![Creative Commons License](http://i.creativecommons.org/l/by-nc/4.0/88x31.png)
Este trabalho está licenciado sob uma licença Creative Commons Attribution-NonCommercial 4.0 International License.
Como Citar
Perroca, M. G., & Gaidzinski, R. R. (2003). Avaliando a confiabilidade interavaliadores de um instrumento para classificação de pacientes: coeficiente Kappa. Revista Da Escola De Enfermagem Da USP, 37(1), 72-80. https://doi.org/10.1590/S0080-62342003000100009