Extracto
Antecedentes
La abstracción de los datos de los registros médicos es una práctica muy extendida en la investigación epidemiológica. Sin embargo, los estudios que utilizan este medio para la recogida de datos rara vez informan de fiabilidad. Dentro de la transición después de Estudio de Cáncer Infantil (TACC) que se basa en una abstracción de la historia clínica, se realizó una segunda abstracción independiente de los datos con el objetivo de evaluar a) la fiabilidad intra-evaluador de un evaluador en dos momentos; b) los posibles efectos de aprendizaje entre estos dos puntos de tiempo en comparación con un estándar de oro; y c) entre los calificadores fiabilidad.
Método
Dentro del estudio se realizó un TACC sistemática abstracción expediente médico en las clínicas suizas con 9 salas de oncología pediátrica. En una segunda fase se seleccionó una submuestra de la historia clínica en 3 clínicas para llevar a cabo una segunda abstracción independiente. Luego se evaluó la fiabilidad intra-evaluador en dos momentos, el efecto de aprendizaje a través del tiempo (la comparación de cada evaluador en dos puntos de tiempo con un patrón de referencia) y la confiabilidad entre calificadores de un número seleccionado de variables. Se calculó el porcentaje de acuerdo y kappa de Cohen
Los resultados
Para la evaluación de la fiabilidad intra-evaluador que participaron 154 registros (80 para los calificadores 1; 74 para evaluador 2).. Para la confiabilidad entre calificadores podríamos incluir 70 registros. intra-calificadores fiabilidad fue sustancial a excelente (kappa de Cohen 0-6-0.8) con un porcentaje de acuerdo observada de 75% -95%. En todas las variables se observaron efectos de aprendizaje. entre los calificadores fiabilidad fue sustancial a excelente (kappa de Cohen 0,70 a 0,83) con alto nivel de coincidencia que van del 86% al 100%.
Conclusiones
Nuestro estudio mostró que los datos extraídos de los registros médicos son fiables . La investigación de intra-evaluador y confiabilidad entre calificadores puede dar la confianza para sacar conclusiones a partir de los datos extraídos y aumentar la calidad de los datos, reduciendo al mínimo los errores sistemáticos
Visto:. Gianinazzi ME, Rueegg CS, Zimmerman K, Kuehni CE, Michel G , el Grupo de Oncología pediátrica Suiza (SPOG) (2015) Intra-Rater y entre los calificadores fiabilidad de un estudio de abstracción de Registro Médico de transición de atención después de cáncer infantil. PLoS ONE 10 (5): e0124290. doi: 10.1371 /journal.pone.0124290
Editor Académico: Keitaro Matsuo, Kyushu University Facultad de Ciencias Médicas, JAPÓN
Recibido: December 2, 2014; Aceptado: March 5, 2015; Publicado: 22 de mayo 2015
Derechos de Autor © 2015 Gianinazzi et al. Este es un artículo de acceso abierto distribuido bajo los términos de la licencia Creative Commons Attribution License, que permite el uso ilimitado, distribución y reproducción en cualquier medio, siempre que el autor original y la fuente se acreditan
Disponibilidad de datos: Todos los datos relevantes están dentro del papel
Financiación:. Este trabajo fue apoyado por la Fundación Nacional de Ciencia de Suiza (subvención ambizione PZ00P3_121682 /1 y PZ00P3-141722 a GM); el cáncer Liga Suiza (subvención KLS-01605-10-2004, KLS-2215-02-2008, KFS-02631-08-2010, KLS-02783-02-2011); Cáncer de la Liga de Berna; y Stiftung zur Krebsbekämpfung. El trabajo del Registro de Cáncer de la niñez suiza es apoyada por el Grupo de Oncología Pediátrica Suiza (www.spog.ch), Schweizerische Konferenz der kantonalen Gesundheitsdirektorinnen und -direktoren (www.gdk-cds.ch), cáncer de Investigación Suizo (www.krebsforschung. ch), Kinderkrebshilfe Schweiz (www.kinderkrebshilfe.ch), Ernst-Göhner Stiftung, Stiftung Domarena, y el Instituto Nacional del cáncer Epidemiología y registro (www.nicer.ch). Los donantes no tenía papel en el diseño del estudio, la recogida y análisis de datos, decisión a publicar, o la preparación del manuscrito
Conflicto de intereses:.. Los autores han declarado que no existen intereses en competencia
Introducción
La abstracción de datos de los registros médicos de los pacientes (MR) es una práctica muy extendida en la investigación epidemiológica, especialmente en estudios retrospectivos [1-3]. A menudo, sin embargo, la fiabilidad y la validez interna de estos datos es cuestionable. Esto tiene varias razones. En primer lugar, los datos escritos en la RM no se han producido con fines de investigación y de la adecuación de tales datos para la pregunta de investigación del estudio debe ser abordado [2]. En segundo lugar, la escasa fiabilidad debido al potencial intra e inter-evaluador varianza limita la validez interna de los resultados. Esto es particularmente cierto para los estudios multicéntricos en los que intervienen varios evaluadores, las condiciones de recopilación de datos varían, formatos RM distintos, los datos provienen de diferentes períodos de tiempo y la recogida de datos deja espacio para la interpretación [1]. Por estas razones es importante reportar la fiabilidad de tales estudios. Además, esto puede ayudar a mejorar el proceso de recolección, para reducir y corregir las discrepancias o problemas, y, más tarde, para ganar confianza en las conclusiones que se pueden extraer [4]. A pesar de la importancia de la presentación de esas medidas, sólo unos pocos estudios realmente lo hacen [2,4-8]. En general, publicado revisiones de cuadros retrospectivas, que evaluaban el informe de la confiabilidad buenos niveles de fiabilidad para sus resumieron los datos, pero hay que recordar que el sesgo de publicación podría ser un problema en este tipo de estudio con sólo los estudios con resultados positivos se publican.
la "transición después de cáncer infantil (TACC)" proyecto tiene como objetivo evaluar la transición de la atención pediátrica a la adulta de sobrevivientes de cáncer infantil en Suiza mediante la recopilación de datos de MR en nueve clínicas y en tres regiones lingüísticas. Debido a que ningún estudio evaluó la transición anterior utilizando una tabla de revisión sistemática para la recolección de datos que teníamos para desarrollar y dirigir un formulario de extracción basado en la literatura y el proyecto tiene como objetivo disponibles. Por estas razones nos pareció que era importante para evaluar la fiabilidad de los datos recogidos por la investigación a) la fiabilidad intra-evaluador de dos evaluadores en dos momentos; b) los posibles efectos en el tiempo de aprendizaje comparando cada evaluador a un estándar de oro en dos momentos; y c) entre los calificadores fiabilidad.
Métodos
Declaración de Ética
aprobación
Ética se proporciona a través de la autorización general registro de cáncer del Registro de Cáncer de la niñez de Suiza (La Comisión Federal Suizo de Expertos del secreto profesional en la Investigación médica) y una declaración no obstat se obtuvo del comité de ética del cantón de Berna, que indica que no tiene permiso ética adicional y sin el consentimiento informado adicional era necesaria. Toda la información sobre los individuos se hizo en el anonimato a los investigadores antes del análisis.
Estudio de la población
La «transición después de Cáncer Infantil (TACC)» estudio es un estudio multicéntrico retrospectivo realizado dentro del suizo basado en la población Registro de cáncer de la niñez (SCCR). Durante casi cuatro décadas el SCCR ha estado recogiendo datos de todos los pacientes con diagnóstico de leucemia, linfoma, tumores del sistema nervioso central (SNC), tumores sólidos malignos o histiocitosis de células de Langerhans antes de la edad de 21 años [9,10]. El estudio incluyó TACC una muestra estratificada (por diagnóstico y tratamiento de la clínica) seleccionados al azar de los pacientes registrados en el SCCR, que fueron diagnosticados con cáncer de la niñez a una edad entre 0 y 15 años, que sobrevivió ≥ 5 años y tenían entre ≥ 16 años en el momento de este estudio.
recogida de datos inicial para el estudio TACC
Dentro del estudio se realizó un TACC abstracción MR sistemática a las 9 clínicas con salas de oncología pediátrica en toda Suiza (todas las clínicas estaban afiliados al Grupo de Oncología pediátrica Suiza). La recolección de datos se inició en marzo de 2012 y finalizó en abril de 2013. Para la recolección de datos se utilizó un formulario de extracción estandarizado en copia impresa, que hemos desarrollado utilizando la literatura disponible sobre la revisión de expedientes [11]. Según lo sugerido por las directrices, que puso a prueba el formulario de resumen en tres de las nueve clínicas, antes de que comenzara la abstracción de datos real. Se recogieron datos sobre las siguientes categorías principales: la frecuencia de las visitas de seguimiento después de la edad de 16 años, los profesionales médicos involucrados, descarga (pacientes dados de alta de la oncología pediátrica sin ser transferido), fecha de alta, de alta programada, la fecha de alta programada, traslado (paciente transferido de oncología pediátrica a un profesional de la medicina de adultos), destino de la transferencia, fecha de la transferencia, se perdió las citas de seguimiento (el paciente no acudió a una visita). Hemos fotografiado digitalmente todos los documentos pertinentes como "copia de seguridad" y las guardó en servidores seguros. Tras la recogida de datos, se utilizó EpiData 3.1 para introducir nuestros datos en una base de datos. Toda la información demográfica o clínica inicial se extrae directamente de la base de datos SCCR.
y muestras para la fiabilidad
El número de re-abstracciones llevamos a cabo se basó en el número de historias clínicas contenga información sobre las variables a ser extraídos, así como en los cálculos formales tamaño de la muestra para la estadística kappa [12]. El uso de alfa y las tasas de error beta de 0,05 y 0,2, respectivamente, cuando las pruebas de una diferencia estadística entre moderada (es decir, 0,40) y alta (es decir, 0,75) kappa valores, las estimaciones del tamaño de la muestra varió desde 77 hasta 28 cuando la prevalencia rasgo era variado entre 10% y 50%. Por lo tanto, nuestros tamaños de muestra para intra-calificadores fiabilidad y entre los calificadores proporcionan la energía necesaria para detectar diferencias. Se seleccionaron todos los registros médicos que no tenían ningún valores perdidos en las variables bajo investigación. Hemos llevado a cabo la re-abstracción en las tres primeras clínicas de la misma región lenguaje
Re-abstracción
Para la re-abstracción nos centramos exclusivamente en las variables más importantes, a saber:. Las variables "todavía en seguimiento pediátrico (sí, no)", "transferido (sí, no)", "descargada (sí, no)", "transferencia de destino" (médico general, un oncólogo de adultos, otro especialista), y la fecha las variables "fecha de la transferencia", "fecha de alta" y "fecha de la próxima visita en oncología pediátrica" (Tabla 1).
historial médico
calificadores
Tres evaluadores del estudio fueron elegidos para llevar a cabo la abstracción en las diferentes clínicas en base a sus conocimientos lingüísticos (tenían que ser competentes en todos los idiomas nacionales) y de su nivel de educación. Todos los evaluadores llevaron a cabo un grado en el nivel principal, una en la pedagogía /psicología, la segunda en las ciencias sociales y la tercera en la biología. Ninguno de los evaluadores tenía experiencia clínica, que creíamos que no era necesario que el propósito de esta abstracción. Uno de estos tres evaluadores (Master en Biología) se había unido al equipo de investigación posterior y, por tanto, fue excluido del estudio de fiabilidad.
Los dos calificadores incluidos en el estudio fueron entrenados fiabilidad antes de la recogida de datos para los conceptos más importantes evaluados en el estudio TACC. Para medir la fiabilidad intra-evaluador los 2 evaluadores resumieron una muestra seleccionada de expedientes médicos en dos puntos en el tiempo. Tanto los evaluadores no tienen acceso a los resultados recogidos en el momento 1.
Para investigar los posibles efectos de aprendizaje entre los puntos de tiempo 1 y el punto 2 del tiempo, el director del proyecto (MEG) también obtuvieron los datos también de los mismos pacientes. Estos datos fueron considerados el patrón oro y los resultados de los dos evaluadores en el punto 1 hora y 2 eran que en comparación con el estándar de oro. Para evaluar la confiabilidad entre calificadores los 2 evaluadores extrajeron independientemente los datos de los mismos sujetos de estudio en el punto de tiempo 2.
El análisis estadístico
Hemos realizado todos los análisis utilizando Stata 12.0 (StataCorp, College Station, TX ). Se calculó el porcentaje primer acuerdo, es decir, la proporción de evaluaciones en el que las dos observaciones estuvieron de acuerdo, kappa de Cohen y prevalencia ajustada por Ajustado-Bias Kappa (PABAK) para todas las variables en el comercio intra-evaluador y la comparación entre los calificadores [13]. Para el análisis intra-calificadores fiabilidad se presentan los resultados por calificadores cuando sea posible. Para evaluar los posibles efectos en el tiempo entre el punto 1 y el punto en el tiempo de aprendizaje 2, se calculó kappa de Cohen entre los datos recogidos por cada evaluador en los dos puntos en el tiempo y los datos recogidos por el director del proyecto de MEG (patrón oro).
Kappa y Kappa de Cohen ajustado
Kappa indica una calificación numérica del grado de acuerdo entre los dos evaluadores, teniendo en cuenta el grado de acuerdo que se esperaría por casualidad. El cálculo de kappa de Cohen se basa en la diferencia entre el acuerdo que está realmente presente (Pr
a) y el acuerdo obtenido por azar (Pr
e) (Fórmula 1) [14]. Los valores de kappa comprendidos entre 0 y 1 donde 0 significa "menos de la posibilidad de acuerdo" y 1 "acuerdo casi perfecto".
(Fórmula 1)
Fórmula 1, sin embargo, no tiene en cuenta el sesgo entre observadores (la punto de desacuerdo) o la distribución de datos a través de las categorías que se utilizan (prevalencia). El siguiente ejemplo muestra cómo acuerdo idénticos puede conducir a diferentes coeficientes de kappa, debido a la diferente prevalencia de datos a través de las categorías
En ambos cuadros 2 y 3 no es igual acuerdo (60 de sí y no: 25. 35 y 45 + 15). Sin embargo, si aplicamos la Fórmula 1 para el cálculo de kappa de Cohen vamos a terminar con resultados diferentes (K
1 = 0,1304 y K
2 = 0,2593). Esta diferencia en los resultados se debe a la diferente distribución de los datos en las celdas de 2x2 (el llamado prevalencia) [12].
La interpretación de kappa solo, sin ninguna indicación de la prevalencia o sesgo puede ser imprecisa. Para superar este problema se ha propuesto una forma alternativa de kappa que tiene en cuenta tanto el sesgo y la prevalencia [15]. Esto se resume en la Ajustado-Prevalencia ajustada Kappa-Bias (PABAK). PABAK da la proporción de acuerdo más allá de la posibilidad de acuerdo esperado independientemente de los patrones de datos no balanceados. La interpretación de PABAK es el mismo que para kappa. Si consideramos una tabla 2x2 como la de la Tabla 4, PABAK se calcula como en la Fórmula 2. gratis (Fórmula 2)
Interpretación de Cohen kappa
Para interpretar nuestros resultados hemos utilizado como punto de referencia el punto de corte propuesto por Landis y Koch [16] según el cual kappa de Cohen ≥ 0,80 representan una excelente concordancia, los coeficientes de entre 0.61 y 0.80 representan un acuerdo sustancial, los coeficientes de entre 0,41 y 0,61 concordancia moderada y & lt; 0,41 regular a mala acuerdo.
resultados
Muestra
el análisis final incluyó 154 registros para la evaluación de la fiabilidad intra-evaluador. De ellos, 80 habían sido vistos por evaluador 1 y el 74 por evaluador 2. El tiempo medio entre la primera (punto en el tiempo 1) y la segunda abstracción (punto en el tiempo 2) fue de 7,6 meses (SD = 2,2), alcance (2.1-10.3 meses ). Para la evaluación de la confiabilidad entre calificadores se incluyeron 70 registros (figura 1).
La figura 1 muestra el diagrama de flujo de nuestra población de estudio a partir de los elegibles a los incluidos en el análisis.
Intra-calificadores fiabilidad
en general, todas las variables evaluadas tenían sustancial (de Cohen kappa ≥ 0,6) a excelente acuerdo (de Cohen kappa ≥ 0,8) con un acuerdo porcentaje observado que van desde el 75% (fecha de la próxima visita de oncología pediátrica) a 95% (fecha de la transferencia) (figura 2).
la figura 2 muestra los valores de kappa para intra-evaluador (azul oscuro) y de entre los calificadores (azul claro) con fiabilidad su confianza intervalos T para cada variable se investiga
Después de tener en cuenta la prevalencia y el sesgo, PABAK fue mayor para todas las variables con un rango de 0,64 a la 0,81 de los valores no ajustados kappa (Tabla 5; Fig. 3).
la figura 3a y 3b muestran los valores de kappa en comparación con los de los valores obtenidos mediante el cálculo de la kappa-Bias ajustado ajustado-Prevalencia de fiabilidad intra-evaluador (a), y entre los calificadores fiabilidad (b).
la variable "en el seguimiento" tenía la más alta de Cohen kappa (k = 0,76), mientras que la transferencia y la descarga tenían la más baja (k = 0,62 yk = 0,63) (figura 2).
las variables de fecha tenían kappa de Cohen (k) por encima de 0,9, excepto "fecha de la próxima visita" eran k fue de 0,7.
al mirar los resultados estratificados por los dos evaluadores, pudimos ver que Cohen kappa fueron consistentemente más altos para evaluador 1 que para evaluador 2. Especialmente para la transferencia de las variables y evaluador de descarga 2 tenían kappa & lt de Cohen; 0,5 (Tabla 5).
Aprender efectos
Al mirar los efectos entre el punto en el tiempo de aprendizaje y de 1 punto en el tiempo 2 frente a los datos recogidos por el director del proyecto MEG se puede observar que los valores de kappa mejorado en gran medida tanto para los evaluadores (todos p
s & lt; 0,001). (figura 4)
la figura 4a y 4b muestran la comparación de la abstracción en dos puntos en el tiempo del evaluador 1 (a) y evaluador 2 (b) en comparación con el estándar de oro elegido (abstracción del director del proyecto).
fiabilidad entre evaluadores
para la transferencia de las variables, de descarga, en el seguimiento y el destino de la transferencia el acuerdo observado fue alta va del 86% al 91% (Tabla 6) guía empresas
kappa de Cohen llegaron a un acuerdo sustancial o excelente que van desde 0,70 (descarga) a 0,83 (destino de la transferencia) (Tabla 6; Fig. 2). Después de ajustar por la prevalencia y el sesgo, la verdadera proporción de concordancia (PABAK) fue mayor para todas las variables con un rango de 0,71 a la 0,84 (Tabla 6). Entre las variables categóricas ", en seguimiento" tenía la más alta de Cohen kappa (k = 0,76), mientras que la transferencia y la descarga tenían la más baja (k = 0,62 yk = 0,63). Acuerdo y kappa fueron perfectos. (100%; k = 1) para las tres variables de fecha evaluado
Discusión
Los resultados de nuestro estudio mostró que tanto intra-evaluador y entre los calificadores que teníamos sustancial a excelente acuerdo. Como era de esperar, las variables para las que hay una interpretación era necesaria (por ejemplo, variables de fecha), y con frecuencia más alta perfecto acuerdo estaba presente. Hemos encontrado que un evaluador tuvo consistentemente más bajos acuerdo intra-evaluador, pero un análisis más detallado mostró una mejora del juicio entre el punto en el tiempo 1 y el punto en el tiempo 2 para ambos evaluadores en comparación con el estándar de oro escogido. Inesperadamente, kappa de Cohen fueron mayores para la confiabilidad entre calificadores que para intra-calificadores fiabilidad.
Ventajas y limitaciones
Este es el primer estudio que evalúa transición de la atención pediátrica a la adulta con los informes médicos que probaron intra-evaluador y confiabilidad entre calificadores de los datos recogidos. Debido a que las variables evaluadas no siempre eran fáciles de encontrar en los registros médicos ni fácil de calificar, estos resultados nos dan la confianza necesaria para interpretar los datos recogidos. Debido a que la recolección de datos todavía estaba en curso, la evaluación de la fiabilidad también nos dio la oportunidad de identificar los posibles problemas relacionados con la comprensión del evaluador e intervenir en caso de que teníamos la impresión se producían errores sistemáticos. Para los datos que ya habíamos recogido se les practicó un doble control para asegurarse de que los posibles errores de la primera fase podrían corregirse.
El estudio tiene limitaciones, sin embargo. En primer lugar, el tamaño de la muestra no permitió la detección de diferencias entre hospitales o las diferencias entre los diferentes tipos de registros médicos (es decir, el papel versos película de micro) o períodos de archivo, lo que podría explicar parte de la variabilidad evaluador. También se incluyeron solamente tres clínicas, mientras que todo el estudio se llevó a cabo en un total de nueve, en tres regiones lingüísticas diferentes. Por lo tanto, es necesario tener precaución en la generalización de los resultados. En nuestro estudio sólo nos fijamos en los documentos de la oncología pediátrica y, a pesar de que contienen correspondencia con los otros especialistas que participan en el seguimiento, a menudo era difícil de entender completamente la historia clínica de los pacientes. Esto se agrava aún más por el hecho de que ninguno de los evaluadores tenía experiencia en la práctica clínica y estaba familiarizado con los sistemas de documentación local. Por último, ha conocido kappa limitaciones que hemos tratado de superar por informar de la kappa sesgo ajustados prevalencia ajustados según lo propuesto por varios autores [12,15].
Comparación con otros estudios
Ninguno de los estudios que examinaron la evaluación de transición de la atención pediátrica a la adulta investigó la fiabilidad de los datos extraídos. Encontramos varios estudios que evalúan su mayoría entre los calificadores fiabilidad de las pruebas de diagnóstico (detección y detección de eventos adversos) que no eran directamente comparables a los nuestros. Dos estudios [4, 8] eran más similares en la metodología y el alcance de la nuestra: en el primero, los autores encontraron que el acuerdo era más pobre para las variables para las que se necesita un grado de interpretabilidad (datos del fallo), mientras que fue mayor para los datos de dichos características demográficas como o numéricos [8]. Lo mismo se encontró en el segundo estudio multicéntrico utilizando la abstracción expediente médico en un estudio sobre el programa de atención del asma basado en la comunidad [4]. En este estudio se encontró que la abstracción multicéntrico de los datos de la historia clínica es fiable y se podían sacar conclusiones a partir de los resultados. Encontraron un kappa de Cohen general para la fiabilidad intra-evaluador de 0,81 (excelente) y un kappa de Cohen global de 0,75 (sustancial) en el análisis entre los calificadores.
Interpretación de los resultados
A pesar de que no pudimos llegar a la perfección en la abstracción de los datos, nuestros resultados son alentadores y mostraron niveles satisfactorios de acuerdo. Además, la mejora de los calificadores en el juicio entre la hora 1 y la hora 2, probablemente debido a un efecto de aprendizaje, permite suponer que la abstracción en las 6 clínicas restantes no incluidos en el presente estudio, es de calidad y fiabilidad, al menos, similar o superior . Como se esperaba, el acuerdo fue mayor para las variables no-juicio, como fechas. Dicha información en su mayoría no requiere interpretación. Otros datos, como las variables de "transferencia" o "destino de la transferencia" iban a ser buscado en los textos libres, tales como cartas o informes médicos y que a menudo requieren un grado diferente de atención e interpretación. De hecho, la abstracción de datos fue difícil porque en el establecimiento de varios otros especialistas en oncología pediátrica a menudo están involucrados en el seguimiento de los pacientes (por ejemplo, neurólogos, endocrinólogos). Los documentos encontrados eran a menudo de varios especialistas y los evaluadores tuvieron que decidir si, por ejemplo, un paciente fue trasladado de oncología pediátrica o si el paciente se transfiere realmente de otro especialista. Un paciente podría saber estar todavía en el seguimiento en oncología pediátrica, pero podría haber sido trasladado de endocrinología pediátrica de la endocrinología adulto. Esto era a menudo una fuente de confusión cuando la abstracción de datos.
A diferencia de otros estudios [4,7], encontramos una mayor confiabilidad entre calificadores de intra-evaluador. Debido a que entre los calificadores fiabilidad se evaluó en el punto en el tiempo 2 sólo que esta mayor fiabilidad puede ser debido al efecto de aprendizaje que podíamos mostrar.
Implicaciones para la práctica
A pesar de las limitaciones conocidas de la retrospectiva estudios que utilizan MR u otros datos secundarios, un creciente número de estudios han demostrado que este enfoque puede producir resultados fiables si el procedimiento es consistente y estandarizada, y si los evaluadores están debidamente capacitado. Sería interesante investigar si los archivos 'organización, los documentos de' la edad y el formato de dichos documentos (por ejemplo, el microfilm, electrónico, en papel) influyen en la calidad de los datos recuperados. Por último, este análisis podría ayudar a detectar posibles problemas tales como dificultades de comprensión o discrepancias de evaluadores y mejorar la calidad general de los estudios retrospectivos.
Conclusión
Nuestro estudio demostró que a pesar de varias limitaciones atribuidas a los datos abstraído de MR, nuestros datos parece ser fiable. Gracias a la evaluación de los efectos de aprendizaje, los errores sistemáticos podría ser corregida y calidad de los datos generales mejoró. Con una buena formación y un procedimiento estandarizado buena fiabilidad que puede lograrse.
Reconocimientos
Agradecemos al equipo de estudio de la transición después de Estudio del Cáncer Infantil (Isabelle Brunner, Eliane Rupp y Samuel Wittwer) y la administradores de datos del Grupo de Oncología pediátrica suiza
Swiss Grupo de Oncología pediátrica Comité Científico (SPOG):. Prof. Dr. med. R. Ammann, Berna; Dr. med. R. Angustia, Aarau; Prof. Dr. med. M. Ansari, Ginebra; PD Dr. med. M. Beck Popovic, Lausana; Dr. med. E. Bergstraesser, Zurich; Dr. med. P. Brazzola, Bellinzona; Dr. med. J. Greiner, St. Gallen; Prof. Dr. med. M. Grotzer, Zurich; Dr. med. H. Hengartner, St. Gallen; Prof. Dr. med. T. Kuehne, de Basilea; Prof. Dr. med. C. Kuehni, Berna; Prof. Dr. med. K. Leibundgut, Berna; Prof. Dr. med. F. Niggli, Zurich; PD Dr. med. J. Rischewski, Lucerna; Prof. Dr. med. N. von der Weid, Basilea.