923 resultados para RESEARCH DIAGNOSTIC-CRITERIA
Resumo:
Se realizó un estudio transversal, se incluyeron 3 residentes no cardiólogos y se les dio formación básica en ecocardiografía (horas teóricas 22, horas prácticas 65), con recomendaciones de la Sociedad Americana de Ecocardiografia y aportes del aprendizaje basado en problemas, con el desarrollo de competencia técnicas y diagnósticas necesarias, se realizó el análisis de concordancia entre residentes y ecocardiografistas expertos, se recolectaron 122 pacientes hospitalizados que cumplieran con los criterios de inclusión y exclusión, se les realizo un ecocardiograma convencional por el experto y una valoración ecocardiográfica por el residente, se evaluó la ventana acústica, contractilidad, función del ventrículo izquierdo y derrame pericárdico. La hipótesis planteada fue obtener una concordancia moderada. Resultados: Se analizó la concordancia entre observadores para la contractilidad miocárdica (Kappa: 0,57 p=0,000), función sistólica del ventrículo izquierdo (Kappa 0,54 p=0.000) siendo esta moderada por estar entre 0,40 – 0,60 y con una alta significancia estadística, para la calidad de la ventana acústica (Kappa: 0,22 p= 0.000) y presencia de derrame pericárdico (Kappa: 0,26 p= 0.000) se encontró una escasa concordancia ubicándose entre 0,20 – 0,40. Se estableció una sensibilidad de 90%, especificidad de 67%, un valor predictivo positivo de 80% y un valor predictivo negativo de 85% para el diagnóstico de disfunción sistólica del ventrículo izquierdo realizado por los residentes.
Resumo:
Introducción: La enfermedad celiaca (EC) es una enfermedad autoinmune (EA) intestinal desencadenada por la ingesta de gluten. Por la falta de información de la presencia de EC en Latinoamérica (LA), nosotros investigamos la prevalencia de la enfermedad en esta región utilizando una revisión sistemática de la literatura y un meta-análisis. Métodos y resultados: Este trabajo fue realizado en dos fases: La primera, fue un estudio de corte transversal de 300 individuos Colombianos. La segunda, fue una revisión sistemática y una meta-regresión siguiendo las guías PRSIMA. Nuestros resultados ponen de manifiesto una falta de anti-transglutaminasa tisular (tTG) e IgA anti-endomisio (EMA) en la población Colombiana. En la revisión sistemática, 72 artículos cumplían con los criterios de selección, la prevalencia estimada de EC en LA fue de 0,46% a 0,64%, mientras que la prevalencia en familiares de primer grado fue de 5,5 a 5,6%, y en los pacientes con diabetes mellitus tipo 1 fue de 4,6% a 8,7% Conclusión: Nuestro estudio muestra que la prevalencia de EC en pacientes sanos de LA es similar a la notificada en la población europea.
Resumo:
ANTECEDENTES: El aislamiento de células fetales libres o ADN fetal en sangre materna abre una ventana de posibilidades diagnósticas no invasivas para patologías monogénicas y cromosómicas, además de permitir la identificación del sexo y del RH fetal. Actualmente existen múltiples estudios que evalúan la eficacia de estos métodos, mostrando resultados costo-efectivos y de menor riesgo que el estándar de oro. Este trabajo describe la evidencia encontrada acerca del diagnóstico prenatal no invasivo luego de realizar una revisión sistemática de la literatura. OBJETIVOS: El objetivo de este estudio fue reunir la evidencia que cumpla con los criterios de búsqueda, en el tema del diagnóstico fetal no invasivo por células fetales libres en sangre materna para determinar su utilidad diagnóstica. MÉTODOS: Se realizó una revisión sistemática de la literatura con el fin de determinar si el diagnóstico prenatal no invasivo por células fetales libres en sangre materna es efectivo como método de diagnóstico. RESULTADOS: Se encontraron 5,893 artículos que cumplían con los criterios de búsqueda; 67 cumplieron los criterios de inclusión: 49.3% (33/67) correspondieron a estudios de corte transversal, 38,8% (26/67) a estudios de cohortes y el 11.9% (8/67) a estudios casos y controles. Se obtuvieron resultados de sensibilidad, especificidad y tipo de prueba. CONCLUSIÓN: En la presente revisión sistemática, se evidencia como el diagnóstico prenatal no invasivo es una técnica feasible, reproducible y sensible para el diagnóstico fetal, evitando el riesgo de un diagnóstico invasivo.
Resumo:
: Los métodos imagenológicos para evaluar los nódulos tiroideos han sido motivo de estudio en las últimas décadas, especialmente la ecografía sobresale sobre las otras modalidades diagnósticas por su accesibilidad, portabilidad, y seguridad. A pesar de ello, las características ecográficas de cada nódulo han sido objeto de controversia en cuanto a su potencial detección de malignidad o benignidad. Se presenta un estudio de concordancia entre el estudio citopatológico y la ecografía para la caracterización nódulos tiroideos de naturaleza maligna y benigna, y su análisis de pruebas diagnósticas. Metodología: Se realizó un estudio descriptivo de concordancia con estudio de pruebas diagnósticas anidado. Se escogieron todos los pacientes con nódulos tiroideos a quienes se les realizó ecografía y estudio citopatológico de la lesión y se estudiaron los hallazgos ecográficos para evaluar su potencial diagnóstico para malignidad. Se incluyeron un total de 100 pacientes con nódulos tiroideos potencialmente malignos. La concordancia entre la ecografía en modo B y el estudio citopatológico fue moderada (índice kappa 0.55). La característica con mayor potencial para detectar malignidad fue la presencia de Microcalcificaciones (sensibilidad 75%, especificidad 92%).
Resumo:
El canal lumbar estrecho de tipo degenerativo, es una enfermedad que se presenta en pacientes entre la quinta y la sexta década de vida; es la causa más común de cirugía lumbar después de los 65 años. Este trabajo busca determinar cuáles son los factores asociados a la presentación de eventos adversos o re-intervención en cirugía de canal lumbar estrecho en la Fundación Santa Fe de Bogotá en los años comprendidos entre 2003 y 2013. Métodos: se realizó un estudio de prevalencia de tipo analítico, en donde se analizaron 249 pacientes sometidos a intervención quirúrgica por cirugía de canal lumbar estrecho.
Resumo:
Este artículo pretende realizar una revisión de la literatura vigente acerca del asma ocupacional secundaria a la exposición de los factores de riesgo identificados en peluquería. Se realizó una búsqueda sistemática en las bases de datos PubMed y Cochrane de artículos de revistas indexadas con las palabras claves “Asthma occupational, hairdressers, hairdresser, work related asthma”. Aplicando los criterios de selección descritos, se revisaron 26 artículos en total donde se incluían reportes de casos, estudios de prevalencia, incidencia, corte transversa y revisiones, abarcando principalmente los temas de epidemiologia, fisiopatología, diagnóstico y prevención. Se agruparon según la metodología PRISMA para su respectiva comparación. Se concluyó que a pesar de la importancia de esta patología en el sector de peluquería, existen factores asociados como la informalidad del sector, la falta de estudios de investigación originales de cohorte o el desconocimiento de un protocolo claro de diagnóstico en este tipo de trabajadores, que limitan datos concluyentes acerca de la misma. Sin embargo, la mayoría de los autores concluye la relación entre la patología y la labor de peluquería, así falte esclarecer los mecanismos fisiopatológicos relacionados con los alérgenos identificados.
Resumo:
INTRODUCCIÓN: El 80% de los niños y adolescentes con trastornos del espectro autista (TEA) presenta algún trastorno del sueño, en cuya génesis al parecer intervienen alteraciones en la regulación de la melatonina. El objetivo de este metaanálisis fue determinar la eficacia y seguridad de la melatonina para el manejo de ciertos trastornos del sueño en niños con TEA. MÉTODOS: Tres revisores extrajeron los datos relevantes de los ensayos clínicos aleatorizados doble ciego de alta calidad publicados en bases de datos primarias, de ensayos clínicos, de revisiones sistemáticas y de literatura gris; además se realizó búsqueda en bola de nieve. Se analizaron los datos con RevMan 5.3. Se realizó un análisis del inverso de la varianza por un modelo de efectos aleatorios para las diferencias de medias de los desenlaces propuestos: duración del tiempo total, latencia de sueño y número de despertares nocturnos. Se evaluó la heterogeneidad interestudios con el parámetro I2 RESULTADOS: La búsqueda inicial arrojó 355 resultados, de los cuales tres cumplieron los criterios de selección. La melatonina resultó ser un medicamento seguro y eficaz para aumentar la duración total del sueño y disminuir la latencia de sueño en niños y adolescentes con TEA; hasta el momento la evidencia sobre el número de despertares nocturnos no es estadísticamente significativa. DISCUSIÓN: A la luz de la evidencia disponible, la melatonina es una elección segura y eficaz para el manejo de ciertos problemas del sueño en niños y adolescentes con TEA. Es necesario realizar estudios con mayores tamaños muestrales y comparados con otros medicamentos disponibles en el mercado.
Resumo:
The idea of an expressive component in research is important to the architectural industry. The expressive element - the possibility of expressing the qualitative aspects of the world and adding something new to the existing through experiments and proposals - is characteristic for the field. All research environments, in the science tradition and in the humanities, have their characteristics. On the one hand, they live up to certain common scientific and methodological criteria - originality and transparency – and on the other hand, they have different practices, using different methods. Research is ‘coloured’ by traditions and professions, and research in architecture should be coloured too, taking into consideration that the practice of architects stretches from natural science and sociology to art and that the most important way in which the architect achieves new cognition is through work with form and space – drawings, models and completed works. Probably all good design is informed by some kind of research – research- based design. But can research arise from design?
Resumo:
This article results from three conferences organized by the research project titled “Architectural research framework” developed by the research center Architectural Lab – LabART – of the Lusófona University, and also by my personal experiences and dialogs with other members of the EAAE research committee. Architectural research always existed, but only recently some major questions have emerged, by the time that Europe started the last universitary reform on the 80’s. Two aspects are crucial in understanding the problematic that we are referring to. On the one hand we verify that the architectural teaching should maintain the articulation and close relationship between the theoretical and practical aspects. On the other hand, there is a need to confer academic degrees, as the MsC and PhD’s in the Faculties of Architecture. Inevitably, discussions began about the scientificity of architecture (its grounding), the types of research, methodological models, as well as on the evaluation criteria and the quality of research, or the relevance of the results. We will try to approach some of these discussions, and by the end, establish a basic structure that allows us to obtain an open model for research in architecture.
Resumo:
The interannual variability of the hydrological cycle is diagnosed from the Hadley Centre and Geophysical Fluid Dynamics Laboratory (GFDL) climate models, both of which are forced by observed sea surface temperatures. The models produce a similar sensitivity of clear-sky outgoing longwave radiation to surface temperature of ∼2 W m−2 K−1, indicating a consistent and positive clear-sky radiative feedback. However, differences between changes in the temperature lapse-rate and the height dependence of moisture fluctuations suggest that contrasting mechanisms bring about this result. The GFDL model appears to give a weaker water vapor feedback (i.e., changes in specific humidity). This is counteracted by a smaller upper tropospheric temperature response to surface warming, which implies a compensating positive lapse-rate feedback.
Resumo:
The paper considers meta-analysis of diagnostic studies that use a continuous score for classification of study participants into healthy or diseased groups. Classification is often done on the basis of a threshold or cut-off value, which might vary between studies. Consequently, conventional meta-analysis methodology focusing solely on separate analysis of sensitivity and specificity might be confounded by a potentially unknown variation of the cut-off value. To cope with this phenomena it is suggested to use, instead, an overall estimate of the misclassification error previously suggested and used as Youden’s index and; furthermore, it is argued that this index is less prone to between-study variation of cut-off values. A simple Mantel–Haenszel estimator as a summary measure of the overall misclassification error is suggested, which adjusts for a potential study effect. The measure of the misclassification error based on Youden’s index is advantageous in that it easily allows an extension to a likelihood approach, which is then able to cope with unobserved heterogeneity via a nonparametric mixture model. All methods are illustrated at hand of an example on a diagnostic meta-analysis on duplex doppler ultrasound, with angiography as the standard for stroke prevention.
Resumo:
In Central Brazil, the long-term sustainability of beef cattle systems is under threat over vast tracts of farming areas, as more than half of the 50 million hectares of sown pastures are suffering from degradation. Overgrazing practised to maintain high stocking rates is regarded as one of the main causes. High stocking rates are deliberate and crucial decisions taken by the farmers, which appear paradoxical, even irrational given the state of knowledge regarding the consequences of overgrazing. The phenomenon however appears inextricably linked with the objectives that farmers hold. In this research those objectives were elicited first and from their ranking two, ‘asset value of cattle (representing cattle ownership)' and ‘present value of economic returns', were chosen to develop an original bi-criteria Compromise Programming model to test various hypotheses postulated to explain the overgrazing behaviour. As part of the model a pasture productivity index is derived to estimate the pasture recovery cost. Different scenarios based on farmers' attitudes towards overgrazing, pasture costs and capital availability were analysed. The results of the model runs show that benefits from holding more cattle can outweigh the increased pasture recovery and maintenance costs. This result undermines the hypothesis that farmers practise overgrazing because they are unaware or uncaring about overgrazing costs. An appropriate approach to the problem of pasture degradation requires information on the economics, and its interplay with farmers' objectives, for a wide range of pasture recovery and maintenance methods. Seen within the context of farmers' objectives, some level of overgrazing appears rational. Advocacy of the simple ‘no overgrazing' rule is an insufficient strategy to maintain the long-term sustainability of the beef production systems in Central Brazil.
Resumo:
In Central Brazil, the long-term, sustainability of beef cattle systems is under threat over vast tracts of farming areas, as more than half of the 50 million hectares of sown pastures are suffering from. degradation. Overgrazing practised to maintain high stocking rates is regarded as one of the main causes. High stocking rates are deliberate and crucial decisions taken by the farmers, which appear paradoxical, even irrational given the state of knowledge regarding the consequences of overgrazing. The phenomenon however appears inextricably linked with the objectives that farmers hold. In this research those objectives were elicited first and from their ranking two, 'asset value of cattle (representing cattle ownership and 'present value of economic returns', were chosen to develop an original bi-criteria Compromise Programming model to test various hypotheses postulated to explain the overgrazing behaviour. As part of the model a pasture productivity index is derived to estimate the pasture recovery cost. Different scenarios based on farmers' attitudes towards overgrazing, pasture costs and capital availability were analysed. The results of the model runs show that benefits from holding more cattle can outweigh the increased pasture recovery and maintenance costs. This result undermines the hypothesis that farmers practise overgrazing because they are unaware or uncaring caring about overgrazing costs. An appropriate approach to the problem of pasture degradation requires information on the economics,and its interplay with farmers' objectives, for a wide range of pasture recovery and maintenance methods. Seen within the context of farmers' objectives, some level of overgrazing appears rational. Advocacy of the simple 'no overgrazing' rule is an insufficient strategy to maintain the long-term sustainability of the beef production systems in Central Brazil. (C) 2004 Elsevier Ltd. All rights reserved.
Resumo:
A range of funding schemes and policy instruments exist to effect enhancement of the landscapes and habitats of the UK. While a number of assessments of these mechanisms have been conducted, little research has been undertaken to compare both quantitatively and qualitatively their relative effectiveness across a range of criteria. It is argued that few tools are available for such a multi-faceted evaluation of effectiveness. A form of Multiple Criteria Decision Analysis (MCDA) is justified and utilized as a framework in which to evaluate the effectiveness of nine mechanisms in relation to the protection of existing areas of chalk grassland and the creation of new areas in the South Downs of England. These include established schemes, such as the Countryside Stewardship and Environmentally Sensitive Area Schemes, along with other less common mechanisms, for example, land purchase and tender schemes. The steps involved in applying an MCDA to evaluate such mechanisms are identified and the process is described. Quantitative results from the comparison of the effectiveness of different mechanisms are presented, although the broader aim of the paper is that of demonstrating the performance of MCDA as a tool for measuring the effectiveness of mechanisms aimed at landscape and habitat enhancement.
Resumo:
The paper considers meta-analysis of diagnostic studies that use a continuous Score for classification of study participants into healthy, or diseased groups. Classification is often done on the basis of a threshold or cut-off value, which might vary between Studies. Consequently, conventional meta-analysis methodology focusing solely on separate analysis of sensitivity and specificity might he confounded by a potentially unknown variation of the cut-off Value. To cope with this phenomena it is suggested to use, instead an overall estimate of the misclassification error previously suggested and used as Youden's index and; furthermore, it is argued that this index is less prone to between-study variation of cut-off values. A simple Mantel-Haenszel estimator as a summary measure of the overall misclassification error is suggested, which adjusts for a potential study effect. The measure of the misclassification error based on Youden's index is advantageous in that it easily allows an extension to a likelihood approach, which is then able to cope with unobserved heterogeneity via a nonparametric mixture model. All methods are illustrated at hand of an example on a diagnostic meta-analysis on duplex doppler ultrasound, with angiography as the standard for stroke prevention.