936 resultados para Sensitivity and Specificity


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Microarray technology is a high-throughput method for genotyping and gene expression profiling. Limited sensitivity and specificity are one of the essential problems for this technology. Most of existing methods of microarray data analysis have an apparent limitation for they merely deal with the numerical part of microarray data and have made little use of gene sequence information. Because it's the gene sequences that precisely define the physical objects being measured by a microarray, it is natural to make the gene sequences an essential part of the data analysis. This dissertation focused on the development of free energy models to integrate sequence information in microarray data analysis. The models were used to characterize the mechanism of hybridization on microarrays and enhance sensitivity and specificity of microarray measurements. ^ Cross-hybridization is a major obstacle factor for the sensitivity and specificity of microarray measurements. In this dissertation, we evaluated the scope of cross-hybridization problem on short-oligo microarrays. The results showed that cross hybridization on arrays is mostly caused by oligo fragments with a run of 10 to 16 nucleotides complementary to the probes. Furthermore, a free-energy based model was proposed to quantify the amount of cross-hybridization signal on each probe. This model treats cross-hybridization as an integral effect of the interactions between a probe and various off-target oligo fragments. Using public spike-in datasets, the model showed high accuracy in predicting the cross-hybridization signals on those probes whose intended targets are absent in the sample. ^ Several prospective models were proposed to improve Positional Dependent Nearest-Neighbor (PDNN) model for better quantification of gene expression and cross-hybridization. ^ The problem addressed in this dissertation is fundamental to the microarray technology. We expect that this study will help us to understand the detailed mechanism that determines sensitivity and specificity on the microarrays. Consequently, this research will have a wide impact on how microarrays are designed and how the data are interpreted. ^

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Alcohol consumption has a long-standing tradition in the United States Air Force (USAF). From squadron bars to officers and enlisted clubs, alcohol has been used in social settings to increase morale and also as a way to help decrease the stress of military operations. Surveys have demonstrated that the USAF has more than double the percentage of heavy drinkers than the US population. More than one-third of the Air Force reports binge drinking in the last month while only six percent of the nation reports the same consumption pattern.^ However, alcohol has a significant harmful health effect if consumed in excess. As part of an overall prevention and treatment program aimed at curbing the harmful effects of alcohol consumption, the USAF uses the Alcohol Use Disorder Identification Test (AUDIT) to screen for high-risk alcohol consumption patterns before alcohol disorder and disability occur. All Air Force active-duty members are required to complete a yearly Preventive Health Assessment questionnaire. Various health topics are included in this questionnaire including nutrition, exercise, tobacco use, family history, mental health and alcohol use. While this questionnaire has been available in a web-based format for several years, mandatory use was not implemented until 2009.^ Although the AUDIT was selected due to its effectiveness in assessing high-risk alcohol consumption in other populations, its effectiveness in the Air Force population had not been studied previously. In order to assess the sensitivity, specificity, and positive predictive value of this screening tool, the Air Force Web-based Preventive Health Assessment alcohol screening results were compared to whether any alcohol-related diagnosis was made from January 1, 2009 to March 31, 2010.^ While the AUDIT has previously been shown to have a high sensitivity and specificity, the Air Force screening values were 27.9% and 93.0% respectively. Positive predictive value was only 4.9%. With the screening statistics found, less than one-third of those having an alcohol disorder will be found with this screening tool and only 1 out of 20 Airmen who require further evaluation actually have an alcohol-related diagnosis.^

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nutrient intake and specific food item data from 24-hour dietary recalls were utilized to study the relationship between measures of diet diversity and dietary adequacy in a population of white females of child-bearing age and socioeconomic subgroups of that population. As the basis of the diet diversity measures, twelve food groups were constructed from the 24-hour recall data and the number of unique foods per food group counted and weighted according to specified weighting schemes. Utilizing these food groups, nine diet diversity indices were developed.^ Sensitivity/specificity analysis was used to determine the ability of varying levels of selected diet diversity indices to identify individuals above and below preselected intakes of different nutrients. The true prevalence proportions, sensitivity and specificity, false positive and false negative rates, and positive predictive values observed at the selected levels of diet diversity indices were investigated in relation to the objectives and resources of a variety of nutrition improvement programs. Diet diversity indices constructed from the total population data were evaluated as screening tools for respondent nutrient intakes in each of the socioeconomic subgroups as well.^ The results of the sensitivity/specificity analysis demonstrated that the false positive rate, the false negative rate, or both were too high at each diversity cut-off level to validate the widespread use of any of the diversity indices in the dietary assessment of the study population. Although diet diversity has been shown to be highly correlated with the intakes of a number of nutrients, the diet diversity indices constructed in this study did not adequately represent nutrient intakes in the diet as reported, in this study, intakes as reported in the 24-hour dietary recall. Specific cut-off levels of selected diversity indices might have limited application in some nutrition programs. The results were applicable to the sensitivity/specificity analyses in the socioeconomic subgroups as well as in the total population. ^

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Background: Lynch Syndrome (LS) is a familial cancer syndrome with a high prevalence of colorectal and endometrial carcinomas among affected family members. Clinical criteria, developed from information obtained from familial colorectal cancer registries, have been generated to identify individuals at elevated risk for having LS. In 2007, the Society of Gynecologic Oncology (SGO) codified criteria to assist in identifying women presenting with gynecologic cancers at elevated risk for having LS. These criteria have not been validated in a population-based setting. Materials and Methods: We retrospectively identified 412, unselected endometrial cancer cases. Clinical and pathologic information were obtained from the electronic medical record, and all tumors were tested for expression of the DNA mismatch repair proteins through immunohistochemistry. Tumors exhibiting loss of MSH2, MSH6 and PMS2 were designated as probable Lynch Syndrome (PLS). For tumors exhibiting immunohistochemical loss of MLH1, we used the PCR-based MLH1 methylation assay to delineate PLS tumors from sporadic tumors. Samples lacking methylation of the MLH1 promoter were also designated as PLS. The sensitivity and specificity for SGO criteria for detecting PLS tumors was calculated. We compared clinical and pathologic features of sporadic tumors and PLS tumors. A simplified cost-effectiveness analysis was also performed comparing the direct costs of utilizing SGO criteria vs. universal tumor testing. Results: In our cohort, 43/408 (10.5%) of endometrial carcinomas were designated as PLS. The sensitivity and specificity of SGO criteria to identify PLS cases were 32.7 and 77%, respectively. Multivariate analysis of clinical and pathologic parameters failed to identify statistically significant differences between sporadic and PLS tumors with the exception of tumors arising from the lower uterine segment. These tumors were more likely to occur in PLS tumors. Cost-effectiveness analysis showed clinical criteria and universal testing strategies cost $6,235.27/PLS case identified and $5,970.38/PLS case identified, respectively. Conclusions: SGO 5-10% criteria successfully identify PLS cases among women who are young or have significant family history of LS related tumors. However, a larger proportion of PLS cases occurring at older ages with less significant family history are not detected by this screening strategy. Compared to SGO clinical criteria, universal tumor testing is a cost effective strategy to identify women presenting with endometrial cancer who are at elevated risk for having LS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objective The neurodevelopmental–neurodegenerative debate is a basic issue in the field of the neuropathological basis of schizophrenia (SCH). Neurophysiological techniques have been scarcely involved in such debate, but nonlinear analysis methods may contribute to it. Methods Fifteen patients (age range 23–42 years) matching DSM IV-TR criteria for SCH, and 15 sex- and age-matched control subjects (age range 23–42 years) underwent a resting-state magnetoencephalographic evaluation and Lempel–Ziv complexity (LZC) scores were calculated. Results Regression analyses indicated that LZC values were strongly dependent on age. Complexity scores increased as a function of age in controls, while SCH patients exhibited a progressive reduction of LZC values. A logistic model including LZC scores, age and the interaction of both variables allowed the classification of patients and controls with high sensitivity and specificity. Conclusions Results demonstrated that SCH patients failed to follow the “normal” process of complexity increase as a function of age. In addition, SCH patients exhibited a significant reduction of complexity scores as a function of age, thus paralleling the pattern observed in neurodegenerative diseases. Significance Our results support the notion of a progressive defect in SCH, which does not contradict the existence of a basic neurodevelopmental alteration. Highlights ► Schizophrenic patients show higher complexity values as compared to controls. ► Schizophrenic patients showed a tendency to reduced complexity values as a function of age while controls showed the opposite tendency. ► The tendency observed in schizophrenic patients parallels the tendency observed in Alzheimer disease patients.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Diabetes is the most common disease nowadays in all populations and in all age groups. diabetes contributing to heart disease, increases the risks of developing kidney disease, blindness, nerve damage, and blood vessel damage. Diabetes disease diagnosis via proper interpretation of the diabetes data is an important classification problem. Different techniques of artificial intelligence has been applied to diabetes problem. The purpose of this study is apply the artificial metaplasticity on multilayer perceptron (AMMLP) as a data mining (DM) technique for the diabetes disease diagnosis. The Pima Indians diabetes was used to test the proposed model AMMLP. The results obtained by AMMLP were compared with decision tree (DT), Bayesian classifier (BC) and other algorithms, recently proposed by other researchers, that were applied to the same database. The robustness of the algorithms are examined using classification accuracy, analysis of sensitivity and specificity, confusion matrix. The results obtained by AMMLP are superior to obtained by DT and BC.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

From the last decades, infrared thermography is quite often associated with things other than clinical medicine. For example, the chemical, automobile, aeronautic industries and civil engineering. However, thermography is where infrared images of the breast are analyzed by board certified thermographers and an abnormal thermogram is reported as the significant risk for the existence of breast tumor (Ng, 2009). Thermography is a painless, noninvasive, no radiation, as well as being cheaper and faster, easier access. The aim of this review was to identify the views of clinicians on the use of thermography for quantifying the risk of breast cancer. We used articles published recently in a reliable database. Thermography has been convicted over the years; it has been labeled by subjective interpretation. Most of the reviewed articles agree that mammography is currently the main examination chosen by doctors for the screening of breast cancer (Acharya et al., 2010; Kennedy et al., 2009). However, several studies have reported promising results for the technique (Wang et al., 2010). Additionally, some authors suggest that thermography is complementary to other diagnostic methods, and that the best strategy for the early detection of breast cancer would be to use them together (Kennedy et al., 2009; Hersh, 2004). The combination of thermal imaging with other tests would increase accuracy, sensitivity and specificity of the evaluation and allow a better quantification of the risk of breast cancer.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo principal de esta tesis doctoral es profundizar en el análisis y diseño de un sistema inteligente para la predicción y control del acabado superficial en un proceso de fresado a alta velocidad, basado fundamentalmente en clasificadores Bayesianos, con el prop´osito de desarrollar una metodolog´ıa que facilite el diseño de este tipo de sistemas. El sistema, cuyo propósito es posibilitar la predicción y control de la rugosidad superficial, se compone de un modelo aprendido a partir de datos experimentales con redes Bayesianas, que ayudar´a a comprender los procesos dinámicos involucrados en el mecanizado y las interacciones entre las variables relevantes. Dado que las redes neuronales artificiales son modelos ampliamente utilizados en procesos de corte de materiales, también se incluye un modelo para fresado usándolas, donde se introdujo la geometría y la dureza del material como variables novedosas hasta ahora no estudiadas en este contexto. Por lo tanto, una importante contribución en esta tesis son estos dos modelos para la predicción de la rugosidad superficial, que se comparan con respecto a diferentes aspectos: la influencia de las nuevas variables, los indicadores de evaluación del desempeño, interpretabilidad. Uno de los principales problemas en la modelización con clasificadores Bayesianos es la comprensión de las enormes tablas de probabilidad a posteriori producidas. Introducimos un m´etodo de explicación que genera un conjunto de reglas obtenidas de árboles de decisión. Estos árboles son inducidos a partir de un conjunto de datos simulados generados de las probabilidades a posteriori de la variable clase, calculadas con la red Bayesiana aprendida a partir de un conjunto de datos de entrenamiento. Por último, contribuimos en el campo multiobjetivo en el caso de que algunos de los objetivos no se puedan cuantificar en números reales, sino como funciones en intervalo de valores. Esto ocurre a menudo en aplicaciones de aprendizaje automático, especialmente las basadas en clasificación supervisada. En concreto, se extienden las ideas de dominancia y frontera de Pareto a esta situación. Su aplicación a los estudios de predicción de la rugosidad superficial en el caso de maximizar al mismo tiempo la sensibilidad y la especificidad del clasificador inducido de la red Bayesiana, y no solo maximizar la tasa de clasificación correcta. Los intervalos de estos dos objetivos provienen de un m´etodo de estimación honesta de ambos objetivos, como e.g. validación cruzada en k rodajas o bootstrap.---ABSTRACT---The main objective of this PhD Thesis is to go more deeply into the analysis and design of an intelligent system for surface roughness prediction and control in the end-milling machining process, based fundamentally on Bayesian network classifiers, with the aim of developing a methodology that makes easier the design of this type of systems. The system, whose purpose is to make possible the surface roughness prediction and control, consists of a model learnt from experimental data with the aid of Bayesian networks, that will help to understand the dynamic processes involved in the machining and the interactions among the relevant variables. Since artificial neural networks are models widely used in material cutting proceses, we include also an end-milling model using them, where the geometry and hardness of the piecework are introduced as novel variables not studied so far within this context. Thus, an important contribution in this thesis is these two models for surface roughness prediction, that are then compared with respecto to different aspects: influence of the new variables, performance evaluation metrics, interpretability. One of the main problems with Bayesian classifier-based modelling is the understanding of the enormous posterior probabilitiy tables produced. We introduce an explanation method that generates a set of rules obtained from decision trees. Such trees are induced from a simulated data set generated from the posterior probabilities of the class variable, calculated with the Bayesian network learned from a training data set. Finally, we contribute in the multi-objective field in the case that some of the objectives cannot be quantified as real numbers but as interval-valued functions. This often occurs in machine learning applications, especially those based on supervised classification. Specifically, the dominance and Pareto front ideas are extended to this setting. Its application to the surface roughness prediction studies the case of maximizing simultaneously the sensitivity and specificity of the induced Bayesian network classifier, rather than only maximizing the correct classification rate. Intervals in these two objectives come from a honest estimation method of both objectives, like e.g. k-fold cross-validation or bootstrap.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introdução: O diagnóstico histológico das estenoses biliares é fundamental na definição da terapêutica a ser empregada, devido à heterogeneidade dos resultados dos estudos comparando o uso do escovado citológico e da biópsia transpapilar na colangiopancreatografia retrógada endoscópica (CPRE) com a punção aspirativa ecoguiada com agulha fina (ECO-PAAF) no diagnóstico histológico da estenose biliar maligna, e o fato de não existirem revisões sistemáticas e metanálises comparando esses métodos, este estudo propõe comparar esses dois métodos no diagnóstico histológico da estenose biliar maligna, através de revisão sistemática e metanálise da literatura. Métodos: Utilizando as bases de dados eletrônicas Medline, Embase, Cochrane, LILACS, CINAHL, e Scopus foram pesquisados estudos datados anteriormente a novembro de 2014. De um total de 1009 estudos publicados, foram selecionados três estudos prospectivos comparando ECO-PAAF e CPRE no diagnóstico histológico da estenose biliar maligna e cinco estudos transversais comparando ECO-PAAF com o mesmo padrão-ouro dos outros três estudos comparativos. Todos os pacientes foram submetidos ao mesmo padrão-ouro. Foram calculadas as variáveis do estudo (prevalência, sensibilidade, especificidade, valores preditivos positivos e negativos e acurácia) e realizada a metanálise utilizando os softwares Rev Man 5 e Meta-DiSc 1.4. Resultados: Um total de 294 pacientes foi incluído na análise. A probabilidade pré-teste para estenose biliar maligna foi de 76,66%. As sensibilidades médias da CPRE e da ECO-PAAF para o diagnóstico histológico da estenose biliar maligna foram de 49% e 76,5%, respectivamente; especificidades foram de 96,33% e 100%, respectivamente. As probabilidades pós-teste também foram determinadas: valores preditivos positivos de 98,33% e 100%, respectivamente, e valores preditivos negativos de 34% e 58,87%. As acurácias foram 60,66% e 82,25%, respectivamente. Conclusão: A ECO-PAAF é superior a CPRE com escovado citológico e/ou biópsia transpapilar no diagnóstico histológico da estenose biliar maligna. No entanto, um teste de ECO-PAAF ou CPRE com amostra histológica negativa não pode excluir a estenose biliar maligna, pois ambos os testes apresentam baixo valor preditivo negativo

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A lesão do plexo braquial é considerada a alteração neural mais grave das extremidades. A principal causa é o trauma de alta energia, especialmente acidentes envolvendo veículos a motor. Por este motivo, as lesões traumáticas do plexo braquial são cada vez mais frequentes. O presente estudo avaliou a acurácia da ressonância magnética (RM) no diagnóstico das lesões traumáticas do plexo braquial no adulto, utilizando o achado intraoperatório como padrão-ouro. Também foi avaliada a acurácia da neurografia pesada em difusão (neurografia DW) em relação à RM convencional e a capacidade de diferenciação dos três tipos de lesão: avulsão, ruptura e lesão em continuidade. Trinta e três pacientes com história e diagnóstico clínico de lesão traumática do plexo braquial foram prospectivamente estudados por RM. Os achados obtidos pela RM sem e com o uso da neurografia DW, e os achados de exame clínico foram comparados com os achados intraoperatórios. A análise estatística foi feita com associação de significância de 5%. Observou-se alta correlação entre a RM com neurografia DW e a cirurgia (rs=0,79), e baixa correlação entre a RM convencional e a cirurgia (rs=0,41). A correlação interobservador foi maior para a RM com neurografia DW (rs = 0,94) do que para a RM sem neurografia DW (rs = 0,75). Os resultados de sensibilidade, acurácia e valor preditivo positivo foram acima de 95% para as RM com e sem neurografia DW no estudo de todo o plexo. As especificidades foram, em geral, maiores para a neurografia DW (p < 0,05). Em relação à diferenciação dos tipos de lesão, a RM com neurografia DW apresentou altas acurácias e sensibilidades no diagnóstico da avulsão/rotura, e alta especificidade no diagnóstico da lesão em continuidade. A acurácia da RM (93,9%) foi significativamente maior que a do exame clínico (76,5%) no diagnóstico das lesões de todo o plexo braquial (p < 0,05).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A redução da mortalidade é um objetivo fundamental das unidades de terapia intensiva pediátrica (UTIP). O estágio de gravidade da doença reflete a magnitude das comorbidades e distúrbios fisiológicos no momento da internação e pode ser avaliada pelos escores prognósticos de mortalidade. Os dois principais escores utilizados na UTIP são o Pediatric Risk of Mortality (PRISM) e o Pediatric Index of Mortality (PIM). O PRISM utiliza os piores valores de variáveis fisiológicas e laboratoriais nas primeiras 24 horas de internação enquanto o PIM2 utiliza dados da primeira hora de internação na UTIP e apenas uma gasometria arterial. Não há consenso na literatura, entre PRISM e PIM2, quanto à utilidade e padronização na admissão na terapia intensiva para as crianças e adolescentes, principalmente em uma UTI de nível de atendimento terciário. O objetivo do estudo foi estabelecer o escore de melhor performance na avaliação do prognóstico de mortalidade que seja facilmente aplicável na rotina da UTIP, para ser utilizado de forma padronizada e contínua. Foi realizado um estudo retrospectivo onde foram revisados os escores PRISM e PIM2 de 359 pacientes internados na unidade de terapia intensiva pediátrica do Instituto da Criança do Hospital das Clínicas da Faculdade de Medicina da USP, considerada uma unidade de atendimento de nível terciário. A mortalidade foi de 15%, o principal tipo de admissão foi clinico (78%) sendo a principal causa de internação a disfunção respiratória (37,3%). Os escores dos pacientes que foram a óbito mostraram-se maiores do que o dos sobreviventes. Para o PRISM foi 15 versus 7 (p = 0,0001) e para o PIM2, 11 versus 5 (p = 0,0002), respectivamente. Para a amostra geral, o Standardized Mortality Ratio (SMR) subestimou a mortalidade tanto para o PIM2 quanto para o PRISM [1,15 (0,84 - 1,46) e 1,67 (1,23 - 2,11), respectivamente]. O teste de Hosmer-Lemeshow mostrou calibração adequada para ambos os escores [x2 = 12,96 (p = 0,11) para o PRISM e x2 = 13,7 (p = 0,09) para o PIM2]. A discriminação, realizada por meio da área sob a curva ROC, foi mais adequada para o PRISM do que para o PIM2 [0,76 (IC 95% 0,69 - 0,83) e 0,65 (IC 95% 0,57 - 0,72), respectivamente, p= 0,002]. No presente estudo, a melhor sensibilidade e especificidade para o risco de óbito do PRISM foi um escore entre 13 e 14, mostrando que, com o avanço tecnológico, o paciente precisa ter um escore mais elevado, ou seja, maior gravidade clínica do que a população original, para um maior risco de mortalidade. Os escores de gravidade podem ter seus resultados modificados em consequência: do sistema de saúde (público ou privado), da infraestrutura da UTIP (número de leitos, recursos humanos, parque tecnológico) e indicação da internação. A escolha de um escore de gravidade depende das características individuais da UTIP, como o tempo de espera na emergência, presença de doença crônica complexa (por exemplo, pacientes oncológicos) e como é realizado o transporte para a UTIP. Idealmente, estudos multicêntricos têm maior significância estatística. No entanto, estudos com populações maiores e mais homogêneas, especialmente nos países em desenvolvimento, são difíceis de serem realizados

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A esteatose hepática, que se caracteriza pelo acúmulo excessivo de gordura nas células do fígado, é um problema que vem preocupando a comunidade médico-científica, pois sua incidência vem aumentando a nível global, com expectativa de se tornar a doença crônica hepática de maior predominância em várias partes do mundo. Apesar de ser considerada uma doença benigna, a esteatose pode evoluir para doenças mais graves como cirrose, fibrose avançada, esteato hepatite (com ou sem fibrose) ou carcinoma. Entretanto, é potencialmente reversível, mesmo em quadros mais graves, o que reforça a urgência de se desenvolver métodos confiáveis para detecção e avaliação, inclusive ao longo de tratamento. Os métodos atuais para diagnóstico e quantificação da gordura hepática ainda são falhos: com a ultrassonografia não se é capaz de realizar quantificação; a tomografia computadorizada faz uso de radiação ionizante; a punção (biópsia), considerada o padrão ouro, é precisa, mas invasiva e pontual. A Ressonância Magnética (RM), tanto com espectroscopia (MRS) como com imagem (MRI), são alternativas completamente não invasivas, capazes de fornecer o diagnóstico e quantificação da gordura infiltrada no fígado. Entretanto, os trabalhos encontrados na literatura utilizam sequências de pulsos desenvolvidas especialmente para esse fim, com métodos de pós-processamento extremamente rebuscados, o que não é compatível com o estado atual dos equipamentos encontrados em ambientes clínicos nem mesmo ao nível de experiência e conhecimento das equipes técnicas que atuam em clínicas de radiodiagnóstico. Assim, o objetivo central do presente trabalho foi avaliar o potencial da RM como candidato a método de diagnóstico e de quantificação de gordura em ambientes clínicos, utilizando, para isso, sequências de pulsos convencionais, disponíveis em qualquer sistema comercial de RM, com protocolos de aquisição e processamento compatíveis com àqueles realizados em exames clínicos, tanto no que se refere à simplicidade como ao tempo total de aquisição. Foram avaliadas diferentes abordagens de MRS e MRI utilizando a biópsia hepática como padrão de referência. Foram avaliados pacientes portadores de diabetes tipo II, que apresentam alta prevalência de esteatose hepática não alcoólica, além de grande variabilidade nos percentuais de gordura. Foram realizadas medidas de correlação, acurácia, sensibilidade e especificidade de cada uma das abordagens utilizadas. Todos os métodos avaliados apresentaram alto grau de correlação positiva (> 87%) com os dados obtidos de maneira invasiva, o que revela que os valores obtidos utilizando RM estão de acordo com aquilo observado pela biópsia hepática. Muito embora os métodos de processamento utilizados não sejam tão complexos quanto seriam necessários caso uma quantificação absoluta fosse desejada, nossas análises mostraram alta acurácia, especificidade e sensibilidade da RM na avaliação da esteatose. Em conclusão, a RM se apresenta, de fato, como uma excelente candidata para avaliar, de forma não invasiva, a fração de gordura hepática, mesmo quando se considera as limitações impostas por um ambiente clínico convencional. Isso sugere que essas novas metodologias podem começar a migrar para ambientes clínicos sem depender das sequências complexas e dos processamentos exóticos que estão descritos na literatura mais atual.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O diagnóstico da leishmaniose tegumentar (LT) baseia-se em critérios clínicos e epidemiológicos podendo ser confirmado por exames laboratoriais de rotina como a pesquisa direta do parasito por microscopia e a intradermorreação de Montenegro. Atualmente, os métodos moleculares, principalmente a reação da cadeia da polimerase (PCR), têm sido considerados para aplicação em amostras clínicas, devido a sua alta sensibilidade e especificidade. Este trabalho teve como objetivo a padronização e validação das técnicas de PCR-RFLP com diferentes iniciadores (kDNA, its1, hsp70 e prp1), visando o diagnóstico e a identificação das espécies de Leishmania presentes em amostras de DNA provenientes de lesões de pele ou mucosa de 140 pacientes com suspeita de leishmaniose tegumentar. Para tal, realizamos ensaios de: 1) sensibilidade das PCRs com os diferentes iniciadores, 2) especificidade dos ensaios utilizando DNAs de diferentes espécies de referência de Leishmania, de tripanossomatídeos inferiores e de fungos, 3) validação das técnicas de PCR-RFLP com os iniciadores estudados em amostras de DNA de lesões de pele ou mucosas de pacientes com LT. Os resultados dos ensaios de limiar de detecção das PCR (sensibilidade) mostraram que os quatro iniciadores do estudo foram capazes de detectar o DNA do parasito, porém em quantidades distintas: até 500 fg com os iniciadores para kDNA e its1, até 400 fg com hsp70 e até 5 ng com prp1. Quanto à especificidade dos iniciadores, não houve amplificação dos DNAs fúngicos. Por outro lado, nos ensaios com os iniciadores para kDNA e hsp70, verificamos amplificação do fragmento esperado em amostras de DNA de tripanossomatídeos. Nos ensaios com its1 e prp1, o padrão de amplificação com os DNAs de tripanossomatídeos foi diferente do apresentado pelas espécies de Leishmania. Verificou-se nos ensaios de validação que o PCR-kDNA detectou o parasito em todas as 140 amostras de DNA de pacientes e, assim, foi utilizado como critério de inclusão das amostras. A PCR-its1 apresentou menor sensibilidade, mesmo após a reamplificação com o mesmo iniciador (85,7% ou 120/140 amostras). Para os ensaios da PCR-hsp70, as amostras de DNA foram amplificadas com Repli G, para obter uma sensibilidade de 68,4% (89/140 amostras). A PCR-prp1 não detectou o parasito em amostras de DNA dos pacientes. Quanto aos ensaios para a identificação da espécie presente na lesão, a PCR-kDNA-RFLP-HaeIII e a PCR-its1- RFLP-HaeIII permitem a distinção de L. (L.) amazonensis das outras espécies pertencentes ao subgênero Viannia. A PCR-hsp70-RFLP-HaeIII-BstUI, apesar de potencialmente ser capaz de identificar as seis espécies de Leishmania analisadas, quando utilizada na avaliação das amostras humanas permitiu apenas a identificação de L. (V.) braziliensis. No entanto, é uma técnica com várias etapas e de difícil execução, o que pode inviabilizar o seu uso rotineiro em centros de referência em diagnósticos. Assim, recomendamos o uso dessa metodologia apenas em locais onde várias espécies de Leishmania sejam endêmicas. Finalmente, os resultados indicam que o kDNA-PCR devido à alta sensibilidade apresentada e facilidade de execução pode ser empregada como exame de rotina nos centros de referência, permitindo a confirmação ou exclusão da LT.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trabalho Final do Curso de Mestrado Integrado em Medicina, Faculdade de Medicina, Universidade de Lisboa, 2014

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A apoptose constitui um processo fisiológico de morte celular, caracterizado por alterações morfológicas distintas e mecanismos bioquímicos e moleculares bem definidos. O seu papel de destaque em numerosos eventos biológicos e importantes processos patológicos conduziu a um crescente interesse na investigação dos mecanismos celulares que regulam o processo apoptótico. A aplicação de metodologias capazes de identificar células apoptóticas despoletou um enorme desenvolvimento de técnicas. No entanto, as propriedades demonstradas por estes ensaios nem sempre se aplicam ao estudo de amostras tecidulares, pelo que a escolha dos diferentes métodos deverá ser criteriosamente avaliada, tendo em conta a aplicação pretendida e as alterações morfológicas que se pretendem detetar. Das várias técnicas disponíveis para deteção da apoptose em tecidos, muitos investigadores recomendam o método TUNEL, o qual se baseia na marcação de produtos endonucleossómicos resultantes da fragmentação do DNA. Outros métodos histoquímicos também disponíveis incluem a deteção do citocromo c, libertado da mitocôndria ou a deteção das proteínas pró e anti-apoptóticas, Bax, Bidm e Bcl-2, envolvidas nos mecanismos intrínsecos da apoptose. Mais recentemente, a marcação de produtos específicos resultantes da clivagem de proteínas alvo pelas caspases, tem vindo a ser considerada uma abordagem promissora. Como principal objectivo deste trabalho pretendeu-se avaliar a técnica imunohistoquímica como método de deteção da apoptose a nível celular, em tecidos animais, tendo por base o método TUNEL, o qual permite a deteção de fragmentos de DNA. Os resultados obtidos permitiram concluir que, apesar do método TUNEL possuir as suas limitações ao nível da sensibilidade e especificidade, o mesmo constitui um mecanismo imunohistoquímico útil na deteção de células apoptóticas. Contudo, segundo opinião de vários autores, adverte-se para a necessidade da aplicação de pelo menos dois métodos imunohistoquímicos como forma de validar a ocorrência do processo apoptótico, razão pela qual se optou pela deteção do citocromo c citosólico como método complementar, uma vez que a sua libertação para o espaço citosólico se encontra implicada na ativação da apoptose.