42 resultados para Computation laboratories


Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO: A Diabetes Mellitus é uma doença metabólica crónica, com deficiência a nível do metabolismo dos hidratos de carbono, lípidos e proteínas, resultante de deficiências na secreção ou ação da insulina, ou de ambas, que quando não tratada antecipadamente e de modo conveniente, pode ter consequências muito graves. Dado a incidência a nível mundial da Diabetes Mellitus, torna-se de elevada importância avaliar toda a sua envolvência e estudar bem quais os critérios a ter em consideração. Este trabalho propõe-se estudar para além dos parâmetros bioquímicos relacionados com a doença - Glicose e Hemoglobina Glicada A1c (HbA1c), analisar os resultados dos últimos cinco anos (2008-2012) dos ensaios interlaboratoriais do PNAEQ, do Departamento de Epidemiologia, do Instituto Nacional de Saúde Dr. Ricardo Jorge. Foram também analisadas as metodologias utilizadas e as variações interlaboratoriais, de forma a entender qual ou quais são os parâmetros mais adequados para o seu diagnóstico e controlo. Este estudo utilizou a população de laboratórios portugueses, públicos e privados, de Portugal Continental e Ilhas, um laboratório de Angola e outro de Macau que se inscreveram no PNAEQ nestes cinco anos, sendo a amostra composta pelo n.º de participações. No programa de Química Clinica foram distribuídas 38 amostras e no programa de HbA1c foram distribuídas 22 amostras. Para a glicose, o nível de desempenho nos ensaios é na globalidade das amostras de Excelente, no entanto verifica-se que sempre que a concentração da amostra é de nível patológico, que a maioria dos ensaios o desempenho foi inferior – Bom. O método de eleição e com CV% mais baixos foi o método da hexoquinase. Para a HbA1c, o nível de desempenho nos ensaios é na globalidade das amostras de Excelente. O método de eleição e com CV% mais baixos foi o método de HPLC. O CV% para a glicose ronda desde 2010 a 2012, os 3% e para a HbA1c foi de aproximadamente 4,0% em 2012. A HbA1c tem mostrado ser uma ferramenta muito útil, importante e robusta na monitorização da Diabetes, sendo hoje em dia quase sempre requisitada em análises de rotina a diabéticos de modo a prevenir complicações que possam vir a acorrer. No futuro poderá ser um importante, senão o parâmetro de futuro, para o diagnóstico da Diabetes, no entanto, mesmo já tendo sido muito trabalhada a sua padronização, ainda existem questões por responder como quais são na realidade todos os seus interferentes, qual a verdadeira relação da HbA1c com a glicose média estimada, em todas as populações e com estudos epidemiológicos. Também a própria educação do diabético e clínico deve ser aprimorada, pelo que neste momento as PTGO e os doseamentos de glicose em jejum devem ser utilizados e encontrando-se a Norma da DGS N.º 033/2011 de acordo com as necessidades e com o estado da arte deste parâmetro. A implementação da glicose média estimada será uma mais-valia na monitorização dos diabéticos pelo que deverá ser uma das prioridades a ter em conta no futuro desta padronização, uniformizando a decisão clinica baseada nela e minimizando a dificuldade de interpretação de resultados de laboratório para laboratório. --------------ABSTRACT: Diabetes Mellitus is a chronic metabolic disease, with a deficit in the metabolism of carbohydrates, lipids and proteins, resulting from deficiencies in insulin secretion or action, or both, which if, when not early treated in a proper way, may result in very serious consequences. Given the worldwide incidence of diabetes mellitus, it is highly important to evaluate all its background and study specifically all the criteria to take into consideration. The aim of this thesis is to study and evaluate beyond the biochemical parameters related to the disease - Glucose and Glycated Haemoglobin A1c (HbA1c), analyze the results of the last five years (2008-2012) of the PNAEQ interlaboratorial tests, in the Department of Epidemiology of National Institute of Health Dr. Ricardo Jorge. It is also intended to analyze the methodologies used and the interlaboratorial variations, in order to understand the most suitable parameters for the diagnosis and control. This study was based in a population of Portuguese laboratories, public and private, of Portugal mainland and islands, a laboratory of Angola and other from Macau, who enrolled in PNAEQ in these five years, and the sample was composed by the n. º of holdings. In the Clinical Chemistry Program there were distributed 38 samples and in the program HbA1c were distributed 22 samples. For glucose, the level of performance in the total nº of the samples was Excellent; however, it was found that when the concentration level of the sample was pathological, in most of the tests the performance was Good. The most preferred method with the lowest CV% is the hexokinase method. For the HbA1c, as a whole, the samples’ tests were Excellent, at the level of performance. The method of election with the lower CV% was the HPLC. The CV% for glucose was around 3%, from 2010 to 2012 and the HbA1c was approximately 4.0% in 2012. The HbA1c method has demonstrated to be a very useful tool, important and robust for monitoring diabetes, being nowadays, almost always required in routine analysis to prevent future complications. In the future it may be an important parameter, if not the most important, for the diagnosis of diabetes. However, despite it has already been standardized, there are still some questions that need to be answered, such as, which are in fact all their interferences, which is the true connection of HbA1c, when compared with the estimated average glucose, in all populations and epidemiological studies. Moreover, the education of the patient and the doctor concerning diabetes should be improved. Nowadays, the Oral Glucose Tolerance Test (OGTT) and fasting glucose determinations should be used and, the needs and the state of the art of this parameter, should be in accordance with the Standard DGS N. º 033/2011. The Implementation of the estimated average glucose will be an added value in monitoring diabetics and, therefore, should be a priority to consider in its future standardization and clinical decision based on it, will be uniform and the difficulty of interpreting results from laboratory to laboratory will be minimal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Informática

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Informática

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para a obtenção do Grau de Mestre em Engenharia e Gestão da Água

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO - A literatura disponível revela que a maioria dos erros relacionados com os exames anatomopatológicos ocorre na fase pré-analítica. Existem alguns estudos que quantificam e caracterizam estes erros mas, não foram encontrados artigos publicados sobre o tema em hospitais portugueses. Foi objetivo deste estudo determinar qual a prevalência e características dos erros pré-analíticos em amostras anatomopatológicas e as suas consequências para a segurança do doente. Analisaram-se 10574 casos de exames anatomopatológicos, de cinco hospitais da região de Lisboa e Vale do Tejo. Os serviços de anatomia patológica registaram e caracterizaram, durante vinte dias, erros detetados nas amostras anatomopatológicas com origem nos serviços requisitantes. Posteriormente os hospitais foram caracterizados quanto aos procedimentos relativos à fase pré-analítica. A prevalência de erros aferida foi de 3,1% (n=330), com um intervalo de confiança a 95% compreendido entre os valores 2,8% e 3,5%. Para além destes resultados destacam-se os seguintes pontos: i. As amostras histológicas têm 4,1% de prevalentes e as de citologia 0,9%; ii. Foram registados erros em 2,6% das requisições e em 1,5% dos contentores com as amostras; iii. A aceitação dos casos com erro é a ação mais frequente (66,9%), seguida pela devolução (24,4%) e retenção (8,7%); iv. Os hospitais com sistemas de notificação de erros e normas escritas para aceitação de amostras têm menor prevalência de erros; v. O impacte dos erros detetados na segurança dos doentes é difícil de determinar, sendo que os mais críticos relacionam-se com amostras devolvidas a fresco, meio de colheita inadequado ou com amostras danificadas. Este estudo permitiu determinar a prevalência e caracterizar os erros pré-analíticos envolvendo amostras anatomopatológicas em hospitais portugueses. Reflete a dimensão atual do problema e efetua recomendações para a sua mitigação. A prevalência de erros encontrada é inferior às publicadas em estudos semelhantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Work Project, presented as part of the requirements for the Award of a Masters Degree in Economics from the NOVA – School of Business and Economics

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diffusion Kurtosis Imaging (DKI) is a fairly new magnetic resonance imag-ing (MRI) technique that tackles the non-gaussian motion of water in biological tissues by taking into account the restrictions imposed by tissue microstructure, which are not considered in Diffusion Tensor Imaging (DTI), where the water diffusion is considered purely gaussian. As a result DKI provides more accurate information on biological structures and is able to detect important abnormalities which are not visible in standard DTI analysis. This work regards the development of a tool for DKI computation to be implemented as an OsiriX plugin. Thus, as OsiriX runs under Mac OS X, the pro-gram is written in Objective-C and also makes use of Apple’s Cocoa framework. The whole program is developed in the Xcode integrated development environ-ment (IDE). The plugin implements a fast heuristic constrained linear least squares al-gorithm (CLLS-H) for estimating the diffusion and kurtosis tensors, and offers the user the possibility to choose which maps are to be generated for not only standard DTI quantities such as Mean Diffusion (MD), Radial Diffusion (RD), Axial Diffusion (AD) and Fractional Anisotropy (FA), but also DKI metrics, Mean Kurtosis (MK), Radial Kurtosis (RK) and Axial Kurtosis (AK).The plugin was subjected to both a qualitative and a semi-quantitative analysis which yielded convincing results. A more accurate validation pro-cess is still being developed, after which, and with some few minor adjust-ments the plugin shall become a valid option for DKI computation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Throughout the brain, patterns of activity in postsynaptic neurons influence the properties of synaptic inputs. Such feedback regulation is central to neural network stability that underlies proper information processing and feature representation in the central nervous system. At the cellular level, tight coupling of presynaptic and postsynaptic function is fundamental to neural computation and synaptic plasticity. The cohort of protein complexes at the pre and postsynaptic membrane allows for tight synapse-specific segregation and integration of diverse molecular and electrical signals.(...)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The computational power is increasing day by day. Despite that, there are some tasks that are still difficult or even impossible for a computer to perform. For example, while identifying a facial expression is easy for a human, for a computer it is an area in development. To tackle this and similar issues, crowdsourcing has grown as a way to use human computation in a large scale. Crowdsourcing is a novel approach to collect labels in a fast and cheap manner, by sourcing the labels from the crowds. However, these labels lack reliability since annotators are not guaranteed to have any expertise in the field. This fact has led to a new research area where we must create or adapt annotation models to handle these weaklylabeled data. Current techniques explore the annotators’ expertise and the task difficulty as variables that influences labels’ correction. Other specific aspects are also considered by noisy-labels analysis techniques. The main contribution of this thesis is the process to collect reliable crowdsourcing labels for a facial expressions dataset. This process consists in two steps: first, we design our crowdsourcing tasks to collect annotators labels; next, we infer the true label from the collected labels by applying state-of-art crowdsourcing algorithms. At the same time, a facial expression dataset is created, containing 40.000 images and respective labels. At the end, we publish the resulting dataset.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Since the invention of photography humans have been using images to capture, store and analyse the act that they are interested in. With the developments in this field, assisted by better computers, it is possible to use image processing technology as an accurate method of analysis and measurement. Image processing's principal qualities are flexibility, adaptability and the ability to easily and quickly process a large amount of information. Successful examples of applications can be seen in several areas of human life, such as biomedical, industry, surveillance, military and mapping. This is so true that there are several Nobel prizes related to imaging. The accurate measurement of deformations, displacements, strain fields and surface defects are challenging in many material tests in Civil Engineering because traditionally these measurements require complex and expensive equipment, plus time consuming calibration. Image processing can be an inexpensive and effective tool for load displacement measurements. Using an adequate image acquisition system and taking advantage of the computation power of modern computers it is possible to accurately measure very small displacements with high precision. On the market there are already several commercial software packages. However they are commercialized at high cost. In this work block-matching algorithms will be used in order to compare the results from image processing with the data obtained with physical transducers during laboratory load tests. In order to test the proposed solutions several load tests were carried out in partnership with researchers from the Civil Engineering Department at Universidade Nova de Lisboa (UNL).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO: Temos assistido a uma evolução impressionante nos laboratórios de análises clínicas, os quais precisam de prestar um serviço de excelência a custos cada vez mais competitivos. Nos laboratórios os sistemas de gestão da qualidade têm uma importância significativa nesta evolução, fundamentalmente pela procura da melhoria continua, que ocorre não só ao nível de processos e técnicas, mas também na qualificação dos diferentes intervenientes. Um dos problemas fundamentais da gestão e um laboratório é a eliminação de desperdícios e erros criando benefícios, conceito base na filosofia LeanThinking isto é “pensamento magro”, pelo que é essencial conseguir monitorizar funções críticas sistematicamente. Esta monitorização, num laboratório cada vez mais focalizado no utente, pode ser efetuada através de sistemas e tecnologias de informação, sendo possível contabilizar número de utentes, horas de maior afluência, tempo médio de permanência na sala de espera, tempo médio para entrega de análises, resultados entregues fora da data prevista, entre outros dados de apoio à decisão. Devem igualmente ser analisadas as reclamações, bem como a satisfação dos utentes quer através do feedback que é transmitido aos funcionários, quer através de questionários de satisfação. Usou-se principalmente dois modelos: um proposto pelo Índice Europeu de Satisfação do Consumidor (ECSI) e o outro de Estrutura Comum de Avaliação (CAF). Introduziram-se igualmente dois questionários: um apresentado em formato digital num posto de colheitas, através de um quiosque eletrónico, e um outro na página da internet do laboratório, ambos como alternativa ao questionário em papel já existente, tendo-se analisado os dados, e retirado as devidas conclusões. Propôs-se e desenvolveu-se um questionário para colaboradores cuja intenção foi a de fornecer dados úteis de apoio à decisão, face à importância dos funcionários na interação com os clientes e na garantia da qualidade ao longo de todo o processo. Avaliaram-se globalmente os resultados sem que tenha sido possível apresentá-los por política interna da empresa, bem como se comentou de forma empírica alguns benefícios deste questionário. Os principais objetivos deste trabalho foram, implementar questionários de satisfação eletrónicos e analisar os resultados obtidos, comparando-os com o estudo ECSI, de forma a acentuar a importância da análise em simultâneo de dois fatores: a motivação profissional e a satisfação do cliente, com o intuito de melhorar os sistemas de apoio à decisão. ------------------------ ABSTRACT: We have witnessed an impressive development in clinical analysis laboratories, which have to provide excellent service at increasingly competitive costs, quality management systems have a significant importance in this evolution, mainly by demanding continuous improvement, which does not occur only in terms of processes and techniques, but also in the qualification of the various stakeholders. One key problem of managing a laboratory is the elimination of waste and errors, creating benefits, concept based on Lean Thinking philosophy, therefore it is essential be able to monitor critical tasks systematically. This monitoring, in an increasingly focused on the user laboratory can be accomplished through information systems and technologies, through which it is possible to account the number of clients, peak times, average length of waiting room stay, average time for delivery analysis, delivered results out of the expected date, among other data that contribute to support decisions, however it is also decisive to analyzed complaint sand satisfaction of users through employees feedback but mainly through satisfaction questionnaires that provides accurate results. We use mainly two models one proposed by the European Index of Consumer Satisfaction (ECSI), directed to the client, and the Common Assessment Framework (CAF), used both in the client as the employees surveys. Introduced two questionnaires in a digital format, one in the central laboratory collect center, through an electronic kiosk and another on the laboratory web page, both as an alternative to survey paper currently used, we analyzed the results, and withdrew the conclusions. It was proposed and developed a questionnaire for employees whose intention would be to provide useful data to decision support, given the importance of employees in customer interaction and quality assurance throughout the whole clinical process, it was evaluated in a general way because it was not possible to show the results, however commented an empirical way some benefits of this questionnaire. The main goals of this study were to implement electronic questionnaires and analyze the results, comparing them with the ECSI, in order to emphasize the importance of analyzing simultaneously professional motivation with customer satisfaction, in order to improve decision support systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This Work Project analyzes the evolution of the Portuguese personal income tax system’s progressivity over the period of 2005 through 2013. It presents the first computation of cardinal progressivity measures using administrative tax data for Portugal. We compute several progressivity indices and find that progressivity has had very modest variations from 2005 to 2012, whilst from 2012 to 2013 there has been a relatively stronger decrease, excluding the impact of the income tax surcharge of the years 2012 and 2013. When this latter is included, progressivity of 2012 and 2013 decreases considerably. Analyzing the effective average tax rates of the top income percentiles in the income scale, we find that these rates have increased over the period 2010–2013, suggesting that an analysis of effective tax rates is insufficient to assess progressivity in the whole tax scheme.