989 resultados para time dependence
Resumo:
Our purposes are to determine the impact of histological factors observed in zero-time biopsies on early post transplant kidney allograft function. We specifically want to compare the semi-quantitative Banff Classification of zero time biopsies with quantification of % cortical area fibrosis. Sixty three zero-time deceased donor allograft biopsies were retrospectively semiquantitatively scored using Banff classification. By adding the individual chronic parameters a Banff Chronic Sum (BCS) Score was generated. Percentage of cortical area Picro Sirius Red (%PSR) staining was assessed and calculated with a computer program. A negative linear regression between %PSR/ GFR at 3 year post-transplantation was established (Y=62.08 +-4.6412X; p=0.022). A significant negative correlation between arteriolar hyalinosis (rho=-0.375; p=0.005), chronic interstitial (rho=0.296; p=0.02) , chronic tubular ( rho=0.276; p=0.04) , chronic vascular (rho= -0.360;P=0.007), BCS (rho=-0.413; p=0.002) and GFR at 3 years were found. However, no correlation was found between % PSR, Ci, Ct or BCS. In multivariate linear regression the negative predictive factors of 3 years GFR were: BCS in histological model; donor kidney age, recipient age and black race in clinical model. The BCS seems a good and easy to perform tool, available to every pathologist, with significant predictive short-term value. The %PSR predicts short term kidney function in univariate study and involves extra-routine and expensive-time work. We think that %PSR must be regarded as a research instrument.
Resumo:
The study of agent diffusion in biological tissues is very important to understand and characterize the optical clearing effects and mechanisms involved: tissue dehydration and refractive index matching. From measurements made to study the optical clearing, it is obvious that light scattering is reduced and that the optical properties of the tissue are controlled in the process. On the other hand, optical measurements do not allow direct determination of the diffusion properties of the agent in the tissue and some calculations are necessary to estimate those properties. This fact is imposed by the occurrence of two fluxes at optical clearing: water typically directed out of and agent directed into the tissue. When the water content in the immersion solution is approximately the same as the free water content of the tissue, a balance is established for water and the agent flux dominates. To prove this concept experimentally, we have measured the collimated transmittance of skeletal muscle samples under treatment with aqueous solutions containing different concentrations of glucose. After estimating the mean diffusion time values for each of the treatments we have represented those values as a function of glucose concentration in solution. Such a representation presents a maximum diffusion time for a water content in solution equal to the tissue free water content. Such a maximum represents the real diffusion time of glucose in the muscle and with this value we could calculate the corresponding diffusion coefficient.
Resumo:
Real-time monitoring applications may be used in a wireless sensor network (WSN) and may generate packet flows with strict quality of service requirements in terms of delay, jitter, or packet loss. When strict delays are imposed from source to destination, the packets must be delivered at the destination within an end-to-end delay (EED) hard limit in order to be considered useful. Since the WSN nodes are scarce both in processing and energy resources, it is desirable that they only transport useful data, as this contributes to enhance the overall network performance and to improve energy efficiency. In this paper, we propose a novel cross-layer admission control (CLAC) mechanism to enhance the network performance and increase energy efficiency of a WSN, by avoiding the transmission of potentially useless packets. The CLAC mechanism uses an estimation technique to preview packets EED, and decides to forward a packet only if it is expected to meet the EED deadline defined by the application, dropping it otherwise. The results obtained show that CLAC enhances the network performance by increasing the useful packet delivery ratio in high network loads and improves the energy efficiency in every network load.
Resumo:
Atmospheric temperatures characterize Earth as a slow dynamics spatiotemporal system, revealing long-memory and complex behavior. Temperature time series of 54 worldwide geographic locations are considered as representative of the Earth weather dynamics. These data are then interpreted as the time evolution of a set of state space variables describing a complex system. The data are analyzed by means of multidimensional scaling (MDS), and the fractional state space portrait (fSSP). A centennial perspective covering the period from 1910 to 2012 allows MDS to identify similarities among different Earth’s locations. The multivariate mutual information is proposed to determine the “optimal” order of the time derivative for the fSSP representation. The fSSP emerges as a valuable alternative for visualizing system dynamics.
Resumo:
The last three decades have seen quite dramatic changes the way we modeled time dependent data. Linear processes have been in the center stage in modeling time series. As far as the second order properties are concerned, the theory and the methodology are very adequate.However, there are more and more evidences that linear models are not sufficiently flexible and rich enough for modeling purposes and that failure to account for non-linearities can be very misleading and have undesired consequences.
A real-time quantitative assay for hepatitis B DNA virus (HBV) developed to detect all HBV genotypes
Resumo:
Hepatitis B virus (HBV) is a major cause of chronic liver disease worldwide. Besides genotype, quantitative analysis of HBV infection is extensively used for monitoring disease progression and treatment. Affordable viral load monitoring is desirable in resource-limited settings and it has been already shown to be useful in developing countries for other viruses such as Hepatitis C virus (HCV) and HIV. In this paper, we describe the validation of a real-time PCR assay for HBV DNA quantification with TaqMan chemistry and MGB probes. Primers and probes were designed using an alignment of sequences from all HBV genotypes in order to equally amplify all of them. The assay is internally controlled and was standardized with an international HBV panel. Its efficacy was evaluated comparing the results with two other methods: Versant HBV DNA Assay 3.0 (bDNA, Siemens, NY, USA) and another real-time PCR from a reference laboratory. Intra-assay and inter-assay reproducibilities were determined and the mean of CV values obtained were 0.12 and 0.09, respectively. The assay was validated with a broad dynamic range and is efficient for amplifying all HBV genotypes, providing a good option to quantify HBV DNA as a routine procedure, with a cheap and reliable protocol.
Resumo:
The seroprevalence and geographic distribution of HTLV-1/2 among blood donors are extremely important to transfusion services. We evaluated the seroprevalence of HTLV-1/2 infection among first-time blood donor candidates in Ribeirão Preto city and region. From January 2000 to December 2010, 1,038,489 blood donations were obtained and 301,470 were first-time blood donations. All samples were screened with serological tests for HTLV-1/2 using enzyme immunoassay (EIA). In addition, the frequency of coinfection with hepatitis B virus (HBV), hepatitis C virus (HCV), human immunodeficiency virus (HIV), Chagas disease (CD) and syphilis was also determined. In-house PCR was used as confirmatory test for HTLV-1/2. A total of 296 (0.1%) first-time donors were serologically reactive for HTLV-1/2. Confirmatory PCR of 63 samples showed that 28 were HTLV-1 positive, 13 HTLV-2 positive, 19 negative and three indeterminate. Regarding HTLV coinfection rates, the most prevalent was with HBV (51.3%) and HCV (35.9%), but coinfection with HIV, CD and syphilis was also detected. The real number of HTLV-infected individual and coinfection rate in the population is underestimated and epidemiological studies like ours are very informative.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
A novel SYBR® green-real time polymerase chain reaction (qPCR) was developed to detect two Bartonellaspecies, B. henselae and B. clarridgeiae, directly from blood samples. The test was used in blood samples obtained from cats living in animal shelters in Southern Brazil. Results were compared with those obtained by conventional PCR targeting Bartonella spp. Among the 47 samples analyzed, eight were positive using the conventional PCR and 12 were positive using qPCR. Importantly, the new qPCR detected the presence of both B. henselae and B. clarridgeiae in two samples. The results show that the qPCR described here may be a reliable tool for the screening and differentiation of two important Bartonella species.
Resumo:
Objective: To assess quantitative real-time polymerase chain reaction (q-PCR) for the sputum smear diagnosis of pulmonary tuberculosis (PTB) in patients living with HIV/AIDS with a clinical suspicion of PTB.Method: This is a prospective study to assess the accuracy of a diagnostic test, conducted on 140 sputum specimens from 140 patients living with HIV/AIDS with a clinical suspicion of PTB, attended at two referral hospitals for people living with HIV/AIDS in the city of Recife, Pernambuco, Brazil. A Löwenstein-Jensen medium culture and 7H9 broth were used as gold standard.Results: Of the 140 sputum samples, 47 (33.6%) were positive with the gold standard. q-PCR was positive in 42 (30%) of the 140 patients. Only one (0.71%) did not correspond to the culture. The sensitivity, specificity and accuracy of the q-PCR were 87.2%, 98.9% and 95% respectively. In 39 (93%) of the 42 q-PCR positive cases, the CT (threshold cycle) was equal to or less than 37.Conclusion: q-PCR performed on sputum smears from patients living with HIV/AIDS demonstrated satisfactory sensitivity, specificity and accuracy, and may therefore be recommended as a method for diagnosing PTB.
Resumo:
A presente dissertação insere-se no âmbito da unidade curricular “ Dissertação” do 2º ano do mestrado em Engenharia Eletrotécnica – Sistemas Elétricos de Energia. Com o aumento crescente do número de consumidores de energia, é cada vez mais imperioso a adoção de medidas de racionalização e gestão dos consumos da energia elétrica. Existem diferentes tipos de dificuldades no planeamento e implementação de novas centrais produtoras de energia renovável, pelo que também por este motivo é cada vez mais importante adoção de medidas de gestão de consumos, quer ao nível dos clientes alimentados em média tensão como de baixa tensão. Desta forma será mais acessível a criação de padrões de eficiência energética elevados em toda a rede de distribuição de energia elétrica. Também a economia é afetada por uma fraca gestão dos consumos por parte dos clientes. Elevados desperdícios energéticos levam a que mais energia tenha que ser produzida, energia essa que contribui ainda mais para a elevada taxa de dependência energética em Portugal, e para o degradar da economia nacional. Coloca-se assim a necessidade de implementar planos e métodos que promovam a eficiência energética e a gestão racional de consumos de energia elétrica. Apresenta-se nesta dissertação várias propostas, algumas na forma de projetos já em execução, que visam sensibilizar o consumidor para a importância da utilização eficiente de energia e, ao mesmo tempo, disponibilizam as ferramentas tecnológicas adequadas para auxiliar a implementação dos métodos propostos. Embora os planos apresentados, sobejamente conhecidos, tenham imensa importância, a implementação nos vários consumidores de sistemas capazes de efetivamente reduzir consumos tem um papel fundamental. Equipamentos de gestão de consumos, que são apresentados nesta dissertação, permitem ao consumidor aceder diretamente ao seu consumo. Podem aceder não apenas ao consumo global da instalação mas também ao consumo específico por equipamento, permitindo perceber onde se verifica a situação mais desfavorável. Funcionalidades de programação de perfis tipo, com limitações de potência em vários períodos horários, bem como possibilidades de controlo remoto com recurso a aplicações para Smartphones permitem a redução de consumos ao nível da rede de distribuição e, desta forma, contribuir para a redução dos desperdícios e da dependência energética em Portugal. No âmbito do trabalho de dissertação é desenvolvida uma metodologia de comercialização de potência, que é apresentada nesta tese. Esta metodologia propõem que o consumidor, em função dos seus consumos, pague apenas a quantidade de potência que efetivamente necessita num certo período de tempo. Assim, o consumidor deixa de pagar uma tarifa mensal fixa associada á sua potência contratada, e passará a pagar um valor correspondente apenas à potência que efetivamente solicitou em todas as horas durante o mês. Nesta metodologia que é apresentada, o consumidor poderá também fazer uma análise do seu diagrama de cargas e simular uma alteração da sua tarifa, tarifa esta que varia entre tarifa simples, bi-horária semanal, bi-horária diária, tri-horária semanal ou tri-horária diária, de forma a perceber em qual destas pagará um menor valor pela mesma energia. De forma a que o consumidor possa perceber se haverá vantagem de uma alteração para uma potência contratada flexível, ou para uma outra tarifa associada á energia, tem ao seu dispor uma ferramenta, que em função dos seus consumos, permite retirar conclusões sobre o preço final a pagar na fatura, após cada tipo de alteração. Esta ferramenta foi validada com recurso a várias simulações, para diferentes perfis de consumidores. Desta forma, o utilizador fica a perceber que realmente pode poupar com uma potência contratada flexível, ao mesmo tempo que pode identificar-se com um perfil de simulação e, mais facilmente, perceber para que alteração tarifária pode usufruir de uma maior poupança.
Resumo:
Este estudo foi desenvolvido em contexto empresarial e apresenta o levantamento de uma oportunidade de melhoria conjunta nos processos de gestão de stocks, compras e logística com o objetivo de otimizar a seleção e envio dos artigos com necessidade de reposição. O caso de estudo apresentado neste documento retrata o circuito logístico entre uma empresa sediada em Angola e outra em Portugal. A primeira dedica-se à venda por grosso e a retalho que é fornecida pela segunda, onde também está concentrada a gestão de aprovisionamento. Integrando uma sociedade menos desenvolvida como Angola, a delicadeza e complexidade dos problemas associam-se à incerteza, tornando um ambiente propício para a identificação e implantação de melhorias nos processos de decisão, colmatando a dependência de apoio em sistemas e serviços externos. Com uma logística de abastecimento intercontinental, a seleção e envio de mercadoria é uma preocupação dos gestores, uma vez que o tempo de fornecimento é longo e poderá afetar a performance das vendas caso seja uma decisão não sustentada. Com o foco no apoio à decisão, desenvolveu-se uma ferramenta que incorpora os detalhes da atividade empresarial que permite selecionar os artigos para reposição, maximizando o seu potencial valor de vendas.
Resumo:
Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá