984 resultados para forecast deviation


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Interferon-beta (IFN-beta) therapy for multiple sclerosis (MS) is associated with a potential for induction of neutralizing antibodies (NAbs). Because immune reactivity depends on changes in lipoprotein metabolism, we investigated whether plasma lipoprotein profiles could be associated with the development of NAbs. Thirty-one female MS patients treated with subcutaneously administered IFN-beta were included. Demographic and clinical characteristics were compared between NAbs response groups using t tests for continuous and logistic regression analysis and Fisher's exact tests for categorical data, respectively. Multivariate logistic regression was used to evaluate the effect of potential confounders. Patients who developed NAbs had lower apoE levels before treatment, 67 (47-74) mg/L median (interquartile range), and at the moment of NAb analysis, 53 (50-84) mg/L, in comparison to those who remained NAb-negative, 83 (68-107) mg/L, P = 0.03, and 76 (66-87) mg/L, P = 0.04, respectively. When adjusting for age and smoking for a one-standard deviation decrease in apoE levels, a 5.6-fold increase in the odds of becoming NAb-positive was detected: odds ratios (OR) 0.18 (95% CI 0.04-0.77), P = 0.04. When adjusting for apoE, smoking habit became associated with NAb induction: OR 5.6 (95% CI 1.3-87), P = 0.03. These results suggest that apoE-containing lipoprotein metabolism and, possibly, tobacco smoking may be associated with risk of NAb production in female MS patients treated with IFN-beta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Carbamate compounds are an important group of cholinesterase inhibitors. There is a need for creating awareness regarding the risks of the inadequate carbamate use in the residential areas due to potential adverse human effects. Carbaryl is a commonly used pesticide worldwide. A simple, fast, and high throughput method was developed employing liquid chromatography with fluorescence detector to determine carbaryl residues in rat feces. The extraction was performed by using a rapid, easy, cheap, effective, reliable, and safe (QuEChERS) method, using acetonitrile as the extracting solvent. The parameters for the performance of the extraction method were optimized, such as ratio of mass of sample per volume of extraction solvent, QuEChERS content, and cleanup columns. Linear response was obtained for all calibration curves (solven and matrix-matched) over the established concentration range (5 500 mg/L) with a correlation coefficients higher than 0.999. The achieved recovery was 97.9% with relative standard deviation values of 1.1% (n D 4) at 167 mg/kg fortified concentration level and the limits of detection and quantification were 27.7 and 92.3 mg/kg respectively.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We consider an international trade economical model where two firms of different countries compete in quantities and can use three different strategies: (i) repeated collusion, (ii) deviation from the foreigner firm followed by punishment by the home country and then followed by repeated Cournot, or (iii) repeated deviation followed by punishment. In some cases (ii) and (iii) can be interpreted as dumping.We compute the profits of both firms for each strategy and we characterize the economical parameters where each strategy is adopted by the firms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eruca sativa (rocket salad) has been intensely consumed all over the world, insomuch as, this work was undertaken to evaluate the antioxidant status and the environmental contamination (positive and negative nutritional contribution) of leaves and stems from this vegetable. Antioxidant capacity of rocket salad was assessed by mean of optical methods, such as the total phenolic content (TPC), reducing power assay and DPPH radical scavenging activity. The extent of the environmental contamination was reached through the quantification of thirteen organochlorine pesticides (OCP) by using gas chromatography coupled with electron-capture detector (GC-ECD) and compound confirmations employing gas chromatography tandem mass-spectrometry (GC-MS/MS). The OCP residues were extracted by using Quick, Easy, Cheap, Effective, Rugged and Safe (QuEChERS) methodology.The extent of the environmental contamination was reached through the quantification of thirteen OCP by using gas chromatography coupled with electron-capture detector (GC-ECD) and compound confirmations employing GC-MS/MS. The OCP residues were extracted by using Quick, Easy, Cheap, Effective, Rugged and Safe (QuEChERS) methodology. This demonstrated that leaves presented more antioxidant activity than stems, emphasizing that leaves contained six times more polyphenolic compounds than stems. In what concerns the OCP occurrence, the average recoveries obtained at the three levels tested (40, 60 and 80 µg kg−1) ranged from 55% to 149% with a relative standard deviation of 11%, (except hexachrorobenzene). Three vegetables samples were collected from supermarkets and analysed following this study. According to data, only one sample achieved 16.21 of β-hexachlorocyclohexane, confirmed by GC-MS/MS. About OCP quantification, the data indicated that only one sample achieved 16.21 µg kg−1 of β-hexachlorocyclohexane, confirmed by GC-MS/MS, being the QuEChERS a good choice for the of OCPs extraction. Furthermore, the leaves consumption guaranty higher levels of antioxidants than stems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cloud data centers have been progressively adopted in different scenarios, as reflected in the execution of heterogeneous applications with diverse workloads and diverse quality of service (QoS) requirements. Virtual machine (VM) technology eases resource management in physical servers and helps cloud providers achieve goals such as optimization of energy consumption. However, the performance of an application running inside a VM is not guaranteed due to the interference among co-hosted workloads sharing the same physical resources. Moreover, the different types of co-hosted applications with diverse QoS requirements as well as the dynamic behavior of the cloud makes efficient provisioning of resources even more difficult and a challenging problem in cloud data centers. In this paper, we address the problem of resource allocation within a data center that runs different types of application workloads, particularly CPU- and network-intensive applications. To address these challenges, we propose an interference- and power-aware management mechanism that combines a performance deviation estimator and a scheduling algorithm to guide the resource allocation in virtualized environments. We conduct simulations by injecting synthetic workloads whose characteristics follow the last version of the Google Cloud tracelogs. The results indicate that our performance-enforcing strategy is able to fulfill contracted SLAs of real-world environments while reducing energy costs by as much as 21%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Forecasting future sales is one of the most important issues that is beyond all strategic and planning decisions in effective operations of retail businesses. For profitable retail businesses, accurate demand forecasting is crucial in organizing and planning production, purchasing, transportation and labor force. Retail sales series belong to a special type of time series that typically contain trend and seasonal patterns, presenting challenges in developing effective forecasting models. This work compares the forecasting performance of state space models and ARIMA models. The forecasting performance is demonstrated through a case study of retail sales of five different categories of women footwear: Boots, Booties, Flats, Sandals and Shoes. On both methodologies the model with the minimum value of Akaike's Information Criteria for the in-sample period was selected from all admissible models for further evaluation in the out-of-sample. Both one-step and multiple-step forecasts were produced. The results show that when an automatic algorithm the overall out-of-sample forecasting performance of state space and ARIMA models evaluated via RMSE, MAE and MAPE is quite similar on both one-step and multi-step forecasts. We also conclude that state space and ARIMA produce coverage probabilities that are close to the nominal rates for both one-step and multi-step forecasts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este documento apresenta uma avaliação sobre o uso dos simuladores fisiológicos como padrão para avaliação metrológica dos esfigmomanómetros automáticos na estimação da pressão sanguínea pelo método não invasivo (PNI). O presente estudo procurou avaliar o enquadramento destes equipamentos com os procedimentos das normas e recomendações usadas para apreciação metrológica dos esfigmomanómetros digitais. No contexto da prática metrológica existente determinou-se a existência de uma oportunidade de melhoria nos processos relacionados. O trabalho procurou obter resposta a diversas questões, relacionando a medição da pressão pelo método não invasivo, com o uso dos simuladores fisiológicos, o contexto em que estes podem ser usados, as formas de simulação, as medições e os resultados, procurando a perspetiva metrológica como enquadramento. As recomendações existentes [1] [2] [3] [4] [5] [6] [7] [8], são muito claras nos procedimentos, validação e nos desvios permitidos para os monitores da tensão arterial (MTA), equipamento que permite a avaliação dos parâmetros fisiológicos do paciente, no entanto, quando se pretende avançar para outro domínio, como o do uso dos simuladores, em particular para a simulação da PNI, não existem recomendações ou normas tão claras, e não existe sobretudo um padrão de referência que imite a natureza dinâmica que caracteriza a pressão sanguínea. O trabalho procurou ainda estabelecer a ligação entre o método clássico de auscultação (o principio de determinação da PS), a técnica digital de medição e os simuladores, para uma melhor compreensão do que é a pressão sanguínea, e como relacionar a problemática da simulação e a de um padrão de referência. Neste trabalho estão ainda presentes abordagens a diversos tópicos, como as validações clínicas, acessórios, ou a metrologia e que influenciam no final os equipamentos e o contexto que se pretende avaliar. Os diversos equipamentos testados procuraram conter amostras diversificadas, quer para os MTA de uso profissional ou doméstico, assim como para os simuladores. A avaliação dos simuladores foi realizada contra um grupo de MTAs. Foi testada a influência na medição, causada pela mudança de acessórios, ou seja, nos resultados, merecendo consideração pela perspetiva metrológica. No resumo dos testes e do estudo sobre este tema, verificou-se que esta tipologia de equipamentos pode contribuir como complemento do processo de calibração típico (estático). Não constitui por si só um método alternativo, mas permitiu estimar possíveis limites de erro e desvio padrão a partir da observação dos resultados práticos, limites esses inferiores aos processos de validação clínica. Atendendo às particularidades, estimou-se como desvio aceitável um erro mais desvio padrão de 5 + 3 mmHg para o processo de simulação. Contudo considera-se ainda importante os testes adicionais em que o simulador permite, ao verificar as medidas de segurança implementadas no equipamento e a condição dos acessórios, que como verificado afetam os resultados. No entanto nem todos os simuladores se mostram adequados a este processo pelo que a qualidade da seleção do equipamento para este fim pode eventualmente reduzir ainda mais os possíveis limites.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thesis submitted in the fulfillment of the requirements for the Degree of Master in Biomedical Engineering

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objective: To investigate the results of vaginal obliterate surgery in elderly women with pelvic organ prolapse. Design: observational retrospective study. Material and Methods: a total of 69 women with the diagnosis of pelvic prolapse were submitted to obliterative surgery in the urogynecology unit of a tertiary care hospital centre over the course of 8 years (2001 to 2008). The following data were collected from their clinical records: age, number of vaginal births, body mass index (BMI), hormone therapy, other existing diseases, type of prolapse and stage, anaesthetic risk score, duration of surgery, length of hospital stay, and short-term complications. Results: Of the 69 women studied, 31 were submitted to colpocleisis and the remaining 38 were managed by the LeFort technique. Mean age was 74.8 years with a standard deviation (sd) of 7.14 years. Average BMI was 26.2 (sd =3.76). Vaginal births were recorded in all patients. Only three patients were taking hormone therapy at the time of surgery. Sixty-three women were classified as having and anesthetic risk of II or III and 55 underwent local-regional anesthesia. Complications were reported in five cases, four of which in the first days after surgery. Nearly all were mild and resolved within the first 6 weeks. Conclusion: Complication rates appear to be low after obliterative surgery for pelvic organ prolapse in elderly women.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJECTIVE: The objective of the study was to develop a model for estimating patient 28-day in-hospital mortality using 2 different statistical approaches. DESIGN: The study was designed to develop an outcome prediction model for 28-day in-hospital mortality using (a) logistic regression with random effects and (b) a multilevel Cox proportional hazards model. SETTING: The study involved 305 intensive care units (ICUs) from the basic Simplified Acute Physiology Score (SAPS) 3 cohort. PATIENTS AND PARTICIPANTS: Patients (n = 17138) were from the SAPS 3 database with follow-up data pertaining to the first 28 days in hospital after ICU admission. INTERVENTIONS: None. MEASUREMENTS AND RESULTS: The database was divided randomly into 5 roughly equal-sized parts (at the ICU level). It was thus possible to run the model-building procedure 5 times, each time taking four fifths of the sample as a development set and the remaining fifth as the validation set. At 28 days after ICU admission, 19.98% of the patients were still in the hospital. Because of the different sampling space and outcome variables, both models presented a better fit in this sample than did the SAPS 3 admission score calibrated to vital status at hospital discharge, both on the general population and in major subgroups. CONCLUSIONS: Both statistical methods can be used to model the 28-day in-hospital mortality better than the SAPS 3 admission model. However, because the logistic regression approach is specifically designed to forecast 28-day mortality, and given the high uncertainty associated with the assumption of the proportionality of risks in the Cox model, the logistic regression approach proved to be superior.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thesis submitted to the Instituto Superior de Estatística e Gestão de Informação da Universidade Nova de Lisboa in partial fulfillment of the requirements for the Degree of Doctor of Philosophy in Information Management – Geographic Information Systems

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos o consumo de energia elétrica produzida a partir de fontes renováveis tem aumentado significativamente. Este aumento deve-se ao impacto ambiental que recursos como o petróleo, gás, urânio, carvão, entre outros, têm no meio ambiente e que são notáveis no diaa- dia com as alterações climáticas e o aquecimento global. Por sua vez, estes recursos têm um ciclo de vida limitado e a dada altura tornar-se-ão escassos. A preocupação de uma melhoria contínua na redução dos impactos ambientais levou à criação de Normas para uma gestão mais eficiente e sustentável do consumo de energia nos edifícios. Parte da eletricidade vendida pelas empresas de comercialização é produzida através de fontes renováveis, e com a recente publicação do Decreto de Lei nº 153/2014 de 20 outubro de 2014 que regulamenta o autoconsumo, permitindo que também os consumidores possam produzir a sua própria energia nas suas residências para reduzir os custos com a compra de eletricidade. Neste contexto surgiram os edifícios inteligentes. Por edifícios inteligentes entende-se que são edifícios construídos com materiais que os tornam mais eficientes, possuem iluminação e equipamentos elétricos mais eficientes, e têm sistemas de produção de energia que permitem alimentar o próprio edifício, para um consumo mais sustentado. Os sistemas implementados nos edifícios inteligentes visam a monitorização e gestão da energia consumida e produzida para evitar desperdícios de consumo. O trabalho desenvolvido visa o estudo e a implementação de Redes Neuronais Artificiais (RNA) para prever os consumos de energia elétrica dos edifícios N e I do ISEP/GECAD, bem como a previsão da produção dos seus painéis fotovoltáicos. O estudo feito aos dados de consumo permitiu identificar perfis típicos de consumo ao longo de uma semana e de que forma são influenciados pelo contexto, nomeadamente, com os dias da semana versus fim-de-semana, e com as estações do ano, sendo analisados perfis de consumo de inverno e verão. A produção de energia através de painéis fotovoltaicos foi também analisada para perceber se a produção atual é suficiente para satisfazer as necessidades de consumo dos edifícios. Também foi analisada a possibilidade da produção satisfazer parcialmente as necessidades de consumos específicos, por exemplo, da iluminação dos edifícios, dos seus sistemas de ar condicionado ou dos equipamentos usados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A liberalização dos mercados de energia elétrica e a crescente integração dos recursos energéticos distribuídos nas redes de distribuição, nomeadamente as unidades de produção distribuída, os sistemas de controlo de cargas através dos programas de demand response, os sistemas de armazenamento e os veículos elétricos, representaram uma evolução no paradigma de operação e gestão dos sistemas elétricos. Este novo paradigma de operação impõe o desenvolvimento de novas metodologias de gestão e controlo que permitam a integração de todas as novas tecnologias de forma eficiente e sustentável. O principal contributo deste trabalho reside no desenvolvimento de metodologias para a gestão de recursos energéticos no contexto de redes inteligentes, que contemplam três horizontes temporais distintos (24 horas, 1 hora e 5 minutos). As metodologias consideram os escalonamentos anteriores assim como as previsões atualizadas de forma a melhorar o desempenho total do sistema e consequentemente aumentar a rentabilidade dos agentes agregadores. As metodologias propostas foram integradas numa ferramenta de simulação, que servirá de apoio à decisão de uma entidade agregadora designada por virtual power player. Ao nível das metodologias desenvolvidas são propostos três algoritmos de gestão distintos, nomeadamente para a segunda (1 hora) e terceira fase (5 minutos) da ferramenta de gestão, diferenciados pela influência que os períodos antecedentes e seguintes têm no período em escalonamento. Outro aspeto relevante apresentado neste documento é o teste e a validação dos modelos propostos numa plataforma de simulação comercial. Para além das metodologias propostas, a aplicação permitiu validar os modelos dos equipamentos considerados, nomeadamente, ao nível das redes de distribuição e dos recursos energéticos distribuidos. Nesta dissertação são apresentados três casos de estudos, cada um com diferentes cenários referentes a cenários de operação futuros. Estes casos de estudos são importantes para verificar a viabilidade da implementação das metodologias e algoritmos propostos. Adicionalmente são apresentadas comparações das metodologias propostas relativamente aos resultados obtidos, complexidade de gestão em ambiente de simulação para as diferentes fases da ferramenta proposta e os benefícios e inconvenientes no uso da ferramenta proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos tem-se assistido à introdução de novos dispositivos de medição da poluição do ar baseados na utilização de sensores de baixo custo. A utilização menos complexa destes sistemas, possibilita a obtenção de dados com elevada resolução temporal e espacial, abrindo novas oportunidades para diferentes metodologias de estudos de monitorização da poluição do ar. Apesar de apresentarem capacidades analíticas distantes dos métodos de referência, a utilização destes sensores tem sido sugerida e incentivada pela União Europeia no âmbito das medições indicativas previstas na Diretiva 2008/50/CE, com uma incerteza expandida máxima de 25%. O trabalho desenvolvido no âmbito da disciplina de Projeto consistiu na escolha, caracterização e utilização em medições reais de um sensor de qualidade do ar, integrado num equipamento protótipo desenvolvido com esse fim, visando obtenção uma estimativa da incerteza de medição associada à utilização deste dispositivo através da aplicação da metodologia de demonstração de equivalência de métodos de medição de qualidade do ar definida pela União Europeia. A pesquisa bibliográfica realizada permitiu constatar que o monóxido de carbono é neste momento o parâmetro de qualidade do ar que permite ser medido de forma mais exata através da utilização de sensores, nomeadamente o sensor eletroquímico da marca Alphasense, modelo COB4, amplamente utilizado em projetos de desenvolvimento neste cotexto de monitorização ambiental. O sensor foi integrado num sistema de medição com o objetivo de poder ser utlizado em condições de autonomia de fornecimento de energia elétrica, aquisição interna dos dados, tendo em consideração ser o mais pequeno possível e de baixo custo. Foi utlizado um sistema baseado na placa Arduino Uno com gravação de dados em cartão de memória SD, baterias e painel solar, permitindo para além do registo das tensões elétricas do sensor, a obtenção dos valores de temperatura, humidade relativa e pressão atmosférica, com um custo global a rondar os 300 euros. Numa primeira fase foram executados um conjunto de testes laboratoriais que permitiram a determinação de várias características de desempenho em dois sensores iguais: tempo de resposta, a equação modelo do sensor, avaliação da repetibilidade, desvio de curto e longo termo, interferência da temperatura e histerese. Os resultados demonstraram um comportamento dos sensores muito linear, com um tempo de resposta inferior a um minuto e com uma equação modelo do sensor dependente da variação da temperatura. A estimativa da incerteza expandida laboratorial ficou, para ambos os sensores, abaixo dos 10%. Após a realização de duas campanhas reais de medição de CO em que os valores foram muito baixos, foi realizada uma campanha de quinze dias num parque de estacionamento subterrâneo que permitiu a obtenção de concentrações suficientemente elevadas e a comparação dos resultados dos sensores com o método de referência em toda a gama de medição (0 a 12 mol.mol-1). Os valores de concentração obtidos pelos dois sensores demonstraram uma excelente correlação com o método de referência (r2≥0,998), obtendo-se resultados para a estimativa da incerteza expandida de campo inferiores aos obtidos para a incerteza laboratorial, cumprindo o objetivo de qualidade de dados definido para as medições indicativas de incerteza expandida máxima de 25%. Os resultados observados durante o trabalho realizado permitiram confirmar o bom desempenho que este tipo de sensor pode ter no âmbito de medições de poluição do ar com um caracter mais indicativo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertation submitted in partial fulfillment of the requirements for the Degree of Master of Science in Geospatial Technologies.