50 resultados para Utility maximization

em Repositório Científico do Instituto Politécnico de Lisboa - Portugal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A crucial method for investigating patients with coronary artery disease (CAD) is the calculation of the left ventricular ejection fraction (LVEF). It is, consequently, imperative to precisely estimate the value of LVEF--a process that can be done with myocardial perfusion scintigraphy. Therefore, the present study aimed to establish and compare the estimation performance of the quantitative parameters of the reconstruction methods filtered backprojection (FBP) and ordered-subset expectation maximization (OSEM). Methods: A beating-heart phantom with known values of end-diastolic volume, end-systolic volume, and LVEF was used. Quantitative gated SPECT/quantitative perfusion SPECT software was used to obtain these quantitative parameters in a semiautomatic mode. The Butterworth filter was used in FBP, with the cutoff frequencies between 0.2 and 0.8 cycles per pixel combined with the orders of 5, 10, 15, and 20. Sixty-three reconstructions were performed using 2, 4, 6, 8, 10, 12, and 16 OSEM subsets, combined with several iterations: 2, 4, 6, 8, 10, 12, 16, 32, and 64. Results: With FBP, the values of end-diastolic, end-systolic, and the stroke volumes rise as the cutoff frequency increases, whereas the value of LVEF diminishes. This same pattern is verified with the OSEM reconstruction. However, with OSEM there is a more precise estimation of the quantitative parameters, especially with the combinations 2 iterations × 10 subsets and 2 iterations × 12 subsets. Conclusion: The OSEM reconstruction presents better estimations of the quantitative parameters than does FBP. This study recommends the use of 2 iterations with 10 or 12 subsets for OSEM and a cutoff frequency of 0.5 cycles per pixel with the orders 5, 10, or 15 for FBP as the best estimations for the left ventricular volumes and ejection fraction quantification in myocardial perfusion scintigraphy.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cloud SLAs compensate customers with credits when average availability drops below certain levels. This is too inflexible because consumers lose non-measurable amounts of performance being only compensated later, in next charging cycles. We propose to schedule virtual machines (VMs), driven by range-based non-linear reductions of utility, different for classes of users and across different ranges of resource allocations: partial utility. This customer-defined metric, allows providers transferring resources between VMs in meaningful and economically efficient ways. We define a comprehensive cost model incorporating partial utility given by clients to a certain level of degradation, when VMs are allocated in overcommitted environments (Public, Private, Community Clouds). CloudSim was extended to support our scheduling model. Several simulation scenarios with synthetic and real workloads are presented, using datacenters with different dimensions regarding the number of servers and computational capacity. We show the partial utility-driven driven scheduling allows more VMs to be allocated. It brings benefits to providers, regarding revenue and resource utilization, allowing for more revenue per resource allocated and scaling well with the size of datacenters when comparing with an utility-oblivious redistribution of resources. Regarding clients, their workloads’ execution time is also improved, by incorporating an SLA-based redistribution of their VM’s computational power.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper is an elaboration of the DECA algorithm [1] to blindly unmix hyperspectral data. The underlying mixing model is linear, meaning that each pixel is a linear mixture of the endmembers signatures weighted by the correspondent abundance fractions. The proposed method, as DECA, is tailored to highly mixed mixtures in which the geometric based approaches fail to identify the simplex of minimum volume enclosing the observed spectral vectors. We resort then to a statitistical framework, where the abundance fractions are modeled as mixtures of Dirichlet densities, thus enforcing the constraints on abundance fractions imposed by the acquisition process, namely non-negativity and constant sum. With respect to DECA, we introduce two improvements: 1) the number of Dirichlet modes are inferred based on the minimum description length (MDL) principle; 2) The generalized expectation maximization (GEM) algorithm we adopt to infer the model parameters is improved by using alternating minimization and augmented Lagrangian methods to compute the mixing matrix. The effectiveness of the proposed algorithm is illustrated with simulated and read data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Num mercado de electricidade competitivo onde existe um ambiente de incerteza, as empresas de geração adoptam estratégias que visam a maximização do lucro, e a minimização do risco. Neste contexto, é de extrema importância para desenvolver uma estratégia adequada de gestão de risco ter em conta as diferentes opções de negociação de energia num mercado liberalizado, de forma a suportar a tomada de decisões na gestão de risco. O presente trabalho apresenta um modelo que avalia a melhor estratégia de um produtor de energia eléctrica que comercializa num mercado competitivo, onde existem dois mercados possíveis para a transacção de energia: o mercado organizado (bolsa) e o mercado de contratos bilaterais. O produtor tenta maximizar seus lucros e minimizar os riscos correspondentes, seleccionando o melhor equilíbrio entre os dois mercados possíveis (bolsa e bilateral). O mercado de contratos bilaterais visa gerir adequadamente os riscos inerentes à operação de mercados no curto prazo (mercado organizado) e dar o vendedor / comprador uma capacidade real de escolher o fornecedor com que quer negociar. O modelo apresentado neste trabalho faz uma caracterização explícita do risco no que diz respeito ao agente de mercado na questão da sua atitude face ao risco, medido pelo Value at Risk (VaR), descrito neste trabalho por Lucro-em-Risco (PAR). O preço e os factores de risco de volume são caracterizados por um valor médio e um desvio padrão, e são modelizados por distribuições normais. Os resultados numéricos são obtidos utilizando a simulação de Monte Carlo implementado em Matlab, e que é aplicado a um produtor que mantém uma carteira diversificada de tecnologias de geração, para um horizonte temporal de um ano. Esta dissertação está organizada da seguinte forma: o capítulo 1, 2 e 3 descrevem o estado-da-arte relacionado com a gestão de risco na comercialização de energia eléctrica. O capítulo 4 descreve o modelo desenvolvido e implementado, onde é também apresentado um estudo de caso com uma aplicação do modelo para avaliar o risco de negociação de um produtor. No capítulo 5 são apresentadas as principais conclusões.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A energia eléctrica é um bem essencial para a maioria das sociedades. O seu fornecimento tem sido encarado como um serviço público, da responsabilidade dos governos, através de empresas monopolistas, públicas e privadas. O Mercado Ibérico de Electricidade (MIBEL) surge com o objectivo da integração e cooperação do sector eléctrico Português e Espanhol, no qual é possível negociar preços e volumes de energia. Actualmente, as entidades podem negociar através de um mercado bolsista ou num mercado de contratos bilaterais. Uma análise dos mercados de electricidade existentes mostra que estes estão longe de estarem liberalizados. As tarifas não reflectem o efeito da competitividade. Além disso, o recurso a contratos bilaterais limita frequentemente os clientes a um único fornecedor de energia eléctrica. Nos últimos anos, têm surgido uma série de ferramentas computacionais que permitem simular, parte ou a totalidade, dos mercados de electricidade. Contudo, apesar das suas potencialidades, muitos simuladores carecem de flexibilidade e generalidade. Nesta perspectiva, esta dissertação tem como principal objectivo o desenvolvimento de um simulador de mercados de energia eléctrica que possibilite lidar com as dificuldades inerentes a este novo modelo de mercado, recorrendo a agentes computacionais autónomos. A dissertação descreve o desenho e a implementação de um simulador simplificado para negociação de contratos bilaterais em mercados de energia, com particular incidência para o desenho das estratégias a utilizar pelas partes negociais. Além disso, efectua-se a descrição de um caso prático, com dados do MIBEL. Descrevem-se também várias simulações computacionais, envolvendo retalhistas e consumidores de energia eléctrica, que utilizam diferentes estratégias negociais. Efectua-se a análise detalhada dos resultados obtidos. De forma sucinta, os resultados permitem concluir que as melhores estratégias para cada entidade, no caso prático estudado, são: a estratégia de concessões fixas, para o retalhista, e a estratégia de concessões baseada no volume de energia, para o consumidor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Topology optimization consists in finding the spatial distribution of a given total volume of material for the resulting structure to have some optimal property, for instance, maximization of structural stiffness or maximization of the fundamental eigenfrequency. In this paper a Genetic Algorithm (GA) employing a representation method based on trees is developed to generate initial feasible individuals that remain feasible upon crossover and mutation and as such do not require any repairing operator to ensure feasibility. Several application examples are studied involving the topology optimization of structures where the objective functions is the maximization of the stiffness and the maximization of the first and the second eigenfrequencies of a plate, all cases having a prescribed material volume constraint.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Radiações Aplicadas às Tecnologias da Saúde. Área de especialização: Protecção contra Radiações

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada à Escola Superior de Educação de Lisboa para obtenção de grau de mestre em Ciências da Educação Especialização em Administração Escolar

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O sistema de telegestão é uma ferramenta que permite a gestão, em tempo real, de todo o sistema de abastecimento da Empresa Portuguesa das Águas Livres, S.A. (EPAL). Esta gestão pode ser conseguida desde a captação da água até à sua entrega ao cliente final, através dos meios de monitorização necessários às operações de comando que permitem controlar e manobrar à distância os acessórios do sistema (estações elevatórias, reservatórios, válvulas,…). A presente dissertação visa a divulgação e compilação de elementos fundamentais para a otimização das potencialidades que a telegestão oferece, abordando assim, dada a sua especificidade, um tema pouco divulgado mas de extrema importância a quem trabalha ou pretende trabalhar numa entidade gestora similar. Assim, a dissertação é constituída por seis capítulos que compreendem a caracterização do sistema de adução, transporte e distribuição da EPAL, a abordagem genérica das ferramentas de suporte à exploração do sistema, uma resenha histórica do sistema de telegestão na EPAL, bem como informações referentes ao atual sistema de telegestão, nomeadamente a sua arquitetura, principais funcionalidades, tais como o controlo de órgãos de manobra à distância e análise de parâmetros de qualidade em tempo real. Finalmente, apresentam-se algumas conclusões e recomendações para trabalhos futuros. Pretende-se assim que o presente documento contribua para uma aglutinação de informações relativas aos sistemas de telegestão para abastecimento de água, respetivas vantagens aliadas às suas funcionalidades, bem como a identificação de fragilidades do sistema que poderão ser aperfeiçoadas ou mesmo eliminadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Purpose/Introduction: To determine the clinical utility of pre-operative diffusion tensor (DT) tractography of the facial nerve in the vicinity of cerebellopontine angle (CPA) tumours. The location of the facial nerve was established pre-operatively by tractography and compared with in-vivo electrode stimulation during microsurgery of vestibular schwannomas and rare CPA masses (meningiomas and arachnoid cysts).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper addresses the problem of optimal positioning of surface bonded piezoelectric patches in sandwich plates with viscoelastic core and laminated face layers. The objective is to maximize a set of modal loss factors for a given frequency range using multiobjective topology optimization. Active damping is introduced through co-located negative velocity feedback control. The multiobjective topology optimization problem is solved using the Direct MultiSearch Method. An application to a simply supported sandwich plate is presented with results for the maximization of the first six modal loss factors. The influence of the finite element mesh is analyzed and the results are, to some extent, compared with those obtained using alternative single objective optimization. (C) 2013 Elsevier Ltd. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Audiovisual e Multimédia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aim - To identify clinical and/or genetic predictors of response to several therapies in Crohn’s disease (CD) patients. Methods - We included 242 patients with CD (133 females) aged (mean ± standard deviation) 39 ± 12 years and a disease duration of 12 ± 8 years. The single-nucleotide polymorphisms (SNPs) studied were ABCB1 C3435T and G2677T/A, IL23R G1142A, C2370A, and G9T, CASP9 C93T, Fas G670A and LgC844T, and ATG16L1 A898G. Genotyping was performed with real-time PCR with Taqman probes. Results - Older patients responded better to 5-aminosalicylic acid (5-ASA) and to azathioprine (OR 1.07, p = 0.003 and OR 1.03, p = 0.01, respectively) while younger ones responded better to biologicals (OR 0.95, p = 0.06). Previous surgery negatively influenced response to 5-ASA compounds (OR 0.25, p = 0.05), but favoured response to azathioprine (OR 2.1, p = 0.04). In respect to genetic predictors, we observed that heterozygotes for ATGL16L1 SNP had a significantly higher chance of responding to corticosteroids (OR 2.51, p = 0.04), while homozygotes for Casp9 C93T SNP had a lower chance of responding both to corticosteroids and to azathioprine (OR 0.23, p = 0.03 and OR 0.08, p = 0.02,). TT carriers of ABCB1 C3435T SNP had a higher chance of responding to azathioprine (OR 2.38, p = 0.01), while carriers of ABCB1 G2677T/A SNP, as well as responding better to azathioprine (OR 1.89, p = 0.07), had a lower chance of responding to biologicals (OR 0.31, p = 0.07), which became significant after adjusting for gender (OR 0.75, p = 0.005). Conclusions - In the present study, we were able to identify a number of clinical and genetic predictors of response to several therapies which may become of potential utility in clinical practice. These are preliminary results that need to be replicated in future pharmacogenomic studies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Linear unmixing decomposes a hyperspectral image into a collection of reflectance spectra of the materials present in the scene, called endmember signatures, and the corresponding abundance fractions at each pixel in a spatial area of interest. This paper introduces a new unmixing method, called Dependent Component Analysis (DECA), which overcomes the limitations of unmixing methods based on Independent Component Analysis (ICA) and on geometrical properties of hyperspectral data. DECA models the abundance fractions as mixtures of Dirichlet densities, thus enforcing the constraints on abundance fractions imposed by the acquisition process, namely non-negativity and constant sum. The mixing matrix is inferred by a generalized expectation-maximization (GEM) type algorithm. The performance of the method is illustrated using simulated and real data.