900 resultados para growth-survival trade-off


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Environmental problems, especially climate change, have become a serious global issue waiting for people to solve. In the construction industry, the concept of sustainable building is developing to reduce greenhouse gas emissions. In this study, a building information modeling (BIM) based building design optimization method is proposed to facilitate designers to optimize their designs and improve buildings’ sustainability. A revised particle swarm optimization (PSO) algorithm is applied to search for the trade-off between life cycle costs (LCC) and life cycle carbon emissions (LCCE) of building designs. In order tovalidate the effectiveness and efficiency of this method, a case study of an office building is conducted in Hong Kong. The result of the case study shows that this method can enlarge the searching space for optimal design solutions and shorten the processing time for optimal design results, which is really helpful for designers to deliver an economic and environmental friendly design scheme.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The development of 5G enabling technologies brings new challenges to the design of power amplifiers (PAs). In particular, there is a strong demand for low-cost, nonlinear PAs which, however, introduce nonlinear distortions. On the other hand, contemporary expensive PAs show great power efficiency in their nonlinear region. Inspired by this trade-off between nonlinearity distortions and efficiency, finding an optimal operating point is highly desirable. Hence, it is first necessary to fully understand how and how much the performance of multiple-input multiple-output (MIMO) systems deteriorates with PA nonlinearities. In this paper, we first reduce the ergodic achievable rate (EAR) optimization from a power allocation to a power control problem with only one optimization variable, i.e. total input power. Then, we develop a closed-form expression for the EAR, where this variable is fixed. Since this expression is intractable for further analysis, two simple lower bounds and one upper bound are proposed. These bounds enable us to find the best input power and approach the channel capacity. Finally, our simulation results evaluate the EAR of MIMO channels in the presence of nonlinearities. An important observation is that the MIMO performance can be significantly degraded if we utilize the whole power budget.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We consider a multi-pair two-way amplify-and-forward relaying system with a massive antenna array at the relay and estimated channel state information, assuming maximum-ratio combining/transmission processing. Closed-form approximations of the sum spectral effi- ciency are developed and simple analytical power scaling laws are presented, which reveal a fundamental trade-off between the transmit powers of each user/the relay and of each pilot symbol. Finally, the optimal power allocation problem is studied.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The speed of manufacturing processes today depends on a trade-off between the physical processes of production, the wider system that allows these processes to operate and the co-ordination of a supply chain in the pursuit of meeting customer needs. Could the speed of this activity be doubled? This paper explores this hypothetical question, starting with examination of a diverse set of case studies spanning the activities of manufacturing. This reveals that the constraints on increasing manufacturing speed have some common themes, and several of these are examined in more detail, to identify absolute limits to performance. The physical processes of production are constrained by factors such as machine stiffness, actuator acceleration, heat transfer and the delivery of fluids, and for each of these, a simplified model is used to analyse the gap between current and limiting performance. The wider systems of production require the co-ordination of resources and push at the limits of human biophysical and cognitive limits. Evidence about these is explored and related to current practice. Out of this discussion, five promising innovations are explored to show examples of how manufacturing speed is increasing—with line arrays of point actuators, parallel tools, tailored application of precision, hybridisation and task taxonomies. The paper addresses a broad question which could be pursued by a wider community and in greater depth, but even this first examination suggests the possibility of unanticipated innovations in current manufacturing practices.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The idea of proxying network connectivity has been proposed as an efficient mechanism to maintain network presence on behalf of idle devices, so that they can “sleep”. The concept has been around for many years; alternative architectural solutions have been proposed to implement it, which lead to different considerations about capability, effectiveness and energy efficiency. However, there is neither a clear understanding of the potential for energy saving nor a detailed performance comparison among the different proxy architectures. In this paper, we estimate the potential energy saving achievable by different architectural solutions for proxying network connectivity. Our work considers the trade-off between the saving achievable by putting idle devices to sleep and the additional power consumption to run the proxy. Our analysis encompasses a broad range of alternatives, taking into consideration both implementations already available in the market and prototypes built for research purposes. We remark that the main value of our work is the estimation under realistic conditions, taking into consideration power measurements, usage profiles and proxying capabilities.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A investigação em apreço tem como horizonte de ocorrência o espaço inter-organizacional onde as empresas se relacionam entre si, com os seus fornecedores, canais e Clientes. É pretendido estudar o actual estado das parcerias inter-organizacionais do sector segurador nacional e definir uma estratégia de desenvolvimento integrado dos sistemas de valor. Com base num modelo de análise ancorado na (1) racionalidade económica inscrita na TCE (teoria dos custos de transacção) e (2) na óptica das Capacidades Dinâmicas, é proposto o Modelo GPS (Gestão Integrada de Parcerias) compaginável com uma visão holística e dinâmica. A metodologia de verificação empírica compreendeu (1) recolha de dados através de questionário, dirigido a Companhias e Parceiros e (2) entrevistas semi-estruturadas. A análise descritiva dos dados permitiu validar o modelo GPS e caracterizar um sistema de valor heterogéneo, complexo e diversificado relativamente à natureza e intensidade de relacionamentos. O sistema de relacionamentos foi enquadrado numa escala de maturidade onde foram posicionadas as várias práticas de gestão de parcerias. Actualmente nos seguros estamos perante um sistema mais economic-intensive, transaccional, do que knowledge-intensive. No teste de hipóteses, efectuado com a ferramenta SPSS, assinalam-se as correlações que se esperavam encontrar, bem como as (principais) ausências. De facto, a ausência de vestígios de correlação entre governance social/confiança e colaboração nos seguros não era esperada e constitui uma chamada de atenção para uma dimensão sub-explorada, conducente a um quadro tensional. No final, com base na realidade captada, foram traçadas recomendações de desenvolvimento dos sistemas de valor visando alcançar níveis colaborativos mais eficazes, assentes na força dos laços fortes. Todavia, esta nova narrativa de gestão não é neutral face aos modelos vigentes, implicando algum grau de ruptura. A continuação de especialização em actividades core, desconstruindo de forma (mais) pronunciada a cadeia de valor, secundada por maior níveis de colaboração e socialização entre pares, são elementos constitutivos da realidade futura. Vendo para além da linha do horizonte, os gestores seguradores não podem ficar indiferentes à projecção de uma matriz de fundo de relacionamentos mais colaborativos enquanto terreno fértil de inovação e renovação de fontes de vantagem competitiva.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As comunicações quânticas aplicam as leis fundamentais da física quântica para codificar, transmitir, guardar e processar informação. A mais importante e bem-sucedida aplicação é a distribuição de chaves quânticas (QKD). Os sistemas de QKD são suportados por tecnologias capazes de processar fotões únicos. Nesta tese analisamos a geração, transmissão e deteção de fotões únicos e entrelaçados em fibras óticas. É proposta uma fonte de fotões única baseada no processo clássico de mistura de quatro ondas (FWM) em fibras óticas num regime de baixas potências. Implementamos essa fonte no laboratório, e desenvolvemos um modelo teórico capaz de descrever corretamente o processo de geração de fotões únicos. O modelo teórico considera o papel das nãolinearidades da fibra e os efeitos da polarização na geração de fotões através do processo de FWM. Analisamos a estatística da fonte de fotões baseada no processo clássico de FWM em fibras óticas. Derivamos um modelo teórico capaz de descrever a estatística dessa fonte de fotões. Mostramos que a estatística da fonte de fotões evolui de térmica num regime de baixas potências óticas, para Poissoniana num regime de potências óticas moderadas. Validamos experimentalmente o modelo teórico, através do uso de fotodetetores de avalanche, do método estimativo da máxima verossimilhança e do algoritmo de maximização de expectativa. Estudamos o processo espontâneo de FWM como uma fonte condicional de fotões únicos. Analisamos a estatística dessa fonte em termos da função condicional de coerência de segunda ordem, considerando o espalhamento de Raman na geração de pares de fotões, e a perda durante a propagação de fotões numa fibra ótica padrão. Identificamos regimes apropriados onde a fonte é quase ideal. Fontes de pares de fotões implementadas em fibras óticas fornecem uma solução prática ao problema de acoplamento que surge quando os pares de fotões são gerados fora da fibra. Exploramos a geração de pares de fotões através do processo espontâneo de FWM no interior de guias de onda com suceptibilidade elétrica de terceira ordem. Descrevemos a geração de pares de fotões em meios com elevado coeficiente de absorção, e identificamos regimes ótimos para o rácio contagens coincidentes/acidentais (CAR) e para a desigualdade de Clauser, Horne, Shimony, and Holt (CHSH), para o qual o compromisso entre perda do guia de onda e não-linearidades maximiza esses parâmetros.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nos últimos anos, o número de vítimas de acidentes de tráfego por milhões de habitantes em Portugal tem sido mais elevado do que a média da União Europeia. Ao nível nacional torna-se premente uma melhor compreensão dos dados de acidentes e sobre o efeito do veículo na gravidade do mesmo. O objetivo principal desta investigação consistiu no desenvolvimento de modelos de previsão da gravidade do acidente, para o caso de um único veículo envolvido e para caso de uma colisão, envolvendo dois veículos. Além disso, esta investigação compreendeu o desenvolvimento de uma análise integrada para avaliar o desempenho do veículo em termos de segurança, eficiência energética e emissões de poluentes. Os dados de acidentes foram recolhidos junto da Guarda Nacional Republicana Portuguesa, na área metropolitana do Porto para o período de 2006-2010. Um total de 1,374 acidentes foram recolhidos, 500 acidentes envolvendo um único veículo e 874 colisões. Para a análise da segurança, foram utilizados modelos de regressão logística. Para os acidentes envolvendo um único veículo, o efeito das características do veículo no risco de feridos graves e/ou mortos (variável resposta definida como binária) foi explorado. Para as colisões envolvendo dois veículos foram criadas duas variáveis binárias adicionais: uma para prever a probabilidade de feridos graves e/ou mortos num dos veículos (designado como veículo V1) e outra para prever a probabilidade de feridos graves e/ou mortos no outro veículo envolvido (designado como veículo V2). Para ultrapassar o desafio e limitações relativas ao tamanho da amostra e desigualdade entre os casos analisados (apenas 5.1% de acidentes graves), foi desenvolvida uma metodologia com base numa estratégia de reamostragem e foram utilizadas 10 amostras geradas de forma aleatória e estratificada para a validação dos modelos. Durante a fase de modelação, foi analisado o efeito das características do veículo, como o peso, a cilindrada, a distância entre eixos e a idade do veículo. Para a análise do consumo de combustível e das emissões, foi aplicada a metodologia CORINAIR. Posteriormente, os dados das emissões foram modelados de forma a serem ajustados a regressões lineares. Finalmente, foi desenvolvido um indicador de análise integrada (denominado “SEG”) que proporciona um método de classificação para avaliar o desempenho do veículo ao nível da segurança rodoviária, consumos e emissões de poluentes.Face aos resultados obtidos, para os acidentes envolvendo um único veículo, o modelo de previsão do risco de gravidade identificou a idade e a cilindrada do veículo como estatisticamente significativas para a previsão de ocorrência de feridos graves e/ou mortos, ao nível de significância de 5%. A exatidão do modelo foi de 58.0% (desvio padrão (D.P.) 3.1). Para as colisões envolvendo dois veículos, ao prever a probabilidade de feridos graves e/ou mortos no veículo V1, a cilindrada do veículo oposto (veículo V2) aumentou o risco para os ocupantes do veículo V1, ao nível de significância de 10%. O modelo para prever o risco de gravidade no veículo V1 revelou um bom desempenho, com uma exatidão de 61.2% (D.P. 2.4). Ao prever a probabilidade de feridos graves e/ou mortos no veículo V2, a cilindrada do veículo V1 aumentou o risco para os ocupantes do veículo V2, ao nível de significância de 5%. O modelo para prever o risco de gravidade no veículo V2 também revelou um desempenho satisfatório, com uma exatidão de 40.5% (D.P. 2.1). Os resultados do indicador integrado SEG revelaram que os veículos mais recentes apresentam uma melhor classificação para os três domínios: segurança, consumo e emissões. Esta investigação demonstra que não existe conflito entre a componente da segurança, a eficiência energética e emissões relativamente ao desempenho dos veículos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

De uma forma simples, esta é uma tese que associa a dimensão territorial à formulação de políticas públicas no âmbito dos Serviços de Interesse Geral, expressão atualmente utilizada no seio da Comissão Europeia em substituição do termo Serviços Públicos. O ponto de partida é o de que, particularmente nas últimas duas décadas, estes serviços tiveram de se adaptar a um mundo em mudança, quer ao nível das tendências políticas, quer do ponto de vista dos constrangimentos financeiros. A decisão sobre a afetação e distribuição de recursos tem, por isso, obtido uma atenção crescente no domínio das políticas públicas. Contudo, as decisões sobre a natureza, a abrangência e a distribuição dos recursos a prestar são complexas, envolvendo, não só critérios técnicos, mas também julgamentos de valor e a criação de consensos políticos. Esta questão é ainda mais premente numa conjuntura, por um lado, de contenção de gastos, no qual a procura de eficiência ganha maior preponderância, e, por outro, de incremento das próprias expectativas dos cidadãos, em que a ideia de equidade é valorada. Atendendo a este contexto, é natural que em diversos processos de tomada de decisão haja alguma tensão entre estes dois princípios, questionando-se sobre quanto é que se deve sacrificar da equidade a favor da eficiência e vice-versa. A presente investigação filia nestas inquietações. O argumento subjacente é o de que o princípio de Coesão Territorial, enquanto novo paradigma de desenvolvimento do território europeu e um dos mais recentes objetivos políticos da Comissão e dos estados-membros, contribui para ajudar a ponderar a relação equidade/eficiência em processos de decisão política sobre provisão de Serviços de Interesse Geral. A linha condutora de investigação centra-se na saúde (em geral) e nos cuidados de saúde (em particular) como exemplo de um serviço que, dada a sua importância na sociedade, justifica uma atenção especial das políticas públicas, mas que tem sido alvo de debate político e académico e de reorganização da sua estrutura na tentativa de diminuição dos custos associados, com repercussões do ponto de vista territorial. A esta questão acresce o facto de que pouco se conhece sobre quais os princípios e os critérios que estão na base de decisões políticas no campo da saúde e qual o papel que o território aqui ocupa. Para compreender se e como a dimensão territorial é considerada na formulação de políticas de saúde, bem como de que forma a adoção do princípio de coesão territorial na formulação de políticas públicas introduz um outro tipo de racionalidade aos processos de tomada de decisão, optou-se por uma metodologia de abordagem essencialmente qualitativa, baseada i) na realização de entrevistas semiestruturadas conduzidas presencialmente a atores-chave da esfera da decisão pública, ii) na análise dos principais instrumentos programáticos das políticas de saúde e iii) na análise de dois estudos de caso (sub-regiões do Baixo Vouga e da Beira Interior Sul). Os resultados alcançados permitem, por um lado, compreender, discutir e clarificar os processos de tomada de decisão em saúde, por outro, justificar o propósito da adoção do princípio de Coesão Territorial na formulação de políticas e, por fim, avançar com linhas de investigação futura sobre Serviços de Interesse Geral e Coesão Territorial.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thesis (Ph.D.)--University of Washington, 2013

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tese de mestrado em Ecologia Marinha, apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2015

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper deals with and details the design of a power-aware adaptive digital image rejection receiver based on blind-source-separation that alleviates the RF analog front-end impairments. Power-aware system design at the RTL level without having to redesign arithmetic circuits is used to reduce the power consumption in nomadic devices. Power-aware multipliers with configurable precision are used to trade-off the image-rejection-ratio (IRR) performance with power consumption. Results of the simulation case studies demonstrate that the IRR performance of the power-aware system is comparable to that of the normal implementation albeit degraded slightly, but well within the acceptable limits.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper addresses the optimal involvement in derivatives electricity markets of a power producer to hedge against the pool price volatility. To achieve this aim, a swarm intelligence meta-heuristic optimization technique for long-term risk management tool is proposed. This tool investigates the long-term opportunities for risk hedging available for electric power producers through the use of contracts with physical (spot and forward contracts) and financial (options contracts) settlement. The producer risk preference is formulated as a utility function (U) expressing the trade-off between the expectation and the variance of the return. Variance of return and the expectation are based on a forecasted scenario interval determined by a long-term price range forecasting model. This model also makes use of particle swarm optimization (PSO) to find the best parameters allow to achieve better forecasting results. On the other hand, the price estimation depends on load forecasting. This work also presents a regressive long-term load forecast model that make use of PSO to find the best parameters as well as in price estimation. The PSO technique performance has been evaluated by comparison with a Genetic Algorithm (GA) based approach. A case study is presented and the results are discussed taking into account the real price and load historical data from mainland Spanish electricity market demonstrating the effectiveness of the methodology handling this type of problems. Finally, conclusions are dully drawn.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Variations of manufacturing process parameters and environmental aspects may affect the quality and performance of composite materials, which consequently affects their structural behaviour. Reliability-based design optimisation (RBDO) and robust design optimisation (RDO) searches for safe structural systems with minimal variability of response when subjected to uncertainties in material design parameters. An approach that simultaneously considers reliability and robustness is proposed in this paper. Depending on a given reliability index imposed on composite structures, a trade-off is established between the performance targets and robustness. Robustness is expressed in terms of the coefficient of variation of the constrained structural response weighted by its nominal value. The Pareto normed front is built and the nearest point to the origin is estimated as the best solution of the bi-objective optimisation problem.