51 resultados para Algoritmos de minimização


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta algoritmos que estimam o espetro de um sinal não periódico a partir de um numero finito de amostras, tirando partido da esparsidade do sinal no domínio da frequência. Trata-se de um problema em que devido aos efeitos de leakage, o sucesso dos algoritmos tradicionais esta limitado. Para ultrapassar o problema, os algoritmos propostos transformam a base DFT numa frame com um maior numero de colunas, inserindo um numero reduzido de colunas entre algumas das iniciais. Estes algoritmos são baseados na teoria do compressed sensing, que permite obter e representar sinais esparsos e compressíveis, utilizando uma taxa de amostragem muito inferior à taxa de Nyquist. Os algoritmos propostos apresentam um bom desempenho em comparação com os algoritmos existentes, destacando-se na estimação do espetro de sinais compostos por sinusóides com frequências muito próximas, com amplitudes diferentes e na presença de ruído, situação particularmente difícil e perante a qual os restantes algoritmos falham.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apesar das recentes inovações tecnológicas, o setor dos transportes continua a exercer impactes significativos sobre a economia e o ambiente. Com efeito, o sucesso na redução das emissões neste setor tem sido inferior ao desejável. Isto deve-se a diferentes fatores como a dispersão urbana e a existência de diversos obstáculos à penetração no mercado de tecnologias mais limpas. Consequentemente, a estratégia “Europa 2020” evidencia a necessidade de melhorar a eficiência no uso das atuais infraestruturas rodoviárias. Neste contexto, surge como principal objetivo deste trabalho, a melhoria da compreensão de como uma escolha de rota adequada pode contribuir para a redução de emissões sob diferentes circunstâncias espaciais e temporais. Simultaneamente, pretende-se avaliar diferentes estratégias de gestão de tráfego, nomeadamente o seu potencial ao nível do desempenho e da eficiência energética e ambiental. A integração de métodos empíricos e analíticos para avaliação do impacto de diferentes estratégias de otimização de tráfego nas emissões de CO2 e de poluentes locais constitui uma das principais contribuições deste trabalho. Esta tese divide-se em duas componentes principais. A primeira, predominantemente empírica, baseou-se na utilização de veículos equipados com um dispositivo GPS data logger para recolha de dados de dinâmica de circulação necessários ao cálculo de emissões. Foram percorridos aproximadamente 13200 km em várias rotas com escalas e características distintas: área urbana (Aveiro), área metropolitana (Hampton Roads, VA) e um corredor interurbano (Porto-Aveiro). A segunda parte, predominantemente analítica, baseou-se na aplicação de uma plataforma integrada de simulação de tráfego e emissões. Com base nesta plataforma, foram desenvolvidas funções de desempenho associadas a vários segmentos das redes estudadas, que por sua vez foram aplicadas em modelos de alocação de tráfego. Os resultados de ambas as perspetivas demonstraram que o consumo de combustível e emissões podem ser significativamente minimizados através de escolhas apropriadas de rota e sistemas avançados de gestão de tráfego. Empiricamente demonstrou-se que a seleção de uma rota adequada pode contribuir para uma redução significativa de emissões. Foram identificadas reduções potenciais de emissões de CO2 até 25% e de poluentes locais até 60%. Através da aplicação de modelos de tráfego demonstrou-se que é possível reduzir significativamente os custos ambientais relacionados com o tráfego (até 30%), através da alteração da distribuição dos fluxos ao longo de um corredor com quatro rotas alternativas. Contudo, apesar dos resultados positivos relativamente ao potencial para a redução de emissões com base em seleções de rotas adequadas, foram identificadas algumas situações de compromisso e/ou condicionantes que devem ser consideradas em futuros sistemas de eco navegação. Entre essas condicionantes importa salientar que: i) a minimização de diferentes poluentes pode implicar diferentes estratégias de navegação, ii) a minimização da emissão de poluentes, frequentemente envolve a escolha de rotas urbanas (em áreas densamente povoadas), iii) para níveis mais elevados de penetração de dispositivos de eco-navegação, os impactos ambientais em todo o sistema podem ser maiores do que se os condutores fossem orientados por dispositivos tradicionais focados na minimização do tempo de viagem. Com este trabalho demonstrou-se que as estratégias de gestão de tráfego com o intuito da minimização das emissões de CO2 são compatíveis com a minimização do tempo de viagem. Por outro lado, a minimização de poluentes locais pode levar a um aumento considerável do tempo de viagem. No entanto, dada a tendência de redução nos fatores de emissão dos poluentes locais, é expectável que estes objetivos contraditórios tendam a ser minimizados a médio prazo. Afigura-se um elevado potencial de aplicação da metodologia desenvolvida, seja através da utilização de dispositivos móveis, sistemas de comunicação entre infraestruturas e veículos e outros sistemas avançados de gestão de tráfego.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese descreve uma framework de trabalho assente no paradigma multi-camada para analisar, modelar, projectar e optimizar sistemas de comunicação. Nela se explora uma nova perspectiva acerca da camada física que nasce das relações entre a teoria de informação, estimação, métodos probabilísticos, teoria da comunicação e codificação. Esta framework conduz a métodos de projecto para a próxima geração de sistemas de comunicação de alto débito. Além disso, a tese explora várias técnicas de camada de acesso com base na relação entre atraso e débito para o projeto de redes sem fio tolerantes a atrasos. Alguns resultados fundamentais sobre a interação entre a teoria da informação e teoria da estimação conduzem a propostas de um paradigma alternativo para a análise, projecto e optimização de sistemas de comunicação. Com base em estudos sobre a relação entre a informação recíproca e MMSE, a abordagem descrita na tese permite ultrapassar, de forma inovadora, as dificuldades inerentes à optimização das taxas de transmissão de informação confiáveis em sistemas de comunicação, e permite a exploração da atribuição óptima de potência e estruturas óptimas de pre-codificação para diferentes modelos de canal: com fios, sem fios e ópticos. A tese aborda também o problema do atraso, numa tentativa de responder a questões levantadas pela enorme procura de débitos elevados em sistemas de comunicação. Isso é feito através da proposta de novos modelos para sistemas com codificação de rede (network coding) em camadas acima da sua camada física. Em particular, aborda-se a utilização de sistemas de codificação em rede para canais que variam no tempo e são sensíveis a atrasos. Isso foi demonstrado através da proposta de um novo modelo e esquema adaptativo, cujos algoritmos foram aplicados a sistemas sem fios com desvanecimento (fading) complexo, de que são exemplos os sistemas de comunicação via satélite. A tese aborda ainda o uso de sistemas de codificação de rede em cenários de transferência (handover) exigentes. Isso é feito através da proposta de novos modelos de transmissão WiFi IEEE 801.11 MAC, que são comparados com codificação de rede, e que se demonstram possibilitar transferência sem descontinuidades. Pode assim dizer-se que esta tese, através de trabalho de análise e de propostas suportadas por simulações, defende que na concepção de sistemas de comunicação se devem considerar estratégias de transmissão e codificação que sejam não só próximas da capacidade dos canais, mas também tolerantes a atrasos, e que tais estratégias têm de ser concebidas tendo em vista características do canal e a camada física.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese propõe uma forma diferente de navegação de robôs em ambientes dinâmicos, onde o robô tira partido do movimento de pedestres, com o objetivo de melhorar as suas capacidades de navegação. A ideia principal é que, ao invés de tratar as pessoas como obstáculos dinâmicos que devem ser evitados, elas devem ser tratadas como agentes especiais com conhecimento avançado em navegação em ambientes dinâmicos. Para se beneficiar do movimento de pedestres, este trabalho propõe que um robô os selecione e siga, de modo que possa mover-se por caminhos ótimos, desviar-se de obstáculos não detetados, melhorar a navegação em ambientes densamente populados e aumentar a sua aceitação por outros humanos. Para atingir estes objetivos, novos métodos são desenvolvidos na área da seleção dederes, onde duas técnicas são exploradas. A primeira usa métodos de previsão de movimento, enquanto a segunda usa técnicas de aprendizagem por máquina, para avaliar a qualidade de candidatos a líder, onde o treino é feito com exemplos reais. Os métodos de seleção deder são integrados com algoritmos de planeamento de movimento e experiências são realizadas para validar as técnicas propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A conjuntura atual económica, financeira e social tem pressionado o uso racional dos recursos existentes, seja pelo setor privado ou pelo setor público. Contudo, nem sempre as empresas e organizações conseguem fazê-lo da melhor forma possível, seja por falta de experiência, por falta de conhecimento ou simplesmente pela aversão à mudança. É no contexto de redução de custos/ gastos que a gestão Lean tem vindo a afirmar-se como um método/filosofia eficaz e o suficientemente flexível e robusta para se adaptar a diferentes realidades organizacionais. Nesse seguimento, este relatório testemunha a introdução da gestão Lean numa organização do Terceiro Setor – Centro Social e Paroquial da Vera Cruz, e questiona o seu valor acrescentado mesmo se implementada numa lógica parcelar e numa organização ainda globalmente longe de estar organizada segundo uma lógica Lean. Os resultados obtidos no âmbito do projeto em questão parecem apontar para uma operação bem sucedida e com boas perspetivas futuras, caso a referida organização dê continuidade à sua implementação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

É extensa a bibliografia dedicada a potenciais aplicações de materiais com mudança de fase na regulação térmica e no armazenamento de calor ou de frio. No entanto, a baixa condutividade térmica impõe limitações numa grande diversidade de aplicações com exigências críticas em termos de tempo de resposta curto ou com requisitos de elevada potência em ciclos de carga/descarga de calor latente. Foram desenvolvidos códigos numéricos no sentido de obter soluções precisas para descrever a cinética da transferência de calor com mudança de fase, com base em geometrias representativas, i.e. planar e esférica. Foram igualmente propostas soluções aproximadas, sendo identificados correspondentes critérios de validação em função das propriedades dos materiais de mudança de fase e de outros parâmetros relevantes tais como as escalas de tamanho e de tempo, etc. As referidas soluções permitiram identificar com rigor os fatores determinantes daquelas limitações, quantificar os correspondentes efeitos e estabelecer critérios de qualidade adequados para diferentes tipologias de potenciais aplicações. Os referidos critérios foram sistematizados de acordo com metodologias de seleção propostas por Ashby e co-autores, tendo em vista o melhor desempenho dos materiais em aplicações representativas, designadamente com requisitos ao nível de densidade energética, tempo de resposta, potência de carga/descarga e gama de temperaturas de operação. Nesta sistematização foram incluídos alguns dos compósitos desenvolvidos durante o presente trabalho. A avaliação das limitações acima mencionadas deu origem ao desenvolvimento de materiais compósitos para acumulação de calor ou frio, com acentuada melhoria de resposta térmica, mediante incorporação de uma fase com condutividade térmica muito superior à da matriz. Para este efeito, foram desenvolvidos modelos para otimizar a distribuição espacial da fase condutora, de modo a superar os limites de percolação previstos por modelos clássicos de condução em compósitos com distribuição aleatória, visando melhorias de desempenho térmico com reduzidas frações de fase condutora e garantindo que a densidade energética não é significativamente afetada. Os modelos elaborados correspondem a compósitos de tipo core-shell, baseados em microestruturas celulares da fase de elevada condutividade térmica, impregnadas com o material de mudança de fase propriamente dito. Além de visarem a minimização da fração de fase condutora e correspondentes custos, os modelos de compósitos propostos tiveram em conta a adequação a métodos de processamento versáteis, reprodutíveis, preferencialmente com base na emulsificação de líquidos orgânicos em suspensões aquosas ou outros processos de reduzidas complexidade e com base em materiais de baixo custo (material de mudança de fase e fase condutora). O design da distribuição microestrutural também considerou a possibilidade de orientação preferencial de fases condutoras com elevada anisotropia (p.e. grafite), mediante auto-organização. Outros estágios do projeto foram subordinados a esses objetivos de desenvolvimento de compósitos com resposta térmica otimizada, em conformidade com previsões dos modelos de compósitos de tipo core-shell, acima mencionadas. Neste enquadramento, foram preparados 3 tipos de compósitos com organização celular da fase condutora, com as seguintes características e metodologias: i) compósitos celulares parafina-grafite para acumulação de calor, preparados in-situ por emulsificação de uma suspensão de grafite em parafina fundida; ii) compósitos celulares parafina-Al2O3 para acumulação de calor, preparados por impregnação de parafina em esqueleto cerâmico celular de Al2O3; iii) compósitos celulares para acumulação de frio, obtidos mediante impregnação de matrizes celulares de grafite com solução de colagénio, após preparação prévia das matrizes de grafite celular. Os compósitos com esqueleto cerâmico (ii) requereram o desenvolvimento prévio de um método para o seu processamento, baseado na emulsificação de suspensões de Al2O3 em parafina fundida, com adequados aditivos dispersantes, tensioactivos e consolidantes do esqueleto cerâmico, tornando-o auto-suportável durante as fases posteriores de eliminação da parafina, até à queima a alta temperatura, originando cerâmicos celulares com adequada resistência mecânica. Os compósitos desenvolvidos apresentam melhorias significativos de condutividade térmica, atingindo ganhos superiores a 1 ordem de grandeza com frações de fase condutora inferior a 10 % vol. (4 W m-1 K-1), em virtude da organização core-shell e com o contributo adicional da anisotropia da grafite, mediante orientação preferencial. Foram ainda preparados compósitos de armazenamento de frio (iii), com orientação aleatória da fase condutora, obtidos mediante gelificação de suspensões de partículas de grafite em solução aquosa de colagénio. Apesar da estabilidade microestrutural e de forma, conferida por gelificação, estes compósitos confirmaram a esperada limitação dos compósitos com distribuição aleatória, em confronto com os ganhos alcançados com a organização de tipo core-shell.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Over the years, the increased search and exchange of information lead to an increase of traffic intensity in todays optical communication networks. Coherent communications, using the amplitude and phase of the signal, reappears as one of the transmission techniques to increase the spectral efficiency and throughput of optical channels. In this context, this work present a study on format conversion of modulated signals using MZI-SOAs, based exclusively on all- optical techniques through wavelength conversion. This approach, when applied in interconnection nodes between optical networks with different bit rates and modulation formats, allow a better efficiency and scalability of the network. We start with an experimental characterization of the static and dynamic properties of the MZI-SOA. Then, we propose a semi-analytical model to describe the evolution of phase and amplitude at the output of the MZI-SOA. The model’s coefficients are obtained using a multi-objective genetic algorithm. We validate the model experimentally, by exploring the dependency of the optical signal with the operational parameters of the MZI-SOA. We also propose an all-optical technique for the conversion of amplitude modulation signals to a continuous phase modulation format. Finally, we study the potential of MZI-SOAs for the conversion of amplitude signals to QPSK and QAM signals. We show the dependency of the conversion process with the operational parameters deviation from the optimal values. The technique is experimentally validated for QPSK modulation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Future emerging market trends head towards positioning based services placing a new perspective on the way we obtain and exploit positioning information. On one hand, innovations in information technology and wireless communication systems enabled the development of numerous location based applications such as vehicle navigation and tracking, sensor networks applications, home automation, asset management, security and context aware location services. On the other hand, wireless networks themselves may bene t from localization information to improve the performances of di erent network layers. Location based routing, synchronization, interference cancellation are prime examples of applications where location information can be useful. Typical positioning solutions rely on measurements and exploitation of distance dependent signal metrics, such as the received signal strength, time of arrival or angle of arrival. They are cheaper and easier to implement than the dedicated positioning systems based on ngerprinting, but at the cost of accuracy. Therefore intelligent localization algorithms and signal processing techniques have to be applied to mitigate the lack of accuracy in distance estimates. Cooperation between nodes is used in cases where conventional positioning techniques do not perform well due to lack of existing infrastructure, or obstructed indoor environment. The objective is to concentrate on hybrid architecture where some nodes have points of attachment to an infrastructure, and simultaneously are interconnected via short-range ad hoc links. The availability of more capable handsets enables more innovative scenarios that take advantage of multiple radio access networks as well as peer-to-peer links for positioning. Link selection is used to optimize the tradeo between the power consumption of participating nodes and the quality of target localization. The Geometric Dilution of Precision and the Cramer-Rao Lower Bound can be used as criteria for choosing the appropriate set of anchor nodes and corresponding measurements before attempting location estimation itself. This work analyzes the existing solutions for node selection in order to improve localization performance, and proposes a novel method based on utility functions. The proposed method is then extended to mobile and heterogeneous environments. Simulations have been carried out, as well as evaluation with real measurement data. In addition, some speci c cases have been considered, such as localization in ill-conditioned scenarios and the use of negative information. The proposed approaches have shown to enhance estimation accuracy, whilst signi cantly reducing complexity, power consumption and signalling overhead.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

“Branch-and-cut” algorithm is one of the most efficient exact approaches to solve mixed integer programs. This algorithm combines the advantages of a pure branch-and-bound approach and cutting planes scheme. Branch-and-cut algorithm computes the linear programming relaxation of the problem at each node of the search tree which is improved by the use of cuts, i.e. by the inclusion of valid inequalities. It should be taken into account that selection of strongest cuts is crucial for their effective use in branch-and-cut algorithm. In this thesis, we focus on the derivation and use of cutting planes to solve general mixed integer problems, and in particular inventory problems combined with other problems such as distribution, supplier selection, vehicle routing, etc. In order to achieve this goal, we first consider substructures (relaxations) of such problems which are obtained by the coherent loss of information. The polyhedral structure of those simpler mixed integer sets is studied to derive strong valid inequalities. Finally those strong inequalities are included in the cutting plane algorithms to solve the general mixed integer problems. We study three mixed integer sets in this dissertation. The first two mixed integer sets arise as a subproblem of the lot-sizing with supplier selection, the network design and the vendor-managed inventory routing problems. These sets are variants of the well-known single node fixed-charge network set where a binary or integer variable is associated with the node. The third set occurs as a subproblem of mixed integer sets where incompatibility between binary variables is considered. We generate families of valid inequalities for those sets, identify classes of facet-defining inequalities, and discuss the separation problems associated with the inequalities. Then cutting plane frameworks are implemented to solve some mixed integer programs. Preliminary computational experiments are presented in this direction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The performance of real-time networks is under continuous improvement as a result of several trends in the digital world. However, these tendencies not only cause improvements, but also exacerbates a series of unideal aspects of real-time networks such as communication latency, jitter of the latency and packet drop rate. This Thesis focuses on the communication errors that appear on such realtime networks, from the point-of-view of automatic control. Specifically, it investigates the effects of packet drops in automatic control over fieldbuses, as well as the architectures and optimal techniques for their compensation. Firstly, a new approach to address the problems that rise in virtue of such packet drops, is proposed. This novel approach is based on the simultaneous transmission of several values in a single message. Such messages can be from sensor to controller, in which case they are comprised of several past sensor readings, or from controller to actuator in which case they are comprised of estimates of several future control values. A series of tests reveal the advantages of this approach. The above-explained approach is then expanded as to accommodate the techniques of contemporary optimal control. However, unlike the aforementioned approach, that deliberately does not send certain messages in order to make a more efficient use of network resources; in the second case, the techniques are used to reduce the effects of packet losses. After these two approaches that are based on data aggregation, it is also studied the optimal control in packet dropping fieldbuses, using generalized actuator output functions. This study ends with the development of a new optimal controller, as well as the function, among the generalized functions that dictate the actuator’s behaviour in the absence of a new control message, that leads to the optimal performance. The Thesis also presents a different line of research, related with the output oscillations that take place as a consequence of the use of classic co-design techniques of networked control. The proposed algorithm has the goal of allowing the execution of such classical co-design algorithms without causing an output oscillation that increases the value of the cost function. Such increases may, under certain circumstances, negate the advantages of the application of the classical co-design techniques. A yet another line of research, investigated algorithms, more efficient than contemporary ones, to generate task execution sequences that guarantee that at least a given number of activated jobs will be executed out of every set composed by a predetermined number of contiguous activations. This algorithm may, in the future, be applied to the generation of message transmission patterns in the above-mentioned techniques for the efficient use of network resources. The proposed task generation algorithm is better than its predecessors in the sense that it is capable of scheduling systems that cannot be scheduled by its predecessor algorithms. The Thesis also presents a mechanism that allows to perform multi-path routing in wireless sensor networks, while ensuring that no value will be counted in duplicate. Thereby, this technique improves the performance of wireless sensor networks, rendering them more suitable for control applications. As mentioned before, this Thesis is centered around techniques for the improvement of performance of distributed control systems in which several elements are connected through a fieldbus that may be subject to packet drops. The first three approaches are directly related to this topic, with the first two approaching the problem from an architectural standpoint, whereas the third one does so from more theoretical grounds. The fourth approach ensures that the approaches to this and similar problems that can be found in the literature that try to achieve goals similar to objectives of this Thesis, can do so without causing other problems that may invalidate the solutions in question. Then, the thesis presents an approach to the problem dealt with in it, which is centered in the efficient generation of the transmission patterns that are used in the aforementioned approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelação e análise de séries temporais de valores inteiros têm sido alvo de grande investigação e desenvolvimento nos últimos anos, com aplicações várias em diversas áreas da ciência. Nesta tese a atenção centrar-se-á no estudo na classe de modelos basedos no operador thinning binomial. Tendo como base o operador thinning binomial, esta tese focou-se na construção e estudo de modelos SETINAR(2; p(1); p(2)) e PSETINAR(2; 1; 1)T , modelos autorregressivos de valores inteiros com limiares autoinduzidos e dois regimes, admitindo que as inovações formam uma sucessão de variáveis independentes com distribuição de Poisson. Relativamente ao primeiro modelo analisado, o modelo SETINAR(2; p(1); p(2)), além do estudo das suas propriedades probabilísticas e de métodos, clássicos e bayesianos, para estimar os parâmetros, analisou-se a questão da seleção das ordens, no caso de elas serem desconhecidas. Com este objetivo consideraram-se algoritmos de Monte Carlo via cadeias de Markov, em particular o algoritmo Reversible Jump, abordando-se também o problema da seleção de modelos, usando metodologias clássica e bayesiana. Complementou-se a análise através de um estudo de simulação e uma aplicação a dois conjuntos de dados reais. O modelo PSETINAR(2; 1; 1)T proposto, é também um modelo autorregressivo com limiares autoinduzidos e dois regimes, de ordem unitária em cada um deles, mas apresentando uma estrutura periódica. Estudaram-se as suas propriedades probabilísticas, analisaram-se os problemas de inferência e predição de futuras observações e realizaram-se estudos de simulação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Network virtualisation is seen as a promising approach to overcome the so-called “Internet impasse” and bring innovation back into the Internet, by allowing easier migration towards novel networking approaches as well as the coexistence of complementary network architectures on a shared infrastructure in a commercial context. Recently, the interest from the operators and mainstream industry in network virtualisation has grown quite significantly, as the potential benefits of virtualisation became clearer, both from an economical and an operational point of view. In the beginning, the concept has been mainly a research topic and has been materialized in small-scale testbeds and research network environments. This PhD Thesis aims to provide the network operator with a set of mechanisms and algorithms capable of managing and controlling virtual networks. To this end, we propose a framework that aims to allocate, monitor and control virtual resources in a centralized and efficient manner. In order to analyse the performance of the framework, we performed the implementation and evaluation on a small-scale testbed. To enable the operator to make an efficient allocation, in real-time, and on-demand, of virtual networks onto the substrate network, it is proposed a heuristic algorithm to perform the virtual network mapping. For the network operator to obtain the highest profit of the physical network, it is also proposed a mathematical formulation that aims to maximize the number of allocated virtual networks onto the physical network. Since the power consumption of the physical network is very significant in the operating costs, it is important to make the allocation of virtual networks in fewer physical resources and onto physical resources already active. To address this challenge, we propose a mathematical formulation that aims to minimize the energy consumption of the physical network without affecting the efficiency of the allocation of virtual networks. To minimize fragmentation of the physical network while increasing the revenue of the operator, it is extended the initial formulation to contemplate the re-optimization of previously mapped virtual networks, so that the operator has a better use of its physical infrastructure. It is also necessary to address the migration of virtual networks, either for reasons of load balancing or for reasons of imminent failure of physical resources, without affecting the proper functioning of the virtual network. To this end, we propose a method based on cloning techniques to perform the migration of virtual networks across the physical infrastructure, transparently, and without affecting the virtual network. In order to assess the resilience of virtual networks to physical network failures, while obtaining the optimal solution for the migration of virtual networks in case of imminent failure of physical resources, the mathematical formulation is extended to minimize the number of nodes migrated and the relocation of virtual links. In comparison with our optimization proposals, we found out that existing heuristics for mapping virtual networks have a poor performance. We also found that it is possible to minimize the energy consumption without penalizing the efficient allocation. By applying the re-optimization on the virtual networks, it has been shown that it is possible to obtain more free resources as well as having the physical resources better balanced. Finally, it was shown that virtual networks are quite resilient to failures on the physical network.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The ever-growing energy consumption in mobile networks stimulated by the expected growth in data tra ffic has provided the impetus for mobile operators to refocus network design, planning and deployment towards reducing the cost per bit, whilst at the same time providing a signifi cant step towards reducing their operational expenditure. As a step towards incorporating cost-eff ective mobile system, 3GPP LTE-Advanced has adopted the coordinated multi-point (CoMP) transmission technique due to its ability to mitigate and manage inter-cell interference (ICI). Using CoMP the cell average and cell edge throughput are boosted. However, there is room for reducing energy consumption further by exploiting the inherent exibility of dynamic resource allocation protocols. To this end packet scheduler plays the central role in determining the overall performance of the 3GPP longterm evolution (LTE) based on packet-switching operation and provide a potential research playground for optimizing energy consumption in future networks. In this thesis we investigate the baseline performance for down link CoMP using traditional scheduling approaches, and subsequently go beyond and propose novel energy e fficient scheduling (EES) strategies that can achieve power-e fficient transmission to the UEs whilst enabling both system energy effi ciency gain and fairness improvement. However, ICI can still be prominent when multiple nodes use common resources with di fferent power levels inside the cell, as in the so called heterogeneous networks (Het- Net) environment. HetNets are comprised of two or more tiers of cells. The rst, or higher tier, is a traditional deployment of cell sites, often referred to in this context as macrocells. The lower tiers are termed small cells, and can appear as microcell, picocells or femtocells. The HetNet has attracted signiffi cant interest by key manufacturers as one of the enablers for high speed data at low cost. Research until now has revealed several key hurdles that must be overcome before HetNets can achieve their full potential: bottlenecks in the backhaul must be alleviated, as well as their seamless interworking with CoMP. In this thesis we explore exactly the latter hurdle, and present innovative ideas on advancing CoMP to work in synergy with HetNet deployment, complemented by a novel resource allocation policy for HetNet tighter interference management. As system level simulator has been used to analyze the proposed algorithm/protocols, and results have concluded that up to 20% energy gain can be observed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos temos vindo a assistir a uma mudança na forma como a informação é disponibilizada online. O surgimento da web para todos possibilitou a fácil edição, disponibilização e partilha da informação gerando um considerável aumento da mesma. Rapidamente surgiram sistemas que permitem a coleção e partilha dessa informação, que para além de possibilitarem a coleção dos recursos também permitem que os utilizadores a descrevam utilizando tags ou comentários. A organização automática dessa informação é um dos maiores desafios no contexto da web atual. Apesar de existirem vários algoritmos de clustering, o compromisso entre a eficácia (formação de grupos que fazem sentido) e a eficiência (execução em tempo aceitável) é difícil de encontrar. Neste sentido, esta investigação tem por problemática aferir se um sistema de agrupamento automático de documentos, melhora a sua eficácia quando se integra um sistema de classificação social. Analisámos e discutimos dois métodos baseados no algoritmo k-means para o clustering de documentos e que possibilitam a integração do tagging social nesse processo. O primeiro permite a integração das tags diretamente no Vector Space Model e o segundo propõe a integração das tags para a seleção das sementes iniciais. O primeiro método permite que as tags sejam pesadas em função da sua ocorrência no documento através do parâmetro Social Slider. Este método foi criado tendo por base um modelo de predição que sugere que, quando se utiliza a similaridade dos cossenos, documentos que partilham tags ficam mais próximos enquanto que, no caso de não partilharem, ficam mais distantes. O segundo método deu origem a um algoritmo que denominamos k-C. Este para além de permitir a seleção inicial das sementes através de uma rede de tags também altera a forma como os novos centróides em cada iteração são calculados. A alteração ao cálculo dos centróides teve em consideração uma reflexão sobre a utilização da distância euclidiana e similaridade dos cossenos no algoritmo de clustering k-means. No contexto da avaliação dos algoritmos foram propostos dois algoritmos, o algoritmo da “Ground truth automática” e o algoritmo MCI. O primeiro permite a deteção da estrutura dos dados, caso seja desconhecida, e o segundo é uma medida de avaliação interna baseada na similaridade dos cossenos entre o documento mais próximo de cada documento. A análise de resultados preliminares sugere que a utilização do primeiro método de integração das tags no VSM tem mais impacto no algoritmo k-means do que no algoritmo k-C. Além disso, os resultados obtidos evidenciam que não existe correlação entre a escolha do parâmetro SS e a qualidade dos clusters. Neste sentido, os restantes testes foram conduzidos utilizando apenas o algoritmo k-C (sem integração de tags no VSM), sendo que os resultados obtidos indicam que a utilização deste algoritmo tende a gerar clusters mais eficazes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudar os mecanismos subjacentes à produção de fala é uma tarefa complexa e exigente, requerendo a obtenção de dados mediante a utilização de variadas técnicas, onde se incluem algumas modalidades imagiológicas. De entre estas, a Ressonância Magnética (RM) tem ganho algum destaque, nos últimos anos, posicionando-se como uma das mais promissoras no domínio da produção de fala. Um importante contributo deste trabalho prende-se com a otimização e implementação de protocolos (RM) e proposta de estratégias de processamento de imagem ajustados aos requisitos da produção de fala, em geral, e às especificidades dos diferentes sons. Para além disso, motivados pela escassez de dados para o Português Europeu (PE), constitui-se como objetivo a obtenção de dados articulatórios que permitam complementar informação já existente e clarificar algumas questões relativas à produção dos sons do PE (nomeadamente, consoantes laterais e vogais nasais). Assim, para as consoantes laterais foram obtidas imagens RM (2D e 3D), através de produções sustidas, com recurso a uma sequência Eco de Gradiente (EG) rápida (3D VIBE), no plano sagital, englobando todo o trato vocal. O corpus, adquirido por sete falantes, contemplou diferentes posições silábicas e contextos vocálicos. Para as vogais nasais, foram adquiridas, em três falantes, imagens em tempo real com uma sequência EG - Spoiled (TurboFLASH), nos planos sagital e coronal, obtendo-se uma resolução temporal de 72 ms (14 frames/s). Foi efetuada aquisição sincronizada das imagens com o sinal acústico mediante utilização de um microfone ótico. Para o processamento e análise de imagem foram utilizados vários algoritmos semiautomáticos. O tratamento e análise dos dados permitiu efetuar uma descrição articulatória das consoantes laterais, ancorada em dados qualitativos (e.g., visualizações 3D, comparação de contornos) e quantitativos que incluem áreas, funções de área do trato vocal, extensão e área das passagens laterais, avaliação de efeitos contextuais e posicionais, etc. No que respeita à velarização da lateral alveolar /l/, os resultados apontam para um /l/ velarizado independentemente da sua posição silábica. Relativamente ao /L/, em relação ao qual a informação disponível era escassa, foi possível verificar que a sua articulação é bastante mais anteriorizada do que tradicionalmente descrito e também mais extensa do que a da lateral alveolar. A resolução temporal de 72 ms conseguida com as aquisições de RM em tempo real, revelou-se adequada para o estudo das características dinâmicas das vogais nasais, nomeadamente, aspetos como a duração do gesto velar, gesto oral, coordenação entre gestos, etc. complementando e corroborando resultados, já existentes para o PE, obtidos com recurso a outras técnicas instrumentais. Para além disso, foram obtidos novos dados de produção relevantes para melhor compreensão da nasalidade (variação área nasal/oral no tempo, proporção nasal/oral). Neste estudo, fica patente a versatilidade e potencial da RM para o estudo da produção de fala, com contributos claros e importantes para um melhor conhecimento da articulação do Português, para a evolução de modelos de síntese de voz, de base articulatória, e para aplicação futura em áreas mais clínicas (e.g., perturbações da fala).