30 resultados para hyperbolic coordinates
em Instituto Politécnico do Porto, Portugal
Resumo:
The main goal of this work is to solve mathematical program with complementarity constraints (MPCC) using nonlinear programming techniques (NLP). An hyperbolic penalty function is used to solve MPCC problems by including the complementarity constraints in the penalty term. This penalty function [1] is twice continuously differentiable and combines features of both exterior and interior penalty methods. A set of AMPL problems from MacMPEC [2] are tested and a comparative study is performed.
Resumo:
Mathematical Program with Complementarity Constraints (MPCC) finds many applications in fields such as engineering design, economic equilibrium and mathematical programming theory itself. A queueing system model resulting from a single signalized intersection regulated by pre-timed control in traffic network is considered. The model is formulated as an MPCC problem. A MATLAB implementation based on an hyperbolic penalty function is used to solve this practical problem, computing the total average waiting time of the vehicles in all queues and the green split allocation. The problem was codified in AMPL.
Resumo:
In this work we solve Mathematical Programs with Complementarity Constraints using the hyperbolic smoothing strategy. Under this approach, the complementarity condition is relaxed through the use of the hyperbolic smoothing function, involving a positive parameter that can be decreased to zero. An iterative algorithm is implemented in MATLAB language and a set of AMPL problems from MacMPEC database were tested.
Resumo:
We prove that the stable holonomies of a proper codimension 1 attractor Λ, for a Cr diffeomorphism f of a surface, are not C1+θ for θ greater than the Hausdorff dimension of the stable leaves of f intersected with Λ. To prove this result we show that there are no diffeomorphisms of surfaces, with a proper codimension 1 attractor, that are affine on a neighbourhood of the attractor and have affine stable holonomies on the attractor.
Resumo:
Mestrado em Engenharia Química. Ramo optimização energética na indústria química
Resumo:
Introdução: O controlo postural (CP), intimamente ligado aos limites de estabilidade, é fundamental nas atividades da vida diária e encontra-se comprometido após Acidente Vascular Encefálico (AVE). Objectivo: Descrever as alterações nos limites de estabilidade, na posição ortostática, em utentes com AVE, face à aplicação de um programa de intervenção baseado num processo de raciocínio clínico. Métodos: Estudo de série de casos, de três indivíduos com alterações do CP do tronco e/ou das grandes articulações, decorrentes de AVE, mas capazes de assumir e manter a posição ortostática. Para avaliar os limites de estabilidade foram utilizados a plataforma de pressões Emed (coordenadas do centro de pressão, COPx e COPy) e o MultidirectionalReachTest (MDRT). Foram também aplicadas, a Fugl-Meyer Assessmentof Sensoriomotor Recovery After Stroke (FMA) e a Berg Balance Scale (BBS). Os instrumentos de avaliação foram aplicados antes e após a intervenção (M0 e M1), de 8 semanas, baseada nos princípios do conceito de Bobath. Resultados: Os valores dos testes de alcance no MDRT aumentaram em todos os utentes. Os limites e os deslocamentos médio-lateral (COPx) e, ântero-posterior (COPy) dos valores do CPr aumentaram, entre M0 e M1. No que se refere à FMA e a BBS, verificou-se que todos apresentaram um aumento dos scores. Conclusão: Os utentes modificaram os seus limites de estabilidade no sentido do aumento, assim como, da função motora e do equilíbrio. Deste modo, a intervenção de acordo com os princípios do conceito de Bobath aparenta introduzir os estímulos necessários à reorganização funcional do sistema nervoso central lesado.
Resumo:
Seismic data is difficult to analyze and classical mathematical tools reveal strong limitations in exposing hidden relationships between earthquakes. In this paper, we study earthquake phenomena in the perspective of complex systems. Global seismic data, covering the period from 1962 up to 2011 is analyzed. The events, characterized by their magnitude, geographic location and time of occurrence, are divided into groups, either according to the Flinn-Engdahl (F-E) seismic regions of Earth or using a rectangular grid based in latitude and longitude coordinates. Two methods of analysis are considered and compared in this study. In a first method, the distributions of magnitudes are approximated by Gutenberg-Richter (G-R) distributions and the parameters used to reveal the relationships among regions. In the second method, the mutual information is calculated and adopted as a measure of similarity between regions. In both cases, using clustering analysis, visualization maps are generated, providing an intuitive and useful representation of the complex relationships that are present among seismic data. Such relationships might not be perceived on classical geographic maps. Therefore, the generated charts are a valid alternative to other visualization tools, for understanding the global behavior of earthquakes.
Resumo:
A deteção e seguimento de pessoas tem uma grande variedade de aplicações em visão computacional. Embora tenha sido alvo de anos de investigação, continua a ser um tópico em aberto, e ainda hoje, um grande desafio a obtenção de uma abordagem que inclua simultaneamente exibilidade e precisão. O trabalho apresentado nesta dissertação desenvolve um caso de estudo sobre deteção e seguimento automático de faces humanas, em ambiente de sala de reuniões, concretizado num sistema flexível de baixo custo. O sistema proposto é baseado no sistema operativo GNU's Not Unix (GNU) linux, e é dividido em quatro etapas, a aquisição de vídeo, a deteção da face, o tracking e reorientação da posição da câmara. A aquisição consiste na captura de frames de vídeo das três câmaras Internet Protocol (IP) Sony SNC-RZ25P, instaladas na sala, através de uma rede Local Area Network (LAN) também ele já existente. Esta etapa fornece os frames de vídeo para processamento à detecção e tracking. A deteção usa o algoritmo proposto por Viola e Jones, para a identificação de objetos, baseando-se nas suas principais características, que permite efetuar a deteção de qualquer tipo de objeto (neste caso faces humanas) de uma forma genérica e em tempo real. As saídas da deteção, quando é identificado com sucesso uma face, são as coordenadas do posicionamento da face, no frame de vídeo. As coordenadas da face detetada são usadas pelo algoritmo de tracking, para a partir desse ponto seguir a face pelos frames de vídeo subsequentes. A etapa de tracking implementa o algoritmo Continuously Adaptive Mean-SHIFT (Camshift) que baseia o seu funcionamento na pesquisa num mapa de densidade de probabilidade, do seu valor máximo, através de iterações sucessivas. O retorno do algoritmo são as coordenadas da posição e orientação da face. Estas coordenadas permitem orientar o posicionamento da câmara de forma que a face esteja sempre o mais próximo possível do centro do campo de visão da câmara. Os resultados obtidos mostraram que o sistema de tracking proposto é capaz de reconhecer e seguir faces em movimento em sequências de frames de vídeo, mostrando adequabilidade para aplicação de monotorização em tempo real.
Resumo:
The availability of small inexpensive sensor elements enables the employment of large wired or wireless sensor networks for feeding control systems. Unfortunately, the need to transmit a large number of sensor measurements over a network negatively affects the timing parameters of the control loop. This paper presents a solution to this problem by representing sensor measurements with an approximate representation-an interpolation of sensor measurements as a function of space coordinates. A priority-based medium access control (MAC) protocol is used to select the sensor messages with high information content. Thus, the information from a large number of sensor measurements is conveyed within a few messages. This approach greatly reduces the time for obtaining a snapshot of the environment state and therefore supports the real-time requirements of feedback control loops.
Resumo:
We present a distributed algorithm for cyber-physical systems to obtain a snapshot of sensor data. The snapshot is an approximate representation of sensor data; it is an interpolation as a function of space coordinates. The new algorithm exploits a prioritized medium access control (MAC) protocol to efficiently transmit information of the sensor data. It scales to a very large number of sensors and it is able to operate in the presence of sensor faults.
Resumo:
We use the term Cyber-Physical Systems to refer to large-scale distributed sensor systems. Locating the geographic coordinates of objects of interest is an important problemin such systems. We present a new distributed approach to localize objects and events of interest in time complexity independent of number of nodes.
Resumo:
A vasta aplicação de antibióticos em sistemas de aquacultura tem conduzido ao aparecimento de espécies microbianas resistentes, devendo ser evitada ou, se possível, minimizada. A minimização implica um controlo muito rigoroso das doses aplicadas, algo que só pode ser realizado se todo o processo analítico for simples, barato e puder ser implementado no local. O presente trabalho descreve para este efeito um sistema sensor constituído por papel quimicamente modificado, cujo procedimento analítico foi semelhante à monitorização de pH através das conhecidas tiras indicadoras de pH universal. O papel foi modificado com base em reacções de monocamadas e assumiu uma coloração típica após contacto com o antibiótico. A intensidade da coloração estava também relacionada com a concentração desse antibiótico. Como prova deste conceito, o sensor proposto foi desenhado tendo em vista a monitorização de oxitetraciclina, um dos antibióticos utilizados neste contexto com elevada frequência. A modificação do papel foi baseada na alteração química das unidades de glucose na matriz sólida por reacção covalente com reagentes apropriados. Foram utilizadas duas estratégias diferentes para este efeito: uma foi baseada em reacções de tipo sol-gel e a outra em reacção de adição nucleófila. Posteriormente, o papel foi modificado com espécies metálicas capazes de mudar de cor na presença da oxitetraciclina. Estas modificações químicas foram avaliadas e optimizadas relativamente a vários parâmetros, no sentido de promover uma variação de cor intensa face à concentração de antibiótico. Procedeu-se ainda ao controlo desta modificação por técnicas de espectroscopia de infravermelho. A variação de cor foi avaliada por comparação visual, mas registada por imagem digital. Os materiais sensores preparados foram ainda caracterizados do ponto de vista do seu desempenho analítico. Incluíram-se aqui a identificação de uma relação linear entre coordenadas de cor e concentração, a atribuição de uma gama de concentrações capaz de fornecer uma resposta previsível e resposta cruzada face a outros antibióticos. Procedeu-se ainda à aplicação dos sensores numa amostra de água ambiental dopada com antibiótico. De uma forma geral, foi possível estabelecer um processo simples de modificação de papel capaz de aferir a presença e a quantidade de tetraciclinas, mais concretamente a oxitetraciclina. O processo aqui estabelecido é promissor, antevendo a concretização de uma metodologia simples, barata e local para a monitorização de anitbióticos em águas.
Resumo:
This paper presents a tool called Petcha that acts as an automated Teaching Assistant in computer programming courses. The ultimate objective of Petcha is to increase the number of programming exercises effectively solved by students. Petcha meets this objective by helping both teachers to author programming exercises and students to solve them. It also coordinates a network of heterogeneous systems, integrating automatic program evaluators, learning management systems, learning object repositories and integrated programming environments. This paper presents the concept and the design of Petcha and sets this tool in a service oriented architecture for managing learning processes based on the automatic evaluation of programming exercises. The paper presents also a case study that validates the use of Petcha and of the proposed architecture.
Resumo:
Earthquakes are associated with negative events, such as large number of casualties, destruction of buildings and infrastructures, or emergence of tsunamis. In this paper, we apply the Multidimensional Scaling (MDS) analysis to earthquake data. MDS is a set of techniques that produce spatial or geometric representations of complex objects, such that, objects perceived to be similar/distinct in some sense are placed nearby/distant on the MDS maps. The interpretation of the charts is based on the resulting clusters since MDS produces a different locus for each similarity measure. In this study, over three million seismic occurrences, covering the period from January 1, 1904 up to March 14, 2012 are analyzed. The events, characterized by their magnitude and spatiotemporal distributions, are divided into groups, either according to the Flinn–Engdahl seismic regions of Earth or using a rectangular grid based in latitude and longitude coordinates. Space-time and Space-frequency correlation indices are proposed to quantify the similarities among events. MDS has the advantage of avoiding sensitivity to the non-uniform spatial distribution of seismic data, resulting from poorly instrumented areas, and is well suited for accessing dynamics of complex systems. MDS maps are proven as an intuitive and useful visual representation of the complex relationships that are present among seismic events, which may not be perceived on traditional geographic maps. Therefore, MDS constitutes a valid alternative to classic visualization tools, for understanding the global behavior of earthquakes.