949 resultados para Diferenciais de retorno
Resumo:
O objectivo deste trabalho é estudar a circulação da água na Ria de Aveiro, contribuindo para o conhecimento da qualidade da sua água. É apresentada a caracterização morfológica e hidrológica da Ria, pondo em evidência a complexidade da sua morfologia e o carácter lagunar desta massa de água, que é justificado pelo reduzido caudal de água proveniente dos rios. O balanço do volume de água no ciclo semi-diurno de maré permitiu calcular caudais e percursos de maré. É analisada a variação de volume de ciclo quinzenal e discutida a importância das correntes residuais no transporte de substâncias na Ria. É apresentado um método de amostragem para determinar salinidades médias em segmentos dos canais da Ria, que admite condições quase estacionárias. Foram calculados os tempos de residência da água doce nos segmentos dos canais, tendo-se obtido tempos baixos próximo da barra, que aumentam para o interior dos canais. Foram realizadas observações de correntes de maré, de salinidade e de concentração de partículas em suspensão, em duas secções do canal que vai até ao Largo do Laranjo. Os resultados obtidos são compatíveis com a existência de circulação residual no ramo da Murtosa, predominando a corrente de enchente no sul e nascente, e a de vazante no norte e poente. O predomínio do gradiente longitudinal de salinidade indica também que o transporte dispersivo é importante. A concentração de partículas em suspensão está relacionada com a velocidade da corrente, indicando que a deposição e a ressuspensão alternam. O aumento da concentração média de partículas quando a salinidade diminui revela a influência do sedimento transportado pelos rios. O balanço de substâncias resultante do transporte entre os segmentos dos canais foi representado por um modelo de segmentos de prisma de maré. Os valores dos coeficientes de retorno entre os segmentos foram calibrados por um procedimento automático, baseado nas salinidades médias observadas. O modelo simula com exito a evolução do campo médio de salinidade durante períodos longos.
Resumo:
Nesta tese investigam-se e desenvolvem-se dispositivos para processamento integralmente óptico em redes com multiplexagem densa por divisão no comprimento de onda (DWDM). O principal objectivo das redes DWDM é transportar e distribuir um espectro óptico densamente multiplexado com sinais de débito binário ultra elevado, ao longo de centenas ou milhares de quilómetros de fibra óptica. Estes sinais devem ser transportados e encaminhados no domínio óptico de forma transparente, sem conversões óptico-eléctrico-ópticas (OEO), evitando as suas limitações e custos. A tecnologia baseada em amplificadores ópticos de semicondutor (SOA) é promissora graças aos seus efeitos não-lineares ultra-rápidos e eficientes, ao potencial para integração, reduzido consumo de potência e custos. Conversores de comprimento de onda são o elemento óptico básico para aumentar a capacidade da rede e evitar o bloqueio de comprimentos de onda. Neste trabalho, são estudados e analisados experimentalmente métodos para aumentar a largura de banda operacional de conversores de modulação cruzada de ganho (XGM), a fim de permitir a operação do SOA para além das suas limitações físicas. Conversão de um comprimento de onda, e conversão simultânea de múltiplos comprimentos de onda são testadas, usando interferómetros de Mach-Zehnder com SOA. As redes DWDM de alto débito binário requerem formatos de modulação optimizados, com elevada tolerância aos efeitos nefastos da fibra, e reduzida ocupação espectral. Para esse efeito, é vital desenvolver conversores integramente ópticos de formatos de modulação, a fim de permitir a interligação entre as redes já instaladas, que operam com modulação de intensidade, e as redes modernas, que utilizam formatos de modulação avançados. No âmbito deste trabalho é proposto um conversor integralmente óptico de formato entre modulação óptica de banda lateral dupla e modulação óptica de banda lateral residual; este é caracterizado através de simulação e experimentalmente. Adicionalmente, é proposto um conversor para formato de portadora suprimida, através de XGM e modulação cruzada de fase. A interligação entre as redes de transporte com débito binário ultra-elevado e as redes de acesso com débito binário reduzido requer conversão óptica de formato de impulso entre retorno-a-zero (RZ) e não-RZ. São aqui propostas e investigadas duas estruturas distintas: uma baseada em filtragem desalinhada do sinal convertido por XGM; uma segunda utiliza as dinâmicas do laser interno de um SOA com ganho limitado (GC-SOA). Regeneração integralmente óptica é essencial para reduzir os custos das redes. Dois esquemas distintos são utilizados para regeneração: uma estrutura baseada em MZI-SOA, e um método no qual o laser interno de um GC-SOA é modulado com o sinal distorcido a regenerar. A maioria dos esquemas referidos é testada experimentalmente a 40 Gb/s, com potencial para aplicação a débitos binários superiores, demonstrado que os SOA são uma tecnologia basilar para as redes ópticas do futuro.
Resumo:
A relação entre a epidemiologia, a modelação matemática e as ferramentas computacionais permite construir e testar teorias sobre o desenvolvimento e combate de uma doença. Esta tese tem como motivação o estudo de modelos epidemiológicos aplicados a doenças infeciosas numa perspetiva de Controlo Ótimo, dando particular relevância ao Dengue. Sendo uma doença tropical e subtropical transmitida por mosquitos, afecta cerca de 100 milhões de pessoas por ano, e é considerada pela Organização Mundial de Saúde como uma grande preocupação para a saúde pública. Os modelos matemáticos desenvolvidos e testados neste trabalho, baseiam-se em equações diferenciais ordinárias que descrevem a dinâmica subjacente à doença nomeadamente a interação entre humanos e mosquitos. É feito um estudo analítico dos mesmos relativamente aos pontos de equilíbrio, sua estabilidade e número básico de reprodução. A propagação do Dengue pode ser atenuada através de medidas de controlo do vetor transmissor, tais como o uso de inseticidas específicos e campanhas educacionais. Como o desenvolvimento de uma potencial vacina tem sido uma aposta mundial recente, são propostos modelos baseados na simulação de um hipotético processo de vacinação numa população. Tendo por base a teoria de Controlo Ótimo, são analisadas as estratégias ótimas para o uso destes controlos e respetivas repercussões na redução/erradicação da doença aquando de um surto na população, considerando uma abordagem bioeconómica. Os problemas formulados são resolvidos numericamente usando métodos diretos e indiretos. Os primeiros discretizam o problema reformulando-o num problema de optimização não linear. Os métodos indiretos usam o Princípio do Máximo de Pontryagin como condição necessária para encontrar a curva ótima para o respetivo controlo. Nestas duas estratégias utilizam-se vários pacotes de software numérico. Ao longo deste trabalho, houve sempre um compromisso entre o realismo dos modelos epidemiológicos e a sua tratabilidade em termos matemáticos.
Resumo:
Esta dissertação estuda em detalhe três problemas elípticos: (I) uma classe de equações que envolve o operador Laplaciano, um termo singular e nãolinearidade com o exponente crítico de Sobolev, (II) uma classe de equações com singularidade dupla, o expoente crítico de Hardy-Sobolev e um termo côncavo e (III) uma classe de equações em forma divergente, que envolve um termo singular, um operador do tipo Leray-Lions, e uma função definida nos espaços de Lorentz. As não-linearidades consideradas nos problemas (I) e (II), apresentam dificuldades adicionais, tais como uma singularidade forte no ponto zero (de modo que um "blow-up" pode ocorrer) e a falta de compacidade, devido à presença do exponente crítico de Sobolev (problema (I)) e Hardy-Sobolev (problema (II)). Pela singularidade existente no problema (III), a definição padrão de solução fraca pode não fazer sentido, por isso, é introduzida uma noção especial de solução fraca em subconjuntos abertos do domínio. Métodos variacionais e técnicas da Teoria de Pontos Críticos são usados para provar a existência de soluções nos dois primeiros problemas. No problema (I), são usadas uma combinação adequada de técnicas de Nehari, o princípio variacional de Ekeland, métodos de minimax, um argumento de translação e estimativas integrais do nível de energia. Neste caso, demonstramos a existência de (pelo menos) quatro soluções não triviais onde pelo menos uma delas muda de sinal. No problema (II), usando o método de concentração de compacidade e o teorema de passagem de montanha, demostramos a existência de pelo menos duas soluções positivas e pelo menos um par de soluções com mudança de sinal. A abordagem do problema (III) combina um resultado de surjectividade para operadores monótonos, coercivos e radialmente contínuos com propriedades especiais do operador de tipo Leray- Lions. Demonstramos assim a existência de pelo menos, uma solução no espaço de Lorentz e obtemos uma estimativa para esta solução.
Resumo:
A optimização estrutural é uma temática antiga em engenharia. No entanto, com o crescimento do método dos elementos finitos em décadas recentes, dá origem a um crescente número de aplicações. A optimização topológica, especificamente, surge associada a uma fase de definição de domínio efectivo de um processo global de optimização estrutural. Com base neste tipo de optimização, é possível obter a distribuição óptima de material para diversas aplicações e solicitações. Os materiais compósitos e alguns materiais celulares, em particular, encontram-se entre os materiais mais proeminentes dos nossos dias, em termos das suas aplicações e de investigação e desenvolvimento. No entanto, a sua estrutura potencialmente complexa e natureza heterogénea acarretam grandes complexidades, tanto ao nível da previsão das suas propriedades constitutivas quanto na obtenção das distribuições óptimas de constituintes. Procedimentos de homogeneização podem fornecer algumas respostas em ambos os casos. Em particular, a homogeneização por expansão assimptótica pode ser utilizada para determinar propriedades termomecânicas efectivas e globais a partir de volumes representativos, de forma flexível e independente da distribuição de constituintes. Além disso, integra processos de localização e fornece informação detalhada acerca de sensibilidades locais em metodologias de optimização multiescala. A conjugação destas áreas pode conduzir a metodologias de optimização topológica multiescala, nas quais de procede à obtenção não só de estruturas óptimas mas também das distribuições ideais de materiais constituintes. Os problemas associados a estas abordagens tendem, no entanto, a exigir recursos computacionais assinaláveis, criando muitas vezes sérias limitações à exequibilidade da sua resolução. Neste sentido, técnicas de cálculo paralelo e distribuído apresentam-se como uma potencial solução. Ao dividir os problemas por diferentes unidades memória e de processamento, é possível abordar problemas que, de outra forma, seriam proibitivos. O principal foco deste trabalho centra-se na importância do desenvolvimento de procedimentos computacionais para as aplicações referidas. Adicionalmente, estas conduzem a diversas abordagens alternativas na procura simultânea de estruturas e materiais para responder a aplicações termomecânicas. Face ao exposto, tudo isto é integrado numa plataforma computacional de optimização multiobjectivo multiescala em termoelasticidade, desenvolvida e implementada ao longo deste trabalho. Adicionalmente, o trabalho é complementado com a montagem e configuração de um cluster do tipo Beowulf, assim como com o desenvolvimento do código com vista ao cálculo paralelo e distribuído.
Resumo:
Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.
Resumo:
The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.
Resumo:
A grande motivação para este trabalho resultou na avaliação da vulnerabilidade sísmica das escolas básicas e secundárias que fazem parte integrante do parque escolar de Portugal Continental. Apesar de até ao momento apenas se terem estudado a vulnerabilidade de algumas escolas em algumas zonas particulares do nosso país, para este trabalho de investigação tivemos uma ambição muito maior e obviamente fizemos um esforço muito maior. Estabelecemos assim como meta, a avaliação de todo o parque escolar. Embora todo o parque escolar possua na ordem das três centenas de escolas em todo o território nacional e sendo este projeto de reabilitação, um projeto com a duração de 2007 a 2015. Em 2011, por motivos da crise económica, todo o projeto congelou sendo reabilitadas até à data cerca de apenas um terço das escolas. Esta quantidade foi o número de escolas que avaliamos em todo o país. As escolas, sendo edifícios públicos com uma importância fundamental, tanto pela elevada concentração de jovens, como pela função essencial como centros de aprendizagem para as gerações vindouras, como também pela ameaça que representam na eventualidade dum cenário sísmico pela enorme densidade de utilizadores, e pela vantagem de nesse cenário de catástrofe a importância estrutural ser superior em relação à maior parte dos edifícios correntes, devidamente demonstrado pelos argumentos enumerados, consequentemente as escolas podem servir como instalações de proteção civil perante uma catástrofe sísmica para apoio das populações circundantes afetadas. Portanto para cada uma das escolas cordialmente fornecidas pelo Parque Escolar, E.P.E., foi feito um estudo exaustivo e muito individual de cada uma das escolas, onde cada análise foi desenvolvida por uma metodologia simplificada, sendo cada análise sempre individual, e nunca tendo sida aplicada em série, este fator melhora substancialmente a eficácia da avaliação para a quantificação das vulnerabilidades e da determinação do grau de dano e das frações de perda para os requisitos fundamentais de limitação de danos, de não colapso, e de colapso iminente que correspondem a ações com períodos de retorno de 95, 475 e 975 anos. Este trabalho é fundamental para as entidades competentes terem a consciência da vulnerabilidade das escolas secundárias, para puderem atuar a nível estrutural e diminuir assim a vulnerabilidade sísmica, e mesmo que por impossibilidade económica o poder governamental não intervenha, então pode e principalmente deve, elaborar planos de emergência tanto com engenheiros civis qualificados como com a total colaboração das corporações de bombeiros que fazem parte das forças de operação e socorro da Autoridade Nacional de Proteção Civil (ANPC).
Resumo:
Sabemos que la relación filosófica entre la obra de Edmund Husserl y Martin Heidegger no es un asunto sencillo de abordar. Con facilidad se inclina la balanza hacia uno u otro autor.1 Eso por sí no sería grave, excepto por el hecho de que múltiples interpretaciones de entrada impiden cualquier posibilidad de acercamiento.2 De esa forma uno estaría obligado a tomar posición a favor de uno y en contra del otro. Ese camino evidentemente empobrece la discusión filosófica. Sin embargo, al intentar abordar una posible relación nos encontramos con ciertas interpretaciones de Heidegger que parecen colocar algo en donde todavía no había tal propuesta en su momento. Ante este panorama quisiera intentar destacar algunos aspectos que den luz sobre la relación fenomenológica entre Husserl y Heidegger tomando como hilo conductor las aseveraciones enfáticas de Heidegger en torno al papel que desempeñaron las Investigaciones lógicas (IL) de Husserl en la conformación de su pensar. Evidentemente con este retorno a las IL buscamos poner a prueba la propia interpretación de Heidegger. De esta forma se verá al final si los señalamientos de Heidegger proporcionan el espacio para llevar a cabo un diálogo fructífero que supere posiciones cerradas.
Curso colectivo: Escenarios del deseo. Aproximaciones desde la filosofía, el psicoanálisis y el cine
Resumo:
Coordinan: Dr. Alberto Constante, Dr. Ignacio Díaz De La Serna, Dra. Leticia Flores Farfán,
Resumo:
Dissertação de Mestrado, Gestão da Água e da Costa, Faculdade de Ciências e Tecnologia, Universidade do Algarve, 2007
Resumo:
Dissertação de mest., Energias Renováveis e Gestão de Energia, Faculdade de Ciências e Tecnologia, Univ. do Algarve, 2011
Resumo:
Dissertação de mestrado, Biologia Marinha, Faculdade de Ciências e Tecnologia, Universidadde do Algarve, 2015
Resumo:
Dissertação de mestrado, Engenharia do Ambiente, Faculdade de Ciências e Tecnologia, Universidade do Algarve, 2015
Resumo:
Dissertação de Mestrado, Finanças Empresariais, Faculdade de Economia, Universidade do Algarve, 2015