957 resultados para modelo de cálculo


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objectivo deste trabalho científico é o estudo do transporte vertical de momento linear horizontal (CMT) realizado por sistemas de nuvens de convecção profunda sobre o oceano tropical. Para realizar este estudo, foram utilizadas simulações tridimensionais produzidas por um modelo explícito de nuvens (CRM) para os quatro meses de duração da campanha observacional TOGA COARE que ocorreu sobre as águas quentes do Pacífico ocidental. O estudo foca essencialmente as características estatísticas e à escala da nuvem do CMT durante um episódio de fortes ventos de oeste e durante um período de tempo maior que incluí este evento de convecção profunda. As distribuições verticais e altitude-temporais de campos atmosféricos relacionados com o CMT são avaliadas relativamente aos campos observacionais disponíveis, mostrando um bom acordo com os resultados de estudos anteriores, confirmando assim a boa qualidade das primeiras e fornecendo a confiança necessária para continuar a investigação. A sensibilidade do CMT em relação do domínio espacial do model é analisada, utilizando dois tipos de simulações tridimensionais produzidas por domínios horizontais de diferente dimensão, sugerindo que o CMT não depende da dimensão do domínio espacial horizontal escolhido para simular esta variável. A capacidade da parameterização do comprimento de mistura simular o CMT é testada, destacando as regiões troposféricas onde os fluxos de momento linear horizontal são no sentido do gradiente ou contra o gradiente. Os fluxos no sentido do gradiente apresentam-se relacionados a uma fraca correlação entre os campos atmosféricos que caracterizam esta parameterização, sugerindo que as formulações dos fluxos de massa dentro da nuvem e o fenómeno de arrastamento do ar para dentro da nuvem devem ser revistos. A importância do ar saturado e não saturado para o CMT é estudada com o objectivo de alcançar um melhor entendimento acerca dos mecanismos físicos responsáveis pelo CMT. O ar não saturado e saturado na forma de correntes descendentes contribuem de forma determinante para o CMT e deverão ser considerados em futuras parameterizações do CMT e da convecção em nuvens cumulus. Métodos de agrupamento foram aplicados às contribuições do ar saturado e não saturado, analisando os campos da força de flutuação e da velocidade vertical da partícula de ar, concluindo-se a presença de ondas gravíticas internas como mecanismo responsável pelo ar não saturado. A força do gradiente de pressão dentro da nuvem é também avaliada, utilizando para este efeito a fórmula teórica proposta por Gregory et al. (1997). Uma boa correlação entre esta força e o produto entre efeito de cisalhamento do vento e a perturbação da velocidade vertical é registada, principalmente para as correntes ascendentes dentro da nuvem durante o episódio de convecção profunda. No entanto, o valor ideal para o coeficiente empírico c*, que caracteriza a influência da força do gradiente de pressão dentro da nuvem sobre a variação vertical da velocidade horizontal dentro da nuvem, não é satisfatoriamente alcançado. Bons resultados são alcançados através do teste feito à aproximação do fluxo de massa proposta por Kershaw e Gregory (1997) para o cálculo do CMT total, revelando mais uma vez a importância do ar não saturado para o CMT.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Over the years it was observed at the Ria de Aveiro lagoon inlet, near the head of the north breakwater, a depth increase that might threaten the stability of this structure. A trend of accretion in the navigation channel of this lagoon is observed, endangering the navigation in this region. In order to understand the origin of these and other trends observed, the knowledge of the sediment transport in the study area is imperative. The main aim of this work is understanding the dominant physical processes in the sediment transport of sediment at the Ria de Aveiro lagoon inlet and adjacent area, improving knowledge of this region morphodynamics. The methodology followed in this study consisted in the analyzes of the topohydrographic surveys performed by the Administration of the Aveiro Harbor, and in the numerical simulations results performed with the morphodynamic modeling system MORSYS2D. The analysis of the surveys was performed by studying the temporal evolution of the bathymetry. The numerical analysis was based on the implementation of the model at the study area, sensitivity analysis of the formulations used to compute the sediment transport to the variation of input parameters (e.g. depth, sediment size, tidal currents) and analysis of the sediment uxes and bathymetric changes predicted. The simulations considered as sediment transport forcing the tidal currents only and the coupled forcing of tides and waves. Considering the wave e ect as sediment transport forcing, both monochromatic waves and a wave regime were simulated. The results revealed that the observed residual sediment transport patterns are generated due to the channel con guration. Inside the lagoon the uxes are mainly induced by the tidal currents action, restricting the action of waves to the inlet and adjacent coast. In the navigation channel the residual sediment uxes predicted are directed o - shore with values between 7 and 40 m3=day generating accretions of approximately 10 m3=day for the shallower region and 35 m3=day for the region between the tidal gauge and the tri^angulo das mar es. At the inlet, the residual uxes are approximately 30 m3=day inducing trends of erosion of approximately 20 m3=day. At the North side of the nearshore accretion is predicted, while at the South side is predicted erosion, at the rates of 250 and 1500 m3=day, respectively. It was also concluded that the waves with higher contribution to the residual sediment uxes are those with heights between 4 and 5 m. However, the storm waves with heights bigger than 5 m, despite their 10% of frequency of occurrence are responsible for 25% of the observed sediment transport.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A expressão “Piano Funcional” designa a instrução, em grupo reduzido, em diversas competências funcionais – não incluídas no ensino tradicional europeu, mais orientado para a execução virtuosista. O estudo funcional do piano activa no estudante processos de relacionamento, síntese e generalização sobre diversos aspectos da actividade musical, contribuindo para uma consciência aprofundada da linguagem e alimentando a flexibilidade e autonomia dos educandos. O objectivo do Piano Funcional é o de permitir a aquisição de uma funcionalidade musical plena, através da apropriação e controlo da linguagem musical. O objectivo do presente trabalho é o de propor um Modelo Generativo de Piano Funcional. O modelo generativo proposto parte de um levantamento e análise crítica das dinâmicas que limitam a eficácia do sistema de ensino, nomeadamente: a predominância da descodificação simbólica em detrimento da oralidade e do movimento, o favorecimento do mecanicismo e a valorização excessiva da prática interpretativa. Tais dinâmicas conduzem frequentemente ao sacrifício das competências criativas na formação dos músicos. Propõe-se assim a adopção de um grupo de “novos paradigmas”, tais como: a promoção de valores funcionais; a integração de competências, e a (re)valorização do som, da criatividade, da audição e da sensorialidade como motores das aquisições musicais do aluno. O modelo articula três processos generativos, cada um deles agrupando experiências nos domínios da (i) leitura, (ii) harmonia e (iii) experimentação. O modelo de Piano Funcional é generativo, também, porque promove uma aprendizagem como construção pessoal e criativa. Adicionalmente, realizou-se um trabalho empírico que consistiu na aplicação de conceitos de Piano Funcional na aprendizagem pianística de três sujeitos, ao longo de seis meses. O objectivo deste trabalho empírico foi o de desenvolver actividades que ilustram o âmbito do Piano Funcional e o de aferir a aplicabilidade pedagógica do modelo proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduzimos um cálculo das variações fraccional nas escalas temporais ℤ e (hℤ)!. Estabelecemos a primeira e a segunda condição necessária de optimalidade. São dados alguns exemplos numéricos que ilustram o uso quer da nova condição de Euler–Lagrange quer da nova condição do tipo de Legendre. Introduzimos também novas definições de derivada fraccional e de integral fraccional numa escala temporal com recurso à transformada inversa generalizada de Laplace.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas empresas desportivas o principal ativo é o direito desportivo sobre o jogador profissional. O nosso estudo debruça-se no resultante da formação. Começámos por verificar que o direito desportivo preenche os requisitos para ser reconhecido como ativo intangível. Posteriormente analisámos os relatórios e contas de clubes europeus e de clubes brasileiros de modo a identificarmos semelhanças e diferenças ao nível contabilístico dos ativos intangíveis resultantes da formação, um dos nossos objetivos. Verificámos que a principal diferença reside no não reconhecimento do direito desportivo resultante da formação pelos primeiros, contrariamente à prática verificada nos clubes brasileiros. No cenário atual, pelo menos, os clubes europeus não proporcionam informação plena e a comparabilidade entre clubes encontra-se comprometida. Por conseguinte, outro dos nossos objetivos é propor um modelo que permita valorizar com fiabilidade o direito desportivo resultante da formação. A conceção do modelo teve o auxílio dos clubes portugueses e brasileiros, através da resposta a um inquérito dirigido a clubes europeus e brasileiros. Esta metodologia possibilitou, igualmente, confirmar conclusões resultantes da análise da informação contabilística elaborada pelos clubes e identificar outros pontos de contacto e de afastamento entre os clubes relativamente a jogadores formados internamente e ao reconhecimento inicial do direito desportivo. Concluímos que em Portugal existe informação contabilística incompleta sobre os jogadores formados internamente, dado os clubes portugueses considerarem não existir um critério de valorização fiável, e sobre os jogadores que chegam em fim de contrato. Por outro lado, todos os clubes brasileiros respondentes valorizam e reconhecem o direito desportivo resultante da formação como ativo intangível com base nos encargos com a formação do jogador. Por fim, apresentamos a nossa proposta de modelo assente no custo de formação, com a aplicação do método dos centros de gastos. Os componentes incluídos tiveram em conta a opinião dos clubes, tendo posteriormente sido efetuada a análise de clusters e a seleção final de acordo com a IAS 38 da UE. A nossa proposta foi validada junto de agentes com conhecimento e experiência sobre o fenómeno em estudo através de entrevista.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A informação digitalizada e nado digital, fruto do avanço tecnológico proporcionado pelas Tecnologias da Informação e Comunicação (TIC), bem como da filosofia participativa da Web 2.0, conduziu à necessidade de reflexão sobre a capacidade de os modelos atuais, para a organização e representação da informação, de responder às necessidades info-comunicacionais assim como o acesso à informação eletrónica pelos utilizadores em Instituições de Memória. O presente trabalho de investigação tem como objetivo a conceção e avaliação de um modelo genérico normativo e harmonizador para a organização e representação da informação eletrónica, num sistema de informação para o uso de utilizadores e profissionais da informação, no contexto atual colaborativo e participativo. A definição dos objetivos propostos teve por base o estudo e análise qualitativa das normas adotadas pelas instituições de memória, para os registos de autoridade, bibliográfico e formatos de representação. Após a concetualização, foi desenvolvido e avaliado o protótipo, essencialmente, pela análise qualitativa dos dados obtidos a partir de testes à recuperação da informação. A experiência decorreu num ambiente laboratorial onde foram realizados testes, entrevistas e inquéritos por questionário. A análise cruzada dos resultados, obtida pela triangulação dos dados recolhidos através das várias fontes, permitiu concluir que tanto os utilizadores como os profissionais da informação consideraram muito interessante a integração da harmonização normativa refletida nos vários módulos, a integração de serviços/ferramentas comunicacionais e a utilização da componente participativa/colaborativa da plataforma privilegiando a Wiki, seguida dos Comentários, Tags, Forum de discussão e E-mail.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A optimização estrutural é uma temática antiga em engenharia. No entanto, com o crescimento do método dos elementos finitos em décadas recentes, dá origem a um crescente número de aplicações. A optimização topológica, especificamente, surge associada a uma fase de definição de domínio efectivo de um processo global de optimização estrutural. Com base neste tipo de optimização, é possível obter a distribuição óptima de material para diversas aplicações e solicitações. Os materiais compósitos e alguns materiais celulares, em particular, encontram-se entre os materiais mais proeminentes dos nossos dias, em termos das suas aplicações e de investigação e desenvolvimento. No entanto, a sua estrutura potencialmente complexa e natureza heterogénea acarretam grandes complexidades, tanto ao nível da previsão das suas propriedades constitutivas quanto na obtenção das distribuições óptimas de constituintes. Procedimentos de homogeneização podem fornecer algumas respostas em ambos os casos. Em particular, a homogeneização por expansão assimptótica pode ser utilizada para determinar propriedades termomecânicas efectivas e globais a partir de volumes representativos, de forma flexível e independente da distribuição de constituintes. Além disso, integra processos de localização e fornece informação detalhada acerca de sensibilidades locais em metodologias de optimização multiescala. A conjugação destas áreas pode conduzir a metodologias de optimização topológica multiescala, nas quais de procede à obtenção não só de estruturas óptimas mas também das distribuições ideais de materiais constituintes. Os problemas associados a estas abordagens tendem, no entanto, a exigir recursos computacionais assinaláveis, criando muitas vezes sérias limitações à exequibilidade da sua resolução. Neste sentido, técnicas de cálculo paralelo e distribuído apresentam-se como uma potencial solução. Ao dividir os problemas por diferentes unidades memória e de processamento, é possível abordar problemas que, de outra forma, seriam proibitivos. O principal foco deste trabalho centra-se na importância do desenvolvimento de procedimentos computacionais para as aplicações referidas. Adicionalmente, estas conduzem a diversas abordagens alternativas na procura simultânea de estruturas e materiais para responder a aplicações termomecânicas. Face ao exposto, tudo isto é integrado numa plataforma computacional de optimização multiobjectivo multiescala em termoelasticidade, desenvolvida e implementada ao longo deste trabalho. Adicionalmente, o trabalho é complementado com a montagem e configuração de um cluster do tipo Beowulf, assim como com o desenvolvimento do código com vista ao cálculo paralelo e distribuído.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho pretende auxiliar o processo de consolidação do conceito de sustentabilidade no seio das organizações. Partindo de ferramentas de gestão e avaliação já existentes, esta tese sugere a sua integração numa única metodologia, ultrapassando desse modo as limitações e potenciando as suas capacidades enquanto ferramentas isoladas. O modelo proposto para o Sistema de Gestão da Sustentabilidade (SGS) integra assim: o conceito de melhoria contínua característico dos sistemas de gestão normalizados; a capacidade de tradução da perspetiva estratégica da gestão para o plano operacional, característica do Business Scorecard (BSC); e, por fim, a avaliação emergética é ainda utilizada como uma ferramenta de avaliação da sustentabilidade de sistemas. Um objetivo secundário desta tese prende-se com o desenvolvimento de um procedimento para a realização da análise emergética de um sistema. Depois de analisada a literatura referente à utilização da análise emergética, identificou-se como necessária a definição de um procedimento normalizado, adotando um conjunto de tarefas e um formato de apresentação de resultados que permita disseminar o conceito e tornar a ferramenta mais “utilizável”. Por outro lado, procurou-se dotar o procedimento com um conjunto de indicações que permitem ultrapassar limitações e inconvenientes apontados pelos críticos mas também utilizadores do método, nomeadamente: problemas de dupla contagem, cálculo da incerteza da análise e critérios de qualidade da informação utilizada. O modelo dos sistemas de gestão normalizados apresenta um papel central na metodologia proposta. O conceito de “melhoria contínua” afigura-se como fundamental num sistema que pretende implementar o conceito “desenvolvimento sustentável” e avaliar o seu desempenho à luz do mesmo. Assim, o ciclo Plan-Do-check-Act (PDCA) deve ser utilizado para implementar o SGS de acordo com uma Política para a Sustentabilidade que a organização deve desenvolver. Definida a Política, o modelo baseia-se então no ciclo PDCA: fase de planeamento; fase de implementação; fase de verificação; e fase de revisão. É na fase de planeamento do SGS que se sugere a introdução das outras duas ferramentas: a análise emergética (AEm) e o BSC. A fase de planeamento do modelo de SGS proposto neste trabalho foi aplicada à Universidade de Aveiro (UA), incluindo a definição de uma Política para a Sustentabilidade e o planeamento estratégico e operacional. A avaliação emergética à UA foi realizada recorrendo ao procedimento desenvolvido nesta tese e permitiu caracterizar e avaliar os fluxos de recursos que a “alimentam” sob uma só unidade, atribuindo deste modo graus de importância aos diferentes recursos utilizados. A informação representa 96% do total de recursos utilizados na UA, quando avaliados sob o ponto de vista emergética. Para além da informação, os fluxos financeiros representam a maior fatia do orçamento emergético da UA, grande parte dos quais serve para sustentar os serviços prestados pelo corpo docente da UA. Analisando valores históricos de 3 indicadores de desempenho emergético, observa-se que a UA não regista uma evolução positiva em nenhum dos indicadores: a emergia utilizada nos edifícios tem-se mantido mais ou menos constante; a retribuição emergética da UA para a sociedade, avaliada sobre a forma de diplomados, tem diminuído; e a relação emergética entre professores e alunos tem também diminuído, facto que pode refletir-se na qualidade dos “produtos” da UA. Da aplicação do SGS à UA regista-se: a adequabilidade do ciclo PDCA à implementação de um SGS; a capacidade da AEm “obrigar” a organização a adotar uma abordagem sistémica da sua atividade, resultando numa visão mais aprofundada da sua relação com o contexto ambiental, económico e social em que se insere; a importância da visão estratégica e da sua tradução em termos operacionais na fase de planeamento de um SGS; e, por fim, a capacidade de adaptação e dupla funcionalidade (implementação e avaliação) do modelo de SGS proposto. A metodologia de SGS proposta nesta tese, sendo direcionada para todo o tipo de organizações, não se desvirtua quando aplicada ao contexto específico das instituições de ensino superior e permite implementar e avaliar o conceito “desenvolvimento sustentável” nas quatro dimensões da universidade (Educação, Investigação, Operação; Relação com as partes interessadas).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Atualmente, a poluição atmosférica constitui uma das principais causas ambientais de mortalidade. Cerca de 30% da população europeia residente em áreas urbanas encontra-se exposta a níveis de poluição atmosférica superiores aos valores- limite de qualidade do ar legislados para proteção da saúde humana, representando o tráfego rodoviário uma das principais fontes de poluição urbana. Além dos poluentes tradicionais avaliados em áreas urbanas, os poluentes classificados como perigosos para a saúde (Hazard Air Pollutants - HAPs) têm particular relevância devido aos seus conhecidos efeitos tóxicos e cancerígenos. Neste sentido, a avaliação da exposição tornase primordial para a determinação da relação entre a poluição atmosférica urbana e efeitos na saúde. O presente estudo tem como principal objetivo o desenvolvimento e implementação de uma metodologia para avaliação da exposição individual à poluição atmosférica urbana relacionada com o tráfego rodoviário. De modo a atingir este objetivo, foram identificados os parâmetros relevantes para a quantificação de exposição e analisados os atuais e futuros potenciais impactos na saúde associados com a exposição à poluição urbana. Neste âmbito, o modelo ExPOSITION (EXPOSure model to traffIc-relaTed aIr pOllutioN) foi desenvolvido baseado numa abordagem inovadora que envolve a análise da trajetória dos indivíduos recolhidas por telemóveis com tecnologia GPS e processadas através da abordagem de data mining e análise geoespacial. O modelo ExPOSITION considera também uma abordagem probabilística para caracterizar a variabilidade dos parâmetros microambientais e a sua contribuição para exposição individual. Adicionalmente, de forma a atingir os objetivos do estudo foi desenvolvido um novo módulo de cálculo de emissões de HAPs provenientes do transporte rodoviário. Neste estudo, um sistema de modelação, incluindo os modelos de transporteemissões- dispersão-exposição, foi aplicado na área urbana de Leiria para quantificação de exposição individual a PM2.5 e benzeno. Os resultados de modelação foram validados com base em medições obtidas por monitorização pessoal e monitorização biológica verificando-se uma boa concordância entre os resultados do modelo e dados de medições. A metodologia desenvolvida e implementada no âmbito deste trabalho permite analisar e estimar a magnitude, frequência e inter e intra-variabilidade dos níveis de exposição individual, bem como a contribuição de diferentes microambientes, considerando claramente a sequência de eventos de exposição e relação fonte-recetor, que é fundamental para avaliação dos efeitos na saúde e estudos epidemiológicos. O presente trabalho contribui para uma melhor compreensão da exposição individual em áreas urbanas, proporcionando novas perspetivas sobre a exposição individual, essenciais na seleção de estratégias de redução da exposição à poluição atmosférica urbana, e consequentes efeitos na saúde.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese apresenta um estudo sobre otimização económica de parques eólicos, com o objetivo de obter um algoritmo para otimização económica de parques eólicos através do custo da energia produzida. No estudo utilizou-se uma abordagem multidisciplinar. Inicialmente, apresentam-se as principais tecnologias e diferentes arquiteturas utilizadas nos parques eólicos. Bem como esquemas de funcionamento e gestão dos parques. São identificadas variáveis necessárias e apresenta-se um modelo dimensionamento para cálculo dos custos da energia produzida, tendo-se dado ênfase às instalações onshore e ligados a rede elétrica de distribuição. É feita uma análise rigorosa das características das topologias dos aerogeradores disponíveis no mercado, e simula-se o funcionamento de um parque eólico para testar a validade dos modelos desenvolvidos. Também é implementado um algoritmo para a obtenção de uma resposta otimizada para o ciclo de vida económico do parque eólico em estudo. A abordagem proposta envolve algoritmos para otimização do custo de produção com multiplas funções objetivas com base na descrição matemática da produção de eletricidade. Foram desenvolvidos modelos de otimização linear, que estabelece a ligação entre o custo económico e a produção de eletricidade, tendo em conta ainda as emissões de CO2 em instrumentos de política energética para energia eólica. São propostas expressões para o cálculo do custo de energia com variáveis não convencionais, nomeadamente, para a produção variável do parque eólico, fator de funcionamento e coeficiente de eficiência geral do sistema. Para as duas últimas, também é analisado o impacto da distribuição do vento predominante no sistema de conversão de energia eólica. Verifica-se que os resultados obtidos pelos algoritmos propostos são similares às obtidas por demais métodos numéricos já publicados na comunidade científica, e que o algoritmo de otimização económica sofre influência significativa dos valores obtidos dos coeficientes em questão. Finalmente, é demonstrado que o algoritmo proposto (LCOEwso) é útil para o dimensionamento e cálculo dos custos de capital e O&M dos parques eólicos com informação incompleta ou em fase de projeto. Nesse sentido, o contributo desta tese vem ser desenvolver uma ferramenta de apoio à tomada de decisão de um gestor, investidor ou ainda agente público em fomentar a implantação de um parque eólico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta tese de doutoramento apresentamos um cálculo das variações fraccional generalizado. Consideramos problemas variacionais com derivadas e integrais fraccionais generalizados e estudamo-los usando métodos directos e indirectos. Em particular, obtemos condições necessárias de optimalidade de Euler-Lagrange para o problema fundamental e isoperimétrico, condições de transversalidade e teoremas de Noether. Demonstramos a existência de soluções, num espaço de funções apropriado, sob condições do tipo de Tonelli. Terminamos mostrando a existência de valores próprios, e correspondentes funções próprias ortogonais, para problemas de Sturm- Liouville.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The work presented in this Ph.D thesis was developed in the context of complex network theory, from a statistical physics standpoint. We examine two distinct problems in this research field, taking a special interest in their respective critical properties. In both cases, the emergence of criticality is driven by a local optimization dynamics. Firstly, a recently introduced class of percolation problems that attracted a significant amount of attention from the scientific community, and was quickly followed up by an abundance of other works. Percolation transitions were believed to be continuous, until, recently, an 'explosive' percolation problem was reported to undergo a discontinuous transition, in [93]. The system's evolution is driven by a metropolis-like algorithm, apparently producing a discontinuous jump on the giant component's size at the percolation threshold. This finding was subsequently supported by number of other experimental studies [96, 97, 98, 99, 100, 101]. However, in [1] we have proved that the explosive percolation transition is actually continuous. The discontinuity which was observed in the evolution of the giant component's relative size is explained by the unusual smallness of the corresponding critical exponent, combined with the finiteness of the systems considered in experiments. Therefore, the size of the jump vanishes as the system's size goes to infinity. Additionally, we provide the complete theoretical description of the critical properties for a generalized version of the explosive percolation model [2], as well as a method [3] for a precise calculation of percolation's critical properties from numerical data (useful when exact results are not available). Secondly, we study a network flow optimization model, where the dynamics consists of consecutive mergings and splittings of currents flowing in the network. The current conservation constraint does not impose any particular criterion for the split of current among channels outgoing nodes, allowing us to introduce an asymmetrical rule, observed in several real systems. We solved analytically the dynamic equations describing this model in the high and low current regimes. The solutions found are compared with numerical results, for the two regimes, showing an excellent agreement. Surprisingly, in the low current regime, this model exhibits some features usually associated with continuous phase transitions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A evolução da Internet, e em especial da Web, originou alterações significativas na forma como o indivíduo comunica, conduzindo até que a Web 2.0 tenha mudado o ponto gravitacional da comunicação online, fazendo que o enfoque passasse a ser no acesso às pessoas e não apenas no acesso à informação. Os social media permitem que os indivíduos comuniquem e interajam de formas inovadoras e colaborativas, alterando definitivamente a forma como estes se relacionam e, como o presente estudo pretende, em parte, demonstrar, as instituições culturais e museológicas não são indiferentes a esta mudança de paradigma comunicacional. As exigências e transformações da sociedade atual, intimamente ligada às tecnologias da informação e comunicação, têm levantado novas questões às instituições museológicas, conduzindo a que os museus enfrentem novos desafios de transformação do seu papel social, potenciando o seu cariz eminentemente comunicacional através da utilização das ferramentas Web 2.0 e social media. Os social media possibilitam a evolução do papel do museu, de um fornecedor de informação, para um potenciador de conhecimento, dando aos seus visitantes a possibilidade de participar e explorar, de forma dinâmica e ativa, criando a base para a conceção de novas perspetivas e visões sobre o museu e o objeto museológico. Os social media oferecem novas formas de colaboração com o público e, desta forma, permite que o museu conheça melhor a sua audiência, podendo ajustar-se na gestão e curadoria, com a contribuição dessas novas ideias e visões. No entanto, o desafio, para o sector museológico, da utilização dessas ferramentas com base em estratégias de comunicação adequadas, representa uma tarefa que se mostra por vezes complexa pela inexistência de diretrizes de aplicação e medição de resultados nos social media. Este trabalho concentra-se num estudo com vista à proposta de um conjunto de diretrizes que guiem o design de estratégias de comunicação do museu, através dos social media. Para tal, estudou-se a relação existente entre os museus e os social media, tanto a nível nacional como a nível internacional, reconhecendo o tipo de utilização que fazem dos social media e caracterizando que tipo de conteúdos e quais as ferramentas utilizadas. Deste estudo, entrevistas e outras observações, identificou-se projetos pioneiros na utilização de blogues, wikis, youtube, redes sociais, etc, e concebeu-se, de forma detalhada, modelo orientador da utilização dos social media como ferramenta de comunicação. Parte integrante deste estudo foi a aplicação prática destas diretrizes a museus no concreto, sendo possível a aplicação, medição de resultados e ajustes ao modelo desenvolvido. Os social media apoiam o museu a cumprir o seu papel e função social, aproximando-o do público, cada vez mais diverso e heterogéneo, tornando o online como uma forma essencial de comunicação museológica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

“Branch-and-cut” algorithm is one of the most efficient exact approaches to solve mixed integer programs. This algorithm combines the advantages of a pure branch-and-bound approach and cutting planes scheme. Branch-and-cut algorithm computes the linear programming relaxation of the problem at each node of the search tree which is improved by the use of cuts, i.e. by the inclusion of valid inequalities. It should be taken into account that selection of strongest cuts is crucial for their effective use in branch-and-cut algorithm. In this thesis, we focus on the derivation and use of cutting planes to solve general mixed integer problems, and in particular inventory problems combined with other problems such as distribution, supplier selection, vehicle routing, etc. In order to achieve this goal, we first consider substructures (relaxations) of such problems which are obtained by the coherent loss of information. The polyhedral structure of those simpler mixed integer sets is studied to derive strong valid inequalities. Finally those strong inequalities are included in the cutting plane algorithms to solve the general mixed integer problems. We study three mixed integer sets in this dissertation. The first two mixed integer sets arise as a subproblem of the lot-sizing with supplier selection, the network design and the vendor-managed inventory routing problems. These sets are variants of the well-known single node fixed-charge network set where a binary or integer variable is associated with the node. The third set occurs as a subproblem of mixed integer sets where incompatibility between binary variables is considered. We generate families of valid inequalities for those sets, identify classes of facet-defining inequalities, and discuss the separation problems associated with the inequalities. Then cutting plane frameworks are implemented to solve some mixed integer programs. Preliminary computational experiments are presented in this direction.