12 resultados para Análise espectral - Métodos de simulação
em Repositório Digital da UNIVERSIDADE DA MADEIRA - Portugal
Resumo:
Os escoamentos no interior de zonas urbanas, apresentam grande heterogeneidade, pelo que a sua caracterização, requer uma formulação que incorpore explicitamente essa variabilidade espacial. A caracterização, simulação (à escala) e modelação do escoamento em canais artificiais e a aplicação a um caso de estudo, no Laboratório de Hidráulica da UMa, representa o cerne desta dissertação. Os objetivos principais desta dissertação são: a caracterização e desenvolvimento de ferramentas de simulação do comportamento do escoamento em canais artificiais, no caso de uma variação súbita dos caudais afluentes, mecanismos de prevenção de cheia; o desenvolvimento de um modelo de simulação hidrodinâmico, considerando os escoamentos variáveis em superfície livre no caso de situações de cheia, na simulação entre as condições variáveis das afluências, das condições hidromorfológicas do canal e da instalação e operação dos sistemas e regulação dos escoamentos; e ainda a análise da viabilidade da simulação (modelo) na gestão e prevenção de cheias em canais artificiais. Numa primeira instância, procede-se à recolha de toda a informação bibliográfica disponível. Com recurso aos modelos digitais do terreno e ao programa ArcGis, é efetuada toda uma exaustiva caracterização da bacia hidrográfica, relativa ao caso de estudo (canal artificial), a partir da qual foi possível obter os dados inerentes às características geométricas, características de relevo e características de drenagem. Segue-se a análise da precipitação com recurso a folhas de cálculo e dados fornecidos pelas instituições pertinentes, de forma a obter valores de precipitação média diária e anual para aplicação de fórmulas, tanto para calcular valores de tempo de concentração, bem como caudais. O próximo passo é selecionar os troços relevantes do canal em estudo e com recurso ao equipamento disponível no Laboratório de Hidráulica da UMa, à folha de cálculo programada e ao programa HEC-RAS procede-se à simulação/modelação/análise desses troços, comparando o resultado/comportamento simulado, com o expectável e entre os vários métodos. Por fim, são expostas as conclusões, bem como algumas considerações finais e uma listagem de objetivos a manter ou alcançar nos próximos anos, onde se incluem, ações prioritárias e recomendações visando, não só melhorar o processo de caracterização do escoamento em canais artificiais, bem como simplificar a prevenção e gestão de cheias.
Resumo:
A atual dissertação consiste numa apreciação global dos vários critérios que integram a aplicação do método construtivo de elementos estruturais de aço enformado a frio, muitas vezes designado por método prescritivo da construção em “aço leve”, “Light Steel Framing” (LSF) ou em alternativa também designado de “Light Gauge Steel Framing” (LGSF) e está especialmente vocacionado para a construção de edifícios de um a três pisos. Este conceito tem origem no facto de se usar chapas de aço de espessura reduzida, respetivamente mais leve, para fabricação dos perfis o que contribui para um menor peso dos elementos estruturais. Será abordado essencialmente o sector dos edifícios de habitação bem como a reabilitação dos mesmos, com recurso à solução em estudo, dado que é um dos setores que detém maior impacte socio-económico e ambiental. O estudo engloba igualmente a descrição e análise dos métodos construtivos, bem como os produtos empregues nesta solução sustentável, definindo desta forma uma resposta ajustada a cada subsistema da construção, desde estrutura, pavimentos, coberturas, fachadas, divisórias, climatização e acústica. Por fim, para obter um retrato da prática na Região Autónoma da Madeira, face a este tipo de construção sustentável, realizou-se uma análise de casos de estudo, nomeadamente no que diz respeito à viabilidade económica desta solução construtiva.
Resumo:
Esta tese é dedicada às redes de período longo, LPG’s, em fibra óptica, escritas por exposição a radiação ultravioleta (UV) ou por exposição a descargas eléctricas, e às suas aplicações em comunicações ópticas e em sistemas sensores. Numa primeira fase estudaram-se os aspectos teóricos fundamentais para a compreensão das LPG, nomeadamente os dois modelos matemáticos propostos na literatura, para a transmissão espectral de uma LPG, o modelo de duas camadas e o modelo de três camadas. Em seguida, estudou-se o deslocamento do comprimento de onda ressonante perante mudanças de parâmetros externos. Aqui, verificou-se que para variações da temperatura no exterior da LPG, o deslocamento do comprimento de onda ressonante é linear. Por outro lado, para variações de índice de refracção exterior, verificou-se que à medida que o índice exterior se aproxima dos valores do índice de refracção da bainha, o comprimento de onda ressonante tende para valores mais baixos. Por último, realizou-se um estudo da transmissão espectral de duas aplicações que envolvem LPG’s, nomeadamente dois tipos de interferómetros e filtros ópticos. Numa segunda fase, foi desenvolvida uma ferramenta de simulação destes modelos, que permitia não só a obtenção dos espectros de transmissão das LPG’s mas também a obtenção das curvas de phase matching em função do período da rede e do comprimento de onda ressonante. A aplicação permitia também a obtenção das curvas do deslocamento do comprimento de onda ressonante, perante variações do índice de refracção exterior ou da temperatura. Para além disso, essa ferramenta realiza a simulação dos espectros de transmissão de filtros ópticos e de interferómetros de Michelson e de Mach-Zehnder construídos com base em LPG’s. A última fase do trabalho, a componente laboratorial, foi realizada na Unidade de Optoelectrónica e Sistemas Electrónicos do INESC Porto, onde foram construídos e testados os dispositivos estudados anteriormente, com o intuito de validar a aplicação desenvolvida. A ferramenta de simulação demonstrou ser capaz de simular de forma adequada os diversos aspectos do comportamento das LPG’s que foram estudados. A comparação dos resultados obtidos permitiu concluir que o modelo mais correcto para o estudo das LPG’s é o modelo de três camadas, o que está de acordo com o esperado.
Resumo:
Na análise funcional de imagens do cérebro podem utilizar-se diferentes métodos na identificação de zonas de activação. Tem havido uma evolução desde o método de correlação [19], para outros métodos [9] [14] até o método baseado no modelo linear generalizado que é mais comum ser utilizado hoje e que levou ao pacote de software SPM [15]. Deve-se principalmente à versatilidade que o método tem em realizar testes com diferentes objectivos. Têm sido publicados alguns estudos comparativos. Poucos têm sido quantitativos [20] e quando o são, o número de métodos testados é reduzido[22]. Há muitos estudos comparativos do ponto de vista da estatística envolvida (da matemática) mas que têm em geral apenas ns académicos. Um objectivo deste estudo é comparar os resultados obtidos por diferentes métodos. É de particular interesse averiguar o comportamento de cada método na fronteira do local de activação. As diferenças serão avaliadas numericamente para os seguintes métodos clássicos: t de Student, coeficiente de correlação e o modelo linear generalizado. Três novos métodos são também propostos - o método de picos de Fourier, o método de sobreposição e o método de amplitude. O segundo pode ser aplicado para o melhoramento dos métodos de t de Student, coe ciente de correlação e modelo linear generalizado. Ele pode no entanto, também manter-se como um método de análise independente. A influência exercida em cada método pelos parâmetros pertinentes é também medida. É adoptado um conjunto de dados clínicos que está amplamente estudado e documentado. Desta forma elimina-se a possibilidade dos resultados obtidos serem interpretados como sendo específicos do caso em estudo. Há situações em que a influência do método utilizado na identificação das áreas de activação de imagens funcionais do cérebro é crucial. Tal acontece, por exemplo, quando um tumor desenvolve-se perto de uma zona de activação responsável por uma função importante . Para o cirurgião tornase indispensável avaliar se existe alguma sobreposição. A escolha de um dos métodos disponíveis poderá ter infuência sobre a decisão final. Se o método escolhido for mais conservador, pode verificar-se sobreposição e eliminar-se a possibilidade de cirurgia. Porém, se o método for mais restritivo a decisão final pode ser favorável à cirurgia. Artigos recentes têm suportado a ideia de que a ressonância magnética funcional é de facto muito útil no processo de decisão pré-operatório [12].O segundo objectivo do estudo é então avaliar a sobreposição entre um volume de activação e o volume do tumor. Os programas informáticos de análise funcional disponíveis são variados em vários aspectos: na plataforma em que funcionam (macintosh, linux, windows ou outras), na linguagem em que foram desenvolvidos (e.g. c+motif, c+matlab, matlab, etc.) no tratamento inicial dos dados (antes da aplicação do método de análise), no formato das imagens e no(s) método(s) de análise escolhido(s). Este facto di culta qualquer tentativa de comparação. À partida esta poderá apenas ser qualitativa. Uma comparação quantitativa implicaria a necessidade de ocorrerem três factos: o utilizador tem acesso ao código do programa, sabe programar nas diferentes linguagens e tem licença de utilização de software comercial (e.g. matlab). Sendo assim foi decidido adoptar uma estratégia unificadora. Ou seja, criar um novo programa desenvolvido numa linguagem independente da plataforma, que não utilize software comercial e que permita aplicar (e comparar quantitativamente) diferentes métodos de análise funcional. A linguagem escolhida foi o JAVA. O programa desenvolvido no âmbito desta tese chama-se Cérebro.
Resumo:
Objectivo: Proceder à validação da equação de Slaugther e col., (1988), na estimação da percentagem de massa gorda (%MG), em crianças com 9 anos de idade, tendo a DXA como método de referência. Metodologia: A avaliação da composição corporal foi realizada em 450 crianças, das quais 219 eram raparigas (idade: 9.74 ± 0.33 anos; altura: 136.88 ± 6.8 cm; peso: 33.77 ± 8.16 kg; índice de massa corporal (IMC): 17.85 ± 3.16 kg/m2) e 231 eram rapazes (idade: 9.75 ± 0.33 anos; altura: 137.17 ± 6.97cm; peso: 34.3 ± 8.09 kg; IMC: 18.09 ± 3.17 kg/m2), pela DXA (QDR – 1500: Hologic, Waltham, MA, pencil beam mode, software version 5.67 anhanced whole body analisis) e pelas pregas adiposas subcutâneas, cujo os valores das pregas adiposas tricipital e geminal foram utilizados na equação desenvolvida por Slaugther e col., (1988). Na análise estatística, foram utilizadas a comparação de médias, a regressão linear e a concordância entre os métodos. Resultados: A %MG obtida por ambos os métodos apresentou diferenças significativas (p<0.05) entre os géneros, sendo as raparigas as que apresentam, em média, maiores valores de gordura corporal. Tanto para os rapazes como para as raparigas a %MGDXA é superior à %MGSKF. Na predição dos valores de %MG, a equação de Slaugther e col., (1988) tem para ambos os sexos (raparigas: r=0.94; EPE=3.2 e rapazes: r=0.96; EPE=2.7) uma correlação elevada com reduzido erro padrão de estimação com a DXA. Na análise de concordância entre os métodos, os rapazes parecem apresentar uma maior concordância entre o método alternativo e o método de referência, com os limites de concordância a variarem entre -9.26 e 1.57, enquanto nas raparigas variam entre -11.19 e 3.16. Em ambos os sexos é visível a subestimação, em valor médio, do método de referência, com uma média da diferença a situar-se nos -3.8% e -4.0%, respectivamente para rapazes e raparigas. Discussão: A equação de Slaugther e col., (1988) explica, para as raparigas, 87.5% da variância do método de referência, enquanto nos rapazes, 91.3% da variância é explicada.A diferença entre os métodos alternativo e de referência está dependente do nível de adiposidade, sendo que o método alternativo tende a sobrestimar a %MG nas crianças mais magras e a subestimar nas mais gordas. A equação de Slaugther e col., (1988) apresentou uma validade aceitável na avaliação da composição corporal num grupo de crianças, constituindo uma alternativa rápida na estimação da composição corporal numa avaliação inicial em escolas, clubes e estudos de larga escala. Contudo a sua utilidade, para uma correcta intervenção na saúde da criança, pode apresentar uma validade limitada, pelo que pode ser justificada a utilização de um método mais válido em termos clínicos, como a DXA.
Resumo:
De acordo com [Mirkin B., 1996], classificação é um agrupamento existente ou ideal daqueles que se parecem (ou são semelhantes) e separação dos que são dissemelhantes. Sendo o objectivo/razão da classificação: (1) formar e adquirir conhecimento, (2) analizar a estrutura do fenómeno e (3) relacionar entre si diferentes aspectos do fenómeno em questão. No estudo do sucesso/insucesso da Matemática está de algum modo subjacente nos nossos objectivos “classificar” os alunos de acordo com os factores que se pretende que sejam determinantes nos resultados a Matemática. Por outro lado, voltamos a recorrer à classificação quando pretendemos estabelecer os tipos de factores determinantes nos resultados da Matemática. Os objectivos da Análise de Clusters são: (1) analisar a estrutura dos dados; (2) verificar/relacionar os aspectos dos dados entre si; (3) ajudar na concepção da classificação. Pensámos que esta técnica da análise exploratória de dados poderia representar uma ferramenta muito potente para o estudo do sucesso/insucesso da Matemática no Ensino Básico. O trabalho desenvolvido nesta dissertação prova que a Análise de Clusters responde adequadamente às questões que se podem formular quando se tenta enquadrar socialmente e pedagogicamente o sucesso/insucesso da Matemática.
Resumo:
Universidade do Algarve
Resumo:
Esta dissertação tem como principal objectivo comparar os métodos propostos pelo Eurocódigo 2, através de uma análise paramétrica dos efeitos de segunda ordem em pilares de betão armado. Os métodos estudados foram o método simplificado baseado na Curvatura Nominal e o Método Geral. Através da comparação destes dois métodos verificou-se se o dimensionamento efectuado para o primeiro método é correcto e se encontra do lado da segurança. Para este efeito são analisado noventa e seis pórticos, onde setenta e dois são pórticos simples e vinte e quatro são pórticos parede. Todos os pórticos apresentam uma estrutura simples, constituída por dois elementos verticais, pilar ou parede, e um elemento horizontal, viga. Os noventa e seis pórticos são divididos em dois grupos. Um grupo em que a ligação entre pilar viga é rotulada e o outro grupo onde a ligação é rígida. Dentro de cada grupo é definido oito conjuntos de pórticos cuja diferença reside na percentagem de carga que cada um dos elementos verticais recebe, sendo estas características iguais para os dois grupos. Cada conjunto é constituído por seis pórticos em que é variada a esbelteza. Em todos os modelos analisados manteve-se as mesmas características de materiais e acções. Efectuou-se um primeiro dimensionamento através do método baseado na curvatura nominal, onde obteve-se os esforços e armaduras, que serão utilizados para a modelação no método geral. Este método geral, consiste numa análise não linear, e é efectuado num programa de análise não linear de elementos finitos, Atena. A modelação efectuou-se da seguinte forma: aplicou-se numa primeira fase a totalidade da carga vertical aplicada à estrutura de forma incremental, e quando esta atingiu a carga de dimensionamento, aplicou-se a carga horizontal também de forma incremental até ao colapso da estrutura. De acordo com os resultados obtidos, pode concluir-se que o dimensionamento efectuado pelo método simplificado está do lado da segurança, sendo em alguns casos em que possui pilares esbeltos demasiado conservativo, onde obteve-se mais 200% de carga horizontal.
Resumo:
Nesta dissertação de mestrado é desenvolvido um sistema de replicação de circuitos integrados digitais (combinatórios e sequenciais), por observação do seu normal funcionamento. O sistema desenvolvido carateriza-se pela capacidade de extrair e descrever na linguagem VHDL o comportamento de um circuito integrado digital em funcionamento, utilizando técnicas não invasivas e automatizadas, suportado por um vasto conjunto de algoritmos de aquisição e análise de dados. O sistema desenvolvido assenta em dois módulos principais: um módulo de software que consiste numa plataforma de algoritmos de análise, controlo e gestão do sistema (alojada num computador) e um módulo de aquisição de dados (hardware) que consiste num circuito capaz de realizar as medições necessárias para o funcionamento do sistema, comandado pelo módulo de software. A comunicação entre os dois módulos é efetuada via porta série. Os algoritmos desenvolvidos realizam uma análise da correspondência entre entradas e saídas procurando aplicar uma aproximação a um circuito combinatório se possível, caso contrário são utilizados métodos heurísticos para efetuar uma aproximação a um circuito sequencial através de uma máquina de estados. Entradas ou saídas constantes são previamente identificados e excluídos do processo de análise, para efeitos de simplificação. Os resultados obtidos demonstram que é possível replicar o comportamento observado em circuitos digitais (combinatórios e sequenciais) desde que o número de amostras recolhidas seja adequado. Verifica-se ainda que o método desenvolvido replica a funcionalidade do circuito integrado nas condições onde o circuito está inserido.
Resumo:
O principal objectivo desta dissertação é dar a conhecer as potencialidades da linguagem R pois ainda existem algumas reservas quanto à sua utilização. E nada melhor que a análise de sobrevivência, por ser um tema da estatística com grande impacto no mundo das doenças e novas curas, para mostrar como este programa apresenta grandes vantagens. Esta dissertação é então composta por quatro capítulos. No primeiro capítulo introduzimos alguns conceitos fundamentais da análise de sobrevivência, os quais servirão de suporte para o terceiro capítulo. Assim sendo, apresentamos um pouco da sua história, conceitos básicos, conceitos novos numa perspectiva de regressão diferente da que estamos habituados, tendo como objectivo a construção de modelos de regressão tendo sempre em conta métodos para averiguar se o modelo é o mais adequado ou não. No segundo capítulo apresentamos o R, o package R Commander (que já tem um interface mais amigável), o package survival (talvez o mais importante na análise de sobrevivência clássica), bem como outros packages que poderão ser úteis para quem quiser aprofundar o seu uso nesta área. O terceiro capítulo é o que aplica os conhecimentos dos dois anteriores e no qual pretendemos dar a conhecer algumas das muitas possibilidades de utilização deste software nesta área da Estatística. Este é dividido em três, ou seja, está dividido consoante as etapas que vamos precisando para trabalhar a nossa base de dados, começando pela análise descritiva, para conhecermos os dados que temos, depois a função de sobrevivência, por ser um conceito importante e por m, a construção de modelos de regressão, não paramétricos e paramétricos. Por último, apresentamos as nossas conclusões deste trabalho.
Resumo:
Os danos provocados por sismos encontram-se diretamente relacionados com os movimentos do solo que este possa provocar, com a vulnerabilidade da estrutura geológica e com a capacidade das construções para resistirem a tais ações. A preocupação na salvaguarda da vida humana e no mitigar dos danos provocados por eventos sísmicos conduziu a um grande avanço e aperfeiçoamento na compreensão do fenómeno, nas suas consequências e nas técnicas de conceção e de dimensionamento sismo-resistentes. À medida que as exigências técnicas evoluem, procura-se desenvolver métodos de análise que descrevam melhor o comportamento real das estruturas. Embora atualmente as análises dinâmicas tridimensionais lineares com base em análises modais e em coeficientes de comportamento sejam muito utilizadas, devido essencialmente à sua simplicidade e rapidez de execução, tem-se verificado uma crescente aderência a novas metodologias que têm diretamente em conta o comportamento não linear das estruturas quando sujeitas a ações sísmicas. Esta tese tem como principal objetivo estudar diferentes técnicas de simulação numérica do comportamento sísmico de estruturas de betão armado. São descritas as principais características das metodologias de simulação numérica mais utilizadas tanto em gabinete de projeto como em estudos de investigação. É dada especial atenção às análises dinâmicas não lineares, uma vez que esta técnica foi utilizada para simular o comportamento de uma estrutura de betão armado de um piso, que foi ensaiada no âmbito da 15ª Conferência Mundial em Engenharia Sísmica. Para avaliar a capacidade de simulação desta técnica, os resultados numéricos são diretamente comparados com os resultados experimentais, sendo possível verificar uma boa concordâncias entre ambos.
Resumo:
A grande maioria das estruturas existentes atualmente contém aço na sua constituição, seja na forma de aço estrutural, seja na forma de armaduras de betão armado. A deterioração precoce do aço destas estruturas é um fenómeno muito comum e que tem acarretado grandes custos em reabilitações e reparações. O principal fator para essa deterioração precoce é o contacto de agentes agressivos, como os cloretos, com o aço que originam a sua corrosão. Na Ilha da Madeira alguns desses agentes agressivos estão presentes em grandes quantidades, promovendo a súbita corrosão do aço, fazendo com que os custos de manutenção sejam elevados. Uma das formas de evitar a corrosão do aço é através da utilização do aço inoxidável reduzindo assim os custos com manutenções ao longo da sua vida útil. Nesta dissertação pretende-se avaliar se a utilização do aço inoxidável em vez do aço carbono na Ilha da Madeira é economicamente mais vantajosa a longo prazo. Para esse fim foram elaboradas diversas tarefas. Numa fase inicial foi realizada uma análise comparativa entre o aço carbono e o aço inoxidável em termos de propriedades gerais, comportamento mecânico e regulamentação, mas também uma pesquisa sobre as aplicações e os tipos de aço inoxidável. Numa fase seguinte foram abordados mecanismos de degradação e métodos de reparação para a corrosão. Para além disso, foram determinados os tempos de vida útil de projeto, através de modelos de degradação, e estimados cenários de degradação e manutenção. Posteriormente foram dimensionados dois tipos de estruturas (betão armado e estrutura metálica) e para dois tipos de aço (aço carbono e aço inoxidável) por forma a determinar o peso dos materiais das estruturas para apurar o seu custo. Em seguida foram realizadas as análises económicas das estruturas mencionadas anteriormente face aos cenários de manutenção anteriormente realizados. As análises recaíram sobre os custos inicias das estruturas e os custos a longo prazo, para um período de vida útil de 50 anos. Em função da análise realizada pode concluir-se que na Ilha da Madeira a utilização do aço inoxidável nas estruturas metálicas, por enquanto, não é vantajosa em termos económicos. Para as estruturas de betão armado, verificou-se também que na maioria dos casos a utilização do aço carbono é a melhor opção económica a longo prazo, exceto nas estruturas perto do mar com cimentos do tipo CEM I ou CEM II/A, em que o aço inoxidável é a melhor opção, pois embora este apresente um custo inicial superior ao do aço carbono, o seu custo total a longo prazo incluindo as reparações é inferior.