985 resultados para Analisi limite muratura algoritmo collasso sismica
Resumo:
Pós-graduação em Engenharia Mecânica - FEG
Resumo:
Este trabalho apresenta o desenvolvimento de um algoritmo computacional para análise do espalhamento eletromagnético de nanoestruturas plasmônicas isoladas. O Método dos Momentos tridimensional (MoM-3D) foi utilizado para resolver numericamente a equação integral do campo elétrico, e o modelo de Lorentz-Drude foi usado para representar a permissividade complexa das nanoestruturas metálicas. Baseado nesta modelagem matemática, um algoritmo computacional escrito em linguagem C foi desenvolvido. Como exemplo de aplicação e validação do código, dois problemas clássicos de espalhamento eletromagnético de nanopartículas metálicas foram analisados: nanoesfera e nanobarra, onde foram calculadas a resposta espectral e a distribuição do campo próximo. Os resultados obtidos foram comparados com resultados calculados por outros modelos e observou-se uma boa concordância e convergência entre eles.
Resumo:
Esta é uma pesquisa de caráter exploratório, cujo objetivo foi investigar os elementos que compõem a imagem conceitual de estudantes universitários sobre o conceito de limite de uma função de uma variável real. O estudo envolveu 25 estudantes do curso de licenciatura em matemática de duas universidades públicas no estado do Pará (Brasil) e constituiu-se de duas etapas. Primeiramente, aplicamos um questionário que continha tarefas relacionadas aos aspectos conceituais de limite de uma função de uma variável. A segunda etapa consistiu na realização de entrevistas com seis sujeitos que foram selecionados devido às imagens conceituais evocadas por eles na etapa anterior, e que por sua vez, encontravam-se em conformidade com os quatro Temas de Discussão (TD) que nortearam essas entrevistas. A análise dos resultados baseou-se, sobretudo, na teoria de Tall e Vinner (1981) e Vinner (1991), bem como nos estudos realizados por Cottril et al (1996), Jordaan (2005), Juter (2006), Nair (2009), dentre outros, que compuseram a fundamentação teórica do presente estudo. Dentre os resultados obtidos, ressaltamos que os estudantes relacionam o conceito de limite de uma função de uma variável real com interpretações estáticas e/ou dinâmicas que, em alguns momentos, constituíram-se como fatores de conflito potencial, conforme destacado por Vinner (1991). Além disso, evidenciamos que algumas das imagens conceituais evocadas pelos sujeitos investigados não se fizeram coerentes, fato que os influenciou a construir uma definição conceitual pessoal diferente da definição conceitual formal de limite de uma função de uma variável real.
Resumo:
O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.
Resumo:
O presente trabalho demonstra a aplicação de um Algoritmo Genético com o intuito de projetar um controlador Fuzzy MISO, através da sintonia de seus parâmetros, em um processo experimental de nivelamento de líquido em um tanque, cuja dinâmica apresenta características não-lineares. Para o projeto e sintonia do controlador, foi utilizado o suporte do software Matlab, e seus pacotes Simulink e Global Optimization Toolbox. O Controlador Fuzzy ora projetado teve seu desempenho avaliado através de ensaios em tempo real em um Sistema de Nível de Liquido.
Resumo:
A identificação de fácies em um poço não testemunhado é um dos problemas clássicos da avaliação de formação. Neste trabalho este problema é tratado em dois passos, no primeiro produz-se a codificação da informação geológica ou da descrição das fácies atravessadas em um poço testemunhado em termos das suas propriedades físicas registradas nos perfis geofísicos e traduzidas pelos parâmetros L e K, que são obtidos a partir dos perfis de porosidade (densidade, sônico e porosidade neutrônica) e pela argilosidade (Vsh) calculada pelo perfil de raio gama natural. Estes três parâmetros são convenientemente representados na forma do Gráfico Vsh-L-K. No segundo passo é realizada a interpretação computacional do Gráfico Vsh-L-K por um algoritmo inteligente construído com base na rede neural competitiva angular generalizada, que é especializada na classificação de padrões angulares ou agrupamento de pontos no espaço n-dimensional que possuem uma envoltória aproximadamente elipsoidal. Os parâmetros operacionais do algoritmo inteligente, como a arquitetura da rede neural e pesos sinápticos são obtidos em um Gráfico Vsh-L-K, construído e interpretado com as informações de um poço testemunhado. Assim, a aplicação deste algoritmo inteligente é capaz de identificar e classificar as camadas presentes em um poço não testemunhado, em termos das fácies identificadas no poço testemunhado ou em termos do mineral principal, quando ausentes no poço testemunhado. Esta metodologia é apresentada com dados sintéticos e com perfis de poços testemunhados do Campo de Namorado, na Bacia de Campos, localizada na plataforma continental do Rio de Janeiro, Brasil.
Resumo:
Neste trabalho são apresentadas expressões exatas e aproximações quadráticas das conhecidas equações de Knott-Zöeppritz, que calculam as amplitudes dos coeficientes Rpp e Rsp em termos dos contrastes médios relativos, bem como é procedida a inversão dos parâmetros de dados de AVO a partir destas aproximações quadráticas. Nesta inversão é utilizado o algoritmo de Levenberg-Marquardt, e são considerados apenas os eventos refletidos Rpp e convertidos Rsp, não associados. Nos estudos dos parâmetros físicos dos meios contrastes de impedância (δz), módulo de cisalhamento (δμ) e velocidade da onda p (δα), verificou-se quais desses parâmetros podem ser invertidos. Os resultados obtidos mostram que o contraste de impedância (δz) é muito bem resolvido estando ele relacionado com o contraste de velocidade da onda p (δα) ou com o contraste de cisalhamento (δμ), no caso de eventos refletidos considerando modelos de alto, moderado e baixo contrastes. Por outro lado ao se fixar o contraste de impedância e relacionar os outros dois parâmetros em consideração, os resultados mostram que esses são mal resolvidos, ou seja, a região de ambiguidade torna-se muito grande e os parâmetros tornam-se ambíguos e instáveis. No caso do evento convertido e na combinação do evento refletido com o convertido, para os modelos de baixo e moderado contrastes, (δz) é muito bem resolvido, caso que não acontece para modelo de alto contraste. Diante desses resultados verifica-se que no procedimento de inversão quadrática de dados de AVO, fixado (δμ), a recuperação dos dois parâmetros variados é muito boa, no caso do evento refletido, e razoavelmente boa no caso do evento convertido, por esse motivo optou-se pela fixação do módulo de cisalhamento.
Resumo:
O objetivo deste trabalho foi analisar o limite da capacidade de escoamento de esgoto sanitário em tubulação interceptora assentada na área urbana do município de Belém – PA. Para isso, foram considerados a Bacia de Esgotamento 5 (BE 5), as projeções populacionais e de produção de esgoto (2010-2030) da área oficial com coleta e transporte de esgoto da BE 5 (Área 1) e da área total dessa Bacia (Área 2), os 100m (cem) do interceptor assentado na BE 5 (chegada da Estação Elevatória de Esgoto do Una), bem como as informações identificadas dessa tubulação e a alteração de declividade proposta neste trabalho. Foi executado o dimensionamento hidráulico e verificou-se que na Área 1, para todas as declividades escolhidas, o interceptor terá capacidade de escoamento no período de 2010-2030, chegando a lâmina líquida máxima de 0,225 em 2030. No entanto, para a Área 2 verificou-se que a capacidade de escoamento terá comprometimento, quando utilizamos três das sete declividades estimadas, chegando a lâmina líquida máxima de 0,950 em 2030, indo de encontro ao recomentado na NBR 9649/1986 Projeto de Rede Coletora de Esgoto Sanitário (0,750). Recomenda-se, neste caso, a reestruturação/ampliação do sistema de coleta e transporte de esgoto da BE 5, em virtude do aumento populacional e de produção de esgoto, resultante da nova divisão de Bacias de Esgotamento realizado no PDSES (2010).
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Reabilitação Oral - FOAR
Resumo:
O presente trabalho aborda o tema central da liberdade, enquanto faceta de direito fundamental, no âmbito das relações privadas. A essa liberdade dos particulares, em suas relações intersubjetivas, chama-se autonomia privada, que, como liberdade, é limitada por todo um corpo normativo do Estado. Assim, o indivíduo em si possui liberdade em sua esfera privada, para escolher seu núcleo familiar, exercer seu poder familiar, dispor de sua propriedade como bem lhe aprouver e de contratar com outros sujeitos. Tudo isso com limites na lei, no ordenamento jurídico posto. Ocorre que a ocasião não é assim de uma forma tão simplista. Como se verá no presente trabalho, a força dos particulares formou uma grande esfera de poder, o poder privado, que chega a ficar tão ou mesmo mais forte, sob determinados aspectos, do que o próprio poder público. Esse fenômeno, o do “agigantamento” desse poder privado, faz com que as relações entre particulares, tecnicamente igualitárias, ao menos em tese postas em pé de igualdade, mostrem-se extremamente violadoras dos direitos fundamentais dos indivíduos. Daí porque se abandona na presente obra a denominação “eficácia horizontal dos direitos fundamentais”, pois as relações privadas no mais das vezes se dá pela sujeição do mais fraco ao mais forte, detentor de um real poder sobre ele. Ainda que haja limitação legal sobre essa esfera de liberdade desse poder sobre os particulares, a lei não poderá abarcar todo o potencial de lesividade à dignidade humana que essa liberdade pode alcançar. Assim, faz-se necessário um mecanismo para refrear uma liberdade que, afora dos limites legais, pode ser irrestrita. Esse mecanismo limitador seriam os direitos fundamentais. Embora haja teorias que neguem ou limitem o alcance dos direitos fundamentais sobre a liberdade dos particulares, defende-se a aplicação direta e imediata desses direitos magnos, suas regras e princípios, como forma de garantir a plenitude do ser humano não apenas perante ao Estado, como também perante os outros particulares, garantindo um máximo de eficácia possível, ainda que não o ideal, dos preceitos constitucionais. Assim, partindo do princípio de que a autonomia privada, conquanto faceta da liberdade, está afastada dos demais direitos fundamentais. Nem haveria por quê. Propõe-se, então, uma “reconciliação” sua com os demais direitos fundamentais, de forma a harmonizá-la com os demais, de maneira que não prepondere o preceito liberal da liberdade irrestrita.
Resumo:
Ao estabelecer um diálogo com o cogito de Descartes, o cogito torquatiano aponta para um sujeito em crise, fragmentado, contraditório, aberto e plural, desconstruindo a idéia humanista e cartesiana de sujeito como ser autônomo, dotado de uma personalidade coerente. O comportamento de Torquato Neto é muito bem representado pelo mito vampírico e pela metáfora do escorpião, definitivamente amalgamados à persona e à imagem do poeta.Palavras-chave: Torquato Neto; anos 60; arte/comportamento; literatura brasileira; poesia contemporânea; crise do sujeito.
Resumo:
Pós-graduação em Biometria - IBB
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
Pós-graduação em Engenharia Elétrica - FEIS