984 resultados para Decomposição modal
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Medicina Veterinária - FMVZ
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
This FAL Bulletin analyzes data on commodities traded and the modes of transport used between nine South American countries, during 2000, 2006, 2010 and 2013. The aim is to identify the current modal split in intraregional freight transport in South America, and to ascertain the level and evolution of trade flows, imbalances and the burden of transport and insurance costs. The authors conclude with some policy recommendations.
Resumo:
En el presente Boletín FAL se analizan datos sobre el comercio de productos básicos entre nueve países de América del Sur en 2000, 2006, 2010 y 2013 y los modos de transporte utilizados para ello. El objetivo es determinar la distribución modal del transporte de mercancías intrarregional e identificar el nivel y la evolución de los flujos comerciales, los desequilibrios y la incidencia de los costos de transporte y seguros. Para concluir, los autores presentan algunas recomendacionesde políticas.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Este trabalho propõe a utilização de uma nova metodologia para a localização de falhas em linhas de transmissão (LT). Esta metodologia consiste na utilização da decomposição harmônica da corrente de fuga de uma linha e na aplicação de uma Rede Neural Artificial (RNA) capaz de distinguir padrões da condição normal de funcionamento e padrões de situações de falhas de uma LT. Foi utilizado um modelo Pi capaz de absorver dados reais de tensão e corrente de três fases e de alterar valores de R, L e C segundo modificações ambientais. Neste modelo foram geradas falhas em todas as torres com diferentes valores de capacitância. A saída fornecida pelo modelo é a decomposição da corrente de fuga do trecho considerado. Os dados de entrada e saída do modelo foram utilizados no treinamento da RNA desenvolvida. A aquisição de dados reais de tensão e corrente foi feita através de analisadores de parâmetros de qualidade de energia elétrica instalados nas extremidades de um trecho de LT, Guamá-Utinga, pertencente à Centrais Elétricas do Norte do Brasil ELETRONORTE. O cálculo dos parâmetros construtivos foi feito através do método matricial e melhorado através da utilização do Método de Elementos Finitos (MEF). A RNA foi desenvolvida com o auxílio do software Matlab. Para treinamento da RNA foi utilizado o algoritmo de Retropropagação Resiliente que apresentou um bom desempenho. A RNA foi treinada com dois conjuntos de dados de treinamento para analisar possíveis diferenças entre as saídas fornecidas pelos dois grupos. Nos dois casos apresentou resultados satisfatórios, possibilitando a localização de falhas no trecho considerado.
Resumo:
A metodologia tradicional de identificação de parâmetros na análise modal de estruturas é realizada a partir de sinais medidos de força de entrada e de movimento de resposta da estrutura em condições laboratoriais controladas. Entretanto, quando é necessária a obtenção dos parâmetros modais de estruturas de máquinas em operação, as condições para controlar e medir a excitação nestas situações impossibilita a realização da análise modal tradicional. Neste caso, o teste modal é realizado utilizando somente dados de resposta do sistema. A Análise Modal Operacional (AMO) é um método de extração modal em que nenhuma excitação artificial necessita ser aplicada ao sistema, utilizando-se a própria excitação operacional como entrada para medição da resposta do sistema. A técnica clássica de Análise Modal Operacional NExT considera, para isso, que a excitação operacional do sistema seja um ruído branco. Esta técnica faz a consideração de que as funções de correlação obtidas de estruturas podem ser consideradas como funções de resposta ao impulso e então métodos tradicionais de identificação modal no domínio do tempo podem ser empregados. Entretanto, caso a excitação operacional contenha componentes harmônicos que se sobressaiam, estes podem ser confundidos como modos naturais do sistema. Neste trabalho é demonstrada que através da função densidade de probabilidade da banda estreita contendo o pico de um modo, é possível identifica-lo como natural ou operacional (proveniente da excitação operacional da estrutura). É apresentada também uma modificação no método de identificação modal Exponencial Complexa Mínimos Quadrados (LSCE), passando a considerar sinais harmônicos de freqüências conhecidas presentes na excitação operacional, em um ensaio utilizando a técnica NExT. Para validação desses métodos, utiliza-se um modelo teórico de parâmetros modais conhecidos analiticamente e como estudo de caso experimental, um sistema formado por uma viga bi-apoiada suportando um motor elétrico com desbalanceamento de massa.
Resumo:
Essa dissertação tem por objetivo analisar a influência de famílias wavelets e suas ordens no desempenho de um algoritmo de localização de faltas a partir das ondas viajantes de dois terminais de uma linha de transmissão aérea. Tornou-se objetivo secundário a modelagem de um sistema elétrico de potência (SEP) para obtenção de um universo de faltas que validassem o localizador. Para isso, parte de um SEP da Eletrobrás-Eletronorte em 500/230 kV foi modelado no Alternative Transient Program (ATP) utilizando-se parâmetros reais. A Transformada Wavelet, via análise multiresolução (AMR), é empregada valendo-se de sua característica de localização temporal, permitindo caracterizações precisas de instantes de transitórios eletromagnéticos ocasionados por faltas, as quais geram ondas que ao se propagarem em direção aos terminais da linha contêm os tempos de propagação destas do local do defeito a tais terminais e podem ser convenientemente extraídos por tal transformada. Pela metodologia adotada no algoritmo, a diferença entre esses tempos determina com boa exatidão o local de ocorrência da falta sobre a linha. Entretanto, um dos agentes variantes do erro nessa estimação é a escolha da Wavelet usada na AMR dos sinais, sendo, portanto, a avaliação dessa escolha sobre o erro, objetivo principal do trabalho, justificada pela ainda inexistente fundamentação científica que garanta a escolha de uma wavelet ótima a uma certa aplicação. Dentre um leque de Wavelets discretas, obtiveram-se resultados adequados para 16 delas, havendo erros máximos inferiores aos 250 metros estipulados para a precisão. Duas Wavelets, a Db15 e a Sym17, sobressaíram-se ao errarem, respectivamente, 3,5 e 1,1 vezes menos que as demais. A metodologia empregada consta da: exportação dos dados das faltas do ATP para o MATLAB®; aplicação da transformação modal de Clarke; decomposição dos modos alfa e síntese dos níveis 1 de detalhes via AMR; cálculo de suas máximas magnitudes e determinação dos índices temporais; e por fim, a teoria das ondas viajantes equaciona e estima o local do defeito sobre a LT, sendo tudo isso programado no MATLAB e os erros de localização analisados estatisticamente no Microsoft Excell®. Ao final elaborou-se ainda uma GUI (Guide User Interface) para a Interface Homem-Máquina (IHM) do localizador, servindo também para análises gráficas de qualquer das contingências aplicadas ao SEP. Os resultados alcançados demonstram uma otimização de performance em razão da escolha da wavelet mais adequada ao algoritmo e norteiam para uma aplicação prática do localizador.
Resumo:
Neste trabalho foram analisados exemplares de piramutaba (Brachyplalystoma vaillantii) provenientes de pescarias experimentais no estuário amazônico. Para o estudo de determinação da idade foram analisados acúleos das nadadeiras peitorais e dorsal, opérculos, otólitos (lapillus) e vértebras. Da análise destas estruturas rígidas foi concluído que a vértebra é a estrutura mais adequada para determinar a idade da piramutaba, pois esta estrutura apresentou 59% de anéis nítidos e uma boa correlação entre o seu raio e o comprimento furcal do peixe (r² = 0,9889 e p<0,05). Os anéis etários das vértebras foram validados pelo método da distribuição de freqüências por classes de comprimento. A piramutaba forma dois anéis etários por ano em suas vértebras. A relação entre o peso total e o comprimento furcal da piramutaba descreve seu crescimento como alométrico e a equação que descreve este crescimento é Wt = 6,1 * 10-6 * Lf3,1129. A proporção sexual de piramutaba verificada não foi de 1:1, onde o número de fêmeas foi superior ao de machos. Foi observado um número máximo de dez anéis nítidos nas vértebras de piramutaba. O modelo de crescimento utilizado neste trabalho foi o de von Bertalanffy para as estimativas das equações de crescimento em comprimento e em peso. Os parâmetros de crescimento (k, t0 e L∞) foram estimados através de quatro diferentes métodos: contagem de anéis nas vértebras, retrocálculo, decomposição dos raios e distribuição de freqüências por classes de comprimento. Os parâmetros de crescimento foram: k = 0,138 ano-1, t0 = -0,239 e L∞ = 110,5 cm (contagem de anéis); k = 0,119 ano-1, t0 = -0,202 e L∞ = 110,5 cm (retrocálculo); k = 0,096 ano-1, t0 = -0,146 e L∞ = 110,5 cm (decomposição dos raios) e k = 0,127 ano-1, t0 = -0,236 e L∞ = 110,5 cm (distribuição de freqüências).
Resumo:
Os artrópodes possuem uma importante função no ecossistema, pois participam da ciclagem de nutrientes, decomposição, trituração e mistura da serrapilheira. Os incêndios florestais, cada vez mais freqüentes na Amazônia, destroem a camada de serrapilheira e os artrópodes que nela vivem. O objetivo desta tese é investigar como o fogo recorrente atua sobre este processo, investigando a abundância e densidade de artrópodes de serrapilheira e as taxas de decomposição da matéria orgânica e a mineralização de C e N em uma floresta de transição da Amazônia no município de Querência, estado do Mato Grosso. Para tanto, uma parcela de 50 ha de floresta primária (500 x 1000 m) foi queimada experimentalmente a cada ano a partir de 2004, e outra área de mesmo tamanho foi mantida intacta para controle. Os artrópodes foram coletados aleatoriamente em 40 pontos distribuídos dentro da parcela, por meio de armadilhas de solo (“pitfalls”) e em 40 pontos sendo extraídos da serrapilhaira através de funis de Berlese. As coletas foram realizadas em fevereiro, abril (estação chuvosa), junho e agosto (estação seca) de 2007, após a terceira queima experimental anual. Os artrópodes foram analisados até o nível taxonômico de ordem e as formigas foram identificadas até gênero. O estudo de decomposição foi feito com 480 bolsas se serrapilheira distribuídas aleatoriamente, com 240 em cada parcela, quatro meses após a última queimada. As bolsas foram confeccionadas com malhas de nylon com aberturas de 2 mm (malha fina), e em metade delas foram feitos três orifícios de 1 cm² de cada lado, permitindo a entrada de macroartrópodes (malha grossa). Em cada bolsa foi inserido cerca de 10 g de folhas secas. A cada dois meses 30 bolsas de cada tipo de malha foi retirada de cada parcela, totalizando duas retiradas na estação seca e duas na estação chuvosa. As bolsas foram secas em estufa e pesadas novamente. A diferença entre peso seco inicial e final representou a taxa de decomposição. A cada retirada de um lote de bolsas de cada tipo de malha e de cada parcela, uma subamostra (10) destas bolsas foram selecionadas aleatoriamente para análises de análise de C e N das folhas. Os artrópodes apresentaram fortes diferenças sazonais. Na estação seca os colêmbolas ocorreram em menor abundância e as formigas ocorreram em maior abundância. Concomitantemente aos efeitos de sazonalidade, os artrópodes apresentaram diversas respostas ao fogo, com alguns grupos apresentando aumento e outros redução em abundância e densidade em diferentes datas pós-fogo, em comparação a floresta controle. Os ortópteros se destacaram por terem apresentado maior abundância em todas as datas pós-fogo em comparação a floresta controle. Em geral os macropredadores freduziram sua abundância e densidade após o fogo (formigas, besouros, dentre outros) e os engenheiros de ecossistema e decompositores foram mais abundantes (baratas, ácaros, dentre outros) em relação à floresta controle. As formigas também apresentaram diferenças entre as parcelas: maior diversidade e modificações na composição de gêneros durante a estação seca, pois o fogo favoreceu o aumento em abundância de formigas generalistas. As taxas de decomposição na parcela queimada foram menores do que na parcela controle, e as bolsas de malha fina com menores taxas de decomposição do que as bolsas de malha grossa. As taxas de C e N também foram diferentes entre as parcelas, e a razão C/N, na parcela queimada se manteve estável em todas as datas pós-fogo, enquanto na parcela controle houve declínio gradual durante o experimento seguindo as estações. Estes resultados indicam que o fogo modifica a fauna de serrapilheira, reduzindo diversas populações de artrópodes e modificando a composição deste grupo. As bolsas de malha fina indicam que a exclusão de macroartrópodes reduzem a taxa de decomposição da matéria orgânica e que os microartrópodes são mais prejudicados. O fogo também reduz o processo de mineralização de C e N já que a razão C/N se manteve estável na parcela queimada. Este estudo demonstra que o fogo recorrente tem forte efeito sobre artrópodes de serrapilheira e ciclagem de nutrientes em florestas de transição da Amazônia.
Resumo:
Este trabalho apresenta uma metodologia para o estudo da ambiguidade na interpretação de dados geofísicos. Várias soluções alternativas, representativas da região de maior ambiguidade no espaço de parâmetros são obtidas, sendo posteriormente grupadas e ordenadas pela análise fatorial modo Q. Esta metodologia foi aplicada a dados sintéticos de campo potencial simulando-se causas de ambiguidade como discretização e truncamento da anomalia e a presença de ruídos aleatório e geológico. Um único prisma foi usado como modelo interpretativo, sendo a espessura a principal causa de ambiguidade tanto na gravimetria como na magnetometria. Segue-se a profundidade do topo sempre associada à espessura, quando o sinal da anomalia é alto. Quando a anomalia tem sinal baixo, a largura torna-se o segundo parâmetro mais importante, também associada à espessura. Ao contrário da presença de interferências geológicas, a presença de ruído aleatório nos campos, não é fator importante na ambiguidade. A aplicação da metodologia a dados reais ilustra o papel desta análise na caracterização de soluções alternativas e a importância da informação a priori na caracterização das causas de ambiguidade. A metodologia apresentada pode ser empregada em diversos estágios de um programa de prospecção fornecendo em cada estágio uma análise dos principais fatores causadores da ambiguidade, que poderá ser util no planejamento dos estágios seguintes. Comparada a outros métodos de análise de ambiguidade, como por exemplo regiões de confiança, a metodologia estudada destaca-se por não precisar satisfazer premissas estatísticas sobre a distribuição dos erros.
Resumo:
Neste trabalho, a decomposição em valores singulares (DVS) de uma matriz A, n x m, que representa a anomalia magnética, é vista como um método de filtragem bidimensional de coerência que separa informações correlacionáveis e não correlacionáveis contidas na matriz de dados magnéticos A. O filtro DVS é definido através da expansão da matriz A em autoimagens e valores singulares. Cada autoimagem é dada pelo produto escalar dos vetores de base, autovetores, associados aos problemas de autovalor e autovetor das matrizes de covariância ATA e AAT. Este método de filtragem se baseia no fato de que as autoimagens associadas a grandes valores singulares concentram a maior parte da informação correlacionável presente nos dados, enquanto que a parte não correlacionada, presumidamente constituída de ruídos causados por fontes magnéticas externas, ruídos introduzidos pelo processo de medida, estão concentrados nas autoimagens restantes. Utilizamos este método em diferentes exemplos de dados magnéticos sintéticos. Posteriormente, o método foi aplicado a dados do aerolevantamento feito pela PETROBRÁS no Projeto Carauari-Norte (Bacia do Solimões), para analisarmos a potencialidade deste na identificação, eliminação ou atenuação de ruídos e como um possível método de realçar feições particulares da anomalia geradas por fontes profundas e rasas. Este trabalho apresenta também a possibilidade de introduzir um deslocamento estático ou dinâmico nos perfis magnéticos, com a finalidade de aumentar a correlação (coerência) entre eles, permitindo assim concentrar o máximo possível do sinal correlacionável nas poucas primeiras autoimagens. Outro aspecto muito importante desta expansão da matriz de dados em autoimagens e valores singulares foi o de mostrar, sob o ponto de vista computacional, que a armazenagem dos dados contidos na matriz, que exige uma quantidade n x m de endereços de memória, pode ser diminuída consideravelmente utilizando p autoimagens. Assim o número de endereços de memória cai para p x (n + m + 1), sem alterar a anomalia, na reprodução praticamente perfeita. Dessa forma, concluímos que uma escolha apropriada do número e dos índices das autoimagens usadas na decomposição mostra potencialidade do método no processamento de dados magnéticos.
Resumo:
A ambiguidade na inversão de dados de geofísica de poço é estudada através da análise fatorial Q-modal. Este método é baseado na análise de um número finito de soluções aceitáveis, que são ordenadas, no espaço de soluções, segundo a direção de maior ambiguidade. A análise da variação dos parâmetros ao longo dessas soluções ordenadas permite caracterizar aqueles que são mais influentes na ambiguidade. Como a análise Q-modal é baseada na determinação de uma região de ambiguidade, obtida de modo empírico a partir de um número finito de soluções aceitáveis, é possível analisar a ambiguidade devida não só a erros nas observações, como também a pequenos erros no modelo interpretativo. Além disso, a análise pode ser aplicada mesmo quando os modelos interpretativos ou a relação entre os parâmetros não são lineares. A análise fatorial é feita utilizando-se dados sintéticos, e então comparada com a análise por decomposição em valores singulares, mostrando-se mais eficaz, uma vez que requer premissas menos restritivas, permitindo, desse modo, caracterizar a ambiguidade de modo mais realístico. A partir da determinação dos parâmetros com maior influência na ambiguidade do modelo é possível reparametrizá-lo, agrupando-os em um único parâmetro, redefinindo assim o modelo interpretativo. Apesar desta reparametrização incorrer na perda de resolução dos parâmetros agrupados, o novo modelo tem sua ambiguidade bastante reduzida.