18 resultados para Filtragem estocástica
em Universidade Federal do Pará
Resumo:
Atualmente, é grande a preocupação com relação aos distúrbios que afetam a qualidade da energia elétrica, em especial os afundamentos de tensão, devido aos prejuízos associados aos usuários. Isto decorre da crescente presença de cargas sensíveis a estes distúrbios, principalmente nos processos industriais. Para se avaliar corretamente o problema, é fundamental dispor de estimativas confiáveis do número e das características dos afundamentos de tensão que podem afetar determinada carga ou processo. Dentro deste contexto, este trabalho propõe a implementação de uma metodologia de estimação dos afundamentos de tensão. Esta metodologia calcula a amplitude, duração e freqüência de ocorrência do fenômeno, tendo como base um estudo estatístico estocástico. Neste estudo a posição da falta ao longo das linhas é sorteada, a fim de melhor emular a aleatoriedade da ocorrência das faltas no sistema. Para avaliar a aplicabilidade da metodologia implementada, realizaram-se estudos de casos utilizando um sistema elétrico real pertencente a uma concessionária da região norte (CELPA). A análise permite afirmar que a metodologia implementada pode ser eficazmente utilizada para auxiliar engenheiros no planejamento de sistemas elétricos e no diagnóstico de problemas ocasionados por afundamentos de tensão.
Resumo:
O presente trabalho trata da filtragem e reconstrução de sinais em frequência intermediária usando FPGA. É feito o desenvolvimento de algoritmos usando processamento digital de sinais e também a implementação dos mesmos, constando desde o projeto da placa de circuito impresso, montagem e teste. O texto apresenta um breve estudo de amostragem e reconstrução de sinais em geral. Especial atenção é dada à amostragem de sinais banda-passante e à análise de questões práticas de reconstrução de sinais em frequência intermediária. Dois sistemas de reconstrução de sinais baseados em processamento digital de sinais, mais especificamente reamostragem no domínio discreto, são apresentados e analisados. São também descritas teorias de processos de montagem e soldagem de placas eletrônicas com objetivo de definir uma metodologia de projeto, montagem e soldagem de placas eletrônicas. Tal metodologia é aplicada no projeto e manufatura do protótipo de um módulo de filtragem digital para repetidores de telefonia celular. O projeto, implementado usando FPGA, é baseado nos dois sistemas supracitados. Ao final do texto, resultados obtidos em experimentos de filtragem digital e reconstrução de sinais em frequência intermediária com o protótipo desenvolvido são apresentados.
Resumo:
O objetivo do presente trabalho é, portanto, apresentar uma análise dos efeitos das desigualdades econômicas inter-regionais sobre as desigualdades inter-regionais da arrecadação tributária estadual na esfera do federalismo fiscal. O problema da desigualdade interregional entre as regiões e os estados brasileiros sempre foi o principal foco de atenção dos economistas regionais. Entretanto, são relativamente escassos os estudos e as pesquisas que visam estudar os efeitos das desigualdades econômicas inter-regionais sobre as desigualdades tributárias inter-regionais da arrecadação efetiva e potencial entre os estados federativos brasileiros. Por resolveu-se analisar os resultados da medição da capacidade da arrecadação tributária dos estados brasileiros, com destaque para os estados da região Norte, para os anos de 1970 até 2006. A metodologia utilizada para estimar a capacidade de arrecadação tributária e determinar o esforço fiscal dos governos estaduais foi o modelo econométrico de fronteira estocástica, adaptado para esse fim.
Resumo:
O interesse no comportamento dinâmico de estruturas metálicas vem crescendo nas últimas décadas no Brasil, em decorrência de acidentes com colapso total de algumas estruturas devido às vibrações ambientes em diversas regiões do país. Na região amazônica, por exemplo, onde esse tipo de estrutura deve vencer obstáculos como florestas e rios de grande largura, casos de colapso total de estruturas metálicas também são relatados. O foco principal dessa dissertação é o estudo do comportamento modal de estruturas metálicas submetidas às vibrações ambientes cuja magnitude das forças de excitação é desconhecida. Dois estudos de caso são apresentados: no primeiro deles, o comportamento modal de uma torre de linha de transmissão de energia elétrica é investigado; e no segundo caso, tanto o comportamento modal como os níveis de desconforto de uma ponte são estudados. Os estudos realizados neste último caso visam avaliar os níveis de desconforto da ponte quando submetida às excitações ambientes como rajadas de vento e o tráfego de veículo de acordo a norma brasileira NBR 8800 (1986). Em ambos os estudos de caso foram realizadas análises experimentais e computacionais. Na etapa experimental, ambas as estruturas foram monitoradas com emprego de um conjunto de acelerômetros de baixa freqüência e também de um sistema de aquisição apropriados para ensaios de vibração de estruturas civis. Como é muito difícil medir a magnitude das forças de excitação ambientes, foram utilizados os métodos de identificação estocásticos SSI-DATA e SSI-COV para extração de parâmetros modais de estruturas civis a partir somente dos dados de resposta coletados nos ensaios de vibração. Entre as atividades desenvolvidas nessa etapa, destaca-se a criação de um programa computacional com recursos do Graphical User Interface (GUI) da plataforma Matlab®, destinado à identificação modal de estruturas civis com o emprego dos referidos métodos estocásticos. Esse programa é constituído de três módulos: o primeiro é destinado ao processamento e tratamento dos sinais coletados nos ensaios de vibração; o segundo é utilizado para adicionar as informações do posicionamento dos acelerômetros utilizados nos arquivos dos sinais de resposta; e o terceiro e último módulo é destinado à identificação a partir dos arquivos de dados de resposta processados nos dois primeiros módulos. Na etapa das análises teóricas, foram criados modelos numéricos utilizando o método dos elementos finitos para simular o comportamento dinâmico das estruturas analisadas. Comparando os resultados obtidos em ambas as etapas de análise, verifica-se que resultados experimentais e teóricos apresentaram parâmetros bastante próximos entre si nos primeiros modos de vibração. Os resultados experimentais mostraram que ambos os métodos estocásticos foram muito eficientes na identificação das estruturas ensaiadas.
Resumo:
Dois métodos de filtragem são combinados neste trabalho com a finalidade de ressaltar determinadas feições, em um mapa aeromagnético, tais como lineamentos e anomalias de grande porte, provindos do embasamento. A filtragem visual consiste na observação estereoscópica de pares de mapas, especialmente elaborados para este fim. A filtragem numérica consiste na eliminação dos componentes espectrais indesejáveis (ruído) e no realce dos componentes espectrais de interesse (sinal). Ambos os métodos foram aplicados a mapas aeromagnéticos da Bacia do Médio Amazonas. As operações de filtragem numérica foram todas efetuadas no domínio dos espaços, através de convolução dos dados com filtros de dimensões 13x13. A análise preliminar do espectro é enfatizada como guia na elaboração de filtros. Os resultados da aplicação de cada filtro são discutidos em detalhe. Além das filtragens visual e numérica, vários modelos de falhas e de anomalias do intraembasamento e do supraembasemento são apresentados. A análise de modelos constitui um método de interpretação independente e complementar dos métodos de filtragens. Uma interpretação estrutural do embasamento da Bacia do Médio Amazonas é incluída. As direções principais dos lineamentos aeromagnéticos são E-W, NW60°, N-S, NF45° e NE6O°. Dois grabens sao bem evidenciados um com direção N-S, o mais recente próximo à borda do Alto do Purus. O outro, mais antigo, situa-se a leste do primeiro e tem direção NE45°. Duas anomalias de grande e médio porte (15-60km) possuem magnetização remanente com altos valores de inclinação negativa, o que corrobora a posição muito mais ao sul da Bacia Amazônica, no Paleozóico. Na integração dos dados aeromagnéticos com outros dados geofísicos, como sísmica e gravimetria, e resultados de fotointerpretação geológica, a consistência das informações independentes, em relação à interpretação aeromagnética, concorre para aumentar a viabilidade e a confiabilidade das técnicas aplica das neste trabalho.
Resumo:
As distorções estáticas são um grave problema que afeta o método magnetotelúrico e muitas tentativas têm sido feitas para eliminar ou minimizar os seus efeitos. Este trabalho trata de uma técnica nova que trata deste problema, o método EMAP, que é uma adaptação do método magnetotelúrico na qual as medidas de campo elétrico são feitas em uma linha contínua de dipolos conectados entre si, e os dados coletados desta maneira são tratados com um filtro espacial passa-baixa dependente da frequência. Este trabalho é composto de duas partes principais, a simulação numérica dos dados contaminados com as distorções estáticas e a filtragem destes dados com o filtro espacial passa-baixa. Na primeira parte, aplicamos o método dos elementos finitos para simular a resposta dos dipolos elétricos, os quais fazem as medidas do campo elétrico. Na segunda parte aplicamos a janela de Hanning como filtro passa-baixa apropriado para tratar os dados.
Resumo:
O Município de Marabá- PA, situado na região Amazônica, sudeste do Estado do Pará, sofre anualmente com eventos de enchentes, ocasionados pelo aumento periódico do rio Tocantins e pela situação de vulnerabilidade da população que reside em áreas de risco. A defesa civil estadual e municipal anualmente planeja e prepara equipes para ações de defesa no município. Nesta fase o monitoramento e previsão de eventos de enchentes são importantes. Portanto, com o objetivo de diminuir erros nas previsões hidrológicas para o Município de Marabá, desenvolveu-se um modelo estocástico para previsão de nível do rio Tocantins, baseado na metodologia de Box e Jenkins. Utilizou os dados de níveis diários observados nas estações hidrológicas de Marabá e Carolina e Conceição do Araguaia da Agência Nacional de Águas (ANA), do período de 01/12/ 2008 a 31/03/2011. Efetuou-se o ajustamento de três modelos (Mt, Nt e Yt), através de diferentes aplicativos estatísticos: o SAS e o Gretl, usando diferentes interpretações do comportamento das séries para gerar as equações dos modelos. A principal diferença entre os aplicativos é que no SAS usa o modelo de função de transferência na modelagem. Realizou-se uma classificação da variabilidade do nível do rio, através da técnica dos Quantis para o período de 1972 a 2011, examinando-se apenas as categorizações de níveis ACIMA e MUITO ACIMA do normal. Para análise de impactos socioeconômicos foram usados os dados das ações da Defesa Civil Estado do Pará nas cheias de 2009 e 2011. Os resultados mostraram que o número de eventos de cheias com níveis MUITO ACIMA do normal, geralmente, podem estar associados a eventos de La Niña. Outro resultado importante: os modelos gerados simularam muito bem o nível do rio para o período de sete dias (01/04/2011 a 07/04/2011). O modelo multivariado Nt (com pequenos erros) representou o comportamento da série original, subestimando os valores reais nos dias 3, 4 e 5 de abril de 2011, com erro máximo de 0,28 no dia 4. O modelo univariado (Yt) teve bons resultados nas simulações com erros absolutos em torno de 0,12 m. O modelo com menor erro absoluto (0,08m) para o mesmo período foi o modelo Mt, desenvolvido pelo aplicativo SAS, que interpreta a série original como sendo não linear e não estacionária. A análise quantitativa dos impactos fluviométricos, ocorridos nas enchentes de 2009 e 2011 na cidade de Marabá, revelou em média que mais de 4 mil famílias sofrem com estes eventos, implicado em gastos financeiros elevados. Logo, conclui-se que os modelos de previsão de níveis são importantes ferramentas que a Defesa Civil, utiliza no planejamento e preparo de ações preventivas para o município de Marabá.
Resumo:
Apresenta-se nesta dissertação a proposta de um algoritmo supervisionado de classificação de imagens de sensoreamento remoto, composto de três etapas: remoção ou suavização de nuvens, segmentação e classificação.O método de remoção de nuvens usa filtragem homomórfica para tratar as obstruções causadas pela presença de nuvens suaves e o método Inpainting para remover ou suavizar a preseça de sombras e nuvens densas. Para as etapas de segmentação e classificação é proposto um método baseado na energia AC dos coeficientes da Transformada Cosseno Discreta (DCT). O modo de classificação adotado é do tipo supervisionado. Para avaliar o algioritmo foi usado um banco de 14 imagens captadas por vários sensores, das quais 12 possuem algum tipo de obstrução. Para avaliar a etapa de remoção ou suavização de nuvens e sombras são usados a razão sinal-ruído de pico (PSNR) e o coeficiente Kappa. Nessa fase, vários filtros passa-altas foram comparados para a escolha do mais eficiente. A segmentação das imagens é avaliada pelo método da coincidência entre bordas (EBC) e a classificação é avaliada pela medida da entropia relativa e do erro médio quadrático (MSE). Tão importante quanto as métricas, as imagens resultantes são apresentadas de forma a permitir a avaliação subjetiva por comparação visual. Os resultados mostram a eficiência do algoritmo proposto, principalmente quando comparado ao software Spring, distribuído pelo Instituto Nacional de Pesquisas Espaciais (INPE).
Resumo:
Os sequenciadores de nova geração como as plataformas Illumina e SOLiD geram uma grande quantidade de dados, comumente, acima de 10 Gigabytes de arquivos-texto. Particularmente, a plataforma SOLiD permite o sequenciamento de múltiplas amostras em uma única corrida (denominada de corrida multiplex) por meio de um sistema de marcação chamado Barcode. Esta funcionalidade requer um processo computacional para separação dos dados por amostra, pois, o sequenciador fornece a mistura de todas amostras em uma única saída. Este processo deve ser seguro a fim de evitar eventuais embaralhamentos que possam prejudicar as análises posteriores. Neste contexto, o presente trabalho propõe desenvolvimento de um modelo probabilístico capaz de caracterizar sistema de marcação utilizado em sequenciamentos multiplex. Os resultados obtidos corroboraram a suficiência do modelo obtido, o qual permite, dentre outras coisas, identificar faltas em algum passo do processo de sequenciamento; adaptar e desenvolver de novos protocolos para preparação de amostras, além de atribuir um Grau de Confiança aos dados gerados e guiar um processo de filtragem que respeite as características de cada sequenciamento, não descartando sequências úteis de forma arbitrária.
Resumo:
Vários órgãos do corpo humano manifestam suas funções por meio de atividades elétricas. A medição desses e de outros biopotenciais pode fornecer indícios importantes que permitem o estudo do funcionamento real dos órgãos. Tais medições não constituem tarefa simples porque envolvem aquisição de dados de sinais cujas amplitudes podem ser na faixa entre 1 μV e 10 mV e também porque, no ambiente em que são feitos esses registros, estão presentes diversos tipos de sinais interferentes que causam degradação da relação sinal/ruído. Logo, o projeto do condicionador de biopotencial deve ser cercado de cuidados para que o circuito final reúna as melhores características de desempenho. Neste trabalho apresenta-se um estudo da origem dos biopotenciais, suas características, os circuitos utilizados para ganho e filtragem do sinal, além das interferências presentes nos sistemas de medições e alguns circuitos para redução desses sinais. É desenvolvido então, um condicionador para registro de biopotenciais corticais com blocos de filtragem e ganho do sinal em até 40 000. Os testes com o condicionador foram realizados registrando o potencial cortical provocado visual e o eletroencefalograma, e nos resultados experimentais é possível observar um desempenho satisfatório do equipamento.
Resumo:
Variações sazonal e nictemeral do microfitoplâncton foram estudadas em uma estação fixa (00º46'37,2''S-046º43'24,5''W), localizada em uma área costeira próxima à ilha Canela (Norte do Brasil), durante os meses de setembro e dezembro/2004 (período seco) e março e junho/2005 (período chuvoso). As amostras destinadas à análise qualitativa do fitoplâncton foram obtidas a partir da filtragem de 400 L de água, através de uma rede planctônica (65 μm de abertura de malha), durante marés de sizígia, em intervalos regulares de três horas, por um período de 24 horas. O material coletado foi fixado com formol neutro a 4%. Paralelamente a essas coletas foi medida a salinidade da superfície da água. A salinidade apresentou variação significativa ao longo do período de estudo, variando entre 26,1 (junho/2005) e 39,0 (dezembro/2004), caracterizando o ambiente como eualino-polialino. Foram identificados 130 táxons incluídos nas divisões Cyanophyta (dois táxons), Bacillariophyta (115 táxons) e Dinophyta (13 táxons). As diatomáceas dominaram o microfitoplâncton da área, sendo Asterionellopsis glacialis, Dimeregramma minor, Skeletonema sp. e Thalassiosira subtilis os táxons mais freqüentes e abundantes. Os altos valores de salinidade condicionaram a maior representatividade das espécies marinhas neríticas, polialóbias. Os processos de ressuspensão provocados pelos ventos e arrebentação das ondas promoveram intercâmbios entre as populações planctônicas e ticoplanctônicas, dentre as quais as espécies Dimeregramma minor, Triceratium biquadratum e T. pentacrinus representaram novas ocorrências para as águas costeiras do litoral amazônico.
Resumo:
Neste trabalho compilamos informações sobre um grande número de medidas de velocidade de grupo para ondas Rayleigh do modo fundamental, com período até 100 segundos. Tais dados consistiram de informações retiradas da literatura geofísica e cobriram toda a Terra. Parte dos dados foi organizada em trabalhos anteriores e uma segunda parte foi apresentada aqui de forma inédita. Para a América do Sul, selecionamos os principais conjuntos de dados de tais ondas e elaboramos diversos perfis onde a distribuição de velocidade de ondas cisalhantes foi obtida a partir da inversão das curvas de dispersão de velocidade de grupo. Tais perfis serviram para termos uma ideia inicial da estrutura interna da Terra em nosso continente. Com o conjunto global de dados de velocidade de grupo foi possível obtermos os mapas de distribuição lateral de valores de velocidade para cada período referencial entre 20 e 100 segundos. Tais mapas foram produzidos da mesma forma que os mapas de velocidade de fase de ROSA (1986), onde a amostragem for para realizada para blocas medindo 10x10 graus, englobando toda a Terra, em projeção mercator. O valor de velocidade de grupo em cada bloco, para cada período, foi obtido a partir da inversão estocástica dos dados de anomalia de velocidade em relação aos modelos regionalizados de JORDAN (1981) com os valores de velocidade de grupo de ROSA et al. (1992). Os mapas de velocidade de grupo obtidos aqui foram então empregados, na América do Sul, com os valores de velocidade de fase dos mapas obtidos por ROSA (1986). Assim, foi possível determinarmos, em profundidade, os mapas de variação de velocidade de onda cisalhante e os mapas de distribuição de valores de densidade. Com isto, pudemos construir o primeiro mapa de profundidade do Moho (todo do Manto Superior) da América do Sul.
Resumo:
Uma técnica para a inversão de dados magnetotelúricos é apresentada neste trabalho. Dois tipos de dados são tratados aqui, dados gerados por modelos unidimensionais com anisotropia na condutividade das camadas e dados bi-dimensionais de levantamentos do método EMAP (ElectroMagnetic Array Profiling). Em ambos os casos fazemos a inversão usando vínculos aproximados de igualdade para estabilizar as soluções. Mostramos as vantagens e as limitações do uso destes vínculos nos processos de inversão. Mesmo vinculada a inversão ainda pode se tornar instável. Para inverter os dados 2-D do EMAP, apresentamos um processo que consiste de três partes: 1 – A construção de um modelo interpretativo e da aproximação inicial para a inversão a partir dos dados de seções de resistividade aparente filtradas pelo processo de filtragem do EMAP; 2 – a inclusão de uma camada de corpos pequenos aflorantes, chamada de camada destatic shift, aos modelos interpretativos para resolver as fontes de distorções estáticas que contaminam os dados; 3 – o uso dos vínculos aproximados de igualdade absoluta para estabilizar as soluções. Os dois primeiros passos nos permitem extrair o máximo de informação possível dos dados, enquanto que o uso dos vínculos de igualdade nos permite incluir informação a priori que possua significado físico e geológico. Com estes passos, obtemos uma solução estável e significativa. Estudaremos o método em dados sintéticos de modelos bi-dimensionais e em dados reais de uma linha de EMAP feita na Bacia do Paraná.
Resumo:
Um registro sísmico é frequentemente representado como a convolução de um pulso-fonte com a resposta do meio ao impulso, relacionada ao caminho da propagação. O processo de separação destes dois componentes da convolução é denominado deconvolução. Existe uma variedade de aproximações para o desenvolvimento de uma deconvolução. Uma das mais comuns é o uso da filtragem linear inversa, ou seja, o processamento do sinal composto, através de um filtro linear, cuja resposta de frequência é a recíproca da transformada de Fourier de um dos componentes do sinal. Obviamente, a fim de usarmos a filtragem inversa, tais componentes devem ser conhecidas ou estimadas. Neste trabalho, tratamos da aplicação a sinais sísmicos, de uma técnica de deconvolução não linear, proposta por Oppenheim (1965), a qual utiliza a teoria de uma classe de sistemas não lineares, que satisfazem um princípio generalizado de superposição, denominados de sistemas homomórficos. Tais sistemas são particularmente úteis na separação de sinais que estão combinados através da operação de convolução. O algoritmo da deconvolução homomórfica transforma o processo de convolução em uma superposição aditiva de seus componentes, com o resultado de que partes simples podem ser separadas mais facilmente. Esta classe de técnicas de filtragem representa uma generalização dos problemas de filtragem linear. O presente método oferece a considerável vantagem de que não é necessário fazer qualquer suposição prévia sobre a natureza do pulso sísmico fonte, ou da resposta do meio ao impulso, não requerendo assim, as considerações usuais de que o pulso seja de fase-mínima e que a distribuição dos impulsos seja aleatória, embora a qualidade dos resultados obtidos pela análise homomórfica seja muito sensível à razão sinal/ruído, como demonstrado.
Resumo:
O filtro de Kalman é aplicado para filtragem inversa ou problema de deconvolução. Nesta dissertação aplicamos o método de Kalman, considerado como uma outra visão de processamento no domínio do tempo, para separar sinal-ruído em perfil sônico admitido como uma realização de um processo estocástico não estacionário. Em um trabalho futuro estudaremos o problema da deconvolução. A dedução do filtro de Kalman destaca a relação entre o filtro de Kalman e o de Wiener. Estas deduções são baseadas na representação do sistema por variáveis de estado e modelos de processos aleatórios, com a entrada do sistema linear acrescentado com ruído branco. Os resultados ilustrados indicam a aplicabilidade dessa técnica para uma variedade de problemas de processamento de dados geofísicos, por exemplo, ideal para well log. O filtro de Kalman oferece aos geofísicos de exploração informações adicionais para o processamento, problemas de modelamento e a sua solução.