41 resultados para Aquisição e processamento de sinal

em Universidade Federal do Pará


Relevância:

90.00% 90.00%

Publicador:

Resumo:

A monitorização ambulatorial do eletrocardiograma (ECG) permite seguir as atividades cotidianas do paciente durante períodos de 24 horas (ou ainda maiores) possibilitando o estudo de casos que pudessem ter episódios arrítmicos fatais. Entretanto, o maior desafio tecnológico que este tipo de monitorização enfrenta é a perda de informação pela presença de ruídos e artefatos quando o paciente se move. A análise do intervalo QT de despolarização e repolarização ventricular do eletrocardiograma superficial é uma técnica não invasiva com um grande valor para a diagnose e prognósticos de cardiopatias e neuropatias, assim como para a predição da morte cardíaca súbita. A análise do desvio padrão do intervalo QT proporciona informação sobre a dispersão (temporal ou espacial) da repolarização ventricular, entretanto a influencia do ruído provoca erros na detecção do final da onda T que são apreciáveis devido ao fato dos valores pequenos do desvio padrão do QT tanto para sujeitos patológicos e quanto para os sãos. O objetivo geral desta tese é melhorar os métodos de processamento do sinal de ECG ambulatorial usando inteligência computacional, especificamente os métodos relacionados com a detecção do final da onda T, e os de reconhecimento morfológico de batimentos que invalidam a análise da variabilidade do intervalo QT. É proposto e validado (em termos de exatidão e precisão) um novo método e algoritmo para estimar o final da onda T baseado no calculo de áreas de trapézios, empregando sinais da base de dados QT da Physionet. O desempenho do método proposto foi testado e comparado com um dos métodos mais usados para detectar o final da onda T: o método baseado no limiar na primeira derivada. O método de inteligência computacional sugerido combina a extração de características usando o método de análise de componentes principais não lineares e a rede neural de tipo perceptron multicamada. O método de áreas de trapézios teve um bom desempenho em condições ruidosas e não depende de nenhum limiar empírico, sendo adequado para situações com níveis de elevados de ruído de banda larga. O método de reconhecimento morfológico de batimentos foi avaliado com sinais ambulatoriais com e sem artefatos pertencentes a bases de dados de prestigio internacional, e mostrou um bom desempenho.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho trata da filtragem e reconstrução de sinais em frequência intermediária usando FPGA. É feito o desenvolvimento de algoritmos usando processamento digital de sinais e também a implementação dos mesmos, constando desde o projeto da placa de circuito impresso, montagem e teste. O texto apresenta um breve estudo de amostragem e reconstrução de sinais em geral. Especial atenção é dada à amostragem de sinais banda-passante e à análise de questões práticas de reconstrução de sinais em frequência intermediária. Dois sistemas de reconstrução de sinais baseados em processamento digital de sinais, mais especificamente reamostragem no domínio discreto, são apresentados e analisados. São também descritas teorias de processos de montagem e soldagem de placas eletrônicas com objetivo de definir uma metodologia de projeto, montagem e soldagem de placas eletrônicas. Tal metodologia é aplicada no projeto e manufatura do protótipo de um módulo de filtragem digital para repetidores de telefonia celular. O projeto, implementado usando FPGA, é baseado nos dois sistemas supracitados. Ao final do texto, resultados obtidos em experimentos de filtragem digital e reconstrução de sinais em frequência intermediária com o protótipo desenvolvido são apresentados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Um registro sísmico é frequentemente representado como a convolução de um pulso-fonte com a resposta do meio ao impulso, relacionada ao caminho da propagação. O processo de separação destes dois componentes da convolução é denominado deconvolução. Existe uma variedade de aproximações para o desenvolvimento de uma deconvolução. Uma das mais comuns é o uso da filtragem linear inversa, ou seja, o processamento do sinal composto, através de um filtro linear, cuja resposta de frequência é a recíproca da transformada de Fourier de um dos componentes do sinal. Obviamente, a fim de usarmos a filtragem inversa, tais componentes devem ser conhecidas ou estimadas. Neste trabalho, tratamos da aplicação a sinais sísmicos, de uma técnica de deconvolução não linear, proposta por Oppenheim (1965), a qual utiliza a teoria de uma classe de sistemas não lineares, que satisfazem um princípio generalizado de superposição, denominados de sistemas homomórficos. Tais sistemas são particularmente úteis na separação de sinais que estão combinados através da operação de convolução. O algoritmo da deconvolução homomórfica transforma o processo de convolução em uma superposição aditiva de seus componentes, com o resultado de que partes simples podem ser separadas mais facilmente. Esta classe de técnicas de filtragem representa uma generalização dos problemas de filtragem linear. O presente método oferece a considerável vantagem de que não é necessário fazer qualquer suposição prévia sobre a natureza do pulso sísmico fonte, ou da resposta do meio ao impulso, não requerendo assim, as considerações usuais de que o pulso seja de fase-mínima e que a distribuição dos impulsos seja aleatória, embora a qualidade dos resultados obtidos pela análise homomórfica seja muito sensível à razão sinal/ruído, como demonstrado.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

As redes neurais artificiais têm provado serem uma poderosa técnica na resolução de uma grande variedade de problemas de otimização. Nesta dissertação é desenvolvida uma nova rede neural, tipo recorrente, sem realimentação (self-feedback loops) e sem neurônios ocultos, para o processamento do sinal sísmico, para fornecer a posição temporal, a polaridade e as amplitudes estimadas dos refletores sísmicos, representadas pelos seus coeficientes de reflexão. A principal característica dessa nova rede neural consiste no tipo de função de ativação utilizada, a qual permite três possíveis estados para o neurônio. Busca-se estimar a posição dos refletores sísmicos e reproduzir as verdadeiras polaridades desses refletores. A idéia básica desse novo tipo de rede, aqui denominada rede neural discreta (RND), é relacionar uma função objeto, que descreve o problema geofísico, com a função de Liapunov, que descreve a dinâmica da rede neural. Deste modo, a dinâmica da rede leva a uma minimização local da sua função de Liapunov e consequentemente leva a uma minimização da função objeto. Assim, com uma codificação conveniente do sinal de saída da rede tem-se uma solução do problema geofísico. A avaliação operacional da arquitetura desta rede neural artificial é realizada em dados sintéticos gerados através do modelo convolucional simples e da teoria do raio. A razão é para explicar o comportamento da rede com dados contaminados por ruído, e diante de pulsos fonte de fases mínima, máxima e misturada.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo principal propor um nodo (ou nó) sensor sem fio para ser utilizado em redes de sensores sem fio, em sistemas de aquisição de dados de extensômetros. O sistema de aquisição para os extensômetros é baseado na ponte de Wheatstone e de modo a permitir várias configurações de extensômetros. O processamento e a comunicação sem fio é realizada pelo ATmega128RFA1, composto por um microcontrolador e um transceiver Rádio-Frequência com o padrão Zigbee. O nodo foi projetado para garantir confiabilidade na aquisição de dados e ser totalmente controlado remotamente. Entre os parâmetros controláveis estão: o ganho do sinal e a taxa de amostragem. Além disso, o nodo possui recursos para efetuar o equilíbrio da ponte de Wheatstone automaticamente. A escolha de seus componentes, baseou-se em critérios relacionados ao consumo de energia do mesmo e ao custo. Foi concebida uma placa de circuito impresso (PCI) para o nodo, e sobre ela foram realizadas estimativas sobre o consumo de energia e valor agregado do protótipo, com o objetivo de analisar a sua viabilidade. Além do projeto do nodo sensor, o trabalho apresenta a proposta de integração do mesmo em uma rede de sensores sem fio (RSSF), incluindo a sugestão do hardware complementar e desenvolvimentos dos softwares. Para os testes do nodo sensor, foi construido experimentalmente um transdutor de força.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Apresentamos dois métodos de interpretação de dados de campos potenciais, aplicados à prospecção de hidrocarbonetos. O primeiro emprega dados aeromagnéticos para estimar o limite, no plano horizontal, entre a crosta continental e a crosta oceânica. Este método baseia-se na existência de feições geológicas magnéticas exclusivas da crosta continental, de modo que as estimativas das extremidades destas feições são usadas como estimativas dos limites da crosta continental. Para tanto, o sinal da anomalia aeromagnética na região da plataforma, do talude e da elevação continental é amplificado através do operador de continuação analítica para baixo usando duas implementações: o princípio da camada equivalente e a condição de fronteira de Dirichlet. A maior carga computacional no cálculo do campo continuado para baixo reside na resolução de um sistema de equações lineares de grande porte. Este esforço computacional é minimizado através do processamento por janelas e do emprego do método do gradiente conjugado na resolução do sistema de equações. Como a operação de continuação para baixo é instável, estabilizamos a solução através do funcional estabilizador de primeira ordem de Tikhonov. Testes em dados aeromagnéticos sintéticos contaminados com ruído pseudo-aleatório Gaussiano mostraram a eficiência de ambas as implementações para realçar os finais das feições magnéticas exclusivas da crosta continental, permitindo o delineamento do limite desta com a crosta oceânica. Aplicamos a metodologia em suas duas implementações a dados aeromagnéticos reais de duas regiões da costa brasileira: Foz do Amazonas e Bacia do Jequitinhonha. O segundo método delineia, simultaneamente, a topografia do embasamento de uma bacia sedimentar e a geometria de estruturas salinas contidas no pacote sedimentar. Os modelos interpretativos consistem de um conjunto de prismas bidimensionais verticais justapostos, para o pacote sedimentar e de prismas bidimensionais com seções verticais poligonais para as estruturas salinas. Estabilizamos a solução, incorporando características geométricas do relevo do embasamento e das estruturas salinas compatíveis com o ambiente geológico através dos estabilizadores da suavidade global, suavidade ponderada e da concentração de massa ao longo de direções preferenciais, além de vínculos de desigualdade nos parâmetros. Aplicamos o método a dados gravimétricos sintéticos produzidos por fontes 2D simulando bacias sedimentares intracratônicas e marginais apresentando densidade do pacote sedimentar variando com a profundidade segundo uma lei hiperbólica e abrigando domos e almofadas salinas. Os resultados mostraram que o método apresenta potencial para delinear, simultaneamente, as geometrias tanto de almofadas e domos salinos, como de relevos descontínuos do embasamento. Aplicamos o método, também, a dados reais ao longo de dois perfis gravimétricos sobre as Bacias de Campos e do Jequitinhonha e obtivemos interpretações compatíveis com a geologia da área.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A formação de classes de equivalência entre figuras, palavras ditadas e palavras impressas promove a leitura com compreensão, mas não estabelece o controle discriminativo por todos as unidades da palavra (letras e sílabas). A aplicação de procedimentos especiais combinados (cópia, ditado e oralização fluente e escandida) durante o ensino das relações condicionais entre palavras ditadas e palavras impressas (AC) favorece o estabelecimento de controle discriminativo por unidades menores que a palavra, e a leitura textual e com compreensão das palavras formadas por recombinações daquelas unidades. O treino explícito de discriminações silábicas tem sido adotado como um dos procedimentos nos estudos sobre consciência fonológica, com resultados satisfatórios em testes de leitura. O presente estudo teve como objetivo investigar o efeito dos dois procedimentos sobre a aquisição da leitura recombinativa em pré-escolares. Três crianças foram expostas ao procedimento de equivalência e procedimento especiais combinados durante o ensino das relações AC (com as palavras MALA, PATO e BOCA), e quatro ao treino explícito de discriminações silábicas em tarefas de rima, aliteração, adição e subtração de sílabas e correspondência grafosilábica. Após um Pré-teste, os participantes do primeiro grupo foram submetidos ao teste / ensino das relações AB (palavras ditadas-figuras), e em seguida ao ensino das relações AC com procedimentos combinados e aos testes BC (figuras-palavras impressas) e CB. Posteriormente à emergência das relações de equivalência (BC/CB), as crianças participavam de testes de leitura textual das sílabas, das palavras de ensino e de generalização (formadas pela recombinação das sílabas das palavras de ensino). Quando os participantes atingiam o mínimo de 90% de acertos no teste de leitura generalizada eram conduzidos ao Pós-teste. Caso contrário, participavam antes da mesma seqüência anterior, porém, com três palavras de generalização (BOLA, LAMA e CAPA). Já as quatro crianças do segundo grupo inicialmente foram submetidas a tarefas de reconhecimento silábico e posteriormente a tarefas de correspondência grafosilábica, rima, aliteração, subtração e adição silábica com as sílabas MA, LA, PA, TO, BO e CA. O participante só era exposto ao treino de uma outra sílaba se obtivesse 100% de acertos na tarefa de correspondência grafosilábica e acertasse todos os itens experimentais das demais atividades. Ao final do programa os participantes eram expostos ao Pós-teste: os três participantes do grupo de equivalência de estímulos e um do grupo de consciência fonológica apresentaram a leitura recombinativa de algumas palavras, mas nenhum deles apresentou leitura recombinativa generalizada. Sugere-se que outras variáveis podem interferir no desempenho dos participantes, como: a história pré e extraexperimental, a aquisição do conceito de impressos (e.g. leitura da esquerda para a direita) e a quantidade de tentativas de ensino. Supõe-se ainda que no caso do ensino de leitura do português o uso conjunto de procedimentos de equivalência de estímulos e de discriminação/correspondência silábica seja um método eficiente no ensino da leitura recombinativa. Propõe-se que novos estudos avaliem os efeitos da combinação destes procedimentos no ensino de tal repertório.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Aborda a classificação automática de faltas do tipo curto-circuito em linhas de transmissão. A maioria dos sistemas de transmissão possuem três fases (A, B e C). Por exemplo, um curto-circuito entre as fases A e B pode ser identicado como uma falta\AB". Considerando a possibilidade de um curto-circuito com a fase terra (T), a tarefa ao longo desse trabalho de classificar uma série temporal em uma das 11 faltas possíveis: AT, BT, CT, AB, AC, BC, ABC, ABT, ACT, BCT, ABCT. Estas faltas são responsáveis pela maioria dos distúrbios no sistema elétrico. Cada curto-circuito é representado por uma seqüência (série temporal) e ambos os tipos de classificação, on-line (para cada curto segmento extraído do sinal) e off-line (leva em consideração toda a seqüência), são investigados. Para evitar a atual falta de dados rotulados, o simulador Alternative Transient Program (ATP) é usado para criar uma base de dados rotulada e disponibilizada em domínio público. Alguns trabalhos na literatura não fazem distinção entre as faltas ABC e ABCT. Assim, resultados distinguindo esse dois tipos de faltas adotando técnicas de pré-processamento, diferentes front ends (por exemplo wavelets) e algoritmos de aprendizado (árvores de decisão e redes neurais) são apresentados. O custo computacional estimado durante o estágio de teste de alguns classificadores é investigado e a escolha dos parâmetros dos classificadores é feita a partir de uma seleção automática de modelo. Os resultados obtidos indicam que as árvores de decisão e as redes neurais apresentam melhores resultados quando comparados aos outros classificadores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O paradigma da equivalência de estímulos tem sido relevante para a compreensão da aprendizagem de leitura em crianças de séries iniciais do ensino fundamental. O objetivo deste estudo foi verificar a formação de relações de equivalência entre palavras ditadas, palavras impressas e figuras e investigar procedimentos que podem facilitar a aquisição da leitura generalizada em crianças com dificuldades de leitura. Participaram oito crianças, de ambos os sexos, com idades entre sete e oito anos, alunos de uma classe da primeira série do ensino fundamental de uma escola pública. As fases experimentais foram: Pré-teste, aplicado a todas as crianças da classe, que consistiu de exercícios de cópia, ditado, leitura de palavras e nomeação de figuras; Ensino, aplicado a quatro de oito crianças selecionadas no pré-teste. Esta fase consistiu de exercícios programados no computador e Testes, também aplicado aos quatro participantes, em que foi verificada a emergência das relações de equivalência entre as figuras e as palavras impressas e palavras impressas e figuras, e teste de generalização de leitura. Três participantes demonstraram a formação de relações de equivalência entre palavras ditadas, palavras impressas e figuras, e leitura com compreensão; mas não demonstraram leitura generalizada. O trabalho continuará, com ensino da leitura por exclusão, até a leitura generalizada, e será, então, aplicado um Pósteste às oito crianças. (Bolsa de Mestrado CNPq)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Face às dimensões continentais do país, as organizações situadas em regiões carentes de fornecedores de desenvolvimento de sistemas de software especializado estão distribuindo suas operações de Information Technology Outsourcing (ITO), para outras regiões. Como consequência, a redução de custos e a melhoria da contratação de serviços em Tecnologia da Informação (TI) têm sido os dois grandes focos da atualidade, incentivando à noção de parceiros múltiplos em operações recíprocas e engajados tanto em relacionamentos formais quanto informais como a terceirização. Os serviços terceirizados são diversificados e entre eles está o desenvolvimento e manutenção de software através de contratos, realizados por organizações situadas em regiões onde existe demanda de software com características específicas. Sabe-se que a terceirização de Software e Serviços Correlatos (S&SC), que inclui as atividades de contratação e gestão do processo de aquisição é uma tarefa complexa e necessária para as organizações, principalmente no que diz respeito às condições envolvidas na contratação. Nesses casos, o exercício da governança tem sido um importante instrumento para, com a terceirização de TI, promover a gestão adequada do risco e o retorno do investimento. Sendo assim, o processo de compra ou venda de um produto de software nesse ambiente é uma atividade que envolve um grande número de conceitos subjetivos, referentes principalmente a características dos produtos. Torna-se maior o desafio quando se trata de software de prateleira modificável (Modified Off-The-Shelf - MOTS) que sofrem modificações e adições de requisitos a cada novo cliente. Neste contexto, buscando adequar as exigências do mercado com as necessidades de métodos e diretrizes para melhoria dos processos de aquisição e fornecimento de software, este trabalho procura explorar as principais características acerca do contrato, do controle de qualidade, e os resultados dos relacionamentos adotados na implementação de projetos de terceirização desenvolvidos á distância. São apresentados os resultados obtidos de um estudo de caso conduzido em uma empresa pública de Medicina Transfusional situada no norte do Brasil que adotou este processo. Por fim, este texto apresenta uma discussão sobre os diferenciais e limitações deste trabalho, e apresenta direcionamentos para investigações futuras neste campo de estudo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A análise de ocorrências no sistema de energia elétrica é de fundamento mportância para uma operação segura, e para manter a qualidade da energia elétrica lornecida aos consumidores. As concessionárias do setor de energia elétrica usam equipamentos, chamados registradores de perturbação (RP's), para monitora diagnosticar problemas nos sistemas elétrico e de proteção. As formas de onda normalmente analisadas nos centros de operação das concessionárias, são aquelas geradas por eventos que quase sempre causam a aocrtul je linhas devido a operação dos relés comandados pelos dispositivos de proteção .Contudo, uma grande quantidade de registros armazenados que podem conte informações importantes sobre o comportamento e desempenho do sistema elétricl jeixa de ser analisada. O objetivo desse trabalho é usar os dados disponíveis nos centros de ontrole, operação das concessionárias de energia elétrica obtidos pelos RP's, para classificar e quantificar de forma automática sinais que caracterizem problemas de qualidade da energia, quanto a variações de tensão de curta duração: afundamentos, elevações e interrupções. O método proposto usa a transformada wavelet para obter um vetor característico para as tensões das fases A, B e C, e uma rede neural probabilística para classificação. Os sinais classificados como apresentando variações de curta duração são quantilicados quanto a duração e amplitude, usando-se as propriedades da análise nultiresolução da decomposição do sinal. Esses parâmetros, então, irão formar uma Jase de dados onde procedimentos de análise estatística podem ser usados para gerar relatórios com as características da qualidade da energia. Os resultados obtidos com a metodologia proposta para um sistema real são também apresentados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Arranjo Produtivo Local (APL) de Processamento de Frutas do Nordeste paraense, Região Metropolitana de Belém e ilha do Marajó, na Amazônia Oriental Brasileira, se destina ao atendimento dos mercados local, regional e nacional. O APL oferta produtos a partir de frutas regionais e exóticas. A base rural agrícola apresenta capacidade produtiva crescente constituída por agricultores familiares. Esses agricultores têm, relativamente, reorientado suas produções para diversificação e complexificação, onde a fruticultura tem destaque nesse processo. O APL se diferencia tanto das estruturas informais (micro-escala) de processamento do fruto açaí (mercado local), quanto das indústrias de larga escala voltadas às exportações. O APL apresenta taxas de crescimento elevadas, porém, com potencial de rentabilidade limitado por condições estruturais. Por um lado, essas limitações refletem o baixo nível da capacidade de governança e de cooperação entre as empresas. De outro, são o resultado de uma baixa capacidade de interação do conjunto de empresas do APL com o ambiente institucional. Assim, há dificuldades para consolidar e elevar a capacidade produtiva e inovativa das empresas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresenta-se nesta dissertação a proposta de um algoritmo supervisionado de classificação de imagens de sensoreamento remoto, composto de três etapas: remoção ou suavização de nuvens, segmentação e classificação.O método de remoção de nuvens usa filtragem homomórfica para tratar as obstruções causadas pela presença de nuvens suaves e o método Inpainting para remover ou suavizar a preseça de sombras e nuvens densas. Para as etapas de segmentação e classificação é proposto um método baseado na energia AC dos coeficientes da Transformada Cosseno Discreta (DCT). O modo de classificação adotado é do tipo supervisionado. Para avaliar o algioritmo foi usado um banco de 14 imagens captadas por vários sensores, das quais 12 possuem algum tipo de obstrução. Para avaliar a etapa de remoção ou suavização de nuvens e sombras são usados a razão sinal-ruído de pico (PSNR) e o coeficiente Kappa. Nessa fase, vários filtros passa-altas foram comparados para a escolha do mais eficiente. A segmentação das imagens é avaliada pelo método da coincidência entre bordas (EBC) e a classificação é avaliada pela medida da entropia relativa e do erro médio quadrático (MSE). Tão importante quanto as métricas, as imagens resultantes são apresentadas de forma a permitir a avaliação subjetiva por comparação visual. Os resultados mostram a eficiência do algoritmo proposto, principalmente quando comparado ao software Spring, distribuído pelo Instituto Nacional de Pesquisas Espaciais (INPE).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Vários órgãos do corpo humano manifestam suas funções por meio de atividades elétricas. A medição desses e de outros biopotenciais pode fornecer indícios importantes que permitem o estudo do funcionamento real dos órgãos. Tais medições não constituem tarefa simples porque envolvem aquisição de dados de sinais cujas amplitudes podem ser na faixa entre 1 μV e 10 mV e também porque, no ambiente em que são feitos esses registros, estão presentes diversos tipos de sinais interferentes que causam degradação da relação sinal/ruído. Logo, o projeto do condicionador de biopotencial deve ser cercado de cuidados para que o circuito final reúna as melhores características de desempenho. Neste trabalho apresenta-se um estudo da origem dos biopotenciais, suas características, os circuitos utilizados para ganho e filtragem do sinal, além das interferências presentes nos sistemas de medições e alguns circuitos para redução desses sinais. É desenvolvido então, um condicionador para registro de biopotenciais corticais com blocos de filtragem e ganho do sinal em até 40 000. Os testes com o condicionador foram realizados registrando o potencial cortical provocado visual e o eletroencefalograma, e nos resultados experimentais é possível observar um desempenho satisfatório do equipamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O interesse no comportamento dinâmico de estruturas metálicas vem crescendo nas últimas décadas no Brasil, em decorrência de acidentes com colapso total de algumas estruturas devido às vibrações ambientes em diversas regiões do país. Na região amazônica, por exemplo, onde esse tipo de estrutura deve vencer obstáculos como florestas e rios de grande largura, casos de colapso total de estruturas metálicas também são relatados. O foco principal dessa dissertação é o estudo do comportamento modal de estruturas metálicas submetidas às vibrações ambientes cuja magnitude das forças de excitação é desconhecida. Dois estudos de caso são apresentados: no primeiro deles, o comportamento modal de uma torre de linha de transmissão de energia elétrica é investigado; e no segundo caso, tanto o comportamento modal como os níveis de desconforto de uma ponte são estudados. Os estudos realizados neste último caso visam avaliar os níveis de desconforto da ponte quando submetida às excitações ambientes como rajadas de vento e o tráfego de veículo de acordo a norma brasileira NBR 8800 (1986). Em ambos os estudos de caso foram realizadas análises experimentais e computacionais. Na etapa experimental, ambas as estruturas foram monitoradas com emprego de um conjunto de acelerômetros de baixa freqüência e também de um sistema de aquisição apropriados para ensaios de vibração de estruturas civis. Como é muito difícil medir a magnitude das forças de excitação ambientes, foram utilizados os métodos de identificação estocásticos SSI-DATA e SSI-COV para extração de parâmetros modais de estruturas civis a partir somente dos dados de resposta coletados nos ensaios de vibração. Entre as atividades desenvolvidas nessa etapa, destaca-se a criação de um programa computacional com recursos do Graphical User Interface (GUI) da plataforma Matlab®, destinado à identificação modal de estruturas civis com o emprego dos referidos métodos estocásticos. Esse programa é constituído de três módulos: o primeiro é destinado ao processamento e tratamento dos sinais coletados nos ensaios de vibração; o segundo é utilizado para adicionar as informações do posicionamento dos acelerômetros utilizados nos arquivos dos sinais de resposta; e o terceiro e último módulo é destinado à identificação a partir dos arquivos de dados de resposta processados nos dois primeiros módulos. Na etapa das análises teóricas, foram criados modelos numéricos utilizando o método dos elementos finitos para simular o comportamento dinâmico das estruturas analisadas. Comparando os resultados obtidos em ambas as etapas de análise, verifica-se que resultados experimentais e teóricos apresentaram parâmetros bastante próximos entre si nos primeiros modos de vibração. Os resultados experimentais mostraram que ambos os métodos estocásticos foram muito eficientes na identificação das estruturas ensaiadas.