38 resultados para Ondas de superfície
em Universidade Federal do Pará
Resumo:
Neste trabalho compilamos informações sobre um grande número de medidas de velocidade de grupo para ondas Rayleigh do modo fundamental, com período até 100 segundos. Tais dados consistiram de informações retiradas da literatura geofísica e cobriram toda a Terra. Parte dos dados foi organizada em trabalhos anteriores e uma segunda parte foi apresentada aqui de forma inédita. Para a América do Sul, selecionamos os principais conjuntos de dados de tais ondas e elaboramos diversos perfis onde a distribuição de velocidade de ondas cisalhantes foi obtida a partir da inversão das curvas de dispersão de velocidade de grupo. Tais perfis serviram para termos uma ideia inicial da estrutura interna da Terra em nosso continente. Com o conjunto global de dados de velocidade de grupo foi possível obtermos os mapas de distribuição lateral de valores de velocidade para cada período referencial entre 20 e 100 segundos. Tais mapas foram produzidos da mesma forma que os mapas de velocidade de fase de ROSA (1986), onde a amostragem for para realizada para blocas medindo 10x10 graus, englobando toda a Terra, em projeção mercator. O valor de velocidade de grupo em cada bloco, para cada período, foi obtido a partir da inversão estocástica dos dados de anomalia de velocidade em relação aos modelos regionalizados de JORDAN (1981) com os valores de velocidade de grupo de ROSA et al. (1992). Os mapas de velocidade de grupo obtidos aqui foram então empregados, na América do Sul, com os valores de velocidade de fase dos mapas obtidos por ROSA (1986). Assim, foi possível determinarmos, em profundidade, os mapas de variação de velocidade de onda cisalhante e os mapas de distribuição de valores de densidade. Com isto, pudemos construir o primeiro mapa de profundidade do Moho (todo do Manto Superior) da América do Sul.
Resumo:
Este trabalho representa um estudo de dispersão da componente vertical da onda de superfície de Rayleigh com trajetórias na plataforma Sulamericana. Os registros utilizados são provenientes das estações localizadas no território Brasileiro; sendo a do Rio de Janeiro (RDJ), a de Brasília (BDF), a de Caicó (CAI) e a de Belém (BEB), pois estas são as únicas estações sismológicas no Brasil que têm sensores de período longo e que servem para o estudo de dispersão no intervalo de 4 a 50 segundos, aqui realizados. Os terremotos utilizados estão localizados ao longo da parte leste da cadeia Andina e dentro da plataforma Sulamericana com trajetórias tipicamente continental. Foram selecionados 34 eventos com a utilização dos seguintes critérios práticos: a localização, a magnitude mb e a profundidade, ocorridos durante o período de Janeiro de 1978 até Junho de 1987. O estudo de dispersão aqui abordado significa a determinação da velocidade de grupo e das amplitudes espectrais correspondentes aos harmônicos fundamental e primeiro superior. Normalmente os harmônicos de ordem segunda ou maior são raramente disponíveis na observação. Dois tipos de medidas foram feitas: (i) velocidade de grupo vs. período e (ii) amplitude vs. período. Os estudos de dispersão são fundamentais para determinação da estrutura da crosta e manto superior que estão diretamente relacionados com os fenômenos geológicos. Neste trabalho, regionalização é definida como a identificação das diferentes formas de curvas de dispersão, que estão relacionadas com as trajetórias epicentro-estação ao longo da plataforma Sulamericana e que venham ter uma correlação geológica como está descrito no item 4.3 deste trabalho. A distribuição dos epicentros se faz desde o extremo sul da Argentina até o extremo norte da Venezuela, objetivando iniciar com este trabalho uma sistemática voltada aos estudos de regionalização da plataforma Sulamericana na nossa instituição. Neste trabalho foram observados três tipos distintos de curvas em 27 trajetórias e agrupadas por famílias 1,2 e 3 respectivamente, onde procurou-se correlacionar suas diferentes formas com a geologia regional da plataforma Sulamericana. A obtenção da curva de dispersão foi feita através da técnica do filtro múltiplo (Dziewonski et al, 1969). Este filtro tem a propriedade de separar os harmônicos através das suas velocidades de grupo para cada frequência selecionada, e também de recuperar as amplitudes características dos harmônicos (Herrmann, 1973). O desenvolvimento teórico do filtro bem como suas limitações e forma de uso são tratados por Dziewonski et al (1972). Como parte do trabalho há a implantação, adaptações e o desenvolvimento de parte do fluxograma do filtro múltiplo, bem como a estruturação da digitalização dos dados para o processamento e interpretação não-automática dos resultados do processamento.
Resumo:
O empilhamento por superfície de reflexão comum (ou empilhamento SRC), conhecido como empilhamento CRS, do inglês Commom reflection surface, constitui-se em um novo método para o processamento sísmico na simulação de seções afastamento nulo (AN) e afastamento comum (AC). Este método é baseado em uma aproximação paraxial hiperbólica de segunda ordem dos tempos de trânsito de reflexão na vizinhança de um raio central. Para a simulação de seção AN, o raio central é um raio normal, enquanto que para a simulação de uma seção AC o raio central é um raio de afastamento finito. Em adição à seção AN, o método de empilhamento SRC também fornece estimativas dos atributos cinemáticos do campo de onda, sendo aplicados, por exemplo, na determinação (por um processo de inversão) da velocidade intervalar, no cálculo do espalhamento geométrico, na estimativa da zona de Fresnel, e também na simulação de eventos de tempos de difrações, este último tendo uma grande importância para a migração pré-empilhamento. Neste trabalho é proposta uma nova estratégia para fazer uma migração em profundidade pré-empilhamento, que usa os atributos cinemáticos do campo de onda derivados do empilhamento SRC, conhecido por método CRS-PSDM, do inglês CRS based pre-stack depth migration. O método CRS-PSDM usa os resultados obtidos do método SRC, isto é, as seções dos atributos cinemáticos do campo de onda, para construir uma superfície de tempos de trânsito de empilhamento, ao longo da qual as amplitudes do dado sísmico de múltipla cobertura são somadas, sendo o resultado da soma atribuído a um dado ponto em profundidade, na zona alvo de migração que é definida por uma malha regular. Similarmente ao método convencional de migração tipo Kirchhoff (K-PSDM), o método CRS-PSDM precisa de um modelo de velocidade de migração. Contrário ao método K-PSDM, o método CRS-PSDM necessita apenas computar os tempos de trânsito afastamento nulo, ao seja, ao longo de um único raio ligando o ponto considerado em profundidade a uma dada posição de fonte e receptor coincidentes na superfície. O resultado final deste procedimento é uma imagem sísmica em profundidade dos refletores a partir do dado de múltipla cobertura.
Resumo:
O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.
Resumo:
O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.
Resumo:
Estabelece reflexões sobre as repercussões da atividade turística em um município amazônico, o de São domingos do Capim (Pará). Ao longo de seu desenvolvimento no espaço local, o turismo, explorando a imagem de uma Amazônia que reúne aventuras, mitos e lendas, através do fenômeno da "pororoca", tem provocado repercussões sócioespaciais no Município do ponto de vista de suas práticas cotidianas. Leva-se em conta que a atividade do turismo num município do interior do Pará, com características híbridas de espaço (ribeirinho e urbano) reestrutura temporalidades diversas, redefinindo, em conseqüência, formas e conteúdos do espaço local. Na presente análise, busca-se evidenciar o espaço vivido local e sua relação com a intensificação da atividade turística, em particular a dimensão cotidiana ribeirinha. Para tanto, a pesquisa utilizou-se da dialética espacial (LEFEBVRE, 1981) como reflexão diante da produção do espaço, tendo em vista os agentes envolvidos. No trabalho de campo, foram entrevistadas cinco categorias essenciais na produção do espaço: população local, turistas, patrocinadores, governo do Estado do Pará e poder público local. Os resultados revelaram haver concepções e intencionalidades diferentes relacionadas à inserção da atividade turística no Município, bem como seu planejamento e sua programação conflitaram com a dimensão do vivido ribeirinho.
Resumo:
Este trabalho tem por objetivo apresentar os resultados da modelagem sísmica em meios com fortes descontinuidades de propriedades físicas, com ênfase na existência de difrações e múltiplas reflexões, tendo a Bacia do Amazonas como referência à modelagem. As condições de estabilidade e de fronteiras utilizadas no cálculo do campo de ondas sísmicas foram analisadas numericamente pelo método das diferenças finitas, visando melhor compreensão e controle da interpretação de dados sísmicos. A geologia da Bacia do Amazonas é constituída por rochas sedimentares depositadas desde o Ordoviciano até o Recente que atingem espessuras da ordem de 5 km. Os corpos de diabásio, presentes entre os sedimentos paleozóicos, estão dispostos na forma de soleiras, alcançam espessuras de centenas de metros e perfazem um volume total de aproximadamente 90000 Km³. A ocorrência de tais estruturas é responsável pela existência de reflexões múltiplas durante a propagação da onda sísmica o que impossibilita melhor interpretação dos horizontes refletores que se encontram abaixo destas soleiras. Para representar situações geológicas desse tipo foram usados um modelo (sintético) acústico de velocidades e um código computacional elaborado via método das diferenças finitas com aproximação de quarta ordem no espaço e no tempo da equação da onda. A aplicação dos métodos de diferenças finitas para o estudo de propagação de ondas sísmicas melhorou a compreensão sobre a propagação em meios onde existem heterogeneidades significativas, tendo como resultado boa resolução na interpretação dos eventos de reflexão sísmica em áreas de interesse. Como resultado dos experimentos numéricos realizados em meio de geologia complexa, foi observada a influência significativa das reflexões múltiplas devido à camada de alta velocidade, isto provocou maior perda de energia e dificultou a interpretação dos alvos. Por esta razão recomenda-se a integração de dados de superfície com os de poço, com o objetivo de obter melhor imagem dos alvos abaixo das soleiras de diabásio.
Resumo:
Este trabalho trata de alguns modelos de propagação de ondas eletromagnéticas. Primeiramente, foram analisados modelos relacionados com a predição do sinal eletromagnético em ambientes indoor. Os modelos utilizados neste trabalho foram o Traçado de Raios, Caminho Dominante de Energia (DPM) e o FDTD. Para os dois primeiros modelos foi, utilizado um software comercial e para o método FDTD foi desenvolvido um algoritmo para o qual o sinal é analisado em um ambiente com a mesma geometria utilizada no software. Os resultados, para os pontos de recepção analisados, fornecidos pelos três modelos, são concordantes. Verifica-se a influência dos fenômenos de propagação na intensidade do sinal. A relevância deste trabalho encontra-se no fato de não haver, na literatura pesquisada, trabalhos que comparassem os três modelos de predição mencionados, além de propor temas para pesquisas futuras.
Resumo:
As comunicações marítimas são ainda fortemente efetivadas por meio de circuitos rádio convencionais empregando ondas terrestres, em bandas de MF a VHF, especialmente após a introdução de sistemática de chamadas seletivas digitais. Entretanto, um número significativo de procedimentos operacionais nas radiocomunicações ainda depende de intervenções de operador, reduzindo sua eficiência e dando margem ao cometimento de erros como emissão de falsos alarmes de socorro. Esses erros têm sido frequentes e têm ocasionado muito desvio de atenção das ocorrências reais e perdas de tempo nas instâncias que cuidam das ações de busca e salvamento no mar, afetando, seriamente, a confiabilidade no processo de comunicações terrestres. Em vista disto, propõem-se, nesta pesquisa, sistemáticas para controle das emissões de falsos alertas de socorro, nas transmissões por ondas terrestres, e para melhorar o processo vigente de transmissão de chamadas. As chamadas de socorro recebidas pelas estações costeiras são identificadas por estas, de acordo com as estações que as emitiu, objetivando subsidiar ações corretivas por instâncias competenrtes, para inibição de novas ocorrências. Paralelamente, maior nível de automação é proposto para os processos de chamadas, reduzindo-se a dependência de procedimentos manuais e, assim, as possibilidades de emissões equivocadas, além de melhor aproveitar o conceito de chamada seletiva do sistema vigente. Tais proposições dão maior eficiência e confiabilidade às comunições terrestres, úteis especialmente nas situações de emergências, sem adicionar significativas demandas operacionais nas estações, incentivando e melhorando as condições de comunicações no SMM por ondas terrestres.
Resumo:
O Brasil está realizando testes para selecionar o padrão de transmissão digital a ser adotado. Sistemas como Digital Radio Mondiale (DRM) e Rádio de Alta Definição (HD Radio), desenvolvido apenas para frequências abaixo de 30 MHz permitem a operação com largura de banda compatível com a utilizada no país, abrindo a possibilidade de coexistência de radiodifusão analógica e digital. Para qualquer sistema a ser adotado são necessários estudos que permitem uma melhor gestão do espectro eletromagnético, que exige conhecimento real do alcance do sinal. A propagação de ondas eletromagnéticas na faixa de ondas médias (MW) é caracterizada pela dependência do campo em relação aos parâmetros elétricos do solo. Para contribuir para o planejamento e adaptação do Plano Básico de Radiodifusão em Onda Média – PMWB, a inclusão de novas estações que operam principalmente em simulcast-canal, torna-se necessário desenvolver ferramentas que permitem a avaliação das características do solo onde não fornece dados precisos, permitindo uma revisão de modelos teóricos para prever a adoção, contribuindo para a implantação do rádio digital em nosso país. Este trabalho apresenta os resultados dos ensaios de campo realizados pela ANATEL (Agência Nacional de Telecomunicações) e Radiobrás para analisar um sistema de DRM (Digital Radio Mondiale) na faixa de ondas médias. Foi gerada uma potência de 50kW, com antenas omni-direcionais operando na frequência de 980kHz e utilizando um veículo de medição para recepção fixa e móvel. Várias vias radiais foram percorridas a partir do transmissor localizado em uma área urbana e rural nos entorno da capital do Brasil, Brasília. A partir desses dados é proposto um modelo para avaliação das características elétricas do solo correspondente ao campo elétrico, através da aplicação do método de Equações Parabólicas e comprovação da eficácia do modelo proposto.
Resumo:
A radiação de onda longa proveniente da atmosfera (Lin) é a componente do balanço de radiação mais difícil de ser medida. Na Amazônia praticamente não existem medidas regulares dessa componente, mesmo sendo uma importante variável no cálculo do balanço de radiação à superfície e muito usada para alimentar modelos climáticos. Tendo em vista a necessidade desses dados, o objetivo do presente trabalho é avaliar o desempenho de sete equações na estimativa da Lin para dias de céu claro em áreas de floresta (Reserva Biológica do Jaru, 10º4'48''S; 61º55'48''W) e de pastagem (Fazenda Nossa Senhora, 10º45'S; 62º21'W) no sudoeste da Amazônia. Medidas de radiação de onda longa atmosférica realizadas no período de junho de 2005 a maio de 2006 foram comparadas com as estimativas. As equações testadas tiveram desempenho satisfatório apenas durante a estação seca. As condições de alta nebulosidade, dominantes na estação chuvosa, restringiram a quantidade de dados utilizados na avaliação das equações. As equações que utilizam informações de temperatura do ar e pressão de vapor d'água para a estimativa da Lin tiveram melhor desempenho em relação às que utilizam apenas a temperatura do ar. As equações de Brutsaert (1975), Idso (1981) e Prata (1996) foram as que apresentaram melhor desempenho, apresentando os maiores índices de concordância, e sendo, portanto, as equações mais indicadas para a estimativa da radiação de onda longa atmosférica no sudoeste da Amazônia.
Resumo:
Os coeficientes de reflexão de onda qP em uma interface plana que separa dois meios anisotrópicos dependem dos parâmetros elásticos dos meios envolvidos de maneira não linear. Aproximações lineares para a refletividade de ondas qP pressupondo fraco contraste de impedância e fraca anisotropia levam a uma forma simples para se fazer à análise de AVO/AVD. Neste trabalho a solução das equações de Zoeppritz é rescrita explicitamente em função de matrizes de impedância e polarização. Além disso, utilizando-se esta abordagem, é apresentada uma metodologia geral mais simples para se obter as formas linearizadas. Estas formas linearizadas para os coeficientes de reflexão da onda qP e das ondas convertidas para uma onda qP incidente apresentam resultados muito próximos da formulação exata para ângulos de incidência menores que 30° considerando-se um contraste de impedância moderado e anisotropia em limites geologicamente aceitáveis.
Resumo:
A Facilitação Neuromuscular Proprioceptiva – FNP – é uma técnica que cada vez mais vem sendo utilizada no treinamento muscular de pessoas saudáveis e atletas. Pesquisas vêm mostrando que exercícios de resistência, dentre eles a FNP, são capazes de converter o tipo das fibras musculares treinadas. Esta pesquisa teve como objetivo verificar a eficiência da FNP no acréscimo de força muscular e verificar por métodos não invasivos se haveria indicativo de conversão de tipo de fibra muscular após o treinamento. Um grupo amostral de 22 jovens, universitárias do sexo feminino com idade entre 18 e 25 anos e fisicamente ativas, foi dividido em: grupo controle (GC n=10) e grupo experimental (GE n=12). Foram inicialmente mensurados: I - força da Contração Voluntária Máxima - CVM do músculo quadríceps por dinamometria analógica e root mean square - RMS e II - área de ativação muscular por eletromiografia de superfície (EMG) de todos os sujeitos. Após a primeira coleta de dados o GE realizou treinamento baseado na FNP no membro inferior dominante por 15 sessões em 5 semanas. Ao final, nova mensuração foi feita em todos. Quanto à força muscular, houve acréscimo em ambos os grupos, significativa no GC (p<0,01) e no GE (p<0,05); para RMS e tempo de CVM, houve aumento não significativo no GE, mas a interação Vxt aumentou significativamente para este grupo. Os resultados corroboram a literatura ao mostrar que músculos com predomínio de fibras resistentes (fibras I/ II A) possuem maior tempo de contração com mais ativação elétrica e de que a FNP é capaz fibras tipo II B para II A. Concluiu-se que para a amostra estudada o treinamento foi eficiente no acréscimo de força muscular e os dados EMG apresentados mostram fortes evidências da conversão das fibras do músculo treinado.
Resumo:
A adoção de sistemas digitais de radiodifusão sonora, que estão em fase de testes no país, permite realizar novos estudos visando um melhor planejamento para a implementação dessas novas emissoras. O que significa reavaliar os principais modelos de radiopropagação existentes ou propor novas alternativas para atender as demandas inerentes dos sistemas digitais. Os modelos atuais, conforme Recomendações ITU-R P. 1546 e ITU-R P. 1812, não condizem fielmente com a realidade de algumas regiões do Brasil, principalmente com as regiões de clima tropical, como a Região Amazônica, seja pelo elevado índice pluviométrico seja pela vasta flora existente. A partir dos modelos adequados ao canal de propagação, torna-se viável desenvolver ferramentas de planejamento de cobertura mais precisas e eficientes. A utilização destas ferramentas é cabível tanto para a ANATEL, para a elaboração dos planos básicos de distribuição de canais quanto para os radiodifusores. No presente trabalho é apresentada uma metodologia utilizando a inteligência computacional, baseada em Inferênciass Baysianas, para predição da intensidade de campo elétrico, a qual pode ser aplicada ao planejamento ou expansão de áreas de cobertura em sistemas de radiodifusão para frequências na faixa de ondas médias (de 300 kHz a 3MHz). Esta metodologia gera valores de campo elétrico estimados a partir dos valores de altitude do terreno (através de análises de tabelas de probabilidade condicional) e estabelece a comparação destes com valores de campo elétrico medidos. Os dados utilizados neste trabalho foram coletados na região central do Brasil, próximo à cidade de Brasília. O sinal transmitido era um sinal de rádio AM transmitido na frequência de 980 kHz. De posse dos dados coletados durante as campanhas de medição, foram realizadas simulações utilizando tabelas de probabilidade condicional geradas por Inferências Bayesianas. Assim, é proposto um método para predizer valores de campo elétrico com base na correlação entre o campo elétrico medido e altitude, através da utilização de inteligência computacional. Se comparados a inúmeros trabalhos existentes na literatura que têm o mesmo objetivo, os resultados encontrados neste trabalho validam o uso da metodologia para determinar o campo elétrico de radiodifusão sonora em ondas médias utilizando Inferências Bayesianas.
Resumo:
Neste trabalho estudaram-se as características de superfície de CAG comercial in natura (CA-1) e tratado por (HNO3) (CA-2) e suas aplicações na adsorção de benzeno e tolueno. Caracterização dos adsorventes: área superficial específica - SBET e distribuição de poros (adsorção de N2/77 K), pH (norma ASTM D3838-05), grupos funcionais de superfície (FTIR e método de Boehm). Foram realizados ensaios de adsorção em sistema batelada (25°C/140 rpm/25 minutos) e sistema de coluna em leito fixo, onde as amostras foram quantificadas por cromatografia gasosa com extração por headspace método EPA 0010. A SBET e o volume médio dos poros do adsorvente CA-2 diminuíram com relação aos valores de CA1, bem como o valor do pH. Houve aumento de grupos funcionais ácidos determinados pelo método de Boehm do adsorvente CA-2 em relação ao CA-1, o que foi confirmado pela determinação de FTIR, na qual a intensidade das bandas de absorção foram mais intensas para CA-2. Obtiveram-se percentuais de remoção de benzeno de 92,6 e 93,6 (%) a partir de CA-1 e CA-2, respectivamente, e para tolueno de 93,2 e 94,3 (%) para CA-1 e CA-2. Os dados dos testes cinéticos foram ajustados satisfatoriamente pelo modelo matemático de pseudo-segunda ordem, baseado nos testes estatísticos aplicados, havendo diferenças estatísticas significativas entre o adsorvente tratado (CA-2) e o in natura (CA-1). Realizaram-se ensaios de equilíbrio de adsorção e correlacionaram-se os resultados pela Isoterma de Langmuir, com resposta satisfatória para o referido modelo. A partir do sistema de adsorção em coluna de leito fixo e considerando o maior valor de vazão volumétrica (Q=100 mL/min) utilizado no referido sistema obtiveram-se os resultados mais significativos de adsorção de benzeno e tolueno empregando (CA-2) como adsorvente.