1000 resultados para comprimento equivalente


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho estudamos alguns algoritmos de alocação de comprimento de onda em redes ópticas WDM (Wavelength Division Multiplexing). O objetivo para estudar os algoritmos de alocação first-fit, least-used e most-used está baseado na estratégia adotada para estudar o Problema RWA. A estratégia toma como base a visão geral do problema que envolve os algoritmos de roteamento e os algoritmos de alocação de comprimento de onda, e tendo como métrica principal para seus resultados a probabilidade de bloqueio. Este trabalho apresenta uma visão diferenciada para o problema e considera-se que a alocação de comprimentos de onda se sobrepõe, em importância, à ação de roteamento em redes ópticas. Essa percepção ocorre quando se analisa o problema RWA a partir do critério clássico usado no estabelecimento de uma rota: a escolha do caminho mais curto entre a origem e o destino. Apesar da identificação de um caminho mais curto, isso não garante, em redes ópticas, que ele será o utilizado, pois é necessário que haja para aquele caminho, um comprimento de onda adequado. Foi utilizada uma ferramenta de simulação para redes WDM denominada OWNS para realizar uma análise do problema RWA. Os resultados obtidos são apresentados graficamente e em uma das simulações observou-se uma forte tendência de queda na probabilidade de bloqueio e uma boa vazão no trafego da rede com isso possibilitando um aumento na capacidade de transmissão da rede. Por fim, este texto apresenta uma discussão sobre os diferenciais e limitações deste trabalho, e apresenta direcionamentos para investigações futuras neste campo de estudo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desenvolvemos a modelagem numérica de dados sintéticos Marine Controlled Source Electromagnetic (MCSEM) usada na exploração de hidrocarbonetos para simples modelos tridimensionais usando computação paralela. Os modelos são constituidos de duas camadas estrati cadas: o mar e o sedimentos encaixantes de um delgado reservatório tridimensional, sobrepostas pelo semi-espaço correspondente ao ar. Neste Trabalho apresentamos uma abordagem tridimensional da técnica dos elementos nitos aplicada ao método MCSEM, usando a formulação da decomposição primária e secundária dos potenciais acoplados magnético e elétrico. Num pós-processamento, os campos eletromagnéticos são calculados a partir dos potenciais espalhados via diferenciação numérica. Exploramos o paralelismo dos dados MCSEM 3D em um levantamento multitransmissor, em que para cada posição do transmissor temos o mesmo processo de cálculos com dados diferentes. Para isso, usamos a biblioteca Message Passing Interface (MPI) e o modelo servidor cliente, onde o processador administrador envia os dados de entradas para os processadores clientes computar a modelagem. Os dados de entrada são formados pelos parâmetros da malha de elementos nitos, dos transmissores e do modelo geoelétrico do reservatório. Esse possui geometria prismática que representa lentes de reservatórios de hidrocarbonetos em águas profundas. Observamos que quando a largura e o comprimento horizontais desses reservatório têm a mesma ordem de grandeza, as resposta in-line são muito semelhantes e conseqüentemente o efeito tridimensional não é detectado. Por sua vez, quando a diferença nos tamanhos da largura e do comprimento do reservatório é signi cativa o efeito 3D é facilmente detectado em medidas in-line na maior dimensão horizontal do reservatório. Para medidas na menor dimensão esse efeito não é detectável, pois, nesse caso o modelo 3D se aproxima de um modelo bidimensional. O paralelismo dos dados é de rápida implementação e processamento. O tempo de execução para a modelagem multitransmissor em ambiente paralelo é equivalente ao tempo de processamento da modelagem para um único transmissor em uma máquina seqüêncial, com o acréscimo do tempo de latência na transmissão de dados entre os nós do cluster, o que justi ca o uso desta metodologia na modelagem e interpretação de dados MCSEM. Devido a reduzida memória (2 Gbytes) em cada processador do cluster do departamento de geofísica da UFPA, apenas modelos muito simples foram executados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo principal deste trabalho é avaliar o uso dos dados de altimetria de satélites para mapear a superfície do potencial gravitacional (geóide) no mar. Esta avaliação se faz por comparações da resolução e precisão entre os dados de altimetria processados numa superfície equipotencial (o mar) e dados obtidos a partir de levantamentos convencionais. Uma vez processada a superfície equipotencial, quantidades tais como a anomalia "ar livre" juntamente com o desvio vertical podem ser calculadas. Os dados altimétricos ("altura do mar") utilizados neste trabalho foram coletados pelo satélite GEOSAT. Este satélite rastreou diversas áreas oceânicas do globo processando 44 ciclos em dois anos. Alguns pesquisadores utilizaram os valores médios da "altura do mar" deste satélite para melhoramentos em precisão e resolução dos registros. Estes valores tratados estão disponíveis em NOAA (National Oceanic and Atmospheric Administration) sendo deste modo repassados à UFPa para utilização nesta tese. Os dados de gravimetria marinha utilizados neste trabalho são aqueles obtidos do levantamento "Equatorial Atlantic" (EQUANT I e II) resultantes de uma pesquisa conjunta entre várias instituições com objetivos científicos de conhecer o comportamento da margem equatorial Brasileira. Para comparação e integração entre os dois tipos de dados obtidos através de fontes distintas (medidas de satélite e do navio), poder-se-ia obter a aceleração vertical numa superfície equipotencial partindo-se de um tratamento algébrico dos dados coletados por rastreamento altimétrico do satélite Geosat ou alternativamente poder-se-ia processar transformações dos dados de gravimetria marinha em uma superfície equipotencial equivalente. Em decorrência de diferenças no espaçamento entre as linhas dos levantamentos, ou seja, as linhas das trajetórias do satélite estão largamente espaçadas em comparação com aquelas do levantamento marinho, optou-se por transformar os dados gravimétricos do navio em uma superfície equipotencial. Neste tipo de transformação, consideraram-se vários fatores tais como efeitos "aliasing", nível de ruídos nos levantamentos do navio, redução ao geóide (correção "ar livre"), bem como erros computacionais durante as transformações. Com a supressão parcial desses efeitos (enfatizando o "aliasing") encontrou-se forte correlação entre os dois conjuntos de dados verificando-se um nível de coerência satisfatório a partir do comprimento de onda de 11 km. Comparando-se este resultado com o nível de resolução do satélite Geosat largamente estudado por outros pesquisadores enfatiza-se que de fato a resolução dos valores médios (2 anos) do satélite Geosat aproxima-se da resolução dos levantamentos do Equant I e Equant II.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o objetivo de avaliar quatro densidades de estocagem de pirarucu (Arapaima gigas) e identificar a que proporcione melhor desempenho produtivo em ganho de peso e comprimento, para viabilizar o seu cultivo intensivo, foi realizada uma pesquisa, durante 360 dias, utilizando as densidades de cinco, dez, quinze e 20 peixes por 100 m2 de viveiro, fornecendo-se tilápias vivas como alimento, capturada sem açude de manejo de búfalas leiteiras, equivalente a 6% do peso vivo dos peixes, durante quatro dias por semana. Os animais foram agrupados aleatoriamente em quatro tratamentos e duas repetições. Os dados foram analisados com base na aplicação do modelo exponencial de crescimento, tendo sido obtidas as expressões matemáticas para cada densidade de estocagem. Foram feitas analises de regressão linear simples. O crescimento em peso e comprimento do pirarucu varia de acordo com a sua taxa de estocagem, entretanto, até os 120 dias de cultivo não houve diferenças em peso nas quatro densidades estudadas. Os valores do coeficiente angular da relação peso/comprimento do pirarucu demonstram que o seu crescimento e do tipo alométrico. O comprimento total máximo foi de 107,66 cm e peso total máximo de 13,43 kg, na densidade de cinco peixes/100 m2. Entretanto, a maior biomassa, de 85,69 kg/100 m2, foi observada na densidade de dez peixes/100 m2, o que a indica como sendo a mais adequada para utilização em cultivo intensivo. O excelente desenvolvimento ponderal do pirarucu indica o potencial de cultivo dessa espécie, em sistema intensivo de criação associada com búfalas leiteiras.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O sistema WDM (Wavelength Division Multiplexing) é considerado como uma tecnologia madura para ser usada no backbone de redes ópticas. Entretanto, encontrar uma solução ótima para o algoritmo de atribuição de comprimento de onda no projeto e operação destas redes, ainda é uma questão em aberto. A pesquisa realizada nesta tese aborda os principais aspectos relacionados ao processo de atribuição de comprimento de onda em sistemas WDM, e como resultado foi proposta uma metodologia que minimiza a degradação do sinal óptico gerada pela modulação de fase cruzada (XPM – Cross-Phase Modulation). Esta proposta é composta por uma metodologia híbrida baseada em Coloração de Grafo e Algoritmo Genético (AG), sendo que o primeiro tem a função de reduzir o número de comprimentos de onda necessários para atender a matriz de tráfego (que é fornecida a priori) e o último tem a função de encontrar a ordem de ativação de canais na grade de comprimentos de onda, com o objetivo de reduzir o efeito XPM. A proposta foi comparada com o algoritmo First-Fit em diferentes cenários e topologias de redes, e demonstrou uma considerável redução na probabilidade de bloqueio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)