3 resultados para Iteração

em Universidade Federal do Pará


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma solução para o problema de controle admissão de conexão e alocação dinâmica de recursos em redes IEEE 802.16 através da modelagem de um Processo Markoviano de Decisão (PMD) utilizando o conceito de degradação de largura de banda, o qual é baseado nos requisitos diferenciados de largura de banda das classes de serviço do IEEE 802.16. Para o critério de desempenho do PMD é feita a atribuição de diferentes retornos a cada classe de serviço, fazendo assim o tratamento diferenciado de cada fluxo. Nesse sentido, é possível avaliar a política ótima, obtida através de um algoritmo de iteração de valores, considerando aspectos como o nível de degradação médio das classes de serviço, utilização dos recursos e probabilidades de bloqueios de cada classe de serviço em relação à carga do sistema. Resultados obtidos mostram que o método de controle markoviano proposto é capaz de priorizar as classes de serviço consideradas mais relevantes para o sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresentamos três novos métodos estáveis de inversão gravimétrica para estimar o relevo de uma interface arbitrária separando dois meios. Para a garantia da estabilidade da solução, introduzimos informações a priori sobre a interface a ser mapeada, através da minimização de um (ou mais) funcional estabilizante. Portanto, estes três métodos se diferenciam pelos tipos de informação físico-geológica incorporados. No primeiro método, denominado suavidade global, as profundidades da interface são estimadas em pontos discretos, presumindo-se o conhecimento a priori sobre o contraste de densidade entre os meios. Para a estabilização do problema inverso introduzimos dois vínculos: (a) proximidade entre as profundidades estimadas e verdadeiras da interface em alguns pontos fornecidas por furos de sondagem; e (b) proximidade entre as profundidades estimadas em pontos adjacentes. A combinação destes dois vínculos impõe uma suavidade uniforme a toda interface estimada, minimizando, simultaneamente em alguns pontos, os desajustes entre as profundidades conhecidas pelas sondagens e as estimadas nos mesmos pontos. O segundo método, denominado suavidade ponderada, estima as profundidades da interface em pontos discretos, admitindo o conhecimento a priori do contraste de densidade. Neste método, incorpora-se a informação geológica que a interface é suave, exceto em regiões de descontinuidades produzidas por falhas, ou seja, a interface é predominantemente suave porém localmente descontínua. Para a incorporação desta informação, desenvolvemos um processo iterativo em que três tipos de vínculos são impostos aos parâmetros: (a) ponderação da proximidade entre as profundidades estimadas em pontos adjacentes; (b) limites inferior e superior para as profundidades; e (c) proximidade entre todas as profundidades estimadas e um valor numérico conhecido. Inicializando com a solução estimada pelo método da suavidade global, este segundo método, iterativamente, acentua as feições geométricas presentes na solução inicial; ou seja, regiões suaves da interface tendem a tornar-se mais suaves e regiões abruptas tendem a tornar-se mais abruptas. Para tanto, este método atribui diferentes pesos ao vínculo de proximidade entre as profundidades adjacentes. Estes pesos são automaticamente atualizados de modo a acentuar as descontinuidades sutilmente detectadas pela solução da suavidade global. Os vínculos (b) e (c) são usados para compensar a perda da estabilidade, devida à introdução de pesos próximos a zero em alguns dos vínculos de proximidade entre parâmetros adjacentes, e incorporar a informação a priori que a região mais profunda da interface apresenta-se plana e horizontal. O vínculo (b) impõe, de modo estrito, que qualquer profundidade estimada é não negativa e menor que o valor de máxima profundidade da interface conhecido a priori; o vínculo (c) impõe que todas as profundidades estimadas são próximas a um valor que deliberadamente viola a profundidade máxima da interface. O compromisso entre os vínculos conflitantes (b) e (c) resulta na tendenciosidade da solução final em acentuar descontinuidades verticais e apresentar uma estimativa suave e achatada da região mais profunda. O terceiro método, denominado mínimo momento de inércia, estima os contrastes de densidade de uma região da subsuperfície discretizada em volumes elementares prismáticos. Este método incorpora a informação geológica que a interface a ser mapeada delimita uma fonte anômala que apresenta dimensões horizontais maiores que sua maior dimensão vertical, com bordas mergulhando verticalmente ou em direção ao centro de massa e que toda a massa (ou deficiência de massa) anômala está concentrada, de modo compacto, em torno de um nível de referência. Conceitualmente, estas informações são introduzidas pela minimização do momento de inércia das fontes em relação ao nível de referência conhecido a priori. Esta minimização é efetuada em um subespaço de parâmetros consistindo de fontes compactas e apresentando bordas mergulhando verticalmente ou em direção ao centro de massa. Efetivamente, estas informações são introduzidas através de um processo iterativo inicializando com uma solução cujo momento de inércia é próximo a zero, acrescentando, em cada iteração, uma contribuição com mínimo momento de inércia em relação ao nível de referência, de modo que a nova estimativa obedeça a limites mínimo e máximo do contraste de densidade, e minimize, simultaneamente, os desajustes entre os dados gravimétricos observados e ajustados. Adicionalmente, o processo iterativo tende a "congelar" as estimativas em um dos limites (mínimo ou máximo). O resultado final é uma fonte anômala compactada em torno do nível de referência cuja distribuição de constraste de densidade tende ao limite superior (em valor absoluto) estabelecido a priori. Estes três métodos foram aplicados a dados sintéticos e reais produzidos pelo relevo do embasamento de bacias sedimentares. A suavidade global produziu uma boa reconstrução do arcabouço de bacias que violam a condição de suavidade, tanto em dados sintéticos como em dados da Bacia do Recôncavo. Este método, apresenta a menor resolução quando comparado com os outros dois métodos. A suavidade ponderada produziu uma melhoria na resolução de relevos de embasamentos que apresentam falhamentos com grandes rejeitos e altos ângulos de mergulho, indicando uma grande potencialidade na interpretação do arcabouço de bacias extensionais, como mostramos em testes com dados sintéticos e dados do Steptoe Valley, Nevada, EUA, e da Bacia do Recôncavo. No método do mínimo momento de inércia, tomou-se como nível de referência o nível médio do terreno. As aplicações a dados sintéticos e às anomalias Bouguer do Graben de San Jacinto, California, EUA, e da Bacia do Recôncavo mostraram que, em comparação com os métodos da suavidade global e ponderada, este método estima com excelente resolução falhamentos com pequenos rejeitos sem impor a restrição da interface apresentar poucas descontinuidades locais, como no método da suavidade ponderada.