874 resultados para Funções de variaveis reais


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta pesquisa é propor um modelo numérico prognóstico que trate a variável “tempo” de forma eficiente e eficaz, com a finalidade de atender às reais necessidades dos clientes-usuários e à sociedade em geral. Todavia, realizou-se um levantamento bibliográfico sobre gestão pública, no tocante a obras públicas, estatística e pesquisa operacional para sistema organizacional, visando à modelagem numérica. A pesquisa foi baseada em metodologias quantitativas, com ênfase na pesquisa operacional para o estudo das obras públicas executadas sob a gerência da Prefeitura (PCU) da Universidade Federal do Pará (UFPA). Para a elaboração da base de dados, foram coletados informações de obras, reformas e ampliações, executadas durante o período de 2006 a 2009, junto à Comissão Permanente de Licitação (CPL) e à Fundação de Amparo ao Desenvolvimento da Pesquisa (FADESP). Mediante as regressões lineares e, após as transformadas das funções, foram obtidos para o modelo prognóstico os parâmetros estatísticos: coeficiente de correlação (R), de 0,899; coeficiente de determinação (R²), de 0,808; coeficiente de determinação ajustado (R² ajustado), de 0,796; e erro padrão (Se), de 0,41. Esses parâmetros demonstram forte correlação linearizada entre as variáveis, indicando que 79,60% da variabilidade do tempo para executar uma obra pública é causada ou produzida pela variação, em conjunto, da área; do valor orçado; da capacidade técnica operacional da IFES; da capacidade operacional da empresa; da tipologia de serviço; e da estação do ano. Com os resultados obtidos, conclui-se que é possível aplicar e implementar o modelo prognóstico para execução de obras públicas, pois se obteve uma ferramenta potente em sua aplicação para as melhorias dos procedimentos administrativos, tanto na estrutura como no seu desempenho, cujo principal resultado é a previsão do tempo para execução do empreendimento público.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação avalia a margem de estabilidade de tensão da subestação de Rurópolis-PA 230 kV do sistema elétrico Tramoeste da Eletrobrás Eletronorte, utilizando medições locais de fasores de tensão e corrente obtidos através do concentrador de dados fasoriais ou (PDC, do inglês Phasor Data Concentrator) da Eletronorte. A avaliação é baseada na identificação dos parâmetros do equivalente Thevenin (tensão e impedância) “vistos” a montante da subestação em estudo. Os parâmetros do equivalente Thévenin são estimados a partir dos fasores de tensão e corrente medidos localmente, assim como a impedância da carga é calculada usando os mesmos fasores. A margem de estabilidade de tensão determina a distância dada entre os valores, em módulo, da impedância de Thévenin e da impedância da carga. Essa margem, para a subestação referida, foi avaliada em três casos. O primeiro caso avalia a margem considerando dois patamares de carga (leve e pesada); o segundo caso avalia a margem considerando dois níveis de geração na Usina de Tucuruí; e o terceiro caso avalia a margem frente a duas perturbações no Sistema Interligado Nacional (SIN), sendo uma perturbação mais próxima, eletricamente, e outra mais distante da subestação de Rurópolis 230 kV. Os resultados obtidos demonstram uma aplicação promissora das análises propostas para serem usadas em tempo real em sistemas de potência, beneficiando aplicações de ações corretivas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste estudo foi estimar a entropia conjunta do sistema visual humano no domínio do espaço e no domínio das freqüências espaciais através de funções psicométricas. Estas foram obtidas com testes de discriminação de estímulos com luminância ou cromaticidade moduladas por funções de Gábor. A essência do método consistiu em avaliar a entropia no domínio do espaço, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em extensão espacial, e avaliar a entropia no domínio das freqüências espaciais, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em freqüência espacial. A entropia conjunta foi calculada, então, a partir desses dois valores individuais de entropia. Três condições visuais foram estudadas: acromática, cromática sem correção fina para eqüiluminância e cromática com correção para eqüiluminância através de fotometria com flicker heterocromático. Quatro sujeitos foram testados nas três condições, dois sujeitos adicionais foram testados na condição cromática sem eqüiluminância fina e um sétimo sujeito também fez o teste acromático. Todos os sujeitos foram examinados por oftalmologista e considerados normais do ponto de vista oftálmico, não apresentando relato, sintomas ou sinais de disfunções visuais ou de moléstias potencialmente capazes de afetar o sistema visual. Eles tinham acuidade visual normal ou corrigida de no mínimo 20/30. O trabalho foi aprovado pela Comissão de Ética em Pesquisa do Núcleo de Medicina Tropical da UFPA e obedeceu às recomendações da Declaração de Helsinki. As funções de Gábor usadas para modulação de luminância ou cromaticidade compreenderam redes senoidais unidimensionais horizontais, moduladas na direção vertical, dentro de envelopes gaussianos bidimensionais cuja extensão espacial era medida pelo desvio padrão da gaussiana. Os estímulos foram gerados usando-se uma rotina escrita em Pascal num ambiente Delphi 7 Enterprise. Foi utilizado um microcomputador Dell Precision 390 Workstation e um gerador de estímulos CRS VSG ViSaGe para exibir os estímulos num CRT de 20”, 800 x 600 pixels, 120 Hz, padrão RGB, Mitsubishi Diamond Pro 2070SB. Nos experimentos acromáticos, os estímulos foram gerados pela modulação de luminância de uma cor branca correspondente à cromaticidade CIE1931 (x = 0,270; y = 0,280) ou CIE1976 (u’ = 0,186; v’= 0,433) e tinha luminância média de 44,5 cd/m2. Nos experimentos cromáticos, a luminância média foi mantida em 15 cd/m2 e foram usadas duas series de estímulos verde-vermelhos. Os estímulos de uma série foram formados por duas cromaticidades definidas no eixo M-L do Espaço de Cores DKL (CIE1976: verde, u’=0,131, v’=0,380; vermelho, u’=0,216, v’=0,371). Os estímulos da outra série foram formados por duas cromaticidades definidas ao longo de um eixo horizontal verde-vermelho definido no Espaço de Cores CIE1976 (verde, u’=0,150, v’=0,480; vermelho, u’=0,255, v’=0,480). Os estímulos de referência eram compostos por redes de três freqüências espaciais diferentes (0,4, 2 e 10 ciclos por grau) e envelope gaussiano com desvio padrão de 1 grau. Os estímulos de testes eram compostos por uma entre 19 freqüências espaciais diferentes em torno da freqüência espacial de referência e um entre 21 envelopes gaussianos diferentes com desvio padrão em torno de 1 grau. Na condição acromática, foram estudados quatro níveis de contraste de Michelson: 2%, 5%, 10% e 100%. Nas duas condições cromáticas foi usado o nível mais alto de contraste agregado de cones permitidos pelo gamut do monitor, 17%. O experimento consistiu numa escolha forçada de dois intervalos, cujo procedimento de testagem compreendeu a seguinte seqüência: i) apresentação de um estímulo de referência por 1 s; ii) substituição do estímulo de referência por um fundo eqüiluminante de mesma cromaticidade por 1 s; iii) apresentação do estímulo de teste também por 1 s, diferindo em relação ao estímulo de referência seja em freqüência espacial, seja em extensão espacial, com um estímulo sonoro sinalizando ao sujeito que era necessário responder se o estímulo de teste era igual ou diferente do estímulo de referência; iv) substituição do estímulo de teste pelo fundo. A extensão espacial ou a freqüência espacial do estímulo de teste foi mudada aleatoriamente de tentativa para tentativa usando o método dos estímulos constantes. Numa série de 300 tentativas, a freqüencia espacial foi variada, noutra série também de 300 tentativas, a extensão espacial foi variada, sendo que cada estímulo de teste em cada série foi apresentado pelo menos 10 vezes. A resposta do indivíduo em cada tentativa era guardada como correta ou errada para posterior construção das curvas psicométricas. Os pontos experimentais das funções psicométricas para espaço e freqüência espacial em cada nível de contraste, correspondentes aos percentuais de acertos, foram ajustados com funções gaussianas usando-se o método dos mínimos quadrados. Para cada nível de contraste, as entropias para espaço e freqüência espacial foram estimadas pelos desvios padrões dessas funções gaussianas e a entropia conjunta foi obtida multiplicando-se a raiz quadrada da entropia para espaço pela entropia para freqüência espacial. Os valores de entropia conjunta foram comparados com o mínimo teórico para sistemas lineares, 1/4π ou 0,0796. Para freqüências espaciais baixas e intermediárias, a entropia conjunta atingiu níveis abaixo do mínimo teórico em contrastes altos, sugerindo interações não lineares entre dois ou mais mecanismos visuais. Este fenômeno occorreu em todas as condições (acromática, cromática e cromática eqüiluminante) e foi mais acentuado para a frequência espacial de 0,4 ciclos / grau. Uma possível explicação para este fenômeno é a interação não linear entre as vias visuais retino-genículo-estriadas, tais como as vias K, M e P, na área visual primária ou em níveis mais altos de processamento neural.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estimativa de pessoas infectadas pelo HIV no mundo, no ano de 2006, foi cerca de 39,5 milhões. No Brasil, o Ministério da Saúde indica terapia para pacientes com manifestações clínicas associadas ao HIV-1 e para aqueles com contagem de linfócitos T CD4+ abaixo de 200 células/ mm3. Paralelamente aos benefícios da terapia anti-retroviral há o reconhecimento de efeitos adversos, como miopatia, lipodistrofia, pancreatite, hepatotoxicidade e acidose lática. A complexidade dos esquemas terapêuticos torna a adesão à terapia difícil, contribuindo para a falha terapêutica. Neste trabalho foi realizado um estudo epidemiológico, de monitoramento de Lamivudina (3TC) e Zidovudina (AZT) e correlacionado com as funções hepática, renal e nutricional em pacientes portadores de HIV-1, atendidos na CASA DIA, em Belém/PA. O grupo populacional estudado constou de 60 portadores do HIV-1 de ambos os gêneros, com faixa etária de 20 a 61 anos, que faziam uso de AZT e/ou 3TC. Os níveis plasmáticos de aminotransferases, uréia e creatinina foram determinados por fotometria de absorção e, por Cromatografia Líquida de Alta Eficiência, foram determinadas as concentrações plasmáticas de 3TC e AZT. O estado nutricional foi avaliado através do Índice de Massa Corpórea (IMC). As concentrações de 3TC variaram de 1,283 a 355,953 μg/mL, enquanto que as de AZT variaram de 0,008 a 22,544 μg/mL. A concentração de 3TC evidenciou associação com a ocupação (p < 0,05) e com a creatininemia (p < 0,0001), mas não com as aminotrasnferases e uremia (p > 0,05). Não encontramos associação entre a concentração de AZT com as informações demográficas e com a creatininemia (p > 0,05), todavia verificou-se associação com as aminotransferases e uremia (p < 0,0001). O IMC revelou associação com todos os parâmetros estudados: concentrações de 3TC, AZT, aminotransferases, uremia e creatininemia (p < 0,05). Concluímos que as concentrações de 3TC podem afetar os níveis de creatinina e sofrem influência do estado nutricional do paciente, enquanto que as concentrações de AZT podem alterar os níveis de aminotransferases, uréia e também são influenciadas pelo estado nutricional, ratificando os processos farmacocinéticos desses fármacos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Modelos com interações quárticas fermiônicas tem sido estudadas para clarificar aspectos conceituais e possíveis aplicações em teoria quântica de campos. Neste trabalho apresentamos a estrutura do grupo de renormalização no modelo de Nambu-Jona-Lasinio até a ordem de 1-loop. O modelo é não renormalizável perturbativamente, no sentido usual de contagem de potência, mas é tratado como uma teoria efetiva, válida numa escala de energia onde p << ^, sendo p o momento externo do loop e ^ um parâmetro de escala de massa que caracteriza o acoplamento do vértice não renormalizável. Esclarecemos a estrutura tensorial dos vértices de interação e calculamos as funções do grupo de renormalização. A análise dos pontos fixos da teoria também é apresentada e discutida usando o formalismo de redução das constantes de acoplamento proposto por Zimmermann. Encontramos a baixas eneergias a origem como ponto fixo infravermelho estável e um ponto fixo não trivial ultravioleta estável, indicando a consistência perturbativa se o momento é pequeno.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O grafeno é a primeira estrutura bidimensional que se obteve experimentalmente. Sua rede cristalina é uma rede hexagonal, conhecida como "Favo de Mel", possui apenas um átomo de espessura. Cortes em folhas de grafeno, privilegiando determinada direção, geram as chamadas nanofitas de grafeno. Embora o grafeno se comporte como um metal, é sabido que as nanofitas podem apresentar comportamentos semicondutor, metálico ou semimetálico, dependendo da direção de corte e/ou largura da fita. No caso de nanofitas semicondutoras, a largura da banda proibida (band gap), entre outros fatores, depende da largura da nanofita. Neste trabalho adotou-se métodos de primeiros princípios como o DFT (Density Functional Theory), afim de se obter as características tais como curvas de dispersão para nanofitas. Neste trabalho, primeiramente, são apresentados diagramas de bandas de energia e curvas de densidade de estados para nanofitas de grafeno semicondutoras, de diferentes larguras, e na ausência de influências externas. Utilizou-se métodos de primeiros princípios para a obtenção destas curvas e o método das funções de Green do Não Equilíbrio para o transporte eletrônico. Posteriormente foi investigado a influência da hidrogenização, temperatura e tensão mecânica sobre sistema, isso além, de se estudar o comportamento de transporte eletrônico com e sem influência destes fatores externos. Vale ressaltar que as nanofitas de grafeno apresentam possibilidades reais de aplicação em nanodispositivos eletrônicos, a exemplo de nanodiodos e nanotransistores. Por esse motivo, é importante se ter o entendimento de como os fatores externos alteram as propriedades de tal material, pois assim, espera-se que as propriedades de dispositivos eletrônicos também sejam influenciadas da mesma maneira que as nanofitas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A inversão de momentos de fonte gravimétrica tridimensional é analisada em duas situações. Na primeira se admite conhecer apenas a anomalia. Na segunda se admite conhecer, além da anomalia, informação a priori sobre o corpo anômalo. Sem usar informação a priori, mostramos que é possível determinar univocamente todo momento, ou combinação linear de momentos, cujo núcleo polinomial seja função apenas das coordenadas Cartesianas que definem o plano de medida e que tenha Laplaciano nulo. Além disso, mostramos que nenhum momento cujo núcleo polinomial tenha Laplaciano não nulo pode ser determinado. Por outro lado, informação a priori é implicitamente introduzida se o método de inversão de momentos se baseia na aproximação da anomalia pela série truncada obtida de sua expansão em multipolos. Dado um centro de expansão qualquer, o truncamento da série impõe uma condição de regularização sobre as superfícies equipotenciais do corpo anômalo, que permite estimar univocamente os momentos e combinações lineares de momentos que são os coeficientes das funções-bases da expansão em multipolos. Assim, uma distribuição de massa equivalente à real é postulada, sendo o critério de equivalência especificado pela condição de ajuste entre os campos observado e calculado com a série truncada em momentos de uma ordem máxima pré-estabelecida. Os momentos da distribuição equivalente de massa foram identificados como a solução estacionária de um sistema de equações diferenciais lineares de 1a. ordem, para a qual se asseguram unicidade e estabilidade assintótica. Para a série retendo momentos até 2a. ordem, é implicitamente admitido que o corpo anômalo seja convexo e tenha volume finito, que ele esteja suficientemente distante do plano de medida e que a sua distribuição espacial de massa apresente três planos ortogonais de simetria. O método de inversão de momentos baseado na série truncada (IMT) é adaptado para o caso magnético. Para este caso, mostramos que, para assegurar unicidade e estabilidade assintótica, é suficiente pressupor, além da condição de regularização, a condição de que a magnetização total tenha direção e sentido constantes, embora desconhecidos. O método IMT baseado na série de 2a. ordem (IMT2) é aplicado a anomalias gravimétricas e magnéticas tridimensionais sintéticas. Mostramos que se a fonte satisfaz as condições exigidas, boas estimativas da sua massa ou vetor momento de dipolo anômalo total, da posição de seu centro de massa ou de momento de dipolo e das direções de seus três eixos principais são obtidas de maneira estável. O método IMT2 pode falhar parcialmente quando a fonte está próxima do plano de medida ou quando a anomalia tem efeitos localizados e fortes de um corpo pequeno e raso e se tenta estimar os parâmetros de um corpo grande e profundo. Definimos por falha parcial a situação em que algumas das estimativas obtidas podem não ser boas aproximações dos valores verdadeiros. Nas duas situações acima descritas, a profundidade do centro da fonte (maior) e as direções de seus eixos principais podem ser erroneamente estimadas, embora que a massa ou vetor momento de dipolo anômalo total e a projeção do centro desta fonte no plano de medida ainda sejam bem estimados. Se a direção de magnetização total não for constante, o método IMT2 pode fornecer estimativas erradas das direções dos eixos principais (mesmo se a fonte estiver distante do plano de medida), embora que os demais parâmetros sejam bem estimados. O método IMT2 pode falhar completamente se a fonte não tiver volume finito. Definimos por falha completa a situação em que qualquer estimativa obtida pode não ser boa aproximação do valor verdadeiro. O método IMT2 é aplicado a dados reais gravimétricos e magnéticos. No caso gravimétrico, utilizamos uma anomalia situada no estado da Bahia, que se supõe ser causada por um batólito de granito. Com base nos resultados, sugerimos que as massas graníticas geradoras desta anomalia tenham sido estiradas na direção NNW e adelgaçadas na direção vertical durante o evento compressivo que causou a orogênese do Sistema de Dobramentos do Espinhaço. Além disso, estimamos que a profundidade do centro de massa da fonte geradora é cerca de 20 km. No caso magnético, utilizamos a anomalia de um monte submarino situado no Golfo da Guiné. Com base nos resultados, estimamos que o paleopolo magnético do monte submarino tem latitude 50°48'S e longitude 74°54'E e sugerimos que não exista contraste de magnetização expressivo abaixo da base do monte submarino.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A determinação de um acurado modelo de velocidades é um requisito fundamental para a realização do imageamento sísmico. Métodos novos como a Estereotomografia préempilhamento e a Tomografia da onda NIP são ferramentas poderosas e bastante sugestivas para este propósito. Basicamente, a Estereotomografia pré-empilhamento se baseia no conceito de eventos localmente coerentes interpretados como reflexões primárias e associados com pares de segmentos de raios, que tem um mesmo ponto de reflexão em profundidade. Na Tomografia da onda NIP um evento sísmico é representado por uma onda hipotética NIP, que está relacionada a um ponto de reflexão em profundidade. Os atributos da onda NIP são determinados no decorrer do Empilhamento de Superfície de Reflexão Comum (empilhamento CRS). Este trabalho tem como objetivo, fazer um estudo comparativo de ambos os métodos de determinação do modelo de velocidades em profundidade. Assim, é realizada uma revisão dos fundamentos teóricos de ambos os métodos tomográficos, destacando as principais diferenças e aplicando estas aproximações em um dado sintético e um dado real marinho (linha sísmica 214-2660 da Bacia do Jequitinhonha). Para avaliar os modelos de velocidades encontrados pelas aproximações, foi utilizada a migração pré-empilhamento em profundidade do tipo Kirchhoff e também as famílias de imagem comum (CIG). Os resultados mostraram que ambos os métodos tomográficos fornecem modelos de velocidades representativos. Contudo, constatou-se que a estereotomografia tem melhor desempenho em meios com variações laterais de velocidades, porém, aplicável somente em dados pré-empilhados com alta razão sinal/ruído.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O empilhamento sísmico é um método de imageamento utilizado para simulação de seções sísmicas com afastamento nulo (AN) a partir de dados de cobertura múltipla, produzindo um aumento da razão sinal/ruído na seção simulada. Este método é realizado usando o processamento convencional denominado ponto médio comum (PMC), através das chamadas correções sobretempo normal e sobretempo oblíquo (STN/STO). Alternativamente, um novo método de empilhamento sísmico, denominado superfície de reflexão comum (SRC) pode ser usado para simular seções sísmicas em afastamento nulo (AN). O método SRC tem como principais características: 1) a construção de uma aproximação do tempo de trânsito de reflexões primárias na vizinhança de um raio de reflexão normal; 2) esta aproximação de empilhamento tem como parâmetros os ângulos de emergência do raio normal e os raios de curvaturas de duas ondas hipotéticas denominadas onda ponto de incidência normal (onda PIN) e onda normal (onda N). O método pressupõe ainda que a velocidade da onda longitudinal na parte superior do modelo próxima à superfície da Terra seja conhecida. Para determinar adequadamente os parâmetros supracitados, fundamentais para o método de imageamento SRC, são necessárias estratégias de busca que utilizem casos particulares da aproximação de segunda ordem hiperbólica dos tempos de trânsito. As estratégias de busca apresentadas são: SRC pragmático-extendito e SRC global-local. Neste trabalho é apresentada uma revisão extensa dos fundamentos teóricos de método de empilhamento SRC, como também das estratégias de busca dos parâmetros SRC, dos algoritmos de implementação, e da delimitação de aberturas do operador de empilhamento SRC usando conceitos de zonas de Fresnel e o fator de estiramento da correção STN. Como um exemplo de aplicação dos atributos ou parâmetros SRC é apresentado o resultado da correção STN, sem estiramento do sinal sísmico, obtido utilizando as velocidades estimadas dos parâmetros SRC. Também, são apresentados os resultados da aplicação dos três métodos de empilhamento (PMC (STN/STO), SRC pragmático-extendido, SRC global-local) nos dados sintéticos Marmousi e real terrestre da bacia paleozóica Amazônica. Finalmente apresentam-se as discussões sobre os resultados, quanto à resolução da imagem sísmica e custo computacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho oferece um método para a predição da intensidade de campo elétrico para TV Digital utilizando a Função de Green diádica. A Diádica é uma ferramenta matemática eficiente que tem simplicidade simbólica e robustez permitindo, assim, que algumas características do meio (como permissividade, condutividade e permeabilidade, por exemplo) sejam consideradas na elaboração do modelo de campo elétrico, bem como levar em conta a anisotropia do meio. Na maior parte dos trabalhos correlatos, que utilizam as funções de Green diádicas, estão relacionados na faixa de VHF. Este trabalho irá apresentar desde os conceitos básicos das diádicas, desenvolvendo-a para o cálculo de um modelo que permita predizer o campo elétrico para a faixa de UHF, na qual os sistemas de TV Digital se encontram. Uma explanação teórica e um desenvolvimento matemático serão feitos de forma que um entendimento claro e objetivo sejam alcançados no estudo das funções de Green diádicas, numa parte da teoria do eletromagnetismo. Testes foram realizados para confirmar a aplicabilidade da formulação sugerida, fazendo simulações que realizem uma comparação entre os dados medidos, de duas emissoras de TV situadas na cidade de Belém, e o modelo de Okumura-Hata modificado, mostrando resultados satisfatórios, tanto para frequências na faixa de VHF e UHF.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho em pauta tem como objetivo o modelamento da crosta, através da inversão de dados de refração sísmica profunda, segundo camadas planas horizontais lateralmente homogêneas, sobre um semi-espaço. O modelo direto é dado pela expressão analítica da curva tempo-distância como uma função que depende da distância fonte-estação e do vetor de parâmetros velocidades e espessuras de cada camada, calculado segundo as trajetórias do raio sísmico, regidas pela Lei de Snell. O cálculo dos tempos de chegada por este procedimento, exige a utilização de um modelo cujas velocidades sejam crescentes com a profundidade, de modo que a ocorrência das camadas de baixa velocidade (CBV) é contornada pela reparametrização do modelo, levando-se em conta o fato de que o topo da CBV funciona apenas como um refletor do raio sísmico, e não como refrator. A metodologia de inversão utilizada tem em vista não só a determinação das soluções possíveis, mas também a realização de uma análise sobre as causas responsáveis pela ambiguidade do problema. A região de pesquisa das prováveis soluções é vinculada segundo limites superiores e inferiores para cada parâmetro procurado, e pelo estabelecimento de limites superiores para os valores de distâncias críticas, calculadas a partir do vetor de parâmetros. O processo de inversão é feito utilizando-se uma técnica de otimização do ajuste de curvas através da busca direta no espaço dos parâmetros, denominado COMPLEX. Esta técnica apresenta a vantagem de poder ser utilizada com qualquer função objeto, e ser bastante prática na obtenção de múltiplas soluções do problema. Devido a curva tempo-distância corresponder ao caso de uma multi-função, o algoritmo foi adaptado de modo a minimizar simultaneamente várias funções objetos, com vínculos nos parâmetros. A inversão é feita de modo a se obter um conjunto de soluções representativas do universo existente. Por sua vez, a análise da ambiguidade é realizada pela análise fatorial modo-Q, através da qual é possível se caracterizar as propriedades comuns existentes no elenco das soluções analisadas. Os testes com dados sintéticos e reais foram feitos tendo como aproximação inicial ao processo de inversão, os valores de velocidades e espessuras calculados diretamente da interpretação visual do sismograma. Para a realização dos primeiros, utilizou-se sismogramas calculados pelo método da refletividade, segundo diferentes modelos. Por sua vez, os testes com dados reais foram realizados utilizando-se dados extraídos de um dos sismogramas coletados pelo projeto Lithospheric Seismic Profile in Britain (LISPB), na região norte da Grã-Bretanha. Em todos os testes foi verificado que a geometria do modelo possui um maior peso na ambiguidade do problema, enquanto os parâmetros físicos apresentam apenas suaves variações, no conjunto das soluções obtidas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)