41 resultados para Confiabilidade (Probabilidades)


Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: analisar a habilidade de ortodontistas e leigos para perceber as assimetrias faciais causadas por desvios mandibulares. MÉTODOS: foram obtidas fotografias frontais da face de dois indivíduos, sendo um do sexo masculino e outro do sexo feminino. As fotografias foram tiradas em Posição Natural de Cabeça (PNC) com desvios mandibulares progressivos — em 2, 4 e 6mm —, partindo-se da posição de Máxima Intercuspidação Habitual (MIH). Para testar a reprodutibilidade do método, utilizaram-se os Coeficientes de Correlação Intraclasse (ICC) e o teste de Kappa ponderado.As diferenças entre os examinadores leigos e ortodontistas foram investigadas através do teste de Mann-Whitney, enquanto a análise de Friedman foi utilizada para investigar as diferenças nos escores para os progressivos avanços mandibulares. Todas as estatísticas foram executadas com nível de confiabilidade de 95%. RESULTADOS: os ortodontistas foram hábeis em perceber os desvios somente a partir de 4mm, quando comparados à posição de MIH (p≤0,05), enquanto os leigos tiveram o mesmo padrão para o indivíduo do sexo feminino. Porém, ao examinar o sujeito do sexo masculino, os leigos não observaram nenhuma alteração executada a partir de MIH (p>0,05). De modo geral, apesar de as medianas atribuídas pelos ortodontistas terem sido menores que as dos leigos, essa diferença foi significativa apenas para o desvio de 6mm, em ambos os pacientes. CONCLUSÕES: ortodontistas e leigos avaliaram a assimetria mandibular de modo diferente, visto que ortodontistas tendem a ser mais críticos quando as assimetrias são mais severas. Conclui-se, ainda, que existe variação na avaliação das assimetrias faciais dependendo do paciente examinado, principalmente entre os examinadores leigos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudo da dimensão informacional do setor de saneamento básico, com o objetivo de analisar a qualidade da informação disponível em fontes de informação utilizadas no planejamento do setor. Para isso, foram analisadas as bases governamentais de informação, o Sistema Nacional de Informações sobre Saneamento 2009 (SNIS), a Pesquisa Nacional de Saneamento Básico 2008 (PNSB), a Pesquisa Nacional por Amostra de Domicílios 2009 (PNAD) e o Censo Demográfico 2010, no âmbito nacional, e o Serviço de Informação do Estado do Pará 2009 (SIE). A análise foi realizada por meio do Diagrama de Pareto, do Diagrama de causa e efeito de Ishikawa e dos atributos de informação de atualidade, abrangência, confiabilidade, precisão e pertinência, sendo, ainda, investigada a opinião de especialistas do setor. Nos 15 problemas evidenciados na redução da qualidade da informação em saneamento básico, cinco deles são considerados vitais e influenciam os demais problemas, sendo eles: a) falta de interação com outras áreas; b) periodicidade inadequada de disseminação das informações; c) falta de detalhamento da informação; d) forma de coleta inadequada; e) organização da informação inadequada. A partir da constatação das fragilidades na dimensão informacional em saneamento básico, foi analisada a informação utilizada em dois instrumentos de planejamento do setor, o Plano Nacional de Saneamento Básico (PLANSAB) e o Plano Plurianual 2008/2011, do estado do Pará (PPA 2008/2011). A conclusão desta tese é que, no momento, as informações disponibilizadas para o planejamento do setor são desatualizadas, incompletas, imprecisas, não pertinentes e não confiáveis. Com isso, foram recomendadas ações de inteligência estratégica para melhorar a qualidade da informação do setor, definindo-se o quê e onde coletar, como sistematizar, analisar, disseminar, avaliar e monitorar as informações, visando contribuir para o planejamento, definição de investimentos, prestação dos serviços, regulação, fiscalização e controle social, de acordo com as diretrizes da Política Nacional de Saneamento Básico, Lei 11.445/2007, que tem como um dos princípios fundamentais a universalização do acesso da população aos serviços de saneamento básico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os flebotomíneos compreendem um grupo de insetos de grande interesse médicoveterininário, sobretudo com sua associação vetorial com as leishmanioses. A identificação correta destas espécies no campo é prática imprescindível na pesquisa entomológica e controle de vetores de Leishmania, sobretudo no estado do Pará, onde a fauna de flebotomíneos é bastante diversificada em relação ao montante brasileiro. No entanto, esta prática tem sido realizada por técnicos treinados com base na “chave” atualizada em 2003, apoiada por desenhos manuais de vários pesquisadores, que muitas vezes são de difícil entendimento. Assim, este estudo objevitou apresentar a relevância do uso da fotomicrografia digital como instrumento de apoio para a identificação e registro de flebotomíneos do subgênero Psychodopygus. Utilizou-se como abordagem metodológica a captura de imagens de lâminas da coleção do Insetário de Flebotomíneos do Laboratório de Leishmanioses do Instituto Evandro Chagas, das diversas áreas de estudos epidemiológicos de leishmanioses do estado do Pará, no período de 1970 até a atualidade, por meio dos sistemas de: Axiostar, Canon via Phototube e câmera convencional sobreposta à ocular do microscópio. A partir das imagens capturadas, construiu-se uma base de dados organizada de acordo com a hierarquia taxonômica de Phlebotominae que posteriormente foram comparadas com as ilustrações tradicionais de chaves de identificação. Do total de 2105 lâminas, foram obtidas 222 imagens de flebotomíneos. Um banco de dados contendo 344 imagens referentes às 17 espécies de Psychodopygus foi preparado no decorrer do estudo. Conclui-se que as imagens das estruturas desenhadas por diferentes pesquisadores ao longo dos anos apresentavam diferenças, traduzindo a subjetividade da interpretação para a mesma espécie dentro do subgênero Psychodopygus; assim a fotomicrografia digital demonstra ser um recurso de grande utilidade e importância, devido apresentar vantagens, como: melhor qualidade de imagens, durabilidade, fidedignidade com o real observado e praticidade tecnológica, proporcionando maior segurança e ou confiabilidade ao profissional durante a investigação epidemiológica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do estudo foi conhecer a prevalência sorológica de Toxoplasma gondii em búfalos (Bubalus bubalis) do Estado do Pará, Brasil. Foram selecionados randomicamente 319 bubalinos distribuídos em sete municípios da Ilha do Marajó. Para efeito comparativo também foram avaliados 128 bubalinos pertencentes a cinco municípios do Estado do Pará. A prevalência sorológica de Toxoplasma gondii foi avaliada pelo Ensaio de Imunoadsorção Enzimático Indireto (iELISA). As amostras diagnósticadas como positivas no iELISA foram submetidas a Reação de Imunofluorescência Indireta (RIFI). Foram avaliados os fatores de risco: localidade, raça, gestação, co-infecção por Brucella abortus e co-infecção por Mycobacterium bovis. As frequências de animais positivos no iELISA para T. gondii foram comparadas pelo teste de Qui-quadrado (χ2) com 95% de confiabilidade. As variáveis com p<0,2 foram submetidos à análise de regressão logística, sendo o modelo construído baseado no teste da "odds ratios". A prevalência de T. gondii observada no iELISA foi de 41,6% (186/447). Na RIFI, 86,5% (161/186) das amostram positivas no iELISA tiveram sua positividade para T. gondii confirmada. A prevalência média nos municípios da Ilha do Marajo e do Continente foi de 32% (103/319) e 55% (70/128), respectivamente. Os municípios que apresentaram as maiores prevalências foram Soure (53%) e Salvaterra (49%) na Ilha do Marajó e Castanhal (55%) e Tailândia (50%) no Continente. Os fatores de risco raça e co-infecção por Brucella abortus ou Mycobacterium bovis não influenciaram na prevalência de T. gondii. Além disso, animais gestantes foram 57% mais positivos para T. gondii do que animais não gestantes. A circulação de anticorpos é um indicativo da presença do agente da toxoplasmose em búfalos no Estado do Pará. Esses achados representam um risco não apenas para os animais de produção, mas à saúde pública, como uma fonte de infecção.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesquisa apresentada nesta dissertação descreve a elaboração de um protocolo de roteamento para aplicações de Redes de Sensores Sem Fio (RSSF) em cidade inteligentes com forte restrição de energia e alta densidade de nodos. Através do estudo dos principais objetivos da comunicação de dados e do levantamento do estado-da-arte sobre os protocolos de roteamento e tecnologias para RSSF, a proposta contempla requisitos como: vazão de dados, confiabilidade de entrega e eficiência energética. A pesquisa apresenta em detalhes o protocolo AODV (Ad hoc On Demand Distance Vector), bem como sua relevância no contexto de RSSF devido a sua popularidade entre as plataformas de dispositivos comercializados. Além disso, são apresentados protocolos derivados do AODV, e a ausência de uma proposta robusta capaz de contemplar os requisitos levantados. O protocolo REL (Routing by Energy and Link Quality) é o resultado da pesquisa levantada e a proposta de solução para roteamento plano sob demanda baseado em eficiência energética e qualidade de enlace para prover um roteamento escalável, capaz de realizar balanceamento de carga e prolongar o tempo de vida da rede. O protocolo REL foi avaliado através de simulação e tesbed, a fim de garantir validação da proposta em ambiente real de escala reduzida e simulado de alta densidade. Os resultados mostraram que o protocolo REL apresenta considerável melhoria de entrega de dados através da escolha de enlaces confiáveis de transmissão e menos suscetíveis a erro, além de moderado consumo de energia capaz de prolongar o tempo de vida da rede, evitando a saturação prematura de nodos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O planejamento implantodôntico exige precisão e confiabilidade. A prototipagem rápida oferece a possibilidade de transferir o planejamento para o campo operatório, sendo este um importante aliado no tratamento cirúrgico. O presente estudo tem por objetivo avaliar a precisão de guias cirúrgicos obtidos através de tomografia computadorizada, planejamento em software para implantodontia (Implantviwer – Anne Solutions ltda.) e prototipagem rápida, avaliando a angulação e a posição horizontal dos implantes e ainda comparar guias com apoio ósseo e guias com apoio gengival. Foram selecionadas cinco mandíbulas humanas secas, que foram fixadas a um crânio e realizadas as tomografias computadorizadas, o planejamento dos implantes e os guias confeccionados apartir de prototipagem. Após a instalação de vinte implantes foram realizadas novas tomografias e comparação das medidas referentes a angulação e posicionamento horizontal dos implantes através da sobreposição das imagens pré e pós operatórias. Tais resultados foram submetidos a análise estatística pelo teste T para amostras dependentes e análise de variância de Friedman com índice de significância de 95%. Observou-se uma discrepância média de angulação de 2,60º (DP = 3,20º) e de 0.40 mm (DP = 0,51 mm) para o posicionamento horizontal nos guias com apoio sobre gengiva artificial e 5,30º (DP = 3,88º) e 0,70 mm (DP = 0,82 mm) para os guias com apoio ósseo . Os guias com apoio ósseo e gengival apresentaram diferença estatística entre si apenas quanto a angulação. Os guias cirúrgicos para implantes osteointegrados construídos apartir de prototipagem rápida oferecem precisão na transferência do planejamento para o campo operatório e sua utilização poderá aumentar a previsibilidade dos resultados, assim como facilitar a cirurgia e minimizar a intervenção cirúrgica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A identificação e descrição dos caracteres litológicos de uma formação são indispensáveis à avaliação de formações complexas. Com este objetivo, tem sido sistematicamente usada a combinação de ferramentas nucleares em poços não-revestidos. Os perfis resultantes podem ser considerados como a interação entre duas fases distintas: • Fase de transporte da radiação desde a fonte até um ou mais detectores, através da formação. • Fase de detecção, que consiste na coleção da radiação, sua transformação em pulsos de corrente e, finalmente, na distribuição espectral destes pulsos. Visto que a presença do detector não afeta fortemente o resultado do transporte da radiação, cada fase pode ser simulada independentemente uma da outra, o que permite introduzir um novo tipo de modelamento que desacopla as duas fases. Neste trabalho, a resposta final é simulada combinando soluções numéricas do transporte com uma biblioteca de funções resposta do detector, para diferentes energias incidentes e para cada arranjo específico de fontes e detectores. O transporte da radiação é calculado através do algoritmo de elementos finitos (FEM), na forma de fluxo escalar 2½-D, proveniente da solução numérica da aproximação de difusão para multigrupos da equação de transporte de Boltzmann, no espaço de fase, dita aproximação P1, onde a variável direção é expandida em termos dos polinômios ortogonais de Legendre. Isto determina a redução da dimensionalidade do problema, tornando-o mais compatível com o algoritmo FEM, onde o fluxo dependa exclusivamente da variável espacial e das propriedades físicas da formação. A função resposta do detector NaI(Tl) é obtida independentemente pelo método Monte Carlo (MC) em que a reconstrução da vida de uma partícula dentro do cristal cintilador é feita simulando, interação por interação, a posição, direção e energia das diferentes partículas, com a ajuda de números aleatórios aos quais estão associados leis de probabilidades adequadas. Os possíveis tipos de interação (Rayleigh, Efeito fotoelétrico, Compton e Produção de pares) são determinados similarmente. Completa-se a simulação quando as funções resposta do detector são convolvidas com o fluxo escalar, produzindo como resposta final, o espectro de altura de pulso do sistema modelado. Neste espectro serão selecionados conjuntos de canais denominados janelas de detecção. As taxas de contagens em cada janela apresentam dependências diferenciadas sobre a densidade eletrônica e a fitologia. Isto permite utilizar a combinação dessas janelas na determinação da densidade e do fator de absorção fotoelétrico das formações. De acordo com a metodologia desenvolvida, os perfis, tanto em modelos de camadas espessas quanto finas, puderam ser simulados. O desempenho do método foi testado em formações complexas, principalmente naquelas em que a presença de minerais de argila, feldspato e mica, produziram efeitos consideráveis capazes de perturbar a resposta final das ferramentas. Os resultados mostraram que as formações com densidade entre 1.8 e 4.0 g/cm3 e fatores de absorção fotoelétrico no intervalo de 1.5 a 5 barns/e-, tiveram seus caracteres físicos e litológicos perfeitamente identificados. As concentrações de Potássio, Urânio e Tório, puderam ser obtidas com a introdução de um novo sistema de calibração, capaz de corrigir os efeitos devidos à influência de altas variâncias e de correlações negativas, observadas principalmente no cálculo das concentrações em massa de Urânio e Potássio. Na simulação da resposta da sonda CNL, utilizando o algoritmo de regressão polinomial de Tittle, foi verificado que, devido à resolução vertical limitada por ela apresentada, as camadas com espessuras inferiores ao espaçamento fonte - detector mais distante tiveram os valores de porosidade aparente medidos erroneamente. Isto deve-se ao fato do algoritmo de Tittle aplicar-se exclusivamente a camadas espessas. Em virtude desse erro, foi desenvolvido um método que leva em conta um fator de contribuição determinado pela área relativa de cada camada dentro da zona de máxima informação. Assim, a porosidade de cada ponto em subsuperfície pôde ser determinada convolvendo estes fatores com os índices de porosidade locais, porém supondo cada camada suficientemente espessa a fim de adequar-se ao algoritmo de Tittle. Por fim, as limitações adicionais impostas pela presença de minerais perturbadores, foram resolvidas supondo a formação como que composta por um mineral base totalmente saturada com água, sendo os componentes restantes considerados perturbações sobre este caso base. Estes resultados permitem calcular perfis sintéticos de poço, que poderão ser utilizados em esquemas de inversão com o objetivo de obter uma avaliação quantitativa mais detalhada de formações complexas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Inserido no convênio de cooperação firmado entre a Fundação Nacional de Saúde e a Universidade Federal do Pará, através do Departamento de Geofísica e do Curso de Pós-Graduação em Geofísica, este trabalho tem como objetivo o mapeamento geológico com a aplicação dos métodos eletromagnéticos VLF e HLEM, visando o estudo hidrogeológico do Município de São Domingos do Araguaia no Sudeste do Estado do Pará. Também, estudamos o desempenho quantitativo do método VLF, no que diz respeito a prospecção de água subterrânea. Primeiramente, analisamos a resposta VLF, através dos parâmetros da elipse de polarização (inclinação e elipsidade), de diferentes situações geológicas possíveis de serem encontradas no local de estudo e voltadas a hidrogeologia. Também, avaliamos a influência que os parâmetro físicos do modelo exercem na anomalia, utilizando para estas finalidades modelagem numérica por elemento finito. A análise quantitativa foi realizada através de ajuste, por tentativa e erro, com curvas teóricas obtidas da simulação de modelos idealizados na interpretação qualitativa, a qual fizemos com o auxilio da técnica de filtragem de Fraser e com perfís do método HLEM. Os resultados mostraram a existência de feições estruturais de "trends" N-S e NE-SW, que correlacionadas à geologia regional são falhas normais e de transferências, respectivamente. Com base nesses resultados, foram selecionados alguns locais com maiores probabilidades de sucesso na captação de água subterrânea através de poços.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dois métodos de filtragem são combinados neste trabalho com a finalidade de ressaltar determinadas feições, em um mapa aeromagnético, tais como lineamentos e anomalias de grande porte, provindos do embasamento. A filtragem visual consiste na observação estereoscópica de pares de mapas, especialmente elaborados para este fim. A filtragem numérica consiste na eliminação dos componentes espectrais indesejáveis (ruído) e no realce dos componentes espectrais de interesse (sinal). Ambos os métodos foram aplicados a mapas aeromagnéticos da Bacia do Médio Amazonas. As operações de filtragem numérica foram todas efetuadas no domínio dos espaços, através de convolução dos dados com filtros de dimensões 13x13. A análise preliminar do espectro é enfatizada como guia na elaboração de filtros. Os resultados da aplicação de cada filtro são discutidos em detalhe. Além das filtragens visual e numérica, vários modelos de falhas e de anomalias do intraembasamento e do supraembasemento são apresentados. A análise de modelos constitui um método de interpretação independente e complementar dos métodos de filtragens. Uma interpretação estrutural do embasamento da Bacia do Médio Amazonas é incluída. As direções principais dos lineamentos aeromagnéticos são E-W, NW60°, N-S, NF45° e NE6O°. Dois grabens sao bem evidenciados um com direção N-S, o mais recente próximo à borda do Alto do Purus. O outro, mais antigo, situa-se a leste do primeiro e tem direção NE45°. Duas anomalias de grande e médio porte (15-60km) possuem magnetização remanente com altos valores de inclinação negativa, o que corrobora a posição muito mais ao sul da Bacia Amazônica, no Paleozóico. Na integração dos dados aeromagnéticos com outros dados geofísicos, como sísmica e gravimetria, e resultados de fotointerpretação geológica, a consistência das informações independentes, em relação à interpretação aeromagnética, concorre para aumentar a viabilidade e a confiabilidade das técnicas aplica das neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The proliferation of multimedia content and the demand for new audio or video services have fostered the development of a new era based on multimedia information, which allowed the evolution of Wireless Multimedia Sensor Networks (WMSNs) and also Flying Ad-Hoc Networks (FANETs). In this way, live multimedia services require realtime video transmissions with a low frame loss rate, tolerable end-to-end delay, and jitter to support video dissemination with Quality of Experience (QoE) support. Hence, a key principle in a QoE-aware approach is the transmission of high priority frames (protect them) with a minimum packet loss ratio, as well as network overhead. Moreover, multimedia content must be transmitted from a given source to the destination via intermediate nodes with high reliability in a large scale scenario. The routing service must cope with dynamic topologies caused by node failure or mobility, as well as wireless channel changes, in order to continue to operate despite dynamic topologies during multimedia transmission. Finally, understanding user satisfaction on watching a video sequence is becoming a key requirement for delivery of multimedia content with QoE support. With this goal in mind, solutions involving multimedia transmissions must take into account the video characteristics to improve video quality delivery. The main research contributions of this thesis are driven by the research question how to provide multimedia distribution with high energy-efficiency, reliability, robustness, scalability, and QoE support over wireless ad hoc networks. The thesis addresses several problem domains with contributions on different layers of the communication stack. At the application layer, we introduce a QoE-aware packet redundancy mechanism to reduce the impact of the unreliable and lossy nature of wireless environment to disseminate live multimedia content. At the network layer, we introduce two routing protocols, namely video-aware Multi-hop and multi-path hierarchical routing protocol for Efficient VIdeo transmission for static WMSN scenarios (MEVI), and cross-layer link quality and geographical-aware beaconless OR protocol for multimedia FANET scenarios (XLinGO). Both protocols enable multimedia dissemination with energy-efficiency, reliability and QoE support. This is achieved by combining multiple cross-layer metrics for routing decision in order to establish reliable routes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os principais objetivos deste trabalho são propor um algoritmo eficiente e o mais automático possível para estimar o que está coberto por regiões de nuvens e sombras em imagens de satélite; e um índice de confiabilidade, que seja aplicado previamente à imagem, visando medir a viabilidade da estimação das regiões cobertas pelos componentes atmosféricos usando tal algoritmo. A motivação vem dos problemas causados por esses elementos, entre eles: dificultam a identificação de objetos de imagem, prejudicam o monitoramento urbano e ambiental, e desfavorecem etapas cruciais do processamento digital de imagens para extrair informações ao usuário, como segmentação e classificação. Através de uma abordagem híbrida, é proposto um método para decompor regiões usando um filtro passa-baixas não-linear de mediana, a fim de mapear as regiões de estrutura (homogêneas), como vegetação, e de textura (heterogêneas), como áreas urbanas, na imagem. Nessas áreas, foram aplicados os métodos de restauração Inpainting por suavização baseado em Transformada Cosseno Discreta (DCT), e Síntese de Textura baseada em modelos, respectivamente. É importante salientar que as técnicas foram modificadas para serem capazes de trabalhar com imagens de características peculiares que são obtidas por meio de sensores de satélite, como por exemplo, as grandes dimensões e a alta variação espectral. Já o índice de confiabilidade, tem como objetivo analisar a imagem que contém as interferências atmosféricas e daí estimar o quão confiável será a redefinição com base no percentual de cobertura de nuvens sobre as regiões de textura e estrutura. Tal índice é composto pela combinação do resultado de algoritmos supervisionados e não-supervisionados envolvendo 3 métricas: Exatidão Global Média (EGM), Medida De Similaridade Estrutural (SSIM) e Confiança Média Dos Pixels (CM). Finalmente, verificou-se a eficácia destas metodologias através de uma avaliação quantitativa (proporcionada pelo índice) e qualitativa (pelas imagens resultantes do processamento), mostrando ser possível a aplicação das técnicas para solucionar os problemas que motivaram a realização deste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A automação na gestão e análise de dados tem sido um fator crucial para as empresas que necessitam de soluções eficientes em um mundo corporativo cada vez mais competitivo. A explosão do volume de informações, que vem se mantendo crescente nos últimos anos, tem exigido cada vez mais empenho em buscar estratégias para gerenciar e, principalmente, extrair informações estratégicas valiosas a partir do uso de algoritmos de Mineração de Dados, que comumente necessitam realizar buscas exaustivas na base de dados a fim de obter estatísticas que solucionem ou otimizem os parâmetros do modelo de extração do conhecimento utilizado; processo que requer computação intensiva para a execução de cálculos e acesso frequente à base de dados. Dada a eficiência no tratamento de incerteza, Redes Bayesianas têm sido amplamente utilizadas neste processo, entretanto, à medida que o volume de dados (registros e/ou atributos) aumenta, torna-se ainda mais custoso e demorado extrair informações relevantes em uma base de conhecimento. O foco deste trabalho é propor uma nova abordagem para otimização do aprendizado da estrutura da Rede Bayesiana no contexto de BigData, por meio do uso do processo de MapReduce, com vista na melhora do tempo de processamento. Para tanto, foi gerada uma nova metodologia que inclui a criação de uma Base de Dados Intermediária contendo todas as probabilidades necessárias para a realização dos cálculos da estrutura da rede. Por meio das análises apresentadas neste estudo, mostra-se que a combinação da metodologia proposta com o processo de MapReduce é uma boa alternativa para resolver o problema de escalabilidade nas etapas de busca em frequência do algoritmo K2 e, consequentemente, reduzir o tempo de resposta na geração da rede.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho consiste no desenvolvimento de uma interface gráfica para pré e pós-processamentos de dados elétricos e eletromagnéticos em geofísica utilizando-a na transformação da EGSLIB – Electrical Geophysics Software Library, a qual é constituída por um acervo de programas FORTRAN para DOS, em um software integrado e que possua uma eficiente interface gráfica com o usuário. O resultado deste esforço foi a surgimento de um produto que foi denominado EGS 2000 – Electrical Geophysics Suite - 2000 version. Construído em ambiente DELPHI da Borland, através de um processo de desenvolvimento que, além de orientado a objetos, foi centrado em uma arquitetura que permitiu um alto grau de aproveitamento de programas FORTRAN já desenvolvidos e testados. Tal produto, constitui-se em uma poderosa ferramenta de auxílio à modelagem e interpretação de dados geofísicos totalmente executável no sistema operacional MS-Windows. Com isso, alcançou-se uma forma economicamente viável para dar uma destinação prática aos resultados teóricos obtidos nas universidades e institutos de pesquisa. Os exemplos apresentados, mostram-nos que, auxiliadas por computador, modelagens e interpretações de dados geofísicos alcançam um nível de produtividade e versatilidade jamais obtidos pelas ferramentas de outrora, uma vez que diversos modelos podem ser armazenados e recuperados e seus resultados comparados com dados observados sistematicamente colecionados, conferindo ao processo um alto grau de confiabilidade e rapidez.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho aqui apresentado visa o estudo da migração 3D no tempo, em amplitudes verdadeiras, de dados da seção afastamento nulo ("zero-offset"), usando a aproximação de segunda ordem do tempo de trânsito de difração. O processo de migração no tempo usa a função difração determinada, corretamente, através de mesmos parâmetros que controlam a função tempo de trânsito de reflexão, além do auxílio dos raios paraxiais. Os parâmetros que controlam a função tempo de trânsito de reflexão são determinados através de pelo menos nove medidas de tempo de trânsito, obtidas a partir de dados pré-empilhados (tiro comum, ponto médio comum - CMP, etc.). Determinada a função difração, pode-se fazer a migração sem a necessidade de que se conheça o modelo de velocidades, pois a função tempo de trânsito de difração, como definido neste trabalho, não necessita do mesmo. O espalhamento geométrico é removido através do processo de migração e aplicação de uma função peso aos dados da seção afastamento nulo. Juntamente com a função peso, aplicou-se um filtro objetivando a recuperação da fase do sinal, ocorrida como consequência do processo de migração. Devido a limitação computacional, fez-se testes com dados sintéticos, em 2D, objetivando verificar a eficiência do programa. Os resultados obtidos foram satisfatórios, mostrando a eficiência e confiabilidade do processo.