940 resultados para Corrección automática


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Duas das mais importantes atividades da interpretação de perfis para avaliação de reservatórios de hidrocarbonetos são o zoneamento do perfil (log zonation) e o cálculo da porosidade efetiva das rochas atravessadas pelo poço. O zoneamento é a interpretação visual do perfil para identificação das camadas reservatório e, consequentemente, dos seus limites verticais, ou seja, é a separação formal do perfil em rochas reservatório e rochas selante. Todo procedimento de zoneamento é realizado de forma manual, valendo-se do conhecimento geológico-geofísico e da experiência do intérprete, na avaliação visual dos padrões (características da curva do perfil representativa de um evento geológico) correspondentes a cada tipo litológico específico. O cálculo da porosidade efetiva combina tanto uma atividade visual, na identificação dos pontos representativos de uma particular rocha reservatório no perfil, como a escolha adequada da equação petrofísica que relaciona as propriedades físicas mensuradas da rocha com sua porosidade. A partir do conhecimento da porosidade, será estabelecido o volume eventualmente ocupado por hidrocarboneto. Esta atividade, essencial para a qualificação de reservatórios, requer muito do conhecimento e da experiência do intérprete de perfil para a efetiva avaliação da porosidade efetiva, ou seja, a porosidade da rocha reservatório, isenta do efeito da argila sobre a medida das propriedades físicas da mesma. Uma forma eficiente de automatizar estes procedimentos e auxiliar o geofísico de poço nestas atividades, que particularmente demandam grande dispêndio de tempo, é apresentado nesta dissertação, na forma de um novo perfil, derivado dos perfis tradicionais de porosidade, que apresenta diretamente o zoneamento. Pode-se destacar neste novo perfil as profundidades do topo e da base das rochas reservatório e das rochas selante, escalonado na forma de porosidade efetiva, denominado perfil de porosidade efetiva zoneado. A obtenção do perfil de porosidade efetiva zoneado é baseado no projeto e execução de várias arquiteturas de rede neural artificial, do tipo direta, com treinamento não supervisionado e contendo uma camada de neurônios artificiais, do tipo competitivo. Estas arquiteturas são projetadas de modo a simular o comportamento do intérprete de perfil, quando da utilização do gráfico densidade-neutrônico, para as situações de aplicabilidade do modelo arenito-folhelho. A aplicabilidade e limitações desta metodologia são avaliadas diretamente sobre dados reais, oriundos da bacia do Lago Maracaibo (Venezuela).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar do avanço tecnológico ocorrido na prospecção sísmica, com a rotina dos levantamentos 2D e 3D, e o significativo aumento na quantidade de dados, a identificação dos tempos de chegada da onda sísmica direta (primeira quebra), que se propaga diretamente do ponto de tiro até a posição dos arranjos de geofones, permanece ainda dependente da avaliação visual do intérprete sísmico. O objetivo desta dissertação, insere-se no processamento sísmico com o intuito de buscar um método eficiente, tal que possibilite a simulação computacional do comportamento visual do intérprete sísmico, através da automação dos processos de tomada de decisão envolvidos na identificação das primeiras quebras em um traço sísmico. Visando, em última análise, preservar o conhecimento intuitivo do intérprete para os casos complexos, nos quais o seu conhecimento será, efetivamente, melhor aproveitado. Recentes descobertas na tecnologia neurocomputacional produziram técnicas que possibilitam a simulação dos aspectos qualitativos envolvidos nos processos visuais de identificação ou interpretação sísmica, com qualidade e aceitabilidade dos resultados. As redes neurais artificiais são uma implementação da tecnologia neurocomputacional e foram, inicialmente, desenvolvidas por neurobiologistas como modelos computacionais do sistema nervoso humano. Elas diferem das técnicas computacionais convencionais pela sua habilidade em adaptar-se ou aprender através de uma repetitiva exposição a exemplos, pela sua tolerância à falta de alguns dos componentes dos dados e pela sua robustez no tratamento com dados contaminados por ruído. O método aqui apresentado baseia-se na aplicação da técnica das redes neurais artificiais para a identificação das primeiras quebras nos traços sísmicos, a partir do estabelecimento de uma conveniente arquitetura para a rede neural artificial do tipo direta, treinada com o algoritmo da retro-propagação do erro. A rede neural artificial é entendida aqui como uma simulação computacional do processo intuitivo de tomada de decisão realizado pelo intérprete sísmico para a identificação das primeiras quebras nos traços sísmicos. A aplicabilidade, eficiência e limitações desta abordagem serão avaliadas em dados sintéticos obtidos a partir da teoria do raio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ABSTRACT: We present here a methodology for the rapid interpretation of aeromagnetic data in three dimensions. An estimation of the x, y and z coordinates of prismatic elements is obtained through the application of "Euler's Homogeneous equation" to the data. In this application, it is necessary to have only the total magnetic field and its derivatives. These components can be measured or calculated from the total field data. In the use of Euler's Homogeneous equation, the structural index, the coordinates of the corners of the prism and the depth to the top of the prism are unknown vectors. Inversion of the data by classical least-squares methods renders the problem ill-conditioned. However, the inverse problem can be stabilized by the introduction of both a priori information within the parameter vector together with a weighting matrix. The algorithm was tested with synthetic and real data in a low magnetic latitude region and the results were satisfactory. The applicability of the theorem and its ambiguity caused by the lack of information about the direction of total magnetization, inherent in all automatic methods, is also discussed. As an application, an area within the Solimões basin was chosen to test the method. Since 1977, the Solimões basin has become a center of exploration activity, motivated by the first discovery of gas bearing sandstones within the Monte Alegre formation. Since then, seismic investigations and drilling have been carried on in the region. A knowledge of basement structures is of great importance in the location of oil traps and understanding the tectonic history of this region. Through the application of this method a preliminary estimate of the areal distribution and depth of interbasement and sedimentary magnetic sources was obtained.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente artigo pretende contribuir para a discussão sobre o processo de organização escolar a partir dos conceitos de ciclos, progressão continuada e aprovação automática. Para tanto, utilizou-se o resgate histórico, a análise dos documentos oficiais, bem como da literatura pertinente à temática para contextualização da origem dessas propostas e das concepções de avaliação subjacentes a elas. O texto procura esclarecer a questão dos ciclos, da progressão continuada e promoção/aprovação automática, buscando analisar de que modo essas idéias carregam, potencialmente, a possibilidade de os profissionais da educação rediscutirem a organização escolar e, implicitamente, as marcas das políticas educacionais que as propõe.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pós-graduação em Ciências Cartográficas - FCT

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pós-graduação em Engenharia Elétrica - FEIS

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The indexing process aims to represent synthetically the informational content of documents by a set of terms whose meanings indicate the themes or subjects treated by them. With the emergence of the Web, research in automatic indexing received major boost with the necessity of retrieving documents from this huge collection. The traditional indexing languages, used to translate the thematic content of documents in standardized terms, always proved efficient in manual indexing. Ontologies open new perspectives for research in automatic indexing, offering a computer-process able language restricted to a particular domain. The use of ontologies in the automatic indexing process allows using a specific domain language and a logical and conceptual framework to make inferences, and whose relations allow an expansion of the terms extracted directly from the text of the document. This paper presents techniques for the construction and use of ontologies in the automatic indexing process. We conclude that the use of ontologies in the indexing process allows to add not only new feature to the indexing process, but also allows us to think in new and advanced features in an information retrieval system.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Given the exponential growth in the spread of the virus world wide web (Internet) and its increasing complexity, it is necessary to adopt more complex systems for the extraction of malware finger-prints (malware fingerprints - malicious software; is the name given to extracting unique information leading to identification of the virus, equivalent to humans, the fingerprint). The architecture and protocol proposed here aim to achieve more efficient fingerprints, using techniques that make a single fingerprint enough to compromise an entire group of viruses. This efficiency is given by the use of a hybrid approach of extracting fingerprints, taking into account the analysis of the code and the behavior of the sample, so called viruses. The main targets of this proposed system are Polymorphics and Metamorphics Malwares, given the difficulty in creating fingerprints that identify an entire family from these viruses. This difficulty is created by the use of techniques that have as their main objective compromise analysis by experts. The parameters chosen for the behavioral analysis are: File System; Records Windows; RAM Dump and API calls. As for the analysis of the code, the objective is to create, in binary virus, divisions in blocks, where it is possible to extract hashes. This technique considers the instruction there and its neighborhood, characterized as being accurate. In short, with this information is intended to predict and draw a profile of action of the virus and then create a fingerprint based on the degree of kinship between them (threshold), whose goal is to increase the ability to detect viruses that do not make part of the same family

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pós-graduação em Ciência da Informação - FFC

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Machine translation systems have been increasingly used for translation of large volumes of specialized texts. The efficiency of these systems depends directly on the implementation of strategies for controlling lexical use of source texts as a way to guarantee machine performance and, ultimately, human revision and post-edition work. This paper presents a brief history of application of machine translation, introduces the concept of lexicon and ambiguity and focuses on some of the lexical control strategies presently used, discussing their possible implications for the production and reading of specialized texts.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper analyzes how machine translation has changed the way translation is conceived and practiced in the information age. From a brief review of the early designs of machine translation programs, I discuss the changes implemented in the past decades in these systems to combine mechanical processing and the accessory work by the translator.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Identify opportunities for software parallelism is a task that takes a lot of human time, but once some code patterns for parallelism are identified, a software could quickly accomplish this task. Thus, automating this process brings many benefits such as saving time and reducing errors caused by the programmer [1]. This work aims at developing a software environment that identifies opportunities for parallelism in a source code written in C language, and generates a program with the same behavior, but with higher degree of parallelism, compatible with a graphics processor compatible with CUDA architecture.