856 resultados para Aprovisionamento industrial - Processamento de dados
Resumo:
Sistema por gotejamento. Qualidade e tratamento da água. Necessidade de águas das plantas. Manejo da água de irrigação. Fertilizante para fertirrigação. Manejo da fertirrigação. Estado nutricional das plantas. Síntese das recomendações.
Resumo:
Sete ocorrências auriferas estão inseridas na Seqüência Campestre do Complexo Bossoroca, no Escudo Sul-rio-grandense, municípios de São Sepé, no Estado do Rio Grande do Sul. Nessa região, foi realizado um aerolevantamento geofisico no qual foram coletados dados magnetométricos e aerogamaespectrométricos (K, U, Th e contagem total), em convênio finnado entre órgãos federais brasileiros (CPRM, DNPM e CNEN) e a empresa canadense Texas Instruments no período 1972-1973. Nessa dissertação são apresentados as interpretações e resultados dos dados e a metodologia utilizada para a interpretação das principais estruturas magnéticas e radiométricas visando aplicação na exploração mineral de ouro. Esse tipo de processamento, correlacionado aos dados geológicos, é uma prática usual de campanhas de prospecção mineral desde 1940 e é considerada como uma ferramenta de grande potencial para esse propósito. O processamento de dados magnetométricos forneceu mapas de primeira e segunda derivadas verticais, sinal analítico, gradiente horizontal, integral vertical, continuação para cima (1000, 2000 e 3000 metros) e seus principais lineamentos do campo magnético residual. Os dados foram tratados e posterionnente transfonnados em mapas de contorno e imagens pseudocoloridos e em tons de cinza com relevo sombreado (iluminação N, NE e SE) para realçar os principais lineamentos. Os mapas produzidos a partir dos dados aerogamaespectrométricos foram os de contagem total, K, U e Th, suas razões Th/K, U/K e UITh; mapas temários nos padrões RGB e CMY, potássio e urânio anômalos e parfunetro F, também foram transfonnados em mapas de contorno, pseudocolridos e tons de cinza com relevo sombreado (iluminação a N, NE e SE) e um mapa geológico interpretativo da região do Complexo Bossoroca As imagens magnetométricas mostraram-se importantes na caracterização estrutural regional, possibilitando a identificação de lineamentos NE-SW e NW-SE, não mapeados anterionnente e que podem estar relacionadas diretamente às ocorrências auriferas da região do Complexo Bossoroca. A aplicação das técnicas de processamento e interpretação de estruturas magnéticas por meio dos filtros como gradiente horizontal, primeira e segunda derivada, sinal analítico, continuação para cima, possibilitaram a determinação de descontinnidades fisicas que podem ser traduzidas em estruturas geológicas. O processamento de dados aerogamaespectrométricos possibilitou a caracterização de unidades geológicas regionais, a identificação de possíveis trends e zonas anômalas em potássio, relacionadas com as principais ocorrências auriferas da região. As imagens ternárias nos padrões RGB e CMY pennitiram a distinção e a caracterização das grandes unidades geológicas. Pode-se individualizar três regiões principais dentro da Seqüência Campestre, não mapeadas anterionnente, onde se encontram as ocorrências auriferas.
Resumo:
In February 2011, the National Agency of Petroleum, Natural Gas and Biofuels (ANP) has published a new Technical Rules for Handling Land Pipeline Petroleum and Natural Gas Derivatives (RTDT). Among other things, the RTDT made compulsory the use of monitoring systems and leak detection in all onshore pipelines in the country. This document provides a study on the method for detection of transient pressure. The study was conducted on a industrial duct 16" diameter and 9.8 km long. The pipeline is fully pressurized and carries a multiphase mixture of crude oil, water and natural gas. For the study, was built an infrastructure for data acquisition and validation of detection algorithms. The system was designed with SCADA architecture. Piezoresistive sensors were installed at the ends of the duct and Digital Signal Processors (DSPs) were used for sampling, storage and processing of data. The study was based on simulations of leaks through valves and search for patterns that characterize the occurrence of such phenomena
Resumo:
O presente trabalho teve como objetivos a análise e atenuação de múltiplas de superfície livre, o processamento e o imageamento de dados sísmicos marinhos visando obter imagens migradas de utilidade à interpretação geológica voltada à exploração de petróleo. Foi dada uma atenção sistemática ao estudo de múltiplas de superfície livre do ponto de vista do filtro de predição baseado na teoria da comunicação com o objetivo de melhor aplicar o filtro WH de deconvolução preditiva, na etapa de processamento, posterior à correção NMO, embora outros métodos possam ser considerados mais competitivos. A identificação e a atenuação de reflexões múltiplas em dados sísmicos reais continua como um grande desafio no processamento de dados sísmicos, uma vez que elas são consideradas como ruído. No entanto, sendo este ruído classificado como coerente, várias técnicas foram desenvolvidas objetivando sua atenuação para evitar erros em cascata nas etapas posteriores como processamento, marcação de eventos, inversão tomográfica, imageamento, e finalmente na interpretação geológica das imagens obtidas. Outro aspecto do trabalho foi estabelecer um fluxograma de processamento-imageamento sendo a atenuação de múltiplas de superfície livre uma etapa central. Foram obtidas seções migradas em tempo e em profundidade onde se permite a interpretação que se deseja. O desenvolvimento deste trabalho foi realizado com os pacotes CWP/SU e MatLab.
Resumo:
Os métodos de ondas superficiais com ênfase nas ondas Rayleigh foram utilizados como o núcleo desse trabalho de Doutorado. Inicialmente, as ondas Rayleigh foram modeladas permitindo o estudo de sensibilidade de suas curvas de dispersão sob diferentes configurações de parâmetros físicos representando diversos modelos de camadas, em que pôde ser observado parâmetros com maior e menor sensibilidade e também alguns efeitos provocados por baixas razões de Poisson. Além disso, na fase de inversão dos dados a modelagem das ondas Rayleigh foi utilizada para a construção da função objeto, que agregada ao método de mínimos quadrados, a partir do método de Levenberg-Marquardt, permitiu a implementação de um algoritmo de busca local responsável pela inversão de dados das ondas superficiais. Por se tratar de um procedimento de busca local, o algoritmo de inversão foi complementado por uma etapa de pré-inversão com a geração de um modelo inicial para que o procedimento de inversão fosse mais rápido e eficiente. Visando uma eficiência ainda maior do procedimento de inversão, principalmente em modelos de camadas com inversão de velocidades, foi implementado um algoritmo de pós-inversão baseado em um procedimento de tentativa e erro minimizando os valores relativos da raiz quadrada do erro quadrático médio (REQMr) da inversão dos dados. Mais de 50 modelos de camadas foram utilizados para testar a modelagem, a pré-inversão, inversão e pós-inversão dos dados permitindo o ajuste preciso de parâmetros matemáticos e físicos presentes nos diversos scripts implementados em Matlab. Antes de inverter os dados adquiridos em campo, os mesmos precisaram ser tratados na etapa de processamento de dados, cujo objetivo principal é a extração da curva de dispersão originada devido às ondas superficiais. Para isso, foram implementadas, também em Matlab, três metodologias de processamento com abordagens matemáticas distintas. Essas metodologias foram testadas e avaliadas com dados sintéticos e reais em que foi possível constatar as virtudes e deficiências de cada metodologia estudada, bem como as limitações provocadas pela discretização dos dados de campo. Por último, as etapas de processamento, pré-inversão, inversão e pós-inversão dos dados foram unificadas para formar um programa de tratamento de dados de ondas superficiais (Rayleigh). Ele foi utilizado em dados reais originados pelo estudo de um problema geológico na Bacia de Taubaté em que foi possível mapear os contatos geológicos ao longo dos pontos de aquisição sísmica e compará-los a um modelo inicial existente baseado em observações geomorfológicas da área de estudos, mapa geológico da região e informações geológicas globais e locais dos movimentos tectônicos na região. As informações geofísicas associadas às geológicas permitiram a geração de um perfil analítico da região de estudos com duas interpretações geológicas confirmando a suspeita de neotectônica na região em que os contatos geológicos entre os depósitos Terciários e Quaternários foram identificados e se encaixaram no modelo inicial de hemi-graben com mergulho para Sudeste.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2015.
Resumo:
Os painéis de gráficos estatísticos conhecidos como dashboards são utilizados comumente naárea de Business Intelligence (BI) para a visualização de grandes sistemas organizados de dados. A presente dissertação propõe embasar o projeto de dashboards pelas teorias de Jacques Bertin, formuladas nas obras Sémiologie Graphique e La Graphique et le Traitement Graphique de linformation. Considerando este referencial, e ainda parâmetros do design de informação e da visualização de dados, foram desenvolvidos dashboards que apresentam dados sobre a política de reserva de vagas da Universidade do Estado do Rio de Janeiro, sistematizados pelo projeto de BI dessa instituição. O objetivo foi não apenas o de atender aos requisitos convencionais de um dashboard, mas sobretudo o de apresentar outras perspectivas informativas. Nesse sentido, investigam-se as especificidades dos métodos de Bertin e sua expansão para o domínio dos sistemas interativos.
Resumo:
No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.
Resumo:
Neste trabalho apresentamos um novo método de compressão, com perda controlada de dados, que tem a vantagem de ter uma taxa significativa de compressão sem introduzir nenhuma perda superior a um parâmetro escolhido pelo usuário. Esta abordagem é uma abordagem mista, pois usa técnicas de compactação de dados tanto com perda quanto sem perda. Isto quer dizer que conseguimos um método que alia as vantagens da alta compressão, sem introduzir distorções indesejáveis nos dados. Mostramos como a massa de dados utilizada nos nossos estudos é obtida e a sua importância na prospecção de depósitos de hidrocarbonetos. É apresentado um levantamento bibliográfico com técnicas de compressão aplicadas a dados sísmicos tipicamente utilizadas em aplicações comerciais. Por fim, apresentamos os resultados da compressão utilizando o método em conjuntos de dados sísmicos reais. Para 1% de erro, os arquivos de dados sísmicos compactados passaram a ter algo próximo a 25% de seus tamanhos originais, o que representa um fator de compressão de aproximadamente 4
Resumo:
No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.
Resumo:
Guias para exploração mineral são normalmente baseados em modelos conceituais de depósitos. Esses guias são, normalmente, baseados na experiência dos geólogos, em dados descritivos e em dados genéticos. Modelamentos numéricos, probabilísticos e não probabilísticos, para estimar a ocorrência de depósitos minerais é um novo procedimento que vem a cada dia aumentando sua utilização e aceitação pela comunidade geológica. Essa tese utiliza recentes metodologias para a geração de mapas de favorablidade mineral. A denominada Ilha Cristalina de Rivera, uma janela erosional da Bacia do Paraná, situada na porção norte do Uruguai, foi escolhida como estudo de caso para a aplicação das metodologias. A construção dos mapas de favorabilidade mineral foi feita com base nos seguintes tipos de dados, informações e resultados de prospecção: 1) imagens orbitais; 2) prospecção geoquimica; 3) prospecção aerogeofísica; 4) mapeamento geo-estrutural e 5) altimetria. Essas informacões foram selecionadas e processadas com base em um modelo de depósito mineral (modelo conceitual), desenvolvido com base na Mina de Ouro San Gregorio. O modelo conceitual (modelo San Gregorio), incluiu características descritivas e genéticas da Mina San Gregorio, a qual abrange os elementos característicos significativos das demais ocorrências minerais conhecidas na Ilha Cristalina de Rivera. A geração dos mapas de favorabilidade mineral envolveu a construção de um banco de dados, o processamento dos dados, e a integração dos dados. As etapas de construção e processamento dos dados, compreenderam a coleta, a seleção e o tratamento dos dados de maneira a constituírem os denominados Planos de Informação. Esses Planos de Informação foram gerados e processados organizadamente em agrupamentos, de modo a constituírem os Fatores de Integração para o mapeamento de favorabilidade mineral na Ilha Cristalina de Rivera. Os dados foram integrados por meio da utilização de duas diferentes metodologias: 1) Pesos de Evidência (dirigida pelos dados) e 2) Lógica Difusa (dirigida pelo conhecimento). Os mapas de favorabilidade mineral resultantes da implementação das duas metodologias de integração foram primeiramente analisados e interpretados de maneira individual. Após foi feita uma análise comparativa entre os resultados. As duas metodologias xxiv obtiveram sucesso em identificar, como áreas de alta favorabilidade, as áreas mineralizadas conhecidas, além de outras áreas ainda não trabalhadas. Os mapas de favorabilidade mineral resultantes das duas metodologias mostraram-se coincidentes em relação as áreas de mais alta favorabilidade. A metodologia Pesos de Evidência apresentou o mapa de favorabilidade mineral mais conservador em termos de extensão areal, porém mais otimista em termos de valores de favorabilidade em comparação aos mapas de favorabilidade mineral resultantes da implementação da metodologia Lógica Difusa. Novos alvos para exploração mineral foram identificados e deverão ser objeto de investigação em detalhe.
Resumo:
Este trabalho foi realizado na Universidade da Madeira, no âmbito do Mestrado em Engenharia Informática, tendo como título “Implementação de um sistema autónomo para a geração de visualizações 3D de dados ambientais”. A visualização 3D tem vindo a ganhar terreno em áreas como o entretenimento, medicina, arquitetura e desenho de equipamentos, entre outros. Relativamente à visualização de dados ambientais (oceano e atmosfera) em 3D, esta é uma área pouco explorada. Como tal, foi proposto o estudo e criação de um sistema autónomo capaz de gerar imagens 3D de dados ambientais e disponibilizar as mesmas na web. O estudo iniciou-se com testes às ferramentas que permitem a visualização 3D de dados ambientais, de forma a escolher a que mais se adequa ao sistema a implementar. Após diversos testes às várias ferramentas, a que mais se destacou foi o IDV (Integrated Data Visualization), pelas suas funcionalidades e capacidade de ser executado de forma automática. A implementação do sistema foi efetuada ao longo de diversas etapas: pré-processamento dos dados; escolha das visualizações a disponibilizar na web; escrita do script responsável pelo processo; criação das páginas web para visualização das imagens e implementação de todo o sistema em ambiente Linux. Este sistema foi desenvolvido tendo em conta a adição de novas visualizações, assim como a alteração das visualizações existentes. A possibilidade de adicionar/alterar visualizações de forma simples também foi tida em conta, de forma a não ser necessário reestruturar todo o sistema.
Resumo:
Oil spills in marine environments represent immediate environmental impacts of large magnitude. For that reason the Environmental Sensitivity to Oil Maps constitute a major instrument for planning actions of containment and cleanup. For both the Environmental Sensitivity Maps always need to be updated, to have an appropriate scale and to represent accurately the coastal areas. In this context, this thesis presents a methodology for collecting and processing remote sensing data for the purpose of updating the territorial basis of thematic maps of Environmental Sensitivity to Oil. To ensure greater applicability of the methodology, sensors with complementary characteristics, which provide their data at a low financial cost, were selected and tested. To test the methodology, an area located on the northern coast of the Northeast of Brazil was chosen. The results showed that the products of ASTER data and image hybrid sensor PALSAR + CCD and HRC + CCD, have a great potential to be used as a source of cartographic information on projects that seek to update the Environmental Sensitivity Maps of Oil
Resumo:
Last century Six Sigma Strategy has been the focus of study for many scientists, between the discoveries we have the importance of data process for the free of error product manufactory. So, this work focuses on data quality importance in an enterprise. For this, a descriptive-exploratory study of seventeen pharmacies of manipulations from Rio Grande do Norte was undertaken with the objective to be able to create a base structure model to classify enterprises according to their data bases. Therefore, statistical methods such as cluster and discriminant analyses were used applied to a questionnaire built for this specific study. Data collection identified four group showing strong and weak characteristics for each group and that are differentiated from each other
Resumo:
Due to the current need of the industry to integrate data of the beginning of production originating from of several sources and of transforming them in useful information for sockets of decisions, a search exists every time larger for systems of visualization of information that come to collaborate with that functionality. On the other hand, a common practice nowadays, due to the high competitiveness of the market, it is the development of industrial systems that possess characteristics of modularity, distribution, flexibility, scalability, adaptation, interoperability, reusability and access through web. Those characteristics provide an extra agility and a larger easiness in adapting to the frequent changes of demand of the market. Based on the arguments exposed above, this work consists of specifying a component-based architecture, with the respective development of a system based on that architecture, for the visualization of industrial data. The system was conceived to be capable to supply on-line information and, optionally, historical information of variables originating from of the beginning of production. In this work it is shown that the component-based architecture developed possesses the necessary requirements for the obtaining of a system robust, reliable and of easy maintenance, being, like this, in agreement with the industrial needs. The use of that architecture allows although components can be added, removed or updated in time of execution, through a manager of components through web, still activating more the adaptation process and updating of the system