937 resultados para Problemas de qualidade de dados


Relevância:

100.00% 100.00%

Publicador:

Resumo:

No início dos anos 90, o Brasil e a Grã-Bretanha, juntos, deram um passo, no sentido de produzir estudos microclimáticos dentro da área que compreende a floresta Amazônica, visando quantificar e verificar o impacto do desmatamento dessa floresta sobre o clima. Para isso escolheu-se três regiões para a instalação de estações meteorológicas automáticas de superfície (Estados do Amazonas, Pará e Rondônia). Cada região recebeu uma estação em uma área florestada e outra em área desmatada. Esse projeto binacional foi chamado de "ESTUDO ANGLO-BRASILEIRO DE OBSERVAÇÃO DO CLIMA DA AMAZONIA, (ABRACOS - Anglo-Braz11ian Amazonian Climate Observation Study)". Esse trabalho apresenta a aplicação de dois métodos de controle de qualidade para os dados coletados pelas estações meteorológicas automáticas de superfície. Um desses métodos leva em consideração o comportamento estatístico das variáveis coletadas, e o outro método o comportamento físico e climatológico das mesmas. Por último se faz o uso desses dados com e sem erros no cálculo da evapotranspiração, no sentido de se ver o impacto de uma informação errônea no cálculo de um parametro. O método estatístico demonstrou ter um bom potencial na detecção de erros pequenos (com tamanhos variando de 5 a 20%).(Continua). Esse método apresentou rendimentos na obtenção de erros que oscilam entre 43% e 80% para a radiação solar global. Quando se testou os valores da temperatura do ar e temperatura do bulbo úmido, obteve-se um dos melhores rendimentos do método estatístico, que chegou a 91%. Os piores desempenhos foram quando se testou a radiação refletida, alcançando-se apenas 11,1%. O método físico mostrou-se eficiente na detecção de erros maiores (30 a 90%). Os melhores desempenhos aconteceram quando se testaram as temperaturas. Em um caso o rendimento chegou a 100%. Em seu pior desempenho o método detectou apenas 20% (Teste" A" ). O método físico somente detectou informações suspeitas, dentro dos erros inseridos nas séries de dados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Acoustic Doppler current profilers are currently the main option for flow measurement and hydrodynamic monitoring of streams, replacing traditional methods. The spread of such equipment is mainly due to their operational advantages ranging from speed measurement to the greatest detail and amount of information generated about the hydrodynamics of hydrometric sections. As in the use of traditional methods and equipments, the use of acoustic Doppler profilers should be guided by the pursuit of data quality, since these are the basis for project and management of water resources constructions and systems. In this sense, the paper presents an analysis of measurement uncertainties of a hydrometric campaign held in Sapucaí River (Piranguinho-MG), using two different Doppler profilers - a Rio Grande ADCP 1200 kHz and a Qmetrix Qliner. 10 measurements were performed with each equipment consecutively, following the literature quality protocols, and later, a Type A uncertainty analysis (statistical analysis of several independent observations of the input under the same conditions). The measurements of the ADCP and Qliner presented, respectively, standard uncertainties of 0.679% and 0.508% compared with the averages. These results are satisfactory and acceptable when compared to references in the literature, indicating that the use of Doppler profilers is valid for expansion and upgrade of streamflow measurement networks and generation of hydrological data.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper presents the SmartClean tool. The purpose of this tool is to detect and correct the data quality problems (DQPs). Compared with existing tools, SmartClean has the following main advantage: the user does not need to specify the execution sequence of the data cleaning operations. For that, an execution sequence was developed. The problems are manipulated (i.e., detected and corrected) following that sequence. The sequence also supports the incremental execution of the operations. In this paper, the underlying architecture of the tool is presented and its components are described in detail. The tool's validity and, consequently, of the architecture is demonstrated through the presentation of a case study. Although SmartClean has cleaning capabilities in all other levels, in this paper are only described those related with the attribute value level.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Aim: To evaluate user satisfaction and quality of prosthetic treatments performed in specialized dental clinics (CEOs) of Natal Metropolitan Region - RN. Methods: Cross-sectional study with subjects who underwent prosthetic CEOs in the cities of Natal, Macaíba, Parnamirim and Sao Goncalo do Amarante in the period 2007 to 2009. Data collection was performed by questionnaire, clinical examination of the oral cavity and examination of fabricated denture. This analysis involved the following aspects: retention, stability, aesthetics and prosthesis fixation. The variables are presented by means of absolute numbers and proportions. The determination of the association between the independent and dependent variables was conducted by the association of Chi-square test and Fisher exact test. Results: A total of 149 users, totaling 233 conventional dentures (148 upper and 85 lower). Most patients (56.4%) were rehabilitated with conventional complete dentures. The technical quality of the denture was regarded as satisfactory in the majority (52.7%), whereas the inferior dentures were rated as unsatisfactory in 90.5% of cases. Satisfaction with the prosthesis was 69.1% (N = 103). The average time to begin treatment was 3 months to receive while the prosthesis was 4 months old. The presence of injury from the upper prosthesis occurred in 21.5% of cases (N = 32), candidiasis being the most frequent (N = 18). The technical quality of the upper prosthesis (p=0,041), as well as retention (p=0,002) and stability (p<0,001) were significantly associated with user satisfaction. Conclusions: The specialized Dental clinics has been fulfilling its role of providing treatment of intermediate complexity for low-income population with the majority of satisfield patients, even when their dentures have problems of technical quality

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Agronomia (Energia na Agricultura) - FCA

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante o processo de extração do conhecimento em bases de dados, alguns problemas podem ser encontrados como por exemplo, a ausência de determinada instância de um atributo. A ocorrência de tal problemática pode causar efeitos danosos nos resultados finais do processo, pois afeta diretamente a qualidade dos dados a ser submetido a um algoritmo de aprendizado de máquina. Na literatura, diversas propostas são apresentadas a fim de contornar tal dano, dentre eles está a de imputação de dados, a qual estima um valor plausível para substituir o ausente. Seguindo essa área de solução para o problema de valores ausentes, diversos trabalhos foram analisados e algumas observações foram realizadas como, a pouca utilização de bases sintéticas que simulem os principais mecanismos de ausência de dados e uma recente tendência a utilização de algoritmos bio-inspirados como tratamento do problema. Com base nesse cenário, esta dissertação apresenta um método de imputação de dados baseado em otimização por enxame de partículas, pouco explorado na área, e o aplica para o tratamento de bases sinteticamente geradas, as quais consideram os principais mecanismos de ausência de dados, MAR, MCAR e NMAR. Os resultados obtidos ao comprar diferentes configurações do método à outros dois conhecidos na área (KNNImpute e SVMImpute) são promissores para sua utilização na área de tratamento de valores ausentes uma vez que alcançou os melhores valores na maioria dos experimentos realizados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

No período de outubro a novembro de 1990, foi realizado na Bacia Sergipe-Alagoas o primeiro levantamento gravimétrico de poço no Brasil, através de um programa com a participação da Universidade Federal do Pará, a PETROBRÁS e o U.S.G.S. (United States Geological Survey). Este levantamento teve como objetivos o teste do equipamento, a resposta dos perfis gravimétricos em relação aos problemas encontrados nas bacias sedimentares brasileiras e a comparação com os dados de densidade obtidos com o perfil de densidade compensada (CDL). Os levantamentos foram realizados em três poços e os dados obtidos passaram por um processo de redução, onde os valores foram transformados para miligals e corrigidos dos efeitos de maré, deriva e terreno, para obter as densidades preliminares. Porém, a região onde foram realizados os levantamentos apresenta além do embasamento muito raso, uma seqüência evaporítica com contraste de densidade grande em relação ao resto do pacote sedimentar, gerando gradientes verticais anômalos. Estes efeitos foram então corrigidos e obtidos os valores finais de densidade. Com base em uma caracterização litológica prévia, os valores de densidade foram então comparados com o perfil CDL. Verificou-se a boa qualidade dos dados, o que permitiu o cálculo de valores de porosidade, mostrando assim possíveis intervalos de interesse à exploração de hidrocarbonetos, tanto no embasamento, reservatório mais importante, quanto no intervalo sedimentar.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This work describes an information quality assessment on the processes of the Chamber of Deputies of Brazil, which allow a new deputy to integrate the House, maintain his records and control Deputies absences, using a qualitative approach. The motivation was to find out if there were some information quality issues and to identify its impacts in order to prioritize which information could be analyzed later in a quantitative way. The author did a literature review about information quality. Also, a questionnaire and an interview were applied with the main actors of those processes. The results have shown the existence of information quality issues and were suggested some actions that should be done by the Chamber of Deputies of Brazil. At last it was suggested a long-life Information Quality Program and some future work in order to continue this research.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O conhecimento do ponto de maturidade fisiológica é de fundamental importância para orientação dos produtores na obtenção de sementes de alta qualidade. Esta é uma informação essencial para nortear o planejamento das operações de colheita, secagem e processamento das sementes. É sabido que a maturidade fisiológica da semente é específica da cultivar e pode ser determinada por diversos parâmetros, tais como: número de dias da emergência até as espigas tornarem-se amarronzadas; soma térmica; matéria seca; teor de água dos grãos; formação da camada negra; desaparecimento da linha de leite nas sementes. Para os milhos normais, esta característica é bem conhecida. Já para o milho doce as informações são escassas e, de uma maneira geral, não têm atendido aos anseios dos produtores. O programa de melhoramento genético do milho da Embrapa Milho e Sorgo mantém ações para a obtenção de cultivares de milho superiores com ampla adaptação e melhoria na qualidade dos grãos. As sementes de milho doce apresentam maiores problemas relacionados à qualidade quando comparadas com as dos milhos normais. Isto é refletido, na média, para o nível de germinação das sementes, que fica em torno de 20% abaixo da germinação das sementes do milho comum. O que se propôs com este trabalho foi estudar a maturação fisiológica de sementes de cultivares de milho doce desenvolvidos pela Embrapa Milho e Sorgo e estabelecer parâmetros que possam auxiliar sua colheita, secagem e processamento, com o objetivo de se obter sementes de alta qualidade.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The better understanding of the interactions between climate change and air quality is an emerging priority for research and policy. Climate change will bring changes in the climate system, which will affect the concentration and dispersion of air pollutants. The main objective of the current study is to assess the impacts of climate change on air quality in 2050 over Portugal and Porto urban area. First, an evaluation and characterization of the air quality over mainland Portugal was performed for the period between 2002 and 2012. The results show that NO2, PM10 and O3 are the critical pollutants in Portugal. Also, the influence of meteorology on O3, NO2 and PM10 levels was investigate in the national main urban areas (Porto and Lisboa) and was verified that O3 has a statistically significant relationship with temperature in most of the components. The results also indicate that emission control strategies are primary regulators for NO2 and PM10 levels. After, understanding the national air quality problems and the influence that meteorology had in the historical air quality levels, the air quality modelling system WRF-CAMx was tested and the required inputs for the simulations were prepared to fulfil the main goal of this work. For the required air quality modelling inputs, an Emission Projections under RCP scenarios (EmiPro-RCP) model was developed to assist the estimation of future emission inventories for GHG and common air pollutants. Also, the current emissions were estimated for Portugal with a higher detailed disaggregation to improve the performance of the air quality simulations. The air quality modelling system WRF/CAMx was tested and evaluated over Portugal and Porto urban area and the results point out that is an adequate tool for the analysis of air quality under climate change. For this purpose, regional simulations of air quality during historical period and future (2045-2050) were conducted with CAMx version 6.0 to evaluate the impacts of simulated future climate and anthropogenic emission projections on air quality over the study area. The climate and the emission projections were produced under the RCP8.5 scenario. The results from the simulations point out, that if the anthropogenic emissions keep the same in 2050, the concentrations of NO2, PM10 and O3 will increase in Portugal. When, besides the climate change effects, is consider the projected anthropogenic emissions the annual mean concentrations of NO2 decrease significantly in Portugal and Porto urban area, and on the contrary the annual mean PM10 concentrations increases in Portugal and decrease in Porto urban area. The O3 results are mainly caused by the reduction of ozone precursors, getting the higher reductions in urban areas and increases in the surrounding areas. All the analysis performed for both simulations for Porto urban area support that, for PM10 and O3, there will be an increase in the occurrence of extreme values, surpassing the annual legislated parameters and having more daily exceedances. This study constitutes an innovative scientific tool to help in future air quality management in order to mitigate future climate change impacts on air quality.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A informática vem adquirindo papéis cada vez mais importantes na vida cotidiana. Um dos papéis mais significativos, hoje, é o suporte a comunicações; atualmente, é muito difícil pensar em comunicações – mesmo interpessoais – sem fazer associação às áreas de informática e redes. Dentre as aplicações que utilizam informática e redes como suporte, a tecnologia de videoconferência tem recebido papel de destaque. Os avanços na tecnologia de redes e conectividade, aliados à padronização e à crescente oferta de produtos de videoconferência, têm aumentado a aplicabilidade e a popularidade destes produtos, sobretudo utilizados sobre arquitetura de redes TCP/IP. Trata-se de uma tecnologia atraente em termos de resultado, por agregar, além do áudio – recurso comum há muito tempo como suporte à comunicação – os recursos dedeo e aplicações integradas (como quadro-branco compartilhado, Chat, troca de arquivos e outros). Contudo, essas aplicações são bastante exigentes, tanto em termos de banda quanto de qualidade de serviço (QoS) da rede. O primeiro item se justifica pelo volume de dados gerados pelas aplicações de videoconferência; o segundo, pela significativa influência que os problemas de qualidade da infraestrutura de rede (como elevada latência, jitter e descartes) podem exercer sobre tais aplicações. A busca para as soluções destes problemas não é tarefa simples, pois muitas vezes envolve investimentos que desencorajam a adoção da tecnologia de videoconferência – principalmente para uso pessoal ou por empresas pequenas. Este trabalho propõe uma solução aos problemas mencionados, visando proporcionar uma melhor aceitação e maior disseminação da tecnologia de videoconferência, valendo-se de recursos com pouca demanda de investimento. A estratégia abordada é a adaptação de tráfego, com um enfoque diferenciado: o de levar em conta, para cada aplicação, o comportamento que o processo de adaptação apresentasse. A partir dessa orientação, é proposto um modelo de adaptação de tráfego orientado ao perfil da aplicação, voltado ao interesse do usuário, e que disponibilize uma forma ao mesmo tempo simples e eficiente para que o usuário realize a adequação do mecanismo de adaptação do sistema às suas necessidades e expectativas. A partir desta proposta, foi implementado um protótipo de aplicação, com o objetivo de verificar a funcionalidade do modelo em termos práticos. As observações dos resultados dos testes, bem como as conclusões geradas, serviram como validação da proposta.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.