699 resultados para data warehouse tuning aggregato business intelligence performance
Resumo:
Gaussian processes (GPs) are promising Bayesian methods for classification and regression problems. Design of a GP classifier and making predictions using it is, however, computationally demanding, especially when the training set size is large. Sparse GP classifiers are known to overcome this limitation. In this letter, we propose and study a validation-based method for sparse GP classifier design. The proposed method uses a negative log predictive (NLP) loss measure, which is easy to compute for GP models. We use this measure for both basis vector selection and hyperparameter adaptation. The experimental results on several real-world benchmark data sets show better orcomparable generalization performance over existing methods.
Resumo:
A completely automated temperature-programmed reaction (TPR) system for carrying out gas-solid catalytic reactions under atmospheric flow conditions is fabricated to study CO and hydrocarbon oxidation, and NO reduction. The system consists of an all-stainless steel UHV system, quadrupole mass spectrometer SX200 (VG Scientific), a tubular furnace and micro-reactor, a temperature controller, a versatile gas handling system, and a data acquisition and analysis system. The performance of the system has been tested under standard experimental conditions for CO oxidation over well-characterized Ce1-x-y(La/Y)(y)O2-delta catalysts. Testing of 3-way catalysis with CO, NO and C2H2 to convert to CO2, N-2 and H2O is done with this catalyst which shows complete removal of pollutants below 325 degrees C. Fixed oxide-ion defects in Pt substituted Ce1-y(La/Y)(y)O2-y/2 show higher catalytic activity than Pt ion-substituted CeO2
Resumo:
A completely automated temperature-programmed reaction (TPR) system for carrying out gas-solid catalytic reactions under atmospheric flow conditions is fabricated to study CO and hydrocarbon oxidation, and NO reduction. The system consists of an all-stainless steel UHV system, quadrupole mass spectrometer SX200 (VG Scientific), a tubular furnace and micro-reactor, a temperature controller, a versatile gas handling system, and a data acquisition and analysis system. The performance of the system has been tested under standard experimental conditions for CO oxidation over well-characterized Ce1-x-y(La/Y)(y)O2-delta catalysts. Testing of 3-way catalysis with CO, NO and C2H2 to convert to CO2, N-2 and H2O is done with this catalyst which shows complete removal of pollutants below 325 degrees C. Fixed oxide-ion defects in Pt substituted Ce1-y(La/Y)(y)O2-y/2 show higher catalytic activity than Pt ion-substituted CeO2.
Resumo:
Este estudo faz uma análise dos debates presidenciais na televisão como eventos persuasivos de campanha. O objetivo foi contribuir para a compreensão não só do papel dessa fonte de informação política no contexto brasileiro, mas discutir também de maneira sistemática os seus possíveis efeitos. Os debates na TV são uma variável comunicacional de curto prazo dos processos eleitorais. Eles oferecem estímulos comunicacionais que são disseminados no ambiente da campanha, seja por quem o assiste diretamente, seja por quem fica sabendo desses eventos e dos desempenhos dos candidatos através de outros dispositivos, como a imprensa e o Horário da Propaganda Gratuita Eleitoral (HPGE). Como apenas informação não basta para explicar mudanças de opinião, focamos o estudo em dois eixos principais. O primeiro deles na identificação e no mapeamento das estratégias persuasivas adotadas pelos candidatos, porque eles são instados a confrontar seus adversários, num evento ao vivo, e por meio do qual os eleitores podem avaliar não só o seu posicionamento político, como a maneira que se apresentam. Está presente, neste caso, um impacto sobre a atitude dos eleitores com relação aos competidores. Os principais resultados indicam haver um padrão no objetivo das mensagens, prevalecendo, no agregado, o ataque entre os candidatos da oposição, e a aclamação entre os candidatos da situação. O posicionamento do candidato, bem como o conteúdo político das mensagens apresentaram resultados significativos para um possível efeito sobre a atitude dos eleitores. No estudo, propomos ainda a análise dos enquadramentos adotados pelos competidores, cuja função é estabelecer um quadro de referência para a audiência. Esta variável, que procura levar em conta aspectos da comunicação verbal e nãoverbal, também apresentou resultados significativos. No segundo eixo analítico, tratamos dos efeitos agregados desses acontecimentos de campanha. Foram analisados os debates de 2002, quando prevalecia um clima de opinião favorável à oposição, e 2010, quando o clima é favorável à situação. Com relação ao impacto dos debates no ambiente informacional, os dados sugerem que, em 2002, a atuação de Luiz Inácio Lula da Silva (PT), candidato da oposição, levou a uma ampliação da cobertura jornalística positiva sobre o candidato; enquanto houve um declínio dessa cobertura para José Serra (PSDB), candidato da situação. Em 2010, na cobertura da imprensa após os debates, tanto a candidata da situação, Dilma Rousseff (PT), quanto o da oposição, José Serra, apresentaram equilíbrio. O impacto no ambiente informacional da campanha foi acompanhado de um aumento da intenção de voto agregada para os candidatos que lideravam as pesquisas e que representavam a mudança em 2002, no caso Lula, ou a continuidade em 2010, no caso Dilma. Nas duas eleições, portanto, os debates na TV no Brasil indicaram ser eventos persuasivos importantes, apesar de terem um papel menos central como dispositivo de informação eleitoral e de não levarem à troca de posição entre os competidores nas pesquisas opinião. Mas eles contribuem, ao menos indiretamente, para consolidar e ampliar intenções de voto dos primeiros colocados a partir de uma percepção positiva disseminada sobre os seus desempenhos.
Resumo:
No Brasil, o início do processo de convergência às normas internacionais de contabilidade no setor público ocorre desde 2007 na União, nos Estados e nos Municípios, o que acaba gerando muitas mudanças e também muitos desafios na adoção dos novos procedimentos. Um dos novos procedimentos envolve a avaliação e depreciação do Ativo Imobilizado. Nota técnica divulgada recentemente pela STN descreve que os Entes estão encontrando dificuldades em adotar as novas regras. Nesse contexto, este estudo se propõe a responder a seguinte questão de pesquisa: como superar os desafios na implantação dos procedimentos contábeis sobre avaliação e depreciação do Ativo Imobilizado no Governo do Estado do Rio de Janeiro? Tem como objetivo geral identificar os desafios na implantação dos procedimentos contábeis sobre avaliação e depreciação do Ativo Imobilizado no Governo do Estado do Rio de Janeiro e como objetivo específico investigar e analisar a estrutura contábil e patrimonial, assim como propor soluções básicas e essenciais para a aplicação dos procedimentos contábeis. Quanto aos fins, foi realizada pesquisa descritiva e quanto aos meios, foi realizada pesquisa bibliográfica, documental e o estudo de caso, com a realização de entrevistas com os responsáveis de patrimônio e almoxarifado de 23 órgãos da Administração Direta do Estado do Rio de Janeiro. A análise dos dados coletados revela que não há integração entre o setor contábil, o setor de patrimônio e o setor de almoxarifado nestes órgãos. Os setores possuem baixo quantitativo de funcionários e estes são pouco valorizados, não existindo padronização dos procedimentos sobre gestão patrimonial. O desafio de adotar esses procedimentos ultrapassa a competência do setor de contabilidade e exige a integração dos setores de patrimônio, almoxarifado e contábil. Assim, o estudo propõe a aquisição ou desenvolvimento de um sistema integrado de controle de bens, em que a contabilidade, o patrimônio e o almoxarifado acessem os mesmos dados e possuam uma ferramenta de comunicação confiável, que possibilite a elaboração de relatórios que gerem informações úteis ao gestor e aos demais interessados. Propõe também a regulamentação dos novos procedimentos, o fortalecimento da carreira dos funcionários que atuam no patrimônio e no almoxarifado e orienta sobre a adoção de procedimentos iniciais, para o período de transição.
Resumo:
Distributions over exchangeable matrices with infinitely many columns, such as the Indian buffet process, are useful in constructing nonparametric latent variable models. However, the distribution implied by such models over the number of features exhibited by each data point may be poorly- suited for many modeling tasks. In this paper, we propose a class of exchangeable nonparametric priors obtained by restricting the domain of existing models. Such models allow us to specify the distribution over the number of features per data point, and can achieve better performance on data sets where the number of features is not well-modeled by the original distribution.
Resumo:
Statistical analysis of diffusion tensor imaging (DTI) data requires a computational framework that is both numerically tractable (to account for the high dimensional nature of the data) and geometric (to account for the nonlinear nature of diffusion tensors). Building upon earlier studies exploiting a Riemannian framework to address these challenges, the present paper proposes a novel metric and an accompanying computational framework for DTI data processing. The proposed approach grounds the signal processing operations in interpolating curves. Well-chosen interpolating curves are shown to provide a computational framework that is at the same time tractable and information relevant for DTI processing. In addition, and in contrast to earlier methods, it provides an interpolation method which preserves anisotropy, a central information carried by diffusion tensor data. © 2013 Springer Science+Business Media New York.
Resumo:
We present the monolithic integration of a sampled-grating distributed Bragg reflector (SC-DBR) laser with a quantum-well electroabsorption modulator (QW-EAM) by combining ultra-low-pressure (55 mbar) selective-area-growth (SAG) metal-organic chemical vapour deposition (MOCVD) and quantum-well intermixing (QWI) for the first time. The QW-EAM and the gain section can be grown simultaneously by using SAG MOCVD technology. Meanwhile, the QWI technology offers an abrupt band-gap change between two functional sections, which reduces internal absorption loss. The experimental results show that the threshold current I-th = 62 mA, and output power reaches 3.6 mW. The wavelength tuning range covers 30 nm, and all the corresponding side mode suppression ratios are over 30 dB. The extinction ratios at available wavelength channels can reach more than 14 dB with bias of -5 V.
Resumo:
The generation of models and counterexamples is an important form of reasoning. In this paper, we give a formal account of a system, called FALCON, for constructing finite algebras from given equational axioms. The abstract algorithms, as well as some implementation details and sample applications, are presented. The generation of finite models is viewed as a constraint satisfaction problem, with ground instances of the axioms as constraints. One feature of the system is that it employs a very simple technique, called the least number heuristic, to eliminate isomorphic (partial) models, thus reducing the size of the search space. The correctness of the heuristic is proved. Some experimental data are given to show the performance and applications of the system.
Resumo:
ETL过程是一个从分布数据源(包括数据库、应用系统、文件系统等)抽取数据,进行转换、集成和传输,并最终加载到目标系统的过程。传统的ETL过程主要服务于数据仓库(Data Warehouse),属于企业决策支持系统的一部分。随着数据集成技术的发展和轻量级的数据集成中间件的出现,ETL过程广泛应用于企业数据集成与数据交换系统。在ETL过程中,数据质量控制是一个极为重要的基本组件和功能,它对集成中的数据进行检测、转换、清洗,以防止“脏”数据进入目标系统。在ETL过程中如果缺少对数据质量的有效控制,就会导致数据集成项目无法圆满实现目标或彻底失败。 针对ETL过程中存在的数据质量问题,设计并实现面向ETL过程的数据质量控制系统,是本文研究的重点。论文通过对ETL过程中各阶段可能产生的数据质量问题进行了分类,并对质量控制需求建模,提出一个面向ETL过程的数据质量控制框架,该框架通过对源端数据的分析来指导ETL的设计,通过灵活、可配置、可扩展的数据处理机制实现数据的过滤、转换与清洗,并支持对数据质量处理全过程进行监控。在该框架基础上,论文特别在灵活的数据处理机制、数据分析、数据过滤和数据清洗四个方面进行了探讨。在数据处理机制方面,提出了基于插件元模型的数据处理机制,该机制可以满足用户对数据过滤、数据转换与数据清洗等功能的各种定制需求,并具有较强的可扩展性;在数据分析方面,根据字段类型对数据进行分类统计,并针对大数据量统计分析问题,提出了可自动配置的不同数据统计策略;在数据过滤方面,通过将抽取数据的SQL语句重写的方式,过滤不满足完整性约束的元组;在数据清洗方法方面给出了一种利用统计信息动态确定属性相似度权重的方法,对基于字段的相似记录检测算法的领域无关算法进行了改进,提高了数据检测的准确性。在上述工作基础上,在数据集成中间件OnceDI中设计并实现了数据质量控制系统,并在设计中通过设计模式的应用增强系统的可扩展性。
Resumo:
提出了一种基于数据包络分析的软件任务性能基准评价新方法——TaskBeD.介绍了TaskBeD的任务基准评价模型和核心算法(挖掘高性能的软件任务,建立参考任务集和结果的敏感度分析).实验结果显示,TaskBeD能够高效处理多变元和可变规模收益任务数据.
Resumo:
随着国内金融行业的逐步开放,中国银联也面临着跨国银行卡组织的激烈竞争,跨国银行卡组织拥有先进的IT技术和经营管理经验,和中国银联相比,具有很大竞争优势。银联为了积极面对跨国银行卡组织的挑战,成为一个知名品牌,必须加快信息化建设,转变经营观念,从传统的以业务为中心转移到以客户为中心,而商业智能技术——数据仓库和数据挖掘正是银联信息化建设的重要保障。 本文首先分析了银联的实际业务需求,结合银联的具体业务特点,设计与实现了银联的数据仓库系统,着重对数据仓库技术在银联中的应用现状进行了详细表述;该系统采用总线式的设计架构,有很好的一致性和可扩展性;系统采用维度建模方法进行数据仓库的逻辑设计,维度建模方法能很好地提高系统查询性能,在逻辑设计基础上本文也进行了数据仓库的物理设计。同时本文也详细介绍了数据仓库的重点部分——ETL系统的设计和实现,该ETL系统采用模块化的设计方法,采用元数据作为驱动方式,加强了调度管理和监控的功能,使该ETL工具更具智能性和更好的适应性。 本文在完成银联数据仓库系统建设的基础上,详细分析了银联业务系统要实现的OLAP分析目标,介绍了数据挖掘技术在银联客户分类中的应用,首次尝试在银联数据仓库系统中构建客户分类模型。在客户分类模型的构建中,我们首先采用聚类技术进行客户群分类,然后使用改进的SLIQ算法构建分类模型,本文对SLIQ算法中的符号型属性处理方法及其剪枝算法进行改进,并对结果进行对比分析,得到了一个较为合理的客户分类模型,取得了很好的应用效果,从而为银联数据仓库系统开发应用提供了可借鉴的操作思路。