854 resultados para data warehouse tuning aggregato business intelligence performance
Resumo:
Universidade Estadual de Campinas . Faculdade de Educação Física
Resumo:
Since the 1990s several large companies have been publishing nonfinancial performance reports. Focusing initially on the physical environment, these reports evolved to consider social relations, as well as data on the firm`s economic performance. A few mining companies pioneered this trend, and in the last years some of them incorporated the three dimensions of sustainable development, publishing so-called sustainability reports. This article reviews 31 reports published between 2001 and 2006 by four major mining companies. A set of 62 assessment items organized in six categories (namely context and commitment, management, environmental, social and economic performance, and accessibility and assurance) were selected to guide the review. The items were derived from international literature and recommended best practices, including the Global Reporting Initiative G3 framework. A content analysis was performed using the report as a sampling unit, and using phrases, graphics, or tables containing certain information as data collection units. A basic rating scale (0 or 1) was used for noting the presence or absence of information and a final percentage score was obtained for each report. Results show that there is a clear evolution in report`s comprehensiveness and depth. Categories ""accessibility and assurance"" and ""economic performance"" featured the lowest scores and do not present a clear evolution trend in the period, whereas categories ""context and commitment"" and ""social performance"" presented the best results and regular improvement; the category ""environmental performance,"" despite it not reaching the biggest scores, also featured constant evolution. Description of data measurement techniques, besides more comprehensive third-party verification are the items most in need of improvement.
Resumo:
Eight different models to represent the effect of friction in control valves are presented: four models based on physical principles and four empirical ones. The physical models, both static and dynamic, have the same structure. The models are implemented in Simulink/Matlab (R) and compared, using different friction coefficients and input signals. Three of the models were able to reproduce the stick-slip phenomenon and passed all the tests, which were applied following ISA standards. (C) 2008 Elsevier Ltd. All rights reserved.
Resumo:
Leaf wetness duration (LWD) is a key parameter in agricultural meteorology since it is related to epidemiology of many important crops, controlling pathogen infection and development rates. Because LWD is not widely measured, several methods have been developed to estimate it from weather data. Among the models used to estimate LWD, those that use physical principles of dew formation and dew and/or rain evaporation have shown good portability and sufficiently accurate results, but their complexity is a disadvantage for operational use. Alternatively, empirical models have been used despite their limitations. The simplest empirical models use only relative humidity data. The objective of this study was to evaluate the performance of three RH-based empirical models to estimate LWD in four regions around the world that have different climate conditions. Hourly LWD, air temperature, and relative humidity data were obtained from Ames, IA (USA), Elora, Ontario (Canada), Florence, Toscany (Italy), and Piracicaba, Sao Paulo State (Brazil). These data were used to evaluate the performance of the following empirical LWD estimation models: constant RH threshold (RH >= 90%); dew point depression (DPD); and extended RH threshold (EXT_RH). Different performance of the models was observed in the four locations. In Ames, Elora and Piracicaba, the RH >= 90% and DPD models underestimated LWD, whereas in Florence these methods overestimated LWD, especially for shorter wet periods. When the EXT_RH model was used, LWD was overestimated for all locations, with a significant increase in the errors. In general, the RH >= 90% model performed best, presenting the highest general fraction of correct estimates (F(C)), between 0.87 and 0.92, and the lowest false alarm ratio (F(AR)), between 0.02 and 0.31. The use of specific thresholds for each location improved accuracy of the RH model substantially, even when independent data were used; MAE ranged from 1.23 to 1.89 h, which is very similar to errors obtained with published physical models for LWD estimation. Based on these results, we concluded that, if calibrated locally, LWD can be estimated with acceptable accuracy by RH above a specific threshold, and that the EXT_RH method was unsuitable for estimating LWD at the locations used in this study. (C) 2007 Elsevier B.V. All rights reserved.
Resumo:
Recently, we have built a classification model that is capable of assigning a given sesquiterpene lactone (STL) into exactly one tribe of the plant family Asteraceae from which the STL has been isolated. Although many plant species are able to biosynthesize a set of peculiar compounds, the occurrence of the same secondary metabolites in more than one tribe of Asteraceae is frequent. Building on our previous work, in this paper, we explore the possibility of assigning an STL to more than one tribe (class) simultaneously. When an object may belong to more than one class simultaneously, it is called multilabeled. In this work, we present a general overview of the techniques available to examine multilabeled data. The problem of evaluating the performance of a multilabeled classifier is discussed. Two particular multilabeled classification methods-cross-training with support vector machines (ct-SVM) and multilabeled k-nearest neighbors (M-L-kNN)were applied to the classification of the STLs into seven tribes from the plant family Asteraceae. The results are compared to a single-label classification and are analyzed from a chemotaxonomic point of view. The multilabeled approach allowed us to (1) model the reality as closely as possible, (2) improve our understanding of the relationship between the secondary metabolite profiles of different Asteraceae tribes, and (3) significantly decrease the number of plant sources to be considered for finding a certain STL. The presented classification models are useful for the targeted collection of plants with the objective of finding plant sources of natural compounds that are biologically active or possess other specific properties of interest.
Resumo:
BACKGROUND: The profile of blood donors changed dramatically in Brazil over the past 20 years, from remunerated to nonremunerated and then from replacement to community donors. Donor demographic data from three major blood centers establish current donation profiles in Brazil, serving as baseline for future analyses and tracking longitudinal changes in donor characteristics. STUDY DESIGN AND METHODS: Data were extracted from the blood center, compiled in a data warehouse, and analyzed. Population data were obtained from the Brazilian census. RESULTS: During 2007 to 2008, there were 615,379 blood donations from 410,423 donors. A total of 426,142 (69.2%) were from repeat (Rpt) donors and 189,237 (30.8%) were from first-time (FT) donors. Twenty percent of FT donors returned to donate in the period. FT donors were more likely to be younger, and Rpt donors were more likely to be community donors. All were predominantly male. Replacement donors still represent 50% of FT and 30% of Rpt donors. The mean percentage of the potentially general population who were donors was approximately 1.2% for the three centers (0.7, 1.5, and 3.1%). Adjusting for the catchment`s area, the first two were 2.1 and 1.6%. CONCLUSIONS: Donors in the three Brazilian centers tended to be younger with a higher proportion of males than in the general population. Donation rates were lower than desirable. There were substantial differences in sex, age, and community/replacement status by center. Studies on the safety, donation frequencies, and motivations of donors are in progress to orient efforts to enhance the availability of blood.
Resumo:
Individual differences in the variance of event-related potential (ERP) slow wave (SW) measures were examined. SW was recorded at prefrontal and parietal sites during memory and sensory trials of a delayed-response task in 391 adolescent twin pairs. Familial resemblance was identified and there was a strong suggestion of genetic influence. A common genetic factor influencing memory and sensory SW was identified at the prefrontal site (accounting for an estimated 35%-37% of the reliable variance) and at the parietal site (51%-52% of the reliable variance). Remaining reliable variance was influenced by unique environmental factors. Measurement error accounted for 24% to 30% of the total variance of each variable. The results show genetic independence for recording site, but not trial type, and suggest that the genetic factors identified relate more directly to brain structures, as defined by the cognitive functions they support, than to the cognitive networks that link them.
Resumo:
Especialmente em tempos de crise, como os que se têm vindo a viver atualmente, sobressai ainda mais a necessidade das nossas organizações serem bem geridas, e para que tal aconteça, torna-se importante medir indicadores que ajudem a acompanhar e compreender a evolução, nas diversas áreas. Para além desta conjuntura, nas últimas décadas o setor da Educação em Portugal tem-se deparado com enormes problemas e desa os, como por exemplo o nanciamento ou mais recentemente a (in)disciplina. Com este trabalho pretende-se contribuir com uma solução tecnológica, que visa em último caso a qualidade geral do ensino. Assim, na área da Educação torna-se importante, senão imperioso, dotar os decisores, com Sistemas de Apoio à Decisão que meçam indicadores de desempenho, e aumentem o grau de qualidade da informação disponibilizada a esses decisores, para que a gestão seja o mais pro ssional e rigorosa possível nas diversas vertentes, quer sejam no domínio escolar, nanceiro ou outro. A empresa Codevision tem vindo a implementar em diversas instituições de ensino e formação, o sistema de gestão escolar E-Schooling Server, um sistema de informação que dá suporte aos diversos processos de negócio dessas instituições. Com o objetivo de elevar a fasquia da qualidade na entrega de informação aos decisores da área escolar, decidiu apoiar o desenvolvimento de um sistema que complemente o E-Schooling Server. Nesse âmbito este trabalho aborda o desenvolvimento de um Sistema de Apoio à Decisão Escolar e na primeira fase subdivide-se: no desenvolvimento de um projeto de ETL automatizado, na criação de um DW, e na análise dos dados com ferramentas de BI. Na segunda fase é desenvolvida uma aplicação web, que permite ao utilizador nal a consulta de informação previamente tratada, através de grá cos. Um aspeto importante é o facto de a informação, tratada na primeira fase do trabalho, poder ser acedida e analisada através de qualquer aplicação com acesso a sistemas OLAP, não cando desta forma dependente da aplicação web. Por m, são apresentados e discutidos resultados, através de uma simulação com dados carregados no sistema desenvolvido, e que permite demonstrar a mais-valia que sistemas deste género representam, para os decisores de instituições de ensino e formação.
Resumo:
Fluorescent protein microscopy imaging is nowadays one of the most important tools in biomedical research. However, the resulting images present a low signal to noise ratio and a time intensity decay due to the photobleaching effect. This phenomenon is a consequence of the decreasing on the radiation emission efficiency of the tagging protein. This occurs because the fluorophore permanently loses its ability to fluoresce, due to photochemical reactions induced by the incident light. The Poisson multiplicative noise that corrupts these images, in addition with its quality degradation due to photobleaching, make long time biological observation processes very difficult. In this paper a denoising algorithm for Poisson data, where the photobleaching effect is explicitly taken into account, is described. The algorithm is designed in a Bayesian framework where the data fidelity term models the Poisson noise generation process as well as the exponential intensity decay caused by the photobleaching. The prior term is conceived with Gibbs priors and log-Euclidean potential functions, suitable to cope with the positivity constrained nature of the parameters to be estimated. Monte Carlo tests with synthetic data are presented to characterize the performance of the algorithm. One example with real data is included to illustrate its application.
Resumo:
Dissertação apresentada ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Gestão das Organizações, Ramo de Gestão de Empresas Orientado pela Prof.ª Doutora Maria João Martins Ferreira Major, Prof. Associada, ISCTE Business School - IUL
Resumo:
Projecto para obtenção do grau de Mestre em Engenharia Informática e de computadores
Resumo:
Neste trabalho pretende-se introduzir os conceitos associados à lógica difusa no controlo de sistemas, neste caso na área da robótica autónoma, onde é feito um enquadramento da utilização de controladores difusos na mesma. Foi desenvolvido de raiz um AGV (Autonomous Guided Vehicle) de modo a se implementar o controlador difuso, e testar o desempenho do mesmo. Uma vez que se pretende de futuro realizar melhorias e/ou evoluções optou-se por um sistema modular em que cada módulo é responsável por uma determinada tarefa. Neste trabalho existem três módulos que são responsáveis pelo controlo de velocidade, pela aquisição dos dados dos sensores e, por último, pelo controlador difuso do sistema. Após a implementação do controlador difuso, procedeu-se a testes para validar o sistema onde foram recolhidos e registados os dados provenientes dos sensores durante o funcionamento normal do robô. Este dados permitiram uma melhor análise do desempenho do robô. Verifica-se que a lógica difusa permite obter uma maior suavidade na transição de decisões, e que com o aumento do número de regras é possível tornar o sistema ainda mais suave. Deste modo, verifica-se que a lógica difusa é uma ferramenta útil e funcional para o controlo de aplicações. Como desvantagem surge a quantidade de dados associados à implementação, tais como, os universos de discurso, as funções de pertença e as regras. Ao se aumentar o número de regras de controlo do sistema existe também um aumento das funções de pertença consideradas para cada variável linguística; este facto leva a um aumento da memória necessária e da complexidade na implementação pela quantidade de dados que têm de ser tratados. A maior dificuldade no projecto de um controlador difuso encontra-se na definição das variáveis linguísticas através dos seus universos de discurso e das suas funções de pertença, pois a definição destes pode não ser a mais adequada ao contexto de controlo e torna-se necessário efectuar testes e, consequentemente, modificações à definição das funções de pertença para melhorar o desempenho do sistema. Todos os aspectos referidos são endereçados no desenvolvimento do AGV e os respectivos resultados são apresentados e analisados.
Resumo:
Tecnologias da Web Semântica como RDF, OWL e SPARQL sofreram nos últimos anos um forte crescimento e aceitação. Projectos como a DBPedia e Open Street Map começam a evidenciar o verdadeiro potencial da Linked Open Data. No entanto os motores de pesquisa semânticos ainda estão atrasados neste crescendo de tecnologias semânticas. As soluções disponíveis baseiam-se mais em recursos de processamento de linguagem natural. Ferramentas poderosas da Web Semântica como ontologias, motores de inferência e linguagens de pesquisa semântica não são ainda comuns. Adicionalmente a esta realidade, existem certas dificuldades na implementação de um Motor de Pesquisa Semântico. Conforme demonstrado nesta dissertação, é necessária uma arquitectura federada de forma a aproveitar todo o potencial da Linked Open Data. No entanto um sistema federado nesse ambiente apresenta problemas de performance que devem ser resolvidos através de cooperação entre fontes de dados. O standard actual de linguagem de pesquisa na Web Semântica, o SPARQL, não oferece um mecanismo para cooperação entre fontes de dados. Esta dissertação propõe uma arquitectura federada que contém mecanismos que permitem cooperação entre fontes de dados. Aborda o problema da performance propondo um índice gerido de forma centralizada assim como mapeamentos entre os modelos de dados de cada fonte de dados. A arquitectura proposta é modular, permitindo um crescimento de repositórios e funcionalidades simples e de forma descentralizada, à semelhança da Linked Open Data e da própria World Wide Web. Esta arquitectura trabalha com pesquisas por termos em linguagem natural e também com inquéritos formais em linguagem SPARQL. No entanto os repositórios considerados contêm apenas dados em formato RDF. Esta dissertação baseia-se em múltiplas ontologias partilhadas e interligadas.
Resumo:
OBJETIVO: Analisar desfechos clínicos de pacientes incidentes em hemodiálise vinculados a operadora de plano de saúde.MÉTODOS: Estudo de coorte de incidentes em hemodiálise em Belo Horizonte, MG, de 2004 a 2008, a partir de registros no banco de dados de operadora de planos de saúde. Variáveis independentes: sexo, idade, tempo entre primeira consulta com nefrologista e início da hemodiálise, tipo do primeiro acesso vascular, diabetes mellitus, tempo de permanência hospitalar/ano de tratamento e óbito. Variáveis dependentes: tempo entre início da hemodiálise e óbito e tempo de permanência hospitalar/ano de tratamento > 7,5 dias. Análise estatística: teste Qui-quadrado de Pearson na análise univariada para os desfechos óbito e tempo de permanência hospitalar/ano de tratamento; método de Kaplan-Meier para análise de sobrevida; modelo de Cox e regressão Poisson para risco de óbito e chance de tempo de permanência hospitalar/ano de tratamento > 7,5 dias. Foi utilizada ferramenta de Business Intelligence para extração dos dados e software Stata(r) 10.0.RESULTADOS: Estudados 311 indivíduos em hemodiálise, 55,5% homens, média de 62 anos (dp: 16,6 anos). A prevalência aumentou 160% no período estudado. Na análise de sobrevivência a mortalidade foi maior entre os mais idosos, nos que não realizaram consulta com nefrologista, fizeram uso de cateter vascular temporário como primeiro acesso, com diabetes mellitus, nos que foram internados no mesmo mês do início da hemodiálise. No modelo de Cox associaram-se a maior risco para óbito a idade avançada, diabetes mellitus, não realizar consulta prévia com nefrologista e internar-se no primeiro mês de hemodiálise. Maior tempo de permanência hospitalar/ano de tratamento não se associou ao sexo e diabetes. As variáveis não foram significativas na regressão Poisson.CONCLUSÕES: A avaliação pelo especialista antes do início da hemodiálise diminui o risco de óbito na doença renal crônica terminal, enquanto o diabetes e internação no mesmo mês de início da hemodiálise são marcadores de risco para o óbito.
Resumo:
Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Estatística e Gestão de Informação.