977 resultados para Data Allocation
Resumo:
Este documento apresenta uma análise ao desenvolvimento de uma solução que pretende automatizar o processo de alocação de colaboradores a posições na estrutura organizacional de uma empresa. A solução destina-se a um cliente que utiliza o módulo de recursos humanos de um sistema SAP para gerir toda está informação. O cliente da Konkconsulting para o qual foi desenvolvida a solução possui um modelo organizacional de elevada complexidade, com mais de 180000 colaboradores dispersos em milhares de organizações em todo o mundo. A solução tem como objetivo melhorar a forma como a sua estrutura organizacional está a ser gerida, de modo a reduzir a quantidade de informação desnecessária que é constantemente criada pelos utilizadores sem qualquer critério. Para que tal fosse possível foram implementadas um conjunto de funcionalidades em SAP (mais concretamente no módulo de recursos humanos) com o objetivo de automatizar a alocação e a manutenção de todas as posições dentro da empresa. Estas funcionalidades foram diretamente integradas na aplicação do cliente que é responsável pela gestão de processos na área dos recursos humanos, de modo a garantir que todas as restruturações provocadas por novas contratações, realocações de colaboradores ou suspensões são automaticamente geridas por estas funcionalidades. O documento detalha a forma como as funcionalidades foram desenvolvidas e integradas nos diferentes componentes da aplicação de modo a garantir a alocação automática de colaboradores ao contexto organizacional pretendido. Todo este processo é inovador no que diz respeito a SAP e visa essencialmente uma necessidade do cliente que não se encontra satisfeita por nenhuma solução ou aplicação do sistema. A implementação desta solução permitiu automatizar um processo que era executado manualmente pelos administradores do sistema e que provocava inconsistências de dados frequentes.
Resumo:
Dissertation presented to obtain the Ph.D degree in Bioinformatics
Resumo:
Thesis submitted to Faculdade de Ciências e Tecnologia of the Universidade Nova de Lisboa, in partial fulfilment of the requirements for the degree of Master in Computer Science
Resumo:
Harnessing idle PCs CPU cycles, storage space and other resources of networked computers to collaborative are mainly fixated on for all major grid computing research projects. Most of the university computers labs are occupied with the high puissant desktop PC nowadays. It is plausible to notice that most of the time machines are lying idle or wasting their computing power without utilizing in felicitous ways. However, for intricate quandaries and for analyzing astronomically immense amounts of data, sizably voluminous computational resources are required. For such quandaries, one may run the analysis algorithms in very puissant and expensive computers, which reduces the number of users that can afford such data analysis tasks. Instead of utilizing single expensive machines, distributed computing systems, offers the possibility of utilizing a set of much less expensive machines to do the same task. BOINC and Condor projects have been prosperously utilized for solving authentic scientific research works around the world at a low cost. In this work the main goal is to explore both distributed computing to implement, Condor and BOINC, and utilize their potency to harness the ideal PCs resources for the academic researchers to utilize in their research work. In this thesis, Data mining tasks have been performed in implementation of several machine learning algorithms on the distributed computing environment.
Resumo:
A presente dissertação tem como principal propósito avaliar o desempenho energético e a qualidade do ar interior do edifício principal do Parque Biológico de Vila Nova de Gaia (PBG). Para esse efeito, este estudo relaciona os termos definidos na legislação nacional em vigor até à presente data, e referentes a esta área de atuação, em particular, os presentes no SCE, RSECE, RCCTE e RSECE-QAI. Para avaliar o desempenho energético, procedeu-se numa primeira fase ao processo de auditoria no local e posteriormente à realização de uma simulação dinâmica detalhada, cuja modelação do edifício foi feita com recurso ao software DesignBuilder. Após a validação do modelo simulado, por verificação do desvio entre os consumos energéticos registados nas faturas e os calculados na simulação, igual a 5,97%, foi possível efetuar a desagregação dos consumos em percentagem pelos diferentes tipos de utilizações. Foi também possível determinar os IEE real e nominal, correspondendo a 29,9 e 41.3 kgep/m2.ano, respetivamente, constatando-se através dos mesmos que o edifício ficaria dispensado de implementar um plano de racionalização energética (PRE) e que a classe energética a atribuir é a C. Contudo, foram apresentadas algumas medidas de poupança de energia, de modo a melhorar a eficiência energética do edifício e reduzir a fatura associada. Destas destacam-se duas propostas, a primeira propõe a alteração do sistema de iluminação interior e exterior do edifício, conduzindo a uma redução no consumo de eletricidade de 47,5 MWh/ano, com um período de retorno de investimento de 3,5 anos. A segunda está relacionada com a alteração do sistema de produção de água quente para o aquecimento central, através do incremento de uma caldeira a lenha ao sistema atual, que prevê uma redução de 50 MWh no consumo de gás natural e um período de retorno de investimento de cerca de 4 anos. Na análise realizada à qualidade do ar interior (QAI), os parâmetros quantificados foram os exigidos legalmente, excetuando os microbiológicos. Deste modo, para os parâmetros físicos, temperatura e humidade relativa, obtiveram-se os resultados médios de 19,7ºC e 66,9%, respetivamente, ligeiramente abaixo do previsto na legislação (20,0ºC no período em que foi feita a medição, inverno). No que diz respeito aos parâmetros químicos, os valores médios registados para as concentrações de dióxido de carbono (CO2), monóxido de carbono (CO), ozono (O3), formaldeído (HCHO), partículas em suspensão (PM10) e radão, foram iguais a 580 ppm, 0,2 ppm, 0,06 ppm, 0,01 ppm, 0,07 mg/m3 e 196 Bq/m3, respetivamente, verificando-se que estão abaixo dos valores máximos de referência presentes no regulamento (984 ppm, 10,7 ppm, 0,10 ppm, 0,08 ppm, 0,15 mg/m3 e 400 Bq/m3). No entanto, o parâmetro relativo aos compostos orgânicos voláteis (COV) teve um valor médio igual a 0,84 ppm, bastante acima do valor máximo de referência (0,26 ppm). Neste caso, terá que ser realizada uma nova série de medições utilizando meios cromatográficos, para avaliar qual(ais) são o(s) agente(s) poluidor(es), de modo a eliminar ou atenuar as fontes de emissão.
Resumo:
RESUMO - Introdução - Com o presente projecto de investigação pretendeu-se estudar o financiamento por capitação ajustado pelo risco em contexto de integração vertical de cuidados de saúde, recorrendo particularmente a informação sobre o consumo de medicamentos em ambulatório como proxy da carga de doença. No nosso país, factores como a expansão de estruturas de oferta verticalmente integradas, inadequação histórica da sua forma de pagamento e a recente possibilidade de dispor de informação sobre o consumo de medicamentos de ambulatório em bases de dados informatizadas são três fortes motivos para o desenvolvimento de conhecimento associado a esta temática. Metodologia - Este trabalho compreende duas fases principais: i) a adaptação e aplicação de um modelo de consumo de medicamentos que permite estimar a carga de doença em ambulatório (designado de PRx). Nesta fase foi necessário realizar um trabalho de selecção, estruturação e classificação do modelo. A sua aplicação envolveu a utilização de bases de dados informatizadas de consumos com medicamentos nos anos de 2007 e 2008 para a região de Saúde do Alentejo; ii) na segunda fase foram simulados três modelos de financiamento alternativos que foram propostos para financiar as ULS em Portugal. Particularmente foram analisadas as dimensões e variáveis de ajustamento pelo risco (índices de mortalidade, morbilidade e custos per capita), sua ponderação relativa e consequente impacto financeiro. Resultados - Com o desenvolvimento do modelo PRx estima-se que 36% dos residentes na região Alentejo têm pelo menos uma doença crónica, sendo a capacidade de estimação do modelo no que respeita aos consumos de medicamentos na ordem dos 0,45 (R2). Este modelo revelou constituir uma alternativa a fontes de informação tradicionais como são os casos de outros estudos internacionais ou o Inquérito Nacional de Saúde. A consideração dos valores do PRx para efeitos de financiamento per capita introduz alterações face a outros modelos propostos neste âmbito. Após a análise dos montantes de financiamento entre os cenários alternativos, obtendo os modelos 1 e 2 níveis de concordância por percentil mais próximos entre si comparativamente ao modelo 3, seleccionou-se o modelo 1 como o mais adequado para a nossa realidade. Conclusão - A aplicação do modelo PRx numa região de saúde permitiu concluir em função dos resultados alcançados, que já existe a possibilidade de estruturação e operacionalização de um modelo que permite estimar a carga de doença em ambulatório a partir de informação relativa ao seu perfil de consumo de medicamentos dos utentes. A utilização desta informação para efeitos de financiamento de organizações de saúde verticalmente integradas provoca uma variação no seu actual nível de financiamento. Entendendo este estudo como um ponto de partida onde apenas uma parte da presente temática ficará definida, outras questões estruturantes do actual sistema de financiamento não deverão também ser olvidadas neste contexto. ------- ABSTRACT - Introduction - The main goal of this study was the development of a risk adjustment model for financing integrated delivery systems (IDS) in Portugal. The recent improvement of patient records, mainly at primary care level, the historical inadequacy of payment models and the increasing number of IDS were three important factors that drove us to develop new approaches for risk adjustment in our country. Methods - The work was divided in two steps: the development of a pharmacy-based model in Portugal and the proposal of a risk adjustment model for financing IDS. In the first step an expert panel was specially formed to classify more than 33.000 codes included in Portuguese pharmacy national codes into 33 chronic conditions. The study included population of Alentejo Region in Portugal (N=441.550 patients) during 2007 and 2008. Using pharmacy data extracted from three databases: prescription, private pharmacies and hospital ambulatory pharmacies we estimated a regression model including Potential Years of Life Lost, Complexity, Severity and PRx information as dependent variables to assess total cost as the independent variable. This healthcare financing model was compared with other two models proposed for IDS. Results - The more prevalent chronic conditions are cardiovascular (34%), psychiatric disorders (10%) and diabetes (10%). These results are also consistent with the National Health Survey. Apparently the model presents some limitations in identifying patients with rheumatic conditions, since it underestimates prevalence and future drug expenditure. We obtained a R2 value of 0,45, which constitutes a good value comparing with the state of the art. After testing three scenarios we propose a model for financing IDS in Portugal. Conclusion - Drug information is a good alternative to diagnosis in determining morbidity level in a population basis through ambulatory care data. This model offers potential benefits to estimate chronic conditions and future drug costs in the Portuguese healthcare system. This information could be important to resource allocation decision process, especially concerning risk adjustment and healthcare financing.
Resumo:
Dissertation submitted in partial fulfilment of the requirements for the Degree of Master of Science in Geospatial Technologies
Resumo:
O presente trabalho enquadra-se na temática de segurança contra incêndio em edifícios e consiste num estudo de caso de projeto de deteção e extinção de incêndio num Data Center. Os objetivos deste trabalho resumem-se à realização de um estudo sobre o estado da arte da extinção e deteção automática de incêndio, ao desenvolvimento de uma ferramenta de software de apoio a projetos de extinção por agentes gasosos, como também à realização de um estudo e uma análise da proteção contra incêndios em Data Centers. Por último foi efetuado um estudo de caso. São abordados os conceitos de fogo e de incêndio, em que um estudo teórico à temática foi desenvolvido, descrevendo de que forma pode o fogo ser originado e respetivas consequências. Os regulamentos nacionais relativos à Segurança Contra Incêndios em Edifícios (SCIE) são igualmente abordados, com especial foco nos Sistemas Automáticos de Deteção de Incêndio (SADI) e nos Sistemas Automáticos de Extinção de Incêndio (SAEI), as normas nacionais e internacionais relativas a esta temática também são mencionadas. Pelo facto de serem muito relevantes para o desenvolvimento deste trabalho, os sistemas de deteção de incêndio são exaustivamente abordados, mencionando características de equipamentos de deteção, técnicas mais utilizadas como também quais os aspetos a ter em consideração no dimensionamento de um SADI. Quanto aos meios de extinção de incêndio foram mencionados quais os mais utilizados atualmente, as suas vantagens e a que tipo de fogo se aplicam, com especial destaque para os SAEI com utilização de gases inertes, em que foi descrito como deve ser dimensionado um sistema deste tipo. Foi também efetuada a caracterização dos Data Centers para que seja possível entender quais as suas funcionalidades, a importância da sua existência e os aspetos gerais de uma proteção contra incêndio nestas instalações. Por último, um estudo de caso foi desenvolvido, um SADI foi projetado juntamente com um SAEI que utiliza azoto como gás de extinção. As escolhas e os sistemas escolhidos foram devidamente justificados, tendo em conta os regulamentos e normas em vigor.
Resumo:
São muitas as organizações que por todo o mundo possuem instalações deste tipo, em Portugal temos o exemplo da Portugal Telecom que recentemente inaugurou o seu Data Center na Covilhã. O desenvolvimento de um Data Center exige assim um projeto muito cuidado, o qual entre outros aspetos deverá garantir a segurança da informação e das próprias instalações, nomeadamente no que se refere à segurança contra incêndio.
Resumo:
In-network storage of data in wireless sensor networks contributes to reduce the communications inside the network and to favor data aggregation. In this paper, we consider the use of n out of m codes and data dispersal in combination to in-network storage. In particular, we provide an abstract model of in-network storage to show how n out of m codes can be used, and we discuss how this can be achieved in five cases of study. We also define a model aimed at evaluating the probability of correct data encoding and decoding, we exploit this model and simulations to show how, in the cases of study, the parameters of the n out of m codes and the network should be configured in order to achieve correct data coding and decoding with high probability.
Resumo:
Accepted in 13th IEEE Symposium on Embedded Systems for Real-Time Multimedia (ESTIMedia 2015), Amsterdam, Netherlands.
Resumo:
Nowadays, data centers are large energy consumers and the trend for next years is expected to increase further, considering the growth in the order of cloud services. A large portion of this power consumption is due to the control of physical parameters of the data center (such as temperature and humidity). However, these physical parameters are tightly coupled with computations, and even more so in upcoming data centers, where the location of workloads can vary substantially due, for example, to workloads being moved in the cloud infrastructure hosted in the data center. Therefore, managing the physical and compute infrastructure of a large data center is an embodiment of a Cyber-Physical System (CPS). In this paper, we describe a data collection and distribution architecture that enables gathering physical parameters of a large data center at a very high temporal and spatial resolution of the sensor measurements. We think this is an important characteristic to enable more accurate heat-flow models of the data center and with them, find opportunities to optimize energy consumptions. Having a high-resolution picture of the data center conditions, also enables minimizing local hot-spots, perform more accurate predictive maintenance (failures in all infrastructure equipments can be more promptly detected) and more accurate billing. We detail this architecture and define the structure of the underlying messaging system that is used to collect and distribute the data. Finally, we show the results of a preliminary study of a typical data center radio environment.
Resumo:
This paper studies the statistical distributions of worldwide earthquakes from year 1963 up to year 2012. A Cartesian grid, dividing Earth into geographic regions, is considered. Entropy and the Jensen–Shannon divergence are used to analyze and compare real-world data. Hierarchical clustering and multi-dimensional scaling techniques are adopted for data visualization. Entropy-based indices have the advantage of leading to a single parameter expressing the relationships between the seismic data. Classical and generalized (fractional) entropy and Jensen–Shannon divergence are tested. The generalized measures lead to a clear identification of patterns embedded in the data and contribute to better understand earthquake distributions.
Resumo:
Complex industrial plants exhibit multiple interactions among smaller parts and with human operators. Failure in one part can propagate across subsystem boundaries causing a serious disaster. This paper analyzes the industrial accident data series in the perspective of dynamical systems. First, we process real world data and show that the statistics of the number of fatalities reveal features that are well described by power law (PL) distributions. For early years, the data reveal double PL behavior, while, for more recent time periods, a single PL fits better into the experimental data. Second, we analyze the entropy of the data series statistics over time. Third, we use the Kullback–Leibler divergence to compare the empirical data and multidimensional scaling (MDS) techniques for data analysis and visualization. Entropy-based analysis is adopted to assess complexity, having the advantage of yielding a single parameter to express relationships between the data. The classical and the generalized (fractional) entropy and Kullback–Leibler divergence are used. The generalized measures allow a clear identification of patterns embedded in the data.