35 resultados para Probabilistic metrics


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Contabilidade e Gestão das Instituições Financeiras

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Perante os contínuos desafios com que se defrontam as organizações, consequência dos elevados níveis de competitividade, é-lhes exigido uma nova dinâmica de gestão, onde os recursos humanos se assumem como o seu principal elemento diferenciador. Neste contexto, é fundamental a existência de uma gestão estratégica dos recursos humanos, a institucionalização de um conjunto de práticas que permitam transformar os recursos humanos num activo estratégico, que conduza à execução da estratégia organizacional. Essas práticas passam pela atracção e retenção de talentos, oportunidades de desenvolvimento, propiciar boas condições de trabalho quer a nível quantitativo quer a nível qualitativo. E como cada pessoa é um ser único, dotado de características próprias, impossíveis de imitar, deve ser reconhecida a capacidade de serem uma fonte de vantagem competitiva. Não é suficiente o estabelecimento de um conjunto de boas práticas para que se possuam recursos humanos estratégicos. É fundamental fazer o acompanhamento dessas práticas através da monitorização. Na gestão o que não pode ser medido não pode ser gerido. É fundamental sensibilizar os gestores, profissionais de recursos humanos, para a criação de sistemas de medida e métricas que possam aferir a contribuição do Capital Humano para a missão e estratégia das organizações. O Balanced Scorecard é uma ferramenta de gestão que possibilita, através da informação dos seus indicadores, a implementação das estratégias nas organizações. A finalidade é garantir que os indicadores definidos estejam coerentes com a estratégia global. Essa metodologia tem assim o mérito de compatibilizar (através de indicadores quantitativos) a gestão de recursos humanos com os objectivos a longo prazo da organização. A existência de indicadores qualitativos permite ainda às organizações mensurar o nível de desempenho e motivação, factores influentes no clima organizacional

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para a obtenção do grau de Mestre em Engenharia Civil na Área de Especialização em Estruturas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Perceber a rede estrutural formada pelos neurónios no cérebro a nível da macro escala é um desafio atual na área das neurociências. Neste estudo analisou-se a conectividade estrutural do cérebro em 22 indivíduos saudáveis e em dois doentes com epilepsia pós-traumática. Avaliaram-se as diferenças entre estes dois grupos. Também se pesquisaram diferenças a nível do género e idade no grupo de indivíduos saudáveis e os que têm valores médios mais elevados nas métricas de caracterização da rede. Para tal, desenvolveu-se um protocolo de análise recorrendo a diversos softwares especializados e usaram-se métricas da Teoria dos Grafos para a caracterização da conectividade estrutural entre 118 regiões encefálicas distintas. Dentro do grupo dos indivíduos saudáveis concluiu-se que os homens, no geral, são os que têm média mais alta para as métricas de caracterização da rede estrutural. Contudo, não se observaram diferenças significativas em relação ao género nas métricas de caracterização global do cérebro. Relativamente à idade, esta correlaciona-se negativamente, no geral, com as métricas de caracterização da rede estrutural. As regiões onde se observaram as diferenças mais importantes entre indivíduos saudáveis e doentes são: o sulco rolândico, o hipocampo, o pré-cuneus, o tálamo e o cerebelo bilateralmente. Estas diferenças são consistentes com as imagens radiológicas dos doentes e com a literatura estudada sobre a epilepsia pós-traumática. Preveem-se desenvolvimentos para o estudo da conectividade estrutural do cérebro humano, uma vez que a sua potencialidade pode ser combinada com outros métodos de modo a caracterizar as alterações dos circuitos cerebrais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectives - This study intended to characterize work environment contamination by particles in 2 waste-sorting plants. Material and Methods - Particles were measured by portable direct-reading equipment. Besides mass concentration in different sizes, data related with the number of particles concentration were also obtained. Results - Both sorting units showed the same distribution concerning the 2 exposure metrics: particulate matter 5 (PM5) and particulate matter 10 (PM10) reached the highest levels and 0.3 μm was the fraction with a higher number of particles. Unit B showed higher (p < 0.05) levels for both exposure metrics. For instance, in unit B the PM10 size is 9-fold higher than in unit A. In unit A, particulate matter values obtained in pre-sorting and in the sequential sorting cabinet were higher without ventilation working. Conclusions - Workers from both waste-sorting plants are exposed to particles. Particle counting provided additional information that is of extreme value for analyzing the health effects of particles since higher values of particles concentration were obtained in the smallest fraction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Tecnologia de Diagnóstico e Intervenção Cardiovascular

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Gestão e Avaliação de Tecnologias da Saúde

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Contabilidade e Gestão das Instituições Financeiras

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Gestão Estratégica das Relações Públicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work is discussed the importance of the renewable production forecast in an island environment. A probabilistic forecast based on kernel density estimators is proposed. The aggregation of these forecasts, allows the determination of thermal generation amount needed to schedule and operating a power grid of an island with high penetration of renewable generation. A case study based on electric system of S. Miguel Island is presented. The results show that the forecast techniques are an imperative tool help the grid management.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The dynamics of catalytic networks have been widely studied over the last decades because of their implications in several fields like prebiotic evolution, virology, neural networks, immunology or ecology. One of the most studied mathematical bodies for catalytic networks was initially formulated in the context of prebiotic evolution, by means of the hypercycle theory. The hypercycle is a set of self-replicating species able to catalyze other replicator species within a cyclic architecture. Hypercyclic organization might arise from a quasispecies as a way to increase the informational containt surpassing the so-called error threshold. The catalytic coupling between replicators makes all the species to behave like a single and coherent evolutionary multimolecular unit. The inherent nonlinearities of catalytic interactions are responsible for the emergence of several types of dynamics, among them, chaos. In this article we begin with a brief review of the hypercycle theory focusing on its evolutionary implications as well as on different dynamics associated to different types of small catalytic networks. Then we study the properties of chaotic hypercycles with error-prone replication with symbolic dynamics theory, characterizing, by means of the theory of topological Markov chains, the topological entropy and the periods of the orbits of unimodal-like iterated maps obtained from the strange attractor. We will focus our study on some key parameters responsible for the structure of the catalytic network: mutation rates, autocatalytic and cross-catalytic interactions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Informática e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Contabilidade e Gestão das Instituições

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho de Projeto realizado para obtenção do grau de Mestre em Engenharia Informática e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent integrated circuit technologies have opened the possibility to design parallel architectures with hundreds of cores on a single chip. The design space of these parallel architectures is huge with many architectural options. Exploring the design space gets even more difficult if, beyond performance and area, we also consider extra metrics like performance and area efficiency, where the designer tries to design the architecture with the best performance per chip area and the best sustainable performance. In this paper we present an algorithm-oriented approach to design a many-core architecture. Instead of doing the design space exploration of the many core architecture based on the experimental execution results of a particular benchmark of algorithms, our approach is to make a formal analysis of the algorithms considering the main architectural aspects and to determine how each particular architectural aspect is related to the performance of the architecture when running an algorithm or set of algorithms. The architectural aspects considered include the number of cores, the local memory available in each core, the communication bandwidth between the many-core architecture and the external memory and the memory hierarchy. To exemplify the approach we did a theoretical analysis of a dense matrix multiplication algorithm and determined an equation that relates the number of execution cycles with the architectural parameters. Based on this equation a many-core architecture has been designed. The results obtained indicate that a 100 mm(2) integrated circuit design of the proposed architecture, using a 65 nm technology, is able to achieve 464 GFLOPs (double precision floating-point) for a memory bandwidth of 16 GB/s. This corresponds to a performance efficiency of 71 %. Considering a 45 nm technology, a 100 mm(2) chip attains 833 GFLOPs which corresponds to 84 % of peak performance These figures are better than those obtained by previous many-core architectures, except for the area efficiency which is limited by the lower memory bandwidth considered. The results achieved are also better than those of previous state-of-the-art many-cores architectures designed specifically to achieve high performance for matrix multiplication.