44 resultados para Probability Metrics
Resumo:
As constantes alterações das realidades sociais e epidemiológicas em associação ao envelhecimento populacional conduziram a insuficiências dos Sistemas Social e de Saúde que requerem uma reestruturação ao nível da adequação dos cuidados de saúde a prestar, pelo que, em resposta a esta necessidade foi criada a Rede Nacional de Cuidados Continuados Integrados. O presente estudo, de natureza qualitativa e carácter exploratório, tem como objectivo compreender a percepção dos Terapeutas Ocupacionais que trabalham em Unidades de Cuidados Continuados Integrados relativamente às categorias que considerem mais relevantes da Classificação Internacional da Funcionalidade, Incapacidade e Saúde, tendo sido aplicada uma entrevista a 8 profissionais a exercer funções em Unidades da Zona Norte, resultante de um processo de amostragem não probabilística e de conveniência. Como método de recolha de dados foi aplicada uma entrevista semi-estruturada, cujo guião foi construído após revisão bibliográfica, tendo por base as categorias definidas pelo modelo da Classificação Internacional da Funcionalidade, Incapacidade e Saúde e, posteriormente, analisado por um painel de peritos, tendo-se procedido à realização de uma entrevista piloto a um elemento, sem que esta contasse para a análise. A partir da análise das entrevistas realizadas procedemos à identificação das unidades de significado, tendo os conceitos sido ligados às categorias da Classificação que o representam de uma forma mais adequada, de acordo com as linking rules, tendo sido identificadas as categorias mais relevantes para os Terapeutas Ocupacionais a exercer funções em Unidades de Cuidados Continuados Integrados. Com a realização deste estudo, que pretende ser um primeiro passo para a criação de um futuro Core Set em Cuidados Continuados, foi-nos possível verificar que o maior número de categorias foram observadas no componente Actividades e Participação, tendo sido contabilizadas 70 (40,7%). Por outro lado, o componente Estruturas do corpo é o que integra menor número, contando com 19 categorias (11,05%). Assim, pensamos que a criação de um Core Set em Cuidados Continuados poderá beneficiar e facilitar a comunicação entre os profissionais destas equipas. No entanto, é importante ressalvar que a terminologia desta Classificação deverá ser utilizada de uma forma concertada com a linguagem específica da Terapia Ocupacional. Palavras-chave: Classificação Internacional da Funcionalidade, Incapacidade e Saúde, Core Set, Terapeutas Ocupacionais, Unidades de Cuidados Continuados Integrados.
Resumo:
O trabalho realizado teve como objetivo principal analisar os ajustes posturais antecipatórios que ocorrem durante o desempenho de uma tarefa motora fundamental (apanhar), em crianças entre os nove e os dez anos de idade, residentes no Porto e que apresentam um desenvolvimento normal com recurso ao sistema de captura e parametrização do movimento em tempo real BioStage ®. Como objetivo secundário pretendeu-se perceber de que forma este sistema pode ser uma ferramenta importante na prática clínica da terapia ocupacional. Para tal, realizou-se um estudo de natureza quantitativa e de carácter descritivo e recorreu-se a uma amostra de 12 crianças, utilizando o método de amostragem não probabilística por conveniência. A recolha de dados efetuou-se no sistema BioStage ® e foi pedido que realizassem quatro itens do subteste 5 do Bruininks-Oseretsky Test of Motor Proficiency (BOTMP) – receção bi e unilateral de uma bola com e sem ressalto no chão. Os resultados obtidos sugerem que as raparigas e as crianças mais novas demonstram ter menos estabilidade do tronco e pélvis ou menor capacidade de prever a trajetória da bola e que a receção unilateral foi mais difícil de efetuar pela maioria das crianças. Para concluir, refere-se que o BioStage ® mostra-se útil e é uma mais-valia, contribuindo de forma positiva para a prática da terapia ocupacional, uma vez que pode ser considerado como um complemento ao processo de avaliação pois faz uma análise detalhada, precisa e objetiva e identifica aspetos de difícil mensuração através da observação.
Resumo:
Dissertação apresentada ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Logística Orientada por: Prof. Dr. Pedro Godinho
Resumo:
Dissertação para a obtenção do Grau de Mestre em Auditoria Orientador: Mestre Carlos Manuel Antunes Mendes
Resumo:
This paper presents a methodology that aims to increase the probability of delivering power to any load point of the electrical distribution system by identifying new investments in distribution components. The methodology is based on statistical failure and repair data of the distribution power system components and it uses fuzzy-probabilistic modelling for system component outage parameters. Fuzzy membership functions of system component outage parameters are obtained by statistical records. A mixed integer non-linear optimization technique is developed to identify adequate investments in distribution networks components that allow increasing the availability level for any customer in the distribution system at minimum cost for the system operator. To illustrate the application of the proposed methodology, the paper includes a case study that considers a real distribution network.
Resumo:
This paper proposes a new methodology to reduce the probability of occurring states that cause load curtailment, while minimizing the involved costs to achieve that reduction. The methodology is supported by a hybrid method based on Fuzzy Set and Monte Carlo Simulation to catch both randomness and fuzziness of component outage parameters of transmission power system. The novelty of this research work consists in proposing two fundamentals approaches: 1) a global steady approach which deals with building the model of a faulted transmission power system aiming at minimizing the unavailability corresponding to each faulted component in transmission power system. This, results in the minimal global cost investment for the faulted components in a system states sample of the transmission network; 2) a dynamic iterative approach that checks individually the investment’s effect on the transmission network. A case study using the Reliability Test System (RTS) 1996 IEEE 24 Buses is presented to illustrate in detail the application of the proposed methodology.
Resumo:
This paper presents a methodology supported on the data base knowledge discovery process (KDD), in order to find out the failure probability of electrical equipments’, which belong to a real electrical high voltage network. Data Mining (DM) techniques are used to discover a set of outcome failure probability and, therefore, to extract knowledge concerning to the unavailability of the electrical equipments such us power transformers and high-voltages power lines. The framework includes several steps, following the analysis of the real data base, the pre-processing data, the application of DM algorithms, and finally, the interpretation of the discovered knowledge. To validate the proposed methodology, a case study which includes real databases is used. This data have a heavy uncertainty due to climate conditions for this reason it was used fuzzy logic to determine the set of the electrical components failure probabilities in order to reestablish the service. The results reflect an interesting potential of this approach and encourage further research on the topic.
Resumo:
This paper studies musical opus from the point of view of three mathematical tools: entropy, pseudo phase plane (PPP), and multidimensional scaling (MDS). The experiments analyze ten sets of different musical styles. First, for each musical composition, the PPP is produced using the time series lags captured by the average mutual information. Second, to unravel hidden relationships between the musical styles the MDS technique is used. The MDS is calculated based on two alternative metrics obtained from the PPP, namely, the average mutual information and the fractal dimension. The results reveal significant differences in the musical styles, demonstrating the feasibility of the proposed strategy and motivating further developments towards a dynamical analysis of musical sounds.
Resumo:
Distributed generation unlike centralized electrical generation aims to generate electrical energy on small scale as near as possible to load centers, interchanging electric power with the network. This work presents a probabilistic methodology conceived to assist the electric system planning engineers in the selection of the distributed generation location, taking into account the hourly load changes or the daily load cycle. The hourly load centers, for each of the different hourly load scenarios, are calculated deterministically. These location points, properly weighted according to their load magnitude, are used to calculate the best fit probability distribution. This distribution is used to determine the maximum likelihood perimeter of the area where each source distributed generation point should preferably be located by the planning engineers. This takes into account, for example, the availability and the cost of the land lots, which are factors of special relevance in urban areas, as well as several obstacles important for the final selection of the candidates of the distributed generation points. The proposed methodology has been applied to a real case, assuming three different bivariate probability distributions: the Gaussian distribution, a bivariate version of Freund’s exponential distribution and the Weibull probability distribution. The methodology algorithm has been programmed in MATLAB. Results are presented and discussed for the application of the methodology to a realistic case and demonstrate the ability of the proposed methodology for efficiently handling the determination of the best location of the distributed generation and their corresponding distribution networks.
Resumo:
We study market reaction to the announcements of the selected country hosting the Summer and Winter Olympic Games, the World Football Cup, the European Football Cup and World and Specialized Exhibitions. We generalize previous results analyzing a large number and different types of mega-events, evaluate the effects for winning and losing countries, investigate the determinants of the observed market reaction and control for the ex ante probability of a country being a successful bidder. Average abnormal returns measured at the announcement date and around the event are not significantly different from zero. Further, we find no evidence supporting that industries, that a priori were more likely to extract direct benefits from the event, observe positive significant effects. Yet, when we control for anticipation, the stock price reactions around the announcements are significant.
Resumo:
Em Portugal, as instituições de ensino superior dispõem de plataformas de e-learning que reflectem uma mais-valia para o processo de ensino-aprendizagem. No entanto, estas plataformas caracterizam-se por serem de âmbito privado expondo, desta forma, a tímida abertura das instituições na partilha do seu conhecimento, como também dos seus recursos. O paradigma Cloud Computing surge como uma solução, por exemplo, para a criação de uma federação de nuvens capaz de contemplar soluções heterogéneas, garantindo a interoperabilidade entre as plataformas das várias instituições de ensino, e promovendo os objectivos propostos pelo Processo de Bolonha, nomeadamente no que se refere à partilha de informação, de plataformas e serviços e promoção de projectos comuns. Neste âmbito, é necessário desenvolver ferramentas que permitam aos decisores ponderar as mais-valias deste novo paradigma. Assim, é conveniente quantificar o retorno esperado para o investimento, em recursos humanos e tecnológicos, exigido pelo modelo Cloud Computing. Este trabalho contribui para o estudo da avaliação do retorno do investimento (ROI) em infra-estruturas e serviços TIC (Tecnologias de Informação e Comunicação), resultante da análise de diferentes cenários relativos à introdução do paradigma Cloud Computing. Para tal, foi proposta uma metodologia de análise baseada num questionário, distribuído por diversas instituições de ensino superior portuguesas, contendo um conjunto de questões que permitiram identificar indicadores, e respectivas métricas, a usar na elaboração de modelos de estimação do ROI.
Resumo:
A Lei de Potência é uma particularidade de um sistema não linear, revelando um sistema complexo próximo da auto-organização. Algumas características de sistemas naturais e artificiais, tais como dimensão populacional das cidades, valor dos rendimentos pessoais, frequência de ocorrência de palavras em textos e magnitude de sismos, seguem distribuições do tipo Lei de Potência. Estas distribuições indicam que pequenas ocorrências são muito comuns e grandes ocorrências são raras, podendo porém verificar-se com razoável probabilidade. A finalidade deste trabalho visa a identificação de fenómenos associados às Leis de Potência. Mostra-se o comportamento típico destes fenómenos, com os dados retirados dos vários casos de estudo e com a ajuda de uma meta-análise. As Leis de Potência em sistemas naturais e artificiais apresentam uma proximidade a um padrão, quando os valores são normalizados (frequências relativas) para dar origem a um meta-gráfico.
Resumo:
This thesis presents the Fuzzy Monte Carlo Model for Transmission Power Systems Reliability based studies (FMC-TRel) methodology, which is based on statistical failure and repair data of the transmission power system components and uses fuzzyprobabilistic modeling for system component outage parameters. Using statistical records allows developing the fuzzy membership functions of system component outage parameters. The proposed hybrid method of fuzzy set and Monte Carlo simulation based on the fuzzy-probabilistic models allows catching both randomness and fuzziness of component outage parameters. A network contingency analysis to identify any overloading or voltage violation in the network is performed once obtained the system states. This is followed by a remedial action algorithm, based on Optimal Power Flow, to reschedule generations and alleviate constraint violations and, at the same time, to avoid any load curtailment, if possible, or, otherwise, to minimize the total load curtailment, for the states identified by the contingency analysis. For the system states that cause load curtailment, an optimization approach is applied to reduce the probability of occurrence of these states while minimizing the costs to achieve that reduction. This methodology is of most importance for supporting the transmission system operator decision making, namely in the identification of critical components and in the planning of future investments in the transmission power system. A case study based on Reliability Test System (RTS) 1996 IEEE 24 Bus is presented to illustrate with detail the application of the proposed methodology.
Resumo:
We study the effects of product differentiation in a Stackelberg model with demand uncertainty for the first mover. We do an ex-ante and ex-post analysis of the profits of the leader and of the follower firms in terms of product differentiation and of the demand uncertainty. We show that even with small uncertainty about the demand, the follower firm can achieve greater profits than the leader, if their products are sufficiently differentiated. We also compute the probability of the second firm having higher profit than the leading firm, subsequently showing the advantages and disadvantages of being either the leader or the follower firm.
Resumo:
A deteção e seguimento de pessoas tem uma grande variedade de aplicações em visão computacional. Embora tenha sido alvo de anos de investigação, continua a ser um tópico em aberto, e ainda hoje, um grande desafio a obtenção de uma abordagem que inclua simultaneamente exibilidade e precisão. O trabalho apresentado nesta dissertação desenvolve um caso de estudo sobre deteção e seguimento automático de faces humanas, em ambiente de sala de reuniões, concretizado num sistema flexível de baixo custo. O sistema proposto é baseado no sistema operativo GNU's Not Unix (GNU) linux, e é dividido em quatro etapas, a aquisição de vídeo, a deteção da face, o tracking e reorientação da posição da câmara. A aquisição consiste na captura de frames de vídeo das três câmaras Internet Protocol (IP) Sony SNC-RZ25P, instaladas na sala, através de uma rede Local Area Network (LAN) também ele já existente. Esta etapa fornece os frames de vídeo para processamento à detecção e tracking. A deteção usa o algoritmo proposto por Viola e Jones, para a identificação de objetos, baseando-se nas suas principais características, que permite efetuar a deteção de qualquer tipo de objeto (neste caso faces humanas) de uma forma genérica e em tempo real. As saídas da deteção, quando é identificado com sucesso uma face, são as coordenadas do posicionamento da face, no frame de vídeo. As coordenadas da face detetada são usadas pelo algoritmo de tracking, para a partir desse ponto seguir a face pelos frames de vídeo subsequentes. A etapa de tracking implementa o algoritmo Continuously Adaptive Mean-SHIFT (Camshift) que baseia o seu funcionamento na pesquisa num mapa de densidade de probabilidade, do seu valor máximo, através de iterações sucessivas. O retorno do algoritmo são as coordenadas da posição e orientação da face. Estas coordenadas permitem orientar o posicionamento da câmara de forma que a face esteja sempre o mais próximo possível do centro do campo de visão da câmara. Os resultados obtidos mostraram que o sistema de tracking proposto é capaz de reconhecer e seguir faces em movimento em sequências de frames de vídeo, mostrando adequabilidade para aplicação de monotorização em tempo real.