5 resultados para task performance benchmarking
em Universidade Federal do Rio Grande do Norte(UFRN)
Resumo:
The increasing world population of older individuals has become a subject of growing research for prevention and reversibility of the frailty because it is a major risk factor for the occurrence of falls, especially when it involves everyday situations of dual task. Some rehabilitation programs have already used the methods of dual-task with general exercises for improving gait and postural control, but has been reported that these interventions have little specificity with limited success to improve certain aspects of static and dynamic position during the performance of functional tasks. This study aimed to verify the measures of postural control in a group of elderly women with fragility phenotype after physical therapy intervention program based on dual-task treadmill training. We selected six pre-frail elderly subjects, with a minimum age of 65, female, living in the community and randomly assigned to two groups. The survey was conducted twice a week for 45 minutes, for four weeks. The simple task intervention consisted only in training on a treadmill and the dual task consisted of in treadmill training associated with visual stimuli. The assessments were made with the use of the Berg Balance Scale (BBS) and the Balance Master® computerized posturography, static and dynamically. The effects of retention were observed after one month, using the same instruments earlier used. The results showed a tendency toward improvement or maintenance of the balance after training on a treadmill, especially with respect to static equilibrium. Both groups showed the most notable changes in the variables related to gait, as the length and speed. The BBS scores and the baropodometric variables showed that the experimental group could keep all values similar or better even one month after completion of training unlike the control group. We concluded that the dual-task performance had no additional value in relation to the improvement of balance in general, but we observed that the effectiveness of visual stimulation occurred in the maintenance of short term balancevariables
Resumo:
The discrimination learning is assessed through instrumental tasks in which the individual is rewarded for choosing one item over another. Thus, in concurrent visual discrimination of objects the animal must learn that only one of the objects will be rewarded. The concurrent visual discrimination is relatively simple, and already been observed Callithrix jacchus is able to accomplish this task. As yet wasn't seen the influence of the qualitative aspects of the rewards, in the performance of concurrent visual discrimination of objects in nonhuman primates, and as in most tests are used isolated animals, the present study had two stages: at first we had as objective to analyze the influence of the caloric value of the reward on the performance in concurrent visual discrimination of objects in isolated animals; in the second, we had the intention analyze performance of C. jacchus in realization of discrimination task in different social contexts, as well as, analyze the influence of previous experience in task performance. In the first stage (Study 1), the animals were not able to discriminate foods that presented small caloric differences . This incapacity in discriminates the rewards was responsible by generating randomness in task of concurrent visual discrimination of objects. In the second stage (Study 2), observed that, independent of social context in which the task was presented, the performance both of the experienced animals as the inexperienced animals tended to randomness. In the first case, is likely that the pattern of responses of the experienced animals is a reflection of their own performance when they were observed in isolation. In the second case, in turn, the randomness was probably due to the small number of sessions. Although present a pattern of performance similar to inexperienced individuals, we verify that the experienced animals monopolize the food consumption when they were in the presence of inexperienced individuals. This was a consequence of the experienced animals have presented lower latency the approximation of apparatus and, consequently, obtain more food. In turn, the inexperienced animals, when were in the presence of experienced, had to adopt alternative strategies to obtain food. Thus, C. jacchus is able to use the previous information he had about the task of solving their own benefit.
Resumo:
In Brazil, the National Agency of Electric Energy (ANEEL) represents the energy regulator. The rates review have been one of its main tasks, which establish a pricing practice at a level to cover the efficient operating costs and also the appropriate return of the distributors investments. The changes in the procedures to redefine the efficient costs and the several studies on the methodologies employed to regulate this segment denote the challenge faced by regulators about the best methodological strategy to be employed. In this context, this research aims to propose a benchmarking evaluation applied to the national regulation system in the establishment of efficient operating costs of electricity distribution utilities. The model is formulated to promote the electricity market development, partnering with government policies ant to society benefit. To conduct this research, an integration of Data Envelopment Analysis (DEA) with the Stochastic Frontier Analysis (SFA) is adopted in a three stages procedure to correct the efficiency in terms of environmental effects: (i) evaluation by means of DEA to measure operating costs slacks of the utilities, in which environmental variables are omitted; (ii) The slacks calculated in the first stage are regressed on a set of environmental variables by means of SFA and operating costs are adjusted to account the environmental impact and statistical noise effects; and, (iii) reassess the performance of the electric power distribution utilities by means of DEA. Based on this methodology it is possible to obtain a performance evaluation exclusively expressed in terms of management efficiency, in which the operating environment and statistical noise effects are controlled.
Resumo:
A manutenção e evolução de sistemas de software tornou-se uma tarefa bastante crítica ao longo dos últimos anos devido à diversidade e alta demanda de funcionalidades, dispositivos e usuários. Entender e analisar como novas mudanças impactam os atributos de qualidade da arquitetura de tais sistemas é um pré-requisito essencial para evitar a deterioração de sua qualidade durante sua evolução. Esta tese propõe uma abordagem automatizada para a análise de variação do atributo de qualidade de desempenho em termos de tempo de execução (tempo de resposta). Ela é implementada por um framework que adota técnicas de análise dinâmica e mineração de repositório de software para fornecer uma forma automatizada de revelar fontes potenciais – commits e issues – de variação de desempenho em cenários durante a evolução de sistemas de software. A abordagem define quatro fases: (i) preparação – escolher os cenários e preparar os releases alvos; (ii) análise dinâmica – determinar o desempenho de cenários e métodos calculando seus tempos de execução; (iii) análise de variação – processar e comparar os resultados da análise dinâmica para releases diferentes; e (iv) mineração de repositório – identificar issues e commits associados com a variação de desempenho detectada. Estudos empíricos foram realizados para avaliar a abordagem de diferentes perspectivas. Um estudo exploratório analisou a viabilidade de se aplicar a abordagem em sistemas de diferentes domínios para identificar automaticamente elementos de código fonte com variação de desempenho e as mudanças que afetaram tais elementos durante uma evolução. Esse estudo analisou três sistemas: (i) SIGAA – um sistema web para gerência acadêmica; (ii) ArgoUML – uma ferramenta de modelagem UML; e (iii) Netty – um framework para aplicações de rede. Outro estudo realizou uma análise evolucionária ao aplicar a abordagem em múltiplos releases do Netty, e dos frameworks web Wicket e Jetty. Nesse estudo foram analisados 21 releases (sete de cada sistema), totalizando 57 cenários. Em resumo, foram encontrados 14 cenários com variação significante de desempenho para Netty, 13 para Wicket e 9 para Jetty. Adicionalmente, foi obtido feedback de oito desenvolvedores desses sistemas através de um formulário online. Finalmente, no último estudo, um modelo de regressão para desempenho foi desenvolvido visando indicar propriedades de commits que são mais prováveis a causar degradação de desempenho. No geral, 997 commits foram minerados, sendo 103 recuperados de elementos de código fonte degradados e 19 de otimizados, enquanto 875 não tiveram impacto no tempo de execução. O número de dias antes de disponibilizar o release e o dia da semana se mostraram como as variáveis mais relevantes dos commits que degradam desempenho no nosso modelo. A área de característica de operação do receptor (ROC – Receiver Operating Characteristic) do modelo de regressão é 60%, o que significa que usar o modelo para decidir se um commit causará degradação ou não é 10% melhor do que uma decisão aleatória.
Resumo:
A manutenção e evolução de sistemas de software tornou-se uma tarefa bastante crítica ao longo dos últimos anos devido à diversidade e alta demanda de funcionalidades, dispositivos e usuários. Entender e analisar como novas mudanças impactam os atributos de qualidade da arquitetura de tais sistemas é um pré-requisito essencial para evitar a deterioração de sua qualidade durante sua evolução. Esta tese propõe uma abordagem automatizada para a análise de variação do atributo de qualidade de desempenho em termos de tempo de execução (tempo de resposta). Ela é implementada por um framework que adota técnicas de análise dinâmica e mineração de repositório de software para fornecer uma forma automatizada de revelar fontes potenciais – commits e issues – de variação de desempenho em cenários durante a evolução de sistemas de software. A abordagem define quatro fases: (i) preparação – escolher os cenários e preparar os releases alvos; (ii) análise dinâmica – determinar o desempenho de cenários e métodos calculando seus tempos de execução; (iii) análise de variação – processar e comparar os resultados da análise dinâmica para releases diferentes; e (iv) mineração de repositório – identificar issues e commits associados com a variação de desempenho detectada. Estudos empíricos foram realizados para avaliar a abordagem de diferentes perspectivas. Um estudo exploratório analisou a viabilidade de se aplicar a abordagem em sistemas de diferentes domínios para identificar automaticamente elementos de código fonte com variação de desempenho e as mudanças que afetaram tais elementos durante uma evolução. Esse estudo analisou três sistemas: (i) SIGAA – um sistema web para gerência acadêmica; (ii) ArgoUML – uma ferramenta de modelagem UML; e (iii) Netty – um framework para aplicações de rede. Outro estudo realizou uma análise evolucionária ao aplicar a abordagem em múltiplos releases do Netty, e dos frameworks web Wicket e Jetty. Nesse estudo foram analisados 21 releases (sete de cada sistema), totalizando 57 cenários. Em resumo, foram encontrados 14 cenários com variação significante de desempenho para Netty, 13 para Wicket e 9 para Jetty. Adicionalmente, foi obtido feedback de oito desenvolvedores desses sistemas através de um formulário online. Finalmente, no último estudo, um modelo de regressão para desempenho foi desenvolvido visando indicar propriedades de commits que são mais prováveis a causar degradação de desempenho. No geral, 997 commits foram minerados, sendo 103 recuperados de elementos de código fonte degradados e 19 de otimizados, enquanto 875 não tiveram impacto no tempo de execução. O número de dias antes de disponibilizar o release e o dia da semana se mostraram como as variáveis mais relevantes dos commits que degradam desempenho no nosso modelo. A área de característica de operação do receptor (ROC – Receiver Operating Characteristic) do modelo de regressão é 60%, o que significa que usar o modelo para decidir se um commit causará degradação ou não é 10% melhor do que uma decisão aleatória.